Điểm:2

Hàm băm, tính song ánh và entropy

lá cờ cn

Dành cho những ai chưa biết, hàm song ánh là hàm mà mỗi đầu vào tạo ra một và chỉ một đầu ra. Ví dụ, một mật mã khối được đảm bảo là song ánh hoặc bạn không thể giải mã được.

Khi một hàm băm như SHA256 hoặc SHA3 được sử dụng với đầu vào có cùng độ dài với đầu ra của nó, AFAIK điều này không hoặc ít nhất không phải là phỏng đoán. (Đúng không?)

Nếu một hàm băm không phải là song ánh, điều này có nghĩa là hàm băm lặp đi lặp lại sẽ làm mất entropy?

Giả sử bạn có 256 bit entropy và bạn chuyển nó qua SHA256. Bạn vẫn còn 256 bit entropy chứ? Giả sử bạn đã băm SHA256 một triệu lần. Sau đó thì sao?

Đối với tôi, dường như câu trả lời phải là không, nhưng một lần nữa, điều đó có tạo ra vấn đề cho mật mã dựa trên hàm băm không?

Chỉ là một câu hỏi ngẫu nhiên nảy ra trong đầu tôi.

lá cờ pe
Điều này có vẻ giống như một bản sao của https://crypto.stackexchange.com/a/15084
fgrieu avatar
lá cờ ng
[Liên quan](https://crypto.stackexchange.com/a/24672/555), nhưng không trùng lặp: đối với một hàm băm trên cùng một tập hợp, tổn thất entropy dự kiến ​​khi băm một giá trị ngẫu nhiên thống nhất nhanh chóng hội tụ thành 0,827245389153â ¦ bit cho hàm băm đầu tiên khi kích thước cài đặt tăng lên. Đó là hằng số duy nhất có liên quan nhẹ và không được biết đến nhiều mà tôi từng rút ra.
Điểm:3
lá cờ pe

Điều này đã được trả lời đây cho 1 lần lặp, và đây cho nhiều lần lặp lại, nhưng vì câu trả lời sau đưa ra một đối số heuristic nên tôi sẽ để lại ở đây Bổ đề 4 của Đồ thị hàm và ứng dụng của chúng trong các cuộc tấn công chung vào các cấu trúc hàm băm lặp lại mang lại một xấp xỉ tốt dựa trên Định lý 2 của Thống kê ánh xạ ngẫu nhiên, và (3.10) của Trên chiều cao của cây:

Bổ đề 4. Để cho $f$ là một ánh xạ ngẫu nhiên trong $\mathcal{F}_N$. Chứng tỏ $N = 2^n$. Vì $k \le 2^{n/2}$, kỳ vọng về số nút hình ảnh lặp thứ k trong đồ thị hàm của $f$$$ (1 - \tau_k)\cdot N \approx \left(\frac{2}{k} - \frac{2}{3}\frac{\log k}{k^2} - \frac{c}{ k^2} - \dots \right) \cdot N\,. $$ Nó gợi ý rằng $\lim_{k \to \infty} k\cdot (1 - \tau_k) = 2$. Như vậy, $$ \lim_{N \to \infty, k \to \infty, k \le \sqrt{N}}(1 - \tau_k)\cdot N \approx 2^{n - \log_2 k + 1}\,, $$ ở đâu $\tau_k$ thỏa mãn sự lặp lại $\tau_0 = 0, \tau_{k+1} = e^{-1+\tau_k}$, và $c$ là một hằng số nào đó.

Vì vậy, trong khi có, có một số mất mát entropy do lặp đi lặp lại một hàm ngẫu nhiên, mất mát này chỉ tăng theo logarit trên số lần lặp lại. Để thua, nói, $32$ bit của entropy, bạn cần lặp lại hàm băm xung quanh $2^{32}$ lần. Đối với độ dài đầu ra lớn như $256$ bit, loại tổn thất này không đáng kể đối với hầu hết các mục đích thực tế.

Đăng câu trả lời

Hầu hết mọi người không hiểu rằng việc đặt nhiều câu hỏi sẽ mở ra cơ hội học hỏi và cải thiện mối quan hệ giữa các cá nhân. Ví dụ, trong các nghiên cứu của Alison, mặc dù mọi người có thể nhớ chính xác có bao nhiêu câu hỏi đã được đặt ra trong các cuộc trò chuyện của họ, nhưng họ không trực giác nhận ra mối liên hệ giữa câu hỏi và sự yêu thích. Qua bốn nghiên cứu, trong đó những người tham gia tự tham gia vào các cuộc trò chuyện hoặc đọc bản ghi lại các cuộc trò chuyện của người khác, mọi người có xu hướng không nhận ra rằng việc đặt câu hỏi sẽ ảnh hưởng—hoặc đã ảnh hưởng—mức độ thân thiện giữa những người đối thoại.