Guest
Jan 9, 08:23
Dạ chào anh, em đang tìm hiểu về CNN và có 1 thắc mắc thế này mong anh giải đáp giúp em được không ạ.

Trong mô hình CNNs, để trích xuất thông tin thì người ta thường thường sử dụng nhiều hơn 1 kernel trên mỗi layer convolution mà không phải 1. Một cách giải thích thông thường là mỗi kernel đó sẽ tự học một đặc trưng khác nhau ví dụ như đặc trưng cạnh, đặc trưng góc,... Tuy nhiên trọng số các kernel đều là tự học và có thể sẽ có trường hợp các kernel này sẽ học giống như nhau và sinh ra các kernel tương tự nhau (mặc dù có thể được init từ random weight), và bản thân đóng góp của những kernel này cũng không tương đương nhau. Vậy anh có nghĩ là việc sinh ra nhiều kernel có phải là 1 phương pháp mang tính may rủi hay không ạ?

Lê Việt Hùng
Lê Việt Hùng
Jan 17, 21:16

Chào em, Rất tiếc anh không có chuyên môn để trả lời em. Em lên facebook ML cơ bản để hỏi, có lẽ có người biết.

Comments
Comment