Regularizers memungkinkan Anda menerapkan pen alti pada parameter lapisan atau aktivitas lapisan selama pengoptimalan. Hukuman ini dijumlahkan ke dalam fungsi kerugian yang dioptimalkan jaringan. Hukuman regularisasi diterapkan pada basis per-layer.
Apa itu pengatur aktivitas?
Aktivitas regularizer bekerja sebagai fungsi dari output net, dan sebagian besar digunakan untuk mengatur unit tersembunyi, sedangkan weight_regularizer, seperti namanya, bekerja pada bobot (misalnya membuat mereka membusuk).
Kapan saya harus menggunakan pengatur aktivitas?
Jika Anda ingin fungsi output melewati (atau memiliki intersep lebih dekat ke) asal, Anda dapat menggunakan regularizer bias. Jika Anda ingin output lebih kecil (atau mendekati 0), Anda dapat menggunakan pengatur aktivitas.
Bagaimana cara menggunakan regularizer Keras?
Untuk menambahkan regularizer ke layer, Anda cukup untuk meneruskan teknik regularisasi yang disukai ke argumen kata kunci layer 'kernel_regularizer'. Metode implementasi regularisasi Keras dapat memberikan parameter yang mewakili nilai hyperparameter regularisasi.
Apa itu kernel dan bias?
Kelas padat
Dense mengimplementasikan operasi: output=activation(dot(input, kernel) + bias) di mana activation adalah fungsi aktivasi elemen-bijaksana yang diteruskan sebagai argumen aktivasi, kernel adalah matriks bobot yang dibuat oleh layer, danbias adalah vektor bias yang dibuat oleh layer (hanya berlaku jika use_bias True).