- 2021-12-10 23:17Softsign活性化関数
- 2021-12-10 23:16SoftPlusアクティブ化関数
- 2021-12-10 23:15活性化関数Bent Identity
- 2021-12-10 23:15Symmetrical Sigmoidアクティベーション関数
- 2021-12-10 23:15Log Logアクティベーション関数
- 2021-12-10 23:14ガウス活性化関数(Gaussian)
- 2021-12-10 23:13絶対値(Absolute)アクティブ化関数
- 2021-12-10 23:12コサイン活性化関数(Cos/Cosine)
- 2021-12-10 23:12Sinc関数(総称はCardinal Sine)
- 2021-12-10 23:09指数線形ユニット(Exponential Linear Unit,ELU)
- 2021-12-10 23:07MaxoutとDropout
- 2021-12-10 23:06Maxoutのtensorfow実装
- 2021-12-10 23:04MaxOut関数
- 2021-12-10 23:01MELU(Exponential Linear Units)関数
- 2021-12-10 22:57Leaky ReLU関数(PReLU)
- 2021-12-08 21:10無料のランチ定理はありません(No Free Lunch Theorem、NFL)
- 2021-12-08 12:56アンダーフィットとオーバーフィットとは?
- 2021-12-08 12:497つのポイントの機械学習の方法
- 2021-12-08 12:46機械学習に関わる7つの範囲
- 2021-12-06 16:48ランダムな森のPython実現