AI Technology Community
Today search ranking
The Week search ranking
month search ranking
564views
0likes
絶対値(Absolute)アクティブ化関数
当然のことながら、絶対値(Absolute)活性化関数は入力の絶対値を返します。この関数の導関数は零点を除いてどこでも定義されており、導関数の値はどこでも 1 です。このような活性化関数では、勾配爆発や勾配消失の問題が発生することはありません。
12-10 23:13
598views
0likes
コサイン活性化関数(Cos/Cosine)
正弦関数と同様に、余弦活性化関数(Cos/コサイン)はニューラルネットワークに周期性を導入します。その値域は [-1,1] で、導関数はどこでも連続しています。Sinusoid 関数とは異なり、余弦関数は零点に関して対称ではない偶関数です。
12-10 23:12
1272views
0likes
Sinc関数(総称はCardinal Sine)
シンク関数(正式名称はカーディナルサイン)は信号処理において特に重要です。なぜなら、この関数は矩形関数のフーリエ変換を表しているからです。活性化関数として、シンク関数の利点は、どこでも微分可能で対称性を持つことです。しかし、この関数は勾配消失の問題を引き起こしやすいという欠点があります。
12-10 23:12
860views
0likes
指数線形ユニット(Exponential Linear Unit,ELU)
指数線形ユニット(Exponential Linear Unit,ELU)もReLU修正系活性化関数の一つです。PReLUやRReLUと同様に、負の入力に対して非ゼロの出力を与えます。他の修正系活性化関数と異なる点は、負の指数項を含んでおり、これにより無反応のニューロンを防ぐことができます。
12-10 23:09
434views
0likes
MaxoutとDropout
ドロップアウトはネットワークの正則化テクニックで、実際には多くの異なるネットワーク構造を訓練するのと同じです。それにもかかわらず、推論段階ではすべての異なる構造のパラメータが共有されます。なぜなら、実際には1つのネットワークしか存在しないからです。機械学習アルゴリズムには、バギングという概念があります。バギング
12-10 23:07
357views
0likes
Maxoutのtensorfow実装
import tensorflow as tf
x = tf.random_normal([1, 3])
m = 4
k = 3
d = x.get_shape().as_list()[-1]
W = tf.Variable(tf.random_normal(shape=[d, m, k]))
b = tf.Variable(tf.random_normal(shape=[m, k]))
dot_z = tf.tensordot(x, W, axes = 1)
12-10 23:06
392views
0likes
MaxOut関数
maxout活性化関数の場合、その隠れ層ノードの出力式は以下の通りです。ここでのWは3次元で、サイズはd*m*kです。ここで、dは入力層ノードの数、mは隠れ層ノードの数、kは各隠れ層ノードがk個の「隠れ隠れ層」ノードに対応していることを表し、これらのk個の「隠れ隠れ層」ノードはすべて線形です。
12-10 23:04
600views
0likes
MELU(Exponential Linear Units)関数
関数式:関数とその導関数のグラフは以下の通りです。ELUもReLUが抱える問題を解決するために提案されました。明らかに、ELUはReLUの基本的なすべての利点を持ち、さらに以下の利点があります。1、DeadReLU問題が発生しません。2、出力の平均が0に近く、zero - centeredです。ただし、少し計算量が多いという小さな問題があります。クラス
12-10 23:01
1566views
1likes
Leaky ReLU関数(PReLU)
PReLU(パラメトリック整流線形ユニット)、名前の通り:パラメータ付きのReLUです。両者の定義と違いは以下の図の通りです。もしai = 0ならば、PReLUはReLUに退化します。もしaiが非常に小さい固定値(例えばai = 0.01)ならば、PReLUはリーキーReLU(LReLU)に退化します。 実験により証明されています
12-10 22:57
853views
1likes
無料のランチ定理はありません(No Free Lunch Theorem、NFL)
私たちはよく「どのアルゴリズムがより良いか」や「AアルゴリズムはBアルゴリズムより良い」などのような話を耳にします。実はこのような言い方は、ある具体的な問題(タスク)を解決するという前提を無視しています。なぜそう言うかというと、すべての潜在的な問題を考慮すると、すべての学習アルゴリズムは一
12-08 21:10
575views
1likes
アンダーフィットとオーバーフィットとは?
私たちは機械学習によって学習したモデルの汎化能力が比較的強いことを望んでいます。端的に言えば、学習したモデルが訓練サンプルの中でのみうまく機能するだけでなく、新しいサンプルの中でもうまく機能するべきです。通常、分類誤りのサンプル数が総サンプル数に占める割合を誤り率(error rate)と呼びます。
12-08 12:56
564views
2likes
7つのポイントの機械学習の方法
機械学習の中に一体どれだけの古典的なアルゴリズムがあるのでしょうか?この部分では、機械学習における古典的な代表的な手法について簡単に紹介します。この部分の紹介の重点は、これらの手法に内包される思想であり、数学的な詳細や実践的な詳細についてはここでは議論しません。 1、回帰アルゴリズム ほとんどの機械学習の講義では、回
12-08 12:49
472views
2likes
機械学習に関わる7つの範囲
実際、機械学習はパターン認識、統計学習、データマイニング、コンピュータビジョン、音声認識、自然言語処理などの分野と深い関係があります。範囲から言えば、機械学習はパターン認識、統計学習、データマイニングに似ています。同時に、機械学習と他の分野の関係については
12-08 12:46
590views
0likes
ランダムな森のPython実現
Pythonの2つのモジュール、pandasとscikit - learnをそれぞれ利用してランダムフォレストを実装します。from sklearn.datasets import load_iris from sklearn.ensemble import RandomForestClassifier import pandas as pd import numpy as np iris = load_iris() df
12-06 16:48
707views
3likes
ランダム森林の動作原理の説明の簡単な例
説明:既存の訓練セットに基づいて対応するランダムフォレストを生成しました。ランダムフォレストは、ある人の年齢(Age)、性別(Gender)、学歴(Highest Educational Qualification)、職種(Industry)、居住地(Residence)という5つの要素をどのように利用するのでしょうか"
12-06 16:43
548views
0likes
ランダム森林の生成
先ほど述べたように、ランダムフォレストには多くの分類木があります。入力サンプルを分類する場合、その入力サンプルを各木に入力して分類を行う必要があります。分かりやすい例えをすると、森の中で会議が開かれ、ある動物がネズミなのかリスなのかを議論し、各木は独立して自分自身の意見を述べる必要があります。
12-06 16:43
528views
0likes
ランダムな森に関する基礎知識
ランダムフォレストは一見理解しやすいように見えますが、その仕組みを完全に理解するには、機械学習に関連する多くの基礎知識が必要です。この記事では、簡単に触れるだけで詳細な説明は省略します。関連知識があまりわからない方は、他のブロガーの関連するブログ記事を参照してください。
12-06 16:43
799views
0likes
ランダムな森の特徴
私たちは先ほど、ランダムフォレストは非常に柔軟で実用的な方法であり、以下のいくつかの特徴があると述べました。現在のすべてのアルゴリズムの中で、極めて高い精度を持っています/現在のアルゴリズムの中で精度が群を抜いています;大規模なデータセットでも効率的に動作します/効率的に実行されます
12-06 16:42
564views
0likes
ランダムな森とは?
新しく興り、高度に柔軟な機械学習アルゴリズムとして、ランダムフォレスト(Random Forest、略称RF)は広範な応用前景を持っています。マーケティングから医療保険まで、マーケティングシミュレーションのモデリングや、顧客の出身、維持と流失を統計するために使えるだけでなく、病気のリスクを予測するためにも使えます。
12-06 16:41
619views
0likes
k最隣接アルゴリズムとは(kNN)
K近傍アルゴリズムはKNNとも呼ばれ、正式名称はK-Nearest Neighborsアルゴリズムであり、データマイニングや機械学習でよく使われる学習アルゴリズムであり、また機械学習における最も簡単な分類アルゴリズムの一つです。KNNの使用範囲は非常に広く、サンプル数が十分に多いという前提条件の下では、その正確度は非常に高くなります。KNNは一
12-06 16:28