AI Technology Community
Today search ranking
The Week search ranking
month search ranking
479views
0likes
Transductive learning直進学習
トランスダクティブ学習(直推式学習)。直推とは、観測された特定のデータから特定のデータへの推論である。直推学習は帰納学習と異なり、訓練データとテストデータは事前にすべて観測可能であり、既知の訓練データから特徴を学習してテストセットのラベルを予測する。たとえ我々は
11-02 16:44
419views
0likes
Inductive learning帰納学習
帰納的学習(きのうてきがくしゅう)。帰納とは、観測されたデータから一般的なデータへの推論であり、帰納的学習は私たちが日常で言う教師あり学習のことで、ラベル付きのデータを使用してモデルを訓練し、その後、訓練済みのモデルを使用してテストセットデータのラベルを予測する。訓練セットデータにはテスト
11-02 16:43
467views
0likes
multiple linear regression多元回帰解析
1. 単純線形回帰(simple linear regression)との違い:複数の説明変数(x)
2. 重回帰モデル
y = β0+β1x1 + β2x2 + … + βpxp + ε
ここで:β0,β1,β2… βpはパラメータ
εは誤差値
3. 重回帰方程式
E(y) = β0+β1x1 + β2x2 + … + βpxp
4.
11-02 16:41
479views
0likes
強化学習のscore function
score functionの定義とは、score functionが最大対数尤度関数の中で対数尤度関数の勾配を0にする勾配を求めるものであるということです。つまり、最大尤度問題を解くことはscore functionを解くことです。2、さらにパラメータで微分すると、Fisher Informationが得られます。FIMはSFの負の微分です。
11-01 22:37
459views
1likes
シンボリズムSymbolism
シンボリズムは人工知能分野において数理論理学を篤信する流派である。数理論理学は19世紀末から急速に発展し、20世紀30年代には知的行動を記述するために用いられ始めた。コンピュータが登場した後、コンピュータ上で論理演繹システムが実現された。その代表的な成果はヒューリスティックプログラムLである。
11-01 22:34
422views
0likes
階層サンプリングStratified sampling
統計学の理論において、層別サンプリングは母集団(population)に対するサンプリング方法である。特に、母集団内で亜母集団(subpopulations)間の差異が大きい場合に適している。各subpopulationは、層(stratum)とも呼ばれる。Lは層の数を表し、その中で それぞれ指す
11-01 22:33
747views
1likes
アンダーサンプリング(undersampling)とオーバーサンプリング(oversampling)
二値分類データが不均衡な場合、モデルの出力に影響を与えるため、このときはデータを処理する必要があります。1:なぜクラスの不均衡がモデルの出力に影響を与えるのか:多くのモデルの出力クラスは閾値に基づいています。例えば、ロジスティック回帰では0.5未満が反例、それを超える場合は正例となります。データが不均衡な場合、デフォルトの閾
11-01 22:24
2054views
4likes
SOM自己組織マッピングニューラルネットワーク
自己組織化マップ(Self-organizing map, SOM)は、入力空間内のデータを学習することで、低次元で離散的なマップ(Map)を生成し、ある程度では次元削減アルゴリズムとも見なすことができます。SOMは教師なしの人工ニューラルネットワークです。一般的なニューラルネットワークが損失関数に基づく逆伝播によって
11-01 20:32
1893views
1likes
Mean Squard Error平均二乗誤差
MSE(Mean Squared Error)は平均二乗誤差と呼ばれます。この公式を見ると、ここのyはテストセット上のものです。真値から予測値を引いて、それを二乗した後、合計して平均を取ります。この公式を一見すると、何か見慣れた感じがしませんか?これはまさに線形回帰の損失関数です!!! そうです、線形回帰の際に私たちは
11-01 18:00
539views
1likes
bayesian Networkベイズネットワーク
ベイジアンネットワーク(Bayesian network)は、信念ネットワーク(Belief Network)または有向非巡回グラフモデル(directed acyclic graphical model)とも呼ばれ、確率グラフモデルの一種で、1985年にJudea Pearlによって初めて提案されました。これは、人間の推論過程における因果関係を模擬するもので
11-01 17:51
443views
0likes
非凸最適化凸最適化
数学における最適化問題の一般的な表現は、を求めることであり、ここではn次元ベクトル、はの実行可能領域、は上の実数値関数である。 凸最適化問題とは、が閉じた凸集合であり、が上の凸関数である最適化問題を指し、この2つの条件のいずれかを満たさない場合、その問題は非凸の最適化問題となる。 ここで、は
11-01 17:50
443views
0likes
One-shot Learningシングルサンプル学習
私たちが何らかの問題を解決する前に、まずその問題が何であるかを正確に定義する必要があります。以下は単サンプル分類問題の記号化表現です: 私たちのモデルはわずかなラベル付きの訓練サンプルSしか取得していません。このサンプル集合にはN個のサンプルがあり、それぞれ同じ次元のベクトルには対応するラベルyが付いています。そして、ある
11-01 17:48
445views
2likes
inductive bias帰納バイアス/帰納バイアス
「帰納的バイアス」(Inductive bias)の「バイアス」は、データ推定における推定値と真の値の差であるエラー(error)を連想させ、「帰納的バイアス」が回避すべき何らかの誤りや誤差であると誤解されがちですが、実際はそうではありません。帰納的バイアス(inductive bias)は機械学習において積極的な役割を果たします。より適切な翻訳は
11-01 17:45
765views
1likes
インクリメンタルラーニングの特徴インクレメンタルラーニング
増分学習と継続学習(Continual Learning)、生涯学習(Lifelong Learning)の概念はおおむね同等であり、これらはすべて連続的なデータストリームの中でモデルを訓練するもので、時間の経過とともにより多くのデータが徐々に利用可能になり、同時に古いデータは保存制限やプライバシー保護などの理由から
11-01 13:01