Select Language

AI Technology Community

Today search ranking
The Week search ranking
month search ranking
479views
0likes

Transductive learning直進学習

トランスダクティブ学習(直推式学習)。直推とは、観測された特定のデータから特定のデータへの推論である。直推学習は帰納学習と異なり、訓練データとテストデータは事前にすべて観測可能であり、既知の訓練データから特徴を学習してテストセットのラベルを予測する。たとえ我々は
421views
0likes

Inductive learning帰納学習

帰納的学習(きのうてきがくしゅう)。帰納とは、観測されたデータから一般的なデータへの推論であり、帰納的学習は私たちが日常で言う教師あり学習のことで、ラベル付きのデータを使用してモデルを訓練し、その後、訓練済みのモデルを使用してテストセットデータのラベルを予測する。訓練セットデータにはテスト
467views
0likes

multiple linear regression多元回帰解析

1. 単純線形回帰(simple linear regression)との違い:複数の説明変数(x) 2. 重回帰モデル y = β0+β1x1 + β2x2 + … + βpxp + ε ここで:β0,β1,β2… βpはパラメータ εは誤差値 3. 重回帰方程式 E(y) = β0+β1x1 + β2x2 + … + βpxp 4.
481views
0likes

強化学習のscore function

score functionの定義とは、score functionが最大対数尤度関数の中で対数尤度関数の勾配を0にする勾配を求めるものであるということです。つまり、最大尤度問題を解くことはscore functionを解くことです。2、さらにパラメータで微分すると、Fisher Informationが得られます。FIMはSFの負の微分です。
459views
1likes

シンボリズムSymbolism

シンボリズムは人工知能分野において数理論理学を篤信する流派である。数理論理学は19世紀末から急速に発展し、20世紀30年代には知的行動を記述するために用いられ始めた。コンピュータが登場した後、コンピュータ上で論理演繹システムが実現された。その代表的な成果はヒューリスティックプログラムLである。
422views
0likes

階層サンプリングStratified sampling

統計学の理論において、層別サンプリングは母集団(population)に対するサンプリング方法である。特に、母集団内で亜母集団(subpopulations)間の差異が大きい場合に適している。各subpopulationは、層(stratum)とも呼ばれる。Lは層の数を表し、その中で それぞれ指す
747views
1likes

アンダーサンプリング(undersampling)とオーバーサンプリング(oversampling)

二値分類データが不均衡な場合、モデルの出力に影響を与えるため、このときはデータを処理する必要があります。1:なぜクラスの不均衡がモデルの出力に影響を与えるのか:多くのモデルの出力クラスは閾値に基づいています。例えば、ロジスティック回帰では0.5未満が反例、それを超える場合は正例となります。データが不均衡な場合、デフォルトの閾
2058views
4likes

SOM自己組織マッピングニューラルネットワーク

自己組織化マップ(Self-organizing map, SOM)は、入力空間内のデータを学習することで、低次元で離散的なマップ(Map)を生成し、ある程度では次元削減アルゴリズムとも見なすことができます。SOMは教師なしの人工ニューラルネットワークです。一般的なニューラルネットワークが損失関数に基づく逆伝播によって
1897views
1likes

Mean Squard Error平均二乗誤差

MSE(Mean Squared Error)は平均二乗誤差と呼ばれます。この公式を見ると、ここのyはテストセット上のものです。真値から予測値を引いて、それを二乗した後、合計して平均を取ります。この公式を一見すると、何か見慣れた感じがしませんか?これはまさに線形回帰の損失関数です!!! そうです、線形回帰の際に私たちは
539views
1likes

bayesian Networkベイズネットワーク

ベイジアンネットワーク(Bayesian network)は、信念ネットワーク(Belief Network)または有向非巡回グラフモデル(directed acyclic graphical model)とも呼ばれ、確率グラフモデルの一種で、1985年にJudea Pearlによって初めて提案されました。これは、人間の推論過程における因果関係を模擬するもので
444views
0likes

非凸最適化凸最適化

数学における最適化問題の一般的な表現は、を求めることであり、ここではn次元ベクトル、はの実行可能領域、は上の実数値関数である。 凸最適化問題とは、が閉じた凸集合であり、が上の凸関数である最適化問題を指し、この2つの条件のいずれかを満たさない場合、その問題は非凸の最適化問題となる。 ここで、は
444views
0likes

One-shot Learningシングルサンプル学習

私たちが何らかの問題を解決する前に、まずその問題が何であるかを正確に定義する必要があります。以下は単サンプル分類問題の記号化表現です: 私たちのモデルはわずかなラベル付きの訓練サンプルSしか取得していません。このサンプル集合にはN個のサンプルがあり、それぞれ同じ次元のベクトルには対応するラベルyが付いています。そして、ある
445views
2likes

inductive bias帰納バイアス/帰納バイアス

「帰納的バイアス」(Inductive bias)の「バイアス」は、データ推定における推定値と真の値の差であるエラー(error)を連想させ、「帰納的バイアス」が回避すべき何らかの誤りや誤差であると誤解されがちですが、実際はそうではありません。帰納的バイアス(inductive bias)は機械学習において積極的な役割を果たします。より適切な翻訳は
765views
1likes

インクリメンタルラーニングの特徴インクレメンタルラーニング

増分学習と継続学習(Continual Learning)、生涯学習(Lifelong Learning)の概念はおおむね同等であり、これらはすべて連続的なデータストリームの中でモデルを訓練するもので、時間の経過とともにより多くのデータが徐々に利用可能になり、同時に古いデータは保存制限やプライバシー保護などの理由から
408views
0likes

インクリメンタルラーニングIncremental Learning

増分学習の能力とは、現実世界における連続的な情報の流れを継続的に処理し、新しい知識を吸収すると同時に、古い知識を保持し、さらには統合・最適化する能力のことです。機械学習の分野では、増分学習はモデル訓練における一般的な欠点である「壊滅的忘却(catastrophic forgetting)」を解決することに取り組んでいます。
477views
1likes

真陽率true positive rate,偽陽率false positive rate

概念は実際、医学から機械学習に導入されたものです。そのため、その思考ロジックは機械学習を行う人たちのものと多少異なる場合があります。私たちが病院に行って検査を受けると、検査報告書に(+)と(-)が表示され、それぞれ陽性と陰性を表します。たとえば、ある病気にかかっているかどうかを検査するとき、陽性(+)は
361views
1likes

Paired t-Testペアリングt検査

ペアード t 検定は一般的な t 検定方法で、異なる条件下で、同じ母集団から取得したサンプルを分析し、条件がそれに与える影響を評価するものです。これには異なる保管環境、異なる測定システムなどが含まれます。また、t 検定には単サンプル t 検定、多サンプル t 検定なども含まれます。
545views
3likes

Pythonを用いた機械学習アルゴリズムの実現――簡単なニューラルネットワーク

私たちは、2次元の入力ベクトルを2進出力値にマッピングする単純なニューラルネットワークアーキテクチャを実装します。私たちのニューラルネットワークは、2つの入力ニューロン、6つの隠れニューロンを含む隠れ層、および1つの出力ニューロンを持っています。
528views
0likes

感知機(Perceptron)

初代のニューラルネットワークとして、パーセプトロンはニューロンが1つだけの計算モデルです。まず、元の入力ベクトルを特徴ベクトルに変換し、次に手書きプログラムで特徴を定義し、そして各特徴にどのように重みを付けてスカラーを得るかを学習します。もしスカラー値がある閾値を超えた場合、入力ベクトルは目標クラスの一つとみなされます。
516views
0likes

循環ニューラルネットワーク(Recurrent Neural Network)

再帰型ニューラルネットワーク(RNN)には、コンピュータが計算できるものなら何でも計算できる2つの強力な特性があります:(1)大量の有効な情報を格納できる分散型隠れ状態(2)複雑な方法で隠れ状態を更新できる非線形ダイナミクス。RNNの強力な計算能力と勾配消失(または爆発)の問題により、訓練が困難になっています。多層の誤差逆伝播を行う際に、重みが小さいと勾配が指