AI Technology Community
inductive bias帰納バイアス/帰納バイアス
「帰納偏差」の「偏差」は、データ推定における推定値と真値の差errorを連想させ、「帰納偏差」が何らかの回避すべき誤りや誤差であると思わせるが、実際はそうではなく、inductive biasは機械学習において積極的な役割を果たしています。
より適切な翻訳は「帰納偏り」です。帰納は自然科学でよく使われる2つの方法(帰納と演繹、induction and deduction)の1つで、いくつかの例から共通点を見つけ、一般化して、比較的汎用的な規則を形成するプロセスを指します。一方、「bias」「偏り」は、私たちがモデルに対する好みを指します。したがって、帰納偏りは、現実生活で観察された現象から一定の規則を帰納し、その後モデルに一定の制約を加えることで、「モデル選択」の役割を果たすことができます。つまり、仮説空間から現実の規則により合致するモデルを選択することです。ベイズ学習の「事前知識、prior」に似ていますが、「事前知識」は一般に確定的な既知の知識であるのに対し、「偏り」はより経験的な仮定に傾いています。
帰納偏りは機械学習においてほぼどこにでも存在します。具体的な例は文末の資料を参照してください。筆者は自分が思いついた簡単な例を説明します。
たとえば、(0,0)(1,1)...(i,i)...(n,n)の点のセットを考えます。xからyへのマッピングを模倣するモデルを学習するとき、私たちが最も望むのは、モデルがy=xという線形マッピングを学習することです。実際には、これらのサンプル点に合致するマッピングは無数に存在します。非線形マッピング空間で学習する場合、学習過程は非常に複雑になります。したがって、ある場合には「これは線形マッピングであると仮定する」という仮定を立て、その仮定のもとでモデルを学習します。ここでの「これは線形マッピングであると仮定する」は、事前知識などに基づいて行われる帰納偏りです。また、線形マッピング空間で学習する場合でも、無数のマッピングが得られる可能性があります。このとき、私たちはオッカムの剃刀の原則に基づいて「できるだけ単純なモデル」を選択します。オッカムの剃刀は機械学習で最も典型的な帰納偏りの1つです。
役割:
機械学習における帰納偏りは、モデルの汎化能力を向上させることができます。たとえば、上記の例で、サンプリング中にノイズ(0,10),(7,-20)...などに遭遇すると、汎化能力の高いマッピングy=xの学習に失敗する可能性があり、「過学習」したモデルを学習してしまいます。一方、「線形マッピング」「オッカムの剃刀」などの帰納偏りを導入すると、目標領域でより汎化能力や汎用性の高いマッピングy=x(モデル)を学習しやすくなります。
まとめ:
inductive biasのより適切な翻訳は帰納偏りであり、帰納偏差ではありません。これは、モデルの無限の解空間に導入される合理的な仮定と制約であり、このような仮定や制約は解空間を狭め、得られたモデルの目標領域での汎化能力を向上させることができます。
41
item of content
- 445hits
- 0replay
-
2like
- collect
- send report