Select Language

AI Technology Community

459views
1likes

シンボリズムSymbolism

シンボリズムは人工知能分野において数理論理学を篤信する流派である。数理論理学は19世紀末から急速に発展し、20世紀30年代には知的行動を記述するために用いられ始めた。コンピュータが登場した後、コンピュータ上で論理演繹システムが実現された。その代表的な成果はヒューリスティックプログラムLである。
422views
0likes

階層サンプリングStratified sampling

統計学の理論において、層別サンプリングは母集団(population)に対するサンプリング方法である。特に、母集団内で亜母集団(subpopulations)間の差異が大きい場合に適している。各subpopulationは、層(stratum)とも呼ばれる。Lは層の数を表し、その中で それぞれ指す
747views
1likes

アンダーサンプリング(undersampling)とオーバーサンプリング(oversampling)

二値分類データが不均衡な場合、モデルの出力に影響を与えるため、このときはデータを処理する必要があります。1:なぜクラスの不均衡がモデルの出力に影響を与えるのか:多くのモデルの出力クラスは閾値に基づいています。例えば、ロジスティック回帰では0.5未満が反例、それを超える場合は正例となります。データが不均衡な場合、デフォルトの閾
2054views
4likes

SOM自己組織マッピングニューラルネットワーク

自己組織化マップ(Self-organizing map, SOM)は、入力空間内のデータを学習することで、低次元で離散的なマップ(Map)を生成し、ある程度では次元削減アルゴリズムとも見なすことができます。SOMは教師なしの人工ニューラルネットワークです。一般的なニューラルネットワークが損失関数に基づく逆伝播によって
1893views
1likes

Mean Squard Error平均二乗誤差

MSE(Mean Squared Error)は平均二乗誤差と呼ばれます。この公式を見ると、ここのyはテストセット上のものです。真値から予測値を引いて、それを二乗した後、合計して平均を取ります。この公式を一見すると、何か見慣れた感じがしませんか?これはまさに線形回帰の損失関数です!!! そうです、線形回帰の際に私たちは
539views
1likes

bayesian Networkベイズネットワーク

ベイジアンネットワーク(Bayesian network)は、信念ネットワーク(Belief Network)または有向非巡回グラフモデル(directed acyclic graphical model)とも呼ばれ、確率グラフモデルの一種で、1985年にJudea Pearlによって初めて提案されました。これは、人間の推論過程における因果関係を模擬するもので
443views
0likes

非凸最適化凸最適化

数学における最適化問題の一般的な表現は、を求めることであり、ここではn次元ベクトル、はの実行可能領域、は上の実数値関数である。 凸最適化問題とは、が閉じた凸集合であり、が上の凸関数である最適化問題を指し、この2つの条件のいずれかを満たさない場合、その問題は非凸の最適化問題となる。 ここで、は
443views
0likes

One-shot Learningシングルサンプル学習

私たちが何らかの問題を解決する前に、まずその問題が何であるかを正確に定義する必要があります。以下は単サンプル分類問題の記号化表現です: 私たちのモデルはわずかなラベル付きの訓練サンプルSしか取得していません。このサンプル集合にはN個のサンプルがあり、それぞれ同じ次元のベクトルには対応するラベルyが付いています。そして、ある
445views
2likes

inductive bias帰納バイアス/帰納バイアス

「帰納的バイアス」(Inductive bias)の「バイアス」は、データ推定における推定値と真の値の差であるエラー(error)を連想させ、「帰納的バイアス」が回避すべき何らかの誤りや誤差であると誤解されがちですが、実際はそうではありません。帰納的バイアス(inductive bias)は機械学習において積極的な役割を果たします。より適切な翻訳は
765views
1likes

インクリメンタルラーニングの特徴インクレメンタルラーニング

増分学習と継続学習(Continual Learning)、生涯学習(Lifelong Learning)の概念はおおむね同等であり、これらはすべて連続的なデータストリームの中でモデルを訓練するもので、時間の経過とともにより多くのデータが徐々に利用可能になり、同時に古いデータは保存制限やプライバシー保護などの理由から
408views
0likes

インクリメンタルラーニングIncremental Learning

増分学習の能力とは、現実世界における連続的な情報の流れを継続的に処理し、新しい知識を吸収すると同時に、古い知識を保持し、さらには統合・最適化する能力のことです。機械学習の分野では、増分学習はモデル訓練における一般的な欠点である「壊滅的忘却(catastrophic forgetting)」を解決することに取り組んでいます。
477views
1likes

真陽率true positive rate,偽陽率false positive rate

概念は実際、医学から機械学習に導入されたものです。そのため、その思考ロジックは機械学習を行う人たちのものと多少異なる場合があります。私たちが病院に行って検査を受けると、検査報告書に(+)と(-)が表示され、それぞれ陽性と陰性を表します。たとえば、ある病気にかかっているかどうかを検査するとき、陽性(+)は
360views
1likes

Paired t-Testペアリングt検査

ペアード t 検定は一般的な t 検定方法で、異なる条件下で、同じ母集団から取得したサンプルを分析し、条件がそれに与える影響を評価するものです。これには異なる保管環境、異なる測定システムなどが含まれます。また、t 検定には単サンプル t 検定、多サンプル t 検定なども含まれます。
470views
0likes

ベイジアン確率(Bayesian Probability)

ベイズ確率は、ベイズ理論によって提供される確率の解釈の一つであり、確率をある人がある命題に対する信頼の程度として定義する概念を採用しています。ベイズ理論は同時に、ベイズの定理を新しい情報に基づいて既存の信頼度を導出または更新する規則として使用できることを提案しています。
411views
0likes

エッジ化Marginalization

マージナリゼーションは、ある変数に基づいて別の変数を発見する方法であり、変数の可能な値を合計することにより、別の変数の限界的な寄与を判定します。この定義は比較的抽象的です。
406views
0likes

階層クラスタリングHierarchical clustering

階層的クラスタリングは、下から上への不断の併合または上から下への不断の分割によって入れ子状のクラスタを形成するアルゴリズムの総称です。このような階層的なクラスは「デンドログラム」で表され、凝集型クラスタリング(Agglomerative Clustering)アルゴリズムはその一つです。
384views
0likes

ゲーム理論Game theory

ゲーム理論は対策理論、ゲーム理論などとも呼ばれ、現代数学の新しい分野であると同時に、オペレーションズ・リサーチの重要な学科でもあります。主にインセンティブ構造間の相互作用を研究し、ゲームにおける個体の予測行動と実際の行動を考慮し、関連する最適化戦略を研究します。
367views
0likes

オーバーラン学習機Extreme Learning Machine

超限学習機は機械学習の分野における一種のニューラルネットワークモデルであり、単一隠れ層フィードフォワードニューラルネットワークの求解に使用することができます。
415views
0likes

エラー率Error rate

エラー率とは、予測において予測誤りが占める割合を指す
344views
1likes

調査率Precision

查準率は情報検索や統計分類に用いられる指標で、抽出された正しいサンプル数の抽出サンプル数に対する比率を指します。似た概念に再現率があり、これは抽出されたサンプル数の総サンプル数に対する比率を指します。
post
  • 41

    item of content
人工知能に関する知識を共有します。これにはAIアルゴリズム、応用例、データ、モデルなどに関する情報が含まれます。