Select Language

AI Technology Community

Today search ranking
The Week search ranking
month search ranking
548views
0likes

機械学習――SVMアルゴリズム実現

一. sklearnのデータセットを使ってケースを作成する %matplotlib inline import numpy as np import matplotlib.pyplot as plt from scipy import stats # seabornを使ってデフォルト値を描画する import seaborn as sns; sns.set() # ランダムにデータを生成する from sklearn.datasets.sampl
580views
0likes

非線形SVMアルゴリズムの原理

入力空間における非線形分類問題については、非線形変換を行うことで、ある次元の特徴空間における線形分類問題に変換することができ、高次元特徴空間で線形サポートベクターマシンを学習する。線形サポートベクターマシンの学習の双対問題では、目的関数と分類決定関数はいずれも実例のみに関係する。
574views
1likes

サポートベクトルマシン(support vector machines,SVM)

SVMの概要 サポートベクターマシン(support vector machines, SVM)は二値分類モデルの一種で、その基本モデルは特徴空間上で定義された間隔が最大の線形分類器であり、間隔が最大であることが感知機との違いです。SVMにはカーネルトリックも含まれており、これにより実質的に非線形分類器となります。SVM
553views
1likes

DBSCANアルゴリズムプロセス

DBSCANアルゴリズムの核心的な考え方は以下の通りです。ある選択されたコアポイントから始めて、密度到達可能な領域に向かって絶えず拡張し、コアポイントと境界点を含む最大化された領域を得ます。領域内の任意の2点は密度連結してデータ集合を考慮します。DBSCANアルゴリズムの目標は、データ集合XをK個のclus
524views
0likes

DBSCANモデル

データ集合を考える。まず、以下の概念と数学記号を導入する:1. ε近傍(ε neighborhood) を仮定すると、これを x の ε近傍と呼ぶ。明らかに、2. 密度(density) を仮定すると、これを x の密度と呼ぶ。注意すべきは、ここでの密度は整数値であり、半径 ε に依存する。3. コア点(core point)
573views
0likes

密度に基づくクラスタリング方法(DBSCAN)

平均シフトクラスタリングと同様に、DBSCANも密度ベースのクラスタリングアルゴリズムです。具体的な手順:1. まず半径rとminPointsを決定します。訪問されていない任意のデータ点から始め、この点を中心として、半径rの円内に含まれる点の数がminPoints以上かどうかを判断します。もし
636views
0likes

ガウスハイブリッドモデル(GMM)による最大所望(EM)クラスタリング

K-Meansの欠点は、クラスタ中心の平均値を単純に使用することにあります。次の図の2つの円について、K-Meansを使用すると正しいクラスの判断ができません。同様に、データセットの点が次の図の曲線のような場合も、正しく分類することはできません。ガウス混合モデル(GMM)を使用してクラスタリングを行う場合、まず
560views
0likes

凝集階層クラスタリング

階層的クラスタリングアルゴリズムは2種類に分けられます。つまり、トップダウン型とボトムアップ型です。凝集型階層的クラスタリング(HAC)はボトムアップ型のクラスタリングアルゴリズムです。HACでは、まず各データ点を単一のクラスタと見なし、次にすべてのクラスタ間の距離を計算してクラスタを統合し、すべてのクラスタが1つのクラスタに集約されるまで続けます。 下図は凝集
640views
0likes

ニューラルネットワークトレーニングの一般的な手順

ステップ1:重みをランダムに初期化する;ステップ2:順伝播アルゴリズムを実装し、各入力の活性化関数を取得する;ステップ3:コスト関数を計算するコードを記述する;ステップ4:逆伝播を実装して活性化関数の偏導関数を計算する。擬似コードを見てみましょう:コード中のmは訓練サンプルの数です。ステップ5:勾配検証を使用して検証する
596views
0likes

対抗ネットワーク接合の生成(Generative Adversarial Network,GAN)

生成対抗ネットワーク(Generative Adversarial Network, GAN):2014年にGoodfellowによって提案され、その核心的な考え方はゲーム理論のナッシュ均衡に由来する。これは2つのネットワークモデルを含んでいます:生成モデルと判別モデル。生成モデルはサンプルデータの分布を捉え、判別モデルは
501views
0likes

Deep Belief Nets,DBN(Deep Belief Nets)

ディープベリーフネットワーク(Deep Belief Nets, DBN):またはディープベリーフネットワークとも呼ばれ、ニューラルネットワークの一種で、複数の制限付きボルツマンマシンから構成されています。教師なし学習にも使用でき、オートエンコーダーに似ており、教師あり学習にも使用でき、分類器に似ています。教師なし学習の観点から言えば、その目
502views
0likes

自動エンコーダ(AutoEncoder)

オートエンコーダ(AutoEncoder):人工ニューラルネットワークの一種で、主にデータの圧縮を処理するために使用されます。そのデータの圧縮と解凍関数は、データに関連し、損失があり、サンプルから自動的に学習されます。原理は、ニューラルネットワークを訓練し、入力情報を代表する最も重要な要素を捉えることで、
928views
1likes

長短期間記憶ネットワーク(Long Short-Term Memory,LSTM)

長短期記憶ネットワーク(Long Short-Term Memory, LSTM):時間的再帰型ニューラルネットワークの一種で、時系列データにおける間隔や遅延が長い重要なイベントの処理と予測に適しています。LSTMに基づくシステムは、言語翻訳、ロボット制御、画像分析、文書要約、音声認識を学習することができます。
551views
0likes

再帰ニューラルネットワーク(Recurrent Neural Network,RNN)

前饋ニューラルネットワークは1つの入力を個別に処理するだけで、異なる入力間は相互に独立して関連がないと見なされますが、実際には多くの場合、入力間にはシーケンス関係があり、再帰ニューラルネットワーク(Recurrent Neural Network, RNN)、別名循環ニューラルネットワークを使用する必要があり、それは導入されました
520views
0likes

コンボリューションニューラルネットワーク(CNN)

畳み込みニューラルネットワーク(CNN):Yann LeCunによって提案され、手書き文字(MNIST)認識に適用された。その実質は多層フィードフォワードネットワークであり、画像、特に大きな画像の処理と認識に長けている。
523views
0likes

深度ニューラルネットワーク(DNN)

深度ニューラルネットワーク(DNN):統計学的手法を用いて原始的な感覚データから高レベルの特徴を抽出し、大量のデータから入力空間の有効な表現を得る。簡単に理解すると、深度ニューラルネットワークは複数の隠れ層を持つ多層パーセプトロンネットワークであり、実際の応用状況に応じて、その形態やサイズも異なる
614views
0likes

ラジアル基底関数ニューラルネットワーク(Radical Basis Function Neural Network,RBF NN)

ラジアル基底関数ニューラルネットワーク(Radical Basis Function Neural Network, RBF NN):1988年にJohn MoodyとChristian J Darkenによって提案されたネットワーク構造で、前向型ニューラルネットワークに属し、理論的には任意の連続関数を任意の精度で近似することができ、分類問題の解決に適しています
526views
0likes

制限付きボルツマンマシン(Restricted Boltzmann Machine,RBM)

制限ボルツマンマシン(Restricted Boltzmann Machine, RBM)は、簡略化された特殊なボルツマンマシンであり、1986年にPaul Smolenskyによって提案されました。BMと比較すると、その隠れ層のノード間には相互接続がなく、可視ノード間にも接続がないため、計算が比較的簡単です。
645views
1likes

ボルツマンマシン(Bolzmann Machine,BM)

ボルツマンマシン(Bolzmann Machine, BM):隠れユニットを持つ確率的ホップフィールドネットワーク(Stochastic Hopfield Network with Hidden Units)とも呼ばれ、確率的な再帰型ニューラルネットワークであり、確率的に生成されるホップフィールドネットワークと見なすことができます。1983年から1986年にかけて、ヒントン(Hinton)とセイノウスキー(Sejnowski)によって提案されたこのニューラルネットワーク
575views
1likes

適応共鳴理論(Adaptive Resource Theory,ART)

適応型共鳴理論(Adaptive Resource Theory、ART)は、1976年にアメリカのボストン大学の学者G.A.Carpenterによって提唱され、人間の心理と認証活動に対して統一的な数学理論を構築しようとした。その後、S.Grossbergと共にARTネットワークを提唱した。ARTネットワークは2つのサブシステムからなる2層構造である