Select Language

AI Technology Community

学習ベクトル定量ニューラルネットワーク(Learning Vector Quantization,LVQ)

学習ベクトル量子化ニューラルネットワーク(Learning Vector Quantization, LVQ):競争ネットワークをベースに、Kohonenによって提案された。その核心は、競争学習と教師あり学習を組み合わせることであり、学習過程で教師信号によって入力サンプルの割り当てクラスを規定し、自己組織化ネットワークが教師なし学習アルゴリズムを採用することによる分類情報の欠如という弱点を克服します。

量子化:デジタル信号処理の分野において、信号の連続的な値(または大量の可能性のある離散的な値)を有限個(または少数の)離散値に近似する過程を指します。ベクトル量子化はスカラー量子化の拡張であり、高次元データにより適しています。

ネットワーク構造の特徴:
■ 入力層、競争層、出力層の3層で構成されています。
■ 入力層と競争層の間は全結合です。
■ 1組の競争層ノードが1つの出力ノードに対応します。
■ 入力層から競争層への重みは調整可能です。
■ 競争層から出力層への重みは通常、固定値1です。
■ 競争層の学習規則は勝者独占(WTA)です。
■ 競争層の勝者の出力は1、それ以外は0です。


post
  • 29

    item of content
ニューラルネットワークは所謂ディープラーニングの基礎であり、必須の知識ポイントです。これは人間の脳内のニューラルネットワークから着想を得ており、最も有名なアルゴリズムはバックプロパゲーション(backpropagation)アルゴリズムです。ここでは、ニューラルネットワークに関連するパラメータと計算方法について簡単に整理します。

この文章では、ニューラルネットワークがディープラーニングの基盤を形成し、その理解が不可欠であることが強調されています。また、バックプロパゲーションアルゴリズムが重要な役割を果たしていること、そしてこのセクションでは関連するパラメータと計算方法について簡潔にまとめられていることが示されています。