Select Language

AI Technology Community

Huber損失――平滑平均絶対誤差

ヒューバー損失は平方損失に比べて外れ値に対して鈍感ですが、同様に微分可能な特性を保持しています。これは絶対誤差に基づいていますが、誤差が非常に小さいときには平方誤差になります。我々は超パラメータδを使用してこの誤差の閾値を調整することができます。δが0に近づくと、これは平均絶対誤差(MAE)に退化し、δが無限大に近づくと、平均二乗誤差(MSE)に退化します。その式は以下の通りで、連続微分可能な区分関数です。

 


ヒューバー損失にとって、δの選択は非常に重要で、これがモデルが外れ値を処理する挙動を決定します。残差がδより大きいときはL1損失を使用し、非常に小さいときはより適切なL2損失を使用して最適化を行います。

ヒューバー損失関数はMAEとMSEの欠点を克服しており、損失関数が連続した導関数を持つことを保証するだけでなく、MSEの勾配が誤差とともに減少する特性を利用してより正確な最小値を得ることができ、外れ値に対してもより良いロバスト性を持ちます。

しかし、ヒューバー損失関数の良好な性能は、きめ細かく調整された超パラメータδによるものです。


post
回帰損失関数
2021-05-14 15:53:10join communtity
  • 5

    item of content
機械学習におけるすべてのアルゴリズムは、最小化または最大化する関数に依存しており、これを「目的関数」と呼びます。最小化される関数のことを「損失関数」と呼びます。損失関数は、予測モデルが期待される結果をどの程度正確に予測できるかを測定する尺度でもあります。関数の最小値を見つける最も一般的な方法は「勾配降下法」です。もし損失関数を連なる山脈に例えるなら、勾配降下法は愚公のように山を削って最低点に到達することを目指します。

損失関数は一種類だけではありません。異常値の存在、選択した機械学習アルゴリズム、勾配降下法の実行時間、予測の信頼度の見つけやすさや導関数の計算の難易度など、さまざまな要素に基づいて異なる損失関数を選択することができます。この記事では、さまざまな損失関数について学び、それらがデータサイエンスおよび機械学習においてどのように私たちを助けてくれるかを解説します。