Select Language

AI Technology Community

3792views
9likes

分位損失(Quantile Loss)

分位点損失関数は、我々が予測結果の値の区間を予測する必要がある場合、特別に有用なツールです。通常、我々は最小二乗回帰を利用して値の区間を予測しますが、これは主に、値の残差の分散が一定であるという仮定に基づいています。
966views
1likes

Log-Cosh損失関数

対数双曲余弦はL2よりも平滑な損失関数であり、双曲余弦を利用して予測誤差を計算する
468views
1likes

Huber損失――平滑平均絶対誤差

ヒューバー損失は二乗損失に比べて外れ値に対して鈍感ですが、同様に微分可能な特性を保持しています。これは絶対誤差に基づいていますが、誤差が非常に小さい場合には二乗誤差になります。
529views
0likes

平均絶対誤差——L 1損失関数

平均絶対誤差(MAE)も一般的に使用される回帰損失関数の一つで、目標値と予測値の差の絶対値の和で、予測値の平均誤差幅を表し、誤差の方向を考慮する必要はありません。
458views
0likes

平均二乗誤差(MSE)

平均二乗誤差(MSE)は回帰損失関数で最もよく使われる誤差で、予測値と目標値の差の二乗和です。
post
回帰損失関数
2021-05-14 15:53:10join communtity
  • 5

    item of content
機械学習におけるすべてのアルゴリズムは、最小化または最大化する関数に依存しており、これを「目的関数」と呼びます。最小化される関数のことを「損失関数」と呼びます。損失関数は、予測モデルが期待される結果をどの程度正確に予測できるかを測定する尺度でもあります。関数の最小値を見つける最も一般的な方法は「勾配降下法」です。もし損失関数を連なる山脈に例えるなら、勾配降下法は愚公のように山を削って最低点に到達することを目指します。

損失関数は一種類だけではありません。異常値の存在、選択した機械学習アルゴリズム、勾配降下法の実行時間、予測の信頼度の見つけやすさや導関数の計算の難易度など、さまざまな要素に基づいて異なる損失関数を選択することができます。この記事では、さまざまな損失関数について学び、それらがデータサイエンスおよび機械学習においてどのように私たちを助けてくれるかを解説します。