Select Language

AI Technology Community

評価者間の一貫性信頼性(inter-rater agreement)

あるタスクを実行する際に評価者が一致する頻度を測定するための指標です。評価者が一致しない場合は、タスクの説明を改善する必要があるかもしれません。時にはアノテータ間の一致性信頼度または評価者間の信頼性信頼度とも呼ばれます。また、Cohenのカッパ(最も人気のある評価者間の一致性信頼度の測定指標の1つ)も参照してください。

post
  • 171

    item of content
機械学習は多分野にまたがる学問であり、確率論、統計学、近似理論および複雑なアルゴリズムに関する知識を包含しています。コンピュータをツールとして用い、人間の学習方法をリアルタイムで模倣することを目指すとともに、既存の内容を知識構造に分類して学習効率を効果的に向上させることを目指しています。