Select Language

Open Dataset

UT-Interaction人間動作データ(握手、指さす、抱擁、押す、蹴る、殴るを含む)

UT-Interaction人間動作データ(握手、指さす、抱擁、押す、蹴る、殴るを含む)

581.93M
1045 hits
0 likes
10 downloads
0 discuss
Action/Event Detection 2D Box

UT-Interactionデータセットには、6種類の人と人の相互作用を連続して行うビデオが含まれています。具体的には、握手、指さす、抱擁、押す、蹴る、殴るです。これらの相互作用の正解ラベルが提供されており、時間も含まれています。......

Data Structure ? 581.93M

    Data Structure ?

    *The above analysis is the result extracted and analyzed by the system, and the specific actual data shall prevail.

    README.md

    UT-Interactionデータセットには、6種類の人と人の相互作用を連続して行うビデオが含まれています。握手、指さす、抱擁、押す、蹴る、殴るです。これらの相互作用の正解ラベルが提供されており、時間間隔とバウンディングボックスが含まれます。合計20個のビデオシーケンスがあり、その長さは約1分です。各ビデオには、各相互作用が少なくとも1回実行されており、平均すると各ビデオから8回の人間の活動が得られます。ビデオには、15種類以上の異なる服装条件の複数の参加者が登場します。これらのビデオの解像度は720 * 480、30fpsで、ビデオ内の人物の高さは約200ピクセルです。

    私たちはビデオを2つのグループに分けました。セット1は、駐車場で撮影された10個のビデオシーケンスで構成されています。セット1のビデオは、わずかに異なるズーム率で撮影されており、背景はほとんど静止しており、カメラの振動もほとんどありません。セット2(つまり、他の10個のシーケンス)は、風の強い日に芝生の上で撮影されました。背景が少し動き(例えば、木が揺れる)、カメラの振動も多く含まれています。シーケンス1から4と、シーケンス11から13では、シーンには相互作用する2人だけが登場します。シーケンス5から8と、シーケンス14から17では、シーンには相互作用する人と通行人がいます。第9、10、18、19、20グループでは、複数の相互作用する人のペアが同時に活動を実行します。各グループは、異なる背景、スケール、照明を持っています。


    •     高度な人間と機械の相互作用のサンプルビデオ





    性能評価方法

    コンテストの参加者が作成したシステムの性能を評価するには、各グループで10回の1つ抜き交差検証を使用する必要があります。つまり、各グループについて、10個のシーケンスのうち1つをテストに残し、他の9個をトレーニングに使用します。参加者は、テストセットを繰り返し変更しながら性能を10回測定し、平均性能を求める必要があります。

    各グループについて、60回の活動実行が提供され、トレーニングとテストに使用されます。選択された60回の活動実行を使用して性能を測定する必要があります。私たちのデータセットで「その他」としてマークされた他の実行は、評価に使用してはなりません。

    私たちは、参加者に2つの異なる実験設定でシステムを評価してもらいたいと思っています。分類と検出です。「分類」の場合は、参加者は実際の状況に応じて120個のビデオクリップを使用する必要があります。テストビデオクリップを正しいクラスに分類する性能を測定する必要があります。「検出」設定では、システムが発生した活動の時間間隔(つまり、開始時間と終了時間のペア)とその空間的なバウンディングボックスを正しく注釈付けした場合にのみ、活動認識が正しいと測定されます。注釈が正解と空間的および時間的に50%以上重なっている場合、検出は真陽性と見なされます。それ以外の場合は、誤検出と見なされます。
     

    引用

    あなたがどのような形でもUT-Interactionデータセットを使用する場合は、以下の参考文献を引用してください。

    @misc {UT-Interaction-Data,
          author =“Ryoo, MS and Aggarwal, JK”,
          title =“{UT} - {I} nteraction {D} ataset,{ICPR}对{S}语义{D}描述的竞赛of {H} uman {A} ctivities({SDHA})”,
          year =“2010”,
          howpublished =“http://cvrc.ece.utexas.edu/SDHA2010/Human\_Interaction.html” 
    }

    さらに、このデータセットの前のバージョン(つまり、第1グループ)は、以下の論文で紹介されています。あなたが結果に興味がある場合は、この論文を参照することができます。

    @inproceedings {ryoo09,
          author =“Ryoo, MS
          title =“時空間関係マッチング:複雑な人間の活動を識別するためのビデオ構造比較”,
          booktitle =“IEEE国際コンピュータビジョン会議(ICCV)”,
          年份=“2009”,
          location =“Kyoto, Japan”,
    }


    No content available at the moment
    No content available at the moment
    • Share your thoughts
    Go share your ideas~~

    ALL

      Welcome to exchange and share
      Your sharing can help others better utilize data.
    Points:10 Go earn points?
    • 1045
    • 10
    • 0
    • collect
    • Share