Open Dataset
Data Structure ?
57.9G
README.md
「WILDTRACK」データセットの挑戦的で現実的な設定により、多カメラ検出および追跡方法が実環境に導入されました。このデータセットは、カメラの視野が大部分で重なる大規模な多カメラ歩行者データセットに対する深層学習方法のニーズを満たします。現在のハイテクハードウェアで収集され、高解像度のデータを提供します。さらに、高精度の同時較正と同期により、現在利用可能なデータセットでは不可能な新しいアルゴリズムの開発が可能になります。
データ収集は、天候の良いときにスイスのチューリッヒ工科大学(ETH)の本館前で行われました。これらのシーケンスの解像度は1920×1080ピクセルで、毎秒60フレームの速度で撮影されています。
「WILDTRACK」データセットの挑戦的で現実的な設定により、多カメラ検出および追跡方法が実環境に導入されます。
このデータセットは、カメラの視野が大部分で重なる大規模な多カメラ歩行者データセットに対する深層学習方法のニーズを満たします。現在のハイテクハードウェアで収集され、高解像度のデータを提供します。さらに、高精度の同時較正と同期により、現在利用可能なデータセットでは不可能な新しいアルゴリズムの開発が可能になります。
データ収集は、天候の良いときにスイスのチューリッヒ工科大学(ETH)の本館前で行われました。これらのシーケンスの解像度は1920×1080ピクセルで、毎秒60フレームの速度で撮影されています。
利用可能なファイルの説明
10fpsのフレームレートで抽出された同期フレームで、解像度は1920×1080で、歪みを除去するために事後処理されています。 ピンホールカメラモデルを使用した較正ファイルで、OpenCVライブラリで提供される投影関数と互換性があります。外部較正と内部較正の両方が利用可能です。 「json」ファイル形式の正解アノテーション(下の別のセクションを参照してください)。 分類に焦点を当てた方法での使用を容易にするために、「positions」ファイルと呼ばれる「json」ファイル形式のファイルも提供しています。詳細については、下のセクションを参照してください。 このサイトの更新を確認してください。更新により、以下のダウンロードリストが拡張されます。
フルビデオ
カメラ較正アルゴリズムに使用できる対応点のアノテーション。 このデータセットの第2部で、アノテーションが付けられていないものの、教師なし学習方法に使用できます。
位置ファイル
「位置ファイル」により、較正ファイルの作業を省略し、たとえば分類に焦点を当てることができます。これは、カメラが静止しているという事実を利用しています。このファイルには、特定の空間ボリュームのセットがすべてのビューにどこに投影されるかに関する情報が含まれています。各空間ボリュームの高さは、平均的な人の身長に対応しています。
地面を規則的なグリッドとして離散化します。人が特定の位置に立っているときに占める3D空間は、グリッド点の中央に配置された円柱でモデル化されます。各円柱は、それぞれの2Dビューに矩形として投影され、そのビュー内の位置はピクセル座標で与えられます。
480×1440のグリッド(合計691200の位置)と提供されたカメラ較正ファイルを使用して、ダウンロード可能なこのようなファイルを作成しました。各位置には、0から始まる列挙([0, 691199])を使用してIDが割り当てられています。このファイル内のビューの順序番号も同じ列挙に従っており、つまり0から6までの範囲です。特定のビューで見えない位置には、座標-1が割り当てられています。
アノテーション
2fpsのフレームレートで400フレームに対して完全な正解アノテーションが提供されています。平均すると、各フレームには20人の人物がいます。したがって、私たちのデータセットは約400×20×7 = 56,000個の単一ビューのバウンディングボックスを提供します。補間により、アノテーションのサイズをさらに増やすことができます。これらのアノテーションは、Amazon Mechanical Turkで雇われた作業者によって生成されました。
アノテーションは、上で詳述した位置ファイルの座標に概ね対応しており、したがって、特定のターゲットが占有していると推定されるアノテーション付き位置のIDが含まれています。これらの位置IDは、提供された位置ファイルに従っています。
謝辞
この研究は、スイス国立科学財団による助成金CRSII2 - 147693「WILDTRACK」の支援を受けて行われました。
出版物
WILDTRACK:密集した無脚本歩行者検出のための多カメラHDデータセット T. Chavdarova;P. Baqué;A. Maksai;S. Bouquet;C. Jose 他 コンピュータビジョンとパターン認識、2018年、10.1109/CVPR.2018.00528。
URL: https://www.epfl.ch/labs/cvlab/data/data-wildtrack/
ライセンス: ライセンスは指定されていません。この作品は著作権によって保護されている可能性があります。
Bibtex:
@article{, title = {The WILDTRACK Seven - Camera HD Dataset}, keywords = {}, author = {}, abstract = {「WILDTRACK」データセットの挑戦的で現実的な設定により、多カメラ検出および追跡方法が実環境に導入されます。 このデータセットは、カメラの視野が大部分で重なる大規模な多カメラ歩行者データセットに対する深層学習方法のニーズを満たします。現在のハイテクハードウェアで収集され、高解像度のデータを提供します。さらに、高精度の同時較正と同期により、現在利用可能なデータセットでは不可能な新しいアルゴリズムの開発が可能になります。 データ収集は、天候の良いときにスイスのチューリッヒ工科大学(ETH)の本館前で行われました。これらのシーケンスの解像度は1920×1080ピクセルで、毎秒60フレームの速度で撮影されています。 https://i.imgur.com/Hzamclh.jpg ## 利用可能なファイルの説明 10fpsのフレームレートで抽出された同期フレームで、解像度は1920×1080で、歪みを除去するために事後処理されています。 ピンホールカメラモデルを使用した較正ファイルで、OpenCVライブラリで提供される投影関数と互換性があります。外部較正と内部較正の両方が利用可能です。 「json」ファイル形式の正解アノテーション(下の別のセクションを参照してください)。 分類に焦点を当てた方法での使用を容易にするために、「positions」ファイルと呼ばれる「json」ファイル形式のファイルも提供しています。詳細については、下のセクションを参照してください。 このサイトの更新を確認してください。更新により、以下のダウンロードリストが拡張されます。 ## フルビデオ カメラ較正アルゴリズムに使用できる対応点のアノテーション。 このデータセットの第2部で、アノテーションが付けられていないものの、教師なし学習方法に使用できます。 ## 位置ファイル 「位置ファイル」により、較正ファイルの作業を省略し、たとえば分類に焦点を当てることができます。これは、カメラが静止しているという事実を利用しています。このファイルには、特定の空間ボリュームのセットがすべてのビューにどこに投影されるかに関する情報が含まれています。各空間ボリュームの高さは、平均的な人の身長に対応しています。 地面を規則的なグリッドとして離散化します。人が特定の位置に立っているときに占める3D空間は、グリッド点の中央に配置された円柱でモデル化されます。各円柱は、それぞれの2Dビューに矩形として投影され、そのビュー内の位置はピクセル座標で与えられます。 480×1440のグリッド(合計691200の位置)と提供されたカメラ較正ファイルを使用して、ダウンロード可能なこのようなファイルを作成しました。各位置には、0から始まる列挙([0, 691199])を使用してIDが割り当てられています。このファイル内のビューの順序番号も同じ列挙に従っており、つまり0から6までの範囲です。特定のビューで見えない位置には、座標-1が割り当てられています。 ## アノテーション 2fpsのフレームレートで400フレームに対して完全な正解アノテーションが提供されています。平均すると、各フレームには20人の人物がいます。したがって、私たちのデータセットは約400×20×7 = 56,000個の単一ビューのバウンディングボックスを提供します。補間により、アノテーションのサイズをさらに増やすことができます。これらのアノテーションは、Amazon Mechanical Turkで雇われた作業者によって生成されました。 アノテーションは、上で詳述した位置ファイルの座標に概ね対応しており、したがって、特定のターゲットが占有していると推定されるアノテーション付き位置のIDが含まれています。これらの位置IDは、提供された位置ファイルに従っています。 ## 謝辞 この研究は、スイス国立科学財団による助成金CRSII2 - 147693「WILDTRACK」の支援を受けて行われました。 ## 出版物 WILDTRACK:密集した無脚本歩行者検出のための多カメラHDデータセット T. Chavdarova;P. Baqué;A. Maksai;S. Bouquet;C. Jose 他 コンピュータビジョンとパターン認識、2018年、10.1109/CVPR.2018.00528。 }, terms = {}, license = {}, superseded = {}, url
- Share your thoughts
ALL
Data usage instructions: h1>
I. Data Source and Display Explanation:
- 1. The data originates from internet data collection or provided by service providers, and this platform offers users the ability to view and browse datasets.
- 2. This platform serves only as a basic information display for datasets, including but not limited to image, text, video, and audio file types.
- 3. Basic dataset information comes from the original data source or the information provided by the data provider. If there are discrepancies in the dataset description, please refer to the original data source or service provider's address.
II. Ownership Explanation:
- 1. All datasets on this site are copyrighted by their original publishers or data providers.
III. Data Reposting Explanation:
- 1. If you need to repost data from this site, please retain the original data source URL and related copyright notices.
IV. Infringement and Handling Explanation:
- 1. If any data on this site involves infringement, please contact us promptly, and we will arrange for the data to be taken offline.
- 1. The data originates from internet data collection or provided by service providers, and this platform offers users the ability to view and browse datasets.
- 2. This platform serves only as a basic information display for datasets, including but not limited to image, text, video, and audio file types.
- 3. Basic dataset information comes from the original data source or the information provided by the data provider. If there are discrepancies in the dataset description, please refer to the original data source or service provider's address.
- 1. All datasets on this site are copyrighted by their original publishers or data providers.
- 1. If you need to repost data from this site, please retain the original data source URL and related copyright notices.
- 1. If any data on this site involves infringement, please contact us promptly, and we will arrange for the data to be taken offline.