Select Language

Open Dataset

SODA10M:自動運転用の大規模な2次元の自己/半教師付き物体検出データセット

SODA10M:自動運転用の大規模な2次元の自己/半教師付き物体検出データセット

2T
1509 hits
3 likes
0 downloads
0 discuss
Autonomous Driving 3D Keypoints

私たちは、SODA10Mと名付けられた新しい大規模な2次元データセットを紹介します。このデータセットには、1000万枚のラベル無し画像と2万枚のラベル付き画像が含まれています。......

Data Structure ? 2T

    README.md

     我々は、SODA10Mという新しい大規模2Dデータセットを紹介します。このデータセットには、1000万枚の無ラベル画像と、6つの代表的な物体カテゴリを持つ2万枚のラベル付き画像が含まれています。SODA10Mは、自動運転における自己教師付き学習とドメイン適応の大きな進歩を促進するために設計されています。これは、現在までで最大の2D自動運転データセットであり、コミュニティにとってより挑戦的なベンチマークとなります。

    次世代の産業レベルの自動運転における自己教師付き学習とは、無ラベルまたは半教師付きの大規模収集データから学習して強力な認識モデルを段階的に自己学習させることで、実世界の難しい知覚タスクに対する解決策を刷新しようとする様々な研究を指します。大規模な注釈付きデータセットの登場とコンピューティングハードウェアの進歩により、様々な教師付き学習方法が自動運転分野の多くの問題(例えば、2D検出、インスタンスセグメンテーション、3Dライダー検出)における性能を大幅に向上させています。しかし、これらの教師付き学習アプローチは、特に現在の自動運転分野において、「データ飢え」で有名です。

    自動運転知覚システムの性能は、ラベル付きバウンディングボックスとIDの注釈規模に大きく依存しており、このため多くの実世界の産業アプリケーションでは実用的ではありません。直感的には、人間の運転手は教師の指導なしに道路を自己探索することで経験を蓄積することができますが、現在のコンピュータビジョンの解決策は、新しいシナリオごとに多くの注釈作業が必要で、まだ保護された状態にあります。

    将来的に産業レベルの自動運転システムを実現するためには、望ましい視覚認識モデルは、さまざまな新しい地理、通り、都市、天候条件、物体ラベル、視点、または異常シナリオにわたって自己探索、自己学習、自己適応する能力を備えている必要があります。この問題を解決するために、最近では、自己教師付き学習、大規模事前学習、弱教師付き学習、および増分/継続学習において多くの努力がなされ、自動運転ソリューションの教師付き学習の従来の道から逸脱するように知覚システムを改善しています。

    このデータセットを公開する目的は、公開されたデータを利用して、ラベル付きデータと無ラベルデータの両方を活用して産業レベルの自動運転ソリューションを実現する方法を探索することです。ベンチマーク論文はArxivで公開されており、ICCV2021 SSLADチャレンジを開催するために使用されます。

    SODA10Mに関する質問がある場合は、xu.hang@huawei.comまたはhanjianhua4@huawei.comに問い合わせてください。 


    データ形式

    注釈ファイルはCOCO形式と一致しており、「images」、「categories」、「annotations」の3つのキーが含まれています。

    "images": {
            "file_name": <str> -- ファイル名。
            "id": <int>  -- 一意の画像ID。
            "height": <float>  -- 画像の高さ。
            "width": <float> -- 画像の幅。
            "city": <str> -- 都市タグ。
            "location": <str> -- 場所タグ。
            "period": <str> -- 期間タグ。
            "weather": <str> -- 天候タグ。}

                       

    "annotations": {
            "image_id": <int> -- この注釈の画像ID。
            "category_id": <int> -- カテゴリID。
            "bbox": <list> -- バウンディングボックスの座標[x, y, w, h]。
            "area": <float> -- この注釈の面積(w * h)。
            "id": <int> -- 一意の注釈ID。
            "iscrowd": <int> -- この注釈が群衆かどうか。iscrowdは常に0です。}

                       

    "categories": {
            "name": <str> -- 一意のカテゴリ名。
            "id": <int> 一意のカテゴリID。
            "supercategory": <str> このカテゴリの上位カテゴリ。}

                                           

    データ注釈

    SODA10Mには、すべての画像の画像タグ(すなわち、天候条件、場所のシーン、期間)と、ラベル付き部分の2Dバウンディングボックスが注釈付けされています。

    お知らせ

    - SODA10Mデータセットが公開されました! (2021/6/8)
                   - SODA10Mの論文がArxivで公開されました! (2021/6/21)
                   - チャレンジウェブサイトがCodaLabで公開されました! (2021/7/1)
                   - チャレンジの結果と技術報告がChallengeページで公開されました! (2021/10/21)
                   - SSLAD2021ワークショップの記録動画(チャレンジレポートを含む)がYouTubeで公開されました! (2021/10/21)
                   - 評価サーバーがCodaLabで再開されました! (2021/11/9)

    引用

     @misc{han2021soda10m,
          title={SODA10M: A Large-Scale 2D Self/Semi-Supervised Object Detection Dataset for Autonomous Driving}, 
          author={Jianhua Han and Xiwen Liang and Hang Xu and Kai Chen and Lanqing Hong and Jiageng Mao and Chaoqiang Ye and Wei Zhang and Zhenguo Li and Xiaodan Liang and Chunjing Xu},
          year={2021},
          eprint={2106.11118},
          archivePrefix={arXiv},
          primaryClass={cs.CV}
    }


    No content available at the moment
    No content available at the moment
    • Share your thoughts
    Go share your ideas~~

    ALL

      Welcome to exchange and share
      Your sharing can help others better utilize data.
    Points:12 Go earn points?
    • 1509
    • 0
    • 3
    • collect
    • Share