Select Language

Open Dataset

小型NORBデータセット、V1.0

小型NORBデータセット、V1.0

855.22M
231 hits
0 likes
1 downloads
0 discuss
Arts and Entertainment,Computer Science,Software,Programming,Biology,Universities and Colleges Classification

Data Structure ? 855.22M

    Data Structure ?

    *The above analysis is the result extracted and analyzed by the system, and the specific actual data shall prevail.

    README.md

    コンテキスト このデータベースは、形状からの3D物体認識の実験を目的としています。これには、5つの一般的なカテゴリーに属する50個のおもちゃの画像が含まれています:**四足動物**、**人物像**、**飛行機**、**トラック**、および**車**。物体は、6つの照明条件、9つの仰角、および18つの方位角の下で2台のカメラによって撮像されました。 訓練セットは、各カテゴリーの5つのインスタンス(インスタンス4、6、7、8、および9)で構成され、テストセットは残りの5つのインスタンス(インスタンス0、1、2、3、および5)で構成されています。 ![NORBの一部の画像][1] **このデータセットは以下の者によって作成されました: 黄福杰、ヤン・ルカン ニューヨーク大学コーラント研究所 2005年10月** このデータセットおよびこの概要の一部は、[公式サイト][2] から取得されました。 内容 ファイルは、簡単なバイナリ行列形式で、ファイルの拡張子は ".mat" です。 - ***"-dat"*** ファイルは、画像シーケンスを保存します。 各 *"-dat"* ファイルは、24,300の画像 **ペア** を保存します(5つのカテゴリー、5つのインスタンス、6つの照明条件、9つの仰角、および18つの方位角)。 **ペア**:各ペアは2つの画像で構成されています(合計24,300 * 2 = 48,600)。左と右の画像があり、通常は双眼モードの実験に使用されます。単眼モードの実験では、2つの画像のうち1つだけを使用します(合計24,300)。 - ***"-cat"*** ファイルは、画像の対応するカテゴリーを保存します。 対応する *"-cat"* ファイルには、24,300のカテゴリーラベルが含まれています(**0** は動物、**1** は人間、**2** は飛行機、**3** はトラック、**4** は車)。 - 各 ***"-info"*** ファイルは、24,300の4次元ベクトルを保存します。これらのベクトルには、対応する画像に関する追加情報が含まれています: - カテゴリー内のインスタンス(0から9) - 仰角(0から8、それぞれ水平から30、35、40、45、50、55、60、65、70度を意味する) - 方位角(0、2、4、...、34、10を掛けると方位角の度数が得られる) - 照明条件(0から5) 通常の訓練とテストでは、"-dat" ファイルと "-cat" ファイルで十分です。他の形式の分類や前処理が必要な場合に備えて、"-info" ファイルも提供されています。 ファイル形式 - ファイルは、いわゆる **"バイナリ行列"** ファイル形式で保存されています。これは、さまざまな要素タイプのベクトルや多次元行列に使用される簡単な形式です。バイナリ行列ファイルは、行列のタイプとサイズを記述するファイルヘッダーから始まり、その後に行列のバイナリイメージが続きます。 - ヘッダーは、C構造体で最もよく説明されます: struct header { int magic; // 4バイト int ndim; // 4バイト、リトルエンディアン int dim[3]; }; *(注:行列が3次元未満の場合、たとえば1次元ベクトルの場合、dim[1] と dim[2] は両方とも1になります。行列が3次元を超える場合、ヘッダーの後にさらなる次元サイズ情報が続きます。それ以外の場合は、ファイルヘッダーの後に行列データが続き、これは最後の次元のインデックスが最も速く変化するように保存されます。)* - ファイルはインテルマシンで生成されているため、**4バイト整数** をエンコードするために **リトルエンディアン** 方式を使用しています。ビッグエンディアンを使用するマシンでファイルを読み取る場合は注意してください。 - "-dat" ファイルは、24300x2x96x96の4次元テンソルを保存します。各ファイルには24,300の画像ペアがあり(明らかに、各ペアには2つの画像があり)、各画像は96x96ピクセルです。 - "-cat" ファイルは、24,300x1の2次元ベクトルを保存します。"-info" ファイルは、24300x4の2次元行列を保存します。 **公式サイトの末尾に [ここ][3] でサンプルファイルを読み取る方法を示すMatlabコードの一部を見つけることができます** 謝辞 このデータセットは以下の者によって作成されました: 黄福杰、ヤン・ルカン Y. LeCun, F.J. Huang, L. Bottou, Learning Methods for Generic Object Recognition with Invariance to Pose and Lighting. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR) 2004 ニューヨーク大学コーラント研究所 2005年10月 このデータセットおよびこの概要の一部は、[公式サイト][4] から取得されました。 **利用規約 / 著作権** このデータベースは研究目的で提供されています。販売することはできません。このデータベースを使用して得られた結果を含む出版物は、以下の論文を引用する必要があります: Y. LeCun, F.J. Huang, L. Bottou, Learning Methods for Generic Object Recognition with Invariance to Pose and Lighting. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR) 2004 インスピレーション - このデータセットで最も良い性能を発揮する機械学習モデルはどのようなタイプですか? - 物体の形状のみから、姿勢や照明に関係なく一般的な物体を認識できる学習システムを開発すること。 - 6%の誤り率を改善すること [この結果によると ][5] [1]: https://www.researchgate.net/profile/Sven_Behnke/publication/221080312/figure/fig2/AS:393937547218944@1470933438013/Fig-3-Images-from-the-NORB-normalized-uniform-dataset.ppm [2]: https://cs.nyu.edu/~ylclab/data/norb-v1.0-small/ [3]: https://cs.nyu.edu/~ylclab/data/norb-v1.0-small/ [4]: https://cs.nyu.edu/~ylclab/data/norb-v1.0-small/ [5]: https://cs.nyu.edu/~yann/research/norb/
    ×

    The dataset is currently being organized and other channels have been prepared for you. Please use them

    The dataset is currently being organized and other channels have been prepared for you. Please use them

    Note: Some data is currently being processed and cannot be directly downloaded. We kindly ask for your understanding and support.
    No content available at the moment
    No content available at the moment
    • Share your thoughts
    Go share your ideas~~

    ALL

      Welcome to exchange and share
      Your sharing can help others better utilize data.
    Points:0 Go earn points?
    • 231
    • 1
    • 0
    • collect
    • Share