Open Dataset
Data Structure ?
23.69M
Data Structure ?
*The above analysis is the result extracted and analyzed by the system, and the specific actual data shall prevail.
README.md
コンテキスト
行動コンテキストとは、あなたの状況を説明する幅広い属性を指します。具体的には、あなたがどこにいるか(自宅、学校、職場、ビーチ、レストランなど)、何をしているか(睡眠中、食事中、会議中、コンピューター作業、運動中、シャワー中など)、誰と一緒か(家族、友人、同僚など)、あなたの体勢状態(座っている、立っている、歩いている、走っているなど)などです。
自動的に(無理なく、頻繁に、客観的に)行動コンテキストを認識する能力は、多くの分野で役立ちます。医療アプリケーションでは、身体活動や食習慣を監視できます。在宅介護プログラムでは、高齢者の身体的、社会的、精神的な行動を記録できます。パーソナルアシスタントシステムは、コンテキストを把握すれば、ユーザーにより良いサービスを提供できます。
実生活において、自然な行動は複雑で、様々な側面から構成され、高い変動性を持っています。あなたはビーチで友人と一緒に、携帯電話をポケットに入れて外で走ることができます。また、屋内のジムでトレッドミルの上を、携帯電話を横に置いて静止させたまま走ることもできます。この高い変動性のため、実生活においてコンテキスト認識は困難なタスクとなっています。
内容
ExtraSensoryデータセットは60人の参加者から収集され、各参加者は約7日間参加しました。私たちは彼らの個人用携帯電話にデータ収集用のモバイルアプリをインストールし、センサー測定値とコンテキストラベルの両方を収集するのに使用しました。センサー測定値は、毎分20秒間のウィンドウで自動的に記録されました。これには、携帯電話の加速度計、ジャイロスコープ、磁力計、音声、位置情報、電話状態、および私たちが提供した追加のスマートウォッチの加速度計とコンパスが含まれていました。さらに、アプリのインターフェースには、関連するコンテキストラベルを自己報告するための多くの仕組みがあり、過去のコンテキストの報告、近い将来の報告、通知への応答などが含まれていました。柔軟なインターフェースにより、最小限の労力とインタラクション時間で多くのラベルを収集でき、自然な行動への干渉を避けることができました。データは実生活で収集されました。参加者は自分たちに便利な方法で携帯電話を使用し、通常の行動を行い、自分たちのコンテキストに合ったラベルの組み合わせを報告しました。
各参加者(または「ユーザー」)に対して、データセットには、センサーから抽出した事前計算済みの特徴量とラベルが記載されたCSVファイルがあります。各行には別々のサンプル(1分を表す)があり、タイムスタンプ(エポックからの秒数)でインデックス付けされています。センサー特徴量の列があり、列名の接頭辞はその特徴量がどのセンサーから来たかを示しています(例えば、接頭辞「raw_acc:」は、特徴量が生の携帯電話の加速度計測定値から来たことを示します)。51種類の多様なコンテキストラベルの列があり、サンプルとラベルのペアの値は、1(ラベルがサンプルに関連する)、0(ラベルがサンプルに関連しない)、または「NaN」(情報が欠落している)のいずれかです。
ここでは、60人の参加者のうち2人のデータを提供しています。この部分的なデータを使用して、データに慣れ、アルゴリズムを練習することができます。完全なデータセットは、http://extrasensory.ucsd.eduで公開されています。このウェブサイトには、データの追加部分(元々報告されたラベルの幅広い範囲、位置座標、一部の参加者からのムードラベルなど)があります。あなたがこのデータを出版物で使用する場合は、私たちの原著論文を引用する必要があります。
Vaizman, Y., Ellis, K., and Lanckriet, G. "Recognizing Detailed Human Context In - the - Wild from Smartphones and Smartwatches". IEEE Pervasive Computing, vol. 16, no. 4, October - December 2017, pp. 62 - 74.
詳細については、http://extrasensory.ucsd.eduの情報と原著論文を読んでください。
謝辞
このデータセットは、カリフォルニア大学サンディエゴ校の電気とコンピューター工学部のGert Lanckriet教授の監督のもと、Yonatan VaizmanとKatherine Ellisによって収集されました。
着想
ExtraSensoryデータセットは、コンテキスト認識(またはコンテキスト認知、活動認識、日常活動検出)の方法を比較するためのベンチマークとして使用できます。特定のセンサーや特定のコンテキストラベルに焦点を当てることができます。新しいモデルや分類器を提案し、データで学習させ、データ上でそれらの性能を評価することができます。
×
The dataset is currently being organized and other channels have been prepared for you. Please use them
The dataset is currently being organized and other channels have been prepared for you. Please use them
Note: Some data is currently being processed and cannot be directly downloaded. We kindly ask for your understanding and support.
No content available at the moment
No content available at the moment
- Share your thoughts
Go share your ideas~~
ALL
Welcome to exchange and share
Your sharing can help others better utilize data.
Data usage instructions: h1>
I. Data Source and Display Explanation:
- 1. The data originates from internet data collection or provided by service providers, and this platform offers users the ability to view and browse datasets.
- 2. This platform serves only as a basic information display for datasets, including but not limited to image, text, video, and audio file types.
- 3. Basic dataset information comes from the original data source or the information provided by the data provider. If there are discrepancies in the dataset description, please refer to the original data source or service provider's address.
II. Ownership Explanation:
- 1. All datasets on this site are copyrighted by their original publishers or data providers.
III. Data Reposting Explanation:
- 1. If you need to repost data from this site, please retain the original data source URL and related copyright notices.
IV. Infringement and Handling Explanation:
- 1. If any data on this site involves infringement, please contact us promptly, and we will arrange for the data to be taken offline.
- 1. The data originates from internet data collection or provided by service providers, and this platform offers users the ability to view and browse datasets.
- 2. This platform serves only as a basic information display for datasets, including but not limited to image, text, video, and audio file types.
- 3. Basic dataset information comes from the original data source or the information provided by the data provider. If there are discrepancies in the dataset description, please refer to the original data source or service provider's address.
- 1. All datasets on this site are copyrighted by their original publishers or data providers.
- 1. If you need to repost data from this site, please retain the original data source URL and related copyright notices.
- 1. If any data on this site involves infringement, please contact us promptly, and we will arrange for the data to be taken offline.