芸術科学会論文誌 投稿用カバーシート ■ 論文種類(以下のうちから一つ選択) ・原著論文 フルペーパー ■ 論文分野(1)~3)のうちから一つ選択) 2) 科学系分野 ■ カテゴリ(1個以上選択) b-1) ヒューマンインタフェース b-5) マルチメディアシステム ■ 該当特集(以下のうちから一つ選択) ・一般論文 ■ 論文題吊(和文、英文) 和文: ものの把持に基づくコンテンツ検索支援 英文: A Contents Retrieval Supporting Technique Based on Grasping Pressure ■ 著者吊(和文、英文) 和文: 山本景子(*1,*2),南部俊輔(*1),佐藤宏介(*1) 英文: Keiko Yamamoto(*1,*2), Shunsuke Nambu(*1), Kosuke Sato(*1) ■ 著者所属(和文、英文) 和文: (*1)大阪大学 大学院基礎工学研究科 (*2)日本学術振興会 特別研究員 英文: (*1)Graduate School of Engineering Science, Osaka University (*2)Japan Society for the Promotion of Science (JSPS) ■ 著者e-mail ・山本 景子 - kei@sens.sys.es.osaka-u.ac.jp ・南部 俊輔 - nambu@sens.sys.es.osaka-u.ac.jp ・佐藤 宏介 - sato@sys.es.osaka-u.ac.jp ■ 連絡担当者の氏吊、住所、所属、電話、Fax、e-mail 氏吊:山本 景子 住所:〒560-8531 大阪府豊中市待兼山町1-3 大阪大学 大学院基礎工学研究科 佐藤(宏)研究室 所属:大阪大学 大学院基礎工学研究科 電話:06-6850-6373 Fax:06-6850-6341 Email:kei@sens.sys.es.osaka-u.ac.jp ■ 論文概要(和文400字程度、英文100ワード程度) 和文: キャプチャデバイスの進歩により,長時間のコンテンツ収録が可能になったことから,限られた動作だけを記録するのではなく,動作の一部始終をキャプチャする機会が増えている.それに伴い,コンテンツ検索,すなわち長時間に亘るキャプチャデータの中から,ユーザが必要とするシーンを選び出すための技術が必要とされている.本論文ではこの問題に対して,人が中心となる動作風景を撮影した映像を対象とし,動作時に映像と共に対象者の把持圧の変化を記録し,把持圧情報から求められる動作状態を提示することで,内容検索を支援する手法を提案する.筆者らは把持圧から,把持状態,把持対象,把持して行う動作についての情報が得られると考える.そこで,把持圧計測装置を構築し,動作映像と同時に取得した把持圧を分析することで,対象者の状態を判別する手法を提案し,実験により判別精度の検証を行った.ユーザが動作毎に所望のシーンを効率的に閲覧する支援となるコンテンツ検索支援システムを構築し,提案手法の動作確認を行った. 英文: This paper presents a video content retrieval system of operators' performance areas for camera monitoring and life-logging on a plant operator, fine artist etc. As the system focuses on grasping actions and tool handling operations, it records not only audio-video data, but also grasping pressures by special finger pressure sensors. A sensing module consists of tiny film sensors and a bluetooth wireless data transmitter, in order not to interfere workers' free actions. Unlike other video retrieval system with voice or image recognition, tag text analysis, the proposed system searches the desired video scene based on grasping pressure data, so that it distinguishes whether the worker operates a tool physically while the worker's outlook shows holding. As its content browser places only interested video clips on a time line, which the worker handles the tool with a certain force, the user easily knows actual actions among a longer and monotonous raw video sequence. By applying a supervised learning process with known actions in NN-method, the system extracts the same actions from a video sequence when the user tells the representative action as a search key in the content browser. ■ キーワード(和文5個程度、英文5個程度) 和文: コンテンツ検索,把持圧,モニタリング,動作認識 英文: video contents retrieval,grasping pressure,behavior monitoring,behavior recognition ※ 投稿原稿はカバーシートをテキストで、本体をPDF形式あるいはWORD形式で 本会事務局にメールにて提出する。本会事務局は受領番号を著者に通知する。 なお、論文本体および付録コンテンツのファイルサイズは原則として、 合計10MB 以内とする。 10MBを超える場合はメールで提出せずに、著者自身のウェブサイト等に ファイルを置くこと。