JP5282709B2 - ヘッドマウントディスプレイを含む撮像データ利用システム - Google Patents

ヘッドマウントディスプレイを含む撮像データ利用システム Download PDF

Info

Publication number
JP5282709B2
JP5282709B2 JP2009221679A JP2009221679A JP5282709B2 JP 5282709 B2 JP5282709 B2 JP 5282709B2 JP 2009221679 A JP2009221679 A JP 2009221679A JP 2009221679 A JP2009221679 A JP 2009221679A JP 5282709 B2 JP5282709 B2 JP 5282709B2
Authority
JP
Japan
Prior art keywords
position information
time position
imaging data
imaging
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009221679A
Other languages
English (en)
Other versions
JP2011070458A (ja
Inventor
知裕 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009221679A priority Critical patent/JP5282709B2/ja
Priority to US12/876,704 priority patent/US8654038B2/en
Publication of JP2011070458A publication Critical patent/JP2011070458A/ja
Application granted granted Critical
Publication of JP5282709B2 publication Critical patent/JP5282709B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、ユーザの眼にコンテンツデータによって示されるコンテンツ画像を視認可能に提示するヘッドマウントディスプレイに関するものである。
従来から、ユーザの眼にコンテンツデータにより示されるコンテンツ画像を視認可能に提示するシースルー型のヘッドマウントディスプレイに関する技術が提案されている。例えば、画像を表示する透光型の液晶表示パネルを有し、これが目の直前にくるように頭部に装着されるめがね部を持つヘッドマウント型のAV装置と、各作業過程の作業対象物を象って予め作成された各種アニメーション画像を記憶する記憶部と、各作業過程の順番にしたがって、AV装置を装着する装着者によって液晶表示パネルを通して視認される作業対象物そのものに対して、記憶部に記憶された対応するアニメーション画像が重なるように、そのアニメーション画像を液晶表示パネルに表示するアニメーション表示処理機能とを備え、各作業過程の順番にしたがって、アニメーション画像を液晶表示パネルに表示することにより、作業対象物に対して行われるべき作業内容を装着者に示すようにした技術が提案されている(例えば、特許文献1参照)。
なお、被写体の撮影により得られた画像信号から、撮影状態の変化を表す画像特徴量を抽出する画像処理部と、音声を取得して得られた音声信号から、撮影状態の変化を表す音声特徴量を抽出する音声処理部と、撮影者の生理変化を示す情報に基づいて、撮影状態の変化を表す状態特徴量を抽出する固有識別情報処理部とを備え、抽出された特徴量を予め設定されている検出強度と比較して、この特徴量の発生した撮影タイミングが編集点として妥当であるか否かを判定する撮像装置が提案されている(例えば、特許文献2参照)。
特開2004−21931号公報 特開2006−157893号公報
例えば、各種の作業現場において、実行される作業の各工程を説明する複数のページからなるマニュアル(作業指図書)を、ヘッドマウントディスプレイでユーザに提示しつつ、実行中の作業状況を撮像しておき、後に、撮像された撮像データを用いて、この作業に慣れていない者などに対し、その作業の説明を行うことができると便利である。そして、出願人は、その際、マニュアルの各ページに関連した内容が再生されると、さらに、有効なもの(ツール)になると考えた。すなわち、出願人は、作業用のマニュアルなどのコンテンツデータによって示されるコンテンツ画像に関連した内容を再生可能な技術は、有効な技術であると考えた。
本発明は、ユーザに、コンテンツデータによって示されるコンテンツ画像を視認させつつ、コンテンツ画像に関連する内容を適切に提供することができるヘッドマウントディスプレイを含む撮像データ利用システムを提供することを目的とする。
上記従来の課題に鑑みなされた本発明の第1の課題解決手段は、コンテンツデータによって示されるコンテンツ画像それぞれを、順次、ユーザの眼に視認可能に提示するヘッドマウントディスプレイと、前記コンテンツデータにアクセスし、前記コンテンツ画像を表示可能な情報処理装置とを含む撮像データ利用システムであって、前記ヘッドマウントディスプレイは、前記コンテンツ画像を提示するコンテンツ画像提示手段と、前記コンテンツ画像提示手段によって前記コンテンツ画像が提示されている際に、被写体を撮像する撮像手段と、前記撮像手段によって撮像された前記被写体を含む撮像データを、撮像された時間に関する撮像時間位置情報とともに、自装置がアクセス可能な記憶手段に記憶する記憶制御手段と、前記ヘッドマウントディスプレイの外部で生じた事象を取得する事象取得手段と、前記事象取得手段によって取得された前記事象が、特定の特徴を有するかについて判断する判断手段と、前記判断手段によって前記特定の特徴を有すると判断された前記事象が生じたタイミングに関する第1時間位置情報を特定する第1時間位置情報特定手段と、前記判断手段によって前記事象が前記特定の特徴を有すると判断された場合、前記コンテンツ画像提示手段によって提示されている前記コンテンツ画像を識別可能な提示中識別情報と、前記第1時間位置情報とを関連付けて、自装置がアクセス可能な第1関連付け手段に登録する第1関連付け登録手段とを備え、前記情報処理装置は、前記記憶手段に記憶された前記撮像データと前記第1関連付け手段とにアクセス可能であるとともに、自装置で前記コンテンツ画像を表示しているとき前記第1関連付け手段にアクセスし、自装置で表示している前記コンテンツ画像を識別可能な表示中識別情報に一致する前記提示中識別情報が、前記第1関連付け手段に登録されていると判断される場合、前記表示中識別情報に一致する前記提示中識別情報に関連付けられた前記第1時間位置情報を取得する第1時間位置情報取得手段と、前記第1時間位置情報に対応する前記撮像時間位置情報とともに前記記憶手段に記憶されている前記撮像データにアクセスし、前記第1時間位置情報取得手段によって取得された前記第1時間位置情報に対応する所定の時点に撮像された前記撮像データの部分を、前記撮像時間位置情報により特定し、特定された前記撮像データの部分を、前記コンテンツ画像を表示している状態で、再生する再生手段とを備えることを特徴とする撮像データ利用システムである。
これによれば、コンテンツ画像が提示されている際に、被写体を撮像し、かつ提示されているコンテンツ画像を識別可能な提示中識別情報と、第1時間位置情報とを関連付けて、ヘッドマウントディスプレイがアクセス可能な第1関連付け手段に登録することができる。ヘッドマウントディスプレイによって撮像された撮像データについて、第1時間位置情報に対応する所定の時点に撮像された撮像データの部分を、撮像時間位置情報により特定し、特定された撮像データの部分を、コンテンツ画像を表示している状態で、再生することができる。
第2の課題解決手段は、第1の課題解決手段の撮像データ利用システムであって、前記事象取得手段は、音声入力機能を有し、前記事象を音声として取得し、前記判断手段は、前記事象取得手段が取得した前記音声を解析し、解析した結果、前記事象取得手段が取得した前記音声に予め定められた特徴が認められた場合、前記特定の特徴を有すると判断し、前記記憶制御手段は、前記事象取得手段によって取得された前記音声を含み、前記音声が取得された時間に関する取得時間位置情報を含む音声データを、前記記憶手段に記憶し、前記情報処理装置は、前記記憶手段に記憶された前記音声データにアクセス可能で、前記再生手段は、前記記憶手段に記憶されている前記音声データにアクセスし、特定された前記撮像データの部分が撮像されたときに取得された前記音声データを、特定された前記撮像データの部分とともに再生することを特徴とする。これによれば、事象取得手段が取得した音声に予め定められた特徴が認められた場合、特定の特徴を有すると判断することができる。ユーザが発した音声についても、情報処理装置で確認することができる。
第3の課題解決手段は、第2の課題解決手段の撮像データ利用システムであって、前記再生手段は、特定された前記撮像データの部分の前記撮像時間位置情報と、前記音声データに含まれる前記取得時間位置情報とに基づき、特定された前記撮像データの部分に同期させて前記音声データを再生することを特徴とする。これによれば、ユーザが発した音声についても、情報処理装置で確認することができる。
第4の課題解決手段は、第1から第3の課題解決手段のいずれか1つの撮像データ利用システムであって、前記再生手段は、前記第1時間位置情報に対応する所定の時点に撮像された前記撮像データの部分として、前記第1時間位置情報より所定時間前から所定時間後に撮像された前記撮像データの部分を、前記撮像時間位置情報により特定することを特徴とする。これによれば、特定の特徴が発せられた部分を、効率よく確認することができる。
第5の課題解決手段は、第1から第4の課題解決手段のいずれか1つの撮像データ利用システムであって、前記ヘッドマウントディスプレイは、前記コンテンツ画像提示手段によって提示されている一のコンテンツ画像を、他のコンテンツ画像に切り替える指令を取得する指令取得手段と、前記指令取得手段によって取得された前記指令の取得のタイミングに関する第2時間位置情報と、前記指令によって新たに提示されることとなった前記他のコンテンツ画像を識別可能な他の提示中識別情報とを関連付けて、自装置がアクセス可能な第2関連付け手段に登録する第2関連付け登録手段とを備え、前記情報処理装置は、前記第2関連付け手段にアクセス可能であるとともに、自装置で前記コンテンツ画像を表示しているとき前記第2関連付け手段にアクセスし、前記表示中識別情報に一致する前記提示中識別情報に関連付けられた前記他の第2時間位置情報を取得する第2時間位置情報取得手段を備え、前記再生手段は、前記第1時間位置情報に対応する所定の時点に撮像された前記撮像データの部分として、前記第2時間位置情報取得手段によって取得された前記他の第2時間位置情報のタイミングから撮像された前記撮像データの部分を再生することを特徴とする。これによれば、新たに提示されることになった他のコンテンツ画像について、提示の指令が取得されたタイミングに関する第2時間位置情報と、他のコンテンツ画像を識別可能な他の提示中識別情報とを関連付けて第2関連付け手段に登録することができる。特定の特徴が発せられた部分を、効率よく確認することができる。
第6の課題解決手段は、第1から第5の課題解決手段のいずれか1つの撮像データ利用システムであって、前記撮像データ利用システムは、複数の前記ヘッドマウントディスプレイを含み、前記記憶手段には、前記撮像データが、複数の前記ヘッドマウントディスプレイそれぞれが備える前記記憶制御手段によって、複数記憶され、前記第1関連付け手段には、前記提示中識別情報と前記第1時間位置情報とが、複数の前記ヘッドマウントディスプレイそれぞれが備える前記第1関連付け登録手段によって、複数関連付けて登録され、前記情報処理装置において、前記第1時間位置情報取得手段は、前記第1関連付け手段に登録されている、前記表示中識別情報に一致する前記提示中識別情報に関連付けられた全ての前記第1時間位置情報を取得し、前記再生手段は、前記第1時間位置情報それぞれに対応する前記撮像時間位置情報とともに前記記憶手段に記憶されている前記撮像データにアクセスし、前記第1時間位置情報取得手段によって取得された前記第1時間位置情報それぞれに対応する所定の時点に撮像された前記撮像データの部分を、前記撮像時間位置情報により特定し、特定された前記撮像データの部分を再生することを特徴とする。これによれば、複数のヘッドマウントディスプレイを含む撮像データ利用システムとすることができる。
本発明によれば、ユーザに、コンテンツデータによって示されるコンテンツ画像を視認させつつ、コンテンツ画像に関連する内容を適切に提供することができるヘッドマウントディスプレイを含む撮像データ利用システムを得ることができる。
撮像データ利用システムを示す図である。 ヘッドマウントディスプレイを示す図である。 制御ボックスの機能ブロックを示す図である。 録画時処理のフローチャートを示す図である。 ヘッドマウントディスプレイを利用しているユーザによる作業状態を示す図である。 第1関連付けテーブルを示す図である。 第1処理形態の再生時処理のフローチャートを示す図である。 第2処理形態の再生時処理のフローチャートを示す図である。 提示画像切替処理のフローチャートを示す図である。 第2関連付けテーブルを示す図である。
本発明を反映した上記課題解決手段を実施するための実施形態について、図面を用いて以下に詳細に説明する。上記課題解決手段は以下に記載の構成に限定されるものではなく、同一の技術的思想において種々の構成を採用することができる。例えば、以下に説明する各構成において、所定の構成を省略することができる。また、以下に説明する各処理において、所定のステップを省略することができる。
(撮像データ利用システム)
撮像データ利用システム100について、図1を参照して説明する。撮像データ利用システム100は、ヘッドマウントディスプレイ(Head Mounted Display/以下、「HMD」ともいう。)200A,200B,200C(以下、HMD200A,200B,200Cを区別しない場合、単に「HMD200」という。)と、コンテンツデータ記憶領域500と、撮像データ記憶領域510と、テーブル記憶領域520と、音声データ記憶領域530と、情報処理装置600とを含み、各構成は、通信可能に接続されている。例えば、これらは、LANまたはWANのようなネットワーク700を介して接続されている。なお、HMD200とコンテンツデータ記憶領域500と撮像データ記憶領域510とテーブル記憶領域520と音声データ記憶領域530とについては、ネットワーク700を介した接続の他、これらをメモリバスによって接続した構成、換言すれば、これらを一体として形成した構成とすることもできる。
コンテンツデータ記憶領域500は、HMD200で視認されるコンテンツデータを記憶する領域である。コンテンツデータ記憶領域500には、例えば所定の作業のマニュアルに関するマニュアルデータが、コンテンツデータとして記憶されている。撮像データ記憶領域510は、HMD200で撮像された撮像データを記憶する領域である。テーブル記憶領域520は、第1関連付けテーブル522と第2関連付けテーブル524(後述する変形例(2)の構成において採用)とを記憶する領域である。第1関連付けテーブル522と第2関連付けテーブル524とについては、後述する。音声データ記憶領域530は、HMD200で録音された音声データを記憶する領域である。なお、コンテンツデータ記憶領域500と撮像データ記憶領域510とテーブル記憶領域520と音声データ記憶領域530とは、ハードウェア的に、複数の記憶領域または1つの記憶領域のいずれであってもよい。
情報処理装置600は、従来から利用されている、例えばパーソナルコンピュータによって構成される。情報処理装置600は、CPU602とROM604とRAM606と記憶部(例えば、ハードディスクまたはSSD(Solid State Drive)で構成)608と表示部610と操作部612とネットワークインターフェース(ネットワークI/F)614とを備える。記憶部608には、後述する再生時処理(図7,図8参照)のためのプログラムが記憶されており、CPU602は、記憶部608からこのプログラムを読み出し、これをRAM606上で実行する。表示部610は、各種の情報を表示する。操作部612は、キーボードおよびマウスなどから構成される。ネットワークI/F614は、ネットワーク700を介した通信を実行する。なお、HMD200については、次にその詳細を説明する。
(ヘッドマウントディスプレイ)
HMD200の構成について、図2を参照して説明する。HMD200は、HMD本体220と制御ボックス260とCCDセンサ300とマイク320とを含む。HMD本体220とCCDセンサ300とマイク320とは、信号ケーブル280を介して制御ボックス260に接続されており、HMD本体220などと制御ボックス260との間では各種信号の入出力が実行される。HMD本体220はユーザの顔に装着され、また、制御ボックス260はユーザの腰などに取り付けられて利用される。
HMD本体220は、通常の眼鏡と同様のフレーム構造222を有し、これによって、ユーザの顔に支持される。フレーム構造222の所定の位置には、ユーザが視認するコンテンツ画像を、ユーザの眼(図2の構成に基づけば、左眼)に提示(投影、表示を含む)する画像提示部224が取り付けられている。画像提示部224は、フレーム構造222に取り付けられた状態において、HMD本体220を装着したユーザの左眼と略同一の高さとなる位置に配置されている。画像提示部224の上面にはCCDセンサ300が取り付けられている。また、フレーム構造222には、ユーザの口元に伸びたマイクステーが取り付けられ、マイク320がマイクステーの先端に取り付けられている。
画像提示部224は、制御ボックス260から出力される画像信号に応じた画像光を2次元方向に走査し、その走査された画像光をユーザの左眼に導き網膜上にコンテンツ画像を形成する網膜走査型のディスプレイによって構成される。画像提示部224から出射された画像光は、画像提示部224に固定され、ユーザの左眼前方の位置に配置されたハーフミラー(図2で図示を省略)で反射して、左眼に導かれる(入射する)。なお、画像提示部224は、網膜走査型のディスプレイによる構成の他、液晶ディスプレイ、有機EL(Organic Electroluminescence)ディスプレイその他の装置を用いた構成とすることもできる。
制御ボックス260の機能ブロックについて、図3を参照して説明する。制御ボックス260は、自装置の制御を司るCPU262と、以下に説明する録画時処理を含む各種処理のためのプログラムを記憶するプログラムROM264と、各種データを記憶可能な不揮発性のフラッシュROM266と、作業領域としてのRAM268とを備える。例えば、CPU262は、プログラムROM264から、録画時処理(図4参照)のためのプログラムを読み出し、これをRAM268上で実行する。また、CPU262は、プログラムROM264から、コンテンツデータ記憶領域500から取得したコンテンツデータに対する再生処理のためのプログラムを読み出し、これをRAM268上で実行する。再生処理によって、コンテンツ画像が形成される。なお、後述する変形例(2)の構成の場合、CPU262は、プログラムROM264から、提示画像切替処理(図9参照)のためのプログラムを読み出し、これをRAM268上で実行する。
CPU262が、プログラムROM264に記憶された各種プログラムをRAM268上で実行することにより、各種機能手段が構成される。なお、HMD200とコンテンツデータ記憶領域500と撮像データ記憶領域510とテーブル記憶領域520と音声データ記憶領域530とを、例えば図3に示すような構成で、一体として形成した場合、フラッシュROM266が、コンテンツデータ記憶領域500と撮像データ記憶領域510とテーブル記憶領域520と音声データ記憶領域530として機能する。すなわち、図3の構成に基づけば、これら各記憶領域500,510,520,530は、ハードウェア的に1つのフラッシュROM266(1つの記憶領域)で構成される。
制御ボックス260は、ビデオRAM270と、HMD接続I/Fコントローラ272とネットワークI/F274と周辺I/F276とを備える。ビデオRAM270は、コンテンツデータに対する再生処理によって形成されたコンテンツ画像などを記憶する。HMD接続I/Fコントローラ272は、信号ケーブル280を介してHMD本体220に接続され、CPU262からの指令に基づき、HMD本体220の画像提示部224との間で行われる各種信号の入出力を制御する。具体的に、HMD接続I/Fコントローラ272は、コンテンツ画像を含む画像信号および画像提示部224に対する制御信号などを、画像提示部224に出力する。
ネットワークI/F274は、ネットワーク700を介した通信を実行する。周辺I/F276は、CCDセンサ300、マイク320、電源スイッチ340および電源ランプ342などが接続される接続I/Fである。CPU262は、CCDセンサ300によって撮像された被写体を含む撮像データを周辺I/F276を介して取得する。また、マイク320によって入力された音声を示す音声データを周辺I/F276を介して取得する。電源スイッチ340は、画像提示部224および制御ボックス260のオン、オフを操作するためのスイッチである。電源ランプ342は、電源スイッチ340がオンされたとき点灯し、オフされたとき消灯する。
(撮像データ利用システムで実行される処理)
以下、撮像データ利用システム100のHMD200と情報処理装置600とで実行される各種処理について説明する。以下では、コンテンツデータが、所定の作業のマニュアルに関するマニュアルデータであり、コンテンツデータによって示されるコンテンツ画像が、このマニュアルを構成する複数のマニュアル画像それぞれである場合を例に説明する。したがって、以下では、コンテンツデータをマニュアルデータといい、コンテンツ画像をマニュアル画像ともいう。
(録画時処理)
HMD200の制御ボックス260のCPU262によって実行される録画時処理について、図4〜図6を参照して説明する。この処理を開始したCPU262は、マニュアル画像の提示の開始指示が入力されたかを判断する(S100)。開始指示は、ユーザが、例えば制御ボックス260に設けられた開始ボタン(図2,図3で図示を省略)を操作することで入力される。判断の結果、開始指示が入力されていない場合(S100:No)、CPU262は、開始指示が入力されるまで待機する。
これに対し、開始指示が入力された場合(S100:Yes)、CPU262は、コンテンツ画像の提示を開始する。例えば、ユーザは、図5に示すような所定の作業(運搬作業)を開始するに際し、この作業のマニュアルを視認すべく、開始ボタンを操作する。CPU262は、マニュアルデータを、ネットワークI/F274を介してコンテンツデータ記憶領域500から取得し、これに対して再生処理を実行し、再生処理によって形成されたマニュアル画像をビデオRAM270に記憶する。そして、CPU262は、ビデオRAM270に記憶されているマニュアル画像を含む画像信号と、マニュアル画像の提示についての制御信号とを、HMD接続I/Fコントローラ272を介して画像提示部224に出力し、画像提示部224からのマニュアル画像の提示を実行する。これによって、ユーザは、マニュアル画像を視認する(図5に示す荷物を搬送していない一のユーザ参照)。
マニュアル画像の提示を開始したCPU262は、続けて、CCDセンサ300による撮像を開始する(S104)。ここで、CCDセンサ300は画像提示部224の上面に設置されているため、ユーザの視線方向に存在する被写体がCCDセンサ300によって撮像される。なお、CCDセンサ300による撮像は、例えば動画録画の手法によって行われる。CCDセンサ300によって撮像された撮像データは、RAM268上にバッファされる。CPU262は、後述する終了指示が入力されるまで(S114参照)、撮像データをネットワークI/F274を介して撮像データ記憶領域510に記憶し続ける。撮像データは、撮像された時間(日時)に関する撮像時間位置情報を含む。
CPU262は、S104の実行とともに、マイク320によって集音される音声(事象)、具体的には、HMD本体220を装着しているユーザが発する音声の取得を開始する(S106)。取得された音声データは、時間(日時)に関する取得時間位置情報を含み、これとともに逐次RAM268上にバッファされていく。S108でCPU262は、RAM268上の音声データに対して音声特徴認識解析を実行し、音声データに、予め定められた特定の特徴を有する音声、具体的には、所定の作業の開始時に発せられるスタート合図(例えば「スタート」)、危険時に発せられる音声(例えば「アッ」)、合図(例えば「OK」)などが含まれているか判断する(S110)。
S110の判断の結果、S106で取得されRAM268上にバッファされている音声データに特定の特徴を有する音声が含まれていない場合(S110:No)、CPU262は、処理をS106に戻し、S106〜S110を繰り返して実行する。一方、特定の特徴を有する音声が含まれている場合(S110:Yes)、CPU262は、特定の特徴を有する音声が発せられたタイミングを特定するとともに、特定の特徴を有する音声の部分を含む前後所定時間の範囲の音声データを切り出し、切り出した音声データを、ネットワークI/F274を介して音声データ記憶領域530に記憶する。そして、CPU262は、特定の特徴と、特定の特徴を有する音声が発せられたタイミングに関する第1時間位置情報と、現在提示中のマニュアル画像の識別情報(ページ番号)と、音声データ(詳細には、音声データの記憶先アドレス)とを含むレコードを、第1関連付けテーブル522に登録(追加登録)する(S112)。
具体的に、CPU262は、例えば「OK」との合図に関する特徴「合図」と、「OK」との合図が発せられたタイミングに関する第1時間位置情報と、提示中のマニュアル(マニュアル画像)のページ番号と、「OK」との合図が含まれるように切り出された音声データの記憶先アドレスとを含むレコード(図6のレコード「Tag3」参照)を、テーブル記憶領域520に記憶されている第1関連付けテーブル522に追加登録する。なお、図6に示す第1関連付けテーブル522は、既にレコード「Tag1」とレコード「Tag2」とが登録された状態にある。
S112を実行した後、CPU262は、終了指示が入力されたかを判断する。終了指示は、ユーザが、例えば制御ボックス260に設けられた終了ボタン(図2,図3で図示を省略)を操作することで入力される。判断の結果、終了指示が入力されていない場合(S114:No)、CPU262は、処理をS106に戻し、S106〜S114を繰り返して実行する。一方、終了指示が入力された場合(S114:Yes),CPU262は、この処理を終了する。
(再生時処理)
情報処理装置600のCPU602によって実行される再生時処理について、2つの処理形態を説明する。ここで、第1処理形態の再生時処理は、撮像データ利用システム100に含まれるHMD200が単数である場合、例えば、図1でHMD200Aのみが存在している場合に実行される処理である。第2処理形態の再生時処理は、撮像データ利用システム100に含まれるHMD200が複数である場合、例えば、所定の作業を図5に示すように3人で行っている場合において、それぞれのユーザがHMD200A,200B,200C(図1参照)を利用し、HMD200A,200B,200Cそれぞれで、図4に示す録画時処理が実行された場合の処理である。なお、この場合、全てのユーザは、それぞれ図に示すようにHMD本体220を装着し、制御ボックス260を例えば腰に取り付け、さらに全員、所定のマニュアル画像を視認している。再生時処理は、ユーザが、情報処理装置600の操作部612を操作し、コンテンツデータ記憶領域500に記憶されているマニュアルデータの表示を指示した場合に開始される。CPU602は、記憶部608に記憶されたこの処理のためのプログラムを読み出し、これをRAM606上で実行する。
(第1処理形態)
第1処理形態の再生時処理について、図7を参照して説明する。この処理を開始したCPU602は、マニュアルデータによって示される特定のページのマニュアル画像を表示部610に表示する(S200)。そして、CPU602は、テーブル記憶領域520に記憶されている第1関連付けテーブル522にアクセスし、表示中のマニュアル画像のページ番号に一致するページ番号を含むレコードが存在するかを判断する(S202)。判断の結果、一致するページ番号を含むレコードが存在しない場合(S202:No)、CPU602は処理をS200に戻す。一方、一致するページ番号を含むレコードが存在する場合(S202:Yes)、CPU602は、処理をS204に移行する。
S204でCPU602は、一致するページ番号のレコードに含まれる第1時間位置情報を第1関連付けテーブル522から取得する。また、S204でCPU602は、撮像データ記憶領域510に記憶されている撮像データにアクセスし、取得した第1時間位置情報によって示される日時を含む撮像データを、撮像データに含まれる撮像時間位置情報で特定し、ネットワークI/F614を介して特定した撮像データをRAM606上に取得する。そして、S204でCPU602は、この処理で取得した撮像データに対して、同じく取得した第1時間位置情報によって示される日時から所定時間前の日時を再生開始点として設定する。S204を実行した後、CPU602は、S204で設定した再生開始点に対応する位置から撮像データの再生を開始する(S206)。
なお、S206の再生の際、CPU602は、音声データ記憶領域530にアクセスし、再生対象の撮像データが撮像されたときに取得された音声データを、撮像データに同期させて再生する構成とすることもできる。この場合、CPU602は、例えば、撮像データに含まれる撮像時間位置情報と、音声データに含まれる時間(日時)に関する取得時間位置情報とに基づき両者を同期させる。これによれば、ユーザが発した音声についても、情報処理装置600で確認することができる。
S206を実行した後、CPU602は、撮像データの再生がセグメント終点まで完了したか、例えば、再生開始後、5分後の位置(セグメント終点)まで再生が完了したかを判断する(S208)。判断の結果、セグメント終点までの再生が完了していない場合(S208:No)、CPU602は、撮像データの再生を継続する。一方、セグメント終点までの再生が完了した場合(S208:Yes)、CPU602は、撮像データの再生を停止し、そして、この処理の終了指示が入力されたかを判断する(S210)。終了指示は、操作部612を介したユーザ操作によって入力される。判断の結果、終了指示が入力されていない場合(S210:No)、CPU602は、処理をS200に戻す一方、終了指示が入力された場合(S210:Yes)、この処理を終了する。
(第2処理形態)
第2処理形態の再生時処理について、図8を参照して説明する。この処理を開始したCPU602は、S300およびS302を実行する。ここで、S300およびS302は、図7に示す第1処理形態の再生時処理のS200およびS202に対応する処理である。したがって、これら処理についての詳細は、省略する。
S304でCPU602は、一致するページ番号のレコードに含まれる第1時間位置情報を第1関連付けテーブル522から取得する。例えば、図5に示すように3人のユーザによって所定の作業が行われていた場合、S304では、最大で3個の第1時間位置情報が取得されることがある。すなわち、同一のページ番号のマニュアル画像が提示されている状態で、一のユーザが、特徴「危険時発生」の対象となる一の音声を発し、他のユーザが、特徴「危険時発生」の対象となる他の音声を発し、さらに他のユーザが、特徴「合図」の対象となるさらに他の音声を発した場合、各ユーザのHMD200A,200B,200Cの制御ボックス260のCPU262は、それぞれ第1関連付けテーブル522にレコードを登録(追加登録)する(図4のS112参照)。
また、S304でCPU602は、撮像データ記憶領域510に記憶されている撮像データにアクセスし、取得した第1時間位置情報によって示される日時を含む撮像データを、撮像データに含まれる撮像時間位置情報で特定し、ネットワークI/F614を介して特定した撮像データをRAM606上に取得する。この場合についても、複数の撮像データ、すなわち、図5に基づけば、一のユーザと他のユーザとさらに他のユーザそれぞれのHMD200A,200B,200CのCCDセンサ300によって撮像された3つの撮像データが取得される。
そして、S304でCPU602は、この処理で取得した撮像データそれぞれに対して、同じく取得した第1時間位置情報によって示される日時から所定時間前の日時それぞれを再生開始点として設定する。CPU602は、撮像データそれぞれに対して、第1時間位置情報によって示される日時から所定時間前の日時それぞれを再生開始点として設定したかを判断する(S306)。判断の結果、撮像データそれぞれに対して、第1時間位置情報によって示される日時から所定時間前の日時それぞれを再生開始点として設定していない場合(S306:No)、CPU602は、処理をS304に戻し、未設定の撮像データに対して未設定の第1時間位置情報によって示される日時から所定時間前の日時を設定する一方、全てを設定した場合(S306:Yes)、CPU602は、処理をS308に移行する。
S308でCPU602は、撮像データの再生指示が入力されたかを判断する。再生指示は、操作部612を介したユーザ操作によって入力される。なお、S304で複数の撮像データが取得されている場合、複数の撮像データのうち再生されるデータと再生されないデータとを、再生指示が入力される際に合わせて指示することができる。判断の結果、再生指示が入力されていない場合(S308:No)、CPU602は、再生指示が入力されるまで待機する。一方、再生指示が入力された場合(S308:Yes)、CPU602は、撮像データそれぞれについて、順次、設定された再生開始点からの再生を開始し(S309)、処理をS310に移行する。
S310でCPU602は、S306で設定した再生開始点それぞれについて、セグメント終点までの再生が完了したかを判断する。判断の結果、セグメント終点までの再生が完了していない場合(S310:No)、CPU602は、撮像データの再生を継続する。一方、セグメント終点までの再生が完了した場合(S310:Yes)、CPU602は、撮像データの再生を停止する。なお、S304で複数の撮像データが取得され、かつS308で複数の撮像データが再生されると指示されている場合、CPU602は、未再生の撮像データの存在を判断し、未再生の撮像データがなくなるまで、繰り返して撮像データの再生と、S310の判断を実行する。そして、全ての撮像データについて、セグメント終点までの再生が完了した場合、CPU602は、この処理の終了指示が入力されたかを判断する(S312)。終了指示は、操作部612を介したユーザ操作によって入力される。判断の結果、終了指示が入力されていない場合(S312:No)、CPU602は、処理をS300に戻す一方、終了指示が入力された場合(S312:Yes)、この処理を終了する。
ここで、S310に関連したセグメント終点までの再生完了の判断について、説明を加える。この第2処理形態では、1つの撮像データに複数の再生開始点が設定されることがある。例えば、セグメントの終点を再生開始点から、例えば5分後の位置とする場合、一の再生開始点から5分以内に、さらに他の再生開始点が設定されることがあり得る。このような場合、CPU602は、一の再生開始点からの再生が実行された場合、他の再生開始点から5分経過した位置まで、連続して撮像データを再生する。その上で、CPU602は、他の再生開始点からの再生が他のセグメント終点まで完了したと判断するとともに、一の再生開始点からの再生についても完了したものと判断する。
なお、CPU602は、この第2処理形態の再生時処理においても、第1処理形態の再生時処理の説明で記載したとおり、音声データ記憶領域530にアクセスし、再生中の撮像データに同期して、この撮像データに関連付けられた音声データ(第1関連付けテーブル522参照)を再生する構成としてもよい。
(変形例)
上述した本実施形態の構成は、次のようにすることもできる。
(1)上記では、HMD本体220と制御ボックス260とが別体のHMD200を例に説明したが、HMD本体220と制御ボックス260とを一体で構成したHMDとすることもできる。この場合、制御ボックス260の各構成(図3参照)は、例えば画像提示部224を形成する筐体(カバー)内に収容される。
(2)上記では、図4に示す録画時処理のS112で、第1関連付けテーブル522に第1時間位置情報を登録する構成とし、図に示す第1処理形態の再生時処理のS204と、図8の第2処理形態の再生時処理のS304とで、この第1時間位置情報によって示される日時から所定時間前の日時を再生開始点として設定し、設定した再生開始点から撮像データを再生する構成とした。
ところで、このように、後に情報処理装置600で、特定の特徴を有する音声が発せられた部分を確認するための構成は、次のようにすることもできる。すなわち、図9に示す提示画像切替処理を、例えば、図4に示す録画時処理のS100とS104との間で開始し、この処理によって、第2関連付けテーブル524に、順次レコードを登録(追加登録)する。その上で、情報処理装置600のCPU602は、図7に示す第1処理形態の再生時処理のS204または図8の第2処理形態の再生時処理のS304において、第1関連付けテーブル522の第1時間位置情報によって示される日時に基づき撮像データを特定して取得し、また、テーブル記憶領域520に記憶された第2関連付けテーブル524にアクセスし、対応するページ番号に関連付けて登録された第2時間位置情報を取得し、この第2時間位置情報によって示される日時を再生開始点として設定する(図7のS204,図8のS304参照)構成とすることもできる。CPU602は、第2関連付けテーブル524で、取得した第2時間位置情報を含むレコードの次のレコードに含まれる第2時間位置情報によって示される日時をセグメント終点とし(図7のS208,図8のS310参照)、撮像データの再生を停止する(図7のS208,図8のS310:Yes)。
この変形例(2)の提示画像切替処理について、図9および図10を参照して説明する。この処理を開始したHMD200の制御ボックス260のCPU262は、提示中のマニュアル画像を、他のマニュアル画像(次のページのマニュアル画像)へ切り替えるための切替指示が入力されたかを判断する(S400)。切替指示は、ユーザが、例えば制御ボックス260に設けられた切替ボタン(図2,図3で図示を省略)を操作することで入力される。例えば、ユーザは、運搬作業(図5参照)の第8工程を終了した時点で、第9工程のマニュアル画像を視認するために、制御ボックス260の切替ボタンを操作する。判断の結果、切替指示が入力されていない場合(S400:No)CPU262は、切替指示が入力されるまで待機する。
これに対して、切替指示が入力された場合(S400:Yes)、CPU262は、切替指示によって新たに提示された他のマニュアル画像を識別する識別情報、すなわち、ページ番号と、他のマニュアル画像への切替指示が入力されたタイミング(他のマニュアル画像の提示が開始されたタイミングは、これに同一(略同一))に関する第2時間位置情報とを取得し(S402)、これらを関連付けて、テーブル記憶領域520に記憶されている第2関連付けテーブル524(図10参照)に登録(追加登録)する(S404)。
例えば、第8ページ目に配置されている第8工程のマニュアル画像から、第9ページ目に配置されている第9工程のマニュアル画像に切り替えられた場合、第9工程マニュアル画像のページ番号「9」と、切替指示が入力された日時、例えば「2009/09/09 18:52:42」とを取得し(S402)、これらを含むレコードを、第2関連付けテーブル524に追加登録する(S404)(図10参照)。
S404を実行した後、CPU262は、終了指示が入力されたかを判断する(S406)。なお、終了指示は、図4のS114で入力された終了指示と同一のものである。判断の結果、終了指示が入力されていない場合(S40:No)、CPU262は、処理をS400に戻し、S400〜S406を繰り返して実行する。一方、終了指示が入力された場合(S406:Yes)、CPU262は、図4に示す録画時処理とともに、提示画像切替処理を終了する。なお、変形例(2)の構成によれば、第1関連付けテーブル522への第1時間位置情報の登録を省略することもできる。この場合、CPU602は、第2関連付けテーブル524の第2時間位置情報に基づき、撮像データを特定して取得する。
(3)上記では、「年月日時分秒」などを特定可能な日時による第1時間位置情報を、第1関連付けテーブル522に登録し(図4のS112参照)、第1時間位置情報と、撮像データに含まれる撮像時間位置情報とに基づき、第1関連付けテーブル522に登録された第1時間位置情報によって示される時点に撮像された撮像データを特定することとした(図7のS204,図8のS304参照)。
しかし、撮像データの特定については、これと異なる構成とすることもできる。例えば、第1関連付けテーブル522の各レコードとの関連付けを特定可能な識別子を、撮像データに付与する構成を採用すれば、この識別子によって、上述した構成などと同様に所定の撮像データを特定することができる。なお、変形例(3)の構成を採用した場合、マニュアルデータの再生の開始に合わせ(S100:Yes)、順次(略同一のタイミングで)、撮像が開始され(図4のS104)、さらに音声が取得される(図4のS10)ため、第1関連付けテーブル522に、例えばマニュアルデータの再生開始後の経過時間を、第1時間位置情報として登録する構成とすることもできる。変形例(3)の構成は、変形例(2)の構成による場合も採用可能で、この場合についても、第2関連付けテーブル524に第2時間位置情報として、マニュアルデータの再生開始後の経過時間を登録することができる。
(4)上記では、CCDセンサ300による撮像として、例えば動画録画の手法を例示したが、これ以外の手法とすることもできる。例えば、コマ撮り静止画とすることもできる。この場合、所定の間隔で繰り返し撮像が実行されるため、撮像回数を撮像時間位置情報として取り扱うこともできる。例えば、1秒に1回の割合で撮像する場合、撮像回数が100回目であれば、最初の撮像から100秒経過した時点の撮像データ(静止画)であると判断することができる。
(5)上記では、図8に示す第2処理形態の再生時処理のS308で、撮像データの再生指示が入力されたかを判断する構成を採用し、また、S304で複数の撮像データが取得されている場合、複数の撮像データのうち再生されるデータと再生されないデータとを、再生指示が入力される際に合わせて指示することができる構成を採用した。このような構成によれば、ユーザが意図しない撮像データの再生を防止することができる。ここで、S304で取得された撮像データが1つである場合には、ユーザの操作による再生指示の入力の有無を具体的に判断(図8のS308参照)することなく、再生指示が入力されたものとして(図8のS308:Yes参照)、図7に示す第1処理形態の再生時処理のS206と同様に、取得した撮像データの再生開始点からの再生を開始(図8のS309参照)するようにしてもよい。これによれば、再生される撮像データが確定しているに等しい状況において、再生指示の入力といったユーザの操作を省略することが可能で、撮像データの再生開始点からの再生を迅速に開始させることができる。
(本実施形態の構成による有利な効果)
本実施形態の構成(上記変形例の構成を含む)によれば、HMD200を利用してマニュアル画像を確認しつつ行われた所定の作業に関し、CCDセンサ300で、実行された作業の状態を撮像する(図4のS104参照)こととしたため、後に、撮像データを再生し、作業の状態を確認することができる。そして、その際、本実施形態の構成によれば、図6に示す第1関連付けテーブル522に登録された第1時間位置情報、または、図10に示す第2関連付けテーブル524に登録された第2時間位置情報に対応する所定の時点を再生開始点として設定し(図7のS204,図8のS304参照)、設定された再生開始点から再生することができるため、作業中に特定の特徴を有する音声が発せられた(図4のS110:Yes)部分を、効率よく確認することができる。例えば、所定の作業の各工程およびその進行に関し、この作業に慣れていない者などに対し、その作業の説明を行うような場面、または、各工程およびその進行に関する検討を行うような場面において、特にその効果を発揮することができる。
200 ヘッドマウントディスプレイ(HMD)
220 ヘッドマウントディスプレイ本体(HMD本体)
224 画像提示部
260 制御ボックス
262 CPU
264 プログラムROM
266 フラッシュROM
268 RAM
274 ネットワークI/F
300 CCDセンサ
320 マイク
500 コンテンツデータ記憶領域
510 撮像データ記憶領域
520 テーブル記憶領域
522 第1関連付けテーブル

Claims (6)

  1. コンテンツデータによって示されるコンテンツ画像それぞれを、順次、ユーザの眼に視認可能に提示するヘッドマウントディスプレイと、前記コンテンツデータにアクセスし、前記コンテンツ画像を表示可能な情報処理装置とを含む撮像データ利用システムであって、
    前記ヘッドマウントディスプレイは、
    前記コンテンツ画像を提示するコンテンツ画像提示手段と、
    前記コンテンツ画像提示手段によって前記コンテンツ画像が提示されている際に、被写体を撮像する撮像手段と、
    前記撮像手段によって撮像された前記被写体を含む撮像データを、撮像された時間に関する撮像時間位置情報とともに、自装置がアクセス可能な記憶手段に記憶する記憶制御手段と、
    前記ヘッドマウントディスプレイの外部で生じた事象を取得する事象取得手段と、
    前記事象取得手段によって取得された前記事象が、特定の特徴を有するかについて判断する判断手段と、
    前記判断手段によって前記特定の特徴を有すると判断された前記事象が生じたタイミングに関する第1時間位置情報を特定する第1時間位置情報特定手段と、
    前記判断手段によって前記事象が前記特定の特徴を有すると判断された場合、前記コンテンツ画像提示手段によって提示されている前記コンテンツ画像を識別可能な提示中識別情報と、前記第1時間位置情報とを関連付けて、自装置がアクセス可能な第1関連付け手段に登録する第1関連付け登録手段とを備え
    前記情報処理装置は、
    前記記憶手段に記憶された前記撮像データと前記第1関連付け手段とにアクセス可能であるとともに、
    自装置で前記コンテンツ画像を表示しているとき前記第1関連付け手段にアクセスし、自装置で表示している前記コンテンツ画像を識別可能な表示中識別情報に一致する前記提示中識別情報が、前記第1関連付け手段に登録されていると判断される場合、前記表示中識別情報に一致する前記提示中識別情報に関連付けられた前記第1時間位置情報を取得する第1時間位置情報取得手段と、
    前記第1時間位置情報に対応する前記撮像時間位置情報とともに前記記憶手段に記憶されている前記撮像データにアクセスし、前記第1時間位置情報取得手段によって取得された前記第1時間位置情報に対応する所定の時点に撮像された前記撮像データの部分を、前記撮像時間位置情報により特定し、特定された前記撮像データの部分を、前記コンテンツ画像を表示している状態で、再生する再生手段とを備えることを特徴とする撮像データ利用システム
  2. 前記事象取得手段は、音声入力機能を有し、前記事象を音声として取得し、
    前記判断手段は、前記事象取得手段が取得した前記音声を解析し、解析した結果、前記事象取得手段が取得した前記音声に予め定められた特徴が認められた場合、前記特定の特徴を有すると判断し、
    前記記憶制御手段は、前記事象取得手段によって取得された前記音声を含み、前記音声が取得された時間に関する取得時間位置情報を含む音声データを、前記記憶手段に記憶し、
    前記情報処理装置は、前記記憶手段に記憶された前記音声データにアクセス可能で、
    前記再生手段は、前記記憶手段に記憶されている前記音声データにアクセスし、特定された前記撮像データの部分が撮像されたときに取得された前記音声データを、特定された前記撮像データの部分とともに再生することを特徴とする請求項1に記載の撮像データ利用システム
  3. 前記再生手段は、特定された前記撮像データの部分の前記撮像時間位置情報と、前記音声データに含まれる前記取得時間位置情報とに基づき、特定された前記撮像データの部分に同期させて前記音声データを再生することを特徴とする請求項2に記載の撮像データ利用システム
  4. 前記再生手段は、前記第1時間位置情報に対応する所定の時点に撮像された前記撮像データの部分として、前記第1時間位置情報より所定時間前から所定時間後に撮像された前記撮像データの部分を、前記撮像時間位置情報により特定することを特徴とする請求項1から請求項3のいずれか1項に記載の撮像データ利用システム
  5. 前記ヘッドマウントディスプレイは、
    前記コンテンツ画像提示手段によって提示されている一のコンテンツ画像を、他のコンテンツ画像に切り替える指令を取得する指令取得手段と、
    前記指令取得手段によって取得された前記指令の取得のタイミングに関する第2時間位置情報と、前記指令によって新たに提示されることとなった前記他のコンテンツ画像を識別可能な他の提示中識別情報とを関連付けて、自装置がアクセス可能な第2関連付け手段に登録する第2関連付け登録手段とを備え、
    前記情報処理装置は、
    前記第2関連付け手段にアクセス可能であるとともに、
    自装置で前記コンテンツ画像を表示しているとき前記第2関連付け手段にアクセスし、前記表示中識別情報に一致する前記提示中識別情報に関連付けられた前記他の第2時間位置情報を取得する第2時間位置情報取得手段を備え、
    前記再生手段は、前記第1時間位置情報に対応する所定の時点に撮像された前記撮像データの部分として、前記第2時間位置情報取得手段によって取得された前記他の第2時間位置情報のタイミングから撮像された前記撮像データの部分を再生することを特徴とする請求項1から請求項4のいずれか1項に記載の撮像データ利用システム。
  6. 前記撮像データ利用システムは、複数の前記ヘッドマウントディスプレイを含み、
    前記記憶手段には、前記撮像データが、複数の前記ヘッドマウントディスプレイそれぞれが備える前記記憶制御手段によって、複数記憶され、
    前記第1関連付け手段には、前記提示中識別情報と前記第1時間位置情報とが、複数の前記ヘッドマウントディスプレイそれぞれが備える前記第1関連付け登録手段によって、複数関連付けて登録され、
    前記情報処理装置において、
    前記第1時間位置情報取得手段は、前記第1関連付け手段に登録されている、前記表示中識別情報に一致する前記提示中識別情報に関連付けられた全ての前記第1時間位置情報を取得し、
    前記再生手段は、前記第1時間位置情報それぞれに対応する前記撮像時間位置情報とともに前記記憶手段に記憶されている前記撮像データにアクセスし、前記第1時間位置情報取得手段によって取得された前記第1時間位置情報それぞれに対応する所定の時点に撮像された前記撮像データの部分を、前記撮像時間位置情報により特定し、特定された前記撮像データの部分を再生することを特徴とする請求項1から請求項5のいずれか1項に記載の撮像データ利用システム。
JP2009221679A 2009-09-25 2009-09-25 ヘッドマウントディスプレイを含む撮像データ利用システム Expired - Fee Related JP5282709B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009221679A JP5282709B2 (ja) 2009-09-25 2009-09-25 ヘッドマウントディスプレイを含む撮像データ利用システム
US12/876,704 US8654038B2 (en) 2009-09-25 2010-09-07 Head mounted display and imaging data usage system including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009221679A JP5282709B2 (ja) 2009-09-25 2009-09-25 ヘッドマウントディスプレイを含む撮像データ利用システム

Publications (2)

Publication Number Publication Date
JP2011070458A JP2011070458A (ja) 2011-04-07
JP5282709B2 true JP5282709B2 (ja) 2013-09-04

Family

ID=43779736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009221679A Expired - Fee Related JP5282709B2 (ja) 2009-09-25 2009-09-25 ヘッドマウントディスプレイを含む撮像データ利用システム

Country Status (2)

Country Link
US (1) US8654038B2 (ja)
JP (1) JP5282709B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5821464B2 (ja) * 2011-09-22 2015-11-24 セイコーエプソン株式会社 頭部装着型表示装置
US9077647B2 (en) 2012-10-05 2015-07-07 Elwha Llc Correlating user reactions with augmentations displayed through augmented views
US8928695B2 (en) 2012-10-05 2015-01-06 Elwha Llc Formatting of one or more persistent augmentations in an augmented view in response to multiple input factors
US9141188B2 (en) 2012-10-05 2015-09-22 Elwha Llc Presenting an augmented view in response to acquisition of data inferring user activity
US10713846B2 (en) 2012-10-05 2020-07-14 Elwha Llc Systems and methods for sharing augmentation data
US10180715B2 (en) 2012-10-05 2019-01-15 Elwha Llc Correlating user reaction with at least an aspect associated with an augmentation of an augmented view
US9111383B2 (en) 2012-10-05 2015-08-18 Elwha Llc Systems and methods for obtaining and using augmentation data and for sharing usage data
US10269179B2 (en) 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
US9639964B2 (en) * 2013-03-15 2017-05-02 Elwha Llc Dynamically preserving scene elements in augmented reality systems
US10025486B2 (en) 2013-03-15 2018-07-17 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems
US10109075B2 (en) 2013-03-15 2018-10-23 Elwha Llc Temporal element restoration in augmented reality systems
JP6437257B2 (ja) * 2014-09-19 2018-12-12 株式会社日立ソリューションズ 作業工程学習支援システム
CN106020454B (zh) * 2016-05-11 2019-04-30 惠州Tcl移动通信有限公司 一种基于眼控技术的智能终端触摸屏操作方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306365A (ja) 1999-04-16 2000-11-02 Sony Corp 編集支援システム及び編集支援システムの制御装置
JP2003219327A (ja) 2001-09-28 2003-07-31 Canon Inc 画像管理装置、画像管理方法、制御プログラム、情報処理システム、画像データ管理方法、アダプタ、及びサーバ
US7126558B1 (en) * 2001-10-19 2006-10-24 Accenture Global Services Gmbh Industrial augmented reality
JP3735086B2 (ja) * 2002-06-20 2006-01-11 ウエストユニティス株式会社 作業誘導システム
US7586517B2 (en) * 2004-10-27 2009-09-08 Panasonic Corporation Image pickup apparatus
JP4923517B2 (ja) 2004-10-27 2012-04-25 パナソニック株式会社 撮像装置、撮像方法、および半導体装置
JP2008003781A (ja) * 2006-06-21 2008-01-10 Konica Minolta Holdings Inc 作業監視システム
JP2008048204A (ja) * 2006-08-17 2008-02-28 Fuji Xerox Co Ltd 情報処理装置、情報処理システム及び情報処理プログラム

Also Published As

Publication number Publication date
US20110074658A1 (en) 2011-03-31
US8654038B2 (en) 2014-02-18
JP2011070458A (ja) 2011-04-07

Similar Documents

Publication Publication Date Title
JP5282709B2 (ja) ヘッドマウントディスプレイを含む撮像データ利用システム
JP5272827B2 (ja) ヘッドマウントディスプレイ
US7529772B2 (en) Method and system for associating user comments to a scene captured by a digital imaging device
EP2996016B1 (en) Information processing device and application execution method
JP5286667B2 (ja) 映像表示装置、及び映像表示方法
JP4853320B2 (ja) 画像処理装置、画像処理方法
JPWO2018016464A1 (ja) 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム
JP5526727B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5423716B2 (ja) ヘッドマウントディスプレイ
US8532345B2 (en) Camera and image recording program product
JP6703627B2 (ja) 装置および関連する方法
US20100086204A1 (en) System and method for capturing an emotional characteristic of a user
CN110336968A (zh) 视频录制方法、装置、终端设备及存储介质
JP2011109558A (ja) 撮像装置、画像処理装置、その制御方法およびプログラム
JP6609988B2 (ja) 画像処理装置、画像処理装置の制御方法、および、コンピュータープログラム
JP2009010987A (ja) 電子カメラ
JP2010237761A (ja) 電子機器
JP6520975B2 (ja) 動画像処理装置、動画像処理方法及びプログラム
US20050251741A1 (en) Methods and apparatus for capturing images
JP2017016599A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP6710555B2 (ja) 画像表示システム、情報処理装置、画像表示方法及びコンピュータプログラム
JP2014143595A (ja) 画像記録装置
JP5360115B2 (ja) ヘッドマウントディスプレイ
JP2010187320A (ja) 画像記録装置、画像分類装置、画像表示装置及びプログラム
JP6064737B2 (ja) 音声認識装置及び音声認識プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130121

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130513

LAPS Cancellation because of no payment of annual fees