JPH10207620A - 立体インタラクション装置および立体インタラクション方法 - Google Patents
立体インタラクション装置および立体インタラクション方法Info
- Publication number
- JPH10207620A JPH10207620A JP1416097A JP1416097A JPH10207620A JP H10207620 A JPH10207620 A JP H10207620A JP 1416097 A JP1416097 A JP 1416097A JP 1416097 A JP1416097 A JP 1416097A JP H10207620 A JPH10207620 A JP H10207620A
- Authority
- JP
- Japan
- Prior art keywords
- user
- stereoscopic
- recognizing
- dimensional
- stereoscopic video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Digital Computer Display Output (AREA)
- Position Input By Displaying (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
(57)【要約】
【課題】 立体表示された物体とユーザとの自然なイン
タラクションにより、それ以降の処理が決定される立体
インタラクション装置および立体インタラクション方法
を提供する。 【解決手段】 動作認識部3は、インタラクションの開
始時に、ユーザの位置を認識する。立体映像生成部1お
よび立体映像表示部2は、認識したユーザの近傍にイン
タラクションの対象となる物体を立体表示する。そし
て、動作認識部3は、ユーザが立体表示された物体を触
れたり、指差したりする動作を認識する。制御部4は、
動作認識の結果に基づき、複数ある処理候補の中から特
定の処理を選択して、それ以降の処理を決定する。
タラクションにより、それ以降の処理が決定される立体
インタラクション装置および立体インタラクション方法
を提供する。 【解決手段】 動作認識部3は、インタラクションの開
始時に、ユーザの位置を認識する。立体映像生成部1お
よび立体映像表示部2は、認識したユーザの近傍にイン
タラクションの対象となる物体を立体表示する。そし
て、動作認識部3は、ユーザが立体表示された物体を触
れたり、指差したりする動作を認識する。制御部4は、
動作認識の結果に基づき、複数ある処理候補の中から特
定の処理を選択して、それ以降の処理を決定する。
Description
【0001】
【発明の属する技術分野】この発明は、立体インタラク
ション装置および立体インタラクション方法に関し、特
に、ユーザと立体表示された物体との自然なインタラク
ションによりそれ以降の処理が進む機能を備えた立体イ
ンタラクション装置および立体インタラクション方法に
関するものである。この発明の応用分野は、たとえばユ
ーザの動作に応じて機械を制御するような工業への応
用、ユーザとコンピュータとのインタラクションにより
処理が進むコンピュータ分野への応用、またはユーザと
のインタラクションによりゲームが進行するようなアミ
ューズメント、エンターテイメントなどの分野等、広範
囲にわたる。
ション装置および立体インタラクション方法に関し、特
に、ユーザと立体表示された物体との自然なインタラク
ションによりそれ以降の処理が進む機能を備えた立体イ
ンタラクション装置および立体インタラクション方法に
関するものである。この発明の応用分野は、たとえばユ
ーザの動作に応じて機械を制御するような工業への応
用、ユーザとコンピュータとのインタラクションにより
処理が進むコンピュータ分野への応用、またはユーザと
のインタラクションによりゲームが進行するようなアミ
ューズメント、エンターテイメントなどの分野等、広範
囲にわたる。
【0002】
【従来の技術】コンピュータに代表される装置と人間と
のマンマシンインタフェースをいかに設計するかは、極
めて重要な問題である。
のマンマシンインタフェースをいかに設計するかは、極
めて重要な問題である。
【0003】例えば、従来より使用されているキーボー
ドなどの入力装置は、一般的に、使い易いものとは言い
難い。一方、人間同士は、音声や身体の動きといったイ
ンタラクションの手段を活用して、情報伝達を行なって
いる。
ドなどの入力装置は、一般的に、使い易いものとは言い
難い。一方、人間同士は、音声や身体の動きといったイ
ンタラクションの手段を活用して、情報伝達を行なって
いる。
【0004】したがって、装置とのインタフェースとし
て、こうした音声や身体の動きといった自然な行動形式
を用いることができたならば、ユーザにとって使いやす
い、優れたインタフェースになる。
て、こうした音声や身体の動きといった自然な行動形式
を用いることができたならば、ユーザにとって使いやす
い、優れたインタフェースになる。
【0005】画面上に表示された複数の物体の中から、
ユーザが指差し等で特定の物体を選択することによって
以降の処理が進むコンピュータ(以下、インタラクショ
ン装置と呼ぶ)は、こうしたインタラクションの方法
(ユーザの自然な動作)をインタフェースとして利用し
ている装置の一例と言える。
ユーザが指差し等で特定の物体を選択することによって
以降の処理が進むコンピュータ(以下、インタラクショ
ン装置と呼ぶ)は、こうしたインタラクションの方法
(ユーザの自然な動作)をインタフェースとして利用し
ている装置の一例と言える。
【0006】図11は、ユーザの動作をインタラクショ
ンの方法として採用する従来のインタラクション装置2
0の構成を概略的に示したブロック図である。
ンの方法として採用する従来のインタラクション装置2
0の構成を概略的に示したブロック図である。
【0007】図11を参照して、従来のインタラクショ
ン装置20は、映像表示部11と、動作認識部12と、
制御部13と、スクリーン14とを備える。
ン装置20は、映像表示部11と、動作認識部12と、
制御部13と、スクリーン14とを備える。
【0008】映像表示部11は、映像(たとえば、物
体、キャラクタ、アイコン等)をスクリーン14に表示
するための処理を行なう。スクリーン14は、映像を2
次元で表示する。
体、キャラクタ、アイコン等)をスクリーン14に表示
するための処理を行なう。スクリーン14は、映像を2
次元で表示する。
【0009】動作認識部12は、スクリーン14に表示
した映像に対して、ユーザが行なった動作を認識する。
そして、制御部13は、動作認識部12での認識結果を
受けて、次に行なうべき処理を決定する。
した映像に対して、ユーザが行なった動作を認識する。
そして、制御部13は、動作認識部12での認識結果を
受けて、次に行なうべき処理を決定する。
【0010】従来のインタラクション装置20は、以下
に示す場面において、ユーザの動作にしたがって処理を
遷移させている。
に示す場面において、ユーザの動作にしたがって処理を
遷移させている。
【0011】まず、スクリーン14に複数のアイコンが
表示されているものとする。ユーザは、指差し等の身振
りで特定のアイコンを選択する。動作認識部12は、こ
の「特定のアイコンを選択する」という動作を認識す
る。制御部13は、動作認識部12から「特定のアイコ
ンを選択する」という認識結果を受けて、次の処理を決
定する。
表示されているものとする。ユーザは、指差し等の身振
りで特定のアイコンを選択する。動作認識部12は、こ
の「特定のアイコンを選択する」という動作を認識す
る。制御部13は、動作認識部12から「特定のアイコ
ンを選択する」という認識結果を受けて、次の処理を決
定する。
【0012】さらに、スクリーン14に1以上の物体が
表示されているものとする。ユーザは、いずれかの物体
に触れる動作をすることにより特定の物体を選択する。
動作認識部12は、この「特定の物体に触れる」という
動作を認識する。制御部13は、動作認識部12から
「特定の物体に触れる」という認識結果を受けて、この
インタラクションに応じた次の処理を決定する。
表示されているものとする。ユーザは、いずれかの物体
に触れる動作をすることにより特定の物体を選択する。
動作認識部12は、この「特定の物体に触れる」という
動作を認識する。制御部13は、動作認識部12から
「特定の物体に触れる」という認識結果を受けて、この
インタラクションに応じた次の処理を決定する。
【0013】
【発明が解決しようとする課題】しかし、上記に示した
従来のインタラクション装置20では、以下に示す問題
があった。
従来のインタラクション装置20では、以下に示す問題
があった。
【0014】先ず、従来のインタラクション装置20に
おいては、ユーザは、スクリーン14に表示された物体
に対して選択行動をおこさねばならない。ところが、こ
の物体はあくまでスクリーン14に表示された仮想的な
2次元の物体(映像)である。このため、ユーザは、実
際の物体を扱っている感覚が起こりにくい。
おいては、ユーザは、スクリーン14に表示された物体
に対して選択行動をおこさねばならない。ところが、こ
の物体はあくまでスクリーン14に表示された仮想的な
2次元の物体(映像)である。このため、ユーザは、実
際の物体を扱っている感覚が起こりにくい。
【0015】また、従来のインタラクション装置20に
おいては、スクリーン14に表示される映像とユーザと
の位置関係が固定されている。したがって、ユーザと物
体(例えば、アイコン等)との間に常に距離があるの
で、ユーザはスクリーン14に表示される物体を実際に
触れようとすることに心理的な抵抗を感じてしまう。
おいては、スクリーン14に表示される映像とユーザと
の位置関係が固定されている。したがって、ユーザと物
体(例えば、アイコン等)との間に常に距離があるの
で、ユーザはスクリーン14に表示される物体を実際に
触れようとすることに心理的な抵抗を感じてしまう。
【0016】これらのため、ユーザは、従来のインタラ
クション装置20の提供する物体に対してインタラクシ
ョン(物体に触れる、指差す等)を起こし難いという問
題があった。これは、インタラクションの結果として期
待される次の処理に遷移できないという問題をもたら
す。
クション装置20の提供する物体に対してインタラクシ
ョン(物体に触れる、指差す等)を起こし難いという問
題があった。これは、インタラクションの結果として期
待される次の処理に遷移できないという問題をもたら
す。
【0017】具体的には、以下の事態が生じると考えら
れる。たとえば、教育番組やクイズ番組などで、ユーザ
に複数の物体の中からいくつかの物体を選択する場面が
あった場合、ユーザがインタラクションを起こさなかっ
たならば、期待される教育効果やクイズの面白さが半減
してしまう。
れる。たとえば、教育番組やクイズ番組などで、ユーザ
に複数の物体の中からいくつかの物体を選択する場面が
あった場合、ユーザがインタラクションを起こさなかっ
たならば、期待される教育効果やクイズの面白さが半減
してしまう。
【0018】さらに、上記で説明したようにスクリーン
14に表示された複数のアイコンの中からいずれかのア
イコンを選択することによって処理が進むコンピュータ
を想定する。こうしたコンピュータに対して、ユーザが
アイコンを選択するという行動をとることになんらかの
心理的抵抗があると、ユーザはこうしたコンピュータを
使用しなくなる。
14に表示された複数のアイコンの中からいずれかのア
イコンを選択することによって処理が進むコンピュータ
を想定する。こうしたコンピュータに対して、ユーザが
アイコンを選択するという行動をとることになんらかの
心理的抵抗があると、ユーザはこうしたコンピュータを
使用しなくなる。
【0019】すなわち、別の見方をすれば、従来のイン
タラクション装置20は、ヒューマンインタフェースに
問題があるといえる。これは、従来のインタラクション
装置20が、ユーザの極めて自然な行動形式をインタラ
クションの方法として採用しているにも関らず普及しな
い原因の一つとなっているともいえる。
タラクション装置20は、ヒューマンインタフェースに
問題があるといえる。これは、従来のインタラクション
装置20が、ユーザの極めて自然な行動形式をインタラ
クションの方法として採用しているにも関らず普及しな
い原因の一つとなっているともいえる。
【0020】それゆえ、本発明は上記に示した問題を解
決するためになされたもので、その目的は、立体視の技
術を用いて、ユーザが容易にインタラクションを起こさ
せることができる立体インタラクション装置および立体
インタラクション方法を提供することにある。
決するためになされたもので、その目的は、立体視の技
術を用いて、ユーザが容易にインタラクションを起こさ
せることができる立体インタラクション装置および立体
インタラクション方法を提供することにある。
【0021】また、本発明のもう一つの目的は、立体映
像の表示位置を適宜移動することによって、ユーザのイ
ンタラクションを導き出すことができる立体インタラク
ション装置および立体インタラクション方法を提供する
ことにある。
像の表示位置を適宜移動することによって、ユーザのイ
ンタラクションを導き出すことができる立体インタラク
ション装置および立体インタラクション方法を提供する
ことにある。
【0022】さらに、本発明のもう一つの目的は、立体
視の技術を用いるとともに、ユーザの自然な行動形式を
インタラクションの手段として採用することで、ユーザ
が自然にインタラクションを起こすことができる立体イ
ンタラクション装置および立体インタラクション方法を
提供することにある。
視の技術を用いるとともに、ユーザの自然な行動形式を
インタラクションの手段として採用することで、ユーザ
が自然にインタラクションを起こすことができる立体イ
ンタラクション装置および立体インタラクション方法を
提供することにある。
【0023】
【課題を解決するための手段】請求項1に係る立体イン
タラクション装置は、ユーザの位置を認識する位置認識
手段と、立体映像を生成して、生成した立体映像成を立
体表示する立体映像出力手段と、所定のタイミングで、
位置認識手段に、ユーザの位置を認識させるとともに、
立体映像出力手段に、認識されたユーザの位置の近傍
に、所定の立体映像を立体表示させる制御手段とを備え
る。
タラクション装置は、ユーザの位置を認識する位置認識
手段と、立体映像を生成して、生成した立体映像成を立
体表示する立体映像出力手段と、所定のタイミングで、
位置認識手段に、ユーザの位置を認識させるとともに、
立体映像出力手段に、認識されたユーザの位置の近傍
に、所定の立体映像を立体表示させる制御手段とを備え
る。
【0024】請求項2に係る立体インタラクション装置
は、ユーザの位置を認識する位置認識手段と、立体映像
を生成して、生成した立体映像成を立体表示する立体映
像出力手段と、ユーザの動作を認識する動作認識手段
と、所定のタイミングで、位置認識手段に、ユーザの位
置を認識させるとともに、立体映像出力手段に、認識さ
れたユーザの位置の近傍に、所定の立体映像を立体表示
させ、動作認識部に、立体表示された所定の立体映像に
対するユーザの動作を認識させ、認識されたユーザの動
作に応じて、所定のタイミングに対応して予め用意され
た複数の処理の中から、いずれか1つの処理を選択する
制御手段とを備える。
は、ユーザの位置を認識する位置認識手段と、立体映像
を生成して、生成した立体映像成を立体表示する立体映
像出力手段と、ユーザの動作を認識する動作認識手段
と、所定のタイミングで、位置認識手段に、ユーザの位
置を認識させるとともに、立体映像出力手段に、認識さ
れたユーザの位置の近傍に、所定の立体映像を立体表示
させ、動作認識部に、立体表示された所定の立体映像に
対するユーザの動作を認識させ、認識されたユーザの動
作に応じて、所定のタイミングに対応して予め用意され
た複数の処理の中から、いずれか1つの処理を選択する
制御手段とを備える。
【0025】請求項3に係る立体インタラクション装置
は、請求項1に係る立体インタラクション装置であっ
て、ユーザの位置の近傍とは、ユーザの手の届く範囲で
ある。
は、請求項1に係る立体インタラクション装置であっ
て、ユーザの位置の近傍とは、ユーザの手の届く範囲で
ある。
【0026】請求項4に係る立体インタラクション装置
は、請求項2に係る立体インタラクション装置であっ
て、所定の立体映像とは、複数の物体の立体像を含み、
ユーザの位置の近傍とは、ユーザの手の届く範囲であっ
て、ユーザの動作とは、ユーザの手で複数の物体を取り
扱う行動である。
は、請求項2に係る立体インタラクション装置であっ
て、所定の立体映像とは、複数の物体の立体像を含み、
ユーザの位置の近傍とは、ユーザの手の届く範囲であっ
て、ユーザの動作とは、ユーザの手で複数の物体を取り
扱う行動である。
【0027】請求項5に係る立体インタラクション方法
は、ユーザの位置を認識する位置認識部と、立体映像を
生成して、生成した立体映像を立体表示する立体映像出
力部とを備える、立体インタラクション装置において、
所定のタイミングで、位置認識部において、ユーザの位
置を認識させる第1のステップと、立体映像出力部にお
いて、第1のステップで認識されたユーザの位置の近傍
に、所定の立体映像を立体表示させる第2のスッテプと
を備える。
は、ユーザの位置を認識する位置認識部と、立体映像を
生成して、生成した立体映像を立体表示する立体映像出
力部とを備える、立体インタラクション装置において、
所定のタイミングで、位置認識部において、ユーザの位
置を認識させる第1のステップと、立体映像出力部にお
いて、第1のステップで認識されたユーザの位置の近傍
に、所定の立体映像を立体表示させる第2のスッテプと
を備える。
【0028】請求項6に係る立体インタラクション方法
は、ユーザの位置を認識する位置認識部と、立体映像を
生成して、生成した立体映像を立体表示する立体映像出
力部と、ユーザの動作を認識する動作認識部とを備え
る、立体インタラクション装置において、所定のタイミ
ングで、位置認識部において、ユーザの位置を認識させ
る第1のステップと、立体映像出力部において、第1の
ステップで認識されたユーザの位置の近傍に、所定の立
体映像を立体表示させる第2のスッテプと、動作認識部
において、第2のステップで立体表示された所定の立体
映像に対するユーザの動作を認識させる第3のステップ
と、第3のスッテプで認識されたユーザの動作に応じ
て、所定のタイミングに対応して予め用意された複数の
処理の中から、いずれか1つの処理を選択する第4のス
テップとを備える。
は、ユーザの位置を認識する位置認識部と、立体映像を
生成して、生成した立体映像を立体表示する立体映像出
力部と、ユーザの動作を認識する動作認識部とを備え
る、立体インタラクション装置において、所定のタイミ
ングで、位置認識部において、ユーザの位置を認識させ
る第1のステップと、立体映像出力部において、第1の
ステップで認識されたユーザの位置の近傍に、所定の立
体映像を立体表示させる第2のスッテプと、動作認識部
において、第2のステップで立体表示された所定の立体
映像に対するユーザの動作を認識させる第3のステップ
と、第3のスッテプで認識されたユーザの動作に応じ
て、所定のタイミングに対応して予め用意された複数の
処理の中から、いずれか1つの処理を選択する第4のス
テップとを備える。
【0029】請求項7に係る立体インタラクション方法
は、請求項5に係る立体インタラクション方法であっ
て、ユーザの位置の近傍とは、ユーザの手の届く範囲で
ある。
は、請求項5に係る立体インタラクション方法であっ
て、ユーザの位置の近傍とは、ユーザの手の届く範囲で
ある。
【0030】請求項8に係る立体インタラクション方法
は、請求項6に係る立体インタラクション方法であっ
て、所定の立体映像は、複数の物体の立体像を含み、ユ
ーザの位置の近傍とは、ユーザの手の届く範囲であり、
ユーザの動作とは、ユーザの手で複数の物体を取り扱う
行動である。
は、請求項6に係る立体インタラクション方法であっ
て、所定の立体映像は、複数の物体の立体像を含み、ユ
ーザの位置の近傍とは、ユーザの手の届く範囲であり、
ユーザの動作とは、ユーザの手で複数の物体を取り扱う
行動である。
【0031】
[実施の形態1]この発明は、ユーザとのインタラクシ
ョンに応じて以降の処理が決定される立体インタラクシ
ョン装置において、立体視と動作認識とを組み合せるこ
とにより、ユーザに心理的に抵抗なくインタラクション
を行なわせることを可能とするものである。
ョンに応じて以降の処理が決定される立体インタラクシ
ョン装置において、立体視と動作認識とを組み合せるこ
とにより、ユーザに心理的に抵抗なくインタラクション
を行なわせることを可能とするものである。
【0032】図1は、本発明の実施の形態1における立
体インタラクション装置10の基本構成の一例を示す概
略ブロック図である。
体インタラクション装置10の基本構成の一例を示す概
略ブロック図である。
【0033】まず、図1を参照して、立体インタラクシ
ョン装置10は、立体映像生成部1と、立体映像表示部
2と、動作認識部3と、制御部4とを備える。
ョン装置10は、立体映像生成部1と、立体映像表示部
2と、動作認識部3と、制御部4とを備える。
【0034】立体映像生成部1は、立体映像を生成す
る。具合的には、任意の位置に物体Aを立体表示させる
ために必要となる映像を生成する。
る。具合的には、任意の位置に物体Aを立体表示させる
ために必要となる映像を生成する。
【0035】立体映像を生成する方法については、多く
の研究がなされているので、その詳細については省略
し、立体視の原理について簡単に説明する。
の研究がなされているので、その詳細については省略
し、立体視の原理について簡単に説明する。
【0036】立体視は、主として、人間の2つ眼に写る
網膜像の微妙な違い(「両眼視差」)に基づいて生じる
と言われている。
網膜像の微妙な違い(「両眼視差」)に基づいて生じる
と言われている。
【0037】図2は、両眼視差によって生じる立体視を
説明するための図である。図2において、像GLは、立
方体Bを両眼で見た場合に左眼Lの網膜に写る網膜像を
表わし、像GRは、同時期に右眼Rの網膜に写る網膜像
を表わしている。
説明するための図である。図2において、像GLは、立
方体Bを両眼で見た場合に左眼Lの網膜に写る網膜像を
表わし、像GRは、同時期に右眼Rの網膜に写る網膜像
を表わしている。
【0038】図2に示すように、人間の両眼L、Rは、
空間的に異なる位置(約6cmの間隔)にあるため、物
体を両眼L、Rで見た場合、それぞれの網膜に写る像G
L、GRは、微妙に異なったものとなる。立体視は、こ
れらの網膜像GL、GRの微妙な違いを、脳が統合する
過程で生じる。
空間的に異なる位置(約6cmの間隔)にあるため、物
体を両眼L、Rで見た場合、それぞれの網膜に写る像G
L、GRは、微妙に異なったものとなる。立体視は、こ
れらの網膜像GL、GRの微妙な違いを、脳が統合する
過程で生じる。
【0039】上記で説明した立体視の原理を応用する
と、任意の位置に、物体を立体表示することが可能とな
る。
と、任意の位置に、物体を立体表示することが可能とな
る。
【0040】図3は、本発明の実施の形態1において、
物体を任意の位置に立体表示させる方法の一例を説明す
るための図である。
物体を任意の位置に立体表示させる方法の一例を説明す
るための図である。
【0041】図3を参照して、ユーザ17に対して、物
体を図3に示す位置に存在するように立体表示させる
には、位置に置かれた物体を左眼で見た映像と、位置
に置かれた物体を右眼で見た映像とを生成し、それぞ
れの映像を表示画面5(スクリーンもしくは、ディスプ
レイ等)の位置b1、b2に表示させればよい。
体を図3に示す位置に存在するように立体表示させる
には、位置に置かれた物体を左眼で見た映像と、位置
に置かれた物体を右眼で見た映像とを生成し、それぞ
れの映像を表示画面5(スクリーンもしくは、ディスプ
レイ等)の位置b1、b2に表示させればよい。
【0042】さらに、物体を、位置と異なる位置に
存在するように立体表示させるには、位置に置かれた
物体を左眼で見た映像と、位置に置かれた物体を右眼
で見た映像とを生成し、それぞれの映像を表示画面5の
位置c1、c2に表示させればよい。
存在するように立体表示させるには、位置に置かれた
物体を左眼で見た映像と、位置に置かれた物体を右眼
で見た映像とを生成し、それぞれの映像を表示画面5の
位置c1、c2に表示させればよい。
【0043】この場合、右眼には右眼用の映像のみが、
左眼には左眼用の映像のみが入力されるように制御する
必要があるが、この制御方法については後述する。
左眼には左眼用の映像のみが入力されるように制御する
必要があるが、この制御方法については後述する。
【0044】なお、立体映像の生成は、コンピュータグ
ラフィック技術を用いて行なうことができるが、この場
合は、表示させる物体の三次元モデルを予め用意してお
く。
ラフィック技術を用いて行なうことができるが、この場
合は、表示させる物体の三次元モデルを予め用意してお
く。
【0045】立体映像生成部1は、上記に説明したよう
に、任意の位置に存在する物体A(例えば、キャラク
タ、アイコン等)の立体映像を生成する機能を備える。
この立体映像は、さらに以下に示す立体映像表示部2を
用いることで、あたかも実在するかのように立体表示さ
せることが可能となる。
に、任意の位置に存在する物体A(例えば、キャラク
タ、アイコン等)の立体映像を生成する機能を備える。
この立体映像は、さらに以下に示す立体映像表示部2を
用いることで、あたかも実在するかのように立体表示さ
せることが可能となる。
【0046】続いて、立体映像表示部2について説明す
る。立体映像表示部2は、立体映像生成部1で生成され
た立体映像を立体表示するための処理を行なう。
る。立体映像表示部2は、立体映像生成部1で生成され
た立体映像を立体表示するための処理を行なう。
【0047】立体映像の表示方式は、数々の研究がなさ
れ、すでに製品化が進められている。ここでは、具体例
として、表示画面5(テレビ、ディスプレイ等)に、左
眼用の映像と、右眼用の映像とを交互に表示させる方式
について簡単に説明する。
れ、すでに製品化が進められている。ここでは、具体例
として、表示画面5(テレビ、ディスプレイ等)に、左
眼用の映像と、右眼用の映像とを交互に表示させる方式
について簡単に説明する。
【0048】図4は、本発明の実施の形態1における立
体映像表示部での立体表示方法の一例を説明するための
図である。
体映像表示部での立体表示方法の一例を説明するための
図である。
【0049】図4を参照にして、この方式を用いる場合
には、右眼のみに右眼用の映像が、左眼のみに左眼用の
映像が入力されるように、液晶シャッタの原理を用いた
特殊な眼鏡6を使用する。
には、右眼のみに右眼用の映像が、左眼のみに左眼用の
映像が入力されるように、液晶シャッタの原理を用いた
特殊な眼鏡6を使用する。
【0050】眼鏡6のシャッタは、表示すべき映像と同
期して、開閉する仕組みになっている。図4において
は、液晶ドライバ7が、プロジェクタ8から同期信号を
受けて、眼鏡6のシャッタを開閉する制御を行なってい
る。眼鏡6をかけるユーザは、左眼用の映像が表示され
るサイクルでは左眼のみに光が入り、右眼用の映像が表
示されるサイクルでは、右眼のみに光が入る。
期して、開閉する仕組みになっている。図4において
は、液晶ドライバ7が、プロジェクタ8から同期信号を
受けて、眼鏡6のシャッタを開閉する制御を行なってい
る。眼鏡6をかけるユーザは、左眼用の映像が表示され
るサイクルでは左眼のみに光が入り、右眼用の映像が表
示されるサイクルでは、右眼のみに光が入る。
【0051】従って、表示画面5に左眼用の映像と右眼
用の映像とを交互に表示し、これに同期して、眼鏡のシ
ャッタを切り替えれば、左眼には左眼用の映像のみが、
右眼には右眼用の映像のみが見えることになる。この結
果、我々が通常物体を見るのと同様の現象が脳に生じ、
表示画面5ではなく、予め設計した左眼用映像と右眼用
映像との設計値に合致した位置に物体が存在しているか
のよう見えることになる。
用の映像とを交互に表示し、これに同期して、眼鏡のシ
ャッタを切り替えれば、左眼には左眼用の映像のみが、
右眼には右眼用の映像のみが見えることになる。この結
果、我々が通常物体を見るのと同様の現象が脳に生じ、
表示画面5ではなく、予め設計した左眼用映像と右眼用
映像との設計値に合致した位置に物体が存在しているか
のよう見えることになる。
【0052】すなわち立体映像表示部2によって、例え
ば、物体Aをユーザの手の届くあたりに表示させること
が可能となる続いて、動作認識部3について説明する。
動作認識部3は、図示しないカメラを備える。動作認識
部3は、カメラで撮影された画像を画像処理することに
よって、ユーザの位置を認識し、かつユーザの特定の動
作を認識する。
ば、物体Aをユーザの手の届くあたりに表示させること
が可能となる続いて、動作認識部3について説明する。
動作認識部3は、図示しないカメラを備える。動作認識
部3は、カメラで撮影された画像を画像処理することに
よって、ユーザの位置を認識し、かつユーザの特定の動
作を認識する。
【0053】画像処理技術による人間の位置および動作
の認識手法については、多くの研究がなされている。以
下、簡単にその具体例について、説明する。
の認識手法については、多くの研究がなされている。以
下、簡単にその具体例について、説明する。
【0054】図5〜図6は、本発明の実施の形態1にお
ける動作認識部3での認識機能の一例を説明するために
図である。図5〜図6は、ユーザの頭上にカメラを設置
した場合に、カメラが取り込むユーザの映像(斜線部)
15を表わしている。
ける動作認識部3での認識機能の一例を説明するために
図である。図5〜図6は、ユーザの頭上にカメラを設置
した場合に、カメラが取り込むユーザの映像(斜線部)
15を表わしている。
【0055】図5を参照して、ユーザの位置は、カメラ
に取り込まれた映像に基づき認識される。具体的には、
ユーザのシルエット(斜線部)15を背景画像から抜き
出し、その重心を求める。例えば、図5に示すように表
示画面5に水平な方向をX軸、表示画面5に対して垂直
な方向をY軸とするXY座標系で表現する場合、ユーザ
の位置を認識した結果として、位置P(X0、Y0)が
得られる。
に取り込まれた映像に基づき認識される。具体的には、
ユーザのシルエット(斜線部)15を背景画像から抜き
出し、その重心を求める。例えば、図5に示すように表
示画面5に水平な方向をX軸、表示画面5に対して垂直
な方向をY軸とするXY座標系で表現する場合、ユーザ
の位置を認識した結果として、位置P(X0、Y0)が
得られる。
【0056】さらに、図5〜図6を参照して、ユーザの
動作を認識する一例を説明する。図6は、同じくユーザ
の頭上に設置したカメラが、手を伸ばしているユーザを
撮影した映像である。動作認識部3は、図5〜図6に示
す映像から、ユーザが手を伸ばす動作(特定の動作)を
行なったか否かを認識する。具体的には、図6に示す映
像の背景画像からユーザのシルエット(斜線部)16を
抜き出し、図5に示すシルエット15との差分をとるこ
とにより、ユーザが手を伸ばす動作をしたか否かが認識
される。
動作を認識する一例を説明する。図6は、同じくユーザ
の頭上に設置したカメラが、手を伸ばしているユーザを
撮影した映像である。動作認識部3は、図5〜図6に示
す映像から、ユーザが手を伸ばす動作(特定の動作)を
行なったか否かを認識する。具体的には、図6に示す映
像の背景画像からユーザのシルエット(斜線部)16を
抜き出し、図5に示すシルエット15との差分をとるこ
とにより、ユーザが手を伸ばす動作をしたか否かが認識
される。
【0057】すなわち、動作認識部3によって、立体表
示された物体Aに対して、ユーザが選択動作(例えば、
手を伸ばす、触れる等の特定の動作)を行なったか否か
が認識可能となる。
示された物体Aに対して、ユーザが選択動作(例えば、
手を伸ばす、触れる等の特定の動作)を行なったか否か
が認識可能となる。
【0058】続いて、制御部4について説明する。制御
部4は、処理全体の流れを制御するとともに、立体映像
生成部1および動作認識部3の処理を制御する。
部4は、処理全体の流れを制御するとともに、立体映像
生成部1および動作認識部3の処理を制御する。
【0059】制御部4が、処理全体を制御する仕組み
は、種々のものが考えられるが、その具体例を挙げて簡
単に説明する。
は、種々のものが考えられるが、その具体例を挙げて簡
単に説明する。
【0060】図7は、本発明の実施の形態1における制
御部4が制御する処理の一例を説明するための図であ
る。図7においては、処理の流れが状態遷移図で表わさ
れている。
御部4が制御する処理の一例を説明するための図であ
る。図7においては、処理の流れが状態遷移図で表わさ
れている。
【0061】図7を参照して、制御部4が制御する処理
は、複数の処理から構成される。通常は、処理S1、処
理S2…のように処理がシーケンシャルに流れるが、処
理S4から先は、インタラクションの結果(ユーザが選
択動作を行なったか否か)によって異なるシーケンスが
用意されている。
は、複数の処理から構成される。通常は、処理S1、処
理S2…のように処理がシーケンシャルに流れるが、処
理S4から先は、インタラクションの結果(ユーザが選
択動作を行なったか否か)によって異なるシーケンスが
用意されている。
【0062】制御部4は、処理S4において、所定のタ
イミング(インタラクション開始時)で、立体映像を表
示させる。そして、さらにその立体映像とユーザとのイ
ンタラクションの結果を受けて、処理S5に進むか、処
理S6に進むかを選択する。
イミング(インタラクション開始時)で、立体映像を表
示させる。そして、さらにその立体映像とユーザとのイ
ンタラクションの結果を受けて、処理S5に進むか、処
理S6に進むかを選択する。
【0063】以上の説明を参考にして、本発明の実施の
形態1における立体インタラクション装置10の動作に
ついて説明をする。
形態1における立体インタラクション装置10の動作に
ついて説明をする。
【0064】制御部4は、図7に示した処理の流れに従
って、処理S1、処理S2と順次その処理を進めてい
く。そして、制御部4は、処理S4において、ユーザの
選択動作の有無を判断して、処理S4の次に行なう処理
(S5、もしくはS6)を決定する。
って、処理S1、処理S2と順次その処理を進めてい
く。そして、制御部4は、処理S4において、ユーザの
選択動作の有無を判断して、処理S4の次に行なう処理
(S5、もしくはS6)を決定する。
【0065】図8〜図9は、本発明の実施の形態1にお
いて、インタラクションの結果に基づき、その後の処理
が決定される過程を説明するためのフロー図である。図
8〜図9を参照して、複数の処理候補の中から、特定の
処理を決定する手順について説明する。
いて、インタラクションの結果に基づき、その後の処理
が決定される過程を説明するためのフロー図である。図
8〜図9を参照して、複数の処理候補の中から、特定の
処理を決定する手順について説明する。
【0066】ステップS4−1において、制御部4は、
動作認識部3に、ユーザの位置を認識するように指示す
る。動作認識部3は、制御部4の指示にしたがって、ユ
ーザの位置を認識し、認識結果として、例えば、ユーザ
の位置P(X0、Y0)を制御部4に出力する。
動作認識部3に、ユーザの位置を認識するように指示す
る。動作認識部3は、制御部4の指示にしたがって、ユ
ーザの位置を認識し、認識結果として、例えば、ユーザ
の位置P(X0、Y0)を制御部4に出力する。
【0067】ステップS4−2において、制御部4は、
この認識結果に基づき、例えば、位置(X0、Y0−
Z)で表わされるユーザの近傍に、インタラクションの
対象物である物体Aを表示するように、立体映像生成部
1に指示する。ここで、Zとは、例えば、人間の手の長
さから導き出された値である。
この認識結果に基づき、例えば、位置(X0、Y0−
Z)で表わされるユーザの近傍に、インタラクションの
対象物である物体Aを表示するように、立体映像生成部
1に指示する。ここで、Zとは、例えば、人間の手の長
さから導き出された値である。
【0068】立体映像生成部1は、制御部4の指示にし
たがって、物体Aを位置(X0、Y0−Z)に立体表示
するための映像を生成する。
たがって、物体Aを位置(X0、Y0−Z)に立体表示
するための映像を生成する。
【0069】ステップS4−3において、立体映像表示
部2は、生成された映像を立体表示する。この結果、ユ
ーザは、物体Aが、あたかもちょうど手を伸ばした位置
に存在するように認識する。
部2は、生成された映像を立体表示する。この結果、ユ
ーザは、物体Aが、あたかもちょうど手を伸ばした位置
に存在するように認識する。
【0070】ステップS4−4において、制御部4は、
立体表示された物体Aに対してユーザが選択動作を行な
ったか否かを認識するよう動作認識部3に指示する。
立体表示された物体Aに対してユーザが選択動作を行な
ったか否かを認識するよう動作認識部3に指示する。
【0071】動作認識部3は、制御部4の指示にしたが
って、ユーザが物体Aを選択したか否か(例えば、手を
伸ばしたか、触れたか等)を認識する。
って、ユーザが物体Aを選択したか否か(例えば、手を
伸ばしたか、触れたか等)を認識する。
【0072】ステップS4−5において、制御部4は、
動作認識部3の認識結果に基づき、ユーザが物体Aを選
択した場合には、処理S5に、選択しなかった場合に
は、処理S6に進む。
動作認識部3の認識結果に基づき、ユーザが物体Aを選
択した場合には、処理S5に、選択しなかった場合に
は、処理S6に進む。
【0073】図10は、本発明の実施の形態1における
立体インタラクション装置10および立体インタラクシ
ョン方法を用いて、ユーザ17が物体Aとインタラクシ
ョンを行なっている様子を示す図である。
立体インタラクション装置10および立体インタラクシ
ョン方法を用いて、ユーザ17が物体Aとインタラクシ
ョンを行なっている様子を示す図である。
【0074】立体インタラクション装置10および立体
インタラクション方法は、立体表示技術を用いることに
より、ユーザ17に対して、インタラクションの対象で
ある物体A(以下、対象物と呼ぶ)を実在するよう見せ
ることができる。
インタラクション方法は、立体表示技術を用いることに
より、ユーザ17に対して、インタラクションの対象で
ある物体A(以下、対象物と呼ぶ)を実在するよう見せ
ることができる。
【0075】さらに、動作認識技術と立体表示技術とを
融合させ、立体視を適度に調節することにより、インタ
ラクションが必要とされる時点で、対象物がユーザ17
の手の届く近傍に実在するよう見せることができる。
融合させ、立体視を適度に調節することにより、インタ
ラクションが必要とされる時点で、対象物がユーザ17
の手の届く近傍に実在するよう見せることができる。
【0076】この結果、ユーザ17は、眼の前に実在す
る物体を選択する場合と同様の感覚で対象物に触れよう
としたり、指差してみたりする等の自然な行動を起こし
易くなる。立体視がこのような効果を持つことは、立体
視による映画を見ている観客の行動を観察すれば容易に
想像できる。観客は、眼の前に表示された立体映像であ
る物体に触れようと手を伸ばしたりする動作をするのが
観察されるからである。
る物体を選択する場合と同様の感覚で対象物に触れよう
としたり、指差してみたりする等の自然な行動を起こし
易くなる。立体視がこのような効果を持つことは、立体
視による映画を見ている観客の行動を観察すれば容易に
想像できる。観客は、眼の前に表示された立体映像であ
る物体に触れようと手を伸ばしたりする動作をするのが
観察されるからである。
【0077】また、動作認識技術により、ユーザ17の
こうした自然な動作をインタラクションの手段として認
識することができるので、ユーザが心理的に抵抗なく動
作することができる。
こうした自然な動作をインタラクションの手段として認
識することができるので、ユーザが心理的に抵抗なく動
作することができる。
【0078】すなわち、本発明は、ユーザにとって使い
やすいマンマシーンインタフェースを備えた立体インタ
ラクション装置および立体インタラクション方法を提供
するものである。
やすいマンマシーンインタフェースを備えた立体インタ
ラクション装置および立体インタラクション方法を提供
するものである。
【0079】なお以上の説明では、選択動作として、1
つの物体Aを選択するか否かという例を説明したが、例
えば、複数の物体を立体的に表示させ、ユーザがいずれ
かの物体を選択する(手を伸ばして触れようとする等)
動作を認識することにより、複数の処理候補のうち特定
の処理が選択されたと判断してそれ以降の処理を行なう
ことも容易に実現できる。
つの物体Aを選択するか否かという例を説明したが、例
えば、複数の物体を立体的に表示させ、ユーザがいずれ
かの物体を選択する(手を伸ばして触れようとする等)
動作を認識することにより、複数の処理候補のうち特定
の処理が選択されたと判断してそれ以降の処理を行なう
ことも容易に実現できる。
【0080】
【発明の効果】以上のように、本発明によれば、対象物
を立体表示させることにより、ユーザと対象物とのイン
タラクションを生じやすくすることが可能となる。
を立体表示させることにより、ユーザと対象物とのイン
タラクションを生じやすくすることが可能となる。
【0081】また、本発明によれば、立体視を調節する
ことで、所定のタイミングで、ユーザと対象物とのイン
タラクションをさらに導き出すことが可能となる。
ことで、所定のタイミングで、ユーザと対象物とのイン
タラクションをさらに導き出すことが可能となる。
【0082】さらに、本発明によれば、人間の自然な行
動形式をインタラクションの手段とするので、ユーザが
自然にインタラクションを起こすことが可能となる。
動形式をインタラクションの手段とするので、ユーザが
自然にインタラクションを起こすことが可能となる。
【図1】本発明の実施の形態1における立体インタラク
ション装置の基本構成の一例を示す概略ブロック図であ
る。
ション装置の基本構成の一例を示す概略ブロック図であ
る。
【図2】立体視を生じさせる原理について説明するため
の図である。
の図である。
【図3】本発明の実施の形態1において、物体を任意の
位置に立体表示させる方法の一例を説明するための図で
ある。
位置に立体表示させる方法の一例を説明するための図で
ある。
【図4】本発明の実施の形態1における立体映像表示部
での立体表示方法の一例を説明するための図である。
での立体表示方法の一例を説明するための図である。
【図5】本発明の実施の形態1における動作認識部での
認識機能の一例を説明するための図である。
認識機能の一例を説明するための図である。
【図6】本発明の実施の形態1における動作認識部での
認識機能の一例を説明するための図である。
認識機能の一例を説明するための図である。
【図7】本発明の実施の形態1における制御部が制御す
る処理の一例を説明するための図である。
る処理の一例を説明するための図である。
【図8】本発明の実施の形態1において、インタラクシ
ョンの結果に基づき、その後の処理が決定される過程を
説明するためのフロー図である。
ョンの結果に基づき、その後の処理が決定される過程を
説明するためのフロー図である。
【図9】本発明の実施の形態1において、インタラクシ
ョンの結果に基づき、その後の処理が決定される過程を
説明するためのフロー図である。
ョンの結果に基づき、その後の処理が決定される過程を
説明するためのフロー図である。
【図10】本発明の実施の形態1における立体インタラ
クション装置、および立体インタラクション方法を用い
て、ユーザが物体とインタラクションを行なっている様
子を示す図である。
クション装置、および立体インタラクション方法を用い
て、ユーザが物体とインタラクションを行なっている様
子を示す図である。
【図11】従来のインタラクション装置の構成を概略的
に示したブロック図である。
に示したブロック図である。
1 立体映像生成部 2 立体映像表示部 3 動作認識部 4 制御部 10 立体インタラクション装置
Claims (8)
- 【請求項1】 ユーザの位置を認識する位置認識手段
と、 立体映像を生成して、前記生成した立体映像成を立体表
示する立体映像出力手段と、 所定のタイミングで、前記位置認識手段に、前記ユーザ
の位置を認識させるとともに、前記立体映像出力手段
に、前記認識された前記ユーザの位置の近傍に、所定の
前記立体映像を立体表示させる制御手段とを備える、立
体インタラクション装置。 - 【請求項2】 ユーザの位置を認識する位置認識手段
と、 立体映像を生成して、前記生成した立体映像成を立体表
示する立体映像出力手段と、 前記ユーザの動作を認識する動作認識手段と、 所定のタイミングで、前記位置認識手段に、前記ユーザ
の位置を認識させるとともに、前記立体映像出力手段
に、前記認識された前記ユーザの位置の近傍に、所定の
前記立体映像を立体表示させ、前記動作認識部に、前記
立体表示された前記所定の立体映像に対する前記ユーザ
の動作を認識させ、前記認識された前記ユーザの動作に
応じて、前記所定のタイミングに対応して予め用意され
た複数の処理の中から、いずれか1つの前記処理を選択
する制御手段とを備える、立体インタラクション装置。 - 【請求項3】 前記ユーザの位置の近傍とは、前記ユー
ザの手の届く範囲である、請求項1記載の立体インタラ
クション装置。 - 【請求項4】 前記所定の立体映像とは、複数の物体の
立体像を含み、前記ユーザの位置の近傍とは、前記ユー
ザの手の届く範囲であって、前記ユーザの動作とは、前
記ユーザの手で前記複数の物体を取り扱う行動である、
請求項2記載の立体インタラクション装置。 - 【請求項5】 ユーザの位置を認識する位置認識部と、
立体映像を生成して、前記生成した立体映像を立体表示
する立体映像出力部とを備える、立体インタラクション
装置において、 所定のタイミングで、前記位置認識部において、前記ユ
ーザの位置を認識させる第1のステップと、 前記立体映像出力部において、第1のステップで認識さ
れた前記ユーザの位置の近傍に、所定の前記立体映像を
立体表示させる第2のスッテプとを備える、立体インタ
ラクション方法。 - 【請求項6】 ユーザの位置を認識する位置認識部と、
立体映像を生成して、前記生成した立体映像を立体表示
する立体映像出力部と、前記ユーザの動作を認識する動
作認識部とを備える、立体インタラクション装置におい
て、 所定のタイミングで、前記位置認識部において、前記ユ
ーザの位置を認識させる第1のステップと、 前記立体映像出力部において、第1のステップで認識さ
れた前記ユーザの位置の近傍に、所定の前記立体映像を
立体表示させる第2のスッテプと、 前記動作認識部において、前記第2のステップで立体表
示された前記所定の立体映像に対する前記ユーザの動作
を認識させる第3のステップと、 前記第3のスッテプで認識された前記ユーザの動作に応
じて、前記所定のタイミングに対応して予め用意された
複数の処理の中から、いずれか1つの前記処理を選択す
る第4のステップとを備える、立体インタラクション方
法。 - 【請求項7】 前記ユーザの位置の近傍とは、前記ユー
ザの手の届く範囲である、請求項5記載の立体インタラ
クション方法。 - 【請求項8】 前記所定の立体映像とは、複数の物体の
立体像を含み、前記ユーザの位置の近傍とは、前記ユー
ザの手の届く範囲であり、前記ユーザの動作とは、前記
ユーザの手で前記複数の物体を取り扱う行動である、請
求項6記載の立体インタラクション方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1416097A JPH10207620A (ja) | 1997-01-28 | 1997-01-28 | 立体インタラクション装置および立体インタラクション方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1416097A JPH10207620A (ja) | 1997-01-28 | 1997-01-28 | 立体インタラクション装置および立体インタラクション方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10207620A true JPH10207620A (ja) | 1998-08-07 |
Family
ID=11853408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1416097A Pending JPH10207620A (ja) | 1997-01-28 | 1997-01-28 | 立体インタラクション装置および立体インタラクション方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10207620A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002092656A (ja) * | 2000-09-11 | 2002-03-29 | Canon Inc | 立体画像表示装置及び画像データの表示方法 |
JP2004334590A (ja) * | 2003-05-08 | 2004-11-25 | Denso Corp | 操作入力装置 |
JP2008210359A (ja) * | 2007-01-30 | 2008-09-11 | Toyota Motor Corp | 操作装置 |
JP2011175617A (ja) * | 2010-01-29 | 2011-09-08 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
JP2011175623A (ja) * | 2010-01-29 | 2011-09-08 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
US8049722B2 (en) | 2005-09-05 | 2011-11-01 | Toyota Jidosha Kabushiki Kaisha | Vehicular operating apparatus |
US8094189B2 (en) | 2007-01-30 | 2012-01-10 | Toyota Jidosha Kabushiki Kaisha | Operating device |
CN102542165A (zh) * | 2011-12-23 | 2012-07-04 | 三星半导体(中国)研究开发有限公司 | 用于三维虚拟棋盘的操作方法和装置 |
WO2014050974A1 (ja) * | 2012-09-27 | 2014-04-03 | 京セラ株式会社 | 表示装置、制御システムおよび制御プログラム |
KR20140107229A (ko) * | 2011-12-06 | 2014-09-04 | 톰슨 라이센싱 | 3차원으로 디스플레이된 오브젝트의 사용자 선택 제스쳐에 응답하기 위한 방법 및 시스템 |
US8965049B2 (en) | 2011-02-01 | 2015-02-24 | Panasonic Intellectual Property Corporation Of America | Function extension device, function extension method, computer-readable recording medium, and integrated circuit |
WO2019039416A1 (ja) * | 2017-08-24 | 2019-02-28 | シャープ株式会社 | 表示装置及びプログラム |
JP2020160875A (ja) * | 2019-03-27 | 2020-10-01 | 株式会社Subaru | 車両の非接触操作装置、および車両 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06176131A (ja) * | 1992-12-03 | 1994-06-24 | Namco Ltd | 画像合成装置及びこれを用いた仮想体験装置 |
JPH06274270A (ja) * | 1993-03-10 | 1994-09-30 | Roehm Properties Bv | 仮想現実空間データ入力装置 |
JPH07239750A (ja) * | 1993-12-28 | 1995-09-12 | Canon Inc | モデリング方法とその装置 |
JPH086708A (ja) * | 1994-04-22 | 1996-01-12 | Canon Inc | 表示装置 |
-
1997
- 1997-01-28 JP JP1416097A patent/JPH10207620A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06176131A (ja) * | 1992-12-03 | 1994-06-24 | Namco Ltd | 画像合成装置及びこれを用いた仮想体験装置 |
JPH06274270A (ja) * | 1993-03-10 | 1994-09-30 | Roehm Properties Bv | 仮想現実空間データ入力装置 |
JPH07239750A (ja) * | 1993-12-28 | 1995-09-12 | Canon Inc | モデリング方法とその装置 |
JPH086708A (ja) * | 1994-04-22 | 1996-01-12 | Canon Inc | 表示装置 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002092656A (ja) * | 2000-09-11 | 2002-03-29 | Canon Inc | 立体画像表示装置及び画像データの表示方法 |
JP2004334590A (ja) * | 2003-05-08 | 2004-11-25 | Denso Corp | 操作入力装置 |
US8049722B2 (en) | 2005-09-05 | 2011-11-01 | Toyota Jidosha Kabushiki Kaisha | Vehicular operating apparatus |
JP2008210359A (ja) * | 2007-01-30 | 2008-09-11 | Toyota Motor Corp | 操作装置 |
US8094189B2 (en) | 2007-01-30 | 2012-01-10 | Toyota Jidosha Kabushiki Kaisha | Operating device |
JP2011175617A (ja) * | 2010-01-29 | 2011-09-08 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
JP2011175623A (ja) * | 2010-01-29 | 2011-09-08 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
US8965049B2 (en) | 2011-02-01 | 2015-02-24 | Panasonic Intellectual Property Corporation Of America | Function extension device, function extension method, computer-readable recording medium, and integrated circuit |
KR20140107229A (ko) * | 2011-12-06 | 2014-09-04 | 톰슨 라이센싱 | 3차원으로 디스플레이된 오브젝트의 사용자 선택 제스쳐에 응답하기 위한 방법 및 시스템 |
JP2015503162A (ja) * | 2011-12-06 | 2015-01-29 | トムソン ライセンシングThomson Licensing | 3次元で表示されるオブジェクトのユーザの選択ジェスチャに応答する方法およびシステム |
CN102542165A (zh) * | 2011-12-23 | 2012-07-04 | 三星半导体(中国)研究开发有限公司 | 用于三维虚拟棋盘的操作方法和装置 |
WO2014050974A1 (ja) * | 2012-09-27 | 2014-04-03 | 京セラ株式会社 | 表示装置、制御システムおよび制御プログラム |
JP2014071154A (ja) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置、制御システムおよび制御プログラム |
CN104662602A (zh) * | 2012-09-27 | 2015-05-27 | 京瓷株式会社 | 显示装置、控制系统和控制程序 |
US9799141B2 (en) | 2012-09-27 | 2017-10-24 | Kyocera Corporation | Display device, control system, and control program |
WO2019039416A1 (ja) * | 2017-08-24 | 2019-02-28 | シャープ株式会社 | 表示装置及びプログラム |
JP2020160875A (ja) * | 2019-03-27 | 2020-10-01 | 株式会社Subaru | 車両の非接触操作装置、および車両 |
CN111752382A (zh) * | 2019-03-27 | 2020-10-09 | 株式会社斯巴鲁 | 车辆的非接触操作装置和车辆 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7098888B2 (en) | Development of stereoscopic-haptic virtual environments | |
US8808089B2 (en) | Projection of interactive game environment | |
KR100809479B1 (ko) | 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치 | |
US20050264559A1 (en) | Multi-plane horizontal perspective hands-on simulator | |
JP4413203B2 (ja) | 画像呈示装置 | |
EP1740998A2 (en) | Horizontal perspective hand-on simulator | |
KR20120064557A (ko) | 증강형 3차원 입체 영상 제시를 위한 혼합현실 디스플레이 플랫폼 및 운영 방법 | |
JPH10207620A (ja) | 立体インタラクション装置および立体インタラクション方法 | |
US20050248566A1 (en) | Horizontal perspective hands-on simulator | |
CN109901713A (zh) | 一种多人协同装配系统及方法 | |
KR20120037858A (ko) | 입체영상표시장치 및 그 ui 제공 방법 | |
CN113918021A (zh) | 一种3d主动立体可交互沉浸式虚拟现实一体机 | |
EP1821258A2 (en) | Method and apparatus for automated dynamics of three-dimensional graphics scenes for enhanced 3D visualization | |
US20230260235A1 (en) | Information processing apparatus, information processing method, and information processing system | |
EP0797173A1 (en) | Virtual environment navigation and interaction apparatus and method | |
JP2003330582A (ja) | 視覚及び触覚を利用した感覚呈示装置 | |
WO2022107294A1 (ja) | Vr映像空間生成システム | |
JP6955725B2 (ja) | アニメーション制作システム | |
JP3472068B2 (ja) | 立体映像表示装置 | |
JPH10172004A (ja) | 立体画像表示方法 | |
JP7462097B1 (ja) | 仮想体験システムおよびプログラム | |
US11537199B2 (en) | Animation production system | |
WO2023162668A1 (ja) | 情報処理装置および床面高さ調整方法 | |
JP3140708B2 (ja) | 手形状入力装置および仮想現実感生成装置 | |
JP3631890B2 (ja) | 電子遊戯装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20010313 |