JPH10214344A - インタラクティブ表示装置 - Google Patents

インタラクティブ表示装置

Info

Publication number
JPH10214344A
JPH10214344A JP9018205A JP1820597A JPH10214344A JP H10214344 A JPH10214344 A JP H10214344A JP 9018205 A JP9018205 A JP 9018205A JP 1820597 A JP1820597 A JP 1820597A JP H10214344 A JPH10214344 A JP H10214344A
Authority
JP
Japan
Prior art keywords
display device
video
user
image data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9018205A
Other languages
English (en)
Inventor
Nobuyasu Yamaguchi
伸康 山口
Atsuo Iida
安津夫 飯田
Fumihiko Nakazawa
文彦 中沢
Yasuhide Iwamoto
康秀 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP9018205A priority Critical patent/JPH10214344A/ja
Publication of JPH10214344A publication Critical patent/JPH10214344A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】利用者の自由な動きを妨げることがなく利用者
の動作を検出し、利用者が自然に感じることのできる臨
場感に富んだインタラクティブ表示装置を提供すること
を目的とする。 【解決手段】ディスプレイ装置12、ディスプレイ装置
12の前方に存在する利用者PUを撮影するビデオカメ
ラ22、利用者PUに関連して予め得た画像データであ
る1つ又は複数の参照用データを記憶する参照用データ
記憶部131、ビデオカメラ22により得られる画像デ
ータと参照用データとを比較し、それらの相関の最も高
い部分の空間内における位置に対応した位置情報を出力
する位置検出部110、ディスプレイ装置12により表
示する映像のための映像データを出力するとともに、位
置検出部110から出力される位置情報に基づいて映像
データの内容を制御する映像制御部115を有してな
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、例えば画面を見て
いる人間の動きを検出することによって画面に表示され
る映像を制御するインタラクティブ表示装置に関する。
【0002】近年において、3次元グラフィックスによ
って仮想生物やエージェントなどの映像を画面に表示
し、それを見ている人間の操作する入力機器又は入力セ
ンサからの信号に応じて映像を変化させ、仮想生物があ
たかも生きているかのように感じさせるインタラクティ
ブなアプリケーションがしばしば用いられている。
【0003】このように、画面に表示されたキャラクタ
やシーンを制御し、特定のストーリーを実現させるイン
タラクティブなアプリケーションの効果を一層高め、よ
り臨場感のあるものとするために、人間にとってより自
然に感じることのできるマンマシンインタフェースが求
められている。
【0004】
【従来の技術】従来のインタラクティブなアプリケーシ
ョンにおいては、画面に表示される映像(画像)を制御
するための入力インタフェースとして、キーボード、マ
ウス、ジョイパッドなどの入力操作機器を用い、利用者
がそれらの機器を自身の手先で操作することが一般的で
ある。
【0005】また、人間が知りたいさまざまな情報をま
るで現実と同じように体験するようにしたバーチャルリ
アリティシステムでは、電磁位置センサ又はデータグロ
ーブなどの新しい入力インタフェースが用いられてい
る。これらは利用者に装着され、利用者の頭や手の動き
を直接に検出し、その検出出力に基づいて画面又は機器
の動作が制御される。
【0006】
【発明が解決しようとする課題】さて、例えば映像とし
て仮想生物を画面に表示し、その仮想生物と見ている人
とが対話する場合に、見ている人がマウスやキーボード
などの機器を用いて操作するのであれば、臨場感は低下
してあまり興味はなくなってしまう。
【0007】また、電磁位置センサ又はデータグローブ
などを用いて映像を制御する場合には、それらの機器を
利用者の身体に装着しなければならず、しかもデータの
送受のためのケーブルをつなぐ場合もあるので、利用者
の自然な動作を妨げるという問題がある。
【0008】また、画面に表示された仮想生物に対し
て、従来においては人間(又は利用者)がその仮想生物
をどの方向から見ているかという情報が欠如しているた
めに、人間の見る方向によっては極めて不自然な印象を
与るという状況が発生する可能性がある。
【0009】本発明は、上述の問題に鑑みてなされたも
ので、利用者の自由な動きを妨げることがなく利用者の
動作を検出し、利用者が自然に感じることのできる臨場
感に富んだインタラクティブ表示装置を提供することを
目的とする。
【0010】
【課題を解決するための手段】請求項1の発明に係る装
置は、映像を表示するための表示手段と、前記表示手段
の設置された空間内に設置され、前記表示手段の前方に
存在する対象物を撮影する撮影手段と、前記対象物に関
連して予め得た画像データである1つ又は複数の参照用
データを記憶する参照用データ記憶手段と、前記撮影手
段により得られる画像データと前記参照用データとを比
較し、それらの相関の最も高い部分の前記空間内におけ
る位置に対応した位置情報を出力する位置検出手段と、
前記表示手段により表示する映像のための映像データを
出力するとともに、前記位置検出手段から出力される位
置情報に基づいて前記映像データの内容を制御する映像
制御手段と、を有してなる。
【0011】請求項2の発明に係る装置では、前記参照
用データとして人の頭部の画像データが用いられ、前記
位置検出手段は、対象物が人である場合にその頭部の位
置に対応した位置情報を出力する。
【0012】請求項3の発明に係る装置では、前記参照
用データとして複数人の顔の画像データが用いられ、前
記位置検出手段においては、前記撮影手段により得られ
る画像データと相関の最も高い参照用データを選択する
ことによって対象物としての人を特定し、前記映像制御
手段においては、前記特定された人に応じて前記映像デ
ータの内容を制御する。
【0013】請求項4の発明に係る装置は、前記位置検
出手段には、前記撮影手段により得られる画像データと
前記参照用データとを比較する比較手段と、前記比較手
段における比較結果に基づいて、前記表示手段の表示面
と実質的に平行な平面内における相関の最も高い部分の
座標情報を出力する座標検出手段と、前記撮影手段の前
記空間内における設置位置に関する情報である設置位置
情報、及び前記撮影手段と前記表示手段との相対的な位
置関係を示す相対位置情報を予め記憶した設置情報記憶
手段と、前記設置情報記憶手段に記憶された情報及び前
記座標検出手段から出力される座標情報に基づいて、前
記表示手段に対する対象物の頭部の位置する方向を視点
方向として検出し、検出した視点方向を前記位置情報と
して出力する視点方向検出手段と、が設けられてなる。
【0014】請求項5の発明に係る装置では、前記映像
制御手段は、立体物の存在する三次元空間を表現する三
次元画像データを前記映像データとして出力するととも
に、前記視点方向検出手段により検出された視点方向か
ら見た前記三次元空間の映像データを出力するように制
御する。
【0015】請求項6の発明に係る装置では、前記映像
制御手段は、仮想生物の三次元画像データを前記映像デ
ータとして出力するとともに、前記仮想生物が前記視点
方向検出手段により検出された視点方向に追従するよう
に前記映像データを制御する。
【0016】
【発明の実施の形態】図1は本発明に係るインタラクテ
ィブ表示装置1の構成を示すブロック図、図2はインタ
ラクティブ表示装置1の構成を機能的に示すブロック
図、図3はインタラクティブ表示装置1の各機器の配置
の例を示す平面図である。
【0017】図1において、インタラクティブ表示装置
1は、処理装置11、ディスプレイ装置12、磁気ディ
スク装置13、キーボード14、マウス15、モニタ装
置16、及びビデオカメラ22などから構成される。こ
れらの機器の他、光磁気ディスク装置、フロッピィディ
スク装置、CD−ROM装置、又はプリンタ装置などが
必要に応じて適宜接続される。
【0018】ディスプレイ装置12は、対象物である人
の高さと同程度の大きい画面HGを有している。インタ
ラクティブ表示装置1を利用する人は、ディスプレイ装
置12の画面HGの前方に立ち、画面HGを見ながら又
は見ずに、種々の動作を行う。モニタ装置16は、参照
用データを取得する際に用いられ、またインタラクティ
ブ表示装置1を管理する人が用いる。なお、インタラク
ティブ表示装置1を利用する人を「利用者PU」とい
う。
【0019】磁気ディスク装置13には、参照用データ
DRの他、種々の映像データ(又は画像データ)DTの
ファイル、それらのファイルによるデータベース、種々
のプログラム又はデータが格納されている。磁気ディス
ク装置13に格納されたファイルなどに基づいて、画面
HGに動画又は静止画による映像(画像)が表示され
る。
【0020】参照用データDRは、対象物に関連して予
め得た画像データである。参照用データDRとして、例
えば、複数の利用者のそれぞれの顔の画像データが用い
られる。その場合には、利用者のそれぞれの顔をビデオ
カメラ22で撮影することによって参照用データDRが
得られる。
【0021】映像データDTとしては、例えば、壺、
瓶、碗、家具などの美術工芸品、自動車などの工業製
品、家電製品、建築物など、静止物体の三次元画像デー
タ若しくはそれら静止物体の存在する三次元空間を表現
する三次元画像データ、又は、生命体若しくは生命体の
ように振る舞う仮想生物の三次元画像データである。
【0022】ビデオカメラ22は、図3に示されるよう
に、ディスプレイ装置12の設置された空間SS内に設
置され、ディスプレイ装置12の前方に存在する利用者
PUなどの対象物を撮影する。ビデオカメラ22の出力
信号は、参照用データDRを得るために用いられ、ま
た、ディスプレイ装置12に表示される映像を制御する
ために用いられる。
【0023】処理装置11は、MPU、RAM、RO
M、他の周辺素子などからなっており、磁気ディスク装
置13から読み出したフィルなどに基づいて画面HGに
映像を表示するための処理、利用者PUの顔の位置を検
出する処理、それに基づいて映像を変化させる処理、そ
の他の種々の処理を行う。
【0024】図2において、インタラクティブ表示装置
1には、位置検出部110、映像制御部115、及び参
照用データ記憶部131が設けられている。参照用デー
タ記憶部131は磁気ディスク装置13内に設けられて
いる。但し、参照用データ記憶部131を処理装置11
のRAMなどに設けてもよい。
【0025】位置検出部110は、ビデオカメラ22に
より得られる画像データDFと参照用データDRとを比
較し、それらの相関の最も高い部分の空間SS内におけ
る位置に対応した位置情報DPを出力する。映像制御部
115は、ディスプレイ装置12により表示する映像の
ための映像データDTを出力するとともに、位置検出部
110から出力される位置情報DPに基づいて映像デー
タDTの内容を制御する。
【0026】すなわち、位置検出部110には、比較部
111、座標検出部112、設置情報記憶部113、及
び視点方向検出部114が設けられている。位置検出部
110は、ビデオカメラ22により得られる画像データ
DFと参照用データDRとを比較する。座標検出部11
2は、比較部111における比較結果に基づいてディス
プレイ装置12の表示面と実質的に平行な平面内におけ
る相関の最も高い部分の座標情報DCを出力する。
【0027】設置情報記憶部113は、ビデオカメラ2
2の空間SS内における設置位置に関する情報である設
置位置情報DVA、ビデオカメラ22の撮影範囲に関す
る情報である撮影範囲情報DVB、及びビデオカメラ2
2とディスプレイ装置12との相対的な位置関係を示す
相対位置情報DVCを予め記憶する。設置位置情報DV
A及び相対位置情報DVCは、例えば三次元空間内にお
ける各機器の座標情報である。設置位置情報DVA及び
相対位置情報DVCに代えて、各機器の設置位置情報を
用いてもよい。撮影範囲情報DVBは、視野角又は距離
範囲などである。
【0028】視点方向検出部114は、設置情報記憶部
113に記憶された情報及び座標検出部112から出力
される座標情報DCに基づいて、ディスプレイ装置12
に対する利用者PUの頭部の位置する方向を視点方向と
して検出し、検出した視点方向を位置情報DPとして出
力する。
【0029】処理装置11のこれらの処理は、ROM、
RAM、又は磁気ディスク装置13に格納されたプログ
ラムをMPUが実行することにより実現される。処理装
置11として、いわゆるパーソナルコンピュータ又はワ
ークステーションなどを利用することができる。
【0030】図3において、ディスプレイ装置12の前
方には利用者PUが立っている。ディスプレイ装置12
と利用者PUとの間の距離は1〜数メートルである。ま
た、ディスプレイ装置12の裏側にはパーティション1
9が設けられている。パーティション19に代えて壁で
もよく、省略することも可能である。ビデオカメラ22
は、パーティション19の上部に設置され、ディスプレ
イ装置12の前方を撮影する。
【0031】図4は参照用データ記憶部131に記憶さ
れた参照用データDR1の例を示す図、図5はビデオカ
メラ22により得られる画像データDF1の例を示す
図、図6は映像制御部115から出力される映像データ
DT1,2に基づいてディスプレイ装置12に表示され
る映像VD1,2の例を示す図、図7は映像制御部11
5において生成される三次元の映像データによる仮想生
物の平面図である。
【0032】図4に示す参照用データDR1は、ある利
用者PU1の顔の部分の画像データである。図5に示す
ように、ディスプレイ装置12の前には利用者PU1が
立っており、ビデオカメラ22からは利用者PU1の顔
を含む画像データDF1が得られる。
【0033】比較部111において、参照用データDR
1と画像データDF1とが比較され、画像データDF1
のうち、参照用データDR1と最もよく一致する部分が
検出される。比較に当たっては従来より公知の種々の手
法が用いられる。座標検出部112は、画像データDF
1のうちの一致する部分の中央位置の座標情報DC1を
出力する。図5に示す例では、座標情報DC1はディス
プレイ装置12の画面HGのほぼ中央位置を示す。
【0034】視点方向検出部114は、座標情報DC1
と設置情報記憶部113に記憶された情報に基づいて、
ディスプレイ装置12に対する利用者PUの頭部の位置
する方向を視点方向として検出し、検出した視点方向を
位置情報DP1として出力する。
【0035】視点方向は、ディスプレイ装置12の画面
HGの正面を向く方向を0度とし、画面HGの右方に
正、左方に負の角度となる。例えば、利用者PUが画面
HGの正面から右方に移動した場合には、10度、20
度、30度…というように正の方向に増加し、正面から
左方に移動した場合には、−10度、−20度、−30
度…というように負の方向に増加する。図5に示す例で
は、位置情報DP1は画面HGの正面を示し、したがっ
て視点方向は0度である。
【0036】映像制御部115は、位置情報DP1に基
づいて、映像データDTの内容を制御し、仮想生物の映
像が位置情報DPで示される視点方向から見た映像とな
るように映像データDT1,2を生成する(図7を参
照)。このような映像データDT1,2は、位置情報D
P1をパラメータとして映像データ生成プログラムを実
行することにより生成してもよく、又は、予め作成され
た三次元の映像データDTを位置情報DP1に対応して
読み出し又は補完演算を行うことによって得てもよい。
【0037】図6(A)に示す映像VD1は、位置情報
DPが約30度の場合である。つまり、この場合には、
利用者PU1が画面HGの右方に寄っており、映像VD
1の仮想生物は右方にいる利用者PU1の方を向いてい
る。利用者PU1が画面HGの左方寄りに移動し、位置
情報DPが約−30度となると、図6(B)に示す映像
VD2が画面HGに表示される。つまり、利用者PU1
の移動に追従して画面HG内の仮想生物も向きを変え、
左方にいる利用者PU1の方を向く。
【0038】このように、位置検出部110において利
用者PU1の顔の位置が検出され、映像VDの仮想生物
が利用者PU1の方を向くように映像制御部115によ
り制御される。すなわち、利用者PU1は、マウスやキ
ーボードなどの操作を行うことなく、しかも何らの機器
も身体に装着することなく、且つ利用者PU1が特別な
動作をすることなく、画面HGに表示された映像VD1
の仮想生物に対する指示を与えることができる。したが
って、利用者PU1は仮想生物への指示に当たって自然
な動作を妨げられることがないので、仮想生物の実在感
が増し、利用者PU1は画面HGに表示される映像VD
に対してより一層の臨場感を感じることができる。ま
た、例えば利用者PU1及び画面HGを見ている人にと
っても、仮想生物の実在感が増し、それにともなって臨
場感も増し、例えば仮想生物が利用者PU1に懐いてい
るようにも感じられる。
【0039】なお、利用者PUの視点方向に応じて仮想
生物が向きを変えるような制御を、例えば利用者PUが
手をたたくことによって仮想生物が利用者PUの存在に
気が付いた後に行うようにしてもよい。
【0040】次に、映像VDの内容が仮想生物ではな
く、静止物体である場合について説明する。ここでは、
静止物体が角瓶である場合について説明する。図8は映
像制御部115から出力される映像データDT3,4に
基づいてディスプレイ装置12に表示される角瓶の映像
VD3,4の例を示す図、図9は映像制御部115にお
いて生成される三次元の映像データによる角瓶の平面図
である。
【0041】図8(A)においては、角瓶が正面を向い
た映像VD3が画面HGに表示されている。利用者PU
1が右方向に移動することによって視点方向が右方向に
移動すると、図8(B)に示すように、角瓶の映像VD
4は移動後の視点方向から見た状態となる。つまり、静
止物体である角瓶は、利用者PU1が移動しても静止し
たままであり、利用者PU1の移動にともなって角瓶の
見える角度が変わることとなる。角瓶の映像VDは、利
用者PU1の視点方向から見える映像として画面HGに
表示される(図9を参照)。したがって、仮想生物と角
瓶とでは、映像VDの回転方向が互いに逆である。
【0042】このように、位置検出部110において利
用者PU1の顔の位置が検出され、利用者PU1はまる
でそこに角瓶の実物があるかのようにその角瓶を見る角
度を変えることによって、その方向から見た角瓶の映像
VDを表示するように映像制御部115で制御されるの
である。
【0043】なお、画面HGが1つのみである場合に
は、利用者PU1は、正負の方向にそれぞれ90度まで
しか移動できないので、角瓶の全周(正負方向に180
度)を見るためには、利用者PU1の視点方向の2倍の
角度から見た映像VDを表示させればよい。
【0044】上述の実施形態においては、参照用データ
DRとして利用者PU1の顔を用い、利用者PU1はデ
ィスプレイ装置12の画面HGの方を向いた状態で利用
するが、利用者PU1の横顔、後頭部などを参照用デー
タDRとし、利用者PU1が横方向又は後ろ方向を向い
た状態で利用できるようにしてもよい。そうすると、利
用者PU1が画面HGに背を向けた状態で演技又は円舞
などを行い、その前方に集まった聴衆がその演技を画面
HGに表示された映像VDとともに鑑賞する場合に利用
できる。この場合に、利用者PU1の演技にともなって
仮想生物が向きを変え、又は演技をする。
【0045】上述の実施形態においては、参照用データ
DRとして1人の利用者PU1の頭部を用いたが、複数
人の利用者PUについての参照用データDRを用い、こ
れらの参照用データDRとビデオカメラ22から得られ
る画像データDFとを比較することによって利用者PU
が誰であるかを特定してもよい。この場合には、各利用
者PUについての性格、癖、趣味、その他のデータを予
め登録しておき、特定された利用者PUに応じて映像デ
ータDTの制御内容を異ならせるようにしてもよい。
【0046】また、参照用データDRとして、利用者P
U本人の画像データではなく、例えば人の顔、眼鏡を掛
けた人の顔、丸顔、など、一般的な人の種々の典型的な
顔の画像データを記憶しておき、それらのタイプに応じ
た制御を行うようにしてもよい。
【0047】さらに、参照用データDRとして、正面を
向いた顔、うなずいた顔などを記憶しておくことによっ
て、利用者PUがうなずいたことを検出し、それによっ
て映像データDTを制御することもできる。このよう
に、利用者PU1の全体が移動しない場合でも、うなず
いたり手を振ったりした場合のように利用者PU1の身
体の一部の動作を検出することによって、極めて自然な
マンマシンインタフェースとすることが可能であり、イ
ンタラクティブ表示装置1を臨場感及び現実感に富んだ
ものとすることができる。
【0048】上述の実施形態においては、参照用データ
DRと一致する部分の中央位置の座標情報DC1を出力
したが、端点など他の位置の座標情報DCを出力しても
よい。ビデオカメラ22の設置位置は他の位置でもよ
い。複数のビデオカメラを用いてもよい。ビデオカメラ
22に代えて、又はビデオカメラ22とともに、他のセ
ンサーを用いてもよい。ディスプレイ装置12として1
つの画面HGを有するものを例示したが、例えば3つの
画面HGが若干の角度を有して横方向に併設されたもの
でもよい。この場合には、中央の画面HGに平行な平面
が、表示面と実質的に平行な平面となることが多い。そ
の他、インタラクティブ表示装置1の全体又は各部の構
造、形状、処理内容、処理順序、タイミング、映像又は
画像の内容などは、本発明の主旨に沿って適宜変更する
ことができる。
【0049】
【発明の効果】請求項1乃至請求項6の発明によると、
利用者の自由な動きを妨げることがなく利用者の動作を
検出し、利用者が自然に感じることのできる臨場感に富
んだインタラクティブ表示装置を提供することができ
る。
【0050】請求項2の発明によると、利用者の視点方
向を容易に検出して映像データを制御することができ
る。また、利用者のうなずきを検出して制御するなど、
利用者の自然な動作によって種々の制御を行うことがで
きる。
【0051】請求項3の発明によると、利用者が誰であ
るかを特定することができ、例えば各利用者の性格、
癖、趣味などに応じて映像データの制御内容を異ならせ
ることができる。
【0052】請求項5の発明によると、映像データの内
容が静止物体である場合に、利用者は画面の位置にまる
で静止物体の実物があるかのように見る角度を変えるこ
とによって、その方向から見た静止物体の映像を表示す
ることができ、臨場感に富んだものとすることができ
る。
【0053】請求項6の発明によると、利用者は仮想生
物への指示に当たって自然な動作を妨げられることがな
く、仮想生物の実在感が増し、利用者は画面に映る仮想
生物に対してより一層の臨場感を感じることができる。
【図面の簡単な説明】
【図1】本発明に係るインタラクティブ表示装置の構成
を示すブロック図である。
【図2】インタラクティブ表示装置の構成を機能的に示
すブロック図である。
【図3】インタラクティブ表示装置の配置の例を示す平
面図である。
【図4】参照用データ記憶部に記憶された参照用データ
の例を示す図である。
【図5】ビデオカメラにより得られる画像データの例を
示す図である。
【図6】映像制御部から出力される映像データに基づい
てディスプレイ装置に表示される映像の例を示す図であ
る。
【図7】映像制御部において生成される三次元の映像デ
ータによる仮想生物の平面図である。
【図8】映像制御部から出力される映像データに基づい
てディスプレイ装置に表示される角瓶の映像の例を示す
図である。
【図9】映像制御部において生成される三次元の映像デ
ータによる角瓶の平面図である。
【符号の説明】
1 インタラクティブ表示装置 11 処理装置 12 ディスプレイ装置(表示手段) 13 磁気ディスク装置 22 ビデオカメラ(撮影手段) 110 位置検出部(位置検出手段) 111 比較部(比較手段) 112 座標検出部(座標検出手段) 113 設置情報記憶部(設置情報記憶手段) 114 視点方向検出部(視点方向検出手段) 115 映像制御部(映像制御手段) 131 参照用データ記憶部(参照用データ記憶手段) PU 利用者(対象物) DR 参照用データ DT 映像データ DP 位置情報
───────────────────────────────────────────────────── フロントページの続き (72)発明者 中沢 文彦 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 (72)発明者 岩本 康秀 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】映像を表示するための表示手段と、 前記表示手段の設置された空間内に設置され、前記表示
    手段の前方に存在する対象物を撮影する撮影手段と、 前記対象物に関連して予め得た画像データである1つ又
    は複数の参照用データを記憶する参照用データ記憶手段
    と、 前記撮影手段により得られる画像データと前記参照用デ
    ータとを比較し、それらの相関の最も高い部分の前記空
    間内における位置に対応した位置情報を出力する位置検
    出手段と、 前記表示手段により表示する映像のための映像データを
    出力するとともに、前記位置検出手段から出力される位
    置情報に基づいて前記映像データの内容を制御する映像
    制御手段と、 を有してなることを特徴とするインタラクティブ表示装
    置。
  2. 【請求項2】前記参照用データとして人の頭部の画像デ
    ータが用いられ、 前記位置検出手段は、対象物が人である場合にその頭部
    の位置に対応した位置情報を出力する、 請求項1記載のインタラクティブ表示装置。
  3. 【請求項3】前記参照用データとして複数人の顔の画像
    データが用いられ、 前記位置検出手段においては、前記撮影手段により得ら
    れる画像データと相関の最も高い参照用データを選択す
    ることによって対象物としての人を特定し、 前記映像制御手段においては、前記特定された人に応じ
    て前記映像データの内容を制御する、 請求項1又は請求項2記載のインタラクティブ表示装
    置。
  4. 【請求項4】前記位置検出手段には、 前記撮影手段により得られる画像データと前記参照用デ
    ータとを比較する比較手段と、 前記比較手段における比較結果に基づいて、前記表示手
    段の表示面と実質的に平行な平面内における相関の最も
    高い部分の座標情報を出力する座標検出手段と、 前記撮影手段の前記空間内における設置位置に関する情
    報である設置位置情報、及び前記撮影手段と前記表示手
    段との相対的な位置関係を示す相対位置情報を予め記憶
    した設置情報記憶手段と、 前記設置情報記憶手段に記憶された情報及び前記座標検
    出手段から出力される座標情報に基づいて、前記表示手
    段に対する対象物の頭部の位置する方向を視点方向とし
    て検出し、検出した視点方向を前記位置情報として出力
    する視点方向検出手段と、 が設けられてなる請求項1乃至請求項3記載のいずれか
    に記載のインタラクティブ表示装置。
  5. 【請求項5】前記映像制御手段は、立体物の存在する三
    次元空間を表現する三次元画像データを前記映像データ
    として出力するとともに、前記視点方向検出手段により
    検出された視点方向から見た前記三次元空間の映像デー
    タを出力するように制御する、 請求項4記載のインタラクティブ表示装置。
  6. 【請求項6】前記映像制御手段は、仮想生物の三次元画
    像データを前記映像データとして出力するとともに、前
    記仮想生物が前記視点方向検出手段により検出された視
    点方向に追従するように前記映像データを制御する、 請求項4記載のインタラクティブ表示装置。
JP9018205A 1997-01-31 1997-01-31 インタラクティブ表示装置 Pending JPH10214344A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9018205A JPH10214344A (ja) 1997-01-31 1997-01-31 インタラクティブ表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9018205A JPH10214344A (ja) 1997-01-31 1997-01-31 インタラクティブ表示装置

Publications (1)

Publication Number Publication Date
JPH10214344A true JPH10214344A (ja) 1998-08-11

Family

ID=11965150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9018205A Pending JPH10214344A (ja) 1997-01-31 1997-01-31 インタラクティブ表示装置

Country Status (1)

Country Link
JP (1) JPH10214344A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077592A (ja) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd 画像処理方法
JP2003196017A (ja) * 2001-12-25 2003-07-11 Gen Tec:Kk データ入力方法及び同装置等
JP2003280783A (ja) * 2002-03-20 2003-10-02 Fuji Xerox Co Ltd 表示システム及び表示方法
US7577310B2 (en) 2000-04-13 2009-08-18 Fujifilm Corporation Image processing method
JP2010244322A (ja) * 2009-04-07 2010-10-28 Bitto Design Kk コミュニケーションキャラクター装置、及びそのプログラム
JP2011107817A (ja) * 2009-11-13 2011-06-02 Nintendo Co Ltd ゲーム装置およびゲームプログラム
US8704879B1 (en) 2010-08-31 2014-04-22 Nintendo Co., Ltd. Eye tracking enabling 3D viewing on conventional 2D display
CN109564707A (zh) * 2016-08-02 2019-04-02 C2 梦斯特株式会社 分镜头剧本制作装置及方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077592A (ja) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd 画像処理方法
US7577310B2 (en) 2000-04-13 2009-08-18 Fujifilm Corporation Image processing method
JP2003196017A (ja) * 2001-12-25 2003-07-11 Gen Tec:Kk データ入力方法及び同装置等
JP2003280783A (ja) * 2002-03-20 2003-10-02 Fuji Xerox Co Ltd 表示システム及び表示方法
JP2010244322A (ja) * 2009-04-07 2010-10-28 Bitto Design Kk コミュニケーションキャラクター装置、及びそのプログラム
JP2011107817A (ja) * 2009-11-13 2011-06-02 Nintendo Co Ltd ゲーム装置およびゲームプログラム
US8704879B1 (en) 2010-08-31 2014-04-22 Nintendo Co., Ltd. Eye tracking enabling 3D viewing on conventional 2D display
US9098112B2 (en) 2010-08-31 2015-08-04 Nintendo Co., Ltd. Eye tracking enabling 3D viewing on conventional 2D display
US10114455B2 (en) 2010-08-31 2018-10-30 Nintendo Co., Ltd. Eye tracking enabling 3D viewing
US10372209B2 (en) 2010-08-31 2019-08-06 Nintendo Co., Ltd. Eye tracking enabling 3D viewing
CN109564707A (zh) * 2016-08-02 2019-04-02 C2 梦斯特株式会社 分镜头剧本制作装置及方法

Similar Documents

Publication Publication Date Title
JP6893868B2 (ja) 空間依存コンテンツのための力覚エフェクト生成
JP7366196B2 (ja) 広範囲同時遠隔ディジタル提示世界
TWI469813B (zh) 在動作擷取系統中追踪使用者群組
CN105981076B (zh) 合成增强现实环境的构造
JP7008730B2 (ja) 画像に挿入される画像コンテンツについての影生成
KR101741864B1 (ko) 모션 캡처 시스템에서 사용자 의도 인식
JP5148660B2 (ja) プログラム、情報記憶媒体及び画像生成システム
CN105339867A (zh) 使用视觉逼真的对象显示
JP2010253277A (ja) ビデオゲームにおいてオブジェクトの動きを制御する方法およびシステム
JP2010257461A (ja) ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム
JP2001517344A (ja) カメラ・ベースの身振り入力を使用の仮想現実環境を通じての3次元航行を認めるためのシステムおよび方法
KR20180094799A (ko) 자동 국부적 햅틱 생성 시스템
JP2021125138A (ja) 情報処理装置、仮想・現実合成システム、学習済みモデルの生成方法、情報処理装置に実行させる方法、プログラム
JP2022526512A (ja) インタラクティブオブジェクト駆動方法、装置、機器、及び記憶媒体
US11073902B1 (en) Using skeletal position to predict virtual boundary activation
US11195320B2 (en) Feed-forward collision avoidance for artificial reality environments
US10582190B2 (en) Virtual training system
JPH10214344A (ja) インタラクティブ表示装置
JP3341734B2 (ja) 映像表示装置
JP2017086542A (ja) 画像変更システム、方法、及びプログラム
JPH1165814A (ja) インタラクティブシステム及び画像表示方法
JP5213913B2 (ja) プログラム及び画像生成システム
JP3939444B2 (ja) 映像表示装置
JP2020174329A (ja) 情報処理装置、表示方法およびコンピュータプログラム
WO2022249536A1 (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070409

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070515