JP2019219820A - 映像表示システム,映像表示方法,及びコンピュータプログラム - Google Patents

映像表示システム,映像表示方法,及びコンピュータプログラム Download PDF

Info

Publication number
JP2019219820A
JP2019219820A JP2018115602A JP2018115602A JP2019219820A JP 2019219820 A JP2019219820 A JP 2019219820A JP 2018115602 A JP2018115602 A JP 2018115602A JP 2018115602 A JP2018115602 A JP 2018115602A JP 2019219820 A JP2019219820 A JP 2019219820A
Authority
JP
Japan
Prior art keywords
camera
display screen
real object
display
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018115602A
Other languages
English (en)
Other versions
JP7174397B2 (ja
Inventor
寿之 猪子
Toshiyuki Inoko
寿之 猪子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TEAM LAB Inc
Original Assignee
TEAM LAB Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TEAM LAB Inc filed Critical TEAM LAB Inc
Priority to JP2018115602A priority Critical patent/JP7174397B2/ja
Priority to SG11202012676UA priority patent/SG11202012676UA/en
Priority to PCT/JP2019/007477 priority patent/WO2019244409A1/ja
Priority to EP19822530.2A priority patent/EP3809242A4/en
Priority to US17/253,615 priority patent/US11720166B2/en
Priority to CN201980040648.2A priority patent/CN112292656B/zh
Publication of JP2019219820A publication Critical patent/JP2019219820A/ja
Application granted granted Critical
Publication of JP7174397B2 publication Critical patent/JP7174397B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Abstract

【課題】表示画面上の実物体の位置に応じて映像を変化させる没入感と臨場感の高い表示システムを提供する。【解決手段】映像表示システム100は,特定のカメラ位置からの2次元の映像を生成する描画装置10と,その映像を表示画面上に表示する表示装置20と,その表示画面上における実物体の位置を検出するセンサ装置30を備える。描画装置10は,カメラ位置を移動させるとともに,表示画面上における実物体の位置に基づいて映像内に所定のオブジェクトを出現させる。【選択図】図1

Description

本発明は,映像表示システム,映像表示方法,及びコンピュータプログラムに関する。具体的に説明すると,本発明は,仮想空間内に軌跡(“空書”)を描くためのシステムなどに関する。
従来から,アミューズメント用のシステムとして,例えば,スクリーンに投影された赤外線の影を撮像して得られた赤外線撮像データからユーザの可視的影データを生成し,この可視的影データをスクリーンに表示するシステムが知られている(特許文献1)。このシステムによれば,床面上のスクリーンに投影される映像にユーザの影を映し出すとともに,その影の加工画像をスクリーンにリアルタイムに表示することができるとされている。
特開2009−265853号公報
ところで,特許文献1のシステムは,床面の表示画面にユーザの影は投影されるに過ぎす,このシステムでは,ユーザ自身がその映像空間内に入り込んだような没入感を与えることはできない。また,特許文献1のシステムでは,ユーザの影の映像が加工されるに過ぎず,その映像空間内にユーザの形跡が残ることはないため臨場感に欠けるという課題がある。
そこで,本発明は,表示画面上の実物体の位置に応じて映像を変化させる表示システムにおいて,没入感や臨場感を高めることを主たる目的とする。
本発明の発明者は,上記課題の解決手段について鋭意検討した結果,仮想空間内を移動するカメラ視点の映像を表示画面に表示するとともに,この表示画面上における実物体(例えば人物)の位置を検出して,その実物体の位置に基づき,仮想カメラの移動に伴ったオブジェクトを映像内に出現させることを発案した。これによれば,実物体があたかも仮想カメラによって写し出される空間内に存在するような没入感と臨場感を提供することが可能になる。そして,本発明者は,上記知見に基づけば従来技術の課題を解決できることに想到し,本発明を完成させた。具体的に説明すると,本発明は以下の構成・工程を有する。
本発明の第1の側面は,映像表示システムに関する。本発明に係るシステムは,基本的に,描画装置,表示装置,及びセンサ装置を備える。描画装置は,特定のカメラ位置からの2次元の映像を生成する。表示装置は,描画装置が生成した映像を表示画面上に表示する。表示装置は,例えば液晶ディスプレイや有機ELディスプレイであってもよいし,スクリーンに映像光を投影するプロジェクタであってもよい。また,表示画面は,床面や壁面に形成することができる。センサ装置は,表示装置の表示画面上における実物体の位置を検出する。実物体は,人物全体や,人物の腕や指などの一部分,あるいは人以外の物品であってもよい。そして,描画装置は,カメラ位置を移動させるとともに,表示画面上における実物体の位置に基づいて映像にオブジェクトを出現させる。カメラ位置(すなわちカメラ視点)は,平面的な2次元の仮想空間内を2次元的に移動制御されるものであってもよいし,立体的な3次元の仮想空間内を3次元的又は2次元的に移動制御されるものであってもよい。また,オブジェクトの例は,後述する軌跡オブジェクトであってもよいし,その他,仮想空間内に出現する様々な2次元又は3次元オブジェクトであってもよい。例えば,表示画面上に位置する人物の足元からオブジェクト(光彩や,花びら,生物などの様々なもの)が発生するようにしてもよい。
上記構成のように,2次元又は3次元の映像空間において仮想カメラを移動させ,その仮想カメラの移動に伴って実物体の位置に基づいて映像空間内にオブジェクトを表示することにより,表示画面上の実物体が映像空間内を移動しているような没入感を提供することができる。また,実物体の位置に基づいてオブジェクトが出現するため,あたかもその実物体が映像空間内に影響を与えているかのような臨場感を提供することができる。
本発明において,描画装置は,カメラ位置が移動したときに,表示画面上における実物体の位置を起点として,カメラ位置の移動方向に伸びる軌跡オブジェクトを映像内に出現させることが好ましい。これにより,実物体の位置を起点として映像空間内に軌跡オブジェクトが描かれることとなる。軌跡オブジェクトはデジタルアート作品となり,例えばユーザはその作品の製作に参加することができるようになる。
本発明の好ましい実施形態において,描画装置は,ワールド座標系(X,Y,Z)で表現された3次元空間を,特定のカメラ位置(X,Y,Z)からのスクリーン座標系(U,V)に変換して2次元の映像を生成する。表示装置は,描画装置が生成した映像を表示画面上に表示する。センサ装置は,表示画面上における実物体の位置を検出する。ここで,描画装置は,カメラ位置を3次元空間内で移動させるとともに,実物体の表示画面上の位置座標(U,V)を3次元空間の空間座標(X,Y,Z)に変換する。そして,描画装置は,その空間座標に基づいて3次元空間内にオブジェクトを生成する。
上記構成のように,カメラ位置を移動させながら3次元空間内の映像を表示画面上に描画することにより,その表示画面上の実物体が3次元空間内を漂っているような更なる没入感を提供することができる。また,表示画面上に実物体が位置している場合に,その実物体の位置座標を3次元空間内に反映させて,その空間内にオブジェクトを発生させることにより,あたかもその実物体が3次元空間内に影響を与えているかのような臨場感を提供することができる。これにより,さらに迫力のある映像をリアルタイムに生成することが可能となる。
本発明において,描画装置は,カメラ制御部とオブジェクト生成部を含むことが好ましい。カメラ制御部は,カメラ位置の移動を制御する。オブジェクト生成部は,実物体の3次元空間の空間座標(X,Y,Z)が変化したときに,その変化の前後における空間座標を繋ぐ軌跡オブジェクトを3次元空間内に生成する。本発明においては,カメラ位置の移動や実物体の移動により実物体の3次元空間における空間座標が変化することとなるが,その際に,変化の前後における空間座標を繋ぐように軌跡オブジェクトを生成する。これにより,実物体の位置を起点として3次元空間内に立体的な軌跡オブジェクトが描かれることとなる。3次元空間内の軌跡オブジェクトはいわば“空書”と呼ばれるデジタルアート作品となり,例えばユーザはその作品の製作に参加することができるようになる。
本発明において,描画装置のカメラ制御部は,カメラ位置を回転支点として,仮想カメラが3次元空間内を移動するように制御することとしてもよい。カメラ位置を回転支点として仮想カメラを移動させることで,スクリーン座標系(U,V)が仮想空間内を大きく移動するため,ダイナミックな“空書”を作成することができる。
本発明において,描画装置のカメラ制御部は,実物体の3次元空間の空間座標(X,Y,Z)が予め定められた軌跡上に沿って変化するように,カメラ位置を移動させることとしてもよい。予め定められた軌跡上とは,例えば文字,図形,記号などを描くための軌跡である。これにより,3次元空間内に所定の文字などを描く演出を行うことができる。
本発明において,例えば3次元空間内に文字を描画するときに,描画装置のカメラ制御部は,実物体の3次元空間の空間座標(X,Y,Z)を回転支点として,仮想カメラが3次元空間内を移動するように制御すると良い。前述したように,カメラ位置を回転支点として仮想カメラの移動を制御することも可能であるが,3次元空間内に文字等を描画する際に回転支点をカメラ位置としてしまうと,文字等の描画が難しくなる。そこで,自由に軌跡を描く場合と文字等を描く場合とでモードを分けておき,後者のモードの場合には,実物体の3次元空間の空間座標を回転支点として仮想カメラを移動することが好ましい。
本発明において。例えば表示画面上に複数の実物体が位置している場合に,カメラ制御部は,表示画面上の特定点に最も近くに位置する実物体の3次元空間の空間座標(X,Y,Z)が予め定められた軌跡上に沿って変化するように,カメラ位置を移動させることが好ましい。表示画面上の特定点としては,画面の中心点を設定してもよいし,その他の点を設定してもよい。表示画面上の実物体が例えば人物である場合に,3次元空間内に文字等を描いている途中でその人が表示画面上から居なくなる場合も想定される。そこで,3次元空間内に文字等を描く場合には,特定の人物の位置を起点として描画するのではなく,表示画面上の特定点の近くに居る人物を起点として描画することで,特定の人物が表示画面上から脱した場合でも,最後まで所定の文字等を描ききることができるようになる。
本発明において,表示装置は,床面に映像を表示するものであり,センサ装置は,床面上における人物の立ち位置を検出することが好ましい。このように床面上に3次元空間の映像を表示し,映像を写すカメラ位置を移動させることで,その画面上に立っている人物は3次元空間を浮遊しているような感覚を味わうことができる。また,人物の立ち位置を起点として3次元空間内に軌跡オブジェクトが描画されるため,その人物をアート作品の製作に参加させることができる。
本発明の第2の側面は,映像表示方法に関する。本発明に係る映像表示方法では,まず,描画装置が,特定のカメラ位置から2次元の映像を生成する。また,表示装置が,映像を表示画面上に表示する。また,センサ装置が,表示画面上における実物体の位置を検出する。さらに,描画装置が,カメラ位置を移動させるとともに,表示画面上における実物体の位置に基づいて前記映像にオブジェクトを出現させる
本発明に係る映像表示方法の好ましい実施形態では,まず,描画装置が,ワールド座標系(X,Y,Z)で表現された3次元空間を特定のカメラ位置からのスクリーン座標系(U,V)に変換して2次元の映像を生成する。また,表示装置は,描画装置が生成した映像を表示画面上に表示する。また,センサ装置は,表示画面上における実物体の位置を検出する。さらに,描画装置は,カメラ位置を3次元空間内で移動させるとともに,実物体の表示画面上の位置座標(U,V)を3次元空間の空間座標(X,Y,Z)に変換して,当該空間座標に基づいて3次元空間内にオブジェクトを生成する。
本発明の第3の側面は,コンピュータプログラムに関する。本発明に係るコンピュータプログラムは,コンピュータを,前述した第1の側面に係る映像表示システムにおける描画装置として機能させる。
本発明によれば,表示画面上の実物体の位置に応じて映像を変化させる表示システムにおいて,没入感や臨場感を高めることができる。
図1は,映像表示システムの構成を示した全体図である。 図2は,映像表示システムの機能構成例を示したブロック図である。 図3は,描画装置における描画処理の概要を示した模式図である。 図4は,3次元空間内に生成された軌跡オブジェクトの例を示している。 図5は,仮想カメラの回転支点の例を示している。 図6は,メインプレーヤとサブプレーヤの概念を示している。
以下,図面を用いて本発明を実施するための形態について説明する。本発明は,以下に説明する形態に限定されるものではなく,以下の形態から当業者が自明な範囲で適宜変更したものも含む。
図1は,本発明に係る映像表示システム100の全体図を示している。図1に示されるように,映像表示システム100は,描画装置10,表示装置20,及びセンサ装置30を備える。描画装置10は,本システム全体の管理制御を行うとともに,表示装置20に表示する映像を作成するためのコンピュータである。表示装置20は,描画装置10の制御に従って映像を表示するためのディスプレイである。本実施形態において,表示装置20は,床面に配置されており,その上に人が乗ることができるようになっている。センサ装置30は,表示装置20の表示画面上における実物体(特に人物)の位置を検出するためのセンサである。本実施形態において,センサ装置30は,光学センサであり,表示画面周囲の壁面に一又は複数台取り付けられている。センサ装置30は,表示画面上に赤外線等を照射し,表示画面上における実物体の位置を検出する。図1に示されているように,本システムによれば,例えば人物の位置を起点として所定方向に伸びる軌跡オブジェクトを表示画面上に表示することが可能となる。以下,本システムの構成について詳細に説明する。
図1は,映像表示システム100の機能構成例を示している。描画装置10は,表示装置20及びセンサ装置30に有線又は無線で接続されており,センサ装置30が検出した情報に応じて表示装置20に表示する映像を作成する機能を持つ。描画装置10は,一台のコンピュータによって実現されるものであってもよいし,複数台のコンピュータによって構築されたものであってもよい。描画装置10が複数台のコンピュータである場合,各コンピュータは有線又は無線で接続されていればよく,例えばインターネットなどのネットワークを介して接続されたものであってもよい。描画装置10は,基本的に描画処理部11と記憶部12とを有する。
描画処理部11は,表示装置20に表示する映像を描画するための装置であり,例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)といったプロセッサで構成される。描画処理部11は,記憶部12に記憶されているアプリケーションプログラム(コンピュータプログラム)を読み出し,このアプリケーションプログラムに従って所定の描画処理を行う。また,描画処理部11は,描画処理の結果やその途中経過を記憶部12に適宜書き込んだり読み出したりすることができる。描画処理部11を構成する各機能ブロックの詳細については,後述する。
記憶部12は,描画処理部11での描画処理等に用いられる各種情報を記憶するための要素である。具体的に説明すると,記憶部12は,汎用的なコンピュータを,本発明に係る映像表示制御システム100における描画装置10として機能させるアプリケーションプログラムを記憶している。記憶部12のストレージ機能は,例えばHDD及びSDDといった不揮発性メモリによって実現できる。また,記憶部12は,描画処理部11による演算処理の途中経過などを書き込む又は読み出すためのメモリとしての機能を有していてもよい。記憶部12のメモリ機能は,RAMやDRAMといった揮発性メモリにより実現できる。
表示装置20は,描画装置10が作成した映像を表示するためのディスプレイである。ディスプレイとしては,液晶ディスプレイや有機ELディスプレイなどの公知のものを採用できる。図1に示されるように人が乗れる程度の大型のディスプレイを構成する場合には,複数のディスプレイパネルをアレイ状に配置することとしてもよいし,一枚の大型のパネルを利用してもよい。また,本発明において,表示装置20はこのような床面ディスプレイに限定されず,壁面に掛けられたディスプレイであってもよい。また,表示装置20はディスプレイ型の装置に限定されず,例えば床面や壁面に設けられたスクリーンに映像光を投影するプロジェクタであってもよい。ただし,プロジェクタの場合には,映像の表示画面上に人物の影が写り込む可能性が高く,描画装置10が作成した軌跡オブジェクト等が見えにくくなる可能性がある。このため,本発明では,表示装置20としてディスプレイ型の装置を用いることが好ましい。
センサ装置30は,表示装置20が映像を表示した表示画面上(実空間)における実物体(特に人物)の位置を検出するためのセンサである。表示装置20がディスプレイである場合,「表示画面」とはそのディスプレイ上の面を意味する。また,表示装置20がプロジェクタである場合,「表示画面」とは映像の投影面(スクリーン面)を意味する。センサ装置30は,実空間における実物体の位置を検出可能な公知のセンサを用いることができ,例えば光学式センサの他,感圧式センサ,感熱式センサ,超音波センサ,静電容量式センサなどを用いることができる。図1に示した例では,センサ装置30として光学式センサを用いている。複数の光学式センサを壁面又は天井に取り付けておき,その光学式センサから表示画面上に赤外線を照射しその反射光を受光することで,表示画面上における人物等の位置を特定できる。また,ディスプレイ上に透明な感圧式センサを設けておき,ディスプレイに人が乗ったときにその感圧点を特定することで,表示画面上の人物の位置を特定することもできる。また,ディスプレイを壁面に設ける場合には,そのディスプレイの前面に静電容量式のタッチセンサを設けておいてもよい。このように,表示画面上の実物体の位置を検出する方法は特に制限されず,公知の方法を適宜採用できる。
続いて,図2及び図3を参照して,描画処理部11による映像の描画処理の詳細を説明する。図2に示されるように,描画処理部11は,基本的に,カメラ制御部11aと映像描画部11bを有する。カメラ制御部11aは,図3に示されるように,ワールド座標系(X,Y,Z)で表現された3次元の仮想空間内において,仮想カメラのカメラ視点を移動させる制御を行う。映像描画部11bは,この仮想カメラの視点から捉えた3次元仮想空間内の映像を描画する。すなわち,仮想カメラの視点から捉えた3次元仮想空間の映像が表示装置20に表示されることとなるため,仮想カメラの視点を移動させることで表示装置20に表示される映像も変化する。
具体的に説明すると,ワールド座標系は,直交するX軸,Y軸,及びZ軸を有する。ワールド座標系(X,Y,Z)は,3次元仮想空間内の座標点を特定するものである。3次元仮想空間内には,様々な3次元オブジェクト(例えば軌跡オブジェクト)が描画されているが,この3次元オブジェクトの座標はワールド座標系で特定される。また,ワールド座標系内の仮想カメラは,固有のカメラ座標系(U,V,W)を有する。なお,仮想カメラの位置座標は,ワールド座標系で特定される。カメラ座標系(U,V,W)は,その仮想カメラから見た左右方向がU軸となり,上下方向がV軸となり,奥行方向がW軸となる。これらのU軸,V軸,及びW軸は直交している。仮想カメラの位置は,ワールド座標系内におけるカメラ座標の原点(X,Y,Z)に相当する。また,仮想カメラの向きは,ワールド座標系内におけるカメラ座標の各座標軸(U軸,V軸,W軸)の方向に相当する。カメラ座標系の座標は,ワールド座標系の座標を視野変換(幾何学的変換)することで求めることができる。すなわち,視野変換では,映像描画部11bは,ワールド座標系の内のカメラ位置から見た映像を得るための座標変換を行う。
また,仮想カメラによって撮影される画面の2次元の範囲が,スクリーン座標系(U,V)となる。スクリーン座標系は,ディスプレイやプロジェクタなどの表示装置20に表示される2次元平面を定義する座標系である。スクリーン座標系(U,V)は,カメラ座標系のU軸及びV軸に相当するものである。スクリーン座標系(U,V)の座標は,仮想カメラによって撮影されたカメラ座標系の座標を投影変換(透視変換)することにより求めることができる。すなわち,投影変換では,映像描画部11bは,ワールド座標系で表現された3次元オブジェクトを2次元のスクリーン座標系に投影するための座標変換を行う。また,映像描画部11bは,スクリーン座標系に投影された2次元の映像を,表示装置20の表示画面(ビューポート)内に表示するためのビューポート変換を行う。これにより,映像描画部11bは,表示装置20に表示する映像を生成することができる。
このように,映像描画部11bは,カメラ制御部11aにより移動制御されている仮想カメラの位置及び向きに応じて,3次元空間内の座標点に対して視野変換,投影変換,及びビューポート変換を行うことで,表示装置20の表示画面上に表示する2次元の映像を描画することができる。
また,図2に示されるように,描画装置10の描画処理部11は,上記カメラ制御部11a及び映像描画部11bに加えて,位置座標特定部11b,座標変換部11d,及びオブジェクト生成部11eを有する。これらの各要素11b,11d,11eは,表示画面上における実物体の位置に応じて3次元仮想空間内に軌跡オブジェクトを生成するための機能を持つ。
図3(a)では,表示装置20の表示画面上に実物体(ユーザ)が位置している様子を模式的に示している。まず,位置座標特定部11bは,前述したセンサ装置30によるセンシング情報に基づいて,表示画面上における実物体の位置座標を特定する。すなわち,センサ装置30は,表示装置20が配置された実空間における実物体の位置を検出しているため,位置座標特定部11b,このセンサ装置30のセンシング情報を用いることで,表示装置20の表示画面上における位置座標を特定することができる。実物体の位置座標は,スクリーン座標系の座標点(U,V)として表される。例えば,図3に示した例では,表示画面上に2人のユーザが位置しており,それぞれの位置座標が(UO1,VO1)及び(UO2,VO2)で表されている。
次に,座標変換部11dは,位置座標特定部11bが特定したスクリーン座標系における実物体の位置座標(U,V)を,ワールド座標系における空間座標(X,Y,Z)に変換する座標変換処理を行う。すなわち,前述のように,ワールド座標系の3次元座標は,視野変換及び投影変換を行うことによりスクリーン座標系の2次元座標に変換することができるため,座標変換部11dは,これと逆の手順及び演算でスクリーン座標系の2次元座標(実物体の位置座標U,V)をワールド座標系の3次元座標(実物体空間座標X,Y,Z)に変換すればよい。このような逆座標変換を,本願明細書では「逆投影変換」と称している。図3に示した例では,表示画面上に2人のユーザが位置しており,それぞれのスクリーン座標系の位置座標が(UO1,VO1)及び(UO2,VO2)で表されている。このため,座標変換部11dは,これらの位置座標に対して逆投影変換を行い,各ユーザの位置座標から,ワールド座標系の空間座標(XO1,YO1,ZO1)及び(XO2,YO2,ZO2)を求める演算処理を行う。
上記のように,座標変換部11dは,実物体の位置座標(U,V)を空間座標(X,Y,Z)に変換する処理を繰り返し行うが,実物体の位置座標(U,V)が変化した場合,又は3次元仮想空間内の仮想カメラの位置座標(X,Y,Z)が変化した場合は,それに伴って実物体の空間座標(X,Y,Z)が変化することとなる。すなわち,例えば実空間においてユーザが表示画面上を歩いて移動した場合,そのユーザの位置座標(U,V)に伴って,3次元仮想空間内のユーザの空間座標(X,Y,Z)も変化する。また,実空間においてユーザが表示画面上で静止している場合であっても,3次元仮想空間内で仮想カメラの位置座標(X,Y,Z)が変化した場合,その仮想カメラの位置座標に伴って,3次元仮想空間内のユーザの空間座標(X,Y,Z)が変化する。このように,座標変換部11dは,随時変化するユーザの空間座標をリアルタイムに算出し,その変化する各空間座標を時間経過とともに記憶部12に記憶しておく。
次に,オブジェクト生成部11eは,座標変換部11dが求めた実物体(ユーザ)の空間座標(X,Y,Z)に基づいて,3次元仮想空間内に所定のオブジェクトを生成する。具体的に説明すると,図3(b)に示されるように,実物体の空間座標(X,Y,Z)が時間経過に伴って変化する場合に,オブジェクト生成部11eは,その変化の前後における空間座標を繋ぐようにして軌跡オブジェクトを3次元空間内に生成することが好ましい。図3(b)に示した例では,3次元仮想空間内における仮想カメラの位置の変化に伴って,実物体の空間座標が変化しており,その変化の軌跡を辿るようにして軌跡オブジェクトが生成されている。
なお,オブジェクト生成部11eが生成するオブジェクトは,上記した軌跡オブジェクトに限られず,実物体の空間座標に基づいて様々な演出用のオブジェクトを生成することが可能である。例えば,仮想カメラの移動に伴ってユーザの足元に花びらや草木,動物,光彩,陰影,波紋などが表示されることとしてもよいし,ユーザの足元の色彩が変化するようにしてもよい。このようなオブジェクトによる演出は,状況に応じて適宜設計することが可能である。
図4は,オブジェクト生成部11eが生成したオブジェクトの例を示している。図4(a)は,表示画面上の実物体の位置に応じて3次元仮想空間内に自由に軌跡オブジェクトを形成した場合の例を示している。この場合,カメラ制御部11aは,仮想カメラが3次元仮想空間内をランダムに移動するように制御してもよい。また,カメラ制御部11aは,予め定められた移動経路に沿って仮想カメラが次元仮想空間内を移動するように制御してもよい。仮想カメラの移動経路が定められている場合であっても,表示画面上のユーザ(実物体)の位置がランダムであるため,3次元仮想空間内にはランダムな形状の軌跡オブジェクトが生まれる。
図4(b)は,3次元仮想空間内の軌跡オブジェクトにより所定の文字を描いた場合の例を示している。すなわち,図4(b)に示した例では,“Happy Birthday”の文字に対応した軌跡オブジェクトが生成されている。この場合,カメラ制御部11aは,実物体の3次元仮想空間における空間座標が所定の文字をなぞって変化するように,仮想カメラの位置や向きを制御する。なお,軌跡オブジェクトによって文字を描く場合だけでなく,所定の数字や記号,キャラクタの輪郭などを描くことも可能である。文字等をなす軌跡オブジェクトが完成した後は,仮想カメラによってそれを正面側から撮影することにより,表示装置20の表示画面上にその文字がはっきりと映るようになる。
図5は,3次元仮想空間における仮想カメラの制御例を示している。図5(a)に示されるように,カメラ制御部11aは,仮想カメラの視点(X,Y,Z)を回転支点として,その仮想カメラの移動を制御してもよい。その場合,仮想カメラを少し動かすだけで,仮想空間内における表示画面が大きく動くこととなるため,ダイナミックな軌跡オブジェクトを生成することができる。このため,このような仮想カメラの制御態様は,図4(a)に示されるような自由な軌跡オブジェクトを生成するのに適している。
また,図5(b)に示されるように,カメラ制御部11aは,実物体の3次元空間の空間座標(X,Y,Z)を回転支点として,その仮想カメラの移動を制御してもよい。実物体の空間座標は軌跡オブジェクトの起点となるため,より正確に軌跡オブジェクトの形状を制御することができる。このため,このような仮想カメラの制御態様は,図4(b)に示されるような文字などの予め規定された軌跡オブジェクトを生成するのに適している。
図6は,表示画面上に複数の実物体が存在している場合の描画処理の一例を示している。例えば,図4(b)に示されるように,3次元仮想空間内に所定の文字を描くための軌跡オブジェクトを生成することを想定すると,表示画面上に複数の実物体が存在している場合には,その文字の軌跡の起点となる表示画面上の実物体を定める必要がある。その場合,例えば表示画面上の中心に最も近い1つの実物体(人物)をメインプレーヤ(MP)とし,それ以外の実物体をサブプレーヤ(SP)と設定し,メインプレーヤの3次元空間の空間座標が所定の文字の軌跡を辿るように仮想カメラを制御すればよい。図6(a)では,人物Aがメインプレーヤとして設定され,それ以外の人物B及び人物Cがサブプレーヤとして設定されている。他方で,図6(b)に示されるように,当初メインプレーヤとして設定されていた人物Aが表示画面上から離れて,その表示画面上の中心に最も近い人物が人物Bとなった場合には,メインプレーヤを人物Aから人物Bに切り替えればよい。また,図6(b)に示されるように,表示画面上に実物体が存在しない場合には,表示画面上の中心の空間座標を基点として,軌跡オブジェクトを生成すればよい。このようにすれば,表示画面上に複数の実物体が存在する場合や,実物体が移動した場合,あるいは表示画面上から実物体が居なくなった場合のいずれであっても,所定の文字を描くための軌跡オブジェクトを最後まで生成することができる。このため,軌跡オブジェクトが未完成で終わるといった事態を回避できる。
以上,本願明細書では,本発明の内容を表現するために,図面を参照しながら本発明の実施形態の説明を行った。ただし,本発明は,上記実施形態に限定されるものではなく,本願明細書に記載された事項に基づいて当業者が自明な変更形態や改良形態を包含するものである。
なお,本願明細書では,主に3次元の仮想空間内において仮想カメラを3次元的に移動させ,その3次元仮想空間内に立体的な軌跡オブジェクトを生成する実施形態を中心に説明を行った。ただし,本発明はこの実施形態に限定されるものではなく,例えば,3次元の仮想空間において仮想カメラを2次元的に移動させて平面的な軌跡オブジェクトを生成したり,その軌跡オブジェクトで文字を描いたりすることも可能である。また,3次元仮想空間内において仮想カメラを2次元的に移動させて,平面的な軌跡オブジェクトを生成することも可能である。
本発明は,“空書”と呼ばれるデジタルアート作品を作成するための映像表示システムやその方法に関する。従って,本発明は,デジタルアート産業やエンターテインメント産業において好適に利用しうる。
100…映像表示システム
10…描画装置
11…描画処理部
11a…カメラ制御部
11b…映像描画部
11c…位置座標特定部
11d…座標変換部
11e…オブジェクト生成部
12…記憶部
20…表示装置
30…センサ装置

Claims (11)

  1. 特定のカメラ位置からの2次元の映像を生成する描画装置と,
    前記映像を表示画面上に表示する表示装置と,
    前記表示画面上における実物体の位置を検出するセンサ装置と,を備え,
    前記描画装置は,前記カメラ位置を移動させるとともに,前記表示画面上における実物体の位置に基づいて前記映像にオブジェクトを出現させる
    映像表示システム。
  2. 前記描画装置は,前記カメラ位置が移動したときに,前記表示画面上における実物体の位置を起点として,前記カメラ位置の移動方向に伸びる軌跡オブジェクトを前記映像内に出現させる
    請求項1に記載の映像表示システム。
  3. 前記描画装置は,ワールド座標系(X,Y,Z)で表現された3次元空間を特定のカメラ位置からのスクリーン座標系(U,V)に変換して2次元の前記映像を生成するものであり,
    前記描画装置は,さらに,前記カメラ位置を3次元空間内で移動させるとともに,前記実物体の表示画面上の位置座標(U,V)を3次元空間の空間座標(X,Y,Z)に変換し,当該空間座標に基づいて3次元空間内に前記オブジェクトを生成する
    請求項1に記載の映像表示システム。
  4. 前記描画装置は,
    前記カメラ位置の移動を制御するカメラ制御部と,
    前記実物体の3次元空間の空間座標(X,Y,Z)が変化したときに,その変化の前後における空間座標を繋ぐ軌跡オブジェクトを3次元空間内に生成するオブジェクト生成部と,を含む
    請求項3に記載の映像表示ステム。
  5. 前記カメラ制御部は,前記カメラ位置を回転支点として,仮想カメラが3次元空間内を移動するように制御する
    請求項4に記載の映像表示システム。
  6. 前記カメラ制御部は,前記実物体の3次元空間の空間座標(X,Y,Z)が予め定められた軌跡上に沿って変化するように,前記カメラ位置を移動させる
    請求項4に記載の映像表示システム。
  7. 前記カメラ制御部は,前記実物体の3次元空間の空間座標(X,Y,Z)を回転支点として,仮想カメラが3次元空間内を移動するように制御する
    請求項6に記載の映像表示システム。
  8. 前記表示画面上に複数の実物体が位置している場合に,前記カメラ制御部は,前記表示画面上の特定点に最も近くに位置する実物体の3次元空間の空間座標(X,Y,Z)が予め定められた軌跡上に沿って変化するように,前記カメラ位置を移動させる
    請求項6に記載の映像表示ステム。
  9. 前記表示装置は,床面に映像を表示するものであり,
    前記センサ装置は,前記床面上における人物の立ち位置を検出する
    請求項1から請求項8のいずれかに記載の映像表示システム。
  10. 描画装置が,特定のカメラ位置から2次元の映像を生成する工程と,
    表示装置が,前記映像を表示画面上に表示する工程と,
    センサ装置が,前記表示画面上における実物体の位置を検出する工程と,
    前記描画装置が,前記カメラ位置を移動させるとともに,前記表示画面上における実物体の位置に基づいて前記映像にオブジェクトを出現させる工程と,を含む。
    映像表示方法。
  11. コンピュータを請求項1に記載の映像表示システムにおける前記描画装置として機能させるためのコンピュータプログラム。
JP2018115602A 2018-06-18 2018-06-18 映像表示システム,映像表示方法,及びコンピュータプログラム Active JP7174397B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2018115602A JP7174397B2 (ja) 2018-06-18 2018-06-18 映像表示システム,映像表示方法,及びコンピュータプログラム
SG11202012676UA SG11202012676UA (en) 2018-06-18 2019-02-27 Video display system, video display method, and computer program
PCT/JP2019/007477 WO2019244409A1 (ja) 2018-06-18 2019-02-27 映像表示システム,映像表示方法,及びコンピュータプログラム
EP19822530.2A EP3809242A4 (en) 2018-06-18 2019-02-27 VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD AND VIDEO DISPLAY PROGRAM
US17/253,615 US11720166B2 (en) 2018-06-18 2019-02-27 Video display system, video display method, and computer program
CN201980040648.2A CN112292656B (zh) 2018-06-18 2019-02-27 影像显示系统、影像显示方法及记录计算机程序的计算机能读取的记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018115602A JP7174397B2 (ja) 2018-06-18 2018-06-18 映像表示システム,映像表示方法,及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2019219820A true JP2019219820A (ja) 2019-12-26
JP7174397B2 JP7174397B2 (ja) 2022-11-17

Family

ID=68983649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018115602A Active JP7174397B2 (ja) 2018-06-18 2018-06-18 映像表示システム,映像表示方法,及びコンピュータプログラム

Country Status (6)

Country Link
US (1) US11720166B2 (ja)
EP (1) EP3809242A4 (ja)
JP (1) JP7174397B2 (ja)
CN (1) CN112292656B (ja)
SG (1) SG11202012676UA (ja)
WO (1) WO2019244409A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022191276A1 (ja) * 2021-03-10 2022-09-15 株式会社ネクステッジテクノロジー 操作入力装置、操作入力方法及びプログラム
JP7414707B2 (ja) 2020-12-18 2024-01-16 トヨタ自動車株式会社 画像表示システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000232660A (ja) * 1999-02-10 2000-08-22 Nippon Telegr & Teleph Corp <Ntt> 3次元協調仮想空間における映像表示方法及びそのプログラムを記録した記録媒体
JP2008090617A (ja) * 2006-10-02 2008-04-17 Toshiba Corp 立体画像生成装置、方法およびプログラム
JP2009265853A (ja) * 2008-04-23 2009-11-12 Sony Corp アミューズメントシステム、データ処理方法及びプログラム
JP2017187882A (ja) * 2016-04-04 2017-10-12 セイコーエプソン株式会社 画像処理に用いられるコンピュータープログラム
JP6276882B1 (ja) * 2017-05-19 2018-02-07 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07306955A (ja) 1992-07-24 1995-11-21 Walt Disney Co:The 三次元イリュージョンを生み出す方法およびシステム
JP5638797B2 (ja) * 2009-12-25 2014-12-10 株式会社カプコン ゲーム装置およびゲームプログラム
JP5711962B2 (ja) * 2010-12-27 2015-05-07 株式会社ソニー・コンピュータエンタテインメント ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
JP6088127B2 (ja) * 2011-10-13 2017-03-01 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
US9513720B2 (en) * 2012-08-30 2016-12-06 Panasonic Intellectual Property Corporation Of America Stylus detecting device and stylus detecting method
JP6393518B2 (ja) * 2014-05-15 2018-09-19 チームラボ株式会社 3次元ディスプレイ及びデータ生成方法
JP2016038621A (ja) * 2014-08-05 2016-03-22 アルパイン株式会社 空間入力システム
US10268284B2 (en) * 2015-07-29 2019-04-23 Maxell, Ltd. Image display system
JP6419278B1 (ja) * 2017-09-19 2018-11-07 キヤノン株式会社 制御装置、制御方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000232660A (ja) * 1999-02-10 2000-08-22 Nippon Telegr & Teleph Corp <Ntt> 3次元協調仮想空間における映像表示方法及びそのプログラムを記録した記録媒体
JP2008090617A (ja) * 2006-10-02 2008-04-17 Toshiba Corp 立体画像生成装置、方法およびプログラム
JP2009265853A (ja) * 2008-04-23 2009-11-12 Sony Corp アミューズメントシステム、データ処理方法及びプログラム
JP2017187882A (ja) * 2016-04-04 2017-10-12 セイコーエプソン株式会社 画像処理に用いられるコンピュータープログラム
JP6276882B1 (ja) * 2017-05-19 2018-02-07 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7414707B2 (ja) 2020-12-18 2024-01-16 トヨタ自動車株式会社 画像表示システム
WO2022191276A1 (ja) * 2021-03-10 2022-09-15 株式会社ネクステッジテクノロジー 操作入力装置、操作入力方法及びプログラム
JP7452917B2 (ja) 2021-03-10 2024-03-19 株式会社ネクステッジテクノロジー 操作入力装置、操作入力方法及びプログラム

Also Published As

Publication number Publication date
CN112292656B (zh) 2024-02-20
EP3809242A4 (en) 2022-03-09
CN112292656A (zh) 2021-01-29
WO2019244409A1 (ja) 2019-12-26
SG11202012676UA (en) 2021-02-25
EP3809242A1 (en) 2021-04-21
US11720166B2 (en) 2023-08-08
JP7174397B2 (ja) 2022-11-17
US20210263583A1 (en) 2021-08-26

Similar Documents

Publication Publication Date Title
JP2022540315A (ja) 人工現実環境において周辺デバイスを使用する仮想ユーザインターフェース
US9292083B2 (en) Interacting with user interface via avatar
CN102915112B (zh) 用于近距离动作跟踪的系统和方法
CN105723302B (zh) 布尔/浮点控制器和姿势识别系统
JP2019149202A5 (ja)
Beattie et al. Taking the LEAP with the Oculus HMD and CAD-Plucking at thin Air?
JP4851504B2 (ja) デジタル・イメージ・キャプチャを用いて対話型エンタテインメントのためにアセットを生成する方法
JP2013037675A5 (ja)
JP5449422B2 (ja) 画面スクロール装置,画面スクロール方法,及びゲーム装置
JP2013532337A (ja) 携帯デバイスと有体物とがインタラクションするシステム
US7695367B2 (en) Storage medium having game program stored thereon and game apparatus
EP3814876B1 (en) Placement and manipulation of objects in augmented reality environment
JP2014531693A (ja) 動き制御されたリストスクローリング
WO2019244409A1 (ja) 映像表示システム,映像表示方法,及びコンピュータプログラム
JP5350003B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
JP2013225321A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
KR20140078083A (ko) 증강 현실이 구현된 만화책
JP6480537B2 (ja) 情報処理装置,情報処理方法,及びゲーム装置
JP6235544B2 (ja) プログラム,コンピュータ装置,画面制御方法,及びシステム
US9041669B1 (en) Input/output device
US10928932B2 (en) 3D mouse for computers
WO2016057997A1 (en) Support based 3d navigation
JP5826244B2 (ja) ゲームシステム
Xie et al. Natural Bare-Hand Interaction for Remote Operating Large Touch Screen.
JP5980752B2 (ja) 情報処理装置,情報処理方法,及びゲーム装置

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180626

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221028

R150 Certificate of patent or registration of utility model

Ref document number: 7174397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150