JP2004280250A - Apparatus and method for processing information - Google Patents

Apparatus and method for processing information Download PDF

Info

Publication number
JP2004280250A
JP2004280250A JP2003068111A JP2003068111A JP2004280250A JP 2004280250 A JP2004280250 A JP 2004280250A JP 2003068111 A JP2003068111 A JP 2003068111A JP 2003068111 A JP2003068111 A JP 2003068111A JP 2004280250 A JP2004280250 A JP 2004280250A
Authority
JP
Japan
Prior art keywords
resolution
data
image
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003068111A
Other languages
Japanese (ja)
Inventor
Akihiro Katayama
昭宏 片山
Takaaki Endo
隆明 遠藤
Daisuke Kotake
大輔 小竹
Yukio Sakakawa
幸雄 坂川
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003068111A priority Critical patent/JP2004280250A/en
Publication of JP2004280250A publication Critical patent/JP2004280250A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system for displaying a view the user desires to watch in high resolution using a walk-through experience system with a live-action data. <P>SOLUTION: A virtual space experience system, which enables the user to experience a walk-through in a virtual space, comprises a means for selecting a content, a means for specifying a movable path within the content, a means for specifying the resolution for a data, a means for acquiring the data based on the content being selected, the path being specified, and the resolution being specified, an operational means for controlling a view point and a view direction, and a means for generating an image, which extracts the image corresponding to the view point specified from the acquisition data, generates a part of the image corresponding to the view direction specified, and displays the part of the image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、実空間の撮影によって得られた画像データをもとに仮想空間を表現するものに関する。
【0002】
【従来の技術】
移動体に搭載された撮影装置によって撮影された実写画像データをもとに、撮影した現実空間を仮想空間として表現する手法としては、実写画像データをもとに現実空間の幾何形状モデルを再現し、従来のCG技術で表現する手法が挙げられるが、モデルの正確性や精密度、写実性などの点で限界がある。一方、モデルを用いた再現を行わずに、実写画像を用いて仮想空間を表現するImage−Based Rendering(IBR)技術が近年注目を集めている。IBR技術は実写画像に基づいているために、写実的な仮想空間の表現が可能である。
【0003】
このようなIBR技術を用いてウォークスルー可能な仮想空間を構築するためには、体験者の仮想空間内の位置に応じた画像の生成・呈示を行う必要がある。そのため、この種のシステムにおいては、実写画像データの各フレームと仮想空間内の位置とを対応付けて保存しておき、体験者の仮想空間における位置と視線方向に基づいて対応するフレームを取得し、これを再生する。
【0004】
このような仮想空間内のウォークスルーにおいては、体験者が各視点位置で所望の方向を見ることができるようにする。このため、各視点位置の画像を、再生時の画角よりも広い範囲をカバーするパノラマ画像で保存しておき、体験者の仮想空間における視点位置と視線方向とに基づいてパノラマ画像を選択するとともに、再生すべき部分画像を切り出してこれを表示することが考えられる。この場合、実写画像データを再生するので、撮影装置を搭載した車輌が走る道に沿ってパノラマ画像の再生が行われ、観察者はあたかも自分がその車輌に乗って走っているかのような感覚を味わうことができる。また、ウォークスルーによる再生画像が交差点に進入し、観察者が実際の車輌の動きとは異なる方向の道を選択すると、再生されていたパノラマ画像群とは異なるパノラマ画像群に切り替わり、新たな進路でのパノラマ画像の再生が行われる。
【0005】
この種のVRシステムとして、特開平9−62861号には、パノラマ画像の系列を保持しておき、ユーザの操作に応じて所定のパノラマ画像が再生されるシステムが開示されている。また、特開2001−008232号には、ウォークスルーしたい経路をユーザが指定できるようなVRシステムが開示されている。
【0006】
【発明が解決しようとする課題】
しかしながら、前記従来例では、ウォークスルーに使用するデータは1つの経路に対して、単一の解像度のデータしか保持していないため、より解像度の高い高画質な映像を見たというユーザの要求を満足させることができない。また、ネットワークを介してデータを取得する場合には状況に応じてデータ量を加減したいが、単一の解像度のデータしか持たない場合には駒落としをする等対処法が限定される。
【0007】
特開2001−008232号には、コンテンツの経路を指定することが開示されているが、データの解像度に関してはなんら開示されていない。一般に経路を指定するからにはその経路上に見たいオブジェクトが存在するはずであり、そのオブジェクトに近い位置にある(あるいは大きく写っているなど)データの解像度は高いほうが望ましい。これを実現する最も簡単な方法はあらかじめ解像度を変えて各フレームのデータを生成しておくことであるが、ユーザごとに興味の対象が異なるため、結局すべてのデータに対して複数の解像度のデータを持たないとすべてのユーザの要求を満足させることができない。
【0008】
また、ユーザにとって興味のあるオブジェクトが、指定された経路上にまばらに存在する場合に、経路上のすべてのデータを取得するのは無駄である。
本発明は、上記の課題に鑑みてなされたものであり、その目的は、データ量を抑えつつユーザの興味のある対象を高画質に表示することが可能なウォークスルーシステムを提供することにある。
【0009】
【課題を解決するための手段】
上記の目的を達成するための本発明は以下の構成を有することを特徴とする。
【0010】
本願請求項1記載の発明は、仮想空間をウォークスルーすることが可能である仮想空間体験システムで適用可能な情報処理装置であって、コンテンツを選択するコンテンツ選択手段と、前記コンテンツ内の移動可能な経路を指定する経路指定手段と、データの解像度を指定する解像度指定手段と、前記選択されたコンテンツ、前記指定された経路、前記指定された解像度に基づき、データを取得するデータ取得手段と、視点位置、視線方向を制御する操作手段と、前記取得したデータから、前記指定された視点位置に応じた画像を取り出し、指定された視線方向に対応する部分画像を生成し表示させる画像生成手段とを備えることを特徴とする。
【0011】
本願請求項4記載の発明は、仮想空間をウォークスルーすることが可能である仮想空間体験システムで適用可能な情報処理方法であって、ユーザの指示に応じて、任意の対象物にかかる取得するデータの解像度を指定する解像度指定工程と、前記解像度指定手段によって指定された解像度に応じて、データを取得するデータ取得工程と、視点位置、視線方向を制御する操作工程と、前記取得したデータから、前記視点位置、視線視点位置に応じた部分画像を生成する生成工程とを有することを特徴とする。
【0012】
【発明の実施の形態】
以下、添付図面を参照しながら、本発明の好適な実施形態を説明する。
【0013】
<第1実施形態>
まず、本実施形態による仮想空間のウォークスルーシステムについて説明する。本実施形態では、例えば自動車などの移動体に搭載された複数の撮影装置によって撮影して得られた実写画像データからパノラマ画像データを生成し、このパノラマ画像データを、現実空間の位置に対応する地図上の位置と対応付けてサーバ等に蓄積する。この際に、パノラマ画像データの各フレームを複数の異なる解像度のデータとして保持する。異なる解像度のデータは、階層的符号化などを用いて符号化しておいてもよい。再生システムは、サーバから撮影位置や撮影方向、地図などの情報と、指定された経路の低解像度パノラマ画像データおよびユーザによって指定されたフレームの高解像度パノラマ画像データを取得しながら、体験者の仮想空間における視点位置(地図上の位置)と視線方向に応じて、保持されているパノラマ画像データから表示画像を生成し、経路情報が示された地図とともに表示することにより、仮想空間内のウォークスルーを実現する。
【0014】
図1は本実施形態によるウォークスルーシステムの機能構成を説明するブロック図である。本ウォークスルーシステムを構成する画像再生装置1は、通信部4、コンテンツ選択部5、データ取得部10、データ蓄積部15、対応付けデータ保持部20、地図データ保存部25、経路情報合成部30、取得済経路情報保持部35、操作部40、視点位置・視線方向決定部45、対応画像決定部50、表示画像合成部55、表示部60、画像生成部65を有する。
【0015】
図2は、本実施形態における画像再生装置1のハード構成を示すブロック図である。図2に示したハード構成は通常のパーソナルコンピュータの構成と同等である。図2において、ディスク105はデータ蓄積部15を構成するものである。なお、ディスク105は上述の画像データ蓄積部15のみならず、図1に示した対応付けデータ保持部20、地図データ保持部25、取得済経路情報保持部35をも構成するものである。
【0016】
CPU101は、ディスク105またはROM106、または外部記憶装置(不図示)に保存されているプログラムを実行することにより、コンテンツ選択部5、経路情報合成部30、視点位置・視線方向決定部45、対応画像決定部50、画像生成部65として機能する。
【0017】
CPU101が表示コントローラ102に対して各種の表示指示を行うことにより、表示コントローラ102およびフレームバッファ103によって表示器104に所望の表示がなされる。なお、図では表示コントローラ102としてCRTC、表示器104としてCRTを示したが、表示器としては陰極線管に限らず、液晶表示器等を用いてもよいことはもちろんである。なお、CRTC102、フレームバッファ103及びCRT104は、上述の表示部60を構成する。マウス108、キーボード109及びジョイスティック110は、当該画像再生装置1へのユーザの操作入力を行うためのものであり、上述の操作部40を構成する。
【0018】
次に、以上の構成を備えた本実施形態のウォークスルーシステムにおける、画像再生装置1の各部の機能概要について説明する。
【0019】
通信部4は、各部からの要求に応じて外部のサーバとデータのやり取りを行う。コンテンツ選択部5は、外部のサーバに蓄積されているコンテンツをユーザに提示し、コンテンツをユーザに選択させる。同時に、コンテンツに含まれるオブジェクトデータも提示し、高解像度で表示する対象を指定させる。
【0020】
図24にコンテンツ選択画面の一例とオブジェクト指定画面の一例を示す。図24(a)に示す画面において、リスト表示されたコンテンツの番号を入力するとコンテンツが選択される。コンテンツ選択画面としては、地図上に場所を表すマークを配置し、これをクリックすることにより選択動作を行ってもよい。図24(b)は、一例として京都が選択されたときのオブジェクト指定画面を表している。721〜727はオブジェクトを表している。ここではユーザが図中の丸をクリックすると、高解像度データで取得するオブジェクトに指定される。図中のオブジェクト723、727が黒丸になっているが、これは高解像度データに設定されたことを表している。それ以外は低い解像度に設定される。
【0021】
データ取得部10は、コンテンツ選択部5で指定された情報を基に、ネットワーク上のサーバあるいはローカルな記憶装置より地図情報、撮影位置・方位情報、撮影画像データなどの必要なデータを順次ダウンロードする。撮影画像データは、低解像度のもの(高解像度に指定されたオブジェクトの低解像度データを含む)をすべて取得した後、高解像度に指定されたオブジェクトのデータを取得する。低解像度データのダウンロード順は、予めサーバにおいて決定されているか、または、クライアントである画像再生装置1からのリクエストにより決定される。高解像度データに関しても同様である。このようにユーザの興味のある対象物のみを高解像度で、その他は低解像で取り込むことにより、見たい部分を高画質に再現しつつ、トータルのデータ量を押さえることができるため、表示のリアルタイム性を確保できる。また、ユーザに興味のあるものを指定させることにより、無駄なデータの取得を回避することができる。
【0022】
データ蓄積部15は、データ取得部10で獲得された画像データ(地図上の各位置に対応したパノラマ画像データ)を格納する。対応付けデータ保持部20は、データ蓄積部10に格納された画像データと地図データ保持部25に格納された地図との対応情報を保持する。地図データ保持部25は、データ取得部10で獲得された、少なくともデータ蓄積部15に保存されたパノラマ画像データに対応した地図上の位置を包含する地図データを格納する。取得済経路情報保持部35は、データ蓄積部15に蓄積された取得済みの画像データに対応する経路情報(これを部分経路情報と呼び、その情報で示される経路を部分経路と呼ぶことにする。)とデータ取得部10がサーバからダウンロード予定の画像データ全体に対応する経路情報(これを全経路情報と呼び、その情報で示される経路を全経路と呼ぶことにする)とを保持する。各経路情報は、後述のIDを利用して表現する。
【0023】
図14に、取得済経路情報保持部35が保持する経路情報の一例を示す。ダウンロード予定の画像データ(交差点や道路など)がリストとして保持され、取得済のものには「1」、未取得のものには「0」が記録されている。図中、IDで示された交差点や道のリスト全体が全経路を表し、このうちダウンロード済みの欄に「1」が記録されている交差点や道の集合が部分経路を表す。図14(b)中の高解像度の欄は、道セグメント全体を高解像度まで取得するかどうかを表している。この欄に「1」が記載されている場合は、低解像度のデータに加えて、高解像でのデータまで取得することを意味する。「0」の場合は、低解像度のみのデータを取得することを表す。ここでは道単位で高解像度にするかどうかを決定しているが、もちろん、道を構成するパノラマ画像単位に高解像度、低解像度を指定してもよい。但し、パノラマ画像単位に指定する場合、隣接するパノラマ画像間で解像度が急激に変化するときがある。その場合は、2種類の解像度ではなく、もっと多くの種類の解像度データを用意し、隣接パノラマ画像間で滑らかに変化するようにそれぞれのパノラマ画像の解像度を設定すればよい。
【0024】
経路情報合成部30は、地図データ保持部25に格納された地図と取得済経路情報保持部35に格納された部分経路情報と全経路情報との三者を合成する。ここで地図に合成される全経路情報の色は、部分経路情報の色と異なるようすることで、ダウンロードを予定しているデータの範囲と既取得のデータ範囲が把握でき、自由にウォークスルー可能な領域の情報をユーザに提供できる。また、カラー表示ができないモニタなどに表示する際には、色を変えるのではなく、地図上に合成する全経路情報と部分経路情報との線幅や種類を異なるようにすることでも同様の目的を達成できる。また、色と線幅の変更を同時に実現することも可能であり、全経路情報を薄く細い線で、部分経路情報を濃く太い線で表示するとより鮮明に表示することが可能である。
【0025】
図9(a)は、地図データ保持部25に格納された地図の一例であり、図9(b)(c)はそれぞれ全経路、部分経路の一例を示す。図10に、これら3者を合成した画像を示す。ここでは薄い色で全経路を、また、濃い色で部分経路を表示している。丸印は視点位置、矢印は視線方向を表している。
【0026】
操作部40は、マウス、キーボード、ジョイスティック等を備える。操作部40は、視点位置の移動パラメータ、視線方向の回転パラメータを生成する。また、コンテンツ選択、オブジェクトの指定等の機能を担う。本実施形態では、操作部40でジョイスティックを用いているが、ゲームコントローラなど他の入力装置でも同様の操作を行うことが可能である。図3は、操作部40におけるジョイスティックの操作と移動パラメータ、回転パラメータの関係を示す図である。ジョイスティックは、スティックの傾斜とスティックの回転を独立に制御することができる。本実施形態では、ジョイスティックを前後に倒す操作を仮想空間内での視点位置の移動に、ジョイスティックを左右に捻る操作を視線方向の変化に対応させている。
【0027】
図4は、操作部40におけるデータの流れを表す図である。操作部40からは、視点位置・視線方向決定部45に対して、ジョイスティックの前後の倒し角α(α>0、後へ倒した場合は負の値)が移動パラメータとして、左右の捻り角β(β>0、右へ捻った場合は負の値)が回転パラメータとして与えられる。
【0028】
視点位置・視線方向決定部45は、操作部40からの移動パラメータ、回転パラメータをもとに、地図データ保持部25に保存されている地図データ上における観察者の視点位置(地図上の位置)、視線方向を決定する。
【0029】
図5は、視点位置・視線方向決定部45におけるデータの流れを示す図である。視点位置・視線方向決定部45は、地図データ保持部25から地図データを、また取得済経路情報保持部35から全経路情報及び部分経路情報を獲得し、対応画像決定部50に対して、観察者の地図上の視点位置及び視線方向を与える。この部分での処理に関して、図12を用いて詳しく説明する。
【0030】
図12は、本提案システムの表示手段に表示される画面の一例を示している。図中の左上に経路情報が重畳された地図が表示され、ここにユーザの現在の観察位置が丸印で、見ている方向が矢印で示されている。また、地図中の薄い色で示された経路は全経路であり、より濃い色で示された経路が部分経路である。視点位置・視線方向決定部45では、操作部40からの情報を元に地図上での視点位置・視線方向を決定するが、操作部40からの情報をもとに計算した地図上での視点位置が部分経路上にない場合は、移動を制限する。
【0031】
このように、部分経路上でのみ移動を可能にすることにより、移動範囲は制限されるが、滑らかなウォークスルーを実現することができ、全経路データをすべてダウンロードしてからウォークスルーする場合に比べて、ユーザの待ち時間が少なくなる。また、サーバからのデータ取得はバックグラウンドで継続されており、ユーザに特別な負荷をかけることなく、時間の経過と共にウォークスルー可能な部分経路が増える。そのため、ユーザはネットワークの状態を特に意識することなくウォークスルーに専念できる。また、経路データを低解像度データと高解像度データに分け、最初に低解像度データのみを取得して表示することにより、表示のまでの時間をよりいっそう短縮することができる。その後、付加分である高解像度データを取得することにより、ユーザの興味のある部分をより高画質に表現することができる。
【0032】
対応画像決定部50は、観察者の視点位置・視線方向の情報をもとに画像生成部65で画像を生成するために必要な画像のIDを決定する。
【0033】
図6は、対応画像決定部50におけるデータの流れを示す図である。視点位置・視線方向決定部45で決定された体験者の仮想空間内における視点位置、視線方向及び対応付けデータ保存部20に保存されている地図と画像の対応情報データから、表示画像合成部55で使用する画像を生成するのに必要なデータ蓄積部15に保存されている画像を決定し、画像生成部65に決定された画像のIDを渡す。
【0034】
なお、対応付けデータ保存部20において、本実施形態では次のデータ格納形態をとる。すなわち、交差点(分岐点)や曲がり角を区分点とし、区分点と区分点で挟まれた線分を道として、各区分点、道にIDを割り当て、このIDを対応するパノラマ画像に付加する。1つの道に対応するパノラマ画像群には、先頭から順に番号が振られる。
【0035】
図7はこの様子を説明する図である。図7において、例えばIDがC1である区分点とC2である区分点に挟まれた線分(道)にR1というIDが付与されている。なお、これらIDや地図との対応は、地図データ保持部25に保存されている。
【0036】
GPSデータ等に基づいて区分点C1とC2に対応する画像フレームが特定されると、それらのフレームに挟まれたパノラマ画像群が道R1に対応することとなる。図では、このパノラマ画像群にはn個の画像が存在する。そして、区分点C1とC2に対応する画像フレームにはそれぞれC1、C2のIDが付与され、パノラマ画像群の各画像には、順番にR1−1〜R1−nが付与されている。
【0037】
図13に地図データ保持部25に保存されているIDや地図との対応データの一例を示す。図13(a)は、各交差点に接続されている道のリストである。この例では、交差点C1には道R1、R2、R3の3本が接続される。図13(b)は、各交差点が地図上のどの地点に存在するかを表す座標である。この例では、地図画像上での画素位置を座標値として使用している。図13(c)は、各道がどの交差点に挟まれているかを表している。例えば、R2は、交差点C1とC5で挟まれた道であることを示している。
【0038】
画像生成部65は、表示画像合成部55で合成に使用する画像を生成する。図8は、画像生成部65におけるデータの流れを示す図である。画像生成部65は、対応画像決定部50で決定された画像のIDをもとに、データ蓄積部15から画像を読み出し、表示部60に表示する画角にあわせてパノラマ画像を切り出して、射影変換を行って表示画像合成部55で合成に使用する画像を生成する。例えば、画像生成部65において図11に示されるような画像が生成されて表示画像合成部55に送られる。
【0039】
表示画像合成部55は、経路情報合成部30で生成された経路情報(例えば、図10に示したような画像)と画像生成部65で生成された画像(例えば、図11の画像)とを合成する。この合成画像を図12に示す。合成画像は表示部60に送られる。
【0040】
表示部60では、表示画像合成部55で生成された画像の表示を行う。ここでは、表示画像合成部55を設けて経路情報と画像をひとつの表示装置に表示するようにしたが、表示画像合成部55を介さずに、経路情報合成部30で生成された経路情報と画像生成部65で生成された画像とを別々の表示装置に表示することも可能である。
【0041】
図15は本提案システムの処理の流れを示すフローチャートである。
ステップS1001において、サーバーに対してコンテンツのリストを要求し、コンテンツを選択する。そして、選択されたコンテンツの情報のダウンロードを開始する。次にステップS1002において体験システムを起動する。
【0042】
図16はコンテンツ選択とダウンロード用プロセス起動の処理の流れを示すフローチャートである。ステップS100において、サーバにコンテンツリストを要求し、その中からコンテンツを選択してサーバにその情報を返す。また、同時に高解像で表示したいオブジェクトを指定しその情報をサーバに送る。ステップS110では、選択されたコンテンツの地図情報を取得し、次のステップS120にてコンテンツ中の画像データと地図データとの対応データを取得する。その後ステップS130にて、ウォークスルーに必要となる全経路上の画像データを順次ダウンロードする。このダウンロードのプロセスは、次に説明する体験システムのプロセスとは独立に動作し、ウォークスルーに必要な画像データをサーバからすべてダウンロードするまで継続される。
【0043】
図17は体験システム用プロセスの処理に関するフローチャートである。
【0044】
まず、ステップS200において、観察時の初期視点位置と視線方向を設定し、この視点位置・視線方向に応じた画像をダウンロードした画像群から生成する。その後、ビューワを起動する。ステップS210では、視点位置・視線方向に応じて設定された画像と地図情報などを合成して表示する。ステップS220では、ジョイスティックなどの操作デバイスを使い、ジョイスティックの倒し角とひねり具合によって操作情報を入力する。ステップS230では、操作デバイスから終了命令が入力されていないかをチェックし、もし入力されていたならば体験システムを停止する。それ以外はステップS240に進む。ステップS240では、ジョイスティックの操作情報から次の視点位置・視線方向を決定する。ステップS250では決定された視点位置および視線情報から表示画像を生成するために必要な画像を特定し、ステップS260にて特定された画像群から表示用の画像を生成する。但し、特定された画像が、高解像度と低解像度の双方のデータで構成されている場合は、両者を統合して画像を生成するが、高解像度データが未取得の場合は、低解像度データのみを使って表示用画像を生成する。これにより、表示画像の品質は低いが高速な画像表示が行えるため、ユーザの待ち時間が軽減される。もし、双方のデータが階層的符号化データとして構成されている場合は、低解像度のデータを復号した後に、復号した高解像度データをマージすることにより最終的な高解像度データを生成する。この画像を利用して、さらに表示用の画像を生成する。また、低解像度データと高解像度データが独立のデータである場合は、高解像度データのみを利用して表示用画像を生成すればよい。その後ステップS210に戻る。
【0045】
図18は画像表示処理の流れを表すフローチャートである。
【0046】
ステップS300においてサーバーから既にダウンロード済みの画像に対応する部分経路情報を取得し、ステップS310にて地図データ保持部25に格納されている地図情報と全経路情報と部分経路情報とを合成する。この際、部分経路情報と全経路情報との色を異ならせるようにする。また同時に、視点位置・視線方向も合成する。次にステップS320において、視点位置、視線方向、経路情報が合成された地図と、視点位置・視線方向に対応した画像データとを合成し、ステップS330にて合成された画像を表示装置に表示する。
【0047】
以上述べたように、サーバーからウォークスルー用のデータをダウンロードしながら、ダウロード済み領域のみをウォークスルーするように制御することで、ネットワークの状態によらないスムーズなウォークスルー体験が可能になる。また、その際に、ダウンロード済みのデータに対応する部分経路を全経路上に色を変えて、あるいは線幅を異ならせて表示することにより、自分がウォークスルー可能な範囲を確認できるため、状況が把握できない故に発生する体験者へのストレスを軽減することができる。
【0048】
<第2の実施形態>
第1実施形態ではユーザの移動可能範囲を地図上に経路情報を重畳することにより表示したが、地図自体をタイル状に分割し、移動可能な領域のみを他と異ならせて表示することにより、同様の効果を表すことも可能である。図19にそのような例を示す。
【0049】
図19(a)はタイル状に分割された地図を表している。各タイルはその中に含む道と交差点の情報を保持しており、道や交差点に対応するデータがダウンロードされるとそのデータを含むタイルの部分が明るく表示される。例えば、図19(b)に示すように、色が全体的に黒いタイルはデータをまだ取得していないタイルを表し、明るい(白い)タイルはその中の道や交差点のデータを取得したことを示している。ユーザは、明るい色のタイルの領域を自由にウォークスルー可能である。データのダウンロードは第1実施形態の場合と同様に、バックグラウンドで継続的に行われており、データが取得できたタイルの領域が順に明るく表示される。ここで、道や交差点のデータをタイル単位にまとめ、各タイルのダウンロード順を予め決定しておき、タイル毎に道や交差点のデータをダウンロードするようにすれば、効率的にデータを取得することができる。
【0050】
また、図19では、ユーザの視点位置や視線方向は示されていないが、第1実施形態の場合と同様に視点位置、視線方向を丸と矢印で表示することも可能である。
【0051】
このような表示方法をとることにより、ユーザに移動可能な範囲を直感的に示すことができるというメリットがある。
【0052】
<その他の実施形態>
ユーザが観光地などをウォークスルーする場合、見たい場所が予め決まっている場合が多い。このような場合には、予めデータの取得順が1通りだけ決定されているとすると目的の場所のデータが取得されるまでに時間がかかり、ユーザにストレスを与えることになる。そこで、道や交差点データを取得する順番に関しては、複数のパターンを用意しておき、ウォークスルーに先立ってユーザに選択させておくと、この問題を軽減できる。例えば、図20に示すような地域のウォークスルーの場合、二条城→西本願寺→東本願寺→…の順、すなわち501、502、503、・・・の順に道や交差点データを取得するパターンと平安神宮→知恩院→八坂神社→…、すなわち521、522、523、…を順に取得するパターンを用意しておき、二条城を見たい人は前者の取得パターンを、平安神宮、知恩院を見たい人には後者の取得パターンを選べるようにしておけばよい。さらに、ユーザに経路を選択させる際に、高解像度で見たいオブジェクトも同時に指定させることにより、興味のある部分に多くのデータを割り当てることができるため、見た目の印象を向上させることができ、かつ、データ量は増えないので画像を生成する際のリアルタイム性も確保される。これは、第1実施形態、第2実施形態ともに適用可能である。また、この例に限らず、取得パターンは1以上であればいく通り設定してもよい。
【0053】
ここでは、1つの経路に対して、複数の取得パターンを用意しておく方法を示したが、複数の経路パターンを用意しておき、経路自体も選択させることも可能である。図21を例にとると、御所、二条城、東本願寺はウォークスルーしたいけれど、清水寺は見たくない場合、図21(a)のような経路パターンが設定されていればよいし、もし、平安神宮、知恩院、清水寺をウォークスルーしたければ、図21(b)の経路パターンが設定されていれば、ユーザはそれらを選択することにより、不要なデータを取得する必要がないため、短い時間で目的を達することが可能である。もちろん、複数の経路のそれぞれにおいて、取得パターンを複数設定できることは言うまでもない。
【0054】
図22は、コンテンツ選択に関する処理の流れを示している。ステップS400において、サーバに存在するコンテンツの種類の情報を取得し、ステップS410にてユーザにどのコンテンツを利用するかを選択させる。これはユーザが見ている体験システムの画面上にコンテンツリストを表示してそれを選択させることにより実現可能である。また、これに限らず、例えば、広域地図上に利用可能なコンテンツの代表的な画像やシンボルを配置し、それを選択する等の方法も利用可能である。コンテンツが選択されると、ステップS420においてそのコンテンツ上でウォークスルーをする経路パターンの選択を行う。図23はユーザにコンテンツを選択させるGUI(グラフィカルユーザインタフェース)の一例を示している。この図では経路パターンの候補が2つ提示され、ユーザがどちらかを選択するようにしているが、3以上の経路パターンを表示して選択させるようにしてもよいし、1通りのパターンでもよい。1通りのパターンしか設定されていない場合は、ステップS420の処理をスキップすることも可能であり、コンテンツの情報に応じて適宜処理できる。また、複数の経路パターンのうち、優先的に選択するパターン(お勧めコースなど)を予め指定しておき、ユーザが一定時間内に選択処理を行わなかった場合には予め指定されたコースを選択するようにしておいてもよい。経路パターンが選択されると、ステップS430にてその経路パターンにおけるデータの取得順の選択を行う。これも経路選択パターンのときと同様に、名所など、ポイントとなる地名や建物名などを取得順のリストにして提示し、ユーザに選択させてもよいし、地図上に順路を示し、選択させるようにしてもよい。データの取得順に関しても、1通り以上設定されていればよい。また、優先的に選択する取得順(お勧めの見学の順番など)を予め指定しておき、ユーザが一定時間内に選択処理を行わなかった場合には予め指定された取得順を選択するようにしておいてもよい。次にステップS440において経路上に存在するオブジェクト情報を取得し、ステップS450にてオブジェクトの指定を行う。これらの処理は図24(b)のように地図上にオブジェクト情報を提示し、その地図上でオブジェクトをクリックすることによって選択する方法が簡便である。また、あらかじめ高解像度にするオブジェクトの組のパターンを作成しておき、そのリストから選択するようにしてもよい。ステップS460では、指定されたオブジェクトの解像度を決定する。第1実施形態のように、低解像度と高解像度の2種類を仮定する場合は、本ステップは必要ないが、隣接フレーム間の解像度の変化をなめらにするためには複数の解像度を設定することが必要となる。このような場合にはステップS460にて解像度の指定を行う。
【0055】
解像度に関しては、画像の画素数を変化させる方法と、空間周波数を制御する方法(高周波成分をどれだけカットするか、あるいは、空間周波数領域上でどの程度粗く係数を量子化するかにより制御する)などがあるが、上述の例はどちらの場合にも適用可能であることは言うまでもない。
【0056】
隣接フレーム間で解像度の変化を滑らかにするには、各フレームの解像度の変化を緩やかにすればよい。例えば、高解像度で表現したいオブジェクトが地図上でフレーム番号Nに最も近接していると仮定する。このフレームのデータを最高解像度で取得し、フレームN前後の数〜数十フレームの解像度を徐々に低下させていけば(図25参照)、フレーム間の解像度の急激な変化を避けることができる。図25では、各フレームはM段階の解像度を持つデータとして表現されている。○印は取得すべき各フレームの解像度を表している。ここでは、フレームN、N−1、N−2を解像度Mで設定し、フレームN−2、N−3、N+2、N+3を解像度M−1で、フレームN−4、N−5、N+4、N+5を解像度M−2で設定するというように、フレームNを中心に離れるに従って徐々に解像度が低下するような例となっている。尚、ここに示した解像度の制御方法は一例であり、これに限るものではない。このように、指定されたオブジェクト付近のフレームを高解像度で取得し、その他は低解像度にすることにより、取得すべき全体のデータ量を低減することができる。
【0057】
以上述べたように、経路パターンの選択、データ取得順の選択、高解像度で表示したいオブジェクトの指定をユーザに行わせることにより、見たいところを早期に高画質に見られるように動作させることができ、快適なウォークスルー環境を提供することができる。
【0058】
【発明の効果】
以上述べたように、すべてのフレームのデータを複数の解像度で持っておき、ユーザが指定するオブジェクトが写っているフレーム、あるいは、経路に応じて設定されたフレームを高い解像度で取得し、それ以外は低い解像度のデータとして取得することにより、データ量を抑え、かつ、ユーザに高画質な映像体験を提供することができる。
【0059】
さらに、複数の経路パターンや取得パターンを設定しておき、その経路上において高解像度で表示したいオブジェクトの指定と経路や取得パターンの選択をユーザに行わせることにより、目的の場所をより早い時期にウォークスルー可能にすることができ、より高画質で快適なウォークスルーが可能となる。
【図面の簡単な説明】
【図1】本実施形態におけるウォークスルーシステムの機能構成を説明するブロック図である。
【図2】本実施形態による画像再生装置1のハード構成を示すブロック図である。
【図3】本実施形態のウォークスルーシステムにおける、ジョイスティック操作を説明する図である。
【図4】本実施形態のウォークスルーシステムにおける、操作部40におけるデータ・フローを示す図である。
【図5】本実施形態のウォークスルーシステムにおける、視点位置・視線方向決定部45におけるデータ・フローを示す図である。
【図6】本実施形態のウォークスルーシステムにおける、対応画像決定部50におけるデータ・フローを示す図である。
【図7】道と区分点を用いたパノラマ画像の地図データへの対応付けを説明する図である。
【図8】本実施形態のウォークスルーシステムにおける、画像生成部65におけるデータ・フローを示す図である。
【図9】本実施形態による経路情報合成部30の動作を説明するための図である。
【図10】本実施形態による経路情報合成部30の動作を説明するための図である。
【図11】本実施形態による画像生成部45で生成される画像の一例である。
【図12】本実施形態による表示画像合成部65で生成される画像の一例である。
【図13】本実施形態における地図データ保持部25に保存されているIDや地図との対応データの一例である。
【図14】本実施形態における取得済経路情報保持部35が保持する経路情報の一例である。
【図15】本実施形態における処理の流れを示すフローチャートである。
【図16】本実施形態におけるコンテンツ選択とダウンロード用プロセス起動の処理の流れを示すフローチャートである。
【図17】本実施形態における体験システム用プロセスの処理に関するフローチャートである。
【図18】本実施形態における画像表示処理の流れを表すフローチャートである。
【図19】第2実施形態におけるタイル状に分割された地図の一例である。
【図20】データの取得順を説明するための図である。
【図21】経路パターンの選択を説明するための図である。
【図22】コンテンツ選択に関する処理のフローチャートである。
【図23】コンテンツ選択用のGUIの一例を示す図である。
【図24】コンテンツ選択画面およびオブジェクト指定用画面の一例を示す図である。
【図25】データの解像度の制御方法の一例である。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an apparatus for expressing a virtual space based on image data obtained by photographing a real space.
[0002]
[Prior art]
As a method of expressing the photographed real space as a virtual space based on the real image data captured by the imaging device mounted on the moving object, a geometric model of the real space is reproduced based on the real image data. However, there is a method of expressing by a conventional CG technique, but there is a limit in terms of accuracy, precision, and realism of the model. On the other hand, Image-Based Rendering (IBR) technology for expressing a virtual space using a real image without performing reproduction using a model has recently attracted attention. Since the IBR technology is based on a real image, it is possible to represent a realistic virtual space.
[0003]
In order to construct a walkable virtual space using such an IBR technology, it is necessary to generate and present an image according to the position of the user in the virtual space. Therefore, in this type of system, each frame of the real image data and the position in the virtual space are stored in association with each other, and the corresponding frame is acquired based on the position in the virtual space and the gaze direction of the user. Play this.
[0004]
In such a walkthrough in the virtual space, the user can see a desired direction at each viewpoint position. For this reason, the image at each viewpoint position is stored as a panoramic image covering a wider range than the angle of view at the time of reproduction, and the panoramic image is selected based on the viewpoint position and the viewing direction in the virtual space of the user. At the same time, it is conceivable to cut out and display a partial image to be reproduced. In this case, since the photographed image data is reproduced, the panoramic image is reproduced along the road on which the vehicle equipped with the photographing device runs, and the observer feels as if he / she is riding on the vehicle. You can taste. In addition, when the reproduced image from the walk-through enters the intersection and the observer selects a road in a direction different from the actual vehicle movement, the panoramic image group is switched to a different panoramic image group from the reproduced panoramic image group, and a new course is selected. Of the panoramic image is performed.
[0005]
As this kind of VR system, Japanese Patent Application Laid-Open No. 9-62861 discloses a system in which a series of panoramic images is held and a predetermined panoramic image is reproduced in response to a user operation. Japanese Patent Application Laid-Open No. 2001-008232 discloses a VR system that allows a user to specify a route to be walked through.
[0006]
[Problems to be solved by the invention]
However, in the above-described conventional example, since the data used for the walk-through holds only data of a single resolution for one path, there is a need for a user to watch a high-resolution video with a higher resolution. I cannot be satisfied. In addition, when acquiring data via a network, it is desired to adjust the amount of data according to the situation. However, when only data of a single resolution is available, the countermeasures such as dropping frames are limited.
[0007]
Japanese Patent Application Laid-Open No. 2001-008232 discloses that a route of a content is specified, but does not disclose any data resolution. Generally, when a route is specified, an object to be viewed must exist on the route, and it is desirable that the resolution of data at a position close to the object (or a large image) is higher. The easiest way to achieve this is to generate the data for each frame by changing the resolution in advance, but since the objects of interest vary from user to user, eventually all data will have multiple resolution data. Without it, not all user requirements can be satisfied.
[0008]
Further, when objects of interest to the user are sparsely present on the designated route, it is wasteful to acquire all data on the route.
The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a walk-through system capable of displaying an object of interest to a user with high image quality while suppressing a data amount. .
[0009]
[Means for Solving the Problems]
The present invention for achieving the above object has the following configuration.
[0010]
The invention according to claim 1 of the present application is an information processing apparatus applicable to a virtual space experience system capable of walking through a virtual space, comprising: a content selection unit for selecting content; Route designation means for designating a specific route, resolution designation means for designating data resolution, data acquisition means for acquiring data based on the selected content, the designated path, and the designated resolution, Point of view position, operating means for controlling the line of sight direction, image generation means for extracting an image corresponding to the specified viewpoint position from the acquired data, generating and displaying a partial image corresponding to the specified line of sight direction, It is characterized by having.
[0011]
The invention according to claim 4 of the present application is an information processing method applicable to a virtual space experience system capable of walking through a virtual space, and acquires an arbitrary object according to a user's instruction. A resolution designation step of designating the resolution of the data, a data acquisition step of acquiring data according to the resolution designated by the resolution designation means, a viewpoint position, an operation step of controlling a line-of-sight direction, and Generating a partial image corresponding to the viewpoint position and the line-of-sight viewpoint position.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
[0013]
<First embodiment>
First, a virtual space walk-through system according to the present embodiment will be described. In the present embodiment, for example, panoramic image data is generated from real image data obtained by photographing with a plurality of photographing devices mounted on a moving body such as an automobile, and the panoramic image data corresponds to a position in a real space. It is stored in a server or the like in association with the position on the map. At this time, each frame of the panoramic image data is held as data having a plurality of different resolutions. Data having different resolutions may be encoded using hierarchical encoding or the like. The playback system obtains information such as a shooting position, a shooting direction, and a map from the server, low-resolution panoramic image data of a specified route, and high-resolution panoramic image data of a frame specified by a user, and obtains a virtual image of the user. A display image is generated from the stored panoramic image data according to the viewpoint position (position on the map) and the line-of-sight direction in the space, and is displayed together with the map showing the route information, so that the walk-through in the virtual space is performed. To achieve.
[0014]
FIG. 1 is a block diagram illustrating a functional configuration of the walk-through system according to the present embodiment. The image reproducing apparatus 1 constituting the walk-through system includes a communication unit 4, a content selection unit 5, a data acquisition unit 10, a data storage unit 15, a correspondence data storage unit 20, a map data storage unit 25, and a route information synthesis unit 30. , An acquired path information holding unit 35, an operation unit 40, a viewpoint position / viewing direction determining unit 45, a corresponding image determining unit 50, a display image synthesizing unit 55, a display unit 60, and an image generating unit 65.
[0015]
FIG. 2 is a block diagram illustrating a hardware configuration of the image reproducing device 1 according to the present embodiment. The hardware configuration shown in FIG. 2 is equivalent to the configuration of a normal personal computer. In FIG. 2, a disk 105 constitutes the data storage unit 15. The disk 105 constitutes not only the image data storage unit 15 described above but also the association data holding unit 20, the map data holding unit 25, and the acquired route information holding unit 35 shown in FIG.
[0016]
The CPU 101 executes a program stored in the disk 105 or the ROM 106 or an external storage device (not shown) to execute the content selecting unit 5, the route information synthesizing unit 30, the viewpoint position / viewing direction determining unit 45, the corresponding image It functions as the determination unit 50 and the image generation unit 65.
[0017]
When the CPU 101 issues various display instructions to the display controller 102, desired display is performed on the display 104 by the display controller 102 and the frame buffer 103. In the figure, the CRTC is shown as the display controller 102 and the CRT is shown as the display 104. However, the display is not limited to a cathode ray tube, but may be a liquid crystal display or the like. Note that the CRTC 102, the frame buffer 103, and the CRT 104 constitute the display unit 60 described above. The mouse 108, the keyboard 109, and the joystick 110 are used to input a user's operation to the image reproducing device 1, and constitute the above-described operation unit 40.
[0018]
Next, an outline of functions of each unit of the image reproducing apparatus 1 in the walk-through system according to the present embodiment having the above configuration will be described.
[0019]
The communication unit 4 exchanges data with an external server in response to a request from each unit. The content selection unit 5 presents the content stored in the external server to the user, and causes the user to select the content. At the same time, object data included in the content is also presented, and a target to be displayed at a high resolution is designated.
[0020]
FIG. 24 shows an example of the content selection screen and an example of the object designation screen. On the screen shown in FIG. 24A, when the number of the content displayed in the list is input, the content is selected. As the content selection screen, a mark indicating a place may be arranged on a map, and a selection operation may be performed by clicking the mark. FIG. 24B shows an object designation screen when Kyoto is selected as an example. 721 to 727 represent objects. Here, when the user clicks on a circle in the figure, the object is designated as an object to be acquired as high-resolution data. The objects 723 and 727 in the figure are black circles, indicating that the objects have been set to high-resolution data. Otherwise, the resolution is set lower.
[0021]
The data acquisition unit 10 sequentially downloads necessary data such as map information, photographing position / direction information, and photographed image data from a server on a network or a local storage device based on the information specified by the content selection unit 5. . As for the captured image data, after obtaining all of the low-resolution data (including the low-resolution data of the object specified as the high resolution), the data of the object specified as the high resolution is obtained. The download order of the low-resolution data is determined in advance by the server or is determined by a request from the image reproducing apparatus 1 as a client. The same applies to high-resolution data. In this way, by capturing only the objects of interest to the user at a high resolution and the others at a low resolution, the desired data can be reproduced with high image quality and the total data amount can be suppressed. Real-time property can be secured. Further, by causing the user to specify an object of interest, it is possible to avoid obtaining useless data.
[0022]
The data storage unit 15 stores the image data (panoramic image data corresponding to each position on the map) acquired by the data acquisition unit 10. The association data holding unit 20 holds information on the correspondence between the image data stored in the data storage unit 10 and the map stored in the map data storage unit 25. The map data holding unit 25 stores map data that includes at least a position on a map obtained by the data acquisition unit 10 and that corresponds to the panoramic image data stored in the data storage unit 15. The acquired route information holding unit 35 stores the route information corresponding to the acquired image data stored in the data storage unit 15 (this is called partial route information, and the route indicated by the information is called the partial route). .) And the path information corresponding to the entire image data to be downloaded from the server (this is referred to as “all path information”, and the path indicated by the information is referred to as “all path”). Each piece of route information is expressed using an ID described later.
[0023]
FIG. 14 shows an example of the route information held by the acquired route information holding unit 35. Image data (intersections, roads, and the like) to be downloaded is held as a list, and “1” is recorded for acquired data and “0” is recorded for unacquired data. In the figure, the entire list of intersections and roads indicated by ID represents the entire route, and among them, the set of intersections and roads in which “1” is recorded in the downloaded column represents the partial route. The high resolution column in FIG. 14B indicates whether or not the entire road segment is to be acquired to a high resolution. When "1" is described in this column, it means that data of high resolution is obtained in addition to data of low resolution. “0” indicates that data of only low resolution is acquired. Here, it is determined whether or not the high resolution is set for each road. However, it is needless to say that a high resolution and a low resolution may be specified for each panorama image forming the road. However, when designating in units of panoramic images, the resolution may suddenly change between adjacent panoramic images. In that case, instead of two types of resolutions, more types of resolution data may be prepared, and the resolution of each panoramic image may be set so as to smoothly change between adjacent panoramic images.
[0024]
The route information synthesizing unit 30 synthesizes a map stored in the map data holding unit 25, the partial route information stored in the acquired route information holding unit 35, and the entire route information. The color of the entire route information combined with the map here is different from the color of the partial route information, so that the range of data to be downloaded and the range of already acquired data can be grasped, and walk-through can be done freely Information of a particular area can be provided to the user. Also, when displaying on a monitor or the like that does not allow color display, instead of changing the color, the line width and type of the entire route information and the partial route information to be combined on the map can be made different to achieve the same purpose. Can be achieved. It is also possible to simultaneously change the color and the line width. If the entire route information is displayed as a thin and thin line, and the partial route information is displayed as a dark and thick line, it is possible to display more clearly.
[0025]
FIG. 9A shows an example of a map stored in the map data holding unit 25, and FIGS. 9B and 9C show examples of an entire route and a partial route, respectively. FIG. 10 shows an image obtained by combining these three components. Here, all routes are displayed in light colors, and partial routes are displayed in dark colors. A circle represents a viewpoint position, and an arrow represents a line of sight.
[0026]
The operation unit 40 includes a mouse, a keyboard, a joystick, and the like. The operation unit 40 generates a movement parameter of the viewpoint position and a rotation parameter of the viewing direction. It also has functions such as content selection and object designation. In the present embodiment, the joystick is used in the operation unit 40, but the same operation can be performed with another input device such as a game controller. FIG. 3 is a diagram showing the relationship between the operation of the joystick on the operation unit 40 and the movement parameters and rotation parameters. The joystick can independently control the tilt and rotation of the stick. In the present embodiment, the operation of tilting the joystick back and forth corresponds to the movement of the viewpoint position in the virtual space, and the operation of twisting the joystick left and right corresponds to a change in the line of sight.
[0027]
FIG. 4 is a diagram illustrating a flow of data in the operation unit 40. From the operation unit 40, the tilt angle α (α> 0, front and rear, and a negative value when the joystick is tilted backward) of the joystick is used as a movement parameter to the viewpoint position / gaze direction determination unit 45 as a left and right twist angle β. (Β> 0, negative value when twisted to the right) is given as a rotation parameter.
[0028]
The viewpoint position / viewing direction determining unit 45 determines the viewpoint position (position on the map) of the observer on the map data stored in the map data holding unit 25 based on the movement parameter and the rotation parameter from the operation unit 40. , Determine the gaze direction.
[0029]
FIG. 5 is a diagram showing a flow of data in the viewpoint position / viewing direction determining unit 45. The viewpoint position / line-of-sight direction determining unit 45 acquires the map data from the map data holding unit 25 and the entire route information and the partial route information from the acquired route information holding unit 35, and observes the corresponding image determining unit 50. Give the viewpoint position and line-of-sight direction of the user. The processing in this part will be described in detail with reference to FIG.
[0030]
FIG. 12 shows an example of a screen displayed on the display means of the proposed system. A map on which the route information is superimposed is displayed in the upper left of the figure, where the current observation position of the user is indicated by a circle and the viewing direction is indicated by an arrow. The route indicated by a light color in the map is the entire route, and the route indicated by a darker color is a partial route. The viewpoint position / line-of-sight direction determination unit 45 determines the viewpoint position / line-of-sight direction on the map based on the information from the operation unit 40, but the viewpoint on the map calculated based on the information from the operation unit 40. If the position is not on the partial route, the movement is restricted.
[0031]
In this way, by allowing movement only on a partial route, the movement range is limited, but a smooth walk-through can be realized. In comparison, the waiting time of the user is reduced. In addition, data acquisition from the server is continued in the background, and the number of partial routes that can be walk-through increases with time without imposing a special load on the user. Therefore, the user can concentrate on the walk-through without being particularly aware of the state of the network. Further, by dividing the route data into low-resolution data and high-resolution data, and acquiring and displaying only the low-resolution data first, the time until display can be further reduced. After that, by obtaining the additional high-resolution data, the part of interest to the user can be expressed with higher image quality.
[0032]
The corresponding image determination unit 50 determines an image ID necessary for the image generation unit 65 to generate an image based on information on the observer's viewpoint position and line-of-sight direction.
[0033]
FIG. 6 is a diagram showing a data flow in the corresponding image determination unit 50. The display image synthesizing unit 55 is obtained from the viewpoint position, gaze direction, and map-image correspondence information data stored in the association data storage unit 20 in the virtual space of the user determined by the viewpoint position / gaze direction determination unit 45. The image storage unit 15 determines an image stored in the data storage unit 15 necessary for generating an image to be used in step S <b> 1, and passes the determined image ID to the image generation unit 65.
[0034]
In the present embodiment, the following data storage mode is adopted in the association data storage unit 20. That is, an ID is assigned to each of the intersections and roads, with intersections (branches) and corners being the division points, and a line segment sandwiched between the division points as the road, and the ID is added to the corresponding panoramic image. The panorama image group corresponding to one road is numbered sequentially from the top.
[0035]
FIG. 7 is a diagram illustrating this state. In FIG. 7, for example, an ID of R1 is given to a line segment (road) sandwiched between a section point having an ID of C1 and a section point having an ID of C2. The correspondence between the ID and the map is stored in the map data holding unit 25.
[0036]
When the image frames corresponding to the division points C1 and C2 are specified based on the GPS data and the like, the panoramic image group sandwiched between those frames corresponds to the road R1. In the figure, there are n images in this panoramic image group. The image frames corresponding to the segment points C1 and C2 are respectively assigned IDs of C1 and C2, and the images of the panoramic image group are assigned R1-1 to R1-n in order.
[0037]
FIG. 13 shows an example of ID and map correspondence data stored in the map data holding unit 25. FIG. 13A is a list of roads connected to each intersection. In this example, three roads R1, R2, and R3 are connected to the intersection C1. FIG. 13B shows coordinates indicating where each intersection exists on the map. In this example, a pixel position on a map image is used as a coordinate value. FIG. 13C shows which intersection each road is sandwiched between. For example, R2 indicates that the road is located between intersections C1 and C5.
[0038]
The image generation unit 65 generates an image to be used by the display image synthesis unit 55 for synthesis. FIG. 8 is a diagram showing a flow of data in the image generation unit 65. The image generation unit 65 reads an image from the data storage unit 15 based on the image ID determined by the corresponding image determination unit 50, cuts out a panoramic image according to the angle of view displayed on the display unit 60, and projects the image. The conversion is performed, and the display image synthesizing unit 55 generates an image used for synthesis. For example, an image as shown in FIG. 11 is generated by the image generation unit 65 and sent to the display image synthesis unit 55.
[0039]
The display image combining unit 55 combines the route information (for example, the image shown in FIG. 10) generated by the route information combining unit 30 and the image (for example, the image of FIG. 11) generated by the image generating unit 65. Combine. This composite image is shown in FIG. The composite image is sent to the display unit 60.
[0040]
The display unit 60 displays the image generated by the display image synthesizing unit 55. Here, the display information synthesizing unit 55 is provided to display the route information and the image on one display device. However, the route information generated by the route information synthesizing unit 30 without the display image synthesizing unit 55 is used. It is also possible to display the image generated by the image generating unit 65 on a separate display device.
[0041]
FIG. 15 is a flowchart showing the flow of the processing of the proposed system.
In step S1001, a list of contents is requested from the server, and contents are selected. Then, the download of the information of the selected content is started. Next, in step S1002, the experience system is activated.
[0042]
FIG. 16 is a flowchart showing a flow of processing of content selection and activation of a download process. In step S100, a content list is requested from the server, the content is selected from the content list, and the information is returned to the server. At the same time, an object to be displayed at a high resolution is designated and the information is sent to the server. In step S110, map information of the selected content is obtained, and in the next step S120, data corresponding to the image data and the map data in the content is obtained. Thereafter, in step S130, the image data on all the paths required for the walk-through is sequentially downloaded. This download process operates independently of the experience system process described below, and is continued until all the image data required for the walkthrough is downloaded from the server.
[0043]
FIG. 17 is a flowchart relating to the processing of the experience system process.
[0044]
First, in step S200, an initial viewpoint position and a line-of-sight direction at the time of observation are set, and an image corresponding to the viewpoint position and the line-of-sight direction is generated from the downloaded image group. After that, launch the viewer. In step S210, an image set according to the viewpoint position and the line-of-sight direction is combined with map information and displayed. In step S220, an operation device such as a joystick is used to input operation information based on the tilt angle and the twist of the joystick. In step S230, it is checked whether an end command has been input from the operation device, and if so, the experience system is stopped. Otherwise, the process proceeds to step S240. In step S240, the next viewpoint position and line-of-sight direction are determined from the joystick operation information. In step S250, an image necessary to generate a display image is specified from the determined viewpoint position and line-of-sight information, and a display image is generated from the image group specified in step S260. However, if the specified image is composed of both high-resolution and low-resolution data, an image is generated by integrating both, but if high-resolution data has not been acquired, only low-resolution data Use to generate a display image. As a result, high-speed image display can be performed although the quality of the display image is low, and the waiting time of the user is reduced. If both data are configured as hierarchically encoded data, final high-resolution data is generated by decoding low-resolution data and merging the decoded high-resolution data. Using this image, an image for display is further generated. When the low-resolution data and the high-resolution data are independent data, the display image may be generated using only the high-resolution data. Thereafter, the process returns to step S210.
[0045]
FIG. 18 is a flowchart showing the flow of the image display process.
[0046]
In step S300, partial route information corresponding to the already downloaded image is obtained from the server, and in step S310, the map information stored in the map data holding unit 25, all route information, and partial route information are combined. At this time, the colors of the partial route information and the entire route information are made different. At the same time, the viewpoint position and the line-of-sight direction are also synthesized. Next, in step S320, the map in which the viewpoint position, the line-of-sight direction, and the route information are combined and the image data corresponding to the viewpoint position and the line-of-sight direction are combined, and the image combined in step S330 is displayed on the display device. .
[0047]
As described above, by controlling to walk through only the downloaded area while downloading the walk-through data from the server, a smooth walk-through experience can be achieved regardless of the state of the network. Also, at that time, by changing the color of the partial route corresponding to the downloaded data on the entire route or displaying it with different line width, you can check the range that you can walk through, It is possible to reduce the stress on the experienced person caused by the inability to grasp the information.
[0048]
<Second embodiment>
In the first embodiment, the movable range of the user is displayed by superimposing the route information on the map. However, the map itself is divided into tiles, and only the movable area is displayed differently from the others. A similar effect can be exhibited. FIG. 19 shows such an example.
[0049]
FIG. 19A shows a map divided into tiles. Each tile holds information on a road and an intersection included therein, and when data corresponding to a road or an intersection is downloaded, a portion of the tile including the data is displayed brightly. For example, as shown in FIG. 19 (b), a tile whose color is entirely black indicates a tile for which data has not yet been acquired, and a bright (white) tile indicates that data of a road or an intersection therein has been acquired. Is shown. The user is free to walk through the area of the brightly colored tiles. As in the case of the first embodiment, data download is continuously performed in the background, and tile areas from which data can be obtained are displayed brighter in order. Here, if the data of roads and intersections is grouped in tiles, the download order of each tile is determined in advance, and the data of roads and intersections is downloaded for each tile, it is possible to obtain data efficiently. Can be.
[0050]
Further, in FIG. 19, the viewpoint position and the line-of-sight direction of the user are not shown, but it is also possible to display the viewpoint position and the line-of-sight direction by circles and arrows as in the first embodiment.
[0051]
By adopting such a display method, there is an advantage that the movable range can be intuitively shown to the user.
[0052]
<Other embodiments>
When a user walks through a sightseeing spot or the like, a place to be viewed is often determined in advance. In such a case, assuming that only one data acquisition order is determined in advance, it takes time until data at a target location is acquired, and this gives a stress to the user. Therefore, if a plurality of patterns are prepared for the order of acquiring road and intersection data, and the user selects the patterns before the walkthrough, this problem can be reduced. For example, in the case of an area walk-through as shown in FIG. 20, a pattern for acquiring road and intersection data in the order of Nijo Castle → Nishi Honganji → Higashi Honganji →. → Chion-in → Yasaka Shrine →…, that is, prepare a pattern to acquire 521, 522, 523, ... in order, and those who want to see Nijo Castle want to see the former acquisition pattern, Heian Jingu and Chion-in It is sufficient that a person can select the latter acquisition pattern. Further, when the user selects a route, by simultaneously specifying an object to be viewed at a high resolution, a large amount of data can be assigned to a part of interest, so that the appearance impression can be improved, and Since the amount of data does not increase, real-time processing when generating an image is also ensured. This is applicable to both the first embodiment and the second embodiment. Also, the present invention is not limited to this example, and any number of acquisition patterns may be set as long as the number is one or more.
[0053]
Here, a method has been described in which a plurality of acquisition patterns are prepared for one route, but it is also possible to prepare a plurality of route patterns and select the route itself. Taking FIG. 21 as an example, if you want to walk through Gosho, Nijo Castle, and Higashi Honganji Temple but do not want to see Kiyomizu Temple, it is only necessary to set a route pattern as shown in FIG. 21 (a). If you want to walk through Chion-in Temple and Kiyomizu-dera Temple, and if the route pattern of FIG. 21B is set, the user does not need to obtain unnecessary data by selecting them, so It is possible to achieve the purpose with. Of course, it goes without saying that a plurality of acquisition patterns can be set for each of the plurality of routes.
[0054]
FIG. 22 shows the flow of processing related to content selection. In step S400, information on the type of content existing in the server is acquired, and in step S410, the user is made to select which content to use. This can be realized by displaying a content list on the screen of the experience system that the user is watching and selecting the content list. The present invention is not limited to this. For example, a method of arranging a representative image or symbol of usable content on a wide area map and selecting it can be used. When the content is selected, a route pattern for performing a walk-through on the content is selected in step S420. FIG. 23 shows an example of a GUI (Graphical User Interface) that allows the user to select content. In this figure, two route pattern candidates are presented and the user selects one of them. However, three or more route patterns may be displayed and selected, or only one pattern may be used. . When only one pattern is set, the process of step S420 can be skipped, and the process can be appropriately performed according to the content information. In addition, a pattern (such as a recommended course) to be preferentially selected from a plurality of route patterns is specified in advance, and if the user does not perform the selection processing within a predetermined time, the previously specified course is selected. It may be possible to do so. When a route pattern is selected, the order of data acquisition in the route pattern is selected in step S430. As in the case of the route selection pattern, a place name, a building name, or the like, which is a point, such as a famous place, may be presented as a list in the order of acquisition and may be selected by the user, or the route may be indicated on a map and selected. You may do so. Regarding the data acquisition order, one or more types may be set. In addition, an acquisition order (such as a recommended tour order) to be preferentially selected is specified in advance, and if the user does not perform a selection process within a certain period of time, the previously specified acquisition order is selected. You may keep it. Next, in step S440, information on the objects existing on the route is acquired, and in step S450, the object is specified. As for these processes, a method of presenting object information on a map as shown in FIG. 24B and selecting by clicking an object on the map is simple. Alternatively, a pattern of a set of objects having a high resolution may be created in advance, and a pattern may be selected from the list. In step S460, the resolution of the specified object is determined. When assuming two types of low resolution and high resolution as in the first embodiment, this step is not necessary, but a plurality of resolutions are set to smooth the change in resolution between adjacent frames. It is necessary. In such a case, the resolution is specified in step S460.
[0055]
Regarding the resolution, a method of changing the number of pixels of the image and a method of controlling the spatial frequency (control by how much high-frequency components are cut or how coarsely the coefficients are quantized in the spatial frequency domain) However, it goes without saying that the above example is applicable to both cases.
[0056]
In order to make the change in resolution smooth between adjacent frames, the change in resolution of each frame may be made gentle. For example, assume that the object to be represented at high resolution is closest to the frame number N on the map. If the data of this frame is acquired at the highest resolution and the resolution of several to several tens of frames before and after frame N is gradually reduced (see FIG. 25), a rapid change in the resolution between frames can be avoided. In FIG. 25, each frame is represented as data having M levels of resolution. The circles indicate the resolution of each frame to be acquired. Here, frames N, N-1, and N-2 are set at a resolution M, frames N-2, N-3, N + 2, and N + 3 are set at a resolution M-1, and frames N-4, N-5, N + 4, In this example, the resolution gradually decreases with increasing distance from the frame N, such as setting N + 5 at the resolution M-2. Note that the resolution control method shown here is an example, and the present invention is not limited to this. As described above, by acquiring frames near the designated object at a high resolution and setting the others at a low resolution, it is possible to reduce the entire data amount to be acquired.
[0057]
As described above, by allowing the user to select a path pattern, select a data acquisition order, and specify an object to be displayed at a high resolution, an operation can be performed so that a desired portion can be quickly viewed with high image quality. It can provide a comfortable walk-through environment.
[0058]
【The invention's effect】
As described above, the data of all the frames is stored at a plurality of resolutions, and the frame in which the object specified by the user is captured or the frame set according to the route is obtained at a high resolution. By obtaining as low-resolution data, the amount of data can be suppressed and a high-quality video experience can be provided to the user.
[0059]
In addition, by setting a plurality of route patterns and acquisition patterns, the user can specify an object to be displayed at a high resolution on the route and select the route and the acquisition pattern so that the target location can be set earlier. Walk-through can be made possible, and higher quality and comfortable walk-through become possible.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a functional configuration of a walk-through system according to an embodiment.
FIG. 2 is a block diagram illustrating a hardware configuration of the image reproducing device 1 according to the present embodiment.
FIG. 3 is a diagram illustrating a joystick operation in the walk-through system of the embodiment.
FIG. 4 is a diagram showing a data flow in the operation unit 40 in the walk-through system of the present embodiment.
FIG. 5 is a diagram showing a data flow in a viewpoint position / viewing direction determining unit 45 in the walk-through system of the present embodiment.
FIG. 6 is a diagram showing a data flow in a corresponding image determination unit 50 in the walk-through system of the embodiment.
FIG. 7 is a diagram for explaining association of a panoramic image with map data using a road and a dividing point;
FIG. 8 is a diagram showing a data flow in an image generation unit 65 in the walk-through system of the present embodiment.
FIG. 9 is a diagram for explaining the operation of the route information synthesizing unit 30 according to the present embodiment.
FIG. 10 is a diagram for explaining the operation of the route information synthesizing unit 30 according to the present embodiment.
FIG. 11 is an example of an image generated by the image generation unit 45 according to the present embodiment.
FIG. 12 is an example of an image generated by a display image synthesis unit 65 according to the present embodiment.
FIG. 13 is an example of ID and map correspondence data stored in the map data holding unit 25 in the embodiment.
FIG. 14 is an example of route information held by an obtained route information holding unit 35 in the present embodiment.
FIG. 15 is a flowchart illustrating a flow of processing according to the present embodiment.
FIG. 16 is a flowchart illustrating a flow of processing of content selection and activation of a download process according to the present embodiment.
FIG. 17 is a flowchart relating to processing of an experience system process according to the present embodiment.
FIG. 18 is a flowchart illustrating a flow of an image display process according to the present embodiment.
FIG. 19 is an example of a map divided into tiles according to the second embodiment.
FIG. 20 is a diagram for explaining the order of data acquisition.
FIG. 21 is a diagram for explaining selection of a route pattern.
FIG. 22 is a flowchart of a process related to content selection.
FIG. 23 is a diagram illustrating an example of a GUI for content selection.
FIG. 24 is a diagram showing an example of a content selection screen and an object designation screen.
FIG. 25 is an example of a data resolution control method.

Claims (8)

仮想空間をウォークスルーすることが可能である仮想空間体験システムで適用可能な情報処理装置であって、
コンテンツを選択するコンテンツ選択手段と、
前記コンテンツ内の移動可能な経路を指定する経路指定手段と、
データの解像度を指定する解像度指定手段と、
前記選択されたコンテンツ、前記指定された経路、前記指定された解像度に基づき、データを取得するデータ取得手段と、
視点位置、視線方向を制御する操作手段と、
前記取得したデータから、前記指定された視点位置に応じた画像を取り出し、指定された視線方向に対応する部分画像を生成し表示させる画像生成手段とを備えることを特徴とする情報処理装置。
An information processing apparatus applicable to a virtual space experience system capable of walking through a virtual space,
Content selection means for selecting content,
Route designating means for designating a movable route in the content;
Resolution specifying means for specifying the resolution of the data;
Data acquisition means for acquiring data based on the selected content, the designated path, and the designated resolution,
Operation means for controlling the viewpoint position and the line-of-sight direction,
An information processing apparatus comprising: an image generation unit that extracts an image corresponding to the designated viewpoint position from the acquired data, generates a partial image corresponding to a designated line-of-sight direction, and displays the partial image.
前記解像度指定手段は、使用者によって指示された、表示されている地図上のオブジェクトに対して、高い解像度を指定することを特徴とする請求項1記載の情報処理装置。2. The information processing apparatus according to claim 1, wherein the resolution designating unit designates a high resolution for the displayed object on the map specified by the user. 前記データ取得手段は、前記解像度指定手段によって高い解像度と指定されたオブジェクトに対して、低解像度および高解像度のデータを取得することを特徴とする請求項2記載の情報処理装置。3. The information processing apparatus according to claim 2, wherein the data acquisition unit acquires low-resolution and high-resolution data for an object designated as having a high resolution by the resolution designation unit. 仮想空間をウォークスルーすることが可能である仮想空間体験システムで適用可能な情報処理方法であって、
ユーザの指示に応じて、任意の対象物にかかる取得するデータの解像度を指定する解像度指定工程と、
前記解像度指定手段によって指定された解像度に応じて、データを取得するデータ取得工程と、
視点位置、視線方向を制御する操作工程と、
前記取得したデータから、前記視点位置、視線視点位置に応じた部分画像を生成する生成工程とを有することを特徴とする情報処理方法。
An information processing method applicable to a virtual space experience system capable of walking through a virtual space,
A resolution specifying step of specifying a resolution of data to be obtained on an arbitrary object according to a user's instruction;
A data acquisition step of acquiring data according to the resolution designated by the resolution designation means;
An operation process for controlling the viewpoint position and the line-of-sight direction,
Generating a partial image corresponding to the viewpoint position and the line-of-sight viewpoint position from the acquired data.
前記解像度指定工程は、表示されているウォークスルー可能な地図上の任意の対象物をユーザが指定することを特徴とする請求項4記載の情報処理方法。5. The information processing method according to claim 4, wherein in the resolution specifying step, the user specifies an arbitrary object on the displayed walkable map. さらに、隣接フレーム間で解像度の変化を滑らかにすることを特徴とする請求項4記載の情報処理方法。5. The information processing method according to claim 4, further comprising smoothing a change in resolution between adjacent frames. 前記データ取得工程は、高い解像度と指定された対象物に対しては、低解像度および高解像度のデータを取得することを特徴とする請求項4記載の情報処理方法。5. The information processing method according to claim 4, wherein the data acquiring step acquires low-resolution and high-resolution data for an object designated as having a high resolution. 前記請求項4乃至7のいずれかに記載の情報処理方法をコンピュータを用いて実現するためのプログラム。A program for implementing the information processing method according to any one of claims 4 to 7 using a computer.
JP2003068111A 2003-03-13 2003-03-13 Apparatus and method for processing information Withdrawn JP2004280250A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003068111A JP2004280250A (en) 2003-03-13 2003-03-13 Apparatus and method for processing information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003068111A JP2004280250A (en) 2003-03-13 2003-03-13 Apparatus and method for processing information

Publications (1)

Publication Number Publication Date
JP2004280250A true JP2004280250A (en) 2004-10-07

Family

ID=33285538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003068111A Withdrawn JP2004280250A (en) 2003-03-13 2003-03-13 Apparatus and method for processing information

Country Status (1)

Country Link
JP (1) JP2004280250A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011151858A1 (en) * 2010-05-31 2011-12-08 ビジュアツール株式会社 Visualization-use portable terminal device, visualization program and body 3d measurement system
JP2014506344A (en) * 2010-11-16 2014-03-13 マイクロソフト コーポレーション Annotating Street View images with contextual information
JP6409107B1 (en) * 2017-09-06 2018-10-17 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2019047502A (en) * 2018-09-20 2019-03-22 キヤノン株式会社 Information processing apparatus, information processing method, and program
KR20200023513A (en) * 2016-10-28 2020-03-04 캐논 가부시끼가이샤 Image processing system, image processing method, and storage medium

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011151858A1 (en) * 2010-05-31 2011-12-08 ビジュアツール株式会社 Visualization-use portable terminal device, visualization program and body 3d measurement system
JP2014506344A (en) * 2010-11-16 2014-03-13 マイクロソフト コーポレーション Annotating Street View images with contextual information
US9342998B2 (en) 2010-11-16 2016-05-17 Microsoft Technology Licensing, Llc Techniques to annotate street view images with contextual information
KR102262731B1 (en) * 2016-10-28 2021-06-10 캐논 가부시끼가이샤 Image processing system, image processing method, and storage medium
KR20200023513A (en) * 2016-10-28 2020-03-04 캐논 가부시끼가이샤 Image processing system, image processing method, and storage medium
KR20210068629A (en) * 2016-10-28 2021-06-09 캐논 가부시끼가이샤 Image processing system, image processing method, and storage medium
US11128813B2 (en) 2016-10-28 2021-09-21 Canon Kabushiki Kaisha Image processing apparatus, image processing system, image processing method, and storage medium
KR102364052B1 (en) 2016-10-28 2022-02-18 캐논 가부시끼가이샤 Image processing system, image processing method, and storage medium
JP2019047432A (en) * 2017-09-06 2019-03-22 キヤノン株式会社 Information processing apparatus, information processing method, and program
US10659822B2 (en) 2017-09-06 2020-05-19 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and medium
JP6409107B1 (en) * 2017-09-06 2018-10-17 キヤノン株式会社 Information processing apparatus, information processing method, and program
US11202104B2 (en) 2017-09-06 2021-12-14 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and medium
JP2019047502A (en) * 2018-09-20 2019-03-22 キヤノン株式会社 Information processing apparatus, information processing method, and program

Similar Documents

Publication Publication Date Title
US7411594B2 (en) Information processing apparatus and method
US11058950B2 (en) Methods and systems for spectating characters in virtual reality views
JP7042644B2 (en) Information processing equipment, image generation method and computer program
US7673246B2 (en) Image information processing apparatus and method, virtual space presentation apparatus, information administration apparatus, and control methods thereof
JP6419128B2 (en) Image processing apparatus, image processing system, image processing method, and program
KR101764372B1 (en) Apparatus and method for compositing image in a portable terminal
US10289264B2 (en) Controlling a three-dimensional virtual broadcast presentation
KR20160124479A (en) Master device, slave device and control method thereof
JP6181993B2 (en) Information processing system, information processing apparatus, information processing program, and information transmission / reception method
CA2853761A1 (en) Rendering system, rendering server, control method thereof, program, and recording medium
JP2001195601A (en) Device and method for presenting composite reality and storage medium
JPH09152954A (en) Method and device for presenting information
JP2013183249A (en) Moving image display device
JP2007299062A (en) Information processing method, and information processing device
JP2004234455A (en) Information processing method and image reproducing apparatus
JP7446754B2 (en) Image processing device, image processing method, and program
CN114442872A (en) Layout and interaction method of virtual user interface and three-dimensional display equipment
JP2004280250A (en) Apparatus and method for processing information
JP4078080B2 (en) Information processing apparatus and method
CN113906731A (en) Video processing method and device
JP2004070609A (en) Image reproduction device and method
JP2004062755A (en) Image providing device and image processing method
JP6149967B1 (en) Video distribution server, video output device, video distribution system, and video distribution method
CN115686295A (en) Image processing apparatus, image processing method, and storage medium
JP2004070608A (en) Virtual space presentation device, information management device and control method for the same

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060606