JP2004005272A - 仮想空間移動制御装置及び制御方法並びに制御プログラム - Google Patents

仮想空間移動制御装置及び制御方法並びに制御プログラム Download PDF

Info

Publication number
JP2004005272A
JP2004005272A JP2002160761A JP2002160761A JP2004005272A JP 2004005272 A JP2004005272 A JP 2004005272A JP 2002160761 A JP2002160761 A JP 2002160761A JP 2002160761 A JP2002160761 A JP 2002160761A JP 2004005272 A JP2004005272 A JP 2004005272A
Authority
JP
Japan
Prior art keywords
virtual space
viewpoint
information
touch
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002160761A
Other languages
English (en)
Inventor
Kimimoto Shinomiya
四宮 公基
Atsushi Sakai
坂井 淳
Yasuji Ogawa
小川 保二
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CAD CENTER KK
CAD CT KK
EIT KK
Original Assignee
CAD CENTER KK
CAD CT KK
EIT KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CAD CENTER KK, CAD CT KK, EIT KK filed Critical CAD CENTER KK
Priority to JP2002160761A priority Critical patent/JP2004005272A/ja
Priority to US10/447,828 priority patent/US7477243B2/en
Priority to DE60324224T priority patent/DE60324224D1/de
Priority to EP03253456A priority patent/EP1369822B1/en
Publication of JP2004005272A publication Critical patent/JP2004005272A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ユーザが指等による簡単な操作によって、種々の仮想空間移動操作を行うことができる仮想空間移動制御装置及び制御方法並びに制御プログラムを提供する。
【解決手段】表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出処理と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成処理と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成処理とを行う。
【選択図】図1

Description

【0001】
【発明の属する技術分野】
本発明は、仮想空間内の移動制御装置及び制御方法並びに制御プログラムに関し、具体的には、ユーザがコンピュータ端末上に表示された該仮想空間を移動する際に、仮想空間移動画像処理に必要な仮想空間移動情報を生成し、CG(コンピュータ・グラフィック)モデルを移動制御するための仮想空間移動制御装置及び制御方法並びに制御プログラムに関する。
【0002】
【従来の技術】
近年、CGを用いて表現された、サイバースペースと呼ばれる仮想空間が提供されている。ユーザは、コンピュータ端末上に表示される仮想空間内を移動しながら、情報を体感的に取得することができる。これらコンピュータ端末上の仮想空間内を移動するためのマン・マシン・インターフェイスとして、マウス、ジョイスティック等が一般的である。
【0003】
マウスは、仮想空間の表示領域をカーソルにより移動操作すると、この操作に基づいて空間内の移動情報に変換するのに用いられる。また、ジョイスティックは、スティック部分を傾けた方向及び角度に基づいて、空間内の移動情報に変換するのに用いられる。しかし、従来のインターフェイス装置である、マウスやジョイスティックは、コンピュータに触れたことがないユーザにとっては、仮想空間の移動動作を実現するための手段としては、必ずしも直感的に理解できるものではない。
【0004】
上述のマウスやジョイスティックと同様の操作を行うためのマン・マシン・インターフェイスとして、タッチパネル等を用いたものがある。この場合、指等で仮想空間内の移動位置を直接指定することにより、表示を変更することが可能である。しかし、通常のタッチパネルにおいて、マウスやジョイスティックによる仮想空間内の移動操作と同様の操作を指だけで行うことはできず、別の操作が必要となるので、操作が煩雑であり直感的な操作ができなかった。
【0005】
【発明が解決しようとする課題】
この発明はこのような事情を考慮してなされたもので、その目的は、ユーザが指等による簡単な操作によって、種々の仮想空間移動操作を行うことができる仮想空間移動制御装置及び制御方法並びに制御プログラムを提供することにある。
【0006】
【課題を解決するための手段】
この発明は上記の課題を解決すべくなされたもので、請求項1に記載の発明は、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段とを具備することを特徴とする。
【0007】
請求項2に記載の発明は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部とを具備することを特徴とする。
【0008】
請求項3に記載の発明は、請求項2に記載の発明において、前記情報制御部は、前記複数の指示部位の一指示部位によりタッチ操作されたタッチ位置を受けて、前記タッチ位置に視点の位置を変更する視点移動情報を生成することを特徴とする。
【0009】
請求項4に記載の発明は、請求項2または請求項3に記載の発明において、前記情報制御部は、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列データに基づいて、視点を移動させる視点移動情報を生成することを特徴とする。
【0010】
請求項5に記載の発明は、請求項2から請求項4のいずれかの項に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点アイコンが、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該ドラック操作された開始点から終点への距離及び方向の時系列データに基づいて、前記仮想空間の視点を移動させる視点移動情報を生成する。
【0011】
請求項6に記載の発明は、請求項2から請求項4のいずれかの項に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点の視野角アイコンが、前記複数の指示部位の一指示部位によりドラック操作された回転角をうけて、該回転角分だけ視野角を回転させる視点移動情報を生成することを特徴とする。
【0012】
請求項7に記載の発明は、請求項2に記載の発明において、前記情報制御部は、先にタッチ操作された第一のタッチ位置から後にタッチ操作された第二のタッチ位置への距離及び方向のデータを受けて、該第一のタッチ位置から第二のタッチ位置への距離及び方向に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0013】
請求項8に記載の発明は、請求項7に記載の発明において、前記情報制御部は、前記第一のタッチ位置と前記第二のタッチ位置に基づいて,前記第一のタッチ位置と前記第二のタッチ位置を結ぶ線を所定の割合で分割する分割点の位置を算出し、該分割点の位置の時系列的変化に基づいて,視点を移動させる速度または加速度を変更する視点移動情報を生成することを特徴とする。
【0014】
請求項9に記載の発明は、請求項2に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記複数の指示部位の二指示部位によりタッチ操作された二指示部位間の距離の時系列データを受けて、該タッチ操作された二指示部位間の距離の時系列的変化に基づいて、前記仮想平面を拡大縮小表示する拡大縮小情報を生成することを特徴とする。
【0015】
請求項10に記載の発明は、請求項2に記載の発明において、前記情報制御部は、タッチ操作された第1〜nのタッチ位置の中心点の位置の時系列データを受けて、該第1〜nのタッチ位置の中心となる点の位置の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0016】
請求項11に記載の発明は、請求項2に記載の発明において、前記表示部は、さらに前記仮想空間における視点を操作するための操作アイコンを表示し、前記情報制御部は、前記操作アイコンが具備するドラック部がドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0017】
請求項12に記載の発明は、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出処理と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成処理と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成処理とを具備することを特徴とする。
【0018】
請求項13に記載の発明は、表示画面に表示される仮想空間画像を移動させる仮想空間制御システムにおいて、前記操作検出部は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出し、前記情報制御部は、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力し、前記表示部は、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示することを特徴とする。
【0019】
請求項14に記載の発明は、請求項13に記載の発明において、前記情報制御部は、前記複数の指示部位の一指示部位によりタッチ操作されたタッチ位置を受けて、前記タッチ位置に視点の位置を変更する視点移動情報を生成することを特徴とする。
【0020】
請求項15に記載の発明は、請求項13または請求項15に記載の発明において、前記情報制御部は、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列データに基づいて、視点を移動させる視点移動情報を生成することを特徴とする。
【0021】
請求項16に記載の発明は、請求項13から請求項15のいずれかの項に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点アイコンが、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該ドラック操作された開始点から終点への距離及び方向の時系列データに基づいて、前記仮想空間の視点を移動させる視点移動情報を生成することを特徴とする。
【0022】
請求項17に記載の発明は、請求項13から請求項15のいずれかの項に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点の視野角アイコンが、前記複数の指示部位の一指示部位によりドラック操作された回転角をうけて、該回転角分だけ視野角を回転させる視点移動情報を生成することを特徴とする。
【0023】
請求項18に記載の発明は、請求項13に記載の発明において、前記情報制御部は、先にタッチ操作された第一のタッチ位置から後にタッチ操作された第二のタッチ位置への距離及び方向のデータを受けて、該第一のタッチ位置から第二のタッチ位置への距離及び方向に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0024】
請求項19に記載の発明は、請求項18に記載の発明において、前記情報制御部は、前記第一のタッチ位置と前記第二のタッチ位置に基づいて,前記第一のタッチ位置と前記第二のタッチ位置を結ぶ線分を所定の割合で分割する分割点の位置を算出し、該分割点の位置の時系列的変化に基づいて,視点を移動させる速度または加速度を変更する視点移動情報を生成することを特徴とする。
【0025】
請求項20に記載の発明は、請求項13に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記複数の指示部位の二指示部位によりタッチ操作された二指示部位間の距離の時系列データを受けて、該タッチ操作された二指示部位間の距離の時系列的変化に基づいて、前記仮想平面を拡大縮小表示する拡大縮小情報を生成することを特徴とする。
【0026】
請求項21に記載の発明は、請求項13に記載の発明において、前記情報制御部は、タッチ操作された第1〜nのタッチ位置の中心点の位置の時系列データを受けて、該第1〜nのタッチ位置の中心となる点の位置の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0027】
請求項22に記載の発明は、請求項13に記載の発明において、前記表示部は、さらに前記仮想空間における視点を操作するための操作アイコンを表示し、前記情報制御部は、前記操作アイコンが具備するドラック部がドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0028】
請求項23に記載の発明は、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において用いられるプログラムであって、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段とを具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムである。
【0029】
請求項24に記載の発明は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部とを具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムである。
【0030】
請求項25に記載の発明は、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において用いられるプログラムを記録した記録媒体であって、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段とを具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムを記録した記録媒体である。
【0031】
請求項26に記載の発明は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部とを具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムを記録した記録媒体である。
【0032】
【発明の実施の形態】
以下、図面を参照し、この発明の一実施形態について説明する。図1は、本実施形態における、仮想空間移動制御装置の構成図である。符号1は、CGモデルにより作成された仮想空間を表示する表示部である。符号2は、表示部1の所定の表示領域を指等の複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作すると、タッチ操作またはドラッグ操作する複数の指示部位の数及び複数の指示部位それぞれのタッチ位置を検出する操作検出部である。符号3は、検出された複数の指示部位の数及び複数の指示部位それぞれのタッチ位置に基づいて、仮想空間の表示における視点を移動させる視点移動情報を生成し、表示部に出力する情報制御部である。
【0033】
次に本実施形態の仮想空間移動制御装置の動作について説明する。
操作検出部2は、図1に示すように表示部1の左右に設置されており、光学式座標検出方式によって、表示部の表面を一定間隔毎に高速走査する。表示部上において、指示部位によりタッチ操作またはドラッグ操作すると、走査光が遮られることにより、操作検出部2は、光を遮る指示部位の数及び方向を検出する。この光を遮る指示部位の方向を異なる操作検出部において検出した検出結果を受けて、情報制御部3は、三角測量の原理より指示部位の正確な指示位置座標を算出する。そして、情報制御部3は、算出したそれぞれの指示部位の位置座標に基づいて、指示部位間の距離を算出する。
情報制御部3は、光を遮る指示部位の数、指示部位それぞれの位置座標、指示部位間の距離に基づいて、仮想空間の表示における視点を移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部から出力された移動情報に基づいて、仮想空間を表示する。
【0034】
以上説明したように、本実施形態の構成により、仮想空間に表示されるCGモデルに対して、所定領域内での複数の指示部位からなる指示体のタッチ操作またはドラッグ操作に基づいて、仮想空間の表示における視点を移動させるための移動情報を生成し、移動情報をCGモデルに反映させることが可能となる。
【0035】
次に本実施形態の仮想空間移動制御装置の具体的な処理手順について説明する。図2は、図1の表示部に表示された都市の2次元仮想平面空間及び3次元仮想平面空間を示す概観図である。2次元仮想平面空間には都市の地図が表示され、また、この地図上には、3次元仮想空間における視点を示す視点表示アイコンが表示される。視点表示アイコンは、視点の位置座標を示しアイコンの回転の中心部分となる視点アイコン4及び3次元仮想空間における視野角を示す視野角アイコン5からなる。
2次元仮想平面空間及び3次元仮想空間は、同一の位置座標により表示され、視点が移動する場合は、互いに連動して移動表示される。また、3次元仮想空間は、さらに垂直方向の高さを示す座標値及び視点の方向を規定するロール角、ヘディング角、ピッチ角及び画角により表示される。
【0036】
情報制御部3は、ユーザが何本の指で操作をしたか、タッチ操作かドラック操作か、どの表示領域でどの対象に対して操作をしたかについて判定をし、位置座標、垂直座標、ロール角、ヘディング角、ピッチ角及び画角の変更からなる移動情報を作成する。以下にその具体的な個々の処理について説明する。
【0037】
仮想空間移動制御装置が起動すると、情報制御部3は、住所入力画面を表示し、ユーザが入力した住所に基づいて、表示部1に2次元仮想平面空間画像である周辺地図及び入力された住所の位置に視点表示アイコンを表示する。次に、該視点表示アイコンの位置から見た3次元仮想空間画像を表示する。
次に操作検出部2が、表示部上において、指示部位によりタッチ操作またはドラッグ操作されたことを検出した場合の具体的な動作について説明する。
まずタッチ操作またはドラッグ操作場所が、2次元平面空間である場合について、図3の情報制御部3における処理のフローチャートを参照して説明する。
(1)タッチ操作による視点移動操作
ユーザが2次元仮想平面空間の都市の地図を1本の指でタッチ操作すると(図3のステップSa1で1本、及びステップSa2で捜査対象が地図、及びステップ3でタッチ操作)、操作検出部2は、タッチ位置を検出し、情報制御部3に出力する。情報制御部3は、タッチ位置の検出を受けて、タッチ位置に視点の位置を変更し、視点を移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、都市の地図上の視点表示アイコンを移動した2次元仮想平面空間及び移動先の視点から見える3次元仮想空間を表示する(ステップS1参照)。
【0038】
(2)ドラック操作による地図移動操作
ユーザが2次元仮想平面空間の都市の地図を1本の指でドラック操作すると(ステップSa1で1本、及びステップSa2で捜査対象が地図、及びステップ3でドラック操作)、操作検出部2は、ドラック操作の開始点から終点への距離及び方向を時系列的に検出し、情報制御部3に出力する。情報制御部3は、開始点から終点への距離及び方向の検出を受けて、地図をドラック操作の開始点から終点への距離分だけ、ドラック操作の開始点から終点への方向へ移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、ドラック操作した分だけ地図が移動した2次元仮想平面空間を表示する(ステップS2参照)。
【0039】
(3)ドラック操作による視点移動操作
ユーザが2次元仮想平面空間の都市の地図上に表示された視点アイコン4を1本の指でドラック操作すると(ステップSa1で1本、及びステップSa2で捜査対象が視点アイコン)、操作検出部2は、ドラック操作の開始点から終点への距離及び方向を時系列的に検出し、情報制御部3に出力する。情報制御部3は、開始点から終点への距離及び方向に基づいて、ドラック操作の終点部に視点表示アイコン及び3次元仮想空間の視点を移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、ドラック操作の終点部に視点表示アイコンが移動した2次元仮想平面空間及び移動先の視点から見える3次元仮想空間を表示する(ステップS3及びステップ4を参照)。
【0040】
(4)視野角移動操作
ユーザが2次元仮想平面空間の都市の地図上に表示された視点表示アイコンの視野角アイコンを1本の指でドラック操作すると(ステップSa1で1本、及びステップSa2で捜査対象が視野角アイコン)、操作検出部2は、ドラック操作の開始点から終点への距離、方向及び回転角を検出し、情報制御部3に出力する。情報制御部3は、開始点から終点への距離及び方向に基づいて、ドラック操作の終点部に視野角アイコンを回転移動し、3次元仮想空間の視点を検出した回転角ぶんだけ回転させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、ドラック操作の終点部に視野角アイコンが回転した2次元仮想平面空間及び回転移動した視点から見える3次元仮想空間を表示する(ステップS5及びステップ6を参照)。
【0041】
(5)拡大・縮小操作
ユーザが2次元仮想平面空間の都市の地図を2本の指でタッチ操作すると(ステップSa1で2本の場合)、操作検出部2は、2本の指間の距離を時系列的に検出し、情報制御部3に出力する。情報制御部3は、2本の指が近づくと2本の指間の距離が縮むことを受けて(ステップSa4で距離が縮んだ)、地図を縮小表示する拡大縮小情報を生成し、表示部1に出力する。また、2本の指の距離が離れると2本の指間の距離が伸びることを受けて(ステップSa4で距離が縮んだ場合)、地図を拡大表示する拡大縮小情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された拡大縮小情報に基づいて、拡大縮小表示した3次元仮想空間及び2次元仮想平面空間を表示する。(ステップS7及びステップ8を参照)
【0042】
次にタッチ操作またはドラッグ操作場所が、3次元空間である場合について、図4の情報制御部3における処理のフローチャートを参照して説明する。
(6)タッチ操作による視点方向移動操作
ユーザが3次元仮想空間の都市の立体図を1本の指でタッチ操作すると(図3のステップSb1で1本、及びステップSb2でタッチ操作)、操作検出部2は、タッチ位置を検出し、情報制御部3に出力する。情報制御部3は、タッチ位置の検出を受けて、視点方向をタッチ位置に変更するために視点方向を規定するロール角、ヘディング角、ピッチ角を変更する視点方向情報及び視野角アイコンを回転させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点方向情報に基づいて、3次元仮想空間の都市の立体図において視点方向をタッチ位置に変更した3次元仮想空間を表示する(ステップS9を参照)。また視野角アイコンを回転させる視点移動情報に基づいて、視野角アイコンが回転した2次元仮想平面空間を表示する(ステップS10を参照)。
【0043】
(7)ドラック操作による視点方向移動操作
ユーザが3次元仮想空間の都市の立体図を1本の指でドラック操作すると(図4のステップSb1で1本、及びステップSb2でドラック操作)、操作検出部2は、ドラック操作の開始点から終点への距離及び方向を検出し、情報制御部3に出力する。情報制御部3は、ドラック操作の開始点から終点への距離及び方向の検出を受けて、ドラック操作の開始点から終点の方向へドラック操作の開始点から終点への距離分だけ、視点方向を変更するために視点方向を規定するロール角、ヘディング角、ピッチ角を変更する視点方向情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点方向情報に基づいて、3次元仮想空間の都市の立体図において視点方向をドラック操作の開始点から終点の方向へドラック操作の開始点から終点への距離分だけ変更した3次元仮想空間を表示する(ステップS11を参照)。また視野角アイコンを回転させる視点移動情報に基づいて、視野角アイコンが回転した2次元仮想平面空間を表示する(ステップS12を参照)。
【0044】
(8)右前方・左前方、右後方・左後方への視点移動操作
ユーザが3次元仮想空間の都市の立体図を2本の指でタッチ操作すると(図4のステップSb1で2本)、操作検出部2は、先にタッチ操作された第一のタッチ位置から後にタッチ操作された第二のタッチ位置への距離及び方向を時系列的に検出し、情報制御部3に出力する。情報制御部3は、第一のタッチ位置と第二のタッチ位置に基づいて,第一のタッチ位置と第二のタッチ位置の中点の位置を算出する。そして、情報制御部3は、第一のタッチ位置から該中点への距離及び方向に基づいて、第一のタッチ位置から該中点の方向へ視点を移動させる速度または加速度等の視点移動情報を生成し、表示部1に出力する。
【0045】
たとえば、第二のタッチ位置が、第一のタッチ位置から見て右上である場合(ステップSb3で右、及びステップSb4で上)、右前方に視点を移動させる視点移動情報を生成し、表示部1に出力する。また、第二のタッチ位置が、第一のタッチ位置から見て右下である場合(ステップSb3で右、及びステップSb4で下)、左後方に視点を移動させる視点移動情報を生成し、表示部1に出力する。なお、第二のタッチ位置が、第一のタッチ位置から見て左上、あるいは、左下である場合も上述の処理手順に従って、情報制御部3は視点移動情報を生成し、表示部1に出力する。
【0046】
また、情報制御部3は、さらに第一のタッチ位置と第二のタッチ位置を結ぶ線分を所定の割合で分割する分割点の位置を算出し、分割点の位置が移動した場合、この分割点の移動距離及び移動方向に基づいて,視点を移動させる速度または加速度等の視点移動情報を生成し、表示部1に出力する。
たとえば、分割点の位置が時系列的に上方に移動した場合、情報制御部3は、該中点の移動距離に基づいて,視点を移動させる速度または加速度を大きくする視点移動情報を生成し、表示部1に出力する。
また、分割点の位置が時系列的に下方に移動した場合、情報制御部3は、該中点の移動距離に基づいて,視点を移動させる速度または加速度を小さくする視点移動情報を生成し、表示部1に出力する。
なお、上述の分割点は,第一のタッチ位置と第二のタッチ位置を結ぶ線分を所定の割合で内分する内分点、または第一のタッチ位置と第二のタッチ位置を結ぶ線分を所定の割合で外分する外分点であってもよい。
表示部1は、情報制御部3から出力された視点移動情報に基づいて、時系列的に変更された視点から見える3次元仮想空間及び視点表示アイコンが時系列的に移動した2次元仮想平面空間を表示する(ステップS13〜S20)。
【0047】
(9)垂直上方・下方への視点移動操作
ユーザが3次元仮想空間の都市の立体図を3本以上のn本の指でタッチ操作すると(ステップSb5で3本)、操作検出部2は、タッチ操作された第1〜nのタッチ位置の中心となる点の位置を時系列的に検出し、情報制御部3に出力する。情報制御部3は、第1〜nのタッチ位置の中心点の位置の時系列的変化に基づいて、垂直方向に垂直移動させる視点移動情報を生成し、表示部1に出力する。たとえば、第1〜nのタッチ位置の中心点を、タッチ操作後、上に移動させた場合、情報制御部3は、視点位置を垂直上方に移動させる視点移動情報を生成し、表示部1に出力する。また、第1〜nのタッチ位置の中心点を、タッチ操作後、下に移動させた場合、情報制御部3は、視点位置を垂直下方に移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、垂直上方または、垂直下方に移動した視点から見える3次元仮想空間を表示する(ステップS21〜S22)。
【0048】
以上説明したように、2次元平面空間、または3次元空間に対して、1本、2本、または3本以上の指で視点移動、視点方向移動、前進・後退、上昇・下降、右回転・左回転、拡大・縮小等の操作を現実空間での操作イメージに近い操作方法で行うことができるので、ユーザに仮想空間移動操作との一体感を与えることができる。
【0049】
次に、上記実施形態における仮想空間移動制御装置を不動産紹介システムに用いた例について説明する。図3は、近隣地区にある建物(工場・銀行・ビル、官公庁、学校、ホテル、病院、駅ビル、娯楽・デパート、駅、構想集合住宅等)を調べる操作画面を示す図である。図3に示す目的物選択ボタンにより、ユーザが目的の建物を選択すると、2次元仮想平面の地図及び3次元仮想平面空間における立体図において、目的の建物のみが、他の建物と識別可能な色に変更されて表示される。また、実際に人間が現在の位置から目的物まで移動する際の移動経路が図2に示すように表示される。これにより、ユーザは、目的の建物までの距離や方角を感覚的に理解することができる。
【0050】
また、図5には、上述の操作と同様の操作を、操作する指の数に応じて割当てた、半球状の3つの操作アイコンが表示され、操作アイコン6は1本指操作、操作アイコン7は2本指操作、操作アイコン8は3本以上の指の操作に対応する。各操作アイコン6〜8には、半球中心部にドラック部6a、6b、6cが表示させる。ユーザが操作アイコンのドラック部をドラック操作すると、操作検出部2は、ドラック操作の開始点から終点への距離及び方向を時系列的に検出し、情報制御部3に出力する。情報制御部3は、ドラック操作の開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて仮想空間表示する。
【0051】
これにより、指等のある程度幅がある指示体でタッチ操作またはドラック操作する場合に、タッチ操作またはドラック操作している表示部分が、見えないという問題点を解決することができる。すなわち、上述の操作アイコンにより、表示画面と近い領域ではあるが、重なってはいない部分で上記実施例における一連の仮想空間移動制御過程を実行することができる。
【0052】
図6に仮想空間移動制御装置を不動産紹介システムに用いた例における、マンションの外観紹介の例を示す。3次元仮想空間にCGで表示された高層マンションは、前述の実施例における、視点の上昇・下降、右回転・左回転操作により様々な視点からマンションの外観を見ることが可能である。
【0053】
図7は、図6のマンションの18階部分の1806号室から外を見た場合の様子を示す図である。図6の階表示アイコンで、目的の階及び部屋を選択することで、目的の部屋の窓の位置に視点が移動するように視点情報が生成され、表示部において、目的の窓からの眺望を仮想空間内で楽しむことができる。
【0054】
さらに、図8は、上述のマンションにおける、室内の様子を示す図である。2次元仮想平面空間には、部屋の配置図が表示されている。また3次元仮想空間には、部屋の配置図上に表示された視点表示アイコンの位置から見た部屋の立体図が表示されている。このような室内空間においても、上述の仮想空間制御装置は適用可能であり、2次元平面空間、または3次元空間に対して、1本、2本、または3本以上の指で視点移動、視点方向移動、前進・後退、上昇・下降、右回転・左回転、拡大・縮小等の操作を現実空間での操作イメージに近い操作方法で行うことができ、ユーザが指等による簡単な操作によって種々の仮想空間移動操作を行うことができることは言うまでもない。
【0055】
なお、上述の仮想空間移動制御装置は内部に、コンピュータシステムを有している。上述した仮想空間移動制御に関する一連の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
【0056】
【発明の効果】
以上説明したように請求項1及び請求項12に記載の発明によれば、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出処理と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成処理と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成処理とを行うので、ユーザが指等による簡単な操作によって、種々の仮想空間移動操作を行うことができる効果が得られる。
【0057】
請求項2及び請求項13に記載の発明によれば、表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、操作検出部は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び複数の指示部位それぞれのタッチ位置を検出し、情報制御部は、複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、仮想空間画像の視点を移動させる視点移動情報を生成し、表示部に出力し、表示部は、情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示するので、複数の指示部位の数及び複数の指示部位それぞれのタッチ位置に基づいて、様々な仮想空間移動操作を割り当てることが可能であり、さらに、ユーザが指等による簡単な操作によって、種々の仮想空間移動操作を行うことができる効果が得られる。
【0058】
請求項11及び請求項22に記載の発明によれば、表示部は、さらに前記仮想空間における視点を操作するための操作アイコンを表示し、情報制御部は、操作アイコンが具備するドラック部がドラック操作された開始点から終点への距離及び方向の時系列データを受けて、開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成するので、タッチ操作またはドラック操作により表示部分が隠れてしまわないという効果を得ることができる。
【図面の簡単な説明】
【図1】本実施形態における、仮想空間移動制御装置の構成図である。
【図2】表示部に表示された都市の2次元仮想平面空間及び3次元仮想平面空間を示す概観図である。
【図3】タッチ操作またはドラッグ操作が2次元平面空間で行われた場合の情報制御部3における処理のフローチャートである。
【図4】タッチ操作またはドラッグ操作が3次元空間で行われた場合の情報制御部3における処理のフローチャートである。
【図5】近隣地区にある建物を調べる操作画面を示す図である。
【図6】仮想空間移動制御装置を不動産紹介システムに用いた例における、マンションの外観紹介を表示した図である。
【図7】図6のマンションの18階部分の1806号室から外を見た場合の様子を示す図である。
【図8】図7のマンションの室内の様子を示す図である。
【符号の説明】
1…表示部
2…操作検出部
3…情報制御部
4…視点アイコン
5…視野角アイコン
6…1本指操作アイコン
7…2本指操作アイコン
8…3本指操作アイコン

Claims (26)

  1. 表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において、
    前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、
    前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、
    前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段と
    を具備することを特徴とする仮想空間移動制御装置。
  2. 仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、
    前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、
    前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部と、
    を具備することを特徴とする仮想空間移動制御装置。
  3. 前記情報制御部は、前記複数の指示部位の一指示部位によりタッチ操作されたタッチ位置を受けて、前記タッチ位置に視点の位置を変更する視点移動情報を生成することを特徴とする請求項2に記載の仮想空間移動制御装置。
  4. 前記情報制御部は、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列データに基づいて、視点を移動させる視点移動情報を生成することを特徴とする請求項2または請求項3に記載の仮想空間移動制御装置。
  5. 前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点アイコンが、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該ドラック操作された開始点から終点への距離及び方向の時系列データに基づいて、前記仮想空間の視点を移動させる視点移動情報を生成することを特徴とする請求項2から請求項4のいずれかの項に記載の仮想空間移動制御装置。
  6. 前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点の視野角アイコンが、前記複数の指示部位の一指示部位によりドラック操作された回転角をうけて、該回転角分だけ視野角を回転させる視点移動情報を生成することを特徴とする請求項2から請求項4のいずれかの項に記載の仮想空間移動制御装置。
  7. 前記情報制御部は、先にタッチ操作された第一のタッチ位置から後にタッチ操作された第二のタッチ位置への距離及び方向のデータを受けて、該第一のタッチ位置から第二のタッチ位置への距離及び方向に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする請求項2に記載の仮想空間移動制御装置。
  8. 前記情報制御部は、前記第一のタッチ位置と前記第二のタッチ位置に基づいて,前記第一のタッチ位置と前記第二のタッチ位置を結ぶ線分を所定の割合で分割する分割点の位置を算出し、該分割点の位置の時系列的変化に基づいて,視点を移動させる速度または加速度を変更する視点移動情報を生成することを特徴とする請求項7に記載の仮想空間移動制御装置。
  9. 前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記複数の指示部位の二指示部位によりタッチ操作された二指示部位間の距離の時系列データを受けて、該タッチ操作された二指示部位間の距離の時系列的変化に基づいて、前記仮想平面を拡大縮小表示する拡大縮小情報を生成することを特徴とする請求項2に記載の仮想空間移動制御装置。
  10. 前記情報制御部は、タッチ操作された第1〜nのタッチ位置の中心点の位置の時系列データを受けて、該第1〜nのタッチ位置の中心となる点の位置の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする請求項2に記載の仮想空間移動制御装置。
  11. 前記表示部は、さらに前記仮想空間における視点を操作するための操作アイコンを表示し、
    前記情報制御部は、前記操作アイコンが具備するドラック部がドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする請求項2に記載の仮想空間移動制御装置。
  12. 表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、
    前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出処理と、
    前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成処理と、
    前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成処理と
    を具備することを特徴とする仮想空間移動制御方法。
  13. 表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、
    前記操作検出部は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出し、
    前記情報制御部は、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力し、
    前記表示部は、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する
    ことを特徴とする仮想空間移動制御方法。
  14. 前記情報制御部は、前記複数の指示部位の一指示部位によりタッチ操作されたタッチ位置を受けて、前記タッチ位置に視点の位置を変更する視点移動情報を生成することを特徴とする請求項13に記載の仮想空間移動制御方法。
  15. 前記情報制御部は、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列データに基づいて、視点を移動させる視点移動情報を生成することを特徴とする請求項13または請求項14に記載の仮想空間移動制御方法。
  16. 前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、
    前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点アイコンが、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該ドラック操作された開始点から終点への距離及び方向の時系列データに基づいて、前記仮想空間の視点を移動させる視点移動情報を生成することを特徴とする請求項13から請求項15のいずれかの項に記載の仮想空間移動制御方法。
  17. 前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、
    前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点の視野角アイコンが、前記複数の指示部位の一指示部位によりドラック操作された回転角をうけて、該回転角分だけ視野角を回転させる視点移動情報を生成することを特徴とする請求項13から請求項15のいずれかの項に記載の仮想空間移動制御方法。
  18. 前記情報制御部は、先にタッチ操作された第一のタッチ位置から後にタッチ操作された第二のタッチ位置への距離及び方向のデータを受けて、該第一のタッチ位置から第二のタッチ位置への距離及び方向に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする請求項13に記載の仮想空間移動制御方法。
  19. 前記情報制御部は、前記第一のタッチ位置と前記第二のタッチ位置に基づいて,前記第一のタッチ位置と前記第二のタッチ位置を結ぶ線分を所定の割合で分割する分割点の位置を算出し、該分割点の位置の時系列的変化に基づいて,視点を移動させる速度または加速度を変更する視点移動情報を生成することを特徴とする請求項18に記載の仮想空間移動制御方法。
  20. 前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、
    前記情報制御部は、前記複数の指示部位の二指示部位によりタッチ操作された二指示部位間の距離の時系列データを受けて、該タッチ操作された二指示部位間の距離の時系列的変化に基づいて、前記仮想平面を拡大縮小表示する拡大縮小情報を生成することを特徴とする請求項13に記載の仮想空間移動制御方法。
  21. 前記情報制御部は、タッチ操作された第1〜nのタッチ位置の中心点の位置の時系列データを受けて、該第1〜nのタッチ位置の中心となる点の位置の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする請求項13に記載の仮想空間移動制御方法。
  22. 前記表示部は、さらに前記仮想空間における視点を操作するための操作アイコンを表示し、
    前記情報制御部は、前記操作アイコンが具備するドラック部がドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする請求項13に記載の仮想空間移動制御方法。
  23. 表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において用いられるプログラムであって、
    前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、
    前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、
    前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段と
    を具備することを特徴とする仮想空間移動制御装置を実行するためのプログラム。
  24. 仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、
    前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、
    前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部と、
    を具備することを特徴とする仮想空間移動制御装置を実行するためのプログラム。
  25. 表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において用いられるプログラムを記録した記録媒体であって、
    前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、
    前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、
    前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段と
    を具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムを記録した記録媒体。
  26. 仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、
    前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、
    前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部と、
    を具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムを記録した記録媒体。
JP2002160761A 2002-05-31 2002-05-31 仮想空間移動制御装置及び制御方法並びに制御プログラム Pending JP2004005272A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2002160761A JP2004005272A (ja) 2002-05-31 2002-05-31 仮想空間移動制御装置及び制御方法並びに制御プログラム
US10/447,828 US7477243B2 (en) 2002-05-31 2003-05-29 Apparatus for controlling the shift of virtual space and method and program for controlling same
DE60324224T DE60324224D1 (de) 2002-05-31 2003-06-02 Gerät und Verfahren zur Bestimmung der Blickpunktverschiebung in einem virtuellen Raum
EP03253456A EP1369822B1 (en) 2002-05-31 2003-06-02 Apparatus and method for controlling the shift of the viewpoint in a virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002160761A JP2004005272A (ja) 2002-05-31 2002-05-31 仮想空間移動制御装置及び制御方法並びに制御プログラム

Publications (1)

Publication Number Publication Date
JP2004005272A true JP2004005272A (ja) 2004-01-08

Family

ID=29545619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002160761A Pending JP2004005272A (ja) 2002-05-31 2002-05-31 仮想空間移動制御装置及び制御方法並びに制御プログラム

Country Status (4)

Country Link
US (1) US7477243B2 (ja)
EP (1) EP1369822B1 (ja)
JP (1) JP2004005272A (ja)
DE (1) DE60324224D1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006008947A1 (ja) 2004-07-20 2006-01-26 Vodafone K.K. 移動体通信端末、アプリケーションプログラム、画像表示制御装置、電子機器及び画像表示制御方法
JP2007157023A (ja) * 2005-12-08 2007-06-21 Nippon Telegr & Teleph Corp <Ntt> オブジェクト検索装置およびオブジェクト検索方法
JP2008256567A (ja) * 2007-04-05 2008-10-23 Denso Corp 地図表示装置
JP2011014045A (ja) * 2009-07-03 2011-01-20 Sony Corp 地図情報表示装置、地図情報表示方法およびプログラム
KR20110049873A (ko) * 2008-08-22 2011-05-12 구글 인코포레이티드 이동 장치 상의 삼차원 환경에서의 네비게이션
JP2012177809A (ja) * 2011-02-25 2012-09-13 Geo Technical Laboratory Co Ltd 3次元地図表示システム
JP2013020008A (ja) * 2011-07-08 2013-01-31 Mic Ware:Kk 地図表示装置、地図表示方法、プログラム、およびデータ構造
JP2013236374A (ja) * 2012-05-03 2013-11-21 Harman Internatl Industries Inc 仮想カメラを対話形式で制御するシステムおよび方法

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195491A (ja) * 1999-11-02 2001-07-19 Matsushita Electric Works Ltd 住空間関連商品の販売支援方法と課金方法及びそのためのシステムと記録媒体
US6803906B1 (en) * 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7269632B2 (en) 2001-06-05 2007-09-11 Xdyne, Inc. Networked computer system for communicating and operating in a virtual reality environment
US6954197B2 (en) * 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US7532206B2 (en) * 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US8319735B2 (en) * 2003-10-01 2012-11-27 Snap-On Technologies, Inc. User interface for diagnostic instrument
US7274356B2 (en) * 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7355593B2 (en) * 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7460110B2 (en) * 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8120596B2 (en) * 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
US7823068B2 (en) * 2006-02-28 2010-10-26 Mark Anthony Ogle Cowtan Internet-based, dual-paned virtual tour presentation system with orientational capabilities and versatile tabbed menu-driven area for multi-media content delivery
US9442607B2 (en) * 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
WO2008128096A2 (en) 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods
JP4926826B2 (ja) * 2007-05-25 2012-05-09 キヤノン株式会社 情報処理方法および情報処理装置
US8094137B2 (en) * 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
US20090040186A1 (en) * 2007-08-07 2009-02-12 Esenther Alan W Method and System for Displaying Multiple Synchronized Images
US8384693B2 (en) 2007-08-30 2013-02-26 Next Holdings Limited Low profile touch panel systems
CN101802760B (zh) 2007-08-30 2013-03-20 奈克斯特控股有限公司 具有改进照明的光学触摸屏
KR101445196B1 (ko) 2007-11-23 2014-09-29 삼성전자주식회사 터치 스크린을 가지는 휴대 단말기의 문자 입력 방법 및장치
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
CN102067180B (zh) 2008-04-14 2014-07-09 谷歌公司 使用虚拟表面摇摄
US8799821B1 (en) 2008-04-24 2014-08-05 Pixar Method and apparatus for user inputs for three-dimensional animation
US10180714B1 (en) 2008-04-24 2019-01-15 Pixar Two-handed multi-stroke marking menus for multi-touch devices
US20090277697A1 (en) * 2008-05-09 2009-11-12 Smart Technologies Ulc Interactive Input System And Pen Tool Therefor
US20090278794A1 (en) * 2008-05-09 2009-11-12 Smart Technologies Ulc Interactive Input System With Controlled Lighting
US8902193B2 (en) * 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US20090278795A1 (en) * 2008-05-09 2009-11-12 Smart Technologies Ulc Interactive Input System And Illumination Assembly Therefor
US8948788B2 (en) 2008-05-28 2015-02-03 Google Inc. Motion-controlled views on mobile computing devices
US8339378B2 (en) * 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
US20100321319A1 (en) * 2009-06-17 2010-12-23 Hefti Thierry Method for displaying and updating a view of a graphical scene in response to commands via a touch-sensitive device
US20110043538A1 (en) * 2009-08-18 2011-02-24 Sony Ericsson Mobile Communications Ab Method and Arrangement for Zooming on a Display
US20110095989A1 (en) * 2009-10-23 2011-04-28 Smart Technologies Ulc Interactive input system and bezel therefor
TWI426464B (zh) * 2009-12-30 2014-02-11 Univ Nat Taiwan 四維資訊展示方法及裝置
EP2362302B1 (en) * 2010-02-26 2018-06-06 Alcatel Lucent Method for controlling motions of an object in a 3-dimensional virtual environment
GB2487039A (en) * 2010-10-11 2012-07-11 Michele Sciolette Visualizing Illustrated Books And Comics On Digital Devices
US9026359B2 (en) * 2010-11-01 2015-05-05 Nokia Corporation Visually representing a three-dimensional environment
JP5414906B2 (ja) * 2011-08-05 2014-02-12 株式会社東芝 画像処理装置、画像表示装置、画像処理方法およびプログラム
US9026951B2 (en) 2011-12-21 2015-05-05 Apple Inc. Device, method, and graphical user interface for selection of views in a three-dimensional map based on gesture inputs
US10191641B2 (en) 2011-12-29 2019-01-29 Apple Inc. Device, method, and graphical user interface for navigation of information in a map-based interface
US9400592B2 (en) 2012-03-26 2016-07-26 Sharp Laboratories Of America, Inc. Methods, systems and apparatus for digital-marking-surface space and display management
US10108693B2 (en) 2013-03-14 2018-10-23 Xdyne, Inc. System and method for interacting with virtual maps
JP6304242B2 (ja) * 2013-04-04 2018-04-04 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US9330504B2 (en) * 2013-04-30 2016-05-03 Hover Inc. 3D building model construction tools
JP6518582B2 (ja) * 2015-12-21 2019-05-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および操作受付方法
CN110402426A (zh) * 2017-03-22 2019-11-01 索尼公司 图像处理装置、方法及程序
AU2017204099A1 (en) * 2017-06-16 2019-01-17 Canon Kabushiki Kaisha System and method of configuring a virtual camera
AU2017204643B2 (en) 2017-07-07 2020-05-14 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding video data
JP6419278B1 (ja) * 2017-09-19 2018-11-07 キヤノン株式会社 制御装置、制御方法、及びプログラム

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3632866A (en) * 1969-10-22 1972-01-04 Bell Telephone Labor Inc Three-dimensional display
DE69031298T2 (de) * 1989-11-14 1998-01-15 Canon Kk Aufzeichnungsgerät
US5029144A (en) * 1990-07-05 1991-07-02 The United States Of America As Represented By The Secretary Of The Navy Synthetic aperture active underwater imaging system
JPH07117868B2 (ja) * 1991-04-30 1995-12-18 インターナショナル・ビジネス・マシーンズ・コーポレイション タツチ型作動キーボード定義方法及び装置
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5999185A (en) * 1992-03-30 1999-12-07 Kabushiki Kaisha Toshiba Virtual reality control using image, model and control data to manipulate interactions
DE69432199T2 (de) * 1993-05-24 2004-01-08 Sun Microsystems, Inc., Mountain View Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen
CA2124505C (en) * 1993-07-21 2000-01-04 William A. S. Buxton User interface having simultaneously movable tools and cursor
JPH07230352A (ja) 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
JPH0863326A (ja) * 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
JP3284866B2 (ja) 1996-02-05 2002-05-20 日本電信電話株式会社 3次元仮想空間内での任意画面抽出システム
JPH09231004A (ja) 1996-02-23 1997-09-05 Yazaki Corp 情報処理装置
WO1997041935A1 (en) * 1996-05-02 1997-11-13 Sega Enterprises, Ltd. Game machine, its processing method and recording medium
US20010040586A1 (en) * 1996-07-25 2001-11-15 Kabushiki Kaisha Sega Enterprises Image processing device, image processing method, game device, and craft simulator
US6154211A (en) * 1996-09-30 2000-11-28 Sony Corporation Three-dimensional, virtual reality space display processing apparatus, a three dimensional virtual reality space display processing method, and an information providing medium
EP0837418A3 (en) * 1996-10-18 2006-03-29 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
JP3692683B2 (ja) * 1997-02-14 2005-09-07 株式会社セガ ゲーム装置
JPH10336505A (ja) * 1997-04-01 1998-12-18 Sony Corp 画像表示装置及び画像表示方法
US6750848B1 (en) * 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
JPH1173271A (ja) 1997-08-28 1999-03-16 Sharp Corp 指示装置、処理装置および記憶媒体
JP3123501B2 (ja) * 1998-03-16 2001-01-15 日本電気株式会社 空間視点制御装置
US6552722B1 (en) * 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
JP3646582B2 (ja) * 1998-09-28 2005-05-11 富士通株式会社 電子情報表示方法、電子情報閲覧装置および電子情報閲覧プログラム記憶媒体
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6710770B2 (en) * 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
AU2001227797A1 (en) * 2000-01-10 2001-07-24 Ic Tech, Inc. Method and system for interacting with a display
JP4803883B2 (ja) 2000-01-31 2011-10-26 キヤノン株式会社 位置情報処理装置及びその方法及びそのプログラム。
WO2002033657A2 (en) * 2000-10-20 2002-04-25 Robert Batchko Combinatorial optical processor
JP4589007B2 (ja) * 2002-04-12 2010-12-01 ヘンリー ケイ. オバーマイヤー, 多軸ジョイスティックおよびそのためのトランスデューサー手段
US20040246269A1 (en) * 2002-11-29 2004-12-09 Luis Serra System and method for managing a plurality of locations of interest in 3D data displays ("Zoom Context")
US8555165B2 (en) * 2003-05-08 2013-10-08 Hillcrest Laboratories, Inc. Methods and systems for generating a zoomable graphical user interface

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8619028B2 (en) 2004-07-20 2013-12-31 Vodafone Group Plc Mobile communication terminal, application program, image display control apparatus, electronic apparatus, and image display control method
WO2006008947A1 (ja) 2004-07-20 2006-01-26 Vodafone K.K. 移動体通信端末、アプリケーションプログラム、画像表示制御装置、電子機器及び画像表示制御方法
JP2007157023A (ja) * 2005-12-08 2007-06-21 Nippon Telegr & Teleph Corp <Ntt> オブジェクト検索装置およびオブジェクト検索方法
JP2008256567A (ja) * 2007-04-05 2008-10-23 Denso Corp 地図表示装置
KR20110049873A (ko) * 2008-08-22 2011-05-12 구글 인코포레이티드 이동 장치 상의 삼차원 환경에서의 네비게이션
JP2012501016A (ja) * 2008-08-22 2012-01-12 グーグル インコーポレイテッド モバイルデバイス上の3次元環境内でのナビゲーション
KR101665034B1 (ko) * 2008-08-22 2016-10-24 구글 인코포레이티드 이동 장치 상의 삼차원 환경에서의 네비게이션
JP2011014045A (ja) * 2009-07-03 2011-01-20 Sony Corp 地図情報表示装置、地図情報表示方法およびプログラム
US9251722B2 (en) 2009-07-03 2016-02-02 Sony Corporation Map information display device, map information display method and program
US10755604B2 (en) 2009-07-03 2020-08-25 Sony Corporation Map information display device, map information display method and program
JP2012177809A (ja) * 2011-02-25 2012-09-13 Geo Technical Laboratory Co Ltd 3次元地図表示システム
JP2013020008A (ja) * 2011-07-08 2013-01-31 Mic Ware:Kk 地図表示装置、地図表示方法、プログラム、およびデータ構造
JP2013236374A (ja) * 2012-05-03 2013-11-21 Harman Internatl Industries Inc 仮想カメラを対話形式で制御するシステムおよび方法

Also Published As

Publication number Publication date
EP1369822A2 (en) 2003-12-10
DE60324224D1 (de) 2008-12-04
EP1369822B1 (en) 2008-10-22
US20040051709A1 (en) 2004-03-18
US7477243B2 (en) 2009-01-13
EP1369822A3 (en) 2004-03-31

Similar Documents

Publication Publication Date Title
JP2004005272A (ja) 仮想空間移動制御装置及び制御方法並びに制御プログラム
US11422694B2 (en) Disambiguation of multitouch gesture recognition for 3D interaction
US10852913B2 (en) Remote hover touch system and method
EP2042978B1 (en) Method and apparatus for selecting an object within a user interface by performing a gesture
US10290155B2 (en) 3D virtual environment interaction system
US20170205985A1 (en) Expanding a 3d stack of floor maps at a rate proportional to a speed of a pinch gesture
US9323420B2 (en) Floor selection on an interactive digital map
EP2612220B1 (en) Method and apparatus for interfacing
US9128612B2 (en) Continuous determination of a perspective
JPWO2007135835A1 (ja) 画像操作装置、画像操作方法、及び画像操作プログラム
JP2004054590A (ja) 仮想空間描画表示装置、及び仮想空間描画表示方法
US9936168B2 (en) System and methods for controlling a surveying device
CN104137043A (zh) 用于在图形用户界面(gui)上进行人机交互的方法
KR101416235B1 (ko) 3차원 위치 입력 방법 및 장치
JP6174646B2 (ja) 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム
Hachet et al. Navidget for 3d interaction: Camera positioning and further uses
JP5815577B2 (ja) 情報共有支援装置
JPH0877231A (ja) 3次元図形操作装置
JP6002346B1 (ja) ゲームにおけるオブジェクト画像表示のためのプログラム、方法、電子装置及びシステム
JPH0863620A (ja) 図形処理方法及び図形処理装置
WO2024153966A1 (en) Method and system for performing a six degree of freedom manipulation of a virtual entity in the 3d space
JPH05274421A (ja) カーソル制御装置
JP3496677B2 (ja) 地図データ表示装置
JPH06348816A (ja) 3次元図形処理装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050425

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051004