JP2007293429A - 画像閲覧装置、コンピュータの制御方法及びプログラム - Google Patents

画像閲覧装置、コンピュータの制御方法及びプログラム Download PDF

Info

Publication number
JP2007293429A
JP2007293429A JP2006117985A JP2006117985A JP2007293429A JP 2007293429 A JP2007293429 A JP 2007293429A JP 2006117985 A JP2006117985 A JP 2006117985A JP 2006117985 A JP2006117985 A JP 2006117985A JP 2007293429 A JP2007293429 A JP 2007293429A
Authority
JP
Japan
Prior art keywords
image
viewpoint
image object
translucency
perspective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006117985A
Other languages
English (en)
Inventor
Munetaka Tsuda
宗孝 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2006117985A priority Critical patent/JP2007293429A/ja
Priority to US12/297,390 priority patent/US8711169B2/en
Priority to PCT/JP2007/057765 priority patent/WO2007123009A1/ja
Publication of JP2007293429A publication Critical patent/JP2007293429A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency

Abstract

【課題】ユーザが所望の画像を容易に見つけることができる画像閲覧装置を提供すること。
【解決手段】ユーザによる視点移動操作に従って、1以上の画像オブジェクト52が配置された仮想空間50における視点54の位置を移動させる視点位置移動手段と、視点54の位置と各画像オブジェクト52の位置との遠近を示す遠近値を取得する遠近値取得手段と、前記遠近値取得手段により取得される前記各遠近値に基づいて、各画像オブジェクト52の半透明度を決定する半透明度決定手段と、半透明度決定手段により決定される各画像オブジェクト52の半透明度に従って、視点54の位置から仮想空間50を見た様子を示す空間画像を生成する空間画像生成手段と、前記空間画像生成手段により生成される前記空間画像を表示する空間画像表示手段と、を含む。
【選択図】図3

Description

本発明は画像閲覧装置、コンピュータの制御方法及びプログラムに関し、特に、仮想空間に配置された画像を閲覧する画像閲覧装置、コンピュータの制御方法及びプログラムに関する。
コンピュータ上の仮想空間に複数の画像をそれらの関連性に従って配置して、ユーザの操作に従って仮想空間を移動する視点から、視線方向を見た様子をモニタに表示する技術が知られている(例えば下記特許文献1)。こうした技術によれば、ユーザは視点を移動させ、モニタの表示を更新させていくことで、所望の画像を見つけだすことができる。
特開2004−30122号公報
しかしながら、上記背景技術によると、仮想空間に膨大な数の画像が配置されると、モニタにも多数の画像が表示され、ユーザは所望の画像を見つけるのが困難となる。
本発明は上記課題に鑑みてなされたものであって、その目的は、ユーザが所望の画像を容易に見つけることができる画像閲覧装置、コンピュータの制御方法及びプログラムを提供することにある。
上記課題を解決するために、本発明に係る画像閲覧装置は、ユーザによる視点移動操作に従って、1以上の画像オブジェクトが配置された仮想空間における視点の位置を移動させる視点位置移動手段と、前記視点の位置と前記各画像オブジェクトの位置との遠近を示す遠近値を取得する遠近値取得手段と、前記遠近値取得手段により取得される前記各遠近値に基づいて、前記各画像オブジェクトの半透明度を決定する半透明度決定手段と、前記半透明度決定手段により決定される前記各画像オブジェクトの半透明度に従って、前記視点の位置から前記仮想空間を見た様子を示す空間画像を生成する空間画像生成手段と、前記空間画像生成手段により生成される前記空間画像を表示する空間画像表示手段と、を含むことを特徴とする。
また、本発明の一態様では、前記1以上の画像オブジェクトのうち前記ユーザによる詳細表示操作に応じて詳細表示される画像オブジェクトを識別表示する識別表示手段と、前記ユーザによる対象変更操作に従って、前記識別表示される画像オブジェクトを変更する識別表示変更手段と、前記遠近値取得手段により取得される前記各遠近値に基づいて、前記1以上の画像のうち、前記識別表示変更手段により前記識別表示される画像オブジェクトの変更先を決定する識別表示変更先決定手段と、をさらに含む。
また、本発明の一態様では、前記半透明度決定手段は、前記遠近値が所定の第1値未満である前記画像オブジェクトが透明に表示され、前記遠近値が前記第1値以上、所定の第2値未満である前記画像オブジェクトが不透明に表示され、前記遠近値が前記第2値以上である前記画像オブジェクトが半透明に表示されるよう、前記各画像オブジェクトの半透明度を決定する。
また、本発明の一態様では、前記仮想空間において前記視点の前方に位置する前記画像オブジェクトの位置を移動させるオブジェクト位置移動手段をさらに含む。この態様では、前記オブジェクト移動手段は、前記画像オブジェクトの位置を、前記視点から見た他の前記画像オブジェクトとの重なりを小さくするよう移動させるようにしてよい。また前記オブジェクト位置移動手段は、前記視点の状況に応じて、前記画像オブジェクトの位置を移動させてよい。
また、本発明に係るコンピュータの制御方法は、ユーザによる視点移動操作に従って、1以上の画像オブジェクトが配置された仮想空間における視点の位置を移動させる視点位置移動ステップと、前記視点の位置と前記各画像オブジェクトの位置との遠近を示す遠近値を取得する遠近値取得ステップと、前記遠近値取得ステップで取得される前記各遠近値に基づいて、前記各画像オブジェクトの半透明度を決定する半透明度決定ステップと、前記半透明度決定ステップで決定される前記各画像オブジェクトの半透明度に従って、前記視点の位置から前記仮想空間を見た様子を示す空間画像を生成する空間画像生成ステップと、前記空間画像生成ステップで生成される前記空間画像を表示する空間画像表示ステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、ユーザによる視点移動操作に従って、1以上の画像オブジェクトが配置された仮想空間における視点の位置を移動させる視点位置移動手段、前記視点の位置と前記各画像オブジェクトの位置との遠近を示す遠近値を取得する遠近値取得手段、前記遠近値取得手段により取得される前記各遠近値に基づいて、前記各画像オブジェクトの半透明度を決定する半透明度決定手段、前記半透明度決定手段により決定される前記各画像オブジェクトの半透明度に従って、前記視点の位置から前記仮想空間を見た様子を示す空間画像を生成する空間画像生成手段、及び前記空間画像生成手段により生成される前記空間画像を表示する空間画像表示手段としてコンピュータを機能させるためのプログラムである。プログラムは、例えばCD−ROMやDVD−ROM等のコンピュータ読み取り可能な情報記憶媒体に格納されてよい。
以下、本発明の一実施形態について図面に基づき詳細に説明する。
図1は、本実施形態に係るエンタテインメントシステム(画像閲覧装置)のハードウェア構成を示す図である。同図に示すように、エンタテインメントシステム10は、MPU(Micro Processing Unit)11と、メインメモリ20と、画像処理部24と、モニタ26と、入出力処理部28と、音声処理部30と、スピーカ32と、光ディスク読み取り部34と、光ディスク36と、ハードディスク38と、インタフェース(I/F)40,44と、コントローラ42と、カメラユニット46と、ネットワークインタフェース48と、を含んで構成されるコンピュータシステムである。
図2は、MPU11の構成を示す図である。同図に示すように、MPU11は、メインプロセッサ12と、サブプロセッサ14a,14b,14c,14d,14e,14f,14g,14hと、バス16と、メモリコントローラ18と、インタフェース(I/F)22と、を含んで構成される。
メインプロセッサ12は、図示しないROM(Read Only Memory)に記憶されるオペレーティングシステム、例えばDVD(Digital Versatile Disk)−ROM等の光ディスク36から読み出されるプログラム及びデータや、通信ネットワークを介して供給されるプログラム及びデータ等に基づいて、各種情報処理を行ったり、サブプロセッサ14a乃至14hに対する制御を行ったりする。
サブプロセッサ14a乃至14hは、メインプロセッサ12からの指示に従って、各種情報処理を行ったり、エンタテインメントシステム10の各部を、例えばDVD−ROM等の光ディスク36から読み出されるプログラム及びデータや、通信ネットワークを介して供給されるプログラム及びデータ等に基づいて制御したりする。
バス16は、アドレス及びデータをエンタテインメントシステム10の各部でやり取りするためのものである。メインプロセッサ12、サブプロセッサ14a乃至14h、メモリコントローラ18、インタフェース22は、バス16を介して相互にデータ授受可能に接続される。
メモリコントローラ18は、メインプロセッサ12及びサブプロセッサ14a乃至14hからの指示に従って、メインメモリ20へのアクセスを行う。メインメモリ20には、光ディスク36やハードディスク38から読み出されたプログラム及びデータや、通信ネットワークを介して供給されたプログラム及びデータが必要に応じて書き込まれる。メインメモリ20はメインプロセッサ12やサブプロセッサ14a乃至14hの作業用としても用いられる。
インタフェース22には画像処理部24及び入出力処理部28が接続される。メインプロセッサ12及びサブプロセッサ14a乃至14hと、画像処理部24又は入出力処理部28と、の間のデータ授受はインタフェース22を介して行われる。
画像処理部24は、GPU(Graphical Processing Unit)とフレームバッファとを含んで構成される。GPUは、メインプロセッサ12やサブプロセッサ14a乃至14hから供給される画像データに基づいてフレームバッファに各種画面を描画する。フレームバッファに形成された画面は、所定のタイミングでビデオ信号に変換されてモニタ26に出力される。なお、モニタ26には例えば家庭用テレビ受像機が用いられる。
入出力処理部28には、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44が接続される。入出力処理部28は、メインプロセッサ12及びサブプロセッサ14a乃至14hと、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44、ネットワークインタフェース48と、の間のデータ授受を制御する。
音声処理部30は、SPU(Sound Processing Unit)とサウンドバッファとを含んで構成される。サウンドバッファには、光ディスク36やハードディスク38から読み出されたゲーム音楽、ゲーム効果音やメッセージなどの各種音声データが記憶される。SPUは、これらの各種音声データを再生してスピーカ32から出力させる。なお、スピーカ32には例えば家庭用テレビ受像機の内蔵スピーカが用いられる。
光ディスク読み取り部34は、メインプロセッサ12及びサブプロセッサ14a乃至14hからの指示に従って、光ディスク36に記憶されたプログラムやデータを読み取る。なお、エンタテインメントシステム10は、光ディスク36以外の他のコンピュータ読み取り可能な情報記憶媒体に記憶されたプログラムやデータを読み取り可能に構成してもよい。
光ディスク36は例えばDVD−ROM等の一般的な光ディスク(コンピュータ読み取り可能な情報記憶媒体)である。また、ハードディスク38は一般的なハードディスク装置である。光ディスク36やハードディスク38には各種プログラムやデータがコンピュータ読み取り可能に記憶される。
インタフェース(I/F)40,44は、コントローラ42やカメラユニット46等の各種周辺機器を接続するためのインタフェースである。このようなインタフェースとしては、例えばUSB(Universal Serial Bus)インタフェースが用いられる。
コントローラ42は汎用操作入力手段であり、ユーザが各種操作(例えばゲーム操作)を入力するために用いられる。入出力処理部28は、所定時間(例えば1/60秒)ごとにコントローラ42の各部の状態をスキャンし、その結果を表す操作信号をメインプロセッサ12やサブプロセッサ14a乃至14hに供給する。メインプロセッサ12やサブプロセッサ14a乃至14hは、ユーザによって行われた操作の内容をその操作信号に基づいて判断する。なお、エンタテインメントシステム10は複数のコントローラ42を接続可能に構成されており、各コントローラ42から入力される操作信号に基づいて、メインプロセッサ12やサブプロセッサ14a乃至14hが各種処理を実行するようになっている。
カメラユニット46は、例えば公知のデジタルカメラを含んで構成され、白黒、グレイスケール又はカラーの撮影画像を所定時間(例えば1/60秒)ごとに入力する。本実施の形態におけるカメラユニット46は、撮影画像をJPEG(Joint Photographic Experts Group)形式の画像データとして入力するようになっている。また、カメラユニット46は、例えばレンズをプレイヤに向けた状態でモニタ26の上に設置され、ケーブルを介してインタフェース44に接続される。ネットワークインタフェース48は入出力処理部28とネットワーク50とに接続されており、エンタテインメントシステム10がネットワーク50を介して他のエンタテインメントシステム10とデータ通信するのを中継するようになっている。
以下、以上のハードウェア構成を有するエンタテインメントシステム10を、多数の画像を管理し、それらをユーザに閲覧させる画像閲覧装置として構成する方法について説明する。
エンタテインメントシステム10を画像閲覧装置として構成する場合、ハードディスク38に多数の画像データが保存される。この画像データは、例えば光ディスク36等の記憶媒体から読み取られたり、インターネット等の通信ネットワーク上の装置からネットワークインタフェース48を介してダウンロードされたり、カメラユニット46により撮像されたりするものである。画像データは、様々な内容のものであってよく、ユーザにより撮影されたものであってもよいし、他人により撮影されたものであってもよい。或いは、ペイントソフトウェアにより作成されたものであってもよい。
本実施形態では、これら多数の画像データについて、よりデータサイズの小さなサムネイル画像データが事前に作成されており、それらサムネイル画像データがそれぞれテクスチャとしてマッピングされる多数の画像オブジェクトが配置される仮想空間がエンタテインメントシステム10上に構築される。図3は、この仮想空間の一例を示している。同図に示すように、仮想空間50には多数の画像オブジェクト52が配置されている。画像オブジェクト52は、矩形のオブジェクトであり、後述するユーザが所持する画像の縮小版であるサムネイル画像がテクスチャとしてマッピングされる。
また、仮想空間50には視点54も配置されており、この視点54には視線方向56が設定されている。視点54はコントローラ42による操作に従って、仮想空間50内を移動できるようになっており、また視線方向56もコントローラ42による操作に従って、任意の方向に設定できるようになっている。各画像オブジェクト52の姿勢は、視点54の方向を向くようリアルタイムに決定されており、視点54が移動すると、それに応じて各画像オブジェクト52の姿勢も変化するようになっている。
図4は、仮想空間50の構成を記述する空間データベースの記憶内容を模式的に示している。この空間データベースは、例えばハードディスク38内に構築されるものであり、画像データの識別情報である画像ID、そのサムネイル画像データ、オリジナルの(元の)画像データ、及びその画像データに係る画像オブジェクト52の仮想空間50における位置座標を関連づけて記憶している。これらの情報は、ユーザによる閲覧の対象となるすべての画像データについて用意され、空間データベースにより管理される。
なお、仮想空間50における各画像オブジェクト52の位置座標は、各画像データの属性に従って決定される。すなわち、画像データの内容(使用される色情報、空間周波数の情報、顔認識等の認識結果)や画像データの付属情報(ファイルスタンプ、ファイル名、画像データに関連する他の文書データの内容)に基づいて、各画像データの特徴を示す特徴ベクトルを求めて、この特徴ベクトルに従って該画像データに係る画像オブジェクト52の位置座標を決定すればよい。こうすれば、仮想空間50において、ある画像オブジェクト52の近くに配置された画像オブジェクト52ほど、似た内容の画像がマッピングされるようにでき、ユーザは仮想空間50における各画像オブジェクト52の位置関係を頼りに、所望の画像に係る画像オブジェクト52を探し出すことができる。
エンタテインメントシステム10では、空間データベースを参照して、各画像オブジェクト52の位置座標を読み出すとともに、視点54の位置座標に基づいて、それらの姿勢を決定する。また、各サムネイル画像データを読みだし、それを対応する画像オブジェクト52にマッピングする。そして、視点54から視線方向56を見た様子を示す画像、すなわち空間画像を生成し、モニタ26により表示する。図5は、この空間画像の一例を示している。同図に示すように、空間画像には、多数の画像オブジェクト52が表示されているが、その一部である選択対象画像オブジェクト52aは不透明でテクスチャであるサムネイル画像データが描画されており、残りである非選択対象画像オブジェクト52bは半透明でテクスチャであるサムネイル画像データが描画されている。そして、選択対象画像オブジェクト52aの1つの周囲にカーソル画像58が描画されている。このカーソル画像58は、詳細表示の対象をユーザに案内するものであり、コントローラ42の所定のボタンを押下して詳細表示操作を行うと、そのタイミングでカーソル画像58により識別されている選択対象画像オブジェクト52aに対応するオリジナルの画像データがモニタ32に表示されるようになっている。図6は、このようにして画像データがモニタ32に詳細表示された様子を示している。
上述のように、モニタ26により表示される空間画像において、選択対象画像オブジェクト52aは不透明で描画されており、非選択対象画像オブジェクト52bは半透明で描画されている。空間画像を生成する際、視点54の位置を頂点とし、視点54の前方、すなわち視線方向54に広がる四角錐状をなす視野範囲が設定される。そして、この視野範囲内の各画像オブジェクト52と視点54との遠近を示す遠近値が生成される。以下では、この遠近値として、視点54から見た、各画像オブジェクト52の位置(代表位置)の奥行き値、すなわち視点座標系(視点54を原点とし、視線方向56をZ軸とする座標系)におけるZ値を採用している。そして、所定の第1の範囲のZ値を有する位置に配置された画像オブジェクト52については、それらを選択対象画像オブジェクト52aとし、その範囲よりも大きい第2の範囲のZ値を有する位置に配置された画像オブジェクト52については、それらを非選択対象画像オブジェクト52bとしている。そして、それらの非選択対象画像オブジェクト52bについては半透明で空間画像に描画される。なお、遠近値として視点54と各画像オブジェクトとの距離を用いてもよい。
図7は、仮想空間50を視野範囲の側方から見た様子を示している。同図において、白丸は各画像オブジェクト52の位置を示している。同図に示すように、視点54の前方、すなわち視線方向56には四角錐状をなす視野範囲60が設定されており、視野範囲60は、さらにZ値が0以上Z1未満の空間領域50a、Z値がZ1以上Z2未満の空間領域50b、Z値がZ2以上Z3未満の空間領域50cを含んでいる。そして、空間領域50a内に配置された画像オブジェクト52は完全透明で描画され、空間領域50b内に配置された画像オブジェクト52は選択対象画像オブジェクト52aに選ばれるとともに、それらは不透明で描画される。また、空間領域50c内に配置された画像オブジェクト52は非選択対象画像オブジェクト52bに選ばれるとともに、それらは半透明で描画される。このように、視野範囲60内の各画像オブジェクト52の半透明度を変化させるために、エンタテインメントシステム10では、メインメモリ20に図8に示す半透明度関数を保持している。そして、視野範囲60内の画像オブジェクト52について、視点54との遠近値、すなわちZ値を取得して、そのZ値に対応する半透明度(α値)を同関数から取得している。同図に示すように、Z値が0以上Z1未満には、零の半透明度、すなわち完全透明が対応づけられ、Z値がZ1以上Z2未満には、1.0の半透明度、すなわち不透明が対応づけられ、Z値がZ2以上には、Z値が増加するに従って(視点54から離れるに従って)0.5から零に徐々に近づく半透明度が対応づけられている。なお、Z値が0以上Z1未満に、零以上1未満の半透明度を対応づけて、その範囲のZ値を有する位置の画像オブジェクト52についても、半透明で描画するようにしてよい。
図9は、本エンタテインメントシステム10の動作フロー図である。同図に示す処理は所定時間毎(例えば1/60秒毎)に実行されるものであり、光ディスク32に格納された画像閲覧プログラムをエンタテインメントシステム10で実行することにより実現されるものである。
同図に示すように、まずエンタテインメントシステム10は、視点54の位置及び視線方向56を、コントローラ42から入力される操作信号に従って決定する(S101)。視点54の位置及び視線方向56は、直前の視点54の位置及び視線方向56に基づいて、徐々に位置及び姿勢を変化するようにして決定される。
次に、仮想空間50内のすべての画像オブジェクト52について、視点54の位置及び空間データベースから読み出される各画像オブジェクト52の位置に基づいて、それらの姿勢を決定する(S102)。この際、こうして決定される各画像オブジェクト52の姿勢に従って、各画像オブジェクト52の各頂点の座標が算出される。そして、それらの座標を視点座標系に変換するとともに(S103)。視野範囲60から外れる画像オブジェクト52を処理対象から除外する。また、視野範囲60の縁を跨ぐ画像オブジェクト52についてはクリッピング処理を施す(S104)。
その後、視野範囲60内の画像オブジェクト52について、図8に示す関数に従って、半透明度(α値)を決定する(S105)。そして、こうして決定される半透明度を用いて、視野範囲60内の画像オブジェクト52を視点54から見た様子を空間画像として画像処理部24内のフレームバッファに描画する(S106)。このとき、Z値がZ1以上Z2未満である選択対象画像オブジェクト52aのうちの1つを識別するカーソル画像58も、フレームバッファに描画する。
次に、コントローラ42により詳細表示操作が行われているか否かを判断する(S107)。そして、行われていればカーソル画像58により識別されている選択対象画像オブジェクト52aのオリジナルの画像データを空間データベースから読みだし、それをモニタ26により大きく表示する。その後、コントローラ42により詳細表示を停止させる操作が行われているか否かを監視する、そのような操作が行われれば、S110の処理に進む。また、S107で詳細表示操作が行われていないと判断された場合には、S108及びS109の処理をスキップする。
S110では、コントローラ42によりカーソル画像58を移動させる操作がされたか否かを判断する。そして、そのような操作が行われていれば、操作内容に従ってカーソル画像58を他の選択対象画像オブジェクト52の位置に、該他の選択対象画像オブジェクト52を識別するよう移動させ、S101の処理に戻る。また、S110で、カーソル画像58を移動させる操作がされていないと判断された場合には、S111の処理をスキップして、S101の処理に戻る。
以上の実施形態によれば、視点54と各画像オブジェクト52との遠近を示す遠近値に従って、視野範囲60内の画像オブジェクト52から選択対象画像オブジェクト52a及び非選択対象画像オブジェクト52bを選出し、選択対象画像オブジェクト52aについては不透明で空間画像に表し、非選択対象画像オブジェクト52bについては半透明で空間画像に表している。このため、視点54から適切な距離だけ離れた位置の画像オブジェクトが強調表示されることになり、ユーザは、仮想空間50に配置された多数の画像オブジェクト52の中から、所望の画像オブジェクト52を容易に見つけられるようになる。
また、カーソル画像58により識別される画像オブジェクト52は、ユーザによるカーソル移動の操作に応じて、遠近値に基づいて選出される選択対象画像オブジェクト52aの中から選択されるので、ユーザは、詳細表示の対象を素早く指定できるようになる。
なお、本実施形態は種々の変形実施が可能である。
例えば、ハードディスク38に多数の画像データが記憶され、仮想空間50に多数の画像オブジェクト52が配置された場合には、空間画像に多数の画像オブジェクト52の画像が含まれ、その多くが他の画像オブジェクト52により一部又は全部が隠れることになる。そこで、視点54が移動中は、各画像オブジェクト52は空間データベースに記憶された位置に配置されたままにしておき、視点54が所定時間以上停止すると、モニタ26に表示される空間画像において重畳を避けるよう、一部又は全部の画像オブジェクト52が、移動及び/又は縮小され、再配置されるようにしてもよい。図10(a)は、この変形例において、視点54が移動中の空間画像を示しており、同図(b)は、視点54が所定時間停止した後の空間画像を示している。これらの図に示すように、視点54の移動中は、空間画像において画像オブジェクト52が重なっているのに対して、視点54が所定時間以上停止すると、空間画像において画像オブジェクト52は重ならない。このため、ユーザはすべての画像オブジェクト52の内容を空間画像から確認できる。
この場合、図9の処理に加えて、図11に示すオブジェクト再配置ルーチンを並行して実行するようにすればよい。このルーチンでは、まず所定時間にわたり視点54が停止しているか否かを監視する(S201)。そして、視点54が所定時間にわたり停止すると、視野範囲60内の画像オブジェクト62を、視点54から見て相互に重ならないように再配置する(S202)。この場合、領域50bの選択対象画像オブジェクト52aを優先的に再配置してもよい。その後、視点54を移動させる操作がコントローラ42により行われると(S203)、画像オブジェクト62を元の位置、すなわち空間データベースに記憶された位置に戻す処理が実行される(S204)。
以上のようにすれば、空間画像を見ながら所望の画像オブジェクト52の周辺に視点54を移動させ、そこで視点54を停止させると、その前方の選択対象画像オブジェクト52aの内容が重なり無く空間画像に表されるようになり、ユーザはさらに容易に所望の画像を見つけだすことができるようになる。
また、ハードディスク38にさらに多数の画像データが記憶され、仮想空間50にさらに多数の画像オブジェクト52が配置された場合には、関連性を有する画像データに係る画像オブジェクト52については、一列に整列するよう、それらの初期位置(「縮退位置」という。)が決定され、それらが集中配置されるようにすればよい。そして、視点がそれら集中配置された画像オブジェクト52の一群に接近した場合に、それらを分散させ、所定の展開位置に移動させるようにすればよい。
この場合、仮想空間50には、図12に示すように、関連性を有する画像データに係る画像オブジェクト52からなる画像オブジェクト群62が配置されることになる。そして、視点54の前方、すなわち視線方向56にいずれかの画像オブジェクト群62が位置し、視点54と画像オブジェクト群62との距離が所定距離未満となると、画像オブジェクト群62を構成する各画像オブジェクト52が移動を始める。図13は、この変形例における空間画像の変化を示しており、視点54がいずれかの画像オブジェクト群62に接近し、該画像オブジェクト群62を視点54の前方に位置させると、同図(a)に示すようにして、空間画像の中央に1つの画像オブジェクト群62aが表示されることになる。その後、視点54をさらに当該画像オブジェクト群62aに接近させると、同図(b)に示すようにして、画像オブジェクト群62aと視点54との距離に応じて、該画像オブジェクト群62aを構成する各画像オブジェクト52が元の位置(縮退位置)から次第に離れる。そして、最終的には、同図(c)に示すように、画像オブジェクト群62aを構成する各画像オブジェクト52はそれぞれの展開位置に配置される。なお、ここでは、視点54の前方に位置する画像オブジェクト群62aについてのみ、それを構成する各画像オブジェクト52を縮退位置から展開位置に移動するようにしたが、空間画像においてその周囲に表示される画像オブジェクト群62bについても、同様にして、それらを構成する各画像オブジェクト52を縮退位置から展開位置に移動させてよい。
この変形例では、空間データベースに、図14に示すように、画像オブジェクト群62を識別する画像グループID、画像オブジェクト群62を構成する画像オブジェクト52の識別情報である画像ID、各画像オブジェクト52のサムネイル画像データ、オリジナルの画像データ、縮退位置及び展開位置を相互に関連づけて記憶させるようにすればよい。
そして、図9におけるS102の処理の際、図15に示すオブジェクト展開・復帰処理を併せて実行するようにすればよい。この処理では、まず視点54の前方に画像オブジェクト群62が位置しているか否かを判断する(S301)。そして、そのような画像オブジェクト群62があれば、該画像オブジェクト群62の位置(例えば該画像オブジェクト群62を構成する画像オブジェクト52のうち最も視点54側に配置されているものの位置)と視点54との距離を算出する(S302)。そして、こうして算出される距離に従って0以上1以下の補間パラメータを算出する(S303)。例えば、算出される距離が所定の第1距離の場合に1となり、距離が縮まるにつれて減少し、第1の距離よりも短い所定の第2距離の場合に0となるよう、補間パラメータを算出すればよい。そして、S301で特定された画像オブジェクト群62を構成する各画像オブジェクト52について、図14の空間データベースから縮退位置及び展開位置を読みだし、それらをS303で算出される補間パラメータを用いて補間することにより、各画像オブジェクト52の位置を算出する。この場合、補間パラメータが1の場合に画像オブジェクト52の位置は縮退位置をとり、0の場合に画像オブジェクト52の位置は展開位置をとる。こうすれば、視点54との距離が縮まるにつれて、その前方の画像オブジェクト群62を構成する画像オブジェクト52は展開位置に移動する。
次に、視点54の前方から画像オブジェクト群62が離れて、縮退位置に復帰中の、該画像オブジェクト群62を構成する画像オブジェクト52があるか否かを判断する(S305)。そして、そのような画像オブジェクト52があれば、補間パラメータを1に近づけて、該画像オブジェクト群62を構成する画像オブジェクト52の位置を縮退位置に近づける(S306)。こうすれば、時間経過とともに各画像オブジェクト52は縮退位置に戻る。
以上のように、仮想空間50において視点54の前方に位置する画像オブジェクト54の位置を、移動中であるか否かの別や位置等、視点54の状況に応じて他の位置に移動させるようにすれば、視点54の状況によって空間画像の内容が変化するようになり、ユーザはさらに所望の画像を見つけやすくなる。
本発明の実施形態に係るエンタテインメントシステム(画像閲覧装置)のハードウェア構成図である。 MPUの詳細構成図である。 仮想空間の一例を示す図である。 空間データベースの記憶内容を模式的に示す図である。 モニタに表示される空間画像の一例を示す図である。 モニタに表示される詳細画像の一例を示す図である。 空間画像の生成方法を説明する図である。 各画像オブジェクトの代表点のZ値とα値との関係を示す図である。 本発明の実施形態に係るエンタテインメントシステムの動作フロー図である。 モニタに表示される空間画像の他の例を示す図である。 オブジェクト再配置処理を示すフロー図である。 仮想空間の他の例を示す図である。 モニタに表示される空間画像のさらに他の例を示す図である。 変形例に係る空間データベースの記憶内容を模式的に示す図である。 オブジェクト展開・復帰処理を示すフロー図である。
符号の説明
10 エンタテインメントシステム、11 MPU、12 メインプロセッサ、14a〜14h サブプロセッサ、16 バス、18 メモリコントローラ、20 メインメモリ、22,40,44 インタフェース、24 画像処理部、26 モニタ、28 入出力処理部、30 音声処理部、32 スピーカ、34 光ディスク読み取り部、36 光ディスク、38 ハードディスク、42 コントローラ、46 カメラユニット、48 ネットワークインタフェース、50 仮想空間、52 画像オブジェクト、52a 選択対象画像オブジェクト、52b 非選択対象画像オブジェクト、54 視点、56 視線方向、58 カーソル画像、60 視野範囲、62 画像オブジェクト群。

Claims (8)

  1. ユーザによる視点移動操作に従って、1以上の画像オブジェクトが配置された仮想空間における視点の位置を移動させる視点位置移動手段と、
    前記視点の位置と前記各画像オブジェクトの位置との遠近を示す遠近値を取得する遠近値取得手段と、
    前記遠近値取得手段により取得される前記各遠近値に基づいて、前記各画像オブジェクトの半透明度を決定する半透明度決定手段と、
    前記半透明度決定手段により決定される前記各画像オブジェクトの半透明度に従って、前記視点の位置から前記仮想空間を見た様子を示す空間画像を生成する空間画像生成手段と、
    前記空間画像生成手段により生成される前記空間画像を表示する空間画像表示手段と、
    を含むことを特徴とする画像閲覧装置。
  2. 請求項1に記載の画像閲覧装置において、
    前記1以上の画像オブジェクトのうち前記ユーザによる詳細表示操作に応じて詳細表示される画像オブジェクトを識別表示する識別表示手段と、
    前記ユーザによる対象変更操作に従って、前記識別表示される画像オブジェクトを変更する識別表示変更手段と、
    前記遠近値取得手段により取得される前記各遠近値に基づいて、前記1以上の画像のうち、前記識別表示変更手段により前記識別表示される画像オブジェクトの変更先を決定する識別表示変更先決定手段と、
    をさらに含むことを特徴とする画像閲覧装置。
  3. 請求項1又は2に記載の画像閲覧装置において、
    前記半透明度決定手段は、前記遠近値が所定の第1値未満である前記画像オブジェクトが透明に表示され、前記遠近値が前記第1値以上、所定の第2値未満である前記画像オブジェクトが不透明に表示され、前記遠近値が前記第2値以上である前記画像オブジェクトが半透明に表示されるよう、前記各画像オブジェクトの半透明度を決定する、
    ことを特徴とする画像閲覧装置。
  4. 請求項1乃至3のいずれかに記載の画像閲覧装置において、
    前記仮想空間において前記視点の前方に位置する前記画像オブジェクトの位置を移動させるオブジェクト位置移動手段をさらに含む、
    ことを特徴とする画像閲覧装置。
  5. 請求項4に記載の画像閲覧装置において、
    前記オブジェクト移動手段は、前記画像オブジェクトの位置を、前記視点から見た他の前記画像オブジェクトとの重なりを小さくするよう移動させる、
    ことを特徴とする画像閲覧装置。
  6. 請求項4又は5に記載の画像閲覧装置において、
    前記オブジェクト位置移動手段は、前記視点の状況に応じて、前記画像オブジェクトの位置を移動させる、
    ことを特徴とする画像閲覧装置。
  7. ユーザによる視点移動操作に従って、1以上の画像オブジェクトが配置された仮想空間における視点の位置を移動させる視点位置移動ステップと、
    前記視点の位置と前記各画像オブジェクトの位置との遠近を示す遠近値を取得する遠近値取得ステップと、
    前記遠近値取得ステップで取得される前記各遠近値に基づいて、前記各画像オブジェクトの半透明度を決定する半透明度決定ステップと、
    前記半透明度決定ステップで決定される前記各画像オブジェクトの半透明度に従って、前記視点の位置から前記仮想空間を見た様子を示す空間画像を生成する空間画像生成ステップと、
    前記空間画像生成ステップで生成される前記空間画像を表示する空間画像表示ステップと、
    を含むことを特徴とするコンピュータの制御方法。
  8. ユーザによる視点移動操作に従って、1以上の画像オブジェクトが配置された仮想空間における視点の位置を移動させる視点位置移動手段、
    前記視点の位置と前記各画像オブジェクトの位置との遠近を示す遠近値を取得する遠近値取得手段、
    前記遠近値取得手段により取得される前記各遠近値に基づいて、前記各画像オブジェクトの半透明度を決定する半透明度決定手段、
    前記半透明度決定手段により決定される前記各画像オブジェクトの半透明度に従って、前記視点の位置から前記仮想空間を見た様子を示す空間画像を生成する空間画像生成手段、及び
    前記空間画像生成手段により生成される前記空間画像を表示する空間画像表示手段
    としてコンピュータを機能させるためのプログラム。
JP2006117985A 2006-04-21 2006-04-21 画像閲覧装置、コンピュータの制御方法及びプログラム Pending JP2007293429A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006117985A JP2007293429A (ja) 2006-04-21 2006-04-21 画像閲覧装置、コンピュータの制御方法及びプログラム
US12/297,390 US8711169B2 (en) 2006-04-21 2007-04-06 Image browsing device, computer control method and information recording medium
PCT/JP2007/057765 WO2007123009A1 (ja) 2006-04-21 2007-04-06 画像閲覧装置、コンピュータの制御方法及び情報記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006117985A JP2007293429A (ja) 2006-04-21 2006-04-21 画像閲覧装置、コンピュータの制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2007293429A true JP2007293429A (ja) 2007-11-08

Family

ID=38624915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006117985A Pending JP2007293429A (ja) 2006-04-21 2006-04-21 画像閲覧装置、コンピュータの制御方法及びプログラム

Country Status (3)

Country Link
US (1) US8711169B2 (ja)
JP (1) JP2007293429A (ja)
WO (1) WO2007123009A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230502A (ja) * 2008-03-24 2009-10-08 Ricoh Co Ltd 画像情報配置装置
JP2010073212A (ja) * 2009-10-07 2010-04-02 Toshiba Corp 表示処理装置、表示処理方法、およびプログラム
JP2010117973A (ja) * 2008-11-14 2010-05-27 Sony Corp 情報処理装置、画像表示方法およびコンピュータプログラム
JP2010250448A (ja) * 2009-04-13 2010-11-04 Tokyo Broadcasting System Television Inc デジタルコンテンツを検索するためのシステム及びこれを用いた検索方法
JP4585597B1 (ja) * 2009-06-29 2010-11-24 株式会社東芝 表示処理装置、プログラムおよび表示処理方法
JP2012155678A (ja) * 2011-01-28 2012-08-16 Konica Minolta Holdings Inc 表示システム、表示処理装置、表示方法、および表示プログラム
JP2015068988A (ja) * 2013-09-27 2015-04-13 株式会社リコー 表示制御装置、表示制御システム、表示制御方法及びプログラム
JP2020177482A (ja) * 2019-04-19 2020-10-29 キヤノンメディカルシステムズ株式会社 医用情報処理装置及び医用情報処理方法
JP2023048792A (ja) * 2021-09-28 2023-04-07 株式会社Cygames 情報処理装置、プログラム及び描画方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5617448B2 (ja) * 2010-08-31 2014-11-05 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9699351B2 (en) * 2010-09-29 2017-07-04 Apple Inc. Displaying image thumbnails in re-used screen real estate
US9703444B2 (en) * 2011-03-31 2017-07-11 Microsoft Technology Licensing, Llc Dynamic distribution of client windows on multiple monitors
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN103279187B (zh) * 2013-05-09 2018-05-04 西安电子科技大学 一种用于构建多场景虚拟全景空间的方法及智能终端
CN104679432B (zh) * 2015-03-04 2018-01-30 成都品果科技有限公司 一种基于移动端浏览器跨平台人机交互浏览图片的方法
JP6025280B1 (ja) * 2015-12-28 2016-11-16 株式会社タッグ 3次元画像生成サーバ、電子カタログ表示装置、3次元画像表示システム、3次元画像表示方法および3次元画像表示プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3476651B2 (ja) * 1997-05-09 2003-12-10 シャープ株式会社 データ表示装置およびデータ表示プログラムを格納したコンピュータ読み取り可能な記録媒体
JP3280355B2 (ja) * 1999-11-18 2002-05-13 株式会社ナムコ 画像生成システム及び情報記憶媒体
JP3764070B2 (ja) * 2001-06-07 2006-04-05 富士通株式会社 オブジェクト表示プログラムおよびオブジェクト表示装置
JP2004030122A (ja) * 2002-06-25 2004-01-29 Fujitsu Ltd 図面検索支援装置および図面検索方法
JP4355512B2 (ja) * 2003-04-17 2009-11-04 任天堂株式会社 画像処理装置および画像処理プログラム
JP2006107170A (ja) * 2004-10-06 2006-04-20 Matsushita Electric Ind Co Ltd 3次元guiを用いた情報選択装置
US20060262116A1 (en) * 2005-05-19 2006-11-23 Hillcrest Laboratories, Inc. Global navigation objects in user interfaces
US7671867B2 (en) * 2006-05-08 2010-03-02 Schlumberger Technology Corporation Method for locating underground deposits of hydrocarbon including a method for highlighting an object in a three dimensional scene

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230502A (ja) * 2008-03-24 2009-10-08 Ricoh Co Ltd 画像情報配置装置
JP2010117973A (ja) * 2008-11-14 2010-05-27 Sony Corp 情報処理装置、画像表示方法およびコンピュータプログラム
JP2010250448A (ja) * 2009-04-13 2010-11-04 Tokyo Broadcasting System Television Inc デジタルコンテンツを検索するためのシステム及びこれを用いた検索方法
JP4585597B1 (ja) * 2009-06-29 2010-11-24 株式会社東芝 表示処理装置、プログラムおよび表示処理方法
JP2011008694A (ja) * 2009-06-29 2011-01-13 Toshiba Corp 表示処理装置、プログラムおよび表示処理方法
JP2010073212A (ja) * 2009-10-07 2010-04-02 Toshiba Corp 表示処理装置、表示処理方法、およびプログラム
JP2012155678A (ja) * 2011-01-28 2012-08-16 Konica Minolta Holdings Inc 表示システム、表示処理装置、表示方法、および表示プログラム
JP2015068988A (ja) * 2013-09-27 2015-04-13 株式会社リコー 表示制御装置、表示制御システム、表示制御方法及びプログラム
US10162507B2 (en) 2013-09-27 2018-12-25 Ricoh Company, Ltd. Display control apparatus, display control system, a method of controlling display, and program
JP2020177482A (ja) * 2019-04-19 2020-10-29 キヤノンメディカルシステムズ株式会社 医用情報処理装置及び医用情報処理方法
JP7346066B2 (ja) 2019-04-19 2023-09-19 キヤノンメディカルシステムズ株式会社 医用情報処理装置及び医用情報処理方法
JP2023048792A (ja) * 2021-09-28 2023-04-07 株式会社Cygames 情報処理装置、プログラム及び描画方法
JP7352603B2 (ja) 2021-09-28 2023-09-28 株式会社Cygames 情報処理装置、プログラム及び描画方法

Also Published As

Publication number Publication date
US8711169B2 (en) 2014-04-29
US20090303246A1 (en) 2009-12-10
WO2007123009A1 (ja) 2007-11-01

Similar Documents

Publication Publication Date Title
JP2007293429A (ja) 画像閲覧装置、コンピュータの制御方法及びプログラム
JP4778865B2 (ja) 画像ビューワ、画像表示方法及びプログラム
CN107209570B (zh) 动态自适应虚拟列表
US9607437B2 (en) Generating augmented reality content for unknown objects
JP5592011B2 (ja) マルチスケール3次元配向
US11012679B2 (en) Generating apparatus, generating method, and storage medium
JP5976019B2 (ja) 写実的に表されたビューのテーマベースの拡張
WO2010061661A1 (ja) 画像表示装置、画像表示方法及び情報記憶媒体
JP2009237680A (ja) プログラム、情報記憶媒体および画像生成システム
JP2002196855A (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
WO2017012360A1 (zh) 一种虚拟现实显示设备响应外设设备操作的方法
JP7353782B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2007299330A (ja) 画像表示装置、その制御方法及びプログラム
JP4983793B2 (ja) 画像処理プログラムおよび画像処理装置
US10902554B2 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP4485991B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2022014002A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2000137834A (ja) 合成動画像生成装置および合成動画像生成方法
JP2011175489A (ja) 画像生成装置、画像生成方法及びプログラム
JP2000167241A (ja) 3次元コンピュータグラフィックスにより生成するゲーム映像上に注意喚起図案を表示する機能に特徴を有するビデオゲーム機およびプログラム記憶媒体
US20220044351A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP2002251626A (ja) 画像の生成方法及びそれに用いるプログラム
GB2575932A (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP3589657B2 (ja) 3次元ポリゴン表面模様処理方式
JP4871346B2 (ja) 画像表示装置、画像表示方法、プログラム及び情報記憶媒体