JP4931240B2 - 画像の認識を支援するシステム - Google Patents

画像の認識を支援するシステム Download PDF

Info

Publication number
JP4931240B2
JP4931240B2 JP2007237839A JP2007237839A JP4931240B2 JP 4931240 B2 JP4931240 B2 JP 4931240B2 JP 2007237839 A JP2007237839 A JP 2007237839A JP 2007237839 A JP2007237839 A JP 2007237839A JP 4931240 B2 JP4931240 B2 JP 4931240B2
Authority
JP
Japan
Prior art keywords
index value
pixel
user
storage device
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007237839A
Other languages
English (en)
Other versions
JP2009070139A (ja
Inventor
周一 清水
聰 古関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP2007237839A priority Critical patent/JP4931240B2/ja
Priority to US12/208,751 priority patent/US20090109218A1/en
Publication of JP2009070139A publication Critical patent/JP2009070139A/ja
Application granted granted Critical
Publication of JP4931240B2 publication Critical patent/JP4931240B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、使用者による画像の認識を支援するシステムに関する。特に、本発明は、使用者の聴覚または触覚に作用するデバイスにより、画像の認識を支援するシステムに関する。
3次元画像を利用して仮想世界を体験するシステムが用いられている。仮想世界は、コンピュータを利用して擬似的に作り出される世界である。したがって、現実世界では実現が困難であったサービスを擬似的に作り出して提供する等、ビジネス的利用への期待が高まっている。例えば、遠隔ミーティングへの擬似参加、または、精神分裂病患者の視覚を疑似体験するための教育などへの利用が想定される。
空間内のオブジェクトを所定の視点から見た画像を生成する技術については、特許文献1−2を参照されたい。また、後述する触覚に作用する装置の一例については特許文献3を参照されたい。
特開平11−259687号公報 特開平11−306383号公報 特表2005−506613号公報
このようなシステムにおいて、仮想世界を示すオブジェクトは立体形状を投影した2次元画像によって表される。使用者は、その2次元画像を見ることで、あたかも立体的形状を見ているような錯覚を感じ、オブジェクトの立体形状を認識する。従って、仮想世界を体験するためには、2次元画像を視覚により知覚し、なおかつ立体形状を感じ取れることが前提となる。このため、視覚障害者などの利用者が、視覚を用いることなくこのシステムを利用することは大変に困難であった。
そこで本発明は、上記の課題を解決することのできるシステム、方法およびプログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。
上記課題を解決するために、本発明の第1の形態においては、画像に描画されたオブジェクトの認識を支援するシステムであって、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置と、使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部とを備え、前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて前記指標値を算出し、前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該距離の合計値がより小さい場合に、当該指標値によって示される当該距離の合計値がより大きい場合と比較して、より強くする、システムを提供する。また、当該システムにより画像の認識を支援する方法およびプログラムを提供する。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となりうる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本実施形態に係るコンピュータ・システム10の全体構成を示す。コンピュータ・システム10は、クライアント・コンピュータ100と、サーバ・コンピュータ200とを備える。サーバ・コンピュータ200は、主要なハードウェアとして、例えばハードディスクドライブなどの記憶装置204と、ネットワークインターフェイスカードなどの通信インターフェイス206とを有する。そして、サーバ・コンピュータ200は、記憶装置204に記憶されたプログラムを実行することで、仮想世界サーバ22として機能する。記憶装置204は、仮想世界に存在するオブジェクトなどの立体的形状を示すデータ(例えば3D形状モデルと呼ばれるデータ)を記憶している。仮想世界サーバ22は、このようなデータを含む各種の情報を、クライアント・コンピュータ100から受けた要求に応じてクライアント・コンピュータ100に対し送信する。
クライアント・コンピュータ100は、主要なハードウェアとして、例えばハードディスクドライブなどの記憶装置104と、ネットワークインターフェイスカードなどの通信インターフェイス106と、例えばスピーカーなどの入出力インターフェイス108を備える。そして、クライアント・コンピュータ100は、記憶装置104に記憶されたプログラムを実行することで、仮想世界ブラウザ12、支援システム15およびレンダリング・エンジン18として機能する。
仮想世界ブラウザ12は、例えば、インターネット400を介して接続されたサーバ・コンピュータ200から立体形状を示すデータを取得する。このデータの取得は、例えば通信インターフェイス106などのハードウェア、オペレーティング・システム、および、デバイスドライバの協働により実現される。レンダリング・エンジン18は、取得したそのデータが示す立体形状をレンダリングすることにより2次元画像を生成し、仮想世界ブラウザ12に提供する。仮想世界ブラウザ12は、提供されたその画像を使用者に表示する。その画像が仮想世界を示す場合には、レンダリングされた画像はアバター(仮想世界における利用者の分身)の視界を表す。
即ち例えば、レンダリング・エンジン18は、アバターの位置および向きとして入力されたデータに基づいて、レンダリングにおける視点座標および視線方向を決定して、サーバ・コンピュータ200から取得した立体形状を平面にレンダリングする。この視点座標および視線方向は、キーボードまたはポインティングデバイスといった装置の他、使用者に装着されたプローブ装置から入力されてよい。プローブ装置に搭載されたGPS装置は、使用者の現実の位置情報をレンダリング・エンジン18に対し出力する。レンダリング・エンジン18は、その位置情報に基づき視点座標を算出して、レンダリングを行う。これにより、あたかも仮想世界の中を移動しているように使用者に感じさせることができる。
支援システム15は、このようにして生成された画像について、その画像に描画されたオブジェクトの認識を支援する。例えば、支援システム15は、この画像のうち使用者により選択された範囲の画像に基づき、視覚以外の感覚に作用する入出力インターフェイス108を制御する。この結果、使用者は、画像に描画されたオブジェクトの位置、大きさ、色彩、奥行き、各種属性、または、これらの組合せを視覚以外の感覚により知覚できる。
図2Aは、本実施形態に係る仮想世界ブラウザ12による画面の表示例を示す。図2Bは、本実施形態に係る仮想世界ブラウザ12に表示される画像をレンダリングする処理の概念図である。この表示例において、画像には、円錐、四角柱、および、円柱の3つのオブジェクトが描画されている。これらのオブジェクトのそれぞれは、立体形状をレンダリングした2次元画像として描画されている。この描画には、立体形状の奥行きが反映されている。例えば、図2Bに示すように、仮想的な3次元空間において、四角柱は円錐よりもレンダリングにおける視点から離れている。従って、図2Aにおいて、四角柱は円錐の影に隠れるように描画される。
このため、使用者はこれらの2次元画像を視覚により認識することで奥行きを感じ、あたかも立体形状を見ているかのように錯覚する。これにより使用者は例えば仮想世界などを疑似体験できる。
なお、図2Aでは説明の明確化のため、各オブジェクトを線図により表し、かつ、説明の補助のため、陰に隠れて見えない線を点線で示した。実際には、この画像には、光線によりもたらされる艶や影が各オブジェクトの表面に描画されてもよい。また、そのような艶や影による色彩のグラデーションが各オブジェクトの表面に施されてよい。更には、例えばテクスチャ・マッピングによりオブジェクトの表面には所定の画像が貼付されてもよい。
図3は、本実施形態に係る記憶装置104が格納するデータの構成を示す。記憶装置104は、入力画像300AおよびZバッファ画像300Bを記憶している。入力画像300Aは、サーバ・コンピュータ200から入力してレンダリング・エンジン18のレンダリングにより生成された画像を示し、その実体は、色彩を示すピクセル値をピクセルの配列順に配列したデータである。
Zバッファ画像300Bは、入力画像300Aに含まれるそれぞれのピクセルに対応してその距離成分を記憶したデータである。あるピクセルについての距離成分とは、入力画像300Aに描画されたオブジェクトのうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を示す。なお、図3において入力画像300AおよびZバッファ画像300Bは別々のファイルに格納するが、これに代えてこれらは同一のファイル内に区別可能に格納されてもよい。
図4は、仮想世界ブラウザ12に表示される画像のうち、入力画像300AおよびZバッファ画像300Bの説明のために使用する部分を示す。座標(0,0)、座標(4,0)、座標(0,4)および座標(4,4)をそれぞれ頂点とする矩形の第1部分を、図5および図6の説明に使用する。
また、座標(100,0)、座標(104,0)、座標(0,150)および座標(0,154)をそれぞれ頂点とする矩形の第2部分を、図5および図6の説明に使用する。さらに、座標(250,0)、座標(254,0)、座標(0,250)および座標(0,254)をそれぞれ頂点とする矩形の第3部分を、図5および図6の説明に使用する。
図5は、本実施形態に係る入力画像300Aのデータ構造の一例を示す。入力画像300Aは、色彩を示すピクセル値をピクセルの配列順に配列したデータを示す。例えば、上記第1部分の何れのピクセルについても、入力画像300Aは、ピクセル値として数値0を含んでいる。この数値0は、例えば、色彩のうち赤(R)、緑(G)および青(B)の何れの要素も含まれておらず、即ち色彩が黒であることを示す。実際、図4を参照すれば、この部分には如何なるオブジェクトも描画されていない。
他の例として、上記第2部分に含まれる各ピクセルに対応して、入力画像300Aは、数値160から数値200程度までの数値を含んでいる。これらの数値は、色彩のある要素を0から255までの256段階で評価した場合における、その要素の強さを示す。従って、この図5の例では、これらの数値はそれぞれ微妙に異なる色彩を示す。図4を参照すれば、この部分にはレンダリングされた四角柱が描画されている。そしてその表面は、光源とその面との関係に基づきグラデーションされてもよく、これらの数値はそのグラデーションの一部を示す。
他の例として、上記第3部分に含まれる各ピクセルに対応して、入力画像300Aは、数値65から数値105程度までの数値を含んでいる。これらの数値は、それぞれ微妙に異なる色彩を示す。そして、その色彩は上記第2部分とは異なっている。図4を参照すれば、この部分にはレンダリングされた円錐が描画されている。そしてその表面は、光源とその面との関係に基づきグラデーションされてもよく、これらの数値はそのグラデーションの一部を示す。
図6は、本実施形態に係るZバッファ画像300Bのデータ構造の一例を示す。Zバッファ画像300Bは、それぞれのピクセルの距離成分をピクセルの配列順に配列したデータである。あるピクセルについての距離成分とは、本発明に係る特徴量の一例であり、上述のように、例えば、入力画像300Aに描画されたオブジェクトのうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を示す。図6の例において、距離成分の数値が大きいほど距離が長いことを示す。なお、Zバッファはレンダリング中に隠面処理を実行する過程で副作用として生成されるので、本実施形態のために新たに作成する必要は無い。
例えば、上記第1部分の何れのピクセルについても、Zバッファ画像300Bは、距離成分として数値−1を含んでいる。この数値−1は、例えば、無限遠という特別の距離を示し、他の如何なる数値よりも大きい数値を示す。実際、図4を参照すれば、この第1部分は何れのオブジェクトも描画されていない背景部分を示す。
他の例として、上記第2部分に含まれる各ピクセルに対応して、Zバッファ画像300Bは、数値150程度の数値の数値を含んでいる。これらの数値は、それぞれ僅かに異なる距離を示す。図4を参照すれば、この部分にはレンダリングされた四角柱が描画されている。そしてその部分における四角柱の表面は、右方向に向かうにつれて手前側に傾いている。従って、第2部分に対応する各ピクセルの距離成分も、X座標の座標値が大きくなるにつれて小さくなっており、Y座標の座標値の変化に対してはあまり変化しない。
他の例として、上記第3部分に含まれる各ピクセルに対応して、Zバッファ画像300Bは、数値30から数値40程度の数値を含んでいる。これらの数値は、それぞれ僅かに異なる距離を示す。図4を参照すれば、この部分にはレンダリングされた円錐が描画されている。そしてその部分における円錐の表面は、右方向お呼び下方向に向かうにつれて手前側に傾いている。従って、第3部分に対応する各ピクセルの距離成分も、X座標の座標値が大きくなるにつれて、また、Y座標の座標値が大きくなるにつれて小さくなっている。
以上、図5および図6には、本発明に係る特徴量の一例として、ピクセルごとのピクセル値および距離成分を示した。これに代えて、特徴量は、予め定められた数のピクセルを含む領域ごとに管理されて記憶されていてもよい。例えば、Zバッファ画像300Bは、2×2ピクセルの領域ごとに、距離成分を記憶したデータであってもよいし、4×4ピクセルの領域ごとに距離成分を記憶したデータであってもよい。このように、特徴量は、入力画像300Aを分割した複数の領域のそれぞれに対応付けて記憶されていれば、その詳細は問わない。
さらに他の例として、特徴量は、距離成分およびピクセル値に限定されない。例えば特徴量は、オブジェクトの属性値を示してもよい。例えば、仮想世界のシナリオにおいて、各オブジェクトにはそのオブジェクトの持ち主または管理者を示す属性が対応付けられている場合がある。記憶装置104は、入力画像300Aを分割した複数の領域のそれぞれに対応付けて、その領域に描画されたオブジェクトについての、このような属性を記憶してもよい。但し以降の説明においては、記憶装置104が入力画像300AおよびZバッファ画像300Bを記憶するものとする。
図7は、本実施形態に係る支援システム15および入出力インターフェイス108の機能構成を示す。支援システム15は、選択部710と、算出部720と、制御部730とを有する。また、入出力インターフェイス108は、視線入力装置705Aと、視野入力装置705Bと、音出力デバイス740とを有する。選択部710は、使用者の指示に基づいて、入力画像300Aのうち使用者が認識する範囲を選択する。
具体的には、選択部710は、視線入力装置705Aを用いて、使用者の仮想的な視線方向の入力を受け付ける。仮想的な視線方向とは、例えば、入力画像300Aの表示領域内のある点の座標である。そして、選択部710は、視野入力装置705Bを用いて、使用者の仮想的な視野の入力を受け付ける。仮想的な視野とは、例えば、受け付けたその座標を基準とした、認識する範囲の大きさである。そして、選択部710は、受け付けたその座標を基準とした、受け付けたその大きさの範囲を選択する。
一例として、選択部710は、視線入力装置705Aを用いて、円状の範囲の中心座標の入力を受け付ける。また、選択部710は、視野入力装置705Bを用いて、その円状の範囲の半径または直径の入力を受け付ける。そして、選択部710は、受け付けたその座標を中心とした、受け付けたその半径または直径を有する円形の範囲を、使用者が認識する範囲として選択する。
他の例として、選択部710は、視線入力装置705Aを用いて、矩形状の範囲についてある頂点の座標の入力を受け付ける。また、選択部710は、視野入力装置705Bを用いて、その矩形状の範囲の一辺の長さの入力を受け付ける。そして、選択部710は、受け付けたその座標を1つの頂点とする、受け付けたその長さを一辺の長さとする正方形の範囲を、使用者が認識する範囲として選択する。
視線入力装置705Aは、例えば、タッチパネル、マウスまたはトラックボールなどの、ポインティングデバイスにより実現される。但し、視線入力装置705Aは、平面上の座標値の入力を受け付け可能な、2自由度のデバイスであれば、これらに限定されない。視野入力装置705Bは、例えば、スライダーまたはホイールなどのデバイスにより実現される。但し、視野入力装置705Bは、範囲の大きさを示す数値の入力を受け付け可能な、1自由度のデバイスであれば、これらに限定されない。この1自由度のデバイスによって、使用者は、あたかもカメラのフォーカス範囲を変更するかのように、範囲の大きさを変更できる。
一般に、範囲の大きさを立体角(1自由度)Ωで調整可能とすると、方向ベクトルrと面積ベクトルSとの関係は以下の式(1)により表される。
Figure 0004931240
算出部720は、選択されたこの範囲に含まれるそれぞれの領域(例えばピクセル)に対応する特徴量を、記憶装置104から読み出す。そして、算出部720は、読み出したそれぞれの特徴量に基づき指標値を算出する。例えば、算出部720は、記憶装置104のZバッファ画像300Bから、それぞれのピクセルに対応する距離成分を読み出して、読み出したそれぞれの距離成分の合計または平均に基づいて指標値を算出してよい。
制御部730は、算出した指標値に基づき、使用者の聴覚に作用する音出力デバイス740を制御する。例えば、制御部730は、音出力デバイス740の音の大きさを、当該指標値によって示される当該距離の平均がより小さい場合に、当該指標値によって示される当該距離の平均がより大きい場合と比較して、より大きくする。
但し、視野入力装置705Bにより入力される範囲の大きさが固定的な場合には、制御部730は、距離の合計に基づき音出力デバイス740を制御すれば充分である。例えば、制御部730は、音出力デバイス740の音の大きさを、当該指標値によって示される当該距離の平均がより小さい場合に、当該指標値によって示される当該距離の平均がより大きい場合と比較して、より大きくする。
また、本例において音出力デバイス740は、スピーカまたはヘッドフォンなどのデバイスにより実現されるが、使用者に作用するデバイスはこれらに限定されない。例えば、入出力インターフェイス108は、音出力デバイス740に代えて、振動子(バイブレータ)などの振動を発生するデバイスを有してよい。このように、制御部730により制御されるデバイスは、使用者の聴覚または触覚に作用するものであれば、音出力デバイス740に限定されるものではない。この場合、制御部730は、このようなデバイスによる作用の強度を制御する。作用の強度の種類としては、具体的には、音の大きさ、音の周波数の高さ、音の音圧、振動の大きさ、または、振動の周波数(振動数)の大きさなどである。
図8は、本実施形態に係るクライアント・コンピュータ100が使用者に指定された範囲の画像に基づいて音出力デバイス740を制御する処理の流れを示す。まず、レンダリング・エンジン18は、立体形状をレンダリングすることで画像を生成する(S800)。生成された画像は入力画像300Aとして記憶装置104に格納される。これと共に、レンダリング・エンジン18は、入力画像300Aのピクセル毎に、立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を生成して、記憶装置104に格納する。この距離の成分をピクセルの配列順に配列したデータがZバッファ画像300Bである。
次に、クライアント・コンピュータ100は、視線入力装置705Aまたは視野入力装置705Bが入力を受け付けるまで待機する(S810:NO)。視線入力装置705Aまたは視野入力装置705Bが入力を受け付けると(S810:YES)、選択部710は、受け付けたその入力に基づいて、入力画像300Aのうち使用者が認識する範囲を選択する(S820)。あるいは、選択部710は、既に選択していた範囲をその入力に基づいて変更する。
次に、算出部720は、選択されるその範囲が変更される毎に、選択されたその範囲に含まれるそれぞれのピクセルに対応する特徴量を記憶装置104から読み出して、読み出したそれぞれの特徴量に基づき指標値を算出する(S830)。この処理の形態には、以下のような多様なバリエーションが考えられる。
(1)距離成分に基づく形態
算出部720は、選択されたこの範囲に含まれるそれぞれのピクセルに対応する距離成分を記憶装置104のZバッファ画像300Bから読み出して、読み出したそれぞれの距離成分に基づき指標値を算出する。座標(i,j)のピクセルについてその距離成分によって表される距離をZi,jとする。また、選択されたこの範囲をSとする。この場合において、算出される指標値tは、例えば以下の式(2)により表される。
Figure 0004931240
この場合の指標値tは、範囲Sに含まれる各ピクセルに対応するオブジェクトまでの距離の2乗に反比例し、かつ、範囲Sの面積に反比例する数値となる。即ち、視点から近い位置にあるオブジェクトがその範囲の占有する場合に、tはより大きい値となる。なお、距離の2乗の逆数の部分をf(Zi,j)とおいて一般化すると、指標値tは以下のように表される。
Figure 0004931240
(2)エッジ成分に基づく形態
算出部720は、選択されたこの範囲に含まれるそれぞれのピクセルに対応するピクセル値を記憶装置104の入力画像300Aから読み出して、読み出したそれぞれのピクセル値に基づいて、選択されたこの範囲の画像に含まれるエッジ成分を示す指標値を算出する。具体的には、算出部720は、まず、ピクセル値のRGB要素に基づきルミナンス(輝度)成分を算出する。
座標(i,j)の赤成分をRi,j、座標(i,j)の緑成分をGi,j、座標(i,j)の青成分をBi,jとおくと、座標(i,j)のピクセルのルミナンス成分Li,jは、以下の式(4)により表される。
Figure 0004931240
次に、算出部720は、このルミナンス成分をピクセルの配列順に配列したルミナンス画像に対し、たとえばSobelオペレータを適用することで、垂直方向および水平方向のエッジ成分を算出する。垂直方向のエッジ成分をE i,jとおき、水平方向のエッジ成分をE i,jとおくと、この計算は、例えば以下の式(5)により表される。
Figure 0004931240
そして、算出部720は、これらのエッジ成分の合成を以下の式(6)により算出する。
Figure 0004931240
このようにして算出されるエッジ成分Ei,jのうち、選択された範囲Sについてのエッジ成分の合計又は平均を指標値tとしてもよい。なお、エッジ成分の算出は、例えばラプラシアン・フィルタまたはプレヴィット・フィルタなどの、様々な画像処理手法を利用して実現できる。従って、本実施形態におけるエッジ成分の算出方法は、式(4)−(6)に示す方法には限定されない。
以上の例に代えて、以下に示すように、エッジ成分と距離成分との組合せに基づき指標値tを算出してもよい。
(3)距離成分およびエッジ成分の組合せ
例えば、算出部720は、式(7)に示すように、範囲Sに含まれる各ピクセルについて、そのピクセルのエッジ成分をそのピクセルについての距離の2乗で割り算して、それを範囲Sに含まれる各ピクセルについて合計した値を、指標値tとしてよい。なお、ここでいう距離Z´i,jは、座標(i,j)を中心とする3×3ピクセルのうち最も大きい距離を示す。
Figure 0004931240
これにより、範囲Sに含まれるエッジ成分が大きければより大きい指標値tを算出するとともに、範囲Sに含まれる距離成分がより小さければより大きい指標値tを算出することができる。
(4)Zバッファ画像のエッジ成分
距離成分およびエッジ成分の組合せには更に他のバリエーションが考えられる。例えば、算出部720は、範囲Sに含まれるそれぞれのピクセルに対応する距離を示す数値を当該ピクセルの配列順に配列したZバッファ画像について、当該Zバッファ画像のエッジ成分を指標値として算出してもよい。これは即ち、距離変化の大きい部分を多く含む範囲について、より大きい指標値を算出することを示す。
さらに、算出部720は、範囲S内のこのZバッファ画像のエッジ成分、および、範囲S内の画像のエッジ成分の双方を示す指標値を算出してよい。これにより算出される指標値tは、例えば以下の式(8)により表される。
Figure 0004931240
ここで、Fi,jは、Zバッファ画像300Bの座標(i,j)におけるエッジ成分を示す。また、αはこれら2つのエッジ成分の混合比を示し、0から1までの実数値をとる。このように、Zバッファから得られた不連続成分を入力画像300Aのエッジ成分と組み合わせることで、オブジェクトと背景との境界(例えばオブジェクトの輪郭または稜線)を含む範囲について、指標値tをより大きくすることができる。
(5)その他
算出部720は、上記の多様な指標値のうち何れかではなく、複数の指標値を算出してもよい。算出された指標値は、後に説明するように、制御部730により音出力デバイス740の強度を制御するために使用される。
次に、制御部730について説明する。制御部730は、算出した当該指標値に基づき音出力デバイス740を制御する(S840)。例えば上記(1)の場合、制御部730は、指標値によって示される距離の平均値がより小さい場合に、当該指標値によって示される距離の平均値がより大きい場合と比較して、音出力デバイス740の作用の強度を強くする。
また、上記(2)の場合、制御部730は、指標値によって示されるエッジ成分がより大きい場合に、当該指標値によって示されるエッジ成分がより小さい場合と比較して、音出力デバイス740による作用の強度を強くする。上記(3)の場合にはこれらの組合せである。
また、上記(4)の場合、作用の強度には、入力画像300Aのエッジ成分およびZバッファ画像300Bのエッジ成分が複合的に影響する。但し、入力画像300Aの範囲Sについてのエッジ成分が一定ならば、制御部730は、Zバッファ画像300Bの範囲Sについて当該指標値によって示されるエッジ成分がより大きい場合に、Zバッファ画像300Bの範囲Sについて当該指標値によって示されるエッジ成分がより小さい場合と比較して、音出力デバイス740による作用の強度をより強くする。
反対に、Zバッファ画像300Bの範囲Sについてのエッジ成分が一定ならば、制御部730は、入力画像300Aの範囲Sについて当該指標値によって示されるエッジ成分がより大きい場合に、入力画像300Aの範囲Sについて当該指標値によって示されるエッジ成分がより大きい場合と比較して、音出力デバイス740による作用の強度をより強くする。
より詳細には、制御部730は、指標値tを用いて、以下の式(9)により周波数f、音圧pまたは振動の強さ(振幅)aを算出してよい。但し、c、cおよびcは、それぞれ、調整のための所定の定数である。そして、制御部730は、これらの周波数f、音圧p若しくは振幅aまたはこれらの組合せにより音出力デバイス740を振動させて、音出力デバイス740から音を発生させてよい。
Figure 0004931240
これに代えて、算出部720が異なる複数の指標値を算出する場合において、制御部730は、音出力デバイス740の作用を制御するための異なる複数のパラメータを調節してもよい。一例として、制御部730は、ある第1の指標値に基づいて音出力デバイス740が出力する音の大きさを制御し、他の第2の指標値に基づいて音出力デバイス740が出力する音の高さを制御する。
より詳細には、第1の指標値は、選択された範囲Sに含まれるそれぞれのピクセルに対応する距離の合計又は平均に基づくことが望ましい。そして、第2の指標値は、選択された範囲Sに含まれるそれぞれのピクセルに対応するピクセル値のエッジ成分を示すことが望ましい。
そしてその場合、制御部730は、音出力デバイス740により出力される音の音圧を、当該第1指標値によって示される距離の合計又は平均がより小さい場合に、当該第1指標値によって示される距離の合計又は平均がより大きい場合と比較して、より大きくする。また、制御部730は、音出力デバイス740により出力される音の高さを、当該第2指標値によって示されるエッジ成分がより大きい場合に、当該第2指標値によって示されるエッジ成分がより小さい場合と比較して、より高くする。このようにすることで、聴覚という1つの感覚によって、距離成分およびエッジ成分という複数の異なる成分を認識できる。
更に他の例として、制御部730は、指標値tの変化に基づいて作用の強度を変更してもよい。例えば、制御部730は、選択する範囲の変更前に算出部720により算出された当該指標値が示す当該距離成分の平均値と、選択する当該範囲の変更後に算出部720により算出された当該指標値が示す当該距離成分の平均値との差分の大きさに基づいて、作用の強度を変更してもよい。この方法によっても、描画されたオブジェクトの輪郭や背景との境界を認識し易くすることができる。
次に、支援システム15は、画像を認識する処理を終了する指示を受けたか否かを判断する(S850)。そのような指示を受けたことを条件に(S850:YES)、支援システム15は、図8に示す処理を終了する。そのような指示を受けていなければ(S850:NO)、支援システム15は、S810に処理を戻して視野および視線の入力を受け付ける。
以上、図1から図8を参照して説明した構成によれば、使用者は立体形状などで表された仮想世界を聴覚または触覚により認識することができる。図9から図11を参照して、本実施形態を利用して使用者が仮想世界の立体形状を認識する更なる具体例を述べる。
図9Aは、本実施形態に係る仮想世界ブラウザ12に表示された画像のうち使用者が認識する範囲の第1例を示す。図9Bは、図9Aに示す範囲に対応した使用者の視野の概念図である。図9Aに示すように、この例において、選択部710は、使用者の指示に基づき、円錐全体を含み、四角柱および円柱の一部ずつを含む範囲を選択する。選択された範囲を点線で示す。この例においてこの範囲は矩形で表される。そしてこの例において、使用者の仮想的な視野は、例えば図9Bのように表される。
この第1例において、選択した範囲には、背景を含め様々なオブジェクトが含まれている。従って、算出部720は、これら様々なオブジェクトの様々な部分についての距離の平均に基づき指標値を算出する。そして制御部730は、この指標値に応じた強度で音出力デバイス740を作用させる。
この第1例のように、最初は視野を広く設定しておいて視線方向を変更すれば、あたかも手のひらを広げてオブジェクトを掴むようにして、表示領域内にある様々なオブジェクトを捉えることができる。
図10Aは、本実施形態に係る仮想世界ブラウザ12に表示された画像のうち使用者が認識する範囲の第2例を示す。図10Bは、図10Aに示す範囲に対応した使用者の視野の概念図である。第1例とは異なり、選択部710は、円錐のごく一部のみを含む範囲を選択する。この範囲に対応する視野は、図10Bに示すように、四角柱の一部を含む。但し、四角柱は円錐の隠面にあるため、選択部710により選択される範囲には含まれない。
このため、算出部720は、最も手前側にある円錐までの距離に基づいて指標値を算出する。そして制御部730は、この指標値に応じた強度で音出力デバイス740を作用させる。第1例と比較すると、第2例において、制御部730による作用の強度は極めて強い。この作用の強度は、第1例の状態から視野を徐々に狭めてゆき、円錐が視野を占有するようになるまで徐々に強くなる。そして、第2例のようにそれよりも視野が狭くなった状態では作用の強度はあまり変化しない。
以上、この第2例のように、所望のオブジェクトのおおよその位置を把握した後は、視線方向を固定したまま視野を徐々に狭めてゆけば、表示されたオブジェクトのおおよその大きさを把握することができる。
次に、図11を参照して、範囲Sの大きさを固定したまま範囲Sの位置を順次変更する場合における、音量変化を説明する。
図11は、使用者の仮想的な視線を直線Xに沿って変更した場合における音量変化を示す。なお、この図11の例において音出力デバイス740は、距離成分に基づき制御されるものとする。図11に示す画像は図2Aなどに示す画像に対応している。但し、図11は、3つのオブジェクトを横断する直線Xを含む。この直線Xは、仮想的な視線の軌跡を表す。即ち、選択部710は、使用者から順次指示を受けることにより、極めて小さい大きさの範囲Sを、この直線Xに沿って移動させる。
すると、図11の下側に示すような音量変化が生じる。即ち、視点からやや距離のある四角柱を横断する場合には中程度の音量が生じ、四角柱の頂点付近では音量も頂点を迎える。そして、視点から近い円柱に視線が達すると音量はそれまでと比較して突然大きくなる。円錐を通過して背景に差し掛かると音量は小さくなり、視点から距離のある円柱に差し掛かると音量は僅かに増加する。
このように、範囲Sの位置を順次変更すれば、まるで立体形状を指先で辿るかのように、奥行きを音量変化として聴覚により正確に把握できる。特に、立体形状と背景との境界や、立体形状の稜線においては音量が特徴的に変化するので、立体形状を正確に把握することもできる。例えば、この図11の例のように直線的に視線を変更するのではなく、音量が変化しないように注意しながら視線を変更すれば、その視線の軌跡が形状を現すこととなる。
以上、図9−11に示すように、使用者はその用途や状況によって認識するべき範囲の大きさを変更できるので、例えばオブジェクトの位置および大きさを把握し、又は、オブジェクトの形状や稜線を把握する、といったような、様々な操作を直感的な操作で実現することができる。この結果、3次元画像を利用した仮想世界というような、視覚による認識を前提とした世界を、聴覚または触覚などの視覚以外の感覚をもって認識することがえきる。
図12は、本実施形態に係るクライアント・コンピュータ100のハードウェア構成の一例を示す。クライアント・コンピュータ100は、ホストコントローラ1082により相互に接続されるCPU1000、RAM1020、及びグラフィックコントローラ1075を有するCPU周辺部を備える。また、入出力コントローラ1084によりホストコントローラ1082に接続される通信インターフェイス106、記憶装置(たとえば、ハードディスクドライブ。図12ではハードディスクドライブとする)104、及びCD−ROMドライブ1060を有する入出力部を備える。また、入出力コントローラ1084に接続されるROM1010、入出力インターフェイス108、フレキシブルディスクドライブ1050、及び入出力チップ1070を有するレガシー入出力部を備える。
ホストコントローラ1082は、RAM1020と、高い転送レートでRAM1020をアクセスするCPU1000及びグラフィックコントローラ1075とを接続する。CPU1000は、ROM1010及びRAM1020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィックコントローラ1075は、CPU1000等がRAM1020内に設けたフレームバッファ上に生成する画像データを取得し、表示装置1080上に表示させる。これに代えて、グラフィックコントローラ1075は、CPU1000等が生成する画像データを格納するフレームバッファを、内部に含んでもよい。
入出力コントローラ1084は、ホストコントローラ1082と、比較的高速な入出力装置である通信インターフェイス106、ハードディスクドライブ104、及びCD−ROMドライブ1060を接続する。通信インターフェイス106は、ネットワークを介して外部の装置と通信する。ハードディスクドライブ104は、クライアント・コンピュータ100が使用するプログラム及びデータを格納する。CD−ROMドライブ1060は、CD−ROM1095からプログラム又はデータを読み取り、RAM1020又はハードディスクドライブ104に提供する。
また、入出力コントローラ1084には、ROM1010と、入出力インターフェイス108と、フレキシブルディスクドライブ1050や入出力チップ1070等の比較的低速な入出力装置とが接続される。ROM1010は、クライアント・コンピュータ100の起動時にCPU1000が実行するブートプログラムや、クライアント・コンピュータ100のハードウェアに依存するプログラム等を格納する。フレキシブルディスクドライブ1050は、フレキシブルディスク1090からプログラム又はデータを読み取り、入出力チップ1070を介してRAM1020またはハードディスクドライブ104に提供する。
入出力チップ1070は、フレキシブルディスク1090や、例えばパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して各種の入出力装置を接続する。入出力インターフェイス108は、音声を出力したり振動することで、使用者の聴覚又は触覚に作用する。また、入出力インターフェイス108は、ポインティングデバイス又はスライダーにより使用者から入力を受け付ける。
クライアント・コンピュータ100に提供されるプログラムは、フレキシブルディスク1090、CD−ROM1095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、入出力チップ1070及び/又は入出力コントローラ1084を介して、記録媒体から読み出されクライアント・コンピュータ100にインストールされて実行される。プログラムがクライアント・コンピュータ100等に働きかけて行わせる動作は、図1から図11において説明したクライアント・コンピュータ100における動作と同一であるから、説明を省略する。
以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1090、CD−ROM1095の他に、DVDやPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをクライアント・コンピュータ100に提供してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることのできることが当業者にとって明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
図1は、本実施形態に係るコンピュータ・システム10の全体構成を示す。 図2Aは、本実施形態に係る仮想世界ブラウザ12による画面の表示例を示す。 図2Bは、本実施形態に係る仮想世界ブラウザ12に表示される画像をレンダリングする処理の概念図である。 図3は、本実施形態に係る記憶装置104が格納するデータの構成を示す。 図4は、仮想世界ブラウザ12に表示される画像のうち、入力画像300AおよびZバッファ画像300Bの説明のために使用する部分を示す。 図5は、本実施形態に係る入力画像300Aのデータ構造の一例を示す。 図6は、本実施形態に係るZバッファ画像300Bのデータ構造の一例を示す。 図7は、本実施形態に係る支援システム15および入出力インターフェイス108の機能構成を示す。 図8は、本実施形態に係るクライアント・コンピュータ100が使用者に指定された範囲の画像に基づいて音出力デバイス740を制御する処理の流れを示す。 図9Aは、本実施形態に係る仮想世界ブラウザ12に表示された画像のうち使用者が認識する範囲の第1例を示す。 図9Bは、図9Aに示す範囲に対応した使用者の視野の概念図である。 図10Aは、本実施形態に係る仮想世界ブラウザ12に表示された画像のうち使用者が認識する範囲の第2例を示す。 図10Bは、図10Aに示す範囲に対応した使用者の視野の概念図である。 図11は、使用者の視線を直線Xに沿って変更した場合における音量変化を示す。 図12は、本実施形態に係るクライアント・コンピュータ100のハードウェア構成の一例を示す。
符号の説明
10 コンピュータ・システム
12 仮想世界ブラウザ
15 支援システム
18 レンダリング・エンジン
22 仮想世界サーバ
100 クライアント・コンピュータ
104 記憶装置
106 通信インターフェイス
108 入出力インターフェイス
200 サーバ・コンピュータ
204 記憶装置
206 通信インターフェイス
300A 入力画像
300B Zバッファ画像
400 インターネット
705A 視線入力装置
705B 視野入力装置
710 選択部
720 算出部
730 制御部
740 音出力デバイス

Claims (28)

  1. 画像に描画されたオブジェクトの認識を支援するシステムであって、
    入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置と、
    使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
    を備え、
    前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて前記指標値を算出し、
    前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該距離の合計値がより小さい場合に、当該指標値によって示される当該距離の合計値がより大きい場合と比較して、より強くする、
    システム。
  2. 前記選択部は、前記入力画像の表示領域内の座標、および、当該座標を基準とした前記範囲の大きさの入力を受け付け、受け付けた前記座標を基準とした、受け付けた前記大きさの範囲を選択し、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する距離の平均値に基づいて前記指標値を算出し、
    前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該距離の平均値がより小さい場合に、当該指標値によって示される当該距離の平均値がより大きい場合と比較して、より強くする、請求項1に記載のシステム。
  3. 前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を示す数値を当該ピクセルの配列順に配列したZバッファ画像について、当該Zバッファ画像のエッジ成分を前記指標値として算出し、
    前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示されるエッジ成分がより大きい場合に、当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くする、請求項1に記載のシステム。
  4. 画像に描画されたオブジェクトの認識を支援するシステムであって、
    入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置と、
    使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
    を備え、
    前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を示す数値を当該ピクセルの配列順に配列したZバッファ画像について、当該Zバッファ画像のエッジ成分を前記指標値として算出し、
    前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示されるエッジ成分がより大きい場合に、当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くする、
    システム。
  5. 前記記憶装置は、さらに、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値にさらに基づいて、選択された前記範囲に対応する前記Zバッファ画像のエッジ成分、および、選択された前記範囲の画像に含まれるエッジ成分の双方を示す前記指標値を算出し、
    前記制御部は、前記デバイスによる作用の強度を、前記Zバッファ画像について当該指標値によって示されるエッジ成分がより大きい場合に、前記Zバッファ画像について当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くし、さらに、前記入力画像について当該指標値によって示されるエッジ成分がより大きい場合に、前記入力画像について当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くする、請求項3または4に記載のシステム。
  6. 前記記憶装置は、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す前記指標値を算出し、
    前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該エッジ成分がより大きい場合に、当該指標値によって示される当該エッジ成分がより小さい場合と比較して、より強くする、請求項1に記載のシステム。
  7. 画像に描画されたオブジェクトの認識を支援するシステムであって、
    入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置と、
    使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
    を備え、
    前記記憶装置は、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す前記指標値を算出し、
    前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該エッジ成分がより大きい場合に、当該指標値によって示される当該エッジ成分がより小さい場合と比較して、より強くする、
    システム。
  8. 前記入力画像は、前記オブジェクトである立体形状をレンダリングすることで生成され、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、また、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて第1の指標値を算出し、また、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す第2の指標値を算出し、
    前記制御部は、前記デバイスにより出力される音の音圧を、当該第1の指標値によって示される当該距離の合計値がより小さい場合に、当該第1の指標値によって示される当該距離の合計値がより大きい場合と比較して、より大きくし、また、前記デバイスにより出力される音の高さを、当該第2の指標値によって示される当該エッジ成分がより大きい場合に、当該第2の指標値によって示される当該エッジ成分がより小さい場合と比較して、より高くする、請求項1に記載のシステム。
  9. 画像に描画されたオブジェクトの認識を支援するシステムであって、
    入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置と、
    使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
    を備え、
    前記入力画像は、前記オブジェクトである立体形状をレンダリングすることで生成され、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、また、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて第1の指標値を算出し、また、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す第2の指標値を算出し、
    前記制御部は、前記デバイスにより出力される音の音圧を、当該第1の指標値によって示される当該距離の合計値がより小さい場合に、当該第1の指標値によって示される当該距離の合計値がより大きい場合と比較して、より大きくし、また、前記デバイスにより出力される音の高さを、当該第2の指標値によって示される当該エッジ成分がより大きい場合に、当該第2の指標値によって示される当該エッジ成分がより小さい場合と比較して、より高くする、
    システム。
  10. 前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
    前記選択部は、選択する前記範囲を使用者の指示に基づいて変更し、
    前記算出部は、選択する前記範囲が変更される毎に、選択する前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの距離の合計値に基づいて前記指標値を算出し、
    前記制御部は、前記デバイスによる作用の強度を、選択する前記範囲の変更前に前記算出部により算出された当該指標値が示す当該距離の合計値と、選択する前記範囲の変更後に前記算出部により算出された当該指標値が示す当該距離の合計値との差分の大きさに基づいて制御する、請求項1に記載のシステム。
  11. 画像に描画されたオブジェクトの認識を支援するシステムであって、
    入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置と、
    使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
    を備え、
    前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
    前記選択部は、選択する前記範囲を使用者の指示に基づいて変更し、
    前記算出部は、選択する前記範囲が変更される毎に、選択する前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの距離の合計値に基づいて前記指標値を算出し、
    前記制御部は、前記デバイスによる作用の強度を、選択する前記範囲の変更前に前記算出部により算出された当該指標値が示す当該距離の合計値と、選択する前記範囲の変更後に前記算出部により算出された当該指標値が示す当該距離の合計値との差分の大きさに基づいて制御する、
    システム。
  12. 前記デバイスは、音を出力するデバイスであり、
    前記制御部は、前記デバイスが出力する音の大きさを制御する、請求項1から11のいずれか一項に記載のシステム。
  13. 前記算出部は、選択された前記範囲に含まれる各領域に対応する特徴量に基づいて、複数の異なる指標値を算出し、
    前記制御部は、算出した第1の指標値に基づいて、前記デバイスが出力する音の大きさを制御し、算出した第2の指標値に基づいて、前記デバイスが出力する音の高さを制御する、請求項12に記載のシステム。
  14. 仮想世界を使用者に体験させるシステムであって、
    記憶装置と、
    使用者のアバターの位置および向きに基づいて仮想世界の立体形状をレンダリングすることで画像を生成すると共に、前記生成した画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を生成して、前記記憶装置に格納するレンダリング・エンジンと、
    使用者の指示に基づいて、前記生成した画像の表示領域のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれのピクセルに対応する距離を、前記記憶装置から読み出して、読み出したそれぞれの距離に基づいて指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御することで、使用者に仮想世界を認識させる制御部と
    を備え、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて前記指標値を算出し、
    前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該距離の合計値がより小さい場合に、当該指標値によって示される当該距離の合計値がより大きい場合と比較して、より強くする、
    システム。
  15. 仮想世界を使用者に体験させるシステムであって、
    記憶装置と、
    使用者のアバターの位置および向きに基づいて仮想世界の立体形状をレンダリングすることで画像を生成すると共に、前記生成した画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を生成して、前記記憶装置に格納するレンダリング・エンジンと、
    使用者の指示に基づいて、前記生成した画像の表示領域のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれのピクセルに対応する距離を、前記記憶装置から読み出して、読み出したそれぞれの距離に基づいて指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御することで、使用者に仮想世界を認識させる制御部と
    を備え、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を示す数値を当該ピクセルの配列順に配列したZバッファ画像について、当該Zバッファ画像のエッジ成分を前記指標値として算出し、
    前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示されるエッジ成分がより大きい場合に、当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くする、
    システム。
  16. 仮想世界を使用者に体験させるシステムであって、
    記憶装置と、
    使用者のアバターの位置および向きに基づいて仮想世界の立体形状をレンダリングすることで画像を生成すると共に、前記生成した画像のピクセル毎に、ピクセル値を前記記憶装置に格納するレンダリング・エンジンと、
    使用者の指示に基づいて、前記生成した画像の表示領域のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値を、前記記憶装置から読み出して、読み出したそれぞれのピクセル値に基づいて指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御することで、使用者に仮想世界を認識させる制御部と
    を備え、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す前記指標値を算出し、
    前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該エッジ成分がより大きい場合に、当該指標値によって示される当該エッジ成分がより小さい場合と比較して、より強くする、
    システム。
  17. 仮想世界を使用者に体験させるシステムであって、
    記憶装置と、
    使用者のアバターの位置および向きに基づいて仮想世界の立体形状をレンダリングすることで画像を生成すると共に、前記生成した画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を生成して、ピクセル値と共に前記記憶装置に格納するレンダリング・エンジンと、
    使用者の指示に基づいて、前記生成した画像の表示領域のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれのピクセルに対応する距離およびピクセル値を、前記記憶装置から読み出して、読み出したそれぞれの距離およびピクセル値に基づいて指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御することで、使用者に仮想世界を認識させる制御部と
    を備え、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて第1の指標値を算出し、また、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す第2の指標値を算出し、
    前記制御部は、前記デバイスにより出力される音の音圧を、当該第1の指標値によって示される当該距離の合計値がより小さい場合に、当該第1の指標値によって示される当該距離の合計値がより大きい場合と比較して、より大きくし、また、前記デバイスにより出力される音の高さを、当該第2の指標値によって示される当該エッジ成分がより大きい場合に、当該第2の指標値によって示される当該エッジ成分がより小さい場合と比較して、より高くする、
    システム。
  18. 仮想世界を使用者に体験させるシステムであって、
    記憶装置と、
    使用者のアバターの位置および向きに基づいて仮想世界の立体形状をレンダリングすることで画像を生成すると共に、前記生成した画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を生成して、前記記憶装置に格納するレンダリング・エンジンと、
    使用者の指示に基づいて、前記生成した画像の表示領域のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれのピクセルに対応する距離を、前記記憶装置から読み出して、読み出したそれぞれの距離に基づいて指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御することで、使用者に仮想世界を認識させる制御部と
    を備え、
    前記選択部は、選択する前記範囲を使用者の指示に基づいて変更し、
    前記算出部は、選択する前記範囲が変更される毎に、選択する前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの距離の合計値に基づいて前記指標値を算出し、
    前記制御部は、前記デバイスによる作用の強度を、選択する前記範囲の変更前に前記算出部により算出された当該指標値が示す当該距離の合計値と、選択する前記範囲の変更後に前記算出部により算出された当該指標値が示す当該距離の合計値との差分の大きさに基づいて制御する、
    システム。
  19. 画像に描画されたオブジェクトの認識をコンピュータにより支援する方法であって、
    前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
    前記コンピュータにより、使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択するステップと、
    前記コンピュータにより、選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出するステップと、
    前記コンピュータにより、算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御するステップと
    を備え、
    前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
    前記算出するステップは、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて前記指標値を算出し、
    前記制御するステップは、前記デバイスによる作用の強度を、当該指標値によって示される当該距離の合計値がより小さい場合に、当該指標値によって示される当該距離の合計値がより大きい場合と比較して、より強くする、
    方法。
  20. 画像に描画されたオブジェクトの認識をコンピュータにより支援する方法であって、
    前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
    前記コンピュータにより、使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択するステップと、
    前記コンピュータにより、選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出するステップと、
    前記コンピュータにより、算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御するステップと
    を備え、
    前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
    前記算出するステップは、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を示す数値を当該ピクセルの配列順に配列したZバッファ画像について、当該Zバッファ画像のエッジ成分を前記指標値として算出し、
    前記制御するステップは、前記デバイスによる作用の強度を、当該指標値によって示されるエッジ成分がより大きい場合に、当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くする、
    方法。
  21. 画像に描画されたオブジェクトの認識をコンピュータにより支援する方法であって、
    前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
    前記コンピュータにより、使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択するステップと、
    前記コンピュータにより、選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出するステップと、
    前記コンピュータにより、算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御するステップと
    を備え、
    前記記憶装置は、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
    前記算出するステップは、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す前記指標値を算出し、
    前記制御するステップは、前記デバイスによる作用の強度を、当該指標値によって示される当該エッジ成分がより大きい場合に、当該指標値によって示される当該エッジ成分がより小さい場合と比較して、より強くする、
    方法。
  22. 画像に描画されたオブジェクトの認識をコンピュータにより支援する方法であって、
    前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
    前記コンピュータにより、使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択するステップと、
    前記コンピュータにより、選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出するステップと、
    前記コンピュータにより、算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御するステップと
    を備え、
    前記入力画像は、前記オブジェクトである立体形状をレンダリングすることで生成され、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、また、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
    前記算出するステップは、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて第1の指標値を算出し、また、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す第2の指標値を算出し、
    前記制御するステップは、前記デバイスにより出力される音の音圧を、当該第1の指標値によって示される当該距離の合計値がより小さい場合に、当該第1の指標値によって示される当該距離の合計値がより大きい場合と比較して、より大きくし、また、前記デバイスにより出力される音の高さを、当該第2の指標値によって示される当該エッジ成分がより大きい場合に、当該第2の指標値によって示される当該エッジ成分がより小さい場合と比較して、より高くする、
    方法。
  23. 画像に描画されたオブジェクトの認識をコンピュータにより支援する方法であって、
    前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
    前記コンピュータにより、使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択するステップと、
    前記コンピュータにより、選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出するステップと、
    前記コンピュータにより、算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御するステップと
    を備え、
    前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
    前記選択するステップは、選択する前記範囲を使用者の指示に基づいて変更し、
    前記算出するステップは、選択する前記範囲が変更される毎に、選択する前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの距離の合計値に基づいて前記指標値を算出し、
    前記制御するステップは、前記デバイスによる作用の強度を、選択する前記範囲の変更前に算出された当該指標値が示す当該距離の合計値と、選択する前記範囲の変更後に算出された当該指標値が示す当該距離の合計値との差分の大きさに基づいて制御する、
    方法。
  24. 画像に描画されたオブジェクトの認識を支援するシステムとして、コンピュータを機能させるプログラムであって、
    前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
    前記コンピュータを、
    使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
    して機能させ、
    前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて前記指標値を算出し、
    前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該距離の合計値がより小さい場合に、当該指標値によって示される当該距離の合計値がより大きい場合と比較して、より強くする、
    プログラム。
  25. 画像に描画されたオブジェクトの認識を支援するシステムとして、コンピュータを機能させるプログラムであって、
    前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
    前記コンピュータを、
    使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
    して機能させ、
    前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を示す数値を当該ピクセルの配列順に配列したZバッファ画像について、当該Zバッファ画像のエッジ成分を前記指標値として算出し、
    前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示されるエッジ成分がより大きい場合に、当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くする、
    プログラム。
  26. 画像に描画されたオブジェクトの認識を支援するシステムとして、コンピュータを機能させるプログラムであって、
    前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
    前記コンピュータを、
    使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
    して機能させ、
    前記記憶装置は、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す前記指標値を算出し、
    前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該エッジ成分がより大きい場合に、当該指標値によって示される当該エッジ成分がより小さい場合と比較して、より強くする、
    プログラム。
  27. 画像に描画されたオブジェクトの認識を支援するシステムとして、コンピュータを機能させるプログラムであって、
    前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
    前記コンピュータを、
    使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
    して機能させ、
    前記入力画像は、前記オブジェクトである立体形状をレンダリングすることで生成され、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、また、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
    前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて第1の指標値を算出し、また、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す第2の指標値を算出し、
    前記制御部は、前記デバイスにより出力される音の音圧を、当該第1の指標値によって示される当該距離の合計値がより小さい場合に、当該第1の指標値によって示される当該距離の合計値がより大きい場合と比較して、より大きくし、また、前記デバイスにより出力される音の高さを、当該第2の指標値によって示される当該エッジ成分がより大きい場合に、当該第2の指標値によって示される当該エッジ成分がより小さい場合と比較して、より高くする、
    プログラム。
  28. 画像に描画されたオブジェクトの認識を支援するシステムとして、コンピュータを機能させるプログラムであって、
    前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
    前記コンピュータを、
    使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
    選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
    算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
    して機能させ、
    前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
    前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
    前記選択部は、選択する前記範囲を使用者の指示に基づいて変更し、
    前記算出部は、選択する前記範囲が変更される毎に、選択する前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの距離の合計値に基づいて前記指標値を算出し、
    前記制御部は、前記デバイスによる作用の強度を、選択する前記範囲の変更前に前記算出部により算出された当該指標値が示す当該距離の合計値と、選択する前記範囲の変更後に前記算出部により算出された当該指標値が示す当該距離の合計値との差分の大きさに基づいて制御する、
    プログラム。
JP2007237839A 2007-09-13 2007-09-13 画像の認識を支援するシステム Expired - Fee Related JP4931240B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007237839A JP4931240B2 (ja) 2007-09-13 2007-09-13 画像の認識を支援するシステム
US12/208,751 US20090109218A1 (en) 2007-09-13 2008-09-11 System for supporting recognition of an object drawn in an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007237839A JP4931240B2 (ja) 2007-09-13 2007-09-13 画像の認識を支援するシステム

Publications (2)

Publication Number Publication Date
JP2009070139A JP2009070139A (ja) 2009-04-02
JP4931240B2 true JP4931240B2 (ja) 2012-05-16

Family

ID=40582260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007237839A Expired - Fee Related JP4931240B2 (ja) 2007-09-13 2007-09-13 画像の認識を支援するシステム

Country Status (2)

Country Link
US (1) US20090109218A1 (ja)
JP (1) JP4931240B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9335909B2 (en) * 2009-06-03 2016-05-10 Honda Motor Co., Ltd. Drawing assist device, drawing assist program, and drawing assist method
JP5781743B2 (ja) * 2010-06-28 2015-09-24 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CN102467756B (zh) * 2010-10-29 2015-11-25 国际商业机器公司 用于三维场景的透视方法及装置
JP2019144958A (ja) * 2018-02-22 2019-08-29 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5241656A (en) * 1989-02-06 1993-08-31 International Business Machines Corporation Depth buffer clipping for window management
US6677945B2 (en) * 2001-04-20 2004-01-13 Xgi Cayman, Ltd. Multi-resolution depth buffer
US7623114B2 (en) * 2001-10-09 2009-11-24 Immersion Corporation Haptic feedback sensations based on audio output from computer devices
FR2831428B1 (fr) * 2001-10-26 2004-09-03 Univ Compiegne Tech Procede permettant a au moins un utilisateur, notamment un utilisateur aveugle, de percevoir une forme et dispositif pour la mise en oeuvre du procede
US7199793B2 (en) * 2002-05-21 2007-04-03 Mok3, Inc. Image-based modeling and photo editing
JP3534345B1 (ja) * 2002-10-22 2004-06-07 コナミ株式会社 ゲームプログラム及びゲーム装置
JP3889392B2 (ja) * 2003-11-18 2007-03-07 株式会社スクウェア・エニックス 画像描画装置及び方法、プログラム並びに記録媒体
JP3740548B2 (ja) * 2004-01-08 2006-02-01 コナミ株式会社 ゲーム装置、ゲーム装置の制御方法及びプログラム
US20060024647A1 (en) * 2004-07-30 2006-02-02 France Telecom Method and apparatus for communicating graphical information to a visually impaired person using haptic feedback
WO2006028093A1 (ja) * 2004-09-06 2006-03-16 Matsushita Electric Industrial Co., Ltd. 画像生成装置および画像生成方法
JP2006115066A (ja) * 2004-10-13 2006-04-27 Nippon Hoso Kyokai <Nhk> 多感覚提示装置
JP2007029235A (ja) * 2005-07-25 2007-02-08 Yamaha Motor Co Ltd 移動体システム及び移動体システム用プログラム
KR100793990B1 (ko) * 2006-09-18 2008-01-16 삼성전자주식회사 타일 기반 3차원 렌더링에서의 조기 z 테스트 방법 및시스템

Also Published As

Publication number Publication date
US20090109218A1 (en) 2009-04-30
JP2009070139A (ja) 2009-04-02

Similar Documents

Publication Publication Date Title
US10739849B2 (en) Selective peripheral vision filtering in a foveated rendering system
US11557102B2 (en) Methods for manipulating objects in an environment
US10720128B2 (en) Real-time user adaptive foveated rendering
US11619989B2 (en) Gaze and saccade based graphical manipulation
US9704285B2 (en) Detection of partially obscured objects in three dimensional stereoscopic scenes
CN110402425B (zh) 具有彩色虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法
CN109564472B (zh) 用于选取与虚拟对象的交互方法的方法、介质和系统
US9165381B2 (en) Augmented books in a mixed reality environment
JP5914739B1 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
JP2021047419A (ja) 感覚式アイウェア
JP2021512353A (ja) 複合現実ディスプレイにおける仮想コンテンツのための掩蔽カーソル
JPWO2016203792A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2017033777A1 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
Bozgeyikli et al. Evaluating object manipulation interaction techniques in mixed reality: Tangible user interfaces and gesture
US12039632B2 (en) Synthesized camera arrays for rendering novel viewpoints
JP4931240B2 (ja) 画像の認識を支援するシステム
JP6121496B2 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
CN114746796A (zh) 动态浏览器舞台
JP5920858B1 (ja) プログラム、情報処理装置、深度定義方法及び記録媒体
JP6121495B2 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
JP7475625B2 (ja) 3次元空間における入力受付および入力表示方法、プログラム、および3次元空間における入力受付および入力表示装置
JP7072706B1 (ja) 表示制御装置、表示制御方法および表示制御プログラム
WO2024075544A1 (ja) 情報処理装置、情報処理方法およびプログラム
KR20240056558A (ko) 핸드크래프티드 증강 현실 경험들
Mohd Yusof Supporting Focus and Context Awareness in 3D Modeling Using Multi-Layered Displays

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20120118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120213

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees