JP4931240B2 - 画像の認識を支援するシステム - Google Patents
画像の認識を支援するシステム Download PDFInfo
- Publication number
- JP4931240B2 JP4931240B2 JP2007237839A JP2007237839A JP4931240B2 JP 4931240 B2 JP4931240 B2 JP 4931240B2 JP 2007237839 A JP2007237839 A JP 2007237839A JP 2007237839 A JP2007237839 A JP 2007237839A JP 4931240 B2 JP4931240 B2 JP 4931240B2
- Authority
- JP
- Japan
- Prior art keywords
- index value
- pixel
- user
- storage device
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となりうる。
なお、図2Aでは説明の明確化のため、各オブジェクトを線図により表し、かつ、説明の補助のため、陰に隠れて見えない線を点線で示した。実際には、この画像には、光線によりもたらされる艶や影が各オブジェクトの表面に描画されてもよい。また、そのような艶や影による色彩のグラデーションが各オブジェクトの表面に施されてよい。更には、例えばテクスチャ・マッピングによりオブジェクトの表面には所定の画像が貼付されてもよい。
算出部720は、選択されたこの範囲に含まれるそれぞれのピクセルに対応する距離成分を記憶装置104のZバッファ画像300Bから読み出して、読み出したそれぞれの距離成分に基づき指標値を算出する。座標(i,j)のピクセルについてその距離成分によって表される距離をZi,jとする。また、選択されたこの範囲をSとする。この場合において、算出される指標値tは、例えば以下の式(2)により表される。
算出部720は、選択されたこの範囲に含まれるそれぞれのピクセルに対応するピクセル値を記憶装置104の入力画像300Aから読み出して、読み出したそれぞれのピクセル値に基づいて、選択されたこの範囲の画像に含まれるエッジ成分を示す指標値を算出する。具体的には、算出部720は、まず、ピクセル値のRGB要素に基づきルミナンス(輝度)成分を算出する。
以上の例に代えて、以下に示すように、エッジ成分と距離成分との組合せに基づき指標値tを算出してもよい。
例えば、算出部720は、式(7)に示すように、範囲Sに含まれる各ピクセルについて、そのピクセルのエッジ成分をそのピクセルについての距離の2乗で割り算して、それを範囲Sに含まれる各ピクセルについて合計した値を、指標値tとしてよい。なお、ここでいう距離Z´i,jは、座標(i,j)を中心とする3×3ピクセルのうち最も大きい距離を示す。
距離成分およびエッジ成分の組合せには更に他のバリエーションが考えられる。例えば、算出部720は、範囲Sに含まれるそれぞれのピクセルに対応する距離を示す数値を当該ピクセルの配列順に配列したZバッファ画像について、当該Zバッファ画像のエッジ成分を指標値として算出してもよい。これは即ち、距離変化の大きい部分を多く含む範囲について、より大きい指標値を算出することを示す。
算出部720は、上記の多様な指標値のうち何れかではなく、複数の指標値を算出してもよい。算出された指標値は、後に説明するように、制御部730により音出力デバイス740の強度を制御するために使用される。
この第1例のように、最初は視野を広く設定しておいて視線方向を変更すれば、あたかも手のひらを広げてオブジェクトを掴むようにして、表示領域内にある様々なオブジェクトを捉えることができる。
図11は、使用者の仮想的な視線を直線Xに沿って変更した場合における音量変化を示す。なお、この図11の例において音出力デバイス740は、距離成分に基づき制御されるものとする。図11に示す画像は図2Aなどに示す画像に対応している。但し、図11は、3つのオブジェクトを横断する直線Xを含む。この直線Xは、仮想的な視線の軌跡を表す。即ち、選択部710は、使用者から順次指示を受けることにより、極めて小さい大きさの範囲Sを、この直線Xに沿って移動させる。
12 仮想世界ブラウザ
15 支援システム
18 レンダリング・エンジン
22 仮想世界サーバ
100 クライアント・コンピュータ
104 記憶装置
106 通信インターフェイス
108 入出力インターフェイス
200 サーバ・コンピュータ
204 記憶装置
206 通信インターフェイス
300A 入力画像
300B Zバッファ画像
400 インターネット
705A 視線入力装置
705B 視野入力装置
710 選択部
720 算出部
730 制御部
740 音出力デバイス
Claims (28)
- 画像に描画されたオブジェクトの認識を支援するシステムであって、
入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置と、
使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
を備え、
前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて前記指標値を算出し、
前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該距離の合計値がより小さい場合に、当該指標値によって示される当該距離の合計値がより大きい場合と比較して、より強くする、
システム。 - 前記選択部は、前記入力画像の表示領域内の座標、および、当該座標を基準とした前記範囲の大きさの入力を受け付け、受け付けた前記座標を基準とした、受け付けた前記大きさの範囲を選択し、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する距離の平均値に基づいて前記指標値を算出し、
前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該距離の平均値がより小さい場合に、当該指標値によって示される当該距離の平均値がより大きい場合と比較して、より強くする、請求項1に記載のシステム。 - 前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を示す数値を当該ピクセルの配列順に配列したZバッファ画像について、当該Zバッファ画像のエッジ成分を前記指標値として算出し、
前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示されるエッジ成分がより大きい場合に、当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くする、請求項1に記載のシステム。 - 画像に描画されたオブジェクトの認識を支援するシステムであって、
入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置と、
使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
を備え、
前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を示す数値を当該ピクセルの配列順に配列したZバッファ画像について、当該Zバッファ画像のエッジ成分を前記指標値として算出し、
前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示されるエッジ成分がより大きい場合に、当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くする、
システム。 - 前記記憶装置は、さらに、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値にさらに基づいて、選択された前記範囲に対応する前記Zバッファ画像のエッジ成分、および、選択された前記範囲の画像に含まれるエッジ成分の双方を示す前記指標値を算出し、
前記制御部は、前記デバイスによる作用の強度を、前記Zバッファ画像について当該指標値によって示されるエッジ成分がより大きい場合に、前記Zバッファ画像について当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くし、さらに、前記入力画像について当該指標値によって示されるエッジ成分がより大きい場合に、前記入力画像について当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くする、請求項3または4に記載のシステム。 - 前記記憶装置は、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す前記指標値を算出し、
前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該エッジ成分がより大きい場合に、当該指標値によって示される当該エッジ成分がより小さい場合と比較して、より強くする、請求項1に記載のシステム。 - 画像に描画されたオブジェクトの認識を支援するシステムであって、
入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置と、
使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
を備え、
前記記憶装置は、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す前記指標値を算出し、
前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該エッジ成分がより大きい場合に、当該指標値によって示される当該エッジ成分がより小さい場合と比較して、より強くする、
システム。 - 前記入力画像は、前記オブジェクトである立体形状をレンダリングすることで生成され、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、また、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて第1の指標値を算出し、また、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す第2の指標値を算出し、
前記制御部は、前記デバイスにより出力される音の音圧を、当該第1の指標値によって示される当該距離の合計値がより小さい場合に、当該第1の指標値によって示される当該距離の合計値がより大きい場合と比較して、より大きくし、また、前記デバイスにより出力される音の高さを、当該第2の指標値によって示される当該エッジ成分がより大きい場合に、当該第2の指標値によって示される当該エッジ成分がより小さい場合と比較して、より高くする、請求項1に記載のシステム。 - 画像に描画されたオブジェクトの認識を支援するシステムであって、
入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置と、
使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
を備え、
前記入力画像は、前記オブジェクトである立体形状をレンダリングすることで生成され、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、また、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて第1の指標値を算出し、また、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す第2の指標値を算出し、
前記制御部は、前記デバイスにより出力される音の音圧を、当該第1の指標値によって示される当該距離の合計値がより小さい場合に、当該第1の指標値によって示される当該距離の合計値がより大きい場合と比較して、より大きくし、また、前記デバイスにより出力される音の高さを、当該第2の指標値によって示される当該エッジ成分がより大きい場合に、当該第2の指標値によって示される当該エッジ成分がより小さい場合と比較して、より高くする、
システム。 - 前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
前記選択部は、選択する前記範囲を使用者の指示に基づいて変更し、
前記算出部は、選択する前記範囲が変更される毎に、選択する前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの距離の合計値に基づいて前記指標値を算出し、
前記制御部は、前記デバイスによる作用の強度を、選択する前記範囲の変更前に前記算出部により算出された当該指標値が示す当該距離の合計値と、選択する前記範囲の変更後に前記算出部により算出された当該指標値が示す当該距離の合計値との差分の大きさに基づいて制御する、請求項1に記載のシステム。 - 画像に描画されたオブジェクトの認識を支援するシステムであって、
入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置と、
使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
を備え、
前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
前記選択部は、選択する前記範囲を使用者の指示に基づいて変更し、
前記算出部は、選択する前記範囲が変更される毎に、選択する前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの距離の合計値に基づいて前記指標値を算出し、
前記制御部は、前記デバイスによる作用の強度を、選択する前記範囲の変更前に前記算出部により算出された当該指標値が示す当該距離の合計値と、選択する前記範囲の変更後に前記算出部により算出された当該指標値が示す当該距離の合計値との差分の大きさに基づいて制御する、
システム。 - 前記デバイスは、音を出力するデバイスであり、
前記制御部は、前記デバイスが出力する音の大きさを制御する、請求項1から11のいずれか一項に記載のシステム。 - 前記算出部は、選択された前記範囲に含まれる各領域に対応する特徴量に基づいて、複数の異なる指標値を算出し、
前記制御部は、算出した第1の指標値に基づいて、前記デバイスが出力する音の大きさを制御し、算出した第2の指標値に基づいて、前記デバイスが出力する音の高さを制御する、請求項12に記載のシステム。 - 仮想世界を使用者に体験させるシステムであって、
記憶装置と、
使用者のアバターの位置および向きに基づいて仮想世界の立体形状をレンダリングすることで画像を生成すると共に、前記生成した画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を生成して、前記記憶装置に格納するレンダリング・エンジンと、
使用者の指示に基づいて、前記生成した画像の表示領域のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれのピクセルに対応する距離を、前記記憶装置から読み出して、読み出したそれぞれの距離に基づいて指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御することで、使用者に仮想世界を認識させる制御部と
を備え、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて前記指標値を算出し、
前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該距離の合計値がより小さい場合に、当該指標値によって示される当該距離の合計値がより大きい場合と比較して、より強くする、
システム。 - 仮想世界を使用者に体験させるシステムであって、
記憶装置と、
使用者のアバターの位置および向きに基づいて仮想世界の立体形状をレンダリングすることで画像を生成すると共に、前記生成した画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を生成して、前記記憶装置に格納するレンダリング・エンジンと、
使用者の指示に基づいて、前記生成した画像の表示領域のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれのピクセルに対応する距離を、前記記憶装置から読み出して、読み出したそれぞれの距離に基づいて指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御することで、使用者に仮想世界を認識させる制御部と
を備え、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を示す数値を当該ピクセルの配列順に配列したZバッファ画像について、当該Zバッファ画像のエッジ成分を前記指標値として算出し、
前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示されるエッジ成分がより大きい場合に、当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くする、
システム。 - 仮想世界を使用者に体験させるシステムであって、
記憶装置と、
使用者のアバターの位置および向きに基づいて仮想世界の立体形状をレンダリングすることで画像を生成すると共に、前記生成した画像のピクセル毎に、ピクセル値を前記記憶装置に格納するレンダリング・エンジンと、
使用者の指示に基づいて、前記生成した画像の表示領域のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値を、前記記憶装置から読み出して、読み出したそれぞれのピクセル値に基づいて指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御することで、使用者に仮想世界を認識させる制御部と
を備え、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す前記指標値を算出し、
前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該エッジ成分がより大きい場合に、当該指標値によって示される当該エッジ成分がより小さい場合と比較して、より強くする、
システム。 - 仮想世界を使用者に体験させるシステムであって、
記憶装置と、
使用者のアバターの位置および向きに基づいて仮想世界の立体形状をレンダリングすることで画像を生成すると共に、前記生成した画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を生成して、ピクセル値と共に前記記憶装置に格納するレンダリング・エンジンと、
使用者の指示に基づいて、前記生成した画像の表示領域のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれのピクセルに対応する距離およびピクセル値を、前記記憶装置から読み出して、読み出したそれぞれの距離およびピクセル値に基づいて指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御することで、使用者に仮想世界を認識させる制御部と
を備え、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて第1の指標値を算出し、また、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す第2の指標値を算出し、
前記制御部は、前記デバイスにより出力される音の音圧を、当該第1の指標値によって示される当該距離の合計値がより小さい場合に、当該第1の指標値によって示される当該距離の合計値がより大きい場合と比較して、より大きくし、また、前記デバイスにより出力される音の高さを、当該第2の指標値によって示される当該エッジ成分がより大きい場合に、当該第2の指標値によって示される当該エッジ成分がより小さい場合と比較して、より高くする、
システム。 - 仮想世界を使用者に体験させるシステムであって、
記憶装置と、
使用者のアバターの位置および向きに基づいて仮想世界の立体形状をレンダリングすることで画像を生成すると共に、前記生成した画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を生成して、前記記憶装置に格納するレンダリング・エンジンと、
使用者の指示に基づいて、前記生成した画像の表示領域のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれのピクセルに対応する距離を、前記記憶装置から読み出して、読み出したそれぞれの距離に基づいて指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御することで、使用者に仮想世界を認識させる制御部と
を備え、
前記選択部は、選択する前記範囲を使用者の指示に基づいて変更し、
前記算出部は、選択する前記範囲が変更される毎に、選択する前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの距離の合計値に基づいて前記指標値を算出し、
前記制御部は、前記デバイスによる作用の強度を、選択する前記範囲の変更前に前記算出部により算出された当該指標値が示す当該距離の合計値と、選択する前記範囲の変更後に前記算出部により算出された当該指標値が示す当該距離の合計値との差分の大きさに基づいて制御する、
システム。 - 画像に描画されたオブジェクトの認識をコンピュータにより支援する方法であって、
前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
前記コンピュータにより、使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択するステップと、
前記コンピュータにより、選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出するステップと、
前記コンピュータにより、算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御するステップと
を備え、
前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
前記算出するステップは、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて前記指標値を算出し、
前記制御するステップは、前記デバイスによる作用の強度を、当該指標値によって示される当該距離の合計値がより小さい場合に、当該指標値によって示される当該距離の合計値がより大きい場合と比較して、より強くする、
方法。 - 画像に描画されたオブジェクトの認識をコンピュータにより支援する方法であって、
前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
前記コンピュータにより、使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択するステップと、
前記コンピュータにより、選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出するステップと、
前記コンピュータにより、算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御するステップと
を備え、
前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
前記算出するステップは、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を示す数値を当該ピクセルの配列順に配列したZバッファ画像について、当該Zバッファ画像のエッジ成分を前記指標値として算出し、
前記制御するステップは、前記デバイスによる作用の強度を、当該指標値によって示されるエッジ成分がより大きい場合に、当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くする、
方法。 - 画像に描画されたオブジェクトの認識をコンピュータにより支援する方法であって、
前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
前記コンピュータにより、使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択するステップと、
前記コンピュータにより、選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出するステップと、
前記コンピュータにより、算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御するステップと
を備え、
前記記憶装置は、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
前記算出するステップは、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す前記指標値を算出し、
前記制御するステップは、前記デバイスによる作用の強度を、当該指標値によって示される当該エッジ成分がより大きい場合に、当該指標値によって示される当該エッジ成分がより小さい場合と比較して、より強くする、
方法。 - 画像に描画されたオブジェクトの認識をコンピュータにより支援する方法であって、
前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
前記コンピュータにより、使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択するステップと、
前記コンピュータにより、選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出するステップと、
前記コンピュータにより、算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御するステップと
を備え、
前記入力画像は、前記オブジェクトである立体形状をレンダリングすることで生成され、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、また、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
前記算出するステップは、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて第1の指標値を算出し、また、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す第2の指標値を算出し、
前記制御するステップは、前記デバイスにより出力される音の音圧を、当該第1の指標値によって示される当該距離の合計値がより小さい場合に、当該第1の指標値によって示される当該距離の合計値がより大きい場合と比較して、より大きくし、また、前記デバイスにより出力される音の高さを、当該第2の指標値によって示される当該エッジ成分がより大きい場合に、当該第2の指標値によって示される当該エッジ成分がより小さい場合と比較して、より高くする、
方法。 - 画像に描画されたオブジェクトの認識をコンピュータにより支援する方法であって、
前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
前記コンピュータにより、使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択するステップと、
前記コンピュータにより、選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出するステップと、
前記コンピュータにより、算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御するステップと
を備え、
前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
前記選択するステップは、選択する前記範囲を使用者の指示に基づいて変更し、
前記算出するステップは、選択する前記範囲が変更される毎に、選択する前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの距離の合計値に基づいて前記指標値を算出し、
前記制御するステップは、前記デバイスによる作用の強度を、選択する前記範囲の変更前に算出された当該指標値が示す当該距離の合計値と、選択する前記範囲の変更後に算出された当該指標値が示す当該距離の合計値との差分の大きさに基づいて制御する、
方法。 - 画像に描画されたオブジェクトの認識を支援するシステムとして、コンピュータを機能させるプログラムであって、
前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
前記コンピュータを、
使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
して機能させ、
前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて前記指標値を算出し、
前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該距離の合計値がより小さい場合に、当該指標値によって示される当該距離の合計値がより大きい場合と比較して、より強くする、
プログラム。 - 画像に描画されたオブジェクトの認識を支援するシステムとして、コンピュータを機能させるプログラムであって、
前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
前記コンピュータを、
使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
して機能させ、
前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を示す数値を当該ピクセルの配列順に配列したZバッファ画像について、当該Zバッファ画像のエッジ成分を前記指標値として算出し、
前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示されるエッジ成分がより大きい場合に、当該指標値によって示されるエッジ成分がより小さい場合と比較して、より強くする、
プログラム。 - 画像に描画されたオブジェクトの認識を支援するシステムとして、コンピュータを機能させるプログラムであって、
前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
前記コンピュータを、
使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
して機能させ、
前記記憶装置は、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す前記指標値を算出し、
前記制御部は、前記デバイスによる作用の強度を、当該指標値によって示される当該エッジ成分がより大きい場合に、当該指標値によって示される当該エッジ成分がより小さい場合と比較して、より強くする、
プログラム。 - 画像に描画されたオブジェクトの認識を支援するシステムとして、コンピュータを機能させるプログラムであって、
前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
前記コンピュータを、
使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
して機能させ、
前記入力画像は、前記オブジェクトである立体形状をレンダリングすることで生成され、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、また、前記入力画像の各ピクセルのピクセル値を前記特徴量として記憶しており、
前記算出部は、選択された前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの前記距離の合計値に基づいて第1の指標値を算出し、また、選択された前記範囲に含まれるそれぞれのピクセルに対応するピクセル値に基づいて、選択された前記範囲の画像に含まれるエッジ成分を示す第2の指標値を算出し、
前記制御部は、前記デバイスにより出力される音の音圧を、当該第1の指標値によって示される当該距離の合計値がより小さい場合に、当該第1の指標値によって示される当該距離の合計値がより大きい場合と比較して、より大きくし、また、前記デバイスにより出力される音の高さを、当該第2の指標値によって示される当該エッジ成分がより大きい場合に、当該第2の指標値によって示される当該エッジ成分がより小さい場合と比較して、より高くする、
プログラム。 - 画像に描画されたオブジェクトの認識を支援するシステムとして、コンピュータを機能させるプログラムであって、
前記コンピュータは、入力画像を分割した複数の領域のそれぞれに対応付けて、当該領域に描画されたオブジェクトの特徴量を記憶している記憶装置を有し、
前記コンピュータを、
使用者の指示に基づいて、前記入力画像のうち使用者が認識する範囲を選択する選択部と、
選択された前記範囲に含まれるそれぞれの領域に対応する前記特徴量を、前記記憶装置から読み出して、読み出したそれぞれの前記特徴量に基づき指標値を算出する算出部と、
算出した前記指標値に基づき、使用者の聴覚または触覚に作用するデバイスを制御する制御部と
して機能させ、
前記入力画像は、立体形状をレンダリングしたオブジェクトを含み、
前記記憶装置は、前記入力画像のピクセル毎に、前記立体形状のうち当該ピクセルに対応する部分の、レンダリングにおける視点からの距離を前記特徴量として記憶しており、
前記選択部は、選択する前記範囲を使用者の指示に基づいて変更し、
前記算出部は、選択する前記範囲が変更される毎に、選択する前記範囲に含まれるそれぞれのピクセルに対応する前記距離を、前記記憶装置から読み出して、読み出したそれぞれの距離の合計値に基づいて前記指標値を算出し、
前記制御部は、前記デバイスによる作用の強度を、選択する前記範囲の変更前に前記算出部により算出された当該指標値が示す当該距離の合計値と、選択する前記範囲の変更後に前記算出部により算出された当該指標値が示す当該距離の合計値との差分の大きさに基づいて制御する、
プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007237839A JP4931240B2 (ja) | 2007-09-13 | 2007-09-13 | 画像の認識を支援するシステム |
US12/208,751 US20090109218A1 (en) | 2007-09-13 | 2008-09-11 | System for supporting recognition of an object drawn in an image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007237839A JP4931240B2 (ja) | 2007-09-13 | 2007-09-13 | 画像の認識を支援するシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009070139A JP2009070139A (ja) | 2009-04-02 |
JP4931240B2 true JP4931240B2 (ja) | 2012-05-16 |
Family
ID=40582260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007237839A Expired - Fee Related JP4931240B2 (ja) | 2007-09-13 | 2007-09-13 | 画像の認識を支援するシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20090109218A1 (ja) |
JP (1) | JP4931240B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9335909B2 (en) * | 2009-06-03 | 2016-05-10 | Honda Motor Co., Ltd. | Drawing assist device, drawing assist program, and drawing assist method |
JP5781743B2 (ja) * | 2010-06-28 | 2015-09-24 | ソニー株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
CN102467756B (zh) * | 2010-10-29 | 2015-11-25 | 国际商业机器公司 | 用于三维场景的透视方法及装置 |
JP2019144958A (ja) * | 2018-02-22 | 2019-08-29 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5241656A (en) * | 1989-02-06 | 1993-08-31 | International Business Machines Corporation | Depth buffer clipping for window management |
US6677945B2 (en) * | 2001-04-20 | 2004-01-13 | Xgi Cayman, Ltd. | Multi-resolution depth buffer |
US7623114B2 (en) * | 2001-10-09 | 2009-11-24 | Immersion Corporation | Haptic feedback sensations based on audio output from computer devices |
FR2831428B1 (fr) * | 2001-10-26 | 2004-09-03 | Univ Compiegne Tech | Procede permettant a au moins un utilisateur, notamment un utilisateur aveugle, de percevoir une forme et dispositif pour la mise en oeuvre du procede |
US7199793B2 (en) * | 2002-05-21 | 2007-04-03 | Mok3, Inc. | Image-based modeling and photo editing |
JP3534345B1 (ja) * | 2002-10-22 | 2004-06-07 | コナミ株式会社 | ゲームプログラム及びゲーム装置 |
JP3889392B2 (ja) * | 2003-11-18 | 2007-03-07 | 株式会社スクウェア・エニックス | 画像描画装置及び方法、プログラム並びに記録媒体 |
JP3740548B2 (ja) * | 2004-01-08 | 2006-02-01 | コナミ株式会社 | ゲーム装置、ゲーム装置の制御方法及びプログラム |
US20060024647A1 (en) * | 2004-07-30 | 2006-02-02 | France Telecom | Method and apparatus for communicating graphical information to a visually impaired person using haptic feedback |
WO2006028093A1 (ja) * | 2004-09-06 | 2006-03-16 | Matsushita Electric Industrial Co., Ltd. | 画像生成装置および画像生成方法 |
JP2006115066A (ja) * | 2004-10-13 | 2006-04-27 | Nippon Hoso Kyokai <Nhk> | 多感覚提示装置 |
JP2007029235A (ja) * | 2005-07-25 | 2007-02-08 | Yamaha Motor Co Ltd | 移動体システム及び移動体システム用プログラム |
KR100793990B1 (ko) * | 2006-09-18 | 2008-01-16 | 삼성전자주식회사 | 타일 기반 3차원 렌더링에서의 조기 z 테스트 방법 및시스템 |
-
2007
- 2007-09-13 JP JP2007237839A patent/JP4931240B2/ja not_active Expired - Fee Related
-
2008
- 2008-09-11 US US12/208,751 patent/US20090109218A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20090109218A1 (en) | 2009-04-30 |
JP2009070139A (ja) | 2009-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10739849B2 (en) | Selective peripheral vision filtering in a foveated rendering system | |
US11557102B2 (en) | Methods for manipulating objects in an environment | |
US10720128B2 (en) | Real-time user adaptive foveated rendering | |
US11619989B2 (en) | Gaze and saccade based graphical manipulation | |
US9704285B2 (en) | Detection of partially obscured objects in three dimensional stereoscopic scenes | |
CN110402425B (zh) | 具有彩色虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法 | |
CN109564472B (zh) | 用于选取与虚拟对象的交互方法的方法、介质和系统 | |
US9165381B2 (en) | Augmented books in a mixed reality environment | |
JP5914739B1 (ja) | ヘッドマウントディスプレイシステムを制御するプログラム | |
JP2021047419A (ja) | 感覚式アイウェア | |
JP2021512353A (ja) | 複合現実ディスプレイにおける仮想コンテンツのための掩蔽カーソル | |
JPWO2016203792A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2017033777A1 (ja) | ヘッドマウントディスプレイシステムを制御するプログラム | |
Bozgeyikli et al. | Evaluating object manipulation interaction techniques in mixed reality: Tangible user interfaces and gesture | |
US12039632B2 (en) | Synthesized camera arrays for rendering novel viewpoints | |
JP4931240B2 (ja) | 画像の認識を支援するシステム | |
JP6121496B2 (ja) | ヘッドマウントディスプレイシステムを制御するプログラム | |
CN114746796A (zh) | 动态浏览器舞台 | |
JP5920858B1 (ja) | プログラム、情報処理装置、深度定義方法及び記録媒体 | |
JP6121495B2 (ja) | ヘッドマウントディスプレイシステムを制御するプログラム | |
JP7475625B2 (ja) | 3次元空間における入力受付および入力表示方法、プログラム、および3次元空間における入力受付および入力表示装置 | |
JP7072706B1 (ja) | 表示制御装置、表示制御方法および表示制御プログラム | |
WO2024075544A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR20240056558A (ko) | 핸드크래프티드 증강 현실 경험들 | |
Mohd Yusof | Supporting Focus and Context Awareness in 3D Modeling Using Multi-Layered Displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120117 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
RD14 | Notification of resignation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7434 Effective date: 20120118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120213 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150224 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |