JP2015114757A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2015114757A JP2015114757A JP2013255049A JP2013255049A JP2015114757A JP 2015114757 A JP2015114757 A JP 2015114757A JP 2013255049 A JP2013255049 A JP 2013255049A JP 2013255049 A JP2013255049 A JP 2013255049A JP 2015114757 A JP2015114757 A JP 2015114757A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- area
- processing apparatus
- candidate
- superimposed display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本技術は、入力画像上にコンテンツを重畳表示することが可能な情報処理装置、当該情報処理装置における情報処理方法及びプログラムに関する。 The present technology relates to an information processing apparatus capable of displaying content superimposed on an input image, an information processing method in the information processing apparatus, and a program.
近年、現実空間と仮想空間とを融合した環境である複合現実感(MR: Mixed Reality)に関する研究が盛んに行われており、その中でも、現実空間に仮想空間のコンテンツを重畳表示することで現実の感覚を増強するAR(Augmented Reality)が注目されている。 In recent years, research on Mixed Reality (MR), which is an environment that combines real space and virtual space, has been actively conducted. Among them, the reality is realized by superimposing virtual space contents on real space. AR (Augmented Reality), which enhances the sense of sensation, has attracted attention.
上記ARは、例えばスマートフォンや、HMD(Head Mount Display)、シースルー眼鏡型等のウェアラブル機器等において既に実現されている。例えば、下記特許文献1には、遺跡の中を歩き回る見学者が所持する携帯型端末装置において、カメラで撮影された遺跡の実写画像に、遺跡の中の展示物に関する情報を重畳させて表示する技術が開示されている。 The AR has already been realized in wearable devices such as smartphones, HMDs (Head Mount Displays), and see-through glasses. For example, in the following Patent Document 1, in a portable terminal device possessed by a visitor who walks around the ruins, information on the exhibits in the ruins is superimposed and displayed on a live-action image taken by the camera. Technology is disclosed.
しかしながら、上記特許文献1のような従来技術においては、カメラに写っている画像上の、例えば仮想コンテンツの重畳表示領域のテクスチャ成分が強い場合等には、当該仮想コンテンツの視認性が損なわれるという問題があった。 However, in the conventional technique such as Patent Document 1, the visibility of the virtual content is impaired when, for example, the texture component in the superimposed display area of the virtual content is strong on the image captured by the camera. There was a problem.
以上のような事情に鑑み、本技術の目的は、ARによる重畳表示において視認性が損なわれるのを防止することが可能な情報処理装置、情報処理方法及びプログラムを提供することにある。 In view of the circumstances as described above, an object of the present technology is to provide an information processing device, an information processing method, and a program capable of preventing visibility from being impaired in superimposed display by AR.
上述の課題を解決するため、本技術の一形態に係る情報処理装置は、撮像部と、制御部と、出力部とを有する。上記制御部は、上記撮像部により撮像された画像からコンテンツの重畳表示候補となる候補領域を検出し、上記候補領域のうち、輝度分布の起伏変化が第1の閾値以下の領域を重畳表示領域として検出し、ユーザに上記重畳表示領域上で仮想的に視認されるように配置される上記コンテンツを生成するように構成される。上記出力部は、上記生成されたコンテンツを上記重畳表示領域に重畳させて出力するように構成される。 In order to solve the above-described problem, an information processing apparatus according to an embodiment of the present technology includes an imaging unit, a control unit, and an output unit. The control unit detects a candidate region that is a candidate for superimposed display of content from the image captured by the imaging unit, and superimposes the region where the undulation change of the luminance distribution is equal to or less than a first threshold among the candidate regions. And the content is arranged so as to be virtually viewed on the superimposed display area by the user. The output unit is configured to output the generated content superimposed on the superimposed display area.
これにより情報処理装置は、輝度分布の起伏変化が小さい領域、すなわちテクスチャが弱い領域を検出してコンテンツを重畳表示するため、テクスチャが強い領域にコンテンツが重畳表示されて視認性が損なわれるのを防止することができる。 As a result, the information processing apparatus detects an area where the undulation change of the luminance distribution is small, that is, an area where the texture is weak and superimposes the content. Can be prevented.
上記制御部は、上記候補領域のうち、三次元形状の起伏変化が第2の閾値以下の領域を上記重畳表示領域として検出してもよい。 The control unit may detect, as the superimposed display area, an area in which the undulation change of the three-dimensional shape is equal to or less than a second threshold among the candidate areas.
これにより情報処理装置は、平坦な領域を重畳表示領域として検出することで、コンテンツを実世界の形状に沿った形で視認性よく表示することができる。 Thereby, the information processing apparatus can display the content with high visibility in a form along the shape of the real world by detecting the flat area as the superimposed display area.
上記制御部は、上記入力された画像から、上記候補領域が動体領域であるか否かを検出し、上記動体領域を上記重畳表示領域から除外してもよい。 The control unit may detect whether the candidate area is a moving object area from the input image and exclude the moving object area from the superimposed display area.
これにより情報処理装置は、動体領域にコンテンツが表示されないようにすることで、視認性のみならず安全性も向上させることができる。 Accordingly, the information processing apparatus can improve not only the visibility but also the safety by preventing the content from being displayed in the moving object region.
当該情報処理装置の姿勢を検出するように構成されたセンサをさらに具備してもよい。この場合上記制御部は、上記センサにより検出された姿勢の変動を検出し、上記入力された画像から、上記姿勢の変動を差し引いて上記動体領域を検出してもよい。 You may further comprise the sensor comprised so that the attitude | position of the said information processing apparatus might be detected. In this case, the control unit may detect a change in posture detected by the sensor, and detect the moving object region by subtracting the change in posture from the input image.
これにより情報処理装置は、姿勢の変動による影響をキャンセルすることで、装置の移動中も、画像内の動体領域を高精度に検出することができる。 Accordingly, the information processing apparatus can detect the moving object region in the image with high accuracy even during the movement of the apparatus by canceling the influence of the change in the posture.
上記制御部は、上記入力された画像のうち連続する第1の画像及び第2の画像からそれぞれ第1の深度分布及び第2の深度分布を算出し、上記第1の画像及び第2の画像の時間間隔において検出された上記姿勢の変動量を上記第1の深度分布に反映させて第3の深度分布を算出し、上記第2の深度分布と上記第3の深度分布との差分の有無を検出することで、上記動体領域の有無を検出してもよい。 The control unit calculates a first depth distribution and a second depth distribution from a continuous first image and second image among the input images, and the first image and the second image are calculated. The third depth distribution is calculated by reflecting the variation amount of the posture detected in the time interval in the first depth distribution, and whether there is a difference between the second depth distribution and the third depth distribution. By detecting this, the presence or absence of the moving object region may be detected.
これにより情報処理装置は、フレーム間の深度分布を、姿勢の変動量分ずらして比較することで、装置の移動も、画像内の動体領域を高精度に検出することができる。 Thereby, the information processing apparatus can detect the moving object region in the image with high accuracy by moving the apparatus by comparing the depth distribution between the frames by shifting the amount of the posture variation.
当該情報処理装置の姿勢を検出するセンサをさらに具備してもよい。この場合上記制御部は、上記センサの検出結果を基に、当該情報処理装置が静止しているか否かを判断し、当該情報処理装置が静止している場合に上記入力された連続した画像の差分を抽出することで、上記動体領域を検出してもよい。 You may further comprise the sensor which detects the attitude | position of the said information processing apparatus. In this case, the control unit determines whether or not the information processing apparatus is stationary based on the detection result of the sensor. When the information processing apparatus is stationary, the control unit The moving object region may be detected by extracting the difference.
これにより情報処理装置は、重畳表示処理を静止状態にのみ限定することで、動体領域の検出を簡略化して処理負荷を軽減することができる。 Accordingly, the information processing apparatus can reduce the processing load by simplifying the detection of the moving object region by limiting the superimposed display process only to the stationary state.
上記出力部は、上記生成されたコンテンツを上記重畳表示領域に半透過状態で重畳させて出力してもよい。この場合上記制御部は、上記輝度分布の起伏変化が第1の閾値以下の上記候補領域が検出されない場合、上記生成されたコンテンツの透過度を上記半透過状態よりも下げて重畳させるように上記出力部を制御してもよい。 The output unit may output the generated content superimposed on the superimposed display area in a semi-transparent state. In this case, when the candidate area whose undulation change of the luminance distribution is not more than a first threshold is not detected, the control unit is configured to superimpose the generated content so that the transparency of the generated content is lower than that of the semi-transparent state. The output unit may be controlled.
これにより情報処理装置は、テクスチャの弱い領域が見つからない場合には、コンテンツの透過度を下げることで、視認性及び安全性の低下を防ぐことができる。 As a result, the information processing apparatus can prevent degradation of visibility and safety by lowering the content transparency when an area with a weak texture is not found.
上記制御部は、上記輝度分布の起伏変化が第1の閾値以下の上記候補領域が検出されない場合、上記コンテンツを、上記候補領域以外の領域に、上記輝度分布の起伏変化が第1の閾値より大きい候補領域と関連付けて表示させるように上記出力部を制御してもよい。 When the candidate area whose undulation change of the luminance distribution is less than or equal to a first threshold is not detected, the control unit determines that the content is changed to an area other than the candidate area, and the undulation change of the luminance distribution is greater than the first threshold. The output unit may be controlled so as to be displayed in association with a large candidate area.
これにより情報処理装置は、テクスチャの弱い領域が見つからない場合でも、候補領域以外の領域に、例えば候補領域からの引き出し線付きでコンテンツを表示させることで、領域とコンテンツとの関連性をユーザに把握させることができる。 As a result, even when an area with a weak texture is not found, the information processing apparatus displays the content in an area other than the candidate area, for example, with a leader line from the candidate area, thereby allowing the user to relate the relationship between the area and the content. It can be grasped.
上記制御部は、上記入力された画像から、動体領域を上記重畳表示領域として検出してもよい。 The control unit may detect a moving object region as the superimposed display region from the input image.
これにより情報処理装置は、動体をコンテンツの重畳表示領域とすることで、ユーザの興味を惹くことができる。 Thus, the information processing apparatus can attract the user's interest by setting the moving object as a content overlapping display area.
本技術の他の形態に係る情報処理方法は、
撮像装置により撮像され入力された画像からコンテンツの重畳表示候補となる候補領域を検出すること、
上記検出された候補領域のうち、輝度分布の起伏変化が所定の閾値以下の領域を重畳表示領域として検出すること、
ユーザに上記重畳表示領域上で仮想的に視認されるように配置される上記コンテンツを生成すること、及び、
上記生成されたコンテンツを上記重畳表示領域に重畳させて出力することを含む。
An information processing method according to another aspect of the present technology is as follows:
Detecting a candidate region that is a candidate for superimposed display of content from an image captured and input by an imaging device;
Detecting a region where the undulation change of the luminance distribution is equal to or less than a predetermined threshold among the detected candidate regions as a superimposed display region;
Generating the content arranged to be virtually viewed by the user on the superimposed display area; and
Including superimposing the generated content on the superimposed display area and outputting the superimposed content.
本技術のまた別の形態に係るプログラムは、情報処理装置に、
撮像装置により撮像され入力された画像からコンテンツの重畳表示候補となる候補領域を検出するステップと、
上記検出された候補領域のうち、輝度分布の起伏変化が所定の閾値以下の領域を重畳表示領域として検出するステップと、
ユーザに上記重畳表示領域上で仮想的に視認されるように配置される上記コンテンツを生成するステップと、
上記生成されたコンテンツを上記重畳表示領域に重畳させて出力するステップと
を実行させる。
A program according to another embodiment of the present technology is provided in an information processing device.
Detecting a candidate region that is a candidate for superimposed display of content from an image captured and input by an imaging device;
A step of detecting, as a superimposed display region, a region where the undulation change of the luminance distribution is not more than a predetermined threshold among the detected candidate regions;
Generating the content arranged to be virtually viewed by the user on the superimposed display area;
And outputting the generated content superimposed on the superimposed display area.
以上のように、本技術によれば、ARによる重畳表示において視認性が損なわれるのを防止することができる。しかし、当該効果は本技術を限定するものではない。 As described above, according to the present technology, it is possible to prevent the visibility from being impaired in the superimposed display by AR. However, this effect does not limit the present technology.
以下、本技術に係る実施形態を、図面を参照しながら説明する。 Hereinafter, embodiments according to the present technology will be described with reference to the drawings.
[システムの概要]
図1は、本技術の一実施形態に係るシステムの概要を示した図である。
[System Overview]
FIG. 1 is a diagram illustrating an overview of a system according to an embodiment of the present technology.
同図に示すように、本実施形態では、ユーザが頭部にシースルー眼鏡型のHMD(Head Mount Display)100を装着することで、AR環境が実現される。ユーザは、HMD100のレンズ(表示部)を通して実環境を視認しながら、当該実環境における道路、建物、看板等に重畳して仮想的に表示されるコンテンツCを視認することができる。 As shown in the figure, in the present embodiment, an AR environment is realized by a user wearing a see-through glasses type HMD (Head Mount Display) 100 on the head. While visually recognizing the real environment through the lens (display unit) of the HMD 100, the user can visually recognize the content C that is virtually displayed superimposed on a road, a building, a signboard, or the like in the real environment.
例えば、同図に示すように、ユーザから見て、道路上にはユーザの目的地までのルートをナビゲートするラインが表示されたり、ビル上にはそのビルに存在するレストランやバーの情報が表示されたりする。 For example, as shown in the figure, when viewed from the user, a line for navigating the route to the user's destination is displayed on the road, and information on restaurants and bars existing in the building is displayed on the building. It is displayed.
本実施形態では、上記ARシステムにおける重畳表示の実行の際に、HMD100は、ユーザの視認性に鑑みて、テクスチャの強い(輝度分布の起伏変化が大きい)領域等を避けてコンテンツを重畳表示することが可能である。
In the present embodiment, when performing the superimposed display in the AR system, the
[HMDのハードウェア構成]
図2は、上記HMD100のハードウェア構成を示したブロック図である。
[HMD hardware configuration]
FIG. 2 is a block diagram showing a hardware configuration of the
同図に示すように、HMD100は、制御部11、記憶部12、通信部13、センサ部14、操作受付部15、右カメラ16、左カメラ17及び表示部18を有する。
As shown in the figure, the
制御部11は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等からなり、コンテンツの重畳表示処理等において各種演算処理を行いながらHMD100の各ブロック全体を統括的に制御する。
The
記憶部12は、例えばフラッシュメモリ(SSD;Solid State Drive)、その他の固体メモリ等の不揮発性メモリである。記憶部12は、OSや各種アプリケーション、各種データを記憶する。特に本実施形態においては、記憶部12は、例えば重畳表示対象のコンテンツ(例えば広告用のテキストや画像等)を記憶する。
The
通信部13は、例えばWiFi(Wireless Fidelity)等の無線LAN(Local Area Network)やBluetooth(登録商標)等の規格に対応した無線通信モジュールであり、例えばユーザの携帯するスマートフォン等の機器と通信可能とされている。また通信部13は、スマートフォン等のユーザの携帯機器を介して、または直接、インターネット上から、コンテンツや地図情報等の重畳表示に必要なデータを受信することが可能である。
The
センサ部14は、ジャイロセンサ、加速度センサ、地磁気センサ等の各種センサから構成され、仮想三次元オブジェクトOの表示処理のために、HMD100(ユーザ)の姿勢、位置、方向等を検出する。
The
操作受付部15は、例えばタッチパネル、ボタン、スイッチ等からなり、ユーザの各種操作を受け付ける。
The
右カメラ16及び左カメラ17は、それぞれ例えばHMD100の右フレーム及び左フレームに設けられ、両者で撮影された画像間の視差から、ユーザの前方の実環境(物体の位置、立体的形状及び深度(Depth Map))を認識するステレオカメラとして機能する。
The
表示部18は、透過ディスプレイとして構成され、表示素子181と光学部材182とを有する。表示部18は、例えばHMD100のフレーム部に収容される表示素子181によりコンテンツの画像を形成し、その画像光を光学部材182内に導光しユーザの目に出射することで、コンテンツの画像をユーザに提示する。コンテンツの画像は二次元画像でも三次元画像でもよい。
The
表示素子181は例えばLCD(Liquid Crystal Display)で構成される。光学部材182は、偏向素子(ホログラム回折格子)及び表示面としての導光板を有し、偏光素子によりRGBの各色に対応する特定波長の光が回折反射され、導光板内で全反射されることで画像がユーザの目に出射される。
The
[HMDの動作]
次に、以上のように構成されたHMD100の動作について説明する。以降の説明においては、HMDの制御部11を主な動作主体として説明するが、この動作は制御部11の制御下において実行される他のハードウェア及びソフトウェアと協働して行われる。
[Operation of HMD]
Next, the operation of the
(重畳表示処理)
図3は、上記HMD100のコンテンツ重畳表示処理の流れを示したフローチャートである。
(Superimposed display processing)
FIG. 3 is a flowchart showing a flow of content superimposition display processing of the
同図に示すように、まず、HMD100の制御部11には、右カメラ16及び左カメラ17が撮像した画像群が入力される(ステップ31)。入力される画像群は、片方のカメラからのものでも構わない。
As shown in the figure, first, an image group captured by the
続いて制御部11は、入力された画像から、ユーザが存在する実環境情報を認識する(ステップ32)。
Subsequently, the
具体的には、制御部11は、入力された画像それぞれについて、カメラ16及び17の姿勢を推定及び算出する。カメラ16及び17の姿勢は、三次元世界における位置と角度(カメラ16及び17が向いている向き)からなる。これらは例えば画像間の画素値や特徴点のマッチング結果や、上記センサ部14(加速度センサ・角速度(ジャイロ)センサ、地磁気センサ)の情報などから求めることができる。
Specifically, the
さらに制御部11は、追加的に深度情報(DepthMap)を算出することも考えられる。当該深度情報は、時系列の複数フレーム、あるいは上記カメラ16及び17から入力されたステレオ画像のペアなど、複数画像のマッチングから求められる。また、IRセンサによりIRパターンを照射する等、別センサを使う等の手法も適用可能である。
Further, the
さらに制御部11は、画像から物体を認識したり、GPS情報を利用したりして実環境を認識することも可能である。
Furthermore, the
続いて制御部11は、実環境の認識結果を基に、広告や地図情報に紐付いた各種情報など、重畳表示するコンテンツ及びその重畳表示の候補領域を、ユーザからのリクエストやコンテキストに応じて決定する(ステップ33)。
Subsequently, based on the recognition result of the real environment, the
重畳表示候補領域の選定にあたり、制御部11は、ユーザの視線を検出してもよい。ユーザの視線は、右カメラ16及び左カメラ17により検出されてもよいし、例えばユーザの瞳孔を検出可能な近赤外LED(Light Emitting Diode)センサ等の専用のセンサまたはそれとカメラとの組み合わせ、その他の光学的・物理的・電気的な手法により検出されてもよい。
In selecting the superimposed display candidate area, the
続いて制御部11は、重畳表示候補領域の画像を解析し、それが重畳領域として適しているかを判定する(ステップ34)。
Subsequently, the
具体的には、制御部11は、上記重畳表示候補領域が、動体領域か、テクスチャ領域か、または非平面領域かを検出し(ステップ35)、重畳表示候補領域がそれら3つの条件に合致する場合には、当該領域を候補から除外する(ステップ36)。
Specifically, the
動体領域としては、例えば人混みや車の通りなどが相当する。制御部11は、カメラ16及び17の姿勢の変動を差し引いた上で、被写体側に動体が存在しているかを検出することができる。動体領域が重畳表示候補から除外されるのは、視認性の面のみならず安全性の面でも問題があるからである。当該動体領域の検出方法の詳細については後述する。
The moving object area corresponds to, for example, a crowd or a street of a car. The
テクスチャ領域は、輝度分布の起伏変化が激しい領域である。制御部11は、入力画像の矩形領域内での輝度の分散などの分布から、テクスチャが強いかどうか判別することでテクスチャ領域を検出することができる。
The texture region is a region where the undulation change of the luminance distribution is severe. The
制御部11は、例えば重畳表示候補領域の輝度分布の起伏変化が所定の閾値を超えている場合には、当該領域を重畳表示候補から除外する。すなわち、輝度分布の起伏変化が閾値以下の領域を重畳表示領域として検出する。
For example, when the undulation change in the luminance distribution of the superimposed display candidate region exceeds a predetermined threshold, the
上述のとおり、HMD100はシースルー眼鏡型のデバイスであり、視認性及び安全性の面から、重畳表示は半透過で行なうことが基本と考えられるため、テクスチャ成分が強い、つまり分散の高い領域への重畳表示は避けられるべきである。
As described above, the
非平面領域は、三次元形状の分布が平坦でない領域である。例えば壁や床、あるいは中空など、形状が平坦な領域は、重畳されるコンテンツがその実世界における形状に沿った形で表示できるため、重畳領域として適している。 The non-planar region is a region where the distribution of the three-dimensional shape is not flat. For example, an area having a flat shape, such as a wall, a floor, or a hollow space, is suitable as an overlapping area because the content to be superimposed can be displayed along the shape in the real world.
非平面領域(平面領域)は、上述のとおり、上記カメラ16及び17のステレオ画像や時系列の複数フレーム等、複数画像のマッチングによるパッシブな深度情報取得手法により検出されてもよいし、センサによるIRパターンの照射等によるアクティブな深度情報取得手法により検出されてもよい。
As described above, the non-planar region (planar region) may be detected by a passive depth information acquisition method by matching a plurality of images, such as the stereo images of the
制御部11は、例えば重畳表示候補領域の三次元形状の分布の起伏変化が所定の閾値(上記テクスチャ領域の閾値とは異なる)を超えている場合には、当該領域を重畳表示候補から除外する。すなわち、三次元計上の分布の起伏変化が閾値以下の領域を重畳表示領域として検出する。
For example, when the undulation change of the three-dimensional shape distribution of the superimposed display candidate region exceeds a predetermined threshold (different from the threshold value of the texture region), the
続いて制御部11は、上記判定及び候補領域からの除外後、重畳表示可能な領域が存在するか否かを判定する(ステップ37)。
Subsequently, the
重畳表示可能な領域が存在すると判定した場合(No)、制御部11は、当該領域を重畳表示領域として決定し、表示部18において、それに関連付けられたコンテンツを生成して、当該領域上に重畳表示する(ステップ39)。
When it determines with the area | region which can be superimposed displayed existing (No), the
重畳表示可能な領域が存在しないと判定した場合(Yes)、制御部11は、重畳表示候補領域以外の領域であって、上記除外基準に該当しない領域を、重畳表示領域として決定する(ステップ38)。
When it determines with the area | region which can be superimposed displayed not existing (Yes), the
そして制御部11は、当該候補領域以外の領域にコンテンツを重畳表示する(ステップ39)。この際、制御部11は、例えば除外された候補領域から重畳表示領域にかけて線分を表示したり、除外された候補領域から吹き出し状でコンテンツを表示したりして、領域間の関連付けを示してもよい。
And the
また制御部11は、候補領域以外の重畳表示領域が見つからない場合には、検出されたテクスチャ領域や非平面領域上に、透過度を通常の値よりも下げたコンテンツを重畳表示してもよい。
In addition, when a superimposed display area other than the candidate area is not found, the
制御部11は、上記のような各種判定基準により、ユーザにとって視認性が良く、かつ視界を妨げない領域に各種コンテンツを重畳表示することができる。
The
(動体領域検出処理)
ここで、上記コンテンツ重畳表示処理における動体領域の検出処理の詳細について説明する。図4は、当該動体領域の検出処理の流れを示したフローチャートである。
(Moving object detection process)
Details of the moving object region detection process in the content superimposition display process will now be described. FIG. 4 is a flowchart showing a flow of detection processing of the moving object region.
上述の通り、本実施形態では、制御部11は、HMD100の自己運動(カメラ16及び17の姿勢の変動)を考慮した上で動体領域を検出する。
As described above, in the present embodiment, the
同図に示すように、制御部11はまず、カメラ16及び17からの同時刻における複数視点の画像間でマッチングを行なうことで、画素毎に実世界でのZ方向の奥行き、深度分布を算出する(ステップ41)。当該深度分布は所謂Depth Mapに相当する。
As shown in the figure, the
また制御部11は、単一のカメラしか有さない場合や2つのカメラのうち一方しか用いない場合でも、当該カメラの焦点距離やセンサのサイズ等の内部パラメータ(Intrinsic Parameter)及びカメラの位置・向きを示すパラメータ(Extrinsic Parameter)を元に射影変換を行なうことで、カメラ画像上の各画素に対応する被写体及び領域が実世界の三次元空間においてどこの座標に位置するかを算出することもできる。
In addition, even when only one camera is used or when only one of the two cameras is used, the
続いて制御部11は、上記Depth Map上での画素を、実世界の三次元空間上にマッピングした点群(3D Point Cloud)を作成する(ステップ42)。
Subsequently, the
続いて制御部11は、上記ジャイロセンサ、加速度センサ等、センサ部14の各種センサ情報から、自己運動量(三次元の位置及び角度の変動量)を算出する(ステップ43)。この自己運動量は、上記深度分布を算出したフレームの次のフレームにおいて、上記Extrinsic Parameterが変動することに相当する。
Subsequently, the
続いて制御部11は、直前のフレームにおいて上述の手法で算出した3D Point Cloudを、上記センサ情報から算出した自己運動量における位置・角度に置かれたカメラ上に逆射影してDepth Mapを算出する(ステップ44)。
Subsequently, the
続いて制御部11は、次フレームにて、同じく上述の手法でDepth Mapを算出する(ステップ45)。
Subsequently, the
続いて制御部11は、上記ステップ44で算出したDepth Mapと、上記ステップ45で算出したDepth Mapとを、重畳表示候補領域単位で比較する(ステップ46)。
Subsequently, the
入力画像内の物体が、剛体または静止物体であれば、上記両Depth Mapの差分はほぼ0になるはずである。したがって制御部11は、当該差分がある場合には(ステップ47のYes)、当該差分が存在する領域を動体領域と判別する(ステップ48)。
If the object in the input image is a rigid body or a stationary object, the difference between the two depth maps should be almost zero. Therefore, when there is the difference (Yes in Step 47), the
一方、差分がない場合には(ステップ47のNo)、制御部11は、重畳表示候補領域は動体領域ではないと判別する(ステップ49)。
On the other hand, when there is no difference (No in Step 47), the
ここで制御部11は、深度のみならず輝度値の差分も考慮して動体領域か否かを判断することが可能である。
Here, the
制御部11は、以降も同様に、時系列でのフレーム間比較を逐次行なうことで、動体領域を検出することができる。
Similarly, the
以上のように、本実施形態によれば、HMD100は、実環境に応じて、動体領域、テクスチャ領域及び非平面領域を表示領域から除外するように、重畳表示の位置を適用的に制御することで、視認性を向上することができる。
As described above, according to the present embodiment, the
[変形例]
本技術は上述の実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において種々変更され得る。
[Modification]
The present technology is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present technology.
上述の実施形態においては、動体領域、テクスチャ領域及び非平面領域が全て重畳表示候補領域から除外されたが、これら3つのうちいずれか1つまたはいずれか2つが除外条件とされてもよい。 In the above-described embodiment, the moving object region, the texture region, and the non-planar region are all excluded from the superimposed display candidate regions, but any one or two of these three may be excluded conditions.
例えばHMD100は、非平面領域については、当該非平面形状を検出して、深度情報等を基に、当該非平面形状に沿ってコンテンツを変形させて、当該領域上にコンテンツを重畳表示してもよい。
For example, for the non-planar region, the
また例えば、HMD100は、入力画像から、動体領域をあえて重畳表示領域として検出してもよい。この場合、HMD100は、安全性を考慮して、動体領域を重畳表示領域とするのを、ユーザが静止している場合に限ってもよい。
Further, for example, the
上述の実施形態では、HMD100は、自己運動を考慮した上で被写体が動体かどうか検知した。しかし、HMD100等のグラス型のウェアラブル機器では、ユーザの移動中は安全性を考慮して重畳表示を行なわず、ユーザが立ち止まった際にのみ重畳表示を行なうことで、ユーザの注意及び注視を喚起する、といったユースケースも考えられる。
In the above-described embodiment, the
この場合、HMD100は、動体領域の検出処理を自己静止状態に限定してもよい。これにより、検出処理が簡略化され、処理負荷が軽減される。
In this case, the
すなわち、HMD100は、ジャイロ/加速度センサ等の測定値の結果から、自己運動量が無い(姿勢がほぼ静止している)、いわゆる自己静止状態をまず検出する。そしてHMD100は、自己は静止している状態という前提のもと、時系列の画像間で差分を取るだけで、輝度差分のある画素または領域を、動体領域とみなすことができる。
That is, the
上述の実施形態では、ステレオカメラを有するシースルー眼鏡型のHMDが本技術に適用された例が示されたが、本技術はこれに限られない。 In the above-described embodiment, an example in which a see-through glasses-type HMD having a stereo camera is applied to the present technology is shown, but the present technology is not limited to this.
例えば、同様のウェアラブルデバイスの表示部に網膜プロジェクタが用いられてもよい。また、スマートフォンやタブレット等のカメラで撮像された画像が表示部に表示されさらにコンテンツが重畳表示されることによって上述の実施形態と同様の処理が実現されてもよい。 For example, a retina projector may be used for the display unit of a similar wearable device. Moreover, the same process as the above-mentioned embodiment may be implement | achieved by displaying the image imaged with cameras, such as a smart phone and a tablet, on a display part, and also displaying a content superimposed.
[その他]
本技術は以下のような構成もとることができる。
(1)
撮像部と、
前記撮像部により撮像された画像からコンテンツの重畳表示候補となる候補領域を検出し、前記候補領域のうち、輝度分布の起伏変化が第1の閾値以下の領域を重畳表示領域として検出し、ユーザに前記重畳表示領域上で仮想的に視認されるように配置される前記コンテンツを生成するように構成された制御部と、
前記生成されたコンテンツを前記重畳表示領域に重畳させて出力するように構成された出力部と
を具備する情報処理装置。
(2)
上記(1)に記載の情報処理装置であって、
前記制御部は、前記候補領域のうち、三次元形状の起伏変化が第2の閾値以下の領域を前記重畳表示領域として検出する
情報処理装置。
(3)
上記(1)に記載の情報処理装置であって、
前記制御部は、前記撮像された画像から、前記候補領域が動体領域であるか否かを検出し、前記動体領域を前記重畳表示領域から除外する
情報処理装置。
(4)
上記(3)に記載の情報処理装置であって、
当該情報処理装置の姿勢を検出するように構成されたセンサをさらに具備し、
前記制御部は、前記センサにより検出された姿勢の変動を検出し、前記撮像された画像から、前記姿勢の変動を差し引いて前記動体領域を検出する
情報処理装置。
(5)
上記(4)に記載の情報処理装置であって、
前記制御部は、前記撮像された画像のうち連続する第1の画像及び第2の画像からそれぞれ第1の深度分布及び第2の深度分布を算出し、前記第1の画像及び第2の画像の時間間隔において検出された前記姿勢の変動量を前記第1の深度分布に反映させて第3の深度分布を算出し、前記第2の深度分布と前記第3の深度分布との差分の有無を検出することで、前記動体領域の有無を検出する
情報処理装置。
(6)
上記(3)に記載の情報処理装置であって、
当該情報処理装置の姿勢を検出するように構成されたセンサをさらに具備し、
前記制御部は、前記センサの検出結果を基に、当該情報処理装置が静止しているか否かを判断し、当該情報処理装置が静止している場合に前記撮像された連続した画像の差分を抽出することで、前記動体領域を検出する
情報処理装置。
(7)
上記(1)に記載の情報処理装置であって、
前記出力部は、前記生成されたコンテンツを前記重畳表示領域に半透過状態で重畳させて出力し、
前記制御部は、前記輝度分布の起伏変化が第1の閾値以下の前記候補領域が検出されない場合、前記生成されたコンテンツの透過度を前記半透過状態よりも下げて重畳させるように前記出力部を制御する
情報処理装置。
(8)
上記(1)に記載の情報処理装置であって、
前記制御部は、前記輝度分布の起伏変化が第1の閾値以下の前記候補領域が検出されない場合、前記コンテンツを、前記候補領域以外の領域に、前記輝度分布の起伏変化が第1の閾値より大きい候補領域と関連付けて表示させるように前記出力部を制御する
情報処理装置。
(9)
上記(1)に記載の情報処理装置であって、
前記制御部は、前記撮像された画像から、動体領域を前記重畳表示領域として検出する
情報処理装置。
[Others]
The present technology can be configured as follows.
(1)
An imaging unit;
A candidate area that is a candidate for superimposed display of content is detected from the image captured by the imaging unit, and an area in which the undulation change of the luminance distribution is not more than a first threshold is detected as a superimposed display area among the candidate areas. A control unit configured to generate the content arranged so as to be virtually visually recognized on the superimposed display area;
An information processing apparatus comprising: an output unit configured to output the generated content superimposed on the superimposed display area.
(2)
The information processing apparatus according to (1) above,
The said control part detects the area | region where the undulation change of a three-dimensional shape is below a 2nd threshold value among the said candidate area | region as said superimposed display area.
(3)
The information processing apparatus according to (1) above,
The control unit detects whether or not the candidate area is a moving body area from the captured image, and excludes the moving body area from the superimposed display area.
(4)
The information processing apparatus according to (3) above,
A sensor configured to detect the attitude of the information processing apparatus;
The information processing apparatus, wherein the control unit detects a change in posture detected by the sensor and subtracts the change in posture from the captured image to detect the moving object region.
(5)
The information processing apparatus according to (4) above,
The control unit calculates a first depth distribution and a second depth distribution from the first and second consecutive images of the captured images, respectively, and the first image and the second image The third depth distribution is calculated by reflecting the variation amount of the posture detected in the time interval in the first depth distribution, and the presence / absence of a difference between the second depth distribution and the third depth distribution An information processing device that detects the presence or absence of the moving object region by detecting the motion.
(6)
The information processing apparatus according to (3) above,
A sensor configured to detect the attitude of the information processing apparatus;
The control unit determines whether or not the information processing apparatus is stationary based on the detection result of the sensor, and calculates a difference between the captured consecutive images when the information processing apparatus is stationary. An information processing apparatus that detects the moving object region by extracting.
(7)
The information processing apparatus according to (1) above,
The output unit superimposes the generated content on the superimposed display area in a semi-transparent state and outputs the superimposed content.
When the candidate area whose undulation change of the luminance distribution is not more than a first threshold is not detected, the control unit is configured to superimpose the generated content so that the transparency of the generated content is lower than that of the semi-transparent state. Information processing device that controls.
(8)
The information processing apparatus according to (1) above,
When the candidate area in which the undulation change of the luminance distribution is not more than a first threshold is not detected, the control unit determines that the content is changed to an area other than the candidate area, and the undulation change of the luminance distribution is greater than the first threshold. An information processing apparatus that controls the output unit to display in association with a large candidate area.
(9)
The information processing apparatus according to (1) above,
The control unit detects a moving body region as the superimposed display region from the captured image.
11…制御部
12…記憶部
13…通信部
14…センサ部
15…操作受付部
16…右カメラ
17…左カメラ
18…表示部
100…HMD(Head Mount Display)
DESCRIPTION OF
Claims (11)
前記撮像部により撮像された画像からコンテンツの重畳表示候補となる候補領域を検出し、前記候補領域のうち、輝度分布の起伏変化が第1の閾値以下の領域を重畳表示領域として検出し、ユーザに前記重畳表示領域上で仮想的に視認されるように配置される前記コンテンツを生成するように構成された制御部と、
前記生成されたコンテンツを前記重畳表示領域に重畳させて出力するように構成された出力部と
を具備する情報処理装置。 An imaging unit;
A candidate area that is a candidate for superimposed display of content is detected from the image captured by the imaging unit, and an area in which the undulation change of the luminance distribution is not more than a first threshold is detected as a superimposed display area among the candidate areas. A control unit configured to generate the content arranged so as to be virtually visually recognized on the superimposed display area;
An information processing apparatus comprising: an output unit configured to output the generated content superimposed on the superimposed display area.
前記制御部は、前記候補領域のうち、三次元形状の起伏変化が第2の閾値以下の領域を前記重畳表示領域として検出する
情報処理装置。 The information processing apparatus according to claim 1,
The said control part detects the area | region where the undulation change of a three-dimensional shape is below a 2nd threshold value among the said candidate area | region as said superimposed display area.
前記制御部は、前記撮像された画像から、前記候補領域が動体領域であるか否かを検出し、前記動体領域を前記重畳表示領域から除外する
情報処理装置。 The information processing apparatus according to claim 1,
The control unit detects whether or not the candidate area is a moving body area from the captured image, and excludes the moving body area from the superimposed display area.
当該情報処理装置の姿勢を検出するように構成されたセンサをさらに具備し、
前記制御部は、前記センサにより検出された姿勢の変動を検出し、前記撮像された画像から、前記姿勢の変動を差し引いて前記動体領域を検出する
情報処理装置。 The information processing apparatus according to claim 3,
A sensor configured to detect the attitude of the information processing apparatus;
The information processing apparatus, wherein the control unit detects a change in posture detected by the sensor and subtracts the change in posture from the captured image to detect the moving object region.
前記制御部は、前記撮像された画像のうち連続する第1の画像及び第2の画像からそれぞれ第1の深度分布及び第2の深度分布を算出し、前記第1の画像及び第2の画像の時間間隔において検出された前記姿勢の変動量を前記第1の深度分布に反映させて第3の深度分布を算出し、前記第2の深度分布と前記第3の深度分布との差分の有無を検出することで、前記動体領域の有無を検出する
情報処理装置。 The information processing apparatus according to claim 4,
The control unit calculates a first depth distribution and a second depth distribution from the first and second consecutive images of the captured images, respectively, and the first image and the second image The third depth distribution is calculated by reflecting the variation amount of the posture detected in the time interval in the first depth distribution, and the presence / absence of a difference between the second depth distribution and the third depth distribution An information processing apparatus that detects the presence or absence of the moving object region by detecting a moving object region.
当該情報処理装置の姿勢を検出するように構成されたセンサをさらに具備し、
前記制御部は、前記センサの検出結果を基に、当該情報処理装置が静止しているか否かを判断し、当該情報処理装置が静止している場合に前記撮像された連続した画像の差分を抽出することで、前記動体領域を検出する
情報処理装置。 The information processing apparatus according to claim 3,
A sensor configured to detect the attitude of the information processing apparatus;
The control unit determines whether or not the information processing apparatus is stationary based on the detection result of the sensor, and calculates a difference between the captured consecutive images when the information processing apparatus is stationary. An information processing apparatus that detects the moving object region by extracting.
前記出力部は、前記生成されたコンテンツを前記重畳表示領域に半透過状態で重畳させて出力し、
前記制御部は、前記輝度分布の起伏変化が第1の閾値以下の前記候補領域が検出されない場合、前記生成されたコンテンツの透過度を前記半透過状態よりも下げて重畳させるように前記出力部を制御する
情報処理装置。 The information processing apparatus according to claim 1,
The output unit superimposes the generated content on the superimposed display area in a semi-transparent state and outputs the superimposed content.
When the candidate area whose undulation change of the luminance distribution is not more than a first threshold is not detected, the control unit is configured to superimpose the generated content so that the transparency of the generated content is lower than that of the semi-transparent state. Information processing device that controls.
前記制御部は、前記輝度分布の起伏変化が第1の閾値以下の前記候補領域が検出されない場合、前記コンテンツを、前記候補領域以外の領域に、前記輝度分布の起伏変化が第1の閾値より大きい候補領域と関連付けて表示させるように前記出力部を制御する
情報処理装置。 The information processing apparatus according to claim 1,
When the candidate area in which the undulation change of the luminance distribution is not more than a first threshold is not detected, the control unit determines that the content is changed to an area other than the candidate area, and the undulation change of the luminance distribution is greater than the first threshold. An information processing apparatus that controls the output unit to display in association with a large candidate area.
前記制御部は、前記撮像された画像から、動体領域を前記重畳表示領域として検出する
情報処理装置。 The information processing apparatus according to claim 1,
The control unit detects a moving body region as the superimposed display region from the captured image.
前記検出された候補領域のうち、輝度分布の起伏変化が所定の閾値以下の領域を重畳表示領域として検出し、
ユーザに前記重畳表示領域上で仮想的に視認されるように配置される前記コンテンツを生成し、
前記生成されたコンテンツを前記重畳表示領域に重畳させて出力する
情報処理装置。 A candidate region that is a candidate for superimposed display of content is detected from an image captured by the imaging device;
Among the detected candidate areas, an area where the undulation change of the luminance distribution is a predetermined threshold value or less is detected as a superimposed display area,
Generating the content arranged to be virtually visually recognized on the superimposed display area by the user,
An information processing apparatus that outputs the generated content superimposed on the superimposed display area.
撮像装置により撮像された画像からコンテンツの重畳表示候補となる候補領域を検出するステップと、
前記検出された候補領域のうち、輝度分布の起伏変化が所定の閾値以下の領域を重畳表示領域として検出するステップと、
ユーザに前記重畳表示領域上で仮想的に視認されるように配置される前記コンテンツを生成するステップと、
前記生成されたコンテンツを前記重畳表示領域に重畳させて出力するステップと
を実行させるプログラム。 In the information processing device,
Detecting a candidate region that is a candidate for superimposed display of content from an image captured by an imaging device;
Detecting a region where the undulation change of the luminance distribution is not more than a predetermined threshold among the detected candidate regions as a superimposed display region;
Generating the content arranged to be virtually viewed on the superimposed display area by a user;
A program for executing the step of outputting the generated content superimposed on the superimposed display area.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013255049A JP2015114757A (en) | 2013-12-10 | 2013-12-10 | Information processing apparatus, information processing method, and program |
| US14/551,571 US9563981B2 (en) | 2013-12-10 | 2014-11-24 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013255049A JP2015114757A (en) | 2013-12-10 | 2013-12-10 | Information processing apparatus, information processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2015114757A true JP2015114757A (en) | 2015-06-22 |
Family
ID=53271682
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013255049A Pending JP2015114757A (en) | 2013-12-10 | 2013-12-10 | Information processing apparatus, information processing method, and program |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US9563981B2 (en) |
| JP (1) | JP2015114757A (en) |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017122270A1 (en) * | 2016-01-12 | 2017-07-20 | サン電子株式会社 | Image display device |
| JP2017174018A (en) * | 2016-03-22 | 2017-09-28 | Line株式会社 | Display control method, program, and terminal |
| JP2017528834A (en) * | 2014-09-11 | 2017-09-28 | ノキア テクノロジーズ オサケユイチア | Method, apparatus and computer program for displaying images |
| WO2018020735A1 (en) * | 2016-07-28 | 2018-02-01 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
| JP2018116484A (en) * | 2017-01-18 | 2018-07-26 | 株式会社コロプラ | Information processing method, and program for causing computer to execute the information processing method |
| JP2018200519A (en) * | 2017-05-26 | 2018-12-20 | 株式会社テクテック | Augmented reality display system, program and method |
| JPWO2017169158A1 (en) * | 2016-03-29 | 2019-02-07 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| JPWO2017187708A1 (en) * | 2016-04-26 | 2019-02-28 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| WO2020157995A1 (en) * | 2019-01-28 | 2020-08-06 | 株式会社メルカリ | Program, information processing method, and information processing terminal |
| JP2022007185A (en) * | 2020-06-25 | 2022-01-13 | 株式会社トプコン | Eyewear display system |
| JP2022121592A (en) * | 2017-04-19 | 2022-08-19 | マジック リープ, インコーポレイテッド | Multimode execution and text editing for wearable system |
| US12051167B2 (en) | 2016-03-31 | 2024-07-30 | Magic Leap, Inc. | Interactions with 3D virtual objects using poses and multiple-DOF controllers |
| US12474788B2 (en) | 2015-10-20 | 2025-11-18 | Magic Leap, Inc. | Selecting virtual objects in a three-dimensional space |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2532464B (en) * | 2014-11-19 | 2020-09-02 | Bae Systems Plc | Apparatus and method for selectively displaying an operational environment |
| GB2532465B (en) | 2014-11-19 | 2021-08-11 | Bae Systems Plc | Interactive control station |
| EP3262488B1 (en) | 2015-02-25 | 2021-04-07 | BAE Systems PLC | Apparatus and method for effecting a control action in respect of system functions |
| KR20160121287A (en) * | 2015-04-10 | 2016-10-19 | 삼성전자주식회사 | Device and method to display screen based on event |
| US10304203B2 (en) * | 2015-05-14 | 2019-05-28 | Qualcomm Incorporated | Three-dimensional model generation |
| US9852550B2 (en) * | 2015-08-05 | 2017-12-26 | Civic Resource Group International Inc. | System and method of markerless injection of ads in AR |
| CA2927046A1 (en) * | 2016-04-12 | 2017-10-12 | 11 Motion Pictures Limited | Method and system for 360 degree head-mounted display monitoring between software program modules using video or image texture sharing |
| WO2018215053A1 (en) * | 2017-05-23 | 2018-11-29 | Brainlab Ag | Determining the relative position between a point cloud generating camera and another camera |
| DE112018003890T5 (en) * | 2017-07-31 | 2020-04-09 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM |
| US11120593B2 (en) | 2019-05-24 | 2021-09-14 | Rovi Guides, Inc. | Systems and methods for dynamic visual adjustments for a map overlay |
| US11674818B2 (en) | 2019-06-20 | 2023-06-13 | Rovi Guides, Inc. | Systems and methods for dynamic transparency adjustments for a map overlay |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011252879A (en) | 2010-06-04 | 2011-12-15 | Aisin Aw Co Ltd | Display image generating device, display image generating method, and display image generating program |
| WO2013044983A1 (en) * | 2011-09-30 | 2013-04-04 | Layar B.V. | Feedback to user for indicating augmentability of an image |
| EP2704055A1 (en) * | 2012-08-31 | 2014-03-05 | Layar B.V. | Determining space to display content in augmented reality |
| WO2015029318A1 (en) * | 2013-08-26 | 2015-03-05 | パナソニックIpマネジメント株式会社 | 3d display device and 3d display method |
-
2013
- 2013-12-10 JP JP2013255049A patent/JP2015114757A/en active Pending
-
2014
- 2014-11-24 US US14/551,571 patent/US9563981B2/en active Active
Cited By (26)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017528834A (en) * | 2014-09-11 | 2017-09-28 | ノキア テクノロジーズ オサケユイチア | Method, apparatus and computer program for displaying images |
| US10916057B2 (en) | 2014-09-11 | 2021-02-09 | Nokia Technologies Oy | Method, apparatus and computer program for displaying an image of a real world object in a virtual reality enviroment |
| US12474788B2 (en) | 2015-10-20 | 2025-11-18 | Magic Leap, Inc. | Selecting virtual objects in a three-dimensional space |
| JPWO2017122270A1 (en) * | 2016-01-12 | 2018-10-11 | サン電子株式会社 | Image display device |
| WO2017122270A1 (en) * | 2016-01-12 | 2017-07-20 | サン電子株式会社 | Image display device |
| JP2017174018A (en) * | 2016-03-22 | 2017-09-28 | Line株式会社 | Display control method, program, and terminal |
| JPWO2017169158A1 (en) * | 2016-03-29 | 2019-02-07 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| US12051167B2 (en) | 2016-03-31 | 2024-07-30 | Magic Leap, Inc. | Interactions with 3D virtual objects using poses and multiple-DOF controllers |
| US12406454B2 (en) | 2016-03-31 | 2025-09-02 | Magic Leap, Inc. | Interactions with 3D virtual objects using poses and multiple-dof controllers |
| US11017257B2 (en) | 2016-04-26 | 2021-05-25 | Sony Corporation | Information processing device, information processing method, and program |
| JPWO2017187708A1 (en) * | 2016-04-26 | 2019-02-28 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| JP7092028B2 (en) | 2016-04-26 | 2022-06-28 | ソニーグループ株式会社 | Information processing equipment, information processing methods, and programs |
| WO2018020735A1 (en) * | 2016-07-28 | 2018-02-01 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
| JP2018116484A (en) * | 2017-01-18 | 2018-07-26 | 株式会社コロプラ | Information processing method, and program for causing computer to execute the information processing method |
| JP2022121592A (en) * | 2017-04-19 | 2022-08-19 | マジック リープ, インコーポレイテッド | Multimode execution and text editing for wearable system |
| US11960636B2 (en) | 2017-04-19 | 2024-04-16 | Magic Leap, Inc. | Multimodal task execution and text editing for a wearable system |
| JP7336005B2 (en) | 2017-04-19 | 2023-08-30 | マジック リープ, インコーポレイテッド | Multimode execution and text editing for wearable systems |
| JP2018200519A (en) * | 2017-05-26 | 2018-12-20 | 株式会社テクテック | Augmented reality display system, program and method |
| US11017235B2 (en) | 2017-05-26 | 2021-05-25 | Dwango Co., Ltd. | Augmented reality display system, program, and method |
| US10839218B2 (en) | 2017-05-26 | 2020-11-17 | Dwango Co., Ltd. | Augmented reality display system, program, and method |
| JP7296406B2 (en) | 2019-01-28 | 2023-06-22 | 株式会社メルカリ | Program, information processing method, and information processing terminal |
| US11734898B2 (en) | 2019-01-28 | 2023-08-22 | Mercari, Inc. | Program, information processing method, and information processing terminal |
| JPWO2020157995A1 (en) * | 2019-01-28 | 2021-10-28 | 株式会社メルカリ | Programs, information processing methods, and information processing terminals |
| WO2020157995A1 (en) * | 2019-01-28 | 2020-08-06 | 株式会社メルカリ | Program, information processing method, and information processing terminal |
| JP2022007185A (en) * | 2020-06-25 | 2022-01-13 | 株式会社トプコン | Eyewear display system |
| JP7502914B2 (en) | 2020-06-25 | 2024-06-19 | 株式会社トプコン | Eyewear display system and eyewear display method |
Also Published As
| Publication number | Publication date |
|---|---|
| US9563981B2 (en) | 2017-02-07 |
| US20150161762A1 (en) | 2015-06-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2015114757A (en) | Information processing apparatus, information processing method, and program | |
| JP7596303B2 (en) | Head-mounted display with pass-through image processing | |
| EP3195595B1 (en) | Technologies for adjusting a perspective of a captured image for display | |
| CN110998666B (en) | Information processing device, information processing method and program | |
| US20200341284A1 (en) | Information processing apparatus, information processing method, and recording medium | |
| US10884576B2 (en) | Mediated reality | |
| KR20230017849A (en) | Augmented Reality Guide | |
| KR102079097B1 (en) | Device and method for implementing augmented reality using transparent display | |
| KR101666561B1 (en) | System and Method for obtaining Subspace in Augmented Space | |
| US20180174366A1 (en) | Information processing apparatus, information processing method, and program | |
| US10999412B2 (en) | Sharing mediated reality content | |
| US8780178B2 (en) | Device and method for displaying three-dimensional images using head tracking | |
| US9933853B2 (en) | Display control device, display control program, and display control method | |
| WO2015200406A1 (en) | Digital action in response to object interaction | |
| US20160021353A1 (en) | I/o device, i/o program, and i/o method | |
| US11004273B2 (en) | Information processing device and information processing method | |
| US11024040B2 (en) | Dynamic object tracking | |
| US20190064528A1 (en) | Information processing device, information processing method, and program | |
| TWI453462B (en) | Telescopic observation for virtual reality system and method thereof using intelligent electronic device | |
| US11227494B1 (en) | Providing transit information in an augmented reality environment | |
| US10171800B2 (en) | Input/output device, input/output program, and input/output method that provide visual recognition of object to add a sense of distance | |
| US20140049540A1 (en) | Image Processing Device, Method, Computer Program Product, and Stereoscopic Image Display Device | |
| US10296098B2 (en) | Input/output device, input/output program, and input/output method | |
| US10642349B2 (en) | Information processing apparatus | |
| KR20210102210A (en) | Mobile platform as a physical interface for interaction |