JP6855313B2 - 画像表示システム、画像表示装置および画像表示方法 - Google Patents
画像表示システム、画像表示装置および画像表示方法 Download PDFInfo
- Publication number
- JP6855313B2 JP6855313B2 JP2017091011A JP2017091011A JP6855313B2 JP 6855313 B2 JP6855313 B2 JP 6855313B2 JP 2017091011 A JP2017091011 A JP 2017091011A JP 2017091011 A JP2017091011 A JP 2017091011A JP 6855313 B2 JP6855313 B2 JP 6855313B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- information
- synchronizing
- embedding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Optics & Photonics (AREA)
Description
以下、本発明の第1実施形態を、図面を参照しつつ詳細に説明する。
図1に、本発明の一実施形態による画像表示システムの機能ブロック図を示す。図示されるように、画像表示システムは、撮像部10、画像処理部11、画像合成部12および表示部13を有する。撮像部10はそれぞれユーザの左眼および右眼の位置に対応して設けられた2つのカメラ101、102を有し、これらのカメラが撮像を行って撮像映像1、2をそれぞれ生成する。画像処理部11は、撮像映像に対して画像処理を行う。画像合成部12は、撮像映像1、2の内容に応じて撮像映像1、2に重畳するCGデータの位置を演算してそれぞれ表示映像を生成する。表示部13は、CGが合成された撮像映像1、2を、それぞれユーザの左眼と右眼に対応する2つのディスプレイ131、132に表示する。
一方の撮像映像はCGを合成して合成映像を生成する際の背景として用いられ、他方の撮像画像はマーカ、自然特徴等を検出してカメラ101、102(すなわちHMD)の位置姿勢を計算するための画像として用いられる。このようにそれぞれ用途が異なることから、撮像映像1、2を2分岐させている。つまり、用途が異なる複数の撮像画像には適した画像処理も異なることから、上記のとおり、分離生成して異なる画像処理を施すようにしている。
本実施形態では、撮像映像1、2の各フレーム画像を2分岐させる際、背景用画像と位置姿勢算出用画像とは同じ画像であると説明する。すなわち、撮像映像1のフレーム画像については、その背景用画像も位置姿勢算出用画像も元の撮像映像1のフレーム画像と同じであり、撮像映像2に関しても同様である。ただし、背景用画像と位置姿勢算出用画像とは同じ画像である必要はなく、画角や解像度を異ならせるようにしてもよい。
一方、画像補正部1114のブロック321と画像補正部1115のブロック324には、ともに図3においてTとして示されるタイムスタンプ情報が入力される。
色変換部1116、1117は、入力される撮像映像のRGB成分をYUV成分へと変更する演算処理を行い、色空間の変換を行う。RGBからYUVの変換に関しては例えば以下のような式を用いて実現する。
Y = 0.299×R + 0.587×G + 0.114×B
U = −0.169×R − 0.331×G + 0.500×B
V = 0.500×R − 0.419×G − 0.081×B
入力色差信号は、色変換部1116から入力されるYUV信号のうち、色差信号であるUV信号を示している。また、タイムスタンプ情報Tは、色変換部1116を通じて入力される情報である。このとき、埋め込み判定部403から出力される埋め込み許可信号は、図5のように変化するものとする。
埋め込み許可信号が“0x1”のとき、埋め込み実行部404は、この埋め込み許可信号を、タイムスタンプ情報Tを表す4bit信号のうち第1bitを入力色差信号に埋め込むためのイネーブル信号とみなす。埋め込み許可信号が“0x1”のときの入力色差信号は0x6Dであり、その最下位bitは「1」である。従って、最下位bitの「1」をタイムスタンプ情報Tの第1bitである「0」で置き換える。その結果として、入力色差信号の値である0x6Dは1デクリメントされて0x6Cに変更され、この値が出力色差信号として出力される。
タイムスタンプ情報分離部601は、入力される撮像映像1を構成する画像の上述した埋め込み位置にある画素における上述した出力色差信号からタイムスタンプ情報を分離して復元する。
このようにタイムスタンプ情報を復元した後に、色差信号の最下位bitを例えばすべて「1」にするか、または「0」にしてもよく、あるいは、タイムスタンプ情報を復元した後の色差信号をそのまま用いるようにしてもよい。
タイムスタンプ情報分離部602は、入力される撮像映像2に対して、タイムスタンプ情報解析部603、フレームバッファ605、メモリコントローラ607を通じて同様の処理を行う。
以上のようにして、本実施形態では、撮像映像1の背景用画像、位置姿勢算出用画像、撮像映像2の背景用画像、位置姿勢算出用画像の4つの画像について、正しく画像同士の同期がとられるようになる。
本実施形態では、撮像映像1の位置姿勢用画像および撮像映像2の位置姿勢用画像は、タイムスタンプ情報を参照して正しいタイミングで入力されているので、CG描画位置演算部122は高い精度でCG描画位置を求めることが可能となる。
従って、撮像映像の背景用画像に対してCGを意図した位置に配置して合成画像を生成することができ、撮像映像の背景用画像の任意の位置にCGコンテンツを正しいタイミングで配置した複合現実映像(合成画像)を形成することができる。
図8に、表示部13の説明図を示す。表示部13は、ユーザの左眼ELおよび右眼ERの前方にそれぞれ配置されて、ほぼ長方形の表示領域を有するディスプレイ131、132を有する。なお、ディスプレイ131、132はユーザの顔とほぼ平行に配置されるが、説明の都合上、図8ではディスプレイ131、132をいずれもユーザの顔に垂直に配置し拡大して示す。
このように、タイムスタンプ情報を埋め込んだことで画質が劣化しても、その領域をユーザにとって相対的に視認性が低い位置に配置することができる。
なお、本実施形態では、画像処理部11において、カメラ101、102の2つのカメラからの映像を更に2つに分岐している。しかし、HMDにカメラを4つ配置することで、このような分岐を行わないようにしてもよい。
本発明の第2実施形態を図10、図11を参照して説明する。図10は、本発明の第2実施形態のHMDにおける表示部13の機能ブロック図である。図11は、第2実施形態においてプリズム体を通してユーザが見る、グラデーション処理された映像の説明図である。第2実施形態では、表示部13以外の構成は第1実施形態と同様であるため詳細な説明は省略する。第2実施形態においては、表示部13に、左右の視差画像をユーザが自然に観察できるようにするためのグラデーション処理部1001および1002が追加されている。
同様に、グラデーション処理部1002には、撮像映像2の各フレームの画像にCGが重畳された合成画像が画像合成部12から入力される。グラデーション処理部1002は、入力された合成画像に対してグラデーション処理を行う。
グラデーション処理部1001は、ユーザが両眼で立体視する際に重複領域と単眼領域との境界に接する内側の領域に相当する、左眼の映像901の右端部にグラデーション処理を行う。このグラデーション処理によって、映像901の内部から右端に向かってなだらかに映像の輝度が落とされる。
グラデーション処理部1002は、ユーザが両眼で立体視する際に重複領域と単眼領域との境界に接する内側の領域に相当する、右眼の映像902の左端部にグラデーション処理を行う。このグラデーション処理によって、映像902の内部から左端に向かってなだらかに映像の輝度が落とされる。
本発明の第3実施形態を図12、図13に従って説明する。
図12は、第3実施形態のHMDにおける表示部13の機能ブロック図である。
第3実施形態では、表示部13以外の構成は第1実施形態と同様であるため詳細な説明は省略する。第3実施形態においては、光学歪みを生じる光学部材としてのプリズム体11Lおよび11Rの光学歪みを補正するための表示歪み補正部1201および1202が表示部13に設けられている。
同様に、表示歪み補正部1202には、撮像映像2の各フレームの画像にCGが重畳された合成画像が画像合成部12から入力される。表示歪み補正部1202は、合成画像に対して表示歪み補正処理を行う。
Claims (19)
- 現実空間を第1の撮像手段で撮像した第1の画像データ、第2の画像データと、第2の撮像手段で撮像した第3の画像データ、第4の画像データと、を取得する取得手段と、
前記取得した第1から第4の画像データそれぞれに対して、前記第1から第4の画像データ同士の同期をとるための情報を、各画像データを構成する画素のうち少なくとも1つの画素のデータに埋め込む埋め込み手段と、
前記第1から第4の画像データそれぞれに埋め込まれた同期をとるための情報に基づいて、前記第1から第4の画像データ同士の同期をとる同期手段と、
前記同期のとられた第1の画像データと第3の画像データとに基づいて前記第2の画像データおよび第4の画像データに重畳させるCGの位置を算出する算出手段と、
前記算出された位置に基づいて、前記第2の画像データおよび第4の画像データにCGを重畳させて第1の合成画像データおよび第2の合成画像データを生成する生成手段と、前記生成された第1の合成画像データおよび第2の合成画像データを第1の表示部と第2の表示部に表示する表示手段と、を有し、
前記埋め込み手段は、前記第1の合成画像データおよび第2の合成画像データが前記第1の表示部および第2の表示部に表示される際に相対的に視認性の低い領域に含まれる画素に対応する前記第1から第4の画像データ上の画素に前記同期を取るための情報を埋め込むことを特徴とする、
画像表示システム。 - 前記第1から第4の画像データそれぞれについて、輝度信号と色差信号とを生成する色変換手段を更に有し、
前記埋め込み手段は、前記第1から第4の画像データの前記少なくとも1つの画素について、前記色差信号のデータと前記同期を取るための情報とを置換することを特徴とする、
請求項1に記載の画像表示システム。 - 前記埋め込み手段は、前記第1から第4の画像データそれぞれの複数の画素に、前記同期を取るための情報を埋め込むことを特徴とする、
請求項1に記載の画像表示システム。 - 前記同期を取るための情報として、時刻に関する情報を生成する生成手段を更に有し、前記生成手段は、前記取得手段が前記第1から第4の画像データを取得したタイミングに係る時刻に関する情報を生成することを特徴とする、
請求項1〜3のいずれかに記載の画像表示システム。 - 前記取得した第1から第4の画像データに対して画像処理を実行する画像処理手段を更に有し、
前記画像処理手段は、前記画像処理の実行に伴う遅延に応じて、前記同期を取るための情報を遅延させる遅延処理を実行し、
前記埋め込み手段は、前記遅延処理された同期を取るための情報を埋め込むことを特徴とする、
請求項1〜4のいずれかに記載の画像表示システム。 - 前記表示手段は、ユーザの頭部に装着して使用される画像表示装置に設けられていることを特徴とする、
請求項1〜5のいずれかに記載の画像表示システム。 - 前記第1の合成画像データおよび第2の合成画像データを前記第1の表示部および第2の表示部に表示するための光学系を更に有し、
前記埋め込み手段は、前記相対的に視認性の低い領域として前記光学系の角部が切断された領域を通過して表示される領域に含まれる画素に対応する前記第1から第4の画像データ上の画素に前記同期を取るための情報を埋め込むことを特徴とする、
請求項1〜6のいずれかに記載の画像表示システム。 - 前記光学系が切断された角部は、ユーザの鼻と干渉する部分であることを特徴とする、
請求項7に記載の画像表示システム。 - 前記第1の合成画像データおよび第2の合成画像データにグラデーション処理を実行するグラデーション処理手段を更に有し、
前記埋め込み手段は、前記相対的に視認性の低い領域として前記グラデーション処理が実行された領域に含まれる画素に対応する前記第1から第4の画像データ上の画素に前記同期を取るための情報を埋め込むことを特徴とする、
請求項1〜5のいずれかに記載の画像表示システム。 - 前記表示手段は、前記グラデーション処理が実行された第1の合成画像データおよび第2の合成画像データの一部を互いに重複させて表示することを特徴とする、
請求項9に記載の画像表示システム。 - 前記第1の合成画像データおよび第2の合成画像データを前記第1の表示部および第2の表示部に表示する際の光学歪みを補正する補正手段を更に有し、
前記埋め込み手段は、前記相対的に視認性の低い領域として前記光学歪みの補正によって表示領域に含まれなくなる領域に含まれる画素に対応する前記第1から第4の画像データ上の画素に前記同期を取るための情報を埋め込むことを特徴とする、
請求項1〜5のいずれかに記載の画像表示システム。 - 前記第1の撮像手段はユーザの左眼に対応した撮像手段であり、前記第2の撮像手段はユーザの右眼に対応した撮像手段であることを特徴とする、
請求項1〜11のいずれかに記載の画像表示システム。 - 前記第1の撮像手段および前記第2の撮像手段は、前記表示手段が備えられている画像表示装置に設けられていることを特徴とする、
請求項12に記載の画像表示システム。 - 前記埋め込み手段は、前記少なくとも1つの画素のデータの最下位ビットのデータと、前記同期をとるための情報とを、置換することを特徴とする、
請求項1に記載の画像表示システム。 - 前記同期手段は、前記第1から第4の画像データそれぞれに埋め込まれた同期をとるための情報を、前記第1から第4の画像データから分離する分離手段を有することを特徴とする、
請求項1に記載の画像表示システム。 - 現実空間を第1の撮像手段で撮像した第1の画像データ、第2の画像データと、第2の撮像手段で撮像した第3の画像データ、第4の画像データと、を取得する取得手段と、
前記取得した第1から第4の画像データそれぞれに対して、前記第1から第4の画像データ同士の同期をとるための情報を、各画像データを構成する画素のうち少なくとも1つの画素のデータに埋め込む埋め込み手段と、
前記同期をとるための情報が埋め込まれた第1から第4の画像データを画像処理装置に送信する送信手段と、
前記画像処理装置について、前記第1から第4の画像データそれぞれに埋め込まれた同期をとるための情報に基づいて、生成された第1の合成画像データおよび第2の合成画像データを受信する受信手段と、
前記受信された第1の合成画像データおよび第2の合成画像データを第1の表示部と第2の表示部に表示する表示手段と、を有し、
前記埋め込み手段は、前記第1の合成画像データおよび第2の合成画像データが前記第1の表示部および第2の表示部に表示される際に相対的に視認性の低い領域に含まれる画素に対応する前記第1から第4の画像データ上の画素に前記同期を取るための情報を埋め込むことを特徴とする、
画像表示装置。 - 前記埋め込み手段は、前記第1から第4の画像データそれぞれの複数の画素に、前記同期を取るための情報を埋め込むことを特徴とする、
請求項16に記載の画像表示装置。 - 前記同期を取るための情報として、時刻に関する情報を生成する生成手段を更に有し、前記生成手段は、前記取得手段が前記第1から第4の画像データを取得したタイミングに係る時刻に関する情報を生成することを特徴とする、
請求項16または17に記載の画像表示装置。 - 現実空間を第1の撮像手段で撮像した第1の画像データ、第2の画像データと、第2の撮像手段で撮像した第3の画像データ、第4の画像データと、を取得するステップと、
前記取得した第1から第4の画像データそれぞれに対して、前記第1から第4の画像データ同士の同期をとるための情報を、各画像データを構成する画素のうち少なくとも1つの画素のデータに埋め込むステップと、
前記第1から第4の画像データそれぞれに埋め込まれた同期をとるための情報に基づいて、前記第1から第4の画像データ同士の同期をとるステップと、
前記同期のとられた第1の画像データと第3の画像データとに基づいて前記第2の画像データおよび第4の画像データに重畳させるCGの位置を算出するステップと、
前記算出された位置に基づいて、前記第2の画像データおよび第4の画像データにCGを重畳させて第1の合成画像データおよび第2の合成画像データを生成するステップと、前記生成された第1の合成画像データおよび第2の合成画像データを第1の表示部と第2の表示部に表示するステップと、を有し、
前記埋め込むステップでは、前記第1の合成画像データおよび第2の合成画像データが前記第1の表示部および第2の表示部に表示される際に相対的に視認性の低い領域に含まれる画素に対応する前記第1から第4の画像データ上の画素に前記同期を取るための情報を埋め込むことを特徴とする、
画像表示方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017091011A JP6855313B2 (ja) | 2017-05-01 | 2017-05-01 | 画像表示システム、画像表示装置および画像表示方法 |
US15/958,532 US10728531B2 (en) | 2017-05-01 | 2018-04-20 | Image display system, image display apparatus, image display method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017091011A JP6855313B2 (ja) | 2017-05-01 | 2017-05-01 | 画像表示システム、画像表示装置および画像表示方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018191098A JP2018191098A (ja) | 2018-11-29 |
JP2018191098A5 JP2018191098A5 (ja) | 2020-06-18 |
JP6855313B2 true JP6855313B2 (ja) | 2021-04-07 |
Family
ID=63916962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017091011A Active JP6855313B2 (ja) | 2017-05-01 | 2017-05-01 | 画像表示システム、画像表示装置および画像表示方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10728531B2 (ja) |
JP (1) | JP6855313B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180131856A (ko) * | 2017-06-01 | 2018-12-11 | 에스케이플래닛 주식회사 | 배송 물품 정보 제공 방법 및 이를 위한 장치 |
US10785495B1 (en) * | 2017-09-25 | 2020-09-22 | Amazon Technologies, Inc. | Encoding timecode in video using colored regions of pixels |
US20200184737A1 (en) * | 2018-12-05 | 2020-06-11 | Xerox Corporation | Environment blended packaging |
WO2020131277A1 (en) | 2018-12-20 | 2020-06-25 | Snap Inc. | Flexible eyewear device with dual cameras for generating stereoscopic images |
CN109873921B (zh) * | 2019-02-14 | 2023-04-07 | 魔门塔(苏州)科技有限公司 | 一种图像时间戳的传输方法、解析方法和装置 |
US10854175B2 (en) * | 2019-03-14 | 2020-12-01 | Microsoft Technology Licensing, Llc | Monitoring support element strain to determine real-time positional relationships between positionally sensitive device components |
JP2021039444A (ja) * | 2019-08-30 | 2021-03-11 | キヤノン株式会社 | 画像処理装置及びその制御方法及びプログラム |
US10965931B1 (en) * | 2019-12-06 | 2021-03-30 | Snap Inc. | Sensor misalignment compensation |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008167348A (ja) | 2007-01-04 | 2008-07-17 | Toyota Motor Corp | 画像処理装置 |
JP5047090B2 (ja) * | 2008-07-31 | 2012-10-10 | キヤノン株式会社 | システム |
JP2014199508A (ja) * | 2013-03-29 | 2014-10-23 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP5769751B2 (ja) * | 2013-03-29 | 2015-08-26 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
-
2017
- 2017-05-01 JP JP2017091011A patent/JP6855313B2/ja active Active
-
2018
- 2018-04-20 US US15/958,532 patent/US10728531B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018191098A (ja) | 2018-11-29 |
US10728531B2 (en) | 2020-07-28 |
US20180316910A1 (en) | 2018-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6855313B2 (ja) | 画像表示システム、画像表示装置および画像表示方法 | |
US10748338B2 (en) | Image processing apparatus and image processing method | |
KR101770110B1 (ko) | 반투명 마크, 반투명 마크 합성 및 검출 방법, 투명 마크 그리고 투명 마크 합성 및 검출 방법 | |
JP6747504B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5522404B2 (ja) | 画像処理方法、画像処理装置及びプログラム | |
US10547832B2 (en) | Image processing apparatus, method, and storage medium for executing gradation on stereoscopic images | |
JP2008146109A (ja) | 画像処理方法、画像処理装置 | |
US7940295B2 (en) | Image display apparatus and control method thereof | |
US11956415B2 (en) | Head mounted display apparatus | |
EP3136724B1 (en) | Wearable display apparatus, information processing apparatus, and control method therefor | |
CN111034190A (zh) | 信息处理设备、信息处理方法和程序 | |
JP6887824B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP7058946B2 (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
JP2014199508A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN106291932A (zh) | 一种虚拟现实头盔 | |
CN110709920B (zh) | 图像处理设备及其控制方法 | |
JP7528951B2 (ja) | 表示端末装置 | |
JP2023174066A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2021086287A (ja) | 情報処理システム、情報処理装置、及び情報処理方法 | |
JP2011223215A (ja) | 映像信号処理装置、表示装置、表示方法及びプログラム | |
CN117111731A (zh) | 信息处理设备和方法、头戴式显示设备和计算机可读介质 | |
WO2012073823A1 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN105468250A (zh) | 一种信息处理方法及便携式电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200423 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200423 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210317 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6855313 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |