JP6344380B2 - 画像処理装置および方法、並びにプログラム - Google Patents
画像処理装置および方法、並びにプログラム Download PDFInfo
- Publication number
- JP6344380B2 JP6344380B2 JP2015508292A JP2015508292A JP6344380B2 JP 6344380 B2 JP6344380 B2 JP 6344380B2 JP 2015508292 A JP2015508292 A JP 2015508292A JP 2015508292 A JP2015508292 A JP 2015508292A JP 6344380 B2 JP6344380 B2 JP 6344380B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- distance
- virtual image
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 165
- 238000000034 method Methods 0.000 title claims description 81
- 230000008569 process Effects 0.000 claims description 77
- 238000000926 separation method Methods 0.000 claims description 38
- 239000002131 composite material Substances 0.000 claims description 19
- 230000015572 biosynthetic process Effects 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 17
- 238000003786 synthesis reaction Methods 0.000 claims description 17
- 238000012937 correction Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 13
- 238000003672 processing method Methods 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 description 41
- 239000000203 mixture Substances 0.000 description 34
- 238000005516 engineering process Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 15
- 230000003190 augmentative effect Effects 0.000 description 14
- 238000000605 extraction Methods 0.000 description 12
- 230000009467 reduction Effects 0.000 description 11
- 102220185719 rs150616884 Human genes 0.000 description 10
- 238000005259 measurement Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 230000002194 synthesizing effect Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 5
- 101000741271 Sorghum bicolor Phosphoenolpyruvate carboxylase 1 Proteins 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 230000004043 responsiveness Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
〈本技術の概要について〉
本技術は、ヘッドマウントディスプレイや画像表示機能付き眼鏡等の表示装置を装着したユーザに対して、2眼カメラを入力とした拡張現実の仮想画像に現実にタッチして操作しているかのように感じさせる3Dユーザインターフェースを実現するものである。
次に、図1に示した表示装置11の具体的な構成について説明する。図3は、表示装置11の構成例を示す図である。なお、図3において図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
続いて、図4を参照して、図3の表示装置11により行なわれる処理の流れについて説明する。なお、図4において図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
また、図5を参照して、距離計算部67により行なわれる、切り出し画像上の各領域の被写体までの距離の計算について、より詳細に説明する。なお、図5において、図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
次に、図7のフローチャートを参照して、表示装置11が出力画像を表示するとともに、ユーザによる仮想画像への操作を認識して、その操作に応じた処理を実行する処理であるタッチ認識処理について説明する。
続いて、図8のフローチャートを参照して、図7のステップS13の処理に対応する距離測定処理について説明する。
〈マルチタッチ認識について〉
なお、以上においては、ユーザが仮想画像上の1点をタッチ操作する例について説明したが、例えば図9に示すように仮想画像上の複数の点を同時にタッチ操作するようにしてもよい。なお、図9において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
〈仮想画像の表示について〉
また、以上においては、平面上に仮想画像が表示される場合を例として説明したが、例えば図10に示すように仮想画像が平面ではない非平面、つまり曲面や、凹凸や傾きなどのある面である非平面上に表示されるようにしてもよい。なお、図10において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
〈仮想画像の表示について〉
さらに、以上においては、1つの仮想画像を表示させる場合について説明したが、例えば図11に示すように複数の仮想画像を表示するようにしてもよい。なお、図11において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
また、以上においては、表示装置11が図3に示したように画像処理装置51と画像表示処理装置52とを含む構成とされる場合について説明したが、その他、どのような構成とされてもよい。例えば表示装置11は、図12に示すように構成されてもよい。なお、図12において、図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
〈仮想画像の表示位置の補正について〉
ところで、図13に示すように拡張現実空間上において、仮想画像V11の表示位置が固定されており、ユーザU11が表示装置11を装着した状態で頭部を動かしたとする。なお、図13において、図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
このように仮想画像の表示位置等の補正機能を設ける場合、表示装置11は、例えば図15に示すように構成される。なお、図15において、図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
次に図16のフローチャートを参照して、図15に示した表示装置11がユーザの動きを検出して仮想画像の表示位置等を補正する処理である表示位置補正処理について説明する。
〈仮想画像の表示位置の調整について〉
また、以上においては、仮想画像の表示位置等を表示装置11側で決定する場合を例として説明したが、仮想画像の表示位置等をユーザが任意に調整できるようにしてもよい。
さらに、ユーザが仮想画像に対してタッチ操作を行なう場合、例えば図19に示すように、仮想画像V11とユーザU11の間に障害物OB11があると、ユーザU11の手が障害物OB11に当たってしまうこともある。なお、図19において、図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
次に図21のフローチャートを参照して、図3に示した表示装置11がユーザの手のひらの位置に応じて仮想画像の表示位置を調整するとともに、障害物の検出を行なう処理である表示位置調整処理について説明する。
互いに視差を有する2以上の入力画像から、操作対象となる仮想画像が表示される領域近傍の所定領域を切り出して切り出し画像を生成する画像切り出し部と、
2以上の前記切り出し画像に基づいて、前記切り出し画像の各領域の被写体の距離情報を計算する距離計算部と、
前記距離情報に基づいて前記仮想画像上のユーザのタッチ位置を計算するタッチ位置計算部と、
前記タッチ位置に応じた処理を実行させるタッチ処理部と、
前記切り出し画像ごとに、前記距離情報に基づいて前記切り出し画像から、前記仮想画像よりも近距離にある被写体の領域を分離させて近距離画像を生成する近距離画像分離部と、
前記近距離画像ごとに、前記近距離画像を前記仮想画像に合成して合成画像を生成する仮想画像合成部と、
前記合成画像ごとに、前記合成画像を前記入力画像に合成して互いに視差を有する2つの出力画像を生成する表示画像合成部と
を備える画像処理装置。
[2]
前記タッチ位置計算部は、複数の前記タッチ位置を計算し、
前記タッチ処理部は、複数の前記タッチ位置により特定される処理を実行させる
[1]に記載の画像処理装置。
[3]
前記仮想画像は3次元空間において非平面上に表示されるものとされ、
前記タッチ位置計算部は、前記仮想画像の領域ごとに異なる距離を用いて、前記距離情報により示される距離が前記仮想画像までの距離と同じである前記切り出し画像の位置に基づき前記タッチ位置を計算する
[1]または[2]記載の画像処理装置。
[4]
前記タッチ位置計算部は、前記距離情報により示される距離が前記仮想画像までの距離と同じである前記切り出し画像上の複数の位置に基づいて、前記タッチ位置を計算する
[1]乃至[3]の何れかに記載の画像処理装置。
[5]
前記入力画像には複数の前記仮想画像が合成されて前記出力画像とされ、
前記タッチ位置計算部は、前記仮想画像ごとに前記タッチ位置を計算する
[1]乃至[4]何れかに記載の画像処理装置。
[6]
前記画像処理装置の位置または方向の変化に基づいて、前記仮想画像の表示位置、表示サイズ、形状、または前記仮想画像までの距離を補正する補正部をさらに備える
[1]乃至[5]の何れかに記載の画像処理装置。
[7]
前記入力画像から予め定められた認識対象物を検出する認識部と、
前記認識対象物の検出結果に基づいて前記認識対象物までの距離を計算する認識対象物距離計算部と、
前記認識対象物の位置、および前記認識対象物までの距離に基づいて、前記仮想画像の表示位置と前記仮想画像までの距離を決定する決定部と
をさらに備える[1]乃至[6]の何れかに記載の画像処理装置。
[8]
前記認識対象物は前記ユーザの手のひらである
[7]に記載の画像処理装置。
[9]
前記近距離画像から予め定められた操作物を検出することで、前記仮想画像と前記画像処理装置の間に障害物があるか否かを判定する障害物判定部をさらに備える
[1]乃至[8]の何れかに記載の画像処理装置。
[10]
前記距離計算部は、前記切り出し画像に基づいてマッチング処理を行なうことにより、前記距離情報を計算する
[1]乃至[9]の何れかに記載の画像処理装置。
[11]
前記距離情報は、前記切り出し画像の各領域の視差である
[10]に記載の画像処理装置。
[12]
前記タッチ処理部は、前記タッチ位置に応じて画像の表示または音声の再生を実行させる
[1]乃至[11]の何れかに記載の画像処理装置。
[13]
前記入力画像を撮像する撮像部をさらに備える
[1]乃至[12]の何れかに記載の画像処理装置。
Claims (15)
- 互いに視差を有する2以上の入力画像から、操作対象となる仮想画像が表示される領域近傍の所定領域を切り出して切り出し画像を生成する画像切り出し部と、
2以上の前記切り出し画像に基づいて、前記切り出し画像の各領域の被写体の距離情報を計算する距離計算部と、
前記距離情報に基づいて前記仮想画像上のユーザのタッチ位置を計算するタッチ位置計算部と、
前記タッチ位置に応じた処理を実行させるタッチ処理部と、
前記切り出し画像ごとに、前記距離情報に基づいて前記切り出し画像から、前記仮想画像よりも近距離にある被写体の領域を分離させて近距離画像を生成する近距離画像分離部と、
前記近距離画像ごとに、前記近距離画像を前記仮想画像に合成して合成画像を生成する仮想画像合成部と、
前記合成画像ごとに、前記合成画像を前記入力画像に合成して互いに視差を有する2つの出力画像を生成する表示画像合成部と
を備える画像処理装置。 - 前記タッチ位置計算部は、複数の前記タッチ位置を計算し、
前記タッチ処理部は、複数の前記タッチ位置により特定される処理を実行させる
請求項1に記載の画像処理装置。 - 前記仮想画像は3次元空間において非平面上に表示されるものとされ、
前記タッチ位置計算部は、前記仮想画像の領域ごとに異なる距離を用いて、前記距離情報により示される距離が前記仮想画像までの距離と同じである前記切り出し画像の位置に基づき前記タッチ位置を計算する
請求項1または請求項2に記載の画像処理装置。 - 前記タッチ位置計算部は、前記距離情報により示される距離が前記仮想画像までの距離と同じである前記切り出し画像上の複数の位置に基づいて、前記タッチ位置を計算する
請求項1乃至請求項3の何れか一項に記載の画像処理装置。 - 前記入力画像には複数の前記仮想画像が合成されて前記出力画像とされ、
前記タッチ位置計算部は、前記仮想画像ごとに前記タッチ位置を計算する
請求項1乃至請求項4の何れか一項に記載の画像処理装置。 - 前記画像処理装置の位置または方向の変化に基づいて、前記仮想画像の表示位置、表示サイズ、形状、または前記仮想画像までの距離を補正する補正部をさらに備える
請求項1乃至請求項5の何れか一項に記載の画像処理装置。 - 前記入力画像から予め定められた認識対象物を検出する認識部と、
前記認識対象物の検出結果に基づいて前記認識対象物までの距離を計算する認識対象物距離計算部と、
前記認識対象物の位置、および前記認識対象物までの距離に基づいて、前記仮想画像の表示位置と前記仮想画像までの距離を決定する決定部と
をさらに備える請求項1乃至請求項6の何れか一項に記載の画像処理装置。 - 前記認識対象物は前記ユーザの手のひらである
請求項7に記載の画像処理装置。 - 前記近距離画像から予め定められた操作物を検出することで、前記仮想画像と前記画像処理装置の間に障害物があるか否かを判定する障害物判定部をさらに備える
請求項1乃至請求項8の何れか一項に記載の画像処理装置。 - 前記距離計算部は、前記切り出し画像に基づいてマッチング処理を行なうことにより、前記距離情報を計算する
請求項1乃至請求項9の何れか一項に記載の画像処理装置。 - 前記距離情報は、前記切り出し画像の各領域の視差である
請求項10に記載の画像処理装置。 - 前記タッチ処理部は、前記タッチ位置に応じて画像の表示または音声の再生を実行させる
請求項1乃至請求項11の何れか一項に記載の画像処理装置。 - 前記入力画像を撮像する撮像部をさらに備える
請求項1乃至請求項12の何れか一項に記載の画像処理装置。 - 互いに視差を有する2以上の入力画像から、操作対象となる仮想画像が表示される領域近傍の所定領域を切り出して切り出し画像を生成し、
2以上の前記切り出し画像に基づいて、前記切り出し画像の各領域の被写体の距離情報を計算し、
前記距離情報に基づいて前記仮想画像上のユーザのタッチ位置を計算し、
前記タッチ位置に応じた処理を実行させ、
前記切り出し画像ごとに、前記距離情報に基づいて前記切り出し画像から、前記仮想画像よりも近距離にある被写体の領域を分離させて近距離画像を生成し、
前記近距離画像ごとに、前記近距離画像を前記仮想画像に合成して合成画像を生成し、
前記合成画像ごとに、前記合成画像を前記入力画像に合成して互いに視差を有する2つの出力画像を生成する
ステップを含む画像処理方法。 - 互いに視差を有する2以上の入力画像から、操作対象となる仮想画像が表示される領域近傍の所定領域を切り出して切り出し画像を生成し、
2以上の前記切り出し画像に基づいて、前記切り出し画像の各領域の被写体の距離情報を計算し、
前記距離情報に基づいて前記仮想画像上のユーザのタッチ位置を計算し、
前記タッチ位置に応じた処理を実行させ、
前記切り出し画像ごとに、前記距離情報に基づいて前記切り出し画像から、前記仮想画像よりも近距離にある被写体の領域を分離させて近距離画像を生成し、
前記近距離画像ごとに、前記近距離画像を前記仮想画像に合成して合成画像を生成し、
前記合成画像ごとに、前記合成画像を前記入力画像に合成して互いに視差を有する2つの出力画像を生成する
ステップを含む処理をコンピュータに実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013070439 | 2013-03-28 | ||
JP2013070439 | 2013-03-28 | ||
PCT/JP2014/056829 WO2014156706A1 (ja) | 2013-03-28 | 2014-03-14 | 画像処理装置および方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014156706A1 JPWO2014156706A1 (ja) | 2017-02-16 |
JP6344380B2 true JP6344380B2 (ja) | 2018-06-20 |
Family
ID=51623688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015508292A Active JP6344380B2 (ja) | 2013-03-28 | 2014-03-14 | 画像処理装置および方法、並びにプログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US10365767B2 (ja) |
EP (1) | EP2981079A4 (ja) |
JP (1) | JP6344380B2 (ja) |
KR (1) | KR20150135234A (ja) |
CN (1) | CN105075254B (ja) |
TW (1) | TWI649675B (ja) |
WO (1) | WO2014156706A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9606992B2 (en) * | 2011-09-30 | 2017-03-28 | Microsoft Technology Licensing, Llc | Personal audio/visual apparatus providing resource management |
JP2013090194A (ja) | 2011-10-19 | 2013-05-13 | Sony Corp | サーバ装置、画像送信方法、端末装置、画像受信方法、プログラムおよび画像処理システム |
JP6611501B2 (ja) * | 2015-07-17 | 2019-11-27 | キヤノン株式会社 | 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体 |
CN105068649A (zh) * | 2015-08-12 | 2015-11-18 | 深圳市埃微信息技术有限公司 | 基于虚拟现实头盔的双目手势识别装置及方法 |
JP6240135B2 (ja) * | 2015-10-26 | 2017-11-29 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理方法およびプログラム |
TWI587176B (zh) * | 2015-12-03 | 2017-06-11 | 財團法人工業技術研究院 | 行動虛擬實境操作方法、系統與其儲存媒體 |
CN105867626A (zh) * | 2016-04-12 | 2016-08-17 | 京东方科技集团股份有限公司 | 头戴式虚拟现实设备及其控制方法、虚拟现实系统 |
CN105955456B (zh) * | 2016-04-15 | 2018-09-04 | 深圳超多维科技有限公司 | 虚拟现实与增强现实融合的方法、装置及智能穿戴设备 |
CN106201213A (zh) * | 2016-07-19 | 2016-12-07 | 深圳市金立通信设备有限公司 | 一种虚拟现实焦点的控制方法及终端 |
KR20180051288A (ko) * | 2016-11-08 | 2018-05-16 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US10867445B1 (en) * | 2016-11-16 | 2020-12-15 | Amazon Technologies, Inc. | Content segmentation and navigation |
CN106873778B (zh) * | 2017-01-23 | 2020-04-28 | 深圳超多维科技有限公司 | 一种应用的运行控制方法、装置和虚拟现实设备 |
JP6862210B2 (ja) * | 2017-02-16 | 2021-04-21 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法及びプログラム |
CN108230383B (zh) * | 2017-03-29 | 2021-03-23 | 北京市商汤科技开发有限公司 | 手部三维数据确定方法、装置及电子设备 |
CN109542209A (zh) * | 2017-08-04 | 2019-03-29 | 北京灵境世界科技有限公司 | 一种适应人眼汇聚的方法 |
WO2019032014A1 (en) * | 2017-08-07 | 2019-02-14 | Flatfrog Laboratories Ab | TACTILE INTERACTION SYSTEM IN VIRTUAL REALITY |
KR102022980B1 (ko) * | 2017-12-01 | 2019-09-19 | 클릭트 주식회사 | 깊이데이터를 이용한 증강현실영상 제공방법 및 프로그램 |
US10979699B2 (en) * | 2018-02-07 | 2021-04-13 | Lockheed Martin Corporation | Plenoptic cellular imaging system |
WO2020166581A1 (ja) * | 2019-02-15 | 2020-08-20 | 株式会社Jvcケンウッド | 画像調整システム、画像調整装置、及び画像調整方法 |
JP7345128B2 (ja) * | 2019-05-20 | 2023-09-15 | パナソニックIpマネジメント株式会社 | 歩行者装置および交通安全支援方法 |
EP3974949A4 (en) * | 2019-05-22 | 2022-12-28 | Maxell, Ltd. | HEAD MOUNT DISPLAY |
US11137607B2 (en) * | 2019-06-28 | 2021-10-05 | Canon Kabushiki Kaisha | Image capturing and display apparatus and wearable device |
EP4273656A3 (en) * | 2021-02-19 | 2023-12-20 | Anarky Labs Oy | Apparatus, method and software for assisting an operator in flying a drone using a remote controller and ar glasses |
WO2023091355A1 (en) * | 2021-11-19 | 2023-05-25 | Apple Inc. | Scene information access for electronic device applications |
CN117830573A (zh) * | 2024-01-03 | 2024-04-05 | 深圳职业技术大学 | 基于图像裁剪的xr组合场景构建方法、系统及介质 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282428A (ja) * | 2000-03-29 | 2001-10-12 | Matsushita Electric Ind Co Ltd | 情報処理装置 |
JP3999088B2 (ja) * | 2002-09-18 | 2007-10-31 | 本田技研工業株式会社 | 障害物検出装置 |
JP4298407B2 (ja) * | 2002-09-30 | 2009-07-22 | キヤノン株式会社 | 映像合成装置及び映像合成方法 |
JP4401727B2 (ja) * | 2003-09-30 | 2010-01-20 | キヤノン株式会社 | 画像表示装置及び方法 |
JP4537104B2 (ja) * | 2004-03-31 | 2010-09-01 | キヤノン株式会社 | マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法 |
JP4227561B2 (ja) | 2004-06-03 | 2009-02-18 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
US7295204B2 (en) * | 2004-12-14 | 2007-11-13 | Adrian Sfarti | Rapid zippering for real time tesselation of bicubic surfaces |
JP4225339B2 (ja) | 2006-09-11 | 2009-02-18 | ソニー株式会社 | 画像データ処理装置および方法、プログラム、並びに記録媒体 |
JP4228320B2 (ja) | 2006-09-11 | 2009-02-25 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
JP5234894B2 (ja) * | 2007-06-28 | 2013-07-10 | 富士重工業株式会社 | ステレオ画像処理装置 |
JP2009087161A (ja) * | 2007-10-01 | 2009-04-23 | Canon Inc | 画像処理装置、画像処理方法 |
JP5156571B2 (ja) * | 2008-10-10 | 2013-03-06 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP5564300B2 (ja) * | 2010-03-19 | 2014-07-30 | 富士フイルム株式会社 | ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法 |
JP2011203823A (ja) | 2010-03-24 | 2011-10-13 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP5531710B2 (ja) | 2010-03-29 | 2014-06-25 | ソニー株式会社 | 記録装置および記録方法 |
JP5099182B2 (ja) * | 2010-06-24 | 2012-12-12 | 日本電気株式会社 | 確認業務支援システム、サーバ装置、ヘッドマウントディスプレイ装置、ウェアラブル端末、確認業務支援方法およびプログラム |
JP5540942B2 (ja) * | 2010-06-29 | 2014-07-02 | 富士通セミコンダクター株式会社 | 処理装置 |
JPWO2012049795A1 (ja) * | 2010-10-12 | 2014-02-24 | パナソニック株式会社 | 表示処理装置、表示方法およびプログラム |
TWI501130B (zh) | 2010-10-18 | 2015-09-21 | Ind Tech Res Inst | 虛擬觸控輸入系統 |
JP2012181809A (ja) * | 2011-03-03 | 2012-09-20 | Panasonic Corp | 機器制御装置、機器制御方法、機器制御プログラム、及び集積回路 |
KR101252169B1 (ko) * | 2011-05-27 | 2013-04-05 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
WO2013028908A1 (en) | 2011-08-24 | 2013-02-28 | Microsoft Corporation | Touch and social cues as inputs into a computer |
JP2013090194A (ja) | 2011-10-19 | 2013-05-13 | Sony Corp | サーバ装置、画像送信方法、端末装置、画像受信方法、プログラムおよび画像処理システム |
US8970452B2 (en) * | 2011-11-02 | 2015-03-03 | Google Inc. | Imaging method |
-
2014
- 2014-03-05 TW TW103107535A patent/TWI649675B/zh not_active IP Right Cessation
- 2014-03-14 KR KR1020157022553A patent/KR20150135234A/ko not_active Application Discontinuation
- 2014-03-14 US US14/778,963 patent/US10365767B2/en active Active
- 2014-03-14 WO PCT/JP2014/056829 patent/WO2014156706A1/ja active Application Filing
- 2014-03-14 CN CN201480017154.XA patent/CN105075254B/zh not_active Expired - Fee Related
- 2014-03-14 JP JP2015508292A patent/JP6344380B2/ja active Active
- 2014-03-14 EP EP14773238.2A patent/EP2981079A4/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
US20160048230A1 (en) | 2016-02-18 |
US10365767B2 (en) | 2019-07-30 |
CN105075254A (zh) | 2015-11-18 |
TW201443699A (zh) | 2014-11-16 |
EP2981079A4 (en) | 2016-12-28 |
WO2014156706A1 (ja) | 2014-10-02 |
TWI649675B (zh) | 2019-02-01 |
KR20150135234A (ko) | 2015-12-02 |
CN105075254B (zh) | 2017-09-12 |
EP2981079A1 (en) | 2016-02-03 |
JPWO2014156706A1 (ja) | 2017-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6344380B2 (ja) | 画像処理装置および方法、並びにプログラム | |
JP6747504B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6780642B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR101171660B1 (ko) | 증강현실의 포인팅 장치 | |
WO2015180497A1 (zh) | 一种基于立体视觉的动作采集和反馈方法及系统 | |
WO2014016987A1 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
US20110107216A1 (en) | Gesture-based user interface | |
WO2014141504A1 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
JP2012058968A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
WO2015093315A1 (ja) | 画像処理装置および方法、並びにプログラム | |
JP2011258160A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
JP2011258159A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
KR101892735B1 (ko) | 직관적인 상호작용 장치 및 방법 | |
JP2011258161A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
KR20120068253A (ko) | 사용자 인터페이스의 반응 제공 방법 및 장치 | |
JP2011258158A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
JP2015084002A (ja) | ミラーディスプレイシステム、及び、その映像表示方法 | |
JP2019067323A (ja) | 情報処理装置、情報処理方法、及び記録媒体 | |
JP6950390B2 (ja) | 表示制御プログラム、装置、及び方法 | |
JPWO2018146922A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5842371B2 (ja) | ビデオゲーム装置およびビデオゲーム制御方法 | |
WO2021241110A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR101473234B1 (ko) | 신체 트래킹에 기반한 영상 디스플레이 방법 및 시스템 | |
JP5213913B2 (ja) | プログラム及び画像生成システム | |
JP6613099B2 (ja) | 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180424 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180507 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6344380 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |