JPWO2013054462A1 - ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路 - Google Patents
ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路 Download PDFInfo
- Publication number
- JPWO2013054462A1 JPWO2013054462A1 JP2012556728A JP2012556728A JPWO2013054462A1 JP WO2013054462 A1 JPWO2013054462 A1 JP WO2013054462A1 JP 2012556728 A JP2012556728 A JP 2012556728A JP 2012556728 A JP2012556728 A JP 2012556728A JP WO2013054462 A1 JPWO2013054462 A1 JP WO2013054462A1
- Authority
- JP
- Japan
- Prior art keywords
- depth
- graphic
- user interface
- image
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/356—Image reproducers having separate monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、立体視画像にグラフィックを合成する際に、合成後にグラフィックを表示するための深度を容易に設定可能なGUIを提供するユーザーインタフェース制御装置、ユーザーインタフェース制御方法、ユーザーインタフェースを制御するコンピュータプログラム、及び集積回路を提供することを目的とする。
を更に備えるよう構成してもよい。
(実施形態1)
図1は、本実施形態に係るユーザーインタフェース制御装置としての機能を有するスマートフォンのハードウェア構成を示す図である。図1に示すスマートフォンは、カメラ10、スピーカ20、GPS30、センサ40、タッチパネル50、マイク60、記録媒体70、処理部100、ディスプレイ200を有している。
操作入力受付部101は、タッチパネル、マウス等のポインティングデバイスを介して入力されるユーザの操作を受け付ける機能を有する。
制御部102は、本実施例の処理を操作入力受付部101の入力内容に従って制御する機能を有する。
深度情報算出部103は、ステレオ画像から被写体の奥行き方向の位置を示す深度情報(デプスマップ)を左目用画像の画素毎に生成することで、視点画像深度取得手段の機能の一部を実現する。具体的には、まずステレオ画像を構成する左目用画像・右目用画像間の各画素について対応点探索を行う。そして、左目用画像と右目用画像の対応点の位置関係から、三角測量の原理に基づき、被写体の奥行き方向の距離を算出する。深度情報は、各画素の奥行きを8ビットの輝度で表したグレースケール画像であり、深度情報算出部103は、算出した被写体の奥行き方向の距離を0〜255までの256階調の値に変換する。なお、対応点探索には、注目点の周りに小領域を設け、その領域中の画素値の濃淡パターンに基づいて行う領域ベースマッチング手法と、画像からエッジなど特徴を抽出し、その特徴間で対応付けを行う特徴ベースマッチングの2つに大きく大別されるが、何れの手法を用いてもよい。なお、ステレオ画像は、異なる視点から被写界を撮像して得られる画像であり、本実施形態1ではカメラ10により撮像され記録媒体70に記録された立体視画像の画像データを用いる。ステレオ画像は、実写画像に限らず、異なる仮想視点を想定して作成したCG(Computer Graphics)等であってもよい。
深度情報保存部104は、記録媒体70の記録領域の一部により実現され、深度情報算出部103が算出した深度情報を記録媒体70の記録領域に保存する機能を有する。
グラフィック情報取得部105は、ユーザが配置したグラフィックが左目用画像上で占める領域の座標を取得する平面位置特定手段としての機能を有する。
深度情報解析部106は、グラフィックパーツの配置範囲における左目用画像の深度情報を取得する機能と、グラフィックパーツを配置可能な深度を被写体との相対位置により示す選択肢を、ユーザに提示するように深度設定提示部107に指示する機能とを持つ。
深度設定提示部107は、GUI提示部111、伸縮表示部112、深度決定部113を内部に有し、グラフィックパーツの奥行き情報を設定するためのGUIを制御して、グラフィックパーツを配置する深度を決定する機能を有する。
ステレオ画像生成部108は、シフト量取得部114、画像合成部115を内部に有し、深度設定提示部107で決定したグラフィックパーツの配置深度に基づいて、視差をつけてグラフィックパーツを写真に合成し、グラフィックパーツを合成した左目用画像、及び右目用画像を生成する機能をもつ。
出力部109は、ディスプレイ200の表示を制御するドライバであり、加工作業時の左目画像、グラフィックパーツ、深度設定提示部107から指示されたGUI画像、及びステレオ画像生成部108においてグラフィックパーツを合成した立体視画像等をディスプレイに表示させる。
<動作>
続いて、上記構成を備えるユーザーインタフェース制御装置の動作について説明する。
まず、深度情報算出部103による深度情報生成処理について説明する。図10は、深度情報生成処理の流れを示すフローチャートである。
図11は、ユーザによるグラフィックパーツ配置操作に応じて実行される深度設定ポップアップメニュー表示処理の流れを示すフローチャートである。
図12は、図11のステップS15において、グラフィックパーツの配置深度の候補を抽出する処理の詳細を示すフローチャートである。
図13は、ポップアップメニューからの選択肢選択操作に応じて実行されるグラフィックパーツ深度調節処理の流れを示すフローチャートである。
図15は、深度設定提示部107によって決定されたグラフィックパーツの深度に基づいて、グラフィックパーツを合成した立体視画像を生成する処理の流れを示すフローチャートである。
(実施形態2)
実施の形態1にかかるユーザーインタフェース制御装置では、ディスプレイに平面視表示した左目用画像上で、グラフィックパーツを配置する平面位置がポインティングデバイス等により指定されると、左目用画像のグラフィックパーツの配置範囲に存在する被写体の深度を考慮して、被写体より前方や後方の深度、あるいは被写体と同じ深度等をグラフィックパーツの配置可能な深度として選択肢により提示した。
(補足)
なお、上記の実施の形態に基づいて説明してきたが、本発明は上記の実施の形態に限定されないことはもちろんである。以下のような場合も本発明に含まれる。
(r)上記実施の形態1では、グラフィックパーツとして花のマークを例に挙げたが、グラフィックパーツが吹き出しの場合には、顔認識機能を利用して、口の領域の探索し、口に吹き出しの先端がくるように、かつ、被写体である顔を隠さないように配置してもよい。
20 スピーカ
30 GPS
40 センサ
50 タッチパネル
60 マイク
70 記録媒体
100 処理部
101、201 操作入力受付部
102 制御部
103、203 深度情報算出部
104、204 深度情報保存部
105、206 グラフィック情報取得部
106、205 深度情報解析部
107、207 深度設定提示部
108、208 ステレオ画像生成部
109、209 出力部
111 GUI提示部
112 伸縮表示部
113 深度決定部
114 シフト量取得部
115 画像合成部
200 ディスプレイ
202 グラフィック重畳制御部
211 GUI提示部
212 伸縮表示部
213 深度決定部
214 領域提示部
300 ユーザーインタフェース表示装置
1201 領域分割部
Claims (16)
- 立体視画像にグラフィックを合成する際に、グラフィックを配置する奥行き方向の深度を設定するためのユーザーインタフェースを提供するユーザーインタフェース制御装置であって、
立体視画像を構成する一方の視点画像上にグラフィックを配置した場合に、グラフィックが占める範囲を特定する平面位置特定手段と、
前記特定した範囲において、前記一方の視点画像に写る被写体の深度を取得する視点画像深度取得手段と、
前記取得した深度を示す選択肢と、前記取得した深度とは異なるグラフィックを配置可能な他の深度を示す選択肢とを提示する提示手段と
を備えることを特徴とするユーザーインタフェース制御装置。 - 前記取得した深度を示す選択肢は、前記グラフィックが占める範囲に写る被写体で最も手前に位置するものの深度を示し、
前記グラフィックを配置可能な他の深度を示す選択肢は、前記最も手前に位置する被写体の深度よりも更に手前側の深度を示す
ことを特徴とする請求項1記載のユーザーインタフェース制御装置。 - 前記一方の視点画像の前記特定した範囲に、前記最も手前に位置する被写体に加えて他の被写体が存在し、且つ、2つの被写体間で深度が閾値を超えて異なる場合、提示手段は更に、前記2つの被写体の深度の中間の深度を示す選択肢を提示する
ことを特徴とする請求項2記載のユーザーインタフェース制御装置。 - 前記複数の選択肢のうちの何れかの選択を受け付ける受付手段と、
前記選択肢の選択を受け付けた後に、ユーザからの決定指示を受けるまで前記グラフィックのサイズを繰り返し変化させて表示する伸縮表示手段と、
前記決定指示を受けた時点でグラフィックを拡大して表示していた場合、前記選択された選択肢の示す深度よりも手前側の深度を、グラフィックを配置する深度に決定し、前記決定指示を受けた時点でグラフィックを縮小して表示していた場合、前記選択された選択肢の示す深度よりも奥側の深度を、グラフィックを配置する深度に決定する深度決定手段と
を更に備えることを特徴とする請求項3記載のユーザーインタフェース制御装置。 - 深度決定手段は、2つの被写体の深度の中間の深度を示す選択肢が選択された場合に、前記2つの被写体のうち手前側に位置する被写体の深度を、伸縮表示手段が最も拡大して表示したグラフィックのサイズに対応付け、前記2つの被写体のうち奥側に位置する被写体の深度を、伸縮表示手段が最も縮小して表示したグラフィックのサイズに対応付けることで、前記決定指示を受けた時点でのグラフィックのサイズに応じた深度を決定する
ことを特徴とする請求項4記載のユーザーインタフェース制御装置。 - 深度決定手段は、前記グラフィックが占める範囲において前記選択された選択肢の示す深度より奥側に何れかの被写体が存在する場合、当該奥側に位置する被写体の深度を、伸縮表示手段が最も小さく表示したグラフィックのサイズに対応付けることで、前記決定指示を受けた時点でのグラフィックのサイズに応じた深度を決定する
ことを特徴とする請求項4記載のユーザーインタフェース制御装置。 - 深度決定手段は、前記グラフィックが占める範囲において前記選択された選択肢の示す深度より手前側に何れかの被写体が存在する場合、当該手前側に位置する被写体の深度を、伸縮表示手段が最も大きく表示したグラフィックのサイズに対応付け、前記グラフィックが占める範囲において前記選択された選択肢の示す深度より手前側に被写体が存在しない場合、前記選択された選択肢の示す深度よりも手前側の所定の深度を、伸縮表示手段が最も大きく表示したグラフィックのサイズに対応付けることで、前記決定指示を受けた時点でのグラフィックのサイズに応じた深度を決定する
ことを特徴とする請求項4記載のユーザーインタフェース制御装置。 - 前記決定した深度で立体視効果を生じさせるための視差を算出し、当該視差を画素数に変換することでシフト量を取得するシフト量取得手段と、
前記一方の視点画像に対して前記平面位置特定手段で特定した範囲にグラフィックを合成し、立体視画像を構成する他方の視点画像に対して前記平面位置特定手段で特定した範囲から前記シフト量だけ水平方向にシフトした範囲にグラフィックを合成する画像合成手段と
を更に備えることを特徴とする請求項4記載のユーザーインタフェース制御装置。 - 視点画像深度取得手段は、立体視画像を構成する前記一方の視点画像と他方の視点画像とのステレオマッチングによって、前記被写体の深度を取得する
ことを特徴とする請求項1記載のユーザーインタフェース制御装置。 - 立体視表示する際の深度が隣接する領域と閾値を超えて異なる複数の領域に、前記一方の視点画像を区分する領域区分手段と、
区分した複数の領域を提示する領域提示手段と、
提示した領域の何れかの選択を受ける領域受付手段と
をさらに備え、
前記平面位置特定手段は、前記選択された領域の少なくとも一部を含むように、前記グラフィックが占める範囲を特定する
ことを特徴とする請求項1記載のユーザーインタフェース制御装置。 - 前記領域提示手段は、隣接する領域を異なる色で表示することにより、区分した複数の領域を提示する
ことを特徴とする請求項10記載のユーザーインタフェース制御装置。 - 前記領域提示手段は、各領域に異なるテキストを付加して表示することにより、区分した複数の領域を提示する
ことを特徴とする請求項10記載のユーザーインタフェース制御装置。 - 領域区分手段による前記一方の視点画像の区分では、前記一方の視点画像の画素間で輝度が鋭敏に変化しているエッジまたはエッジの交点の抽出により各領域の境界を特定し、
立体視表示する際の深度には、立体視画像を構成する前記一方の視点画像と他方の視点画像とのステレオマッチングによって得られる各画素の深度を用いる
ことを特徴とする請求項10記載のユーザーインタフェース制御装置。 - 立体視画像にグラフィックを合成する際に、グラフィックを配置する奥行き方向の深度を設定するためのユーザーインタフェースを制御するユーザーインタフェース制御方法であって、
立体視画像を構成する一方の視点画像上にグラフィックを配置した場合に、グラフィックが占める範囲を特定する平面位置特定ステップと、
前記特定した範囲において、前記一方の視点画像に写る被写体の深度を取得する視点画像深度取得ステップと、
前記取得した深度を示す選択肢と、前記取得した深度とは異なり、グラフィックを配置可能な他の深度を示す選択肢とを提示する提示ステップと
を含むことを特徴とするユーザーインタフェース制御方法。 - 立体視画像にグラフィックを合成する際に、グラフィックを配置する奥行き方向の深度を設定するためのユーザーインタフェースを制御するコンピュータプログラムであって、
立体視画像を構成する一方の視点画像上にグラフィックを配置した場合に、グラフィックが占める範囲を特定する平面位置特定ステップと、
前記特定した範囲において、前記一方の視点画像に写る被写体の深度を取得する視点画像深度取得ステップと、
前記取得した深度を示す選択肢と、前記取得した深度とは異なり、グラフィックを配置可能な他の深度を示す選択肢とを提示する提示ステップと
をコンピュータに実行させることを特徴とするコンピュータプログラム。 - 立体視画像にグラフィックを合成する際に、グラフィックを配置する奥行き方向の深度を設定するためのユーザーインタフェースを提供するユーザーインタフェース制御装置の集積回路であって、
立体視画像を構成する一方の視点画像上にグラフィックを配置した場合に、グラフィックが占める範囲を特定する平面位置特定手段と、
前記特定した範囲において、前記一方の視点画像に写る被写体の深度を取得する視点画像深度取得手段と、
前記取得した深度を示す選択肢と、前記取得した深度とは異なり、グラフィックを配置可能な他の深度を示す選択肢とを提示する提示手段と
を備えることを特徴とする集積回路。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012556728A JPWO2013054462A1 (ja) | 2011-10-13 | 2012-08-10 | ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011226092 | 2011-10-13 | ||
JP2011226092 | 2011-10-13 | ||
JP2012556728A JPWO2013054462A1 (ja) | 2011-10-13 | 2012-08-10 | ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2013054462A1 true JPWO2013054462A1 (ja) | 2015-03-30 |
Family
ID=48081534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012556728A Ceased JPWO2013054462A1 (ja) | 2011-10-13 | 2012-08-10 | ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9791922B2 (ja) |
JP (1) | JPWO2013054462A1 (ja) |
CN (1) | CN103168316A (ja) |
WO (1) | WO2013054462A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9569695B2 (en) | 2012-04-24 | 2017-02-14 | Stmicroelectronics S.R.L. | Adaptive search window control for visual search |
GB2511526A (en) | 2013-03-06 | 2014-09-10 | Ibm | Interactor for a graphical object |
JP6369005B2 (ja) * | 2013-10-25 | 2018-08-08 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
RU2015145510A (ru) | 2013-03-26 | 2017-05-03 | Сейко Эпсон Корпорейшн | Наголовное устройство отображения, способ управления наголовным устройством отображения и система отображения |
JP5834253B2 (ja) | 2013-03-27 | 2015-12-16 | パナソニックIpマネジメント株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP5849206B2 (ja) * | 2013-03-27 | 2016-01-27 | パナソニックIpマネジメント株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
US20150052460A1 (en) * | 2013-08-13 | 2015-02-19 | Qualcomm Incorporated | Method for seamless mobile user experience between outdoor and indoor maps |
CN104469338B (zh) * | 2013-09-25 | 2016-08-17 | 联想(北京)有限公司 | 一种控制方法和装置 |
JP6351295B2 (ja) | 2014-02-21 | 2018-07-04 | キヤノン株式会社 | 表示制御装置及び表示制御方法 |
KR20150101915A (ko) * | 2014-02-27 | 2015-09-04 | 삼성전자주식회사 | 3차원 gui 화면의 표시 방법 및 이를 수행하기 위한 디바이스 |
US20160165207A1 (en) * | 2014-12-03 | 2016-06-09 | Kabushiki Kaisha Toshiba | Electronic device, method, and computer program product |
KR102423175B1 (ko) | 2017-08-18 | 2022-07-21 | 삼성전자주식회사 | 심도 맵을 이용하여 이미지를 편집하기 위한 장치 및 그에 관한 방법 |
CN109542293B (zh) * | 2018-11-19 | 2020-07-31 | 维沃移动通信有限公司 | 一种菜单界面设置方法及移动终端 |
JP7428687B2 (ja) | 2021-11-08 | 2024-02-06 | 株式会社平和 | 遊技機 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004145832A (ja) * | 2002-08-29 | 2004-05-20 | Sharp Corp | コンテンツ作成装置、コンテンツ編集装置、コンテンツ再生装置、コンテンツ作成方法、コンテンツ編集方法、コンテンツ再生方法、コンテンツ作成プログラム、コンテンツ編集プログラム、および携帯通信端末 |
JP2005078424A (ja) * | 2003-09-01 | 2005-03-24 | Omron Corp | 写真シール作成装置および写真シール作成方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8213711B2 (en) * | 2007-04-03 | 2012-07-03 | Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Method and graphical user interface for modifying depth maps |
US20090219383A1 (en) * | 2007-12-21 | 2009-09-03 | Charles Gregory Passmore | Image depth augmentation system and method |
JP4955596B2 (ja) * | 2008-03-21 | 2012-06-20 | 富士フイルム株式会社 | 画像出力方法、装置およびプログラム |
EP2357823A4 (en) * | 2008-12-02 | 2017-03-01 | Lg Electronics Inc. | 3d image signal transmission method, 3d image display apparatus and signal processing method therein |
KR101729023B1 (ko) * | 2010-10-05 | 2017-04-21 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
-
2012
- 2012-08-10 US US13/808,145 patent/US9791922B2/en not_active Expired - Fee Related
- 2012-08-10 CN CN2012800020451A patent/CN103168316A/zh active Pending
- 2012-08-10 WO PCT/JP2012/005109 patent/WO2013054462A1/ja active Application Filing
- 2012-08-10 JP JP2012556728A patent/JPWO2013054462A1/ja not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004145832A (ja) * | 2002-08-29 | 2004-05-20 | Sharp Corp | コンテンツ作成装置、コンテンツ編集装置、コンテンツ再生装置、コンテンツ作成方法、コンテンツ編集方法、コンテンツ再生方法、コンテンツ作成プログラム、コンテンツ編集プログラム、および携帯通信端末 |
JP2005078424A (ja) * | 2003-09-01 | 2005-03-24 | Omron Corp | 写真シール作成装置および写真シール作成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103168316A (zh) | 2013-06-19 |
US20130293469A1 (en) | 2013-11-07 |
US9791922B2 (en) | 2017-10-17 |
WO2013054462A1 (ja) | 2013-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013054462A1 (ja) | ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路 | |
US11756223B2 (en) | Depth-aware photo editing | |
EP3742332A1 (en) | Method and apparatus for training model for recognizing key points of hand, and method and apparatus for recognizing key points of hand | |
JP4966431B2 (ja) | 画像処理装置 | |
RU2587425C2 (ru) | Способ получения карты глубины изображения повышенного качества | |
CN111541907B (zh) | 物品显示方法、装置、设备及存储介质 | |
KR102461232B1 (ko) | 화상 처리 방법 및 장치, 전자 디바이스, 및 저장 매체 | |
US20190130648A1 (en) | Systems and methods for enabling display of virtual information during mixed reality experiences | |
JP2011509451A (ja) | 画像データのセグメント化 | |
JP7387434B2 (ja) | 画像生成方法および画像生成装置 | |
JP2010154422A (ja) | 画像処理装置 | |
JP5755571B2 (ja) | 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置 | |
TWI502546B (zh) | 推擠一模型通過二維場景的系統、方法和電腦程式商品 | |
JP5341126B2 (ja) | 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体 | |
US9767580B2 (en) | Apparatuses, methods, and systems for 2-dimensional and 3-dimensional rendering and display of plenoptic images | |
US11043019B2 (en) | Method of displaying a wide-format augmented reality object | |
US9177382B2 (en) | Image processing apparatus for forming synthetic image and image processing method for forming synthetic image | |
KR20070010306A (ko) | 촬영장치 및 깊이정보를 포함하는 영상의 생성방법 | |
CN111652792B (zh) | 图像的局部处理、直播方法、装置、设备和存储介质 | |
KR101632514B1 (ko) | 깊이 영상 업샘플링 방법 및 장치 | |
KR101451236B1 (ko) | 3차원 영상 변환 방법 및 그 장치 | |
US8817081B2 (en) | Image processing apparatus, image processing method, and program | |
CN106055108B (zh) | 一种虚拟触摸屏的操控方法和系统 | |
KR101626679B1 (ko) | 2d 영상으로부터 입체 영상을 생성하는 방법 및 이를 기록한 기록 매체 | |
EP3367328A1 (en) | A method, apparatus and computer program product for generating composite images with three-dimensional effects and reducing pole contraction lines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150918 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151222 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20160426 |