JP5791818B2 - 突出ベース視差マッピング - Google Patents
突出ベース視差マッピング Download PDFInfo
- Publication number
- JP5791818B2 JP5791818B2 JP2014537784A JP2014537784A JP5791818B2 JP 5791818 B2 JP5791818 B2 JP 5791818B2 JP 2014537784 A JP2014537784 A JP 2014537784A JP 2014537784 A JP2014537784 A JP 2014537784A JP 5791818 B2 JP5791818 B2 JP 5791818B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- range
- display
- protrusion
- protruding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013507 mapping Methods 0.000 title claims description 93
- 238000012545 processing Methods 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 25
- 238000009877 rendering Methods 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 description 44
- 238000012937 correction Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 10
- 229920006395 saturated elastomer Polymers 0.000 description 8
- 230000007704 transition Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 208000003164 Diplopia Diseases 0.000 description 2
- 206010052143 Ocular discomfort Diseases 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 208000029444 double vision Diseases 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 208000002173 dizziness Diseases 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Description
(dNS min,dNS max)非突出(NS)領域のために使用可能
(dS min,dS max) 突出(S)領域(例えば顔)のためのサブ範囲
h(d)+=1すなわち、h(d)=h(d)+1(pが非突出ピクセルである場合)
h(φ(d))+=1(pが突出ピクセルである場合)
HN=αHN−1+hN
ここで、αは、ショット内のフレームに関しては1に近似する又は等しく、ショットの移行直後は0に近似する又は等しい。一改良例において、αの値は最後のショット移行後のフレーム数に依存し、場合によっては、前回の又は次回のショット移行の推定確率、及び画像変化量を考慮する。
h(d)+=1(pが非突出ピクセルの場合)
上式は、値dのヒストグラム「ビン」が1増加されることを示す。突出領域内のピクセルに関しては、異なる変換が用いられ、ヒストグラムの異なるビンに加えられる。結合ヒストグラムは、マッピングを実行するために使用される。
h(4d)+=1(pが突出ピクセルの場合)
上式は、値4d(4×d)の「ビン」が1増加されることを示す。よって、突出ピクセルは、結合ヒストグラムに入力される前に補正関数によって変換される。上記補正関数により、突出ピクセル奥行き範囲は、元の値の4倍の値にワープされる。かかる計算により、突出ピクセル及び非突出ピクセルの結合ヒストグラムが形成され、突出ピクセルは第1入力変換を受け、非突出ピクセルは第2入力変換を受ける。突出ピクセルのための第1入力変換は、使用可能範囲に対するサブ範囲に応じて設定される補正関数を有する。
h(d)+=1−w(全てのpに関して)
h(φ(d))+=w(全てのpに関して)
φ(d)=CDF(d)x(dmax−dmin)+dmin=80*CDF(d)−40
φ’(d)<=maxgain
ここで、maxgainは、前述の歪みに限界を設定するために選択された定数である。
1.入力:
a.単純マッピングphi_naive、所望の出力範囲[d_min,d_max]、及び最大ゲイン制限maxgain
2.初期化:
a.phi’:=phi’_naive(単純マッピングの導関数から開始)
b.last:={}
3.反復:
a.saturated(飽和):={d|phi’(d)>=maxgain}
b.saturated=lastの場合、4.に進む
c.last:=saturated
d.saturated内の全てのdに関して、phi’(d):=maxgain(飽和領域に関してマッピングを調節)
e.correction(補正):=(sum(phi’_naive)−sum_saturated(phi’))/sum_not saturated(phi’))(不飽和領域の補正ゲインを計算)
f.saturated内の全てのdに関して、phi’(d):=correction phi’(不飽和領域に関してマッピングを調節)
4.完了
a.phi:=integrate phi’+d_min
b.phi:=phi+(d_max−phi(∞))/2(マッピング範囲を指定範囲内にセンタリング)
Claims (11)
- マルチ表示ビューに基づいて3Dディスプレイ上に3D画像データをレンダリングするための3次元(3D)画像信号を処理する方法であって、当該方法は、
−前記3D画像信号から、第1奥行き値を含む第1奥行きマップを引き出すステップと、
−前記3D画像信号から、前記3D画像データのある量内の突出を表す突出データを引き出すステップであって、前記突出は、突出範囲の奥行き値を有する突出要素を示す、ステップと、
−奥行き値の前記突出範囲内にある前記第1奥行き値がディスプレイ奥行きサブ範囲にマッピングされるよう、前記3D画像データの前記ある量に対して、前記突出データに応じて奥行きマッピング関数を決定するステップであって、前記ディスプレイ奥行きサブ範囲は、前記3Dディスプレイの使用可能奥行き範囲のサブ範囲であり、前記使用可能奥行き範囲にかけての少なくとも鮮明さを含む3D画質より高い3D画質を視聴者に提供する、ステップとを含み、当該奥行きマッピング関数を決定するステップは、
−突出要素の奥行き値である突出奥行き値及び非突出要素の奥行き値である非突出奥行き値の結合ヒストグラムを作成するステップであって、前記突出奥行き値は、前記結合ヒストグラムに加えられる前に第1入力変換重みを用いて重み付けされ、前記非突出奥行き値は、前記結合ヒストグラムに加えられる前に第2入力変換重みを用いて重み付けされ、前記第1入力変換重み及び前記第2入力変換重みは、前記ディスプレイ奥行きサブ範囲及び前記3Dディスプレイの前記使用可能奥行き範囲に依存する、ステップと、
−結合ヒストグラム奥行き範囲を決定するステップと、
−前記結合ヒストグラム奥行き範囲を前記3Dディスプレイの前記使用可能奥行き範囲内にマッピングするよう前記奥行きマッピング関数を決定するステップであって、前記第1入力変換重み及び前記第2入力変換重みは、互いに異なり、奥行き値の前記突出範囲内の前記第1奥行き値が、前記ディスプレイ奥行きサブ範囲にワープされるよう選択される、ステップとを含み、
−第2奥行きマップに基づいて表示ビューを生成するために、前記奥行きマッピング関数によって前記第1奥行きマップを第2奥行きマップに変換するステップ
をさらに含む、方法。 - −前記突出データは、画像のピクセルの突出の度合いを示す突出マップであるか、又は、
−前記突出データは、突出奥行き範囲である、
請求項1に記載の方法。 - 前記突出データを引き出すステップは、前記3D画像データの前記突出データを表すメタデータを前記3D画像信号から引き出すステップを含む、請求項1に記載の方法。
- 前記3D画像データの前記ある量は、3Dビデオ信号の期間であり、前記奥行きマッピング関数は、ある時間にわたる前記突出データに依存する、請求項1に記載の方法。
- 前記奥行きマッピング関数を決定するステップは、
−前記3Dビデオ信号の前記期間としてショットを決定し、前記ショットに対してマッピング関数を設定するステップか、又は、
−先読みを有する移動ウィンドウを使用し、前記ウィンドウに対してマッピング関数を設定するステップを含む、請求項4に記載の方法。 - マルチ表示ビューに基づいて3Dディスプレイ上に3D画像データをレンダリングするための3次元(3D)画像信号を処理するための3Dビデオデバイスであって、当該デバイスは、入力手段とビデオプロセッサとを含み、
前記入力手段は、
−前記3D画像信号から、第1奥行き値を含む第1奥行きマップを引き出すステップと、
−前記3D画像信号から、前記3D画像データのある量内の突出を表す突出データを引き出すステップであって、前記突出は、突出範囲の奥行き値を有する突出要素を示す、ステップとを実行し、
前記ビデオプロセッサは、
−奥行き値の前記突出範囲内にある前記第1奥行き値がディスプレイ奥行きサブ範囲にマッピングされるよう、前記3D画像データの前記ある量に対して、前記突出データに応じて奥行きマッピング関数を決定するステップであって、前記ディスプレイ奥行きサブ範囲は、前記3Dディスプレイの使用可能奥行き範囲のサブ範囲であり、前記使用可能奥行き範囲にかけての少なくとも鮮明さを含む3D画質より高い3D画質を視聴者に提供する、ステップとを実行し、当該奥行きマッピング関数を決定するステップは、
−突出要素の奥行き値である突出奥行き値及び非突出要素の奥行き値である非突出奥行き値の結合ヒストグラムを作成するステップであって、前記突出奥行き値は、前記結合ヒストグラムに加えられる前に第1入力変換重みを用いて重み付けされ、前記非突出奥行き値は、前記結合ヒストグラムに加えられる前に第2入力変換重みを用いて重み付けされ、前記第1入力変換重み及び前記第2入力変換重みは、前記ディスプレイ奥行きサブ範囲及び前記3Dディスプレイの前記使用可能奥行き範囲に依存する、ステップと、
−結合ヒストグラム奥行き範囲を決定するステップと、
−前記結合ヒストグラム奥行き範囲を前記3Dディスプレイの前記使用可能奥行き範囲内にマッピングするよう前記奥行きマッピング関数を決定するステップであって、前記第1入力変換重み及び前記第2入力変換重みは、互いに異なり、奥行き値の前記突出範囲内の前記第1奥行き値が、前記ディスプレイ奥行きサブ範囲にワープされるよう選択される、ステップとを含み、
−第2奥行きマップに基づいて表示ビューを生成するために、前記奥行きマッピング関数によって前記第1奥行きマップを前記第2奥行きマップに変換するステップをさらに実行する、デバイス。 - −前記ビデオプロセッサは、前記第2奥行きマップに基づいて前記表示ビューを生成するステップを含む、且つ/又は、
−前記デバイスは、視聴者の左目及び右目のための表示ビューを表示する3Dディスプレイを含む、且つ/又は、
−前記ビデオプロセッサは、前記3Dビデオデバイスに接続された3Dディスプレイデバイスからディスプレイ能力情報を取得することによって前記ディスプレイ奥行きサブ範囲を決定する、
請求項6に記載のデバイス。 - 前記突出データを引き出すステップは、前記3D画像データの前記突出データを表すメタデータを前記3D画像信号から引き出すステップを含む、請求項6に記載のデバイス。
- 前記入力手段は、光学記録担体からビデオ情報を引き出すための光学記録担体ユニットを有する、請求項6に記載のデバイス。
- コンピュータプログラムコード手段を含むコンピュータプログラムであって、前記コンピュータプログラムコード手段は、前記コンピュータプログラムがコンピュータ上で動作されたとき、プロセッサに、請求項1乃至5のいずれか一項に記載の方法のステップを実行させる、コンピュータプログラム。
- 請求項10に記載のコンピュータプログラムを含むコンピュータ読み取り可能媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161553984P | 2011-11-01 | 2011-11-01 | |
US61/553,984 | 2011-11-01 | ||
PCT/IB2012/055829 WO2013064938A1 (en) | 2011-11-01 | 2012-10-23 | Saliency based disparity mapping |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015503258A JP2015503258A (ja) | 2015-01-29 |
JP5791818B2 true JP5791818B2 (ja) | 2015-10-07 |
Family
ID=47358246
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014537784A Active JP5791818B2 (ja) | 2011-11-01 | 2012-10-23 | 突出ベース視差マッピング |
Country Status (9)
Country | Link |
---|---|
US (1) | US9041709B2 (ja) |
EP (1) | EP2774378B8 (ja) |
JP (1) | JP5791818B2 (ja) |
CN (1) | CN104025585B (ja) |
BR (1) | BR112014010060A8 (ja) |
IN (1) | IN2014CN03412A (ja) |
RU (1) | RU2580439C2 (ja) |
TW (1) | TWI574544B (ja) |
WO (1) | WO2013064938A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10095953B2 (en) * | 2009-11-11 | 2018-10-09 | Disney Enterprises, Inc. | Depth modification for display applications |
EP2509324A1 (en) * | 2011-04-08 | 2012-10-10 | Thomson Licensing | Method and apparatus for analyzing stereoscopic or multi-view images |
JP2013243626A (ja) * | 2012-05-23 | 2013-12-05 | Sony Corp | 信号処理装置、信号処理方法、およびプログラム |
US20140125763A1 (en) * | 2012-11-07 | 2014-05-08 | Robert Nathan Cohen | 3d led output device and process for emitting 3d content output for large screen applications and which is visible without 3d glasses |
US9232210B2 (en) | 2013-07-08 | 2016-01-05 | Nvidia Corporation | Mapping sub-portions of three-dimensional (3D) video data to be rendered on a display unit within a comfortable range of perception of a user thereof |
US9390508B2 (en) * | 2014-03-03 | 2016-07-12 | Nokia Technologies Oy | Method, apparatus and computer program product for disparity map estimation of stereo images |
JP6415179B2 (ja) * | 2014-08-20 | 2018-10-31 | キヤノン株式会社 | 画像処理装置、画像処理方法、および撮像装置並びにその制御方法 |
US20220147365A1 (en) * | 2015-01-21 | 2022-05-12 | Pure Storage, Inc. | Accelerating Segment Metadata Head Scans For Storage System Controller Failover |
KR102174258B1 (ko) | 2015-11-06 | 2020-11-04 | 삼성전자주식회사 | 무안경 3d 디스플레이 장치 및 그 제어 방법 |
CN109076200B (zh) * | 2016-01-12 | 2021-04-23 | 上海科技大学 | 全景立体视频系统的校准方法和装置 |
KR101736660B1 (ko) * | 2016-01-15 | 2017-05-17 | 세종대학교산학협력단 | 스테레오 3d 내비게이션 장치 및 이를 위한 세일리언시 기반의 카메라 파라미터 조절 방법 |
EP3252713A1 (en) * | 2016-06-01 | 2017-12-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for performing 3d estimation based on locally determined 3d information hypotheses |
JP6869112B2 (ja) * | 2017-06-07 | 2021-05-12 | 株式会社荏原製作所 | ポンプ点検システム |
US11391940B2 (en) | 2017-03-31 | 2022-07-19 | Ebara Corporation | Industrial endoscope, observation method, observation device, underwater machine, pump inspection system, underwater robot control system, and underwater robot control method |
US20180322689A1 (en) * | 2017-05-05 | 2018-11-08 | University Of Maryland, College Park | Visualization and rendering of images to enhance depth perception |
TWI628619B (zh) | 2017-05-17 | 2018-07-01 | 國立交通大學 | 立體影像產生方法及其裝置 |
US10776992B2 (en) * | 2017-07-05 | 2020-09-15 | Qualcomm Incorporated | Asynchronous time warp with depth data |
WO2019241785A1 (en) * | 2018-06-15 | 2019-12-19 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for dancification |
CN109600600B (zh) * | 2018-10-31 | 2020-11-03 | 万维科研有限公司 | 涉及深度图转换的编码器、编码方法以及三层表达式的存储方法和格式 |
TWI700670B (zh) * | 2019-03-05 | 2020-08-01 | 中國鋼鐵股份有限公司 | 三維深度資訊的轉換方法與電子裝置 |
CN111818319B (zh) * | 2019-04-10 | 2022-05-24 | 深圳市视觉动力科技有限公司 | 提高三维图像显示质量的方法和系统 |
WO2022018869A1 (ja) * | 2020-07-22 | 2022-01-27 | 日本電信電話株式会社 | マッピング関数調整装置、マッピング関数調整方法およびプログラム |
CN114998615B (zh) * | 2022-04-28 | 2024-08-23 | 南京信息工程大学 | 一种基于深度学习的协同显著性检测方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7161614B1 (en) | 1999-11-26 | 2007-01-09 | Sanyo Electric Co., Ltd. | Device and method for converting two-dimensional video to three-dimensional video |
JP2001320731A (ja) * | 1999-11-26 | 2001-11-16 | Sanyo Electric Co Ltd | 2次元映像を3次元映像に変換する装置及びその方法 |
GB0329312D0 (en) | 2003-12-18 | 2004-01-21 | Univ Durham | Mapping perceived depth to regions of interest in stereoscopic images |
CN101243694B (zh) * | 2005-08-19 | 2010-12-22 | 皇家飞利浦电子股份有限公司 | 立体显示装置 |
WO2011013030A1 (en) * | 2009-07-27 | 2011-02-03 | Koninklijke Philips Electronics N.V. | Combining 3d video and auxiliary data |
JP5444955B2 (ja) * | 2009-08-31 | 2014-03-19 | ソニー株式会社 | 立体画像表示システム、視差変換装置、視差変換方法およびプログラム |
US8537200B2 (en) * | 2009-10-23 | 2013-09-17 | Qualcomm Incorporated | Depth map generation techniques for conversion of 2D video data to 3D video data |
CN102598051B (zh) | 2009-10-30 | 2014-10-29 | 富士胶片株式会社 | 图像处理装置和图像处理方法 |
JP2011176800A (ja) * | 2010-01-28 | 2011-09-08 | Toshiba Corp | 画像処理装置、立体表示装置及び画像処理方法 |
US8565516B2 (en) * | 2010-02-05 | 2013-10-22 | Sony Corporation | Image processing apparatus, image processing method, and program |
RU2429513C1 (ru) * | 2010-04-20 | 2011-09-20 | Закрытое Акционерное Общество "Мегавижн" | Трехмерный дисплей |
US9485495B2 (en) * | 2010-08-09 | 2016-11-01 | Qualcomm Incorporated | Autofocus for stereo images |
JP5242667B2 (ja) * | 2010-12-22 | 2013-07-24 | 株式会社東芝 | マップ変換方法、マップ変換装置及びマップ変換プログラム |
-
2012
- 2012-10-23 BR BR112014010060A patent/BR112014010060A8/pt not_active Application Discontinuation
- 2012-10-23 JP JP2014537784A patent/JP5791818B2/ja active Active
- 2012-10-23 US US14/354,940 patent/US9041709B2/en active Active
- 2012-10-23 CN CN201280053632.3A patent/CN104025585B/zh active Active
- 2012-10-23 IN IN3412CHN2014 patent/IN2014CN03412A/en unknown
- 2012-10-23 RU RU2014121937/08A patent/RU2580439C2/ru not_active IP Right Cessation
- 2012-10-23 WO PCT/IB2012/055829 patent/WO2013064938A1/en active Application Filing
- 2012-10-23 EP EP12801634.2A patent/EP2774378B8/en active Active
- 2012-10-31 TW TW101140399A patent/TWI574544B/zh active
Also Published As
Publication number | Publication date |
---|---|
TWI574544B (zh) | 2017-03-11 |
RU2580439C2 (ru) | 2016-04-10 |
US20140313191A1 (en) | 2014-10-23 |
BR112014010060A8 (pt) | 2017-06-20 |
US9041709B2 (en) | 2015-05-26 |
JP2015503258A (ja) | 2015-01-29 |
EP2774378B1 (en) | 2015-10-07 |
WO2013064938A1 (en) | 2013-05-10 |
CN104025585B (zh) | 2016-06-01 |
BR112014010060A2 (pt) | 2017-06-13 |
EP2774378A1 (en) | 2014-09-10 |
CN104025585A (zh) | 2014-09-03 |
IN2014CN03412A (ja) | 2015-10-09 |
TW201330589A (zh) | 2013-07-16 |
EP2774378B8 (en) | 2015-11-18 |
RU2014121937A (ru) | 2015-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5791818B2 (ja) | 突出ベース視差マッピング | |
CA2723627C (en) | System and method for measuring potential eyestrain of stereoscopic motion pictures | |
JP6073307B2 (ja) | ディスプレイ用信号の生成方法及び装置 | |
JP5750505B2 (ja) | 立体映像エラー改善方法及び装置 | |
US8711204B2 (en) | Stereoscopic editing for video production, post-production and display adaptation | |
US20150085073A1 (en) | Quality metric for processing 3d video | |
US20130057644A1 (en) | Synthesizing views based on image domain warping | |
TW201432622A (zh) | 產生一關於一影像之深度圖 | |
JP2013172190A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP6715864B2 (ja) | 画像に対する深度マップを決定するための方法及び装置 | |
JP2012249038A (ja) | 画像信号処理装置、画像信号処理方法 | |
TWI678098B (zh) | 三維影像之視差的處理 | |
KR101629414B1 (ko) | 휴먼 팩터에 기초한 스테레오스코픽 이미지 추출 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20150128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5791818 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |