JP6837279B2 - 3d表示のための装置及び方法 - Google Patents
3d表示のための装置及び方法 Download PDFInfo
- Publication number
- JP6837279B2 JP6837279B2 JP2015238715A JP2015238715A JP6837279B2 JP 6837279 B2 JP6837279 B2 JP 6837279B2 JP 2015238715 A JP2015238715 A JP 2015238715A JP 2015238715 A JP2015238715 A JP 2015238715A JP 6837279 B2 JP6837279 B2 JP 6837279B2
- Authority
- JP
- Japan
- Prior art keywords
- position information
- user
- eye
- time point
- eyes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 30
- 230000008859 change Effects 0.000 claims description 49
- 238000005070 sampling Methods 0.000 claims description 47
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000013459 approach Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims 2
- 238000009877 rendering Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 229910052573 porcelain Inorganic materials 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/376—Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S128/00—Surgery
- Y10S128/916—Ultrasound 3-D imaging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Description
120 目位置予測部
130 イメージ処理部
Claims (15)
- ユーザの目の位置情報を決定する目位置追跡部と、
サンプリング時間区間の間の前記位置情報の変化量に基づいて目標時点における前記ユーザの目の予測位置情報を生成する目位置予測部と、
前記予測位置情報により、3Dイメージをレンダリングするイメージ処理部と、
を含み、前記予測位置情報は、前記位置情報の変化量の加重平均に基づいて生成された1次予測位置情報と前記1次予測位置情報の変化量の加重平均に基づいて生成された2次予測位置情報とを含み、
前記イメージ処理部は、前記2次予測位置情報により、前記3Dイメージをレンダリングする、3D表示装置。 - 前記目位置予測部は、前記サンプリング時間区間の間の前記位置情報の変化量の加重平均と前記目標時点の位置情報との合計に基づいて前記目標時点の前記1次予測位置情報を生成する、
請求項1に記載の3D表示装置。 - 前記目位置予測部は、前記位置情報の変化量に加重値を付与し、前記加重値は、前記サンプリング時間区間内において前記目標時点に近いほど大きい値を有する、
請求項1又は2に記載の3D表示装置。 - 前記加重値は、前記目標時点で最大値を有する正規分布に基づいて決められる、
請求項3に記載の3D表示装置。 - 前記目位置予測部は、前記サンプリング時間区間の間のユーザの目の位置情報を格納する格納部を含み、
前記格納部は、新しい位置情報が受信されたことに応じて、前記格納部にすでに格納されている位置情報をシフトすることにより、前記新しい位置情報を前記格納部に格納する、
請求項1ないし4のうちの何れか1項に記載の3D表示装置。 - 前記イメージ処理部は、前記格納部に格納された位置情報の量が予め決められた基準以下である場合に、前記目標時点の位置情報に対応する3Dイメージをレンダリングする、
請求項5に記載の3D表示装置。 - 前記目位置追跡部は、ユーザのイメージに基づいて前記位置情報を決める、
請求項1ないし6のうちの何れか1項に記載の3D表示装置。 - サンプリング時間区間の間のユーザの目の位置情報を格納する格納部と、
前記位置情報の変化量に関する加重平均値を算出する演算部と、
前記加重平均値に基づいて目標時点のユーザの目の1次予測位置情報を生成する予測部と、
を含み、前記演算部は、前記サンプリング時間区間の1次予測位置情報の変化量に関する第2加重平均値を算出し、
前記予測部は、前記第2加重平均値に基づいて前記目標時点のユーザの目の2次予測位置情報を生成する、目の位置を予測する装置。 - 前記演算部は、前記位置情報の変化量に加重値を付与し、前記加重値は、前記サンプリング時間区間内において前記目標時点に近いほど大きい値を有する、
請求項8に記載の目の位置を予測する装置。 - 前記予測部は、前記サンプリング時間区間の間の前記位置情報の変化量の加重平均と前記目標時点の位置情報との合計に基づいて前記目標時点の前記1次予測位置情報を生成する、
請求項8又は9に記載の目の位置を予測する装置。 - 前記格納部は、新しい位置情報が受信されたことに応じて、前記格納部にすでに格納されている位置情報をシフトすることにより、前記新しい位置情報を前記格納部に格納する、
請求項8ないし10のうちの何れか1項に記載の目の位置を予測する装置。 - サンプリング時間区間の間のユーザの目の位置情報を受信するステップと、
前記位置情報の変化量に関する加重平均値を算出するステップと、
前記加重平均値に基づいて目標時点のユーザの目の1次予測位置情報を生成するステップと、
前記サンプリング時間区間の1次予測位置情報の変化量に関する第2加重平均値を算出するステップと、
前記第2加重平均値に基づいて前記目標時点のユーザの目の2次予測位置情報を生成するステップと、
を含む目の位置を予測する方法。 - 前記位置情報の変化量に関する加重平均値を算出するステップは、前記位置情報の変化量に加重値を付与するステップを含み、
前記加重値は、前記サンプリング時間区間内において前記目標時点に近いほど大きい値を有する、
請求項12に記載の目の位置を予測する方法。 - 請求項12又は13に記載の方法を装置のコンピュータに実行させるコンピュータプログラム。
- 請求項14に記載のコンピュータプログラムを記憶する記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140177448A KR102333267B1 (ko) | 2014-12-10 | 2014-12-10 | 눈 위치 예측 장치 및 방법 |
KR10-2014-0177448 | 2014-12-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016116221A JP2016116221A (ja) | 2016-06-23 |
JP6837279B2 true JP6837279B2 (ja) | 2021-03-03 |
Family
ID=54703832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015238715A Active JP6837279B2 (ja) | 2014-12-10 | 2015-12-07 | 3d表示のための装置及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10178380B2 (ja) |
EP (1) | EP3037922B1 (ja) |
JP (1) | JP6837279B2 (ja) |
KR (1) | KR102333267B1 (ja) |
CN (2) | CN108600731B (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102466996B1 (ko) | 2016-01-06 | 2022-11-14 | 삼성전자주식회사 | 눈 위치 예측 방법 및 장치 |
KR20180061956A (ko) * | 2016-11-30 | 2018-06-08 | 삼성전자주식회사 | 눈 위치 예측 방법 및 장치 |
CN107277376A (zh) * | 2017-08-03 | 2017-10-20 | 上海闻泰电子科技有限公司 | 摄像头动态拍摄的方法及装置 |
JP6524371B1 (ja) | 2018-07-06 | 2019-06-05 | 三菱電機株式会社 | フィルタリング装置、センサ装置、フィルタリング方法及びプログラム |
WO2020054193A1 (ja) * | 2018-09-11 | 2020-03-19 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
KR102608471B1 (ko) | 2018-11-06 | 2023-12-01 | 삼성전자주식회사 | 눈 추적 방법 및 장치 |
US20230067565A1 (en) * | 2019-09-30 | 2023-03-02 | Kyocera Corporation | Three-dimensional display device, three-dimensional display system, head-up display, and mobile object |
CN111309146B (zh) * | 2020-02-10 | 2022-03-29 | Oppo广东移动通信有限公司 | 图像显示方法及相关产品 |
CN111580665B (zh) * | 2020-05-11 | 2023-01-10 | Oppo广东移动通信有限公司 | 注视点预测方法、装置、移动终端及存储介质 |
US11938817B2 (en) | 2020-08-24 | 2024-03-26 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling head-up display based on eye tracking status |
JP2022094223A (ja) * | 2020-12-14 | 2022-06-24 | 京セラ株式会社 | 立体表示用コントローラ |
WO2023013130A1 (ja) * | 2021-08-05 | 2023-02-09 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03241574A (ja) * | 1990-02-20 | 1991-10-28 | Fujitsu Ltd | トラックアクセス制御方式 |
JP2001147267A (ja) * | 1999-11-19 | 2001-05-29 | Mitsubishi Electric Corp | 目標識別装置 |
JP4403626B2 (ja) * | 2000-03-22 | 2010-01-27 | ダイキン工業株式会社 | Srモータセンサレス制御方法およびその装置 |
JP4615103B2 (ja) * | 2000-08-25 | 2011-01-19 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | 組織運動追跡方法および超音波診断装置 |
KR100380994B1 (ko) | 2000-12-26 | 2003-04-26 | 한국전자통신연구원 | 응시지점을 따라가는 입체 영상 표시 장치 및 그 방법 |
JP2004029274A (ja) * | 2002-06-25 | 2004-01-29 | Fuji Xerox Co Ltd | 信号パターン評価装置、信号パターン評価方法及び信号パターン評価プログラム |
AU2003901528A0 (en) * | 2003-03-31 | 2003-05-01 | Seeing Machines Pty Ltd | Eye tracking system and method |
EP1602322A1 (en) | 2004-06-02 | 2005-12-07 | SensoMotoric Instruments GmbH | Method and apparatus for eye tracking latency reduction |
DE102007025069B4 (de) | 2007-05-21 | 2018-05-24 | Seereal Technologies S.A. | Holographisches Rekonstruktionssystem |
JP5217471B2 (ja) * | 2008-02-04 | 2013-06-19 | トヨタ自動車株式会社 | 車両用物体認識装置 |
US8374389B2 (en) * | 2009-02-06 | 2013-02-12 | Robert Bosch Gmbh | Iris deblurring method based on global and local iris image statistics |
US8203602B2 (en) * | 2009-02-06 | 2012-06-19 | Robert Bosch Gmbh | Depth-aware blur kernel estimation method for iris deblurring |
KR101729556B1 (ko) | 2010-08-09 | 2017-04-24 | 엘지전자 주식회사 | 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치 |
KR101729023B1 (ko) | 2010-10-05 | 2017-04-21 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US9690099B2 (en) * | 2010-12-17 | 2017-06-27 | Microsoft Technology Licensing, Llc | Optimized focal area for augmented reality displays |
CN102098524B (zh) | 2010-12-17 | 2011-11-16 | 深圳超多维光电子有限公司 | 跟踪式立体显示设备及跟踪式立体显示方法 |
KR101675961B1 (ko) | 2010-12-29 | 2016-11-14 | 삼성전자주식회사 | 적응적 부화소 렌더링 장치 및 방법 |
BR112013017234A2 (pt) * | 2011-01-04 | 2016-10-25 | Samsung Electronics Co Ltd | dispositivo de exibição 3d, e método de exibição 3d |
KR101165764B1 (ko) | 2011-05-31 | 2012-07-18 | 주식회사 넥서스칩스 | Eye-tracking을 이용한 컨버전스 자동 조절 장치 및 그 방법 |
US9414049B2 (en) | 2011-09-19 | 2016-08-09 | Écrans Polaires Inc./Polar Screens Inc. | Method and display for showing a stereoscopic image |
KR101874494B1 (ko) | 2011-11-25 | 2018-07-06 | 삼성전자주식회사 | 특징점의 삼차원 위치 계산 장치 및 방법 |
KR101953686B1 (ko) | 2011-11-30 | 2019-05-23 | 삼성전자주식회사 | 부화소를 렌더링하는 영상 처리 장치 및 방법 |
KR20130080355A (ko) | 2012-01-04 | 2013-07-12 | 삼성디스플레이 주식회사 | 시청자 위치 추적 방법 및 이를 적용한 표시 장치 |
CN103051909B (zh) | 2012-12-28 | 2015-08-12 | 北京邮电大学 | 用于裸眼3d显示的蒙版变换人眼跟踪方法 |
JP2014149796A (ja) * | 2013-02-04 | 2014-08-21 | Sharp Corp | 位置検出装置、画像処理装置及び位置検出方法 |
JP5942130B2 (ja) * | 2013-03-28 | 2016-06-29 | 株式会社ジャパンディスプレイ | 表示装置 |
US10432922B2 (en) * | 2014-03-19 | 2019-10-01 | Intuitive Surgical Operations, Inc. | Medical devices, systems, and methods using eye gaze tracking for stereo viewer |
-
2014
- 2014-12-10 KR KR1020140177448A patent/KR102333267B1/ko active IP Right Grant
-
2015
- 2015-07-09 US US14/795,562 patent/US10178380B2/en active Active
- 2015-11-23 EP EP15195893.1A patent/EP3037922B1/en active Active
- 2015-12-07 JP JP2015238715A patent/JP6837279B2/ja active Active
- 2015-12-10 CN CN201810915186.1A patent/CN108600731B/zh active Active
- 2015-12-10 CN CN201510909248.4A patent/CN105704471B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
KR20160070465A (ko) | 2016-06-20 |
CN108600731A (zh) | 2018-09-28 |
CN108600731B (zh) | 2020-07-14 |
EP3037922A1 (en) | 2016-06-29 |
KR102333267B1 (ko) | 2021-12-01 |
JP2016116221A (ja) | 2016-06-23 |
CN105704471A (zh) | 2016-06-22 |
EP3037922B1 (en) | 2020-07-22 |
CN105704471B (zh) | 2018-09-11 |
US10178380B2 (en) | 2019-01-08 |
US20160173863A1 (en) | 2016-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6837279B2 (ja) | 3d表示のための装置及び方法 | |
JP5729915B2 (ja) | 多視点映像表示装置、多視点映像表示方法及び記憶媒体 | |
US8810564B2 (en) | Apparatus and method for reducing three-dimensional visual fatigue | |
US9424469B2 (en) | Differing region detection system and differing region detection method | |
EP2693753A1 (en) | Method of converting 2-dimension images into 3-dimension images and display apparatus thereof | |
EP2549764A1 (en) | Input apparatus of display apparatus, display system and control method thereof | |
EP2547113A1 (en) | 3D image processing apparatus, implementation method thereof and computer-readable storage medium thereof | |
US10338879B2 (en) | Synchronization object determining method, apparatus, and system | |
CN105530502B (zh) | 根据立体相机拍摄的图像帧生成视差图的方法和装置 | |
US11244145B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP4892113B2 (ja) | 画像処理方法及び装置 | |
JP2013545149A (ja) | マルチビュー生成のためのレンダリング装置およびその方法 | |
KR20140080893A (ko) | 하이브리드 멀티-뷰 랜더링 방법 및 장치 | |
WO2013128765A1 (ja) | 画像処理装置、画像処理方法およびコンピュータプログラム | |
CN105447885B (zh) | 计算视差的方法和装置 | |
US20180150134A1 (en) | Method and apparatus for predicting eye position | |
JP2013027023A (ja) | 画像処理装置および画像処理方法、プログラム | |
JP6425534B2 (ja) | 画像処理装置及びその制御方法、並びにプログラム | |
KR20120073804A (ko) | 영상 처리 장치 및 방법 | |
KR101526868B1 (ko) | 스테레오 영상에 대한 다시점 영상 생성 장치 및 방법 | |
CN104471933A (zh) | 立体图片生成 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200811 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201028 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6837279 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |