JP7182976B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7182976B2 JP7182976B2 JP2018182093A JP2018182093A JP7182976B2 JP 7182976 B2 JP7182976 B2 JP 7182976B2 JP 2018182093 A JP2018182093 A JP 2018182093A JP 2018182093 A JP2018182093 A JP 2018182093A JP 7182976 B2 JP7182976 B2 JP 7182976B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- space
- user
- orientation
- keyframe
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Description
以下、添付図面を参照して、本実施形態を詳細に説明する。図1は本実施形態に係る情報処理装置の機能構成を示すブロック図である。情報処理装置1は、カメラ100、画像取得部101、マップ作成部102、位置姿勢推定部103、解析部104、観察空間設定部105、表示部106からなるMRシステムである。本実施形態では、カメラ100と表示部106が1つずつ備わっている構成として説明するが、それぞれを左目用と右目用に用意したステレオ構成としてもよい。また、本実施形態では、情報処理装置1は、カメラ100と表示部106をユーザーの目の付近に配置した頭部装着型として説明するが、各部の物理的な配置はこれに限定されるものではなく、タブレットやスマートフォン等のハンドヘルド型であってもよい。
第一の実施形態では、解析部104にて実施されるステップS508の処理について、ポリゴンメッシュ401のマップ済みの頂点の頂点色を予め設定された設定色2にする方法について説明した。しかし、本発明における頂点の頂点色の設定はこれに限るものではなく、マップに含まれるキーフレームの情報が反映された形式であればよい。
変形例1では、解析部104にて実施されるステップS508の処理について、マップ済みの頂点の頂点色を設定する方法を説明した。しかし、ポリゴンメッシュの形状を変更することでマップ済みの頂点とそれ以外の頂点を区別可能としてもよい。
第一の実施形態における解析部104は、観察空間設定部105にて設定された観察したい空間のうち、少なくとも1つのキーフレームによって撮影されている空間をマップ済みの空間として可視化するためのCGモデルを作成するものとして説明した。しかし、観察したい空間がキーフレームによって撮影されていたとしても、どの位置から撮影したものかによって、画像上ではその空間の見え方が大きく異なる可能性がある。例えば、撮影位置(カメラの光学中心の位置)が遠くなれば画像上での見え方が小さくなり、細かな特徴が失われる可能性がある。また、撮影位置が異なれば、空間を見る角度が変化し、画像上での見え方が大きく異なる可能性がある。そのため、本実施形態では、キーフレームの画像のカメラ位置も考慮したマップ済みの空間の可視化を行う。
第二の実施形態においては、ポリゴンメッシュの各頂点を、その頂点を可視と判定したキーフレームが所属する立ち位置領域に応じた頂点色に設定した。しかし、頂点によっては複数のキーフレームから可視であり、かつ、それらのキーフレームが所属する立ち位置領域が異なる場合がある。また、1つのポリゴンメッシュの各頂点の色が異なると、ユーザーにとって、カメラの位置姿勢推定を高精度に行える空間がわかりにくくなる可能性がある。そこで、解析部104は、カメラ100の位置がどの立ち位置領域に属するかを判定し、マップ作成部102で作成されたマップに含まれるキーフレームのうち、カメラ100と同じ立ち位置領域に属するキーフレームのみを処理対象としてもよい。具体的には、第二の実施形態におけるステップS801にて、カメラ100と同じ立ち位置領域に属するキーフレームのみを取得してもよい。これにより、表示部106で表示される複合現実画像が単純になり、ユーザーがマップ済みの空間を確認しやすくなる。
第一の実施形態および第二の実施形態における観察空間設定部105が保持する観察したい空間の具体的な設定方法は、ユーザーの視点(カメラ100の位置)を用いた入力方法でもよい。具体的には、観察空間設定部105には、ある時点(例えば、情報処理装置1の利用開始時)におけるカメラ100の位置を中心として、その周囲を囲う形状を設定してもよい。この場合、立ち位置領域の設定部601で設定される立ち位置領域の一例として、図7の703~706に示すように、平面を格子状に分割した領域を設定してもよい。ユーザーが自己を中心として周囲の空間を見渡すことが目的の場合には、上記の方法により、ユーザーの視点位置を中心として観察したい空間として設定することができる。
第一の実施形態および第二の実施形態における観察空間設定部105が保持する観察したい空間の具体的な設定方法は、ユーザーの視線を用いた入力方法でもよい。具体的な例として、観察空間設定部105にて、ユーザーの入力を受け付けることで観察空間を設定する方法を説明する。まず、解析部104にて、ユーザーの視点位置(カメラ100の位置)からユーザーの視線(カメラ100の光軸)方向に一定の距離(例えば、1.5m程度)にある点を求める。これを、ユーザーのポインティング点とし、表示部106にてポインティング点を描画することでユーザーに表示する。ユーザーは、カメラ100を動かすことでポインティング点を操作しながら、適時、ポインティング点の確定入力を行う。
Claims (8)
- 現実空間を撮影する撮像装置から画像を取得する取得手段と、
前記画像から前記撮像装置の現実空間における位置または姿勢を推定する推定手段と、
少なくとも1つ以上のキーフレームを含むマップを作成する作成手段と、
ユーザーの観察空間を設定する設定手段と、
前記観察空間と前記マップとに基づいて、前記観察空間のうち前記キーフレームを取得済である空間と取得済でない空間とを区別可能に可視化するためのモデルを生成する生成手段と、
前記モデルの画像と現実空間の画像との合成画像を表示手段に表示させる制御手段と、を有し、
前記キーフレームには、
前記キーフレームの画像と、
前記キーフレームの画像を撮影した前記撮像装置の位置または姿勢と、
前記キーフレームの画像から抽出される特徴に関する情報と、が含まれることを特徴とする情報処理装置。 - 前記モデルは、ポリゴンメッシュであり、
前記生成手段は、前記ポリゴンメッシュの前記キーフレームを取得済である部分と前記キーフレームを取得済でない部分とに対して、異なる色を設定することを特徴とする請求項1に記載の情報処理装置。 - 前記生成手段は、前記ポリゴンメッシュの前記キーフレームを取得済である部分に対して、ユーザーの立ち位置に応じて異なる色を設定することを特徴とする請求項2に記載の情報処理装置。
- 前記設定手段は、ユーザーの視点位置を中心として、予め設定された、位置、大きさ、または位置と大きさで前記観察空間を設定し、
前記ユーザーの視点位置は、前記推定手段で推定された位置または姿勢に基づいて設定されることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 - 前記設定手段は、ユーザーの視線を入力として前記観察空間の位置および大きさを設定し、
前記ユーザーの視線は、前記推定手段で推定された位置または姿勢に基づいて設定されることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 - 前記設定手段は、ユーザーが観察する仮想物体の形状、位置、大きさの少なくともいずれかに応じて、前記観察空間を設定することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 現実空間を撮影する撮像装置から画像を取得する取得工程と、
前記画像から前記撮像装置の現実空間における位置または姿勢を推定する推定工程と、
少なくとも1つ以上のキーフレームを含むマップを作成する作成工程と、
ユーザーの観察空間を設定する設定工程と、
前記観察空間と前記マップとに基づいて、前記観察空間のうち前記キーフレームを取得済である空間と取得済でない空間とを区別可能に可視化するためのモデルを生成する生成工程と、
前記モデルの画像と現実空間の画像との合成画像を表示手段に表示させる制御工程と、を有し、
前記キーフレームには、
前記キーフレームの画像と、
前記キーフレームの画像を撮影した前記撮像装置の位置または姿勢と、
前記キーフレームの画像から抽出される特徴に関する情報と、が含まれることを特徴とする情報処理方法。 - コンピュータを、
現実空間を撮影する撮像装置から画像を取得する取得手段と、
前記画像から前記撮像装置の現実空間における位置または姿勢を推定する推定手段と、
少なくとも1つ以上のキーフレームを含むマップを作成する作成手段と、
ユーザーの観察空間を設定する設定手段と、
前記観察空間と前記マップとに基づいて、前記観察空間のうち前記キーフレームを取得済である空間と取得済でない空間とを区別可能に可視化するためのモデルを生成する生成手段と、
前記モデルの画像と現実空間の画像との合成画像を表示手段に表示させる制御手段と、を有し、
前記キーフレームには、
前記キーフレームの画像と、
前記キーフレームの画像を撮影した前記撮像装置の位置または姿勢と、
前記キーフレームの画像から抽出される特徴に関する情報と、が含まれることを特徴とする情報処理装置として機能させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018182093A JP7182976B2 (ja) | 2018-09-27 | 2018-09-27 | 情報処理装置、情報処理方法、およびプログラム |
US16/573,410 US11490062B2 (en) | 2018-09-27 | 2019-09-17 | Information processing apparatus, information processing method, and storage medium |
CN201910898193.XA CN110956695B (zh) | 2018-09-27 | 2019-09-23 | 信息处理装置、信息处理方法和存储介质 |
EP19199496.1A EP3629302B1 (en) | 2018-09-27 | 2019-09-25 | Information processing apparatus, information processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018182093A JP7182976B2 (ja) | 2018-09-27 | 2018-09-27 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020052790A JP2020052790A (ja) | 2020-04-02 |
JP7182976B2 true JP7182976B2 (ja) | 2022-12-05 |
Family
ID=68069511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018182093A Active JP7182976B2 (ja) | 2018-09-27 | 2018-09-27 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11490062B2 (ja) |
EP (1) | EP3629302B1 (ja) |
JP (1) | JP7182976B2 (ja) |
CN (1) | CN110956695B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7187446B2 (ja) | 2016-05-27 | 2022-12-12 | ホロビルダー インコーポレイテッド | 拡張された仮想現実 |
JP7160183B2 (ja) * | 2019-03-28 | 2022-10-25 | 日本電気株式会社 | 情報処理装置、表示システム、表示方法、及びプログラム |
US11765333B1 (en) * | 2020-12-16 | 2023-09-19 | Apple Inc. | Systems and methods for improved transitions in immersive media |
US20230290037A1 (en) * | 2022-03-10 | 2023-09-14 | Streem, Llc | Real-time progressive texture mapping of a 3d mesh |
JP2024007754A (ja) * | 2022-07-06 | 2024-01-19 | キヤノン株式会社 | 情報処理システム、情報処理装置、端末装置および情報処理システムの制御方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013109677A (ja) | 2011-11-23 | 2013-06-06 | Fujitsu Ltd | 携帯型端末装置、エリア指定方法及びエリア指定プログラム |
JP2015001760A (ja) | 2013-06-13 | 2015-01-05 | 任天堂株式会社 | 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法 |
JP2015114905A (ja) | 2013-12-12 | 2015-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2018147095A (ja) | 2017-03-02 | 2018-09-20 | 富士通株式会社 | カメラ位置姿勢推定装置、方法およびプログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4926817B2 (ja) | 2006-08-11 | 2012-05-09 | キヤノン株式会社 | 指標配置情報計測装置および方法 |
JP5847924B2 (ja) | 2011-06-08 | 2016-01-27 | エンパイア テクノロジー ディベロップメント エルエルシー | 拡張現実表現のための二次元画像取込み |
US9177404B2 (en) | 2012-10-31 | 2015-11-03 | Qualcomm Incorporated | Systems and methods of merging multiple maps for computer vision based tracking |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9495761B2 (en) | 2013-11-04 | 2016-11-15 | The Regents Of The University Of California | Environment mapping with automatic motion model selection |
US11095869B2 (en) | 2015-09-22 | 2021-08-17 | Fyusion, Inc. | System and method for generating combined embedded multi-view interactive digital media representations |
JP7187446B2 (ja) | 2016-05-27 | 2022-12-12 | ホロビルダー インコーポレイテッド | 拡張された仮想現実 |
-
2018
- 2018-09-27 JP JP2018182093A patent/JP7182976B2/ja active Active
-
2019
- 2019-09-17 US US16/573,410 patent/US11490062B2/en active Active
- 2019-09-23 CN CN201910898193.XA patent/CN110956695B/zh active Active
- 2019-09-25 EP EP19199496.1A patent/EP3629302B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013109677A (ja) | 2011-11-23 | 2013-06-06 | Fujitsu Ltd | 携帯型端末装置、エリア指定方法及びエリア指定プログラム |
JP2015001760A (ja) | 2013-06-13 | 2015-01-05 | 任天堂株式会社 | 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法 |
JP2015114905A (ja) | 2013-12-12 | 2015-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2018147095A (ja) | 2017-03-02 | 2018-09-20 | 富士通株式会社 | カメラ位置姿勢推定装置、方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2020052790A (ja) | 2020-04-02 |
US20200107004A1 (en) | 2020-04-02 |
EP3629302A1 (en) | 2020-04-01 |
US11490062B2 (en) | 2022-11-01 |
CN110956695A (zh) | 2020-04-03 |
CN110956695B (zh) | 2023-09-15 |
EP3629302B1 (en) | 2023-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7182976B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
EP3057066B1 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
JP6340017B2 (ja) | 被写体と3次元仮想空間をリアルタイムに合成する撮影システム | |
Tomioka et al. | Approximated user-perspective rendering in tablet-based augmented reality | |
US20110210970A1 (en) | Digital mirror apparatus | |
Jia et al. | 3D image reconstruction and human body tracking using stereo vision and Kinect technology | |
JP7042561B2 (ja) | 情報処理装置、情報処理方法 | |
JP7164968B2 (ja) | 画像処理装置、画像処理装置の制御方法及びプログラム | |
JP6310149B2 (ja) | 画像生成装置、画像生成システム及び画像生成方法 | |
JP6319804B2 (ja) | 投影画像生成装置、投影画像生成方法および投影画像生成プログラム | |
JP2019008623A (ja) | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 | |
KR20110088995A (ko) | 3차원 모델 안에서 감시 카메라 영상을 시각화하기 위한 방법 및 시스템, 및 기록 매체 | |
JP2006252468A (ja) | 画像処理方法、画像処理装置 | |
US9117104B2 (en) | Object recognition for 3D models and 2D drawings | |
WO2016048960A1 (en) | Three dimensional targeting structure for augmented reality applications | |
JP6726016B2 (ja) | 情報処理装置、情報処理方法 | |
JP2004030408A (ja) | 三次元画像表示装置及び表示方法 | |
WO2020036114A1 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP6768400B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2015121892A (ja) | 画像処理装置、画像処理方法 | |
JP2016058043A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP6581348B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6948363B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6526605B2 (ja) | 仮想カメラ画像生成装置 | |
JP6482307B2 (ja) | 情報処理装置およびその方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221122 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7182976 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |