JP6362401B2 - 画像処理装置及び画像処理装置の制御方法 - Google Patents
画像処理装置及び画像処理装置の制御方法 Download PDFInfo
- Publication number
- JP6362401B2 JP6362401B2 JP2014095497A JP2014095497A JP6362401B2 JP 6362401 B2 JP6362401 B2 JP 6362401B2 JP 2014095497 A JP2014095497 A JP 2014095497A JP 2014095497 A JP2014095497 A JP 2014095497A JP 6362401 B2 JP6362401 B2 JP 6362401B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual object
- real
- enhancement
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
本発明は前述の問題点に鑑み、実物体とマスクモデルの配置及び形状の差をより正確に作業者に提示できるようにすることを目的とする。
実物体と3Dモデルの遮蔽関係を正しく表示するために、実物体と形状及び配置を近似させたマスクモデルを作成する必要がある。
しかし、実写映像において、(1)背景と実物体の色が似ている場合、(2)実物体がすべて同色の色で構成されている場合、など、実物体の輪郭や形状が視覚的に把握しづらい場面がある。形状や輪郭が視覚的に把握しづらいと、マスクモデルの表示/非表示を切り替えながら、実物体とマスクモデルの輪郭や形状を確認する必要があるため、調整に時間を要する。
図1(A)に示す視点から、床に配置されたコピー機の仮想の3Dモデル(以下、3Dモデルとする)100を観察する場合を想定する。単純に3Dモデルを実写映像に上書きすると、図1(A)のように、3Dモデル100の手前に実物体のキャビネット101が配置されているにも関わらず、仮想モデルの裏に隠れてしまう。
図2及び図3を用いて、本実施形態における画像処理装置の構成を示す。
HMD(Head Mounted Display)200には、撮像部201、表示部202が取り付けられ互いに固定されている。ユーザー及び作業者はこのHMD200を頭部に装着することで、表示部202に映る実写映像に仮想物体入力部207から入力した仮想物体102を重畳した複合現実空間画像(以下、MR画像とする)を見ることができる。
撮像画像の取得部203は、撮像部201において撮像された撮像画像を画像データとして取得する画像取得処理を行い、取得した画像データを保持する。
配置調整入力部210は、仮想物体配置形状記憶部206に格納されている座標変換行列の値を入力する。この値の入力は本実施形態では、キーボード1904(図19を参照)による入力を用いる。
終了信号入力部214は、画像処理装置212内の入力装置(例えばキーボード1904)から予め定められた終了信号を終了判定部213に入力する。
HMD200内にある表示部202では、画像合成部211で合成した画像が表示制御される。表示部202には、作業者の視点位置に対応した画像が表示される。
図9の(A)は、撮像画像の取得部203で取得した画像で、図9の(B)は表示部202に表示されている本実施形態における処理後の画像を表わしている。
本実施形態における処理の手順を図5のフローチャートを参照して説明する。
S501においては、仮想物体入力部207は、仮想物体配置形状記憶部206に仮想物体102の形状および位置姿勢情報を入力する。
S502においては、撮像部201は撮像された画像を撮像画像の取得部203に入力する。
S504においては、作業者入力部である配置調整入力部210において作業者からの入力があるかどうかを判定する。作業者入力があれば、マスクモデル102の配置を変更するための座標変換行列に値を入力し、更新するためS505へ処理を移す。作業者の入力が無い場合、座標変換行列を更新せずにS506へ処理を移す。
S506では、仮想物体投影領域決定部205は、仮想物体配置形状記憶部206から得られるマスクモデル102の3次元位置と、撮像部位置姿勢推定部204から得られる撮像部の位置姿勢情報から、マスクモデルを撮像部201の投影面に透視投影変換する。
S601では、仮想物体投影領域決定部205は、仮想物体配置形状記憶部206からマスクモデル102の頂点3次元位置情報、頂点間の接続情報、座標変換行列を取得する。
S602では、仮想物体投影領域決定部205は、取得したモデル座標系における頂点座標に対して座標変換行列を用いて世界座標系における頂点座標を得る。
S603では、仮想物体投影領域決定部205は、撮像部201の位置姿勢情報を用いて、世界座標系における頂点座標をカメラ座標系に変換する。
S605では、仮想物体投影領域決定部205は、透視投影変換した頂点座標を取得した頂点間の接続情報を用いて投影した頂点間を補間し、投影面におけるワイヤフレームの画像座標リスト(図9(B)の903の線)を生成する。生成したリストは、現実画像強調部208に出力して記録する。
S507では、仮想物体強調部209は、仮想物体配置形状記憶部206からマスクモデル102の頂点3次元位置情報、頂点間の接続情報、座標変換行列を取得する。そして、S602〜S605と同様の処理で仮想強調画像903としてワイヤフレームをレンダリングする。
S508では、現実画像強調部208は、撮像画像の取得部203から入力された撮像画像と強調範囲901から撮像画像のエッジを抽出して表示する、指定領域のエッジ処理を行う。
S701では、現実画像強調部208は、S605で生成した画像座標値リストを仮想物体投影領域決定部205から読み出す。
S702では、現実画像強調部208は、仮想物体投影領域決定部205から読み出した画像座標値リストに入っている画素と入っていない画素とで二値化し、二値化画像を生成する。
S705では、現実画像強調部208は、S704でエッジを抽出した撮像画像の画素を白で描画する。
S509では、画像合成部211は、現実画像強調部208で得られた現実強調画像902と仮想物体強調部209で得られた仮想強調画像903を入力し、現実強調画像902に仮想強調画像903を重畳する。
S511では、終了判定部213は処理を終了するためのフラグを確認する。フラグがYESになっていたら処理を終了し、NOになっていたらS502まで戻り処理を続ける。
さらに、撮像画像の実物体を強調するときに、撮像画像全体をエッジ強調するのではなく、マスクモデルのワイヤフレーム周辺のみをエッジ強調することで、撮像画像の全体像の把握が容易になり、画像のエッジ処理速度も短縮することが可能となる。
第1の実施形態では、実物体101が単純な形をしていて、仮想物体102の頂点が少なく、マスクモデルのワイヤフレームがシンプルな例を示した。しかし、3次元レーザースキャナ装置で物体を計測する場合のように、マスクモデルが多数の頂点から構成され、ワイヤフレームが画面上で細かく表示される形状では、効率的に配置調整することが難しい。
S801では、仮想物体強調部209は、仮想物体配置形状記憶部206からマスクモデル102の頂点3次元位置情報、頂点間の接続情報、座標変換行列を取得する。そして、S602〜S605と同様の処理で仮想強調画像903としてワイヤフレームをレンダリングする。
S803では、隣接画素のデプスバッファの差分が閾値以内であり、仮想物体における稜線を表す辺ではないと判定してワイヤフレームの描画色を強調しない灰色に設定する。
S805では、仮想物体強調部209は、S803およびS804で設定した色でワイヤフレームを描画する。
S509では、画像合成部211は、仮想物体強調部209で生成された2色で描画されたワイヤフレームを重畳して仮想強調画像903とする。本実施形態においては、作業者が強調する箇所が知覚できる色であれば黒以外の色でも適応可能である。重畳した結果が図11(B)となる。
現実強調画像902に仮想強調画像903を画像合成部211で重畳させたのが図12である。
第1の実施形態では、仮想物体102をワイヤフレーム表示させた仮想強調画像903と、強調範囲901のエッジを抽出した現実強調画像902を用いて形状及び位置の差を作業者に対して知覚させやすくしていた。そして、第1の実施形態では、実物体とマスクモデルを比較する上で重要な稜線部分の領域に限定してエッジを抽出し、現実強調画像902を表示した。
仮想物体強調部209は、S507において、マスクモデル102の三角形ポリゴンメッシュ形状の中から突起形状を判別し、突起形状部分を抽出する。例えば、第1の実施形態における実物体101の突起形状は、図13の1301A〜Gに示す部分である。
すなわち、マスクポリゴン上で、注目するサンプリング点におけるポリゴンの法線ベクトルと周囲のサンプリング点の法線ベクトルを用いて注目するサンプリング点の曲率を求める。次に、求めた曲率が予め定めた閾値以上である場合は、そのサンプリング点を突起形状と判定すればよい。ただし、本発明においては、サンプリング点の曲率を求めることに限定されるものではなく、マスクモデルの形状の中から突起部分を判別する方法であれば適応可能である。
図13では、第1の実施形態における実物体とマスクモデルに対して、本変形例の処理を適用することで強調表示される映像を示している。図13に示すように、突起形状周辺領域1302におけるマスクモデルのワイヤフレーム1301と、撮像画像における実物体101の突起物のエッジが強調表示される。
第1の実施形態では、実物体101とマスクモデル102の形状及び位置の差を作業者に知覚させるために、実物体101のエッジを強調した現実強調画像902に仮想強調画像903を重畳して表示した。しかし、画像に映り込む実物体101及びマスクモデル102が比較的小さい場合、図18(A)のようにエッジを表示させただけでは形状及び位置の差を作業者に知覚させにくい。
図15は、本実施形態における画像処理装置の処理の詳細を示すフローチャートである。図15のフローチャートにおいて、S1501及びS1502以外の処理は、図5のフローチャートの処理と同様であるので、同じステップ番号を付して説明を省略する。
S1601では、仮想物体強調部209は、撮像部位置姿勢推定部204で推定した撮像部位置姿勢と、仮想物体配置形状記憶部206のマスクモデル102の情報とに基づいてワイヤフレームを描画する。そして、撮像部201の投影面におけるマスクモデルのワイヤフレーム投影画像を生成する。
S1603では、仮想物体強調部209は、ワイヤフレーム投影画像にS1602で検出した直線の位置及び傾きを参照して、ワイヤフレームの直線に沿って画像全体へ延長する延長線1802A〜Eを描画することで仮想強調画像903を生成する。
S1502では、現実画像強調部208は、撮像画像に映る実物体101の直線部分を検出し、延長線を描画して補助線1801A〜Eを生成する。本ステップでは、撮像画像全体の中でエッジを抽出して、抽出したエッジの中に直線が含まれているか否かを検出し、延長線1802A〜Eを描画して補助線を生成する。
S1701では、現実画像強調部208は、撮像画像の取得部203から取得した撮像画像のエッジを抽出する。
S1702では、現実画像強調部208は、抽出したエッジの中から直線部分を検出する。
S1703では、現実画像強調部208は、撮像画像に検出した直線を画像全体へ延長する延長線を重畳し現実強調画像902を作成する。
本発明においては、第1の実施形態(第1の変形例、第2の変形例を含む)および第2の実施形態に係る強調表示を独自に提示することに限定されるものではなく、各実施形態における強調表示を組み合わせて実施してもよい。
すなわち、第1の実施形態のマスクモデル102のワイヤフレームと、ワイヤフレーム近辺の撮像画像のエッジを強調して表示する。同時に、第2の実施形態である撮像画像から抽出したエッジから直線部分を検出して補助線1801を重畳し、マスクモデル102のワイヤフレームから直線を検出して延長線1802を描画し、補助線として重畳してもよい。
PC1900は、CPU1901、RAM1902、ROM1903、キーボード1904、マウス1905、表示装置1906、外部記憶装置1907、記憶媒体ドライブ1908、I/F1909、システムバス1910を備えている。
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
201 撮像部
202 表示部
203 撮像画像の取得部
204 撮像部位置姿勢推定部
205 仮想物体投影領域決定部
206 仮想物体配置部
207 仮想物体入力部
208 現実画像強調部
209 仮想物体強調部
210 配置調整入力部
211 画像合成部
212 画像処理装置
Claims (10)
- 撮像手段によって撮像された現実空間の画像を取得する画像取得手段と、
仮想物体を入力する仮想物体入力手段と、
前記撮像手段の位置及び姿勢情報を推定する撮像部位置姿勢推定手段と、
前記撮像部位置姿勢推定手段から得られた位置及び姿勢情報によって前記仮想物体を現実空間上の3次元位置に配置する仮想物体配置手段と、
前記取得した現実空間の画像の中で輝度値が不連続に変化している画素を抽出し、抽出した画素を強調して現実強調画像を生成する現実画像強調手段と、
前記仮想物体配置手段によって現実空間上の3次元位置に配置された仮想物体を強調して仮想強調画像を生成する仮想物体強調手段と、
前記現実画像強調手段によって生成された現実強調画像と、前記仮想物体強調手段によって生成された仮想強調画像とを合成する画像合成手段と、
前記画像合成手段によって得られた画像を表示手段に表示させる表示制御手段とを備えることを特徴とする画像処理装置。 - 前記現実空間上の3次元位置に配置された前記仮想物体の位置姿勢情報を作業者が入力する配置調整入力手段をさらに有することを特徴とする請求項1に記載の画像処理装置。
- 前記現実画像強調手段は、二値化画像の中で画素が直線に並んでいる箇所を抽出し、直線の延長線を補助線として強調して提示することを特徴とする請求項1または2に記載の画像処理装置。
- 前記仮想物体強調手段は、仮想物体をワイヤフレーム表示にすることを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。
- 前記仮想物体強調手段は、仮想物体の突起形状部分を検出し、突起形状部分のワイヤフレーム表示の色を変更して強調することを特徴とする請求項4に記載の画像処理装置。
- 前記仮想物体強調手段は、仮想物体を描画したときの隣接画素のデプスバッファの差分を検出し、差分が閾値を超える画素のワイヤフレーム表示の色を変更して強調することを特徴とする請求項4または5に記載の画像処理装置。
- 前記仮想物体強調手段は、仮想物体のワイヤフレームの直線を延長し、補助線として強調して提示することを特徴とする請求項4〜6の何れか1項に記載の画像処理装置。
- 撮像手段によって撮像された現実空間の画像を取得する画像取得工程と、
仮想物体を入力する仮想物体入力工程と、
前記撮像手段の位置及び姿勢情報を推定する撮像部位置姿勢推定工程と、
前記撮像部位置姿勢推定工程から得られた位置及び姿勢情報によって前記仮想物体を現実空間上の3次元位置に配置する仮想物体配置工程と、
前記取得した現実空間の画像の中で輝度値が不連続に変化している画素を抽出し、抽出した画素を強調して現実強調画像を生成する現実画像強調工程と、
前記仮想物体配置工程において現実空間上の3次元位置に配置された仮想物体を強調して仮想強調画像を生成する仮想物体強調工程と、
前記現実画像強調工程において生成された現実強調画像と、前記仮想物体強調工程において生成された仮想強調画像とを合成する画像合成工程と、
前記画像合成工程において得られた画像を表示手段に表示させる表示制御工程とを備えることを特徴とする画像処理装置の制御方法。 - 撮像手段によって撮像された現実空間の画像を取得する画像取得工程と、
仮想物体を入力する仮想物体入力工程と、
前記撮像手段の位置及び姿勢情報を推定する撮像部位置姿勢推定工程と、
前記撮像部位置姿勢推定工程から得られた位置及び姿勢情報によって前記仮想物体を現実空間上の3次元位置に配置する仮想物体配置工程と、
前記取得した現実空間の画像の中で輝度値が不連続に変化している画素を抽出し、抽出した画素を強調して現実強調画像を生成する現実画像強調工程と、
前記仮想物体配置工程において現実空間上の3次元位置に配置された仮想物体を強調して仮想強調画像を生成する仮想物体強調工程と、
前記現実画像強調工程において生成された現実強調画像と、前記仮想物体強調工程において生成された仮想強調画像とを合成する画像合成工程と、
前記画像合成工程において得られた画像を表示手段に表示させる表示制御工程とをコンピュータに実行させることを特徴とするプログラム。 - 請求項9に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014095497A JP6362401B2 (ja) | 2014-05-02 | 2014-05-02 | 画像処理装置及び画像処理装置の制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014095497A JP6362401B2 (ja) | 2014-05-02 | 2014-05-02 | 画像処理装置及び画像処理装置の制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015212891A JP2015212891A (ja) | 2015-11-26 |
JP2015212891A5 JP2015212891A5 (ja) | 2017-03-30 |
JP6362401B2 true JP6362401B2 (ja) | 2018-07-25 |
Family
ID=54697118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014095497A Active JP6362401B2 (ja) | 2014-05-02 | 2014-05-02 | 画像処理装置及び画像処理装置の制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6362401B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10223589B2 (en) * | 2015-03-03 | 2019-03-05 | Cognex Corporation | Vision system for training an assembly system through virtual assembly of objects |
JP6866616B2 (ja) * | 2016-11-17 | 2021-04-28 | 富士通株式会社 | 重畳画像生成プログラム、重畳画像生成方法、および情報処理装置 |
JP6827134B2 (ja) * | 2019-03-18 | 2021-02-10 | Scsk株式会社 | 生成システム、及び生成プログラム |
WO2024024037A1 (ja) * | 2022-07-28 | 2024-02-01 | 楽天モバイル株式会社 | 拡張現実画像を生成するための画像処理 |
-
2014
- 2014-05-02 JP JP2014095497A patent/JP6362401B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015212891A (ja) | 2015-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10701332B2 (en) | Image processing apparatus, image processing method, image processing system, and storage medium | |
JP5013961B2 (ja) | 位置姿勢計測装置及びその制御方法 | |
JP4537104B2 (ja) | マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法 | |
JP5777507B2 (ja) | 情報処理装置、情報処理方法、及びそのプログラム | |
KR100920225B1 (ko) | 영상을 이용한 3차원 그래픽 모델의 정확도 측정 방법 및장치 | |
JP5818857B2 (ja) | 情報処理装置およびその制御方法 | |
WO2013069360A1 (ja) | 情報処理装置、表示制御方法、およびプログラム | |
JP2014106543A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2013235537A (ja) | 画像作成装置、画像作成プログラム、及び記録媒体 | |
US9224245B2 (en) | Mesh animation | |
US11490062B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JPWO2016151691A1 (ja) | 画像処理装置、画像処理システム、画像処理方法及びプログラム | |
JP2005107969A5 (ja) | ||
US20150269759A1 (en) | Image processing apparatus, image processing system, and image processing method | |
JP6362401B2 (ja) | 画像処理装置及び画像処理装置の制御方法 | |
JP5349224B2 (ja) | 画像処理装置及び画像処理方法 | |
JP2016071645A (ja) | オブジェクト3次元モデル復元方法、装置およびプログラム | |
JP2021056679A (ja) | 画像処理装置、方法及びプログラム | |
WO2021110051A1 (en) | Method and system for associating device coordinate systems in a multi‐person ar system | |
KR20130117668A (ko) | 3차원 볼륨 데이터 생성 방법 | |
JPH0981737A (ja) | 三次元物体モデル生成方法 | |
JP2008299670A (ja) | 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム | |
JP2015041233A (ja) | 画像処理装置およびその方法 | |
EP4050400B1 (en) | Display apparatuses and methods incorporating image masking | |
JP2004252815A (ja) | 画像表示装置、画像表示方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180206 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180529 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180626 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6362401 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |