JP2021022321A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2021022321A
JP2021022321A JP2019140124A JP2019140124A JP2021022321A JP 2021022321 A JP2021022321 A JP 2021022321A JP 2019140124 A JP2019140124 A JP 2019140124A JP 2019140124 A JP2019140124 A JP 2019140124A JP 2021022321 A JP2021022321 A JP 2021022321A
Authority
JP
Japan
Prior art keywords
pixel
interest
image processing
image
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019140124A
Other languages
English (en)
Other versions
JP7345306B2 (ja
JP2021022321A5 (ja
Inventor
中川 真志
Shinji Nakagawa
真志 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019140124A priority Critical patent/JP7345306B2/ja
Priority to US16/938,519 priority patent/US11508083B2/en
Publication of JP2021022321A publication Critical patent/JP2021022321A/ja
Publication of JP2021022321A5 publication Critical patent/JP2021022321A5/ja
Application granted granted Critical
Publication of JP7345306B2 publication Critical patent/JP7345306B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 並列に処理可能な輪郭追跡技術を提供すること。【解決手段】 撮像画像における特定領域において非特定領域との境界部分における注目画素について、該非特定領域への方向ベクトルを求める。注目画素の方向ベクトルに基づき、注目画素と隣接する境界部分内の画素から1つを選択画素として選択する。注目画素から選択画素への方向を示す情報を、特定領域に対応する輪郭を示す情報として生成する。【選択図】 図1

Description

本発明は、画像中における被写体の輪郭追跡技術に関するものである。
多くの画像処理の中で従来から存在する輪郭追跡処理が使われている。輪郭追跡処理とは、輪郭抽出した結果に対して各輪郭点の次の輪郭点を算出する処理である。例えば、非特許文献1および非特許文献2では、画像から対象物体領域を抽出し、該抽出した対象物体領域の輪郭追跡を行っている。この輪郭追跡の結果を用いてフーリエ記述子による輪郭の特徴抽出を行うことで手形状や物体の識別を行うことができる。
また、特許文献1の複合現実感(MR)システムでは、現実物と3DCGモデルとの前後関係を考慮した画像を生成するために、注目物体の輪郭情報を用いて現実物の深度計測および3DCGモデル生成を行っている。
なお、輪郭追跡を行うためには、一般的には逐次処理が行われている。例えば、一般的な輪郭追跡処理では、対象物体領域を二値化した画像に対してラスタスキャンを行い、輪郭点が見つかる度に逐次的な処理でチェインコードの算出を行っている。また、非特許文献3に開示されている動的輪郭法では、最初に対象物体の近くに初期輪郭形状(真の輪郭とずれていても良い)を配置し、逐次処理によって真の輪郭に近づけていく。具体的には、輪郭点間の長さや角度を用いたエネルギー関数を定義し、エネルギー関数が最小になるまで輪郭点を繰り返し動かしていく。その結果、輪郭形状と輪郭追跡情報が同時に得ることができる。
特開2013−134706号公報
山崎太一、石井大祐、渡辺裕、"フーリエ記述子と色情報を用いた野菜識別手法"、情報処理学会研究報告、Vol.2012-AVM-79 No.27 立見ジェスチャユーザインタフェースのためのP型フーリエ記述子を用いた手の姿勢推定、計測自動制御学会、第283回研究集会、2013 Michael Kass, Andrew Witkin, and Eemetri Terzopoulos, "Snakes:Active Contour Models", International Journal of Computer Vision, 321-331(1988)
特許文献1のMRシステムでは、現実の手と3DCGモデルとの前後関係を考慮した画像を生成するために、手の輪郭情報を利用したステレオマッチングを行っている。具体的には、左右の画像の輪郭線を平滑化した平滑化輪郭線とエピポーラ線の交点に対してステレオマッチングを行うことで安定した対象物体の三次元位置計測を行っている。
なお、近年ではFPGAやGPUといった並列計算を得意とする計算機が利用されているが、輪郭追跡処理は一般的に逐次処理であり、多数の計算コアを効率よく使用できていない。非特許文献3のように領域抽出と輪郭追跡を同時に行うSnakesと呼ばれる動的輪郭法は、並列処理に適している一方で多数の繰り返し処理を要するためリアルタイム処理にはあまり向いていない。
また、動的輪郭法では輪郭点間の長さや角度のパラメータから定義したエネルギー関数を最小化するように輪郭形状を補正していくため、複雑な凹凸形状の場合には真の輪郭を得られないことがある。例えば、MRでは現実の手の3DCGモデルを生成する際に実写画像と一致させるために手の輪郭を使用しているが、正しい輪郭が得られない場合、指と指の間が結合してしまい、指の間のオクルージョン表現を正しく行えなくなることがある。物体認識でも同様に、結合により輪郭形状が大きく変わると物体認識が正しく行えない。本発明では、並列に処理可能な輪郭追跡技術を提供する。
本発明の一様態は、撮像画像における特定領域において非特定領域との境界部分における注目画素について、該非特定領域への方向ベクトルを求める計算手段と、前記注目画素の方向ベクトルに基づき、前記注目画素と隣接する前記境界部分内の画素から1つを選択画素として選択する選択手段と、前記注目画素から前記選択画素への方向を示す情報を、前記特定領域に対応する輪郭を示す情報として生成する生成手段とを備えることを特徴とする。
本発明の構成によれば、並列に処理可能な輪郭追跡技術を提供することができる。
システムの機能構成例を示すブロック図。 画像処理装置1000が1フレーム分の撮像画像から輪郭情報を生成するために行う処理のフローチャート。 撮像画像から抽出された被写体領域の一例を示す図。 図3(A)、(B)のそれぞれに示した画像領域に対して拡張処理を行った結果を示す図。 8近傍の拡張処理の必要性を説明するための図。 図4(A)、(B)のそれぞれの被写体領域に対して求めた方向ベクトルを示す図。 ステップS2050における処理の詳細を示すフローチャート。 図6(A)、(B)のそれぞれにおける画像領域を対象としてステップS2110の処理を行った結果を示す図。 図8(A)、(B)のそれぞれにおける画像領域を対象としてステップS2120の処理を行った結果を示す図。 図9(A)、(B)のそれぞれにおける画像領域を対象としてステップS2130の処理を行った結果を示す図。 輪郭情報の一例を示す図。 輪郭情報の一例を示す図。 輪郭追跡結果の一例を示す図。 輪郭追跡結果の一例を示す図。 画像処理装置1000に適用可能なコンピュータ装置のハードウェア構成例を示すブロック図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
本実施形態では、現実空間と仮想空間とを融合させた複合現実空間の画像(複合現実空間画像)を体験者に提供するシステムを例に取り説明する。このシステムでは、現実空間の撮像画像から体験者の手や体などの特定の被写体の輪郭を抽出し、該抽出した輪郭から該被写体の奥行き情報を生成する。そしてシステムは、該奥行き情報を参照することで該特定の被写体と仮想空間とが正しいオクルージョン表現で表現されている複合現実空間画像(仮想空間の画像と撮像画像との合成画像)を生成して体験者に提供する。
先ず、本実施形態に係るシステムの機能構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係るシステムは、撮像装置100、画像処理装置1000、表示装置200を有する。
先ず、撮像装置100について説明する。撮像装置100は現実空間の動画像を撮像し、該撮像した動画像における各フレームの画像(撮像画像)を画像処理装置1000に対して出力する。
次に、表示装置200について説明する。表示装置200は、画像処理装置1000から出力された複合現実空間画像を表示する。本実施形態では、撮像装置100および表示装置200は頭部装着型表示装置が有するものとし、該頭部装着型表示装置は複合現実空間を体験する体験者の頭部に装着されるものとする。しかし、撮像装置100および表示装置200を有する装置は頭部装着型表示装置に限らず、例えば、スマートフォンであっても良いし、ハンドヘルド型表示装置であっても良い。
次に、画像処理装置1000について説明する。取得部1010は、撮像装置100から出力された各フレームの画像(撮像画像)を取得し、該取得した撮像画像を記憶部1020に格納する。
記憶部1020は、取得部1010が取得した撮像画像を格納するためのメモリ装置である。なお、記憶部1020には、さらに、仮想空間に係るデータや、撮像画像から被写体の領域を抽出するために必要な情報が格納されている。
仮想空間に係るデータには、例えば、該仮想空間を構成する各仮想物体に係るデータ、該仮想空間中に設定される光源に係るデータなどが含まれている。仮想物体に係るデータには、例えば、該仮想物体の幾何形状を規定するデータ、該仮想物体の色を規定するデータなど、該仮想物体を描画するために必要なデータが含まれている。光源に係るデータには、例えば、光源の位置や方向、光の色などを規定するデータが含まれている。
抽出部1030は、記憶部1020から撮像画像を取得し、記憶部1020に格納されている「撮像画像から被写体の領域を抽出するために必要な情報」を用いて、該取得した撮像画像から被写体の領域を抽出する。領域膨張部1040は、抽出部1030が抽出した被写体の領域を膨張(拡張)させる。
算出部1050は、抽出部1030が抽出した被写体の領域を膨張(拡張)させた被写体領域において非被写体領域(被写体領域以外の領域)との境界部分(つまり、被写体領域の輪郭線)における注目画素について、該非被写体領域への方向ベクトルを求める。
算出部1060は、注目画素の方向ベクトルに基づき、該注目画素と隣接する境界部分内の画素から1つを選択画素として選択し、注目画素から選択画素への方向を示す情報を、被写体領域の輪郭を示す情報(輪郭情報)として生成する。本実施形態では、算出部1060は、輪郭情報として、注目画素(輪郭点)ごとに、該注目画素について選択した選択画素(該輪郭点の次の輪郭点)の位置を示す情報を登録したチェインコード画像を生成する。
推定部1070は、算出部1060が生成したチェインコード画像を用いて、撮像画像における各輪郭点の画素に対応する奥行き値を推定する。撮像画像における各輪郭点の画素に対応する奥行き値をチェインコード画像を用いて推定する方法には様々な方法を適用することができるが、例えば、上記の非特許文献3に開示されている方法を用いることができる。
生成部1080は、輪郭情報が規定する輪郭点群で囲まれた領域に対応する3次元モデルをポリゴンで構成する場合のそれぞれのポリゴンの頂点位置を、「各輪郭点の画素に対応する奥行き値」と、撮像装置100のカメラパラメータと、を用いて求める。例えば、輪郭情報が規定する輪郭点群で囲まれた領域を制約付きドロネー三角分割でポリゴン化してもよいし、グラフィックスカードで行われるようなテセレーションアルゴリズムで、輪郭情報が規定する輪郭点群で囲まれた領域からポリゴンを生成してもよい。
生成部1090は、生成部1080が求めた3次元モデルの各ポリゴンの頂点位置で深度バッファを更新する。そして生成部1090は、記憶部1020から取得した撮像画像上に、該深度バッファを参照しながら仮想空間の画像を描画することで、複合現実空間を生成する。これにより、仮想空間を正しいオクルージョン表現で撮像画像上に描画することができる。なお、仮想空間の画像は、記憶部1020に格納されている仮想空間に係るデータに基づいて構築される仮想空間を体験者の視点から見た画像である。体験者の視点の位置姿勢は、撮像画像中の自然特徴や人工的に現実空間中に配された指標などを用いる周知の技術により求めても良いし、センサを用いた計測により取得しても良い。
そして生成部1090は、生成した複合現実空間画像を表示画像として表示装置200に対して出力する。なお、複合現実空間画像の出力先は表示装置200に限らず、他の表示装置やクライアント端末装置であっても良い。
次に、画像処理装置1000が1フレーム分の撮像画像から輪郭情報を生成するために行う処理について、図2のフローチャートに従って説明する。画像処理装置1000は、撮像装置100から出力された各フレームの撮像画像について、図2のフローチャートに従った処理を行う。
ステップS2010では、取得部1010は、撮像装置100から出力された撮像画像を取得し、該取得した撮像画像を記憶部1020に格納する。ステップS2020では、抽出部1030は、記憶部1020から撮像画像を取得し、記憶部1020に格納されている「撮像画像から被写体の領域を抽出するために必要な情報」を用いて、該取得した撮像画像から被写体の領域を被写体領域として抽出する。撮像画像から被写体領域を抽出する方法には様々な方法があり、本実施形態では特定の抽出方法に限らない。
例えば、撮像画像から被写体色(被写体の色を示す情報として予め画像処理装置1000に登録されている色情報が示す色)の領域を被写体領域として抽出しても良い。この場合、被写体色を示す色情報を「撮像画像から被写体の領域を抽出するために必要な情報」として記憶部1020に予め格納しておき、抽出部1030は、この色情報を用いて撮像画像から被写体領域を抽出する。
また例えば、機械学習により事前に被写体の特徴を学習した識別器を用いて撮像画像から被写体領域を抽出するようにしても良い。この場合、上記の学習の結果を示す情報を「撮像画像から被写体の領域を抽出するために必要な情報」として記憶部1020に予め格納しておき、抽出部1030は、この情報によって規定される識別器を用いて撮像画像から被写体領域を抽出する。
図3(A)、(B)に、撮像画像から抽出された被写体領域の一例を示す。図3(A),(B)は、撮像画像における一部の画像領域を示したものであり、該画像領域内における各矩形は画素を示す。斜線で示している画素は被写体領域を構成する画素を示しており、白で示している画素は被写体領域の外部領域(非被写体領域)を構成する画素を示している。
ステップS2030では、領域膨張部1040は、抽出部1030が抽出した被写体領域を膨張(拡張)させる拡張処理を行う。具体的には、領域膨張部1040は、非被写体領域を構成する画素(非被写体領域画素)ごとに、該非被写体領域画素と隣接する8個の隣接画素の中に被写体領域に属する画素が1つ以上有るか否かを判断する。そして領域膨張部1040は、非被写体領域画素と隣接する8個の隣接画素の中に被写体領域に属する画素が1つ以上有れば、該非被写体領域画素を被写体領域に含める。一方、領域膨張部1040は、非被写体領域画素と隣接する8個の隣接画素の中に被写体領域に属する画素が1つも無ければ、該非被写体領域画素を被写体領域に含めない。
図3(A)、(B)のそれぞれに示した画像領域に対して上記の拡張処理を行った結果を、図4(A)、(B)に示す。図4(A)、(B)においてドットパターンで示している画素は、上記の拡張処理によって新たに被写体領域に含められた画素を示している。以下の説明で特に断らない限り、「被写体領域」とは、上記の拡張処理によって拡張された被写体領域のことを指すものとする。図4(A)、(B)の例では、斜線で示している画素(抽出部1030によって抽出された被写体領域を構成する画素)と、ドットパターンで示している画素(上記の拡張処理によって新たに被写体領域に含められた画素)と、で構成されている領域を被写体領域とする。なお、被写体領域を拡張するための方法には様々な方法があり、上記の方法に限らない。
なお、上記の8近傍の拡張処理は、次のステップS2040において、どのような輪郭線の形状であっても、すべての輪郭点に対して方向ベクトルを算出するために必要な処理である。例えば、図5の場合には、中心位置の画素は下記のステップS2040の方法で方向ベクトルを算出できないが、8近傍の拡張処理を行うことで方向ベクトルを算出できるようになる。
なお、ステップS2030〜2050の処理は、画素ごとに逐次的に行っても良いし、画素ごとに並列に行っても良い。後者の場合、撮像画像内の膨大な画素に対して、GPGPUやFPGAなどの多数の計算コアを持った計算機で同時に計算することを目的として画素毎に独立した処理を行うことになる。以下では、撮像画像内の1画素に注目して次輪郭点を算出するための説明を行う。
ステップS2040では算出部1050は、被写体領域において非被写体領域(被写体領域以外の領域)との境界部分(被写体領域の輪郭線)における画素を注目画素とし、該注目画素から該非被写体領域への方向ベクトル(輪郭点の法線ベクトル)を求める。
より詳しくは、算出部1050は、注目画素の上下左右に隣接している4つの画素のうち非被写体領域に属する画素(非被写体領域画素)が1つもない場合は、注目画素については方向ベクトルは求めない。また算出部1050は、注目画素の上下左右に隣接している4つの画素のうち非被写体領域に属する画素(非被写体領域画素)が1つの場合は、注目画素から該非被写体領域画素への方向ベクトルを求める。また、算出部1050は、該4つの画素のうち非被写体領域画素が複数の場合は、該複数の非被写体領域画素のそれぞれについて、注目画素から該非被写体領域画素への方向ベクトルを求め、該求めたそれぞれの方向ベクトルを合成した方向ベクトルを求める。このように、算出部1050は、注目画素の周辺の非被写体領域画素を加味した方向ベクトルを求める。なお、算出部1050は、求めた方向ベクトルを規定サイズのベクトル(例えば大きさが1のベクトル)に正規化する。図4(A)、(B)のそれぞれの被写体領域に対して求めた方向ベクトルを図6(A)、(B)に示す。
ステップS2050では、算出部1060は、被写体領域において非被写体領域との境界部分における画素を注目画素(輪郭点)とし、該注目画素の方向ベクトルに基づき、該注目画素と隣接する境界部分内の画素から1つを選択画素(該輪郭点の次の輪郭点である次輪郭点)として選択する。そして算出部1060は、注目画素(輪郭点)から選択画素(該輪郭点の次の輪郭点)への方向を示す情報を、被写体領域の輪郭を示す情報(輪郭情報)として生成する。ステップS2050における処理の詳細について、図7のフローチャートに従って説明する。
ステップS2110では、算出部1060は、注目画素に隣接する8個の隣接画素のうち方向ベクトルを求めていない隣接画素を次輪郭点の候補から除外する。図6(A)、(B)のそれぞれにおける画像領域を対象としてステップS2110の処理を行った結果を図8(A)、(B)に示す。
図8(A)において点線で囲った矩形の画素は注目画素であり、太線で囲った9画素は、注目画素と、該注目画素に隣接する8個の隣接画素と、を含む。8個の隣接画素のうち、注目画素の左上に隣接している隣接画素、注目画素の上に隣接している隣接画素、注目画素の右に隣接している隣接画素については方向ベクトルを求めていない。よって、注目画素の左上に隣接している隣接画素、注目画素の上に隣接している隣接画素、注目画素の右に隣接している隣接画素は次輪郭点の候補から除外される。図8(A)では注目画素の左上に隣接している隣接画素、注目画素の上に隣接している隣接画素、注目画素の右に隣接している隣接画素には「×」を付しており、これは、次輪郭点の候補から除外されることを意味している。
図8(B)において点線で囲った矩形の画素は注目画素であり、太線で囲った9画素は、注目画素と、該注目画素に隣接する8個の隣接画素と、を含む。8個の隣接画素のうち、注目画素の左上に隣接している隣接画素、注目画素の上に隣接している隣接画素については方向ベクトルを求めていない。よって、注目画素の左上に隣接している隣接画素、注目画素の上に隣接している隣接画素は次輪郭点の候補から除外される。図8(B)では注目画素の左上に隣接している隣接画素、注目画素の上に隣接している隣接画素には「×」を付しており、これは、次輪郭点の候補から除外されることを意味している。
ステップS2120では、算出部1060は、注目画素に隣接している8個の隣接画素のうち、該注目画素の方向ベクトルが指す方向に位置している隣接画素が被写体領域画素であれば、該隣接画素を次輪郭点の候補から除外する。図8(A)、(B)のそれぞれにおける画像領域を対象としてステップS2120の処理を行った結果を図9(A)、(B)に示す。
図9(A)において点線で囲った矩形の画素は注目画素であり、太線で囲った9画素は、注目画素と、該注目画素に隣接する8個の隣接画素と、を含む。図9(A)では、注目画素に隣接している8個の隣接画素のうち、該注目画素の方向ベクトルが指す方向に位置している隣接画素は被写体領域画素ではなく非被写体領域画素であるから、該隣接画素はステップS2120の処理対象外となる。
図9(B)において点線で囲った矩形の画素は注目画素であり、太線で囲った9画素は、注目画素と、該注目画素に隣接する8個の隣接画素と、を含む。図9(B)では注目画素に隣接している8個の隣接画素のうち該注目画素の方向ベクトルが指す方向に位置している隣接画素には「×」を付しており、これは、該隣接画素は被写体領域画素であるから該隣接画素を次輪郭点の候補から除外することを意味している。図9(B)に示すように、方向ベクトルが斜め方向を指す場合、互いの画素の方向ベクトルが逆方向になるため、画素間の方向ベクトルの連続性が他の次輪郭点候補より低いことが判る。
ステップS2130では、算出部1060は、注目画素に隣接している8個の隣接画素のうち次輪郭点の候補として除外されていない隣接画素(つまり次輪郭点の候補)を対象画素とする。そして算出部1060は、注目画素に隣接する8個の隣接画素において注目画素の方向ベクトルの方向に位置する画素から順に反時計回りに対象画素を探索し、最初に見つけた対象画素を選択画素として選択する。そして算出部1060は、注目画素(輪郭点)から選択画素(該輪郭点の次の輪郭点)への方向を示す情報を、被写体領域の輪郭を示す情報(輪郭情報)として生成する。
図9(A)、(B)のそれぞれにおける画像領域を対象としてステップS2130の処理を行った結果を図10(A)、(B)に示す。図10(A)において点線で囲った矩形の画素は注目画素であり、太線で囲った9画素は、注目画素と、該注目画素に隣接する8個の隣接画素と、を含む。図10(A)では、注目画素に隣接している8個の隣接画素のうち「×」が付されてない隣接画素を対象画素としている。そして、注目画素に隣接する8個の隣接画素において注目画素の方向ベクトルの方向に位置する画素から順に矢印で示す如く反時計回りに対象画素を探索し、最初に見つけた対象画素(注目画素の右下に隣接する隣接画素)を選択画素として選択する。そして、注目画素から選択画素への方向(図10(A)では矢印で示している)を示す情報を、被写体領域の輪郭を示す情報(輪郭情報)として生成する。
図10(B)において点線で囲った矩形の画素は注目画素であり、太線で囲った9画素は、注目画素と、該注目画素に隣接する8個の隣接画素と、を含む。図10(B)では、注目画素に隣接している8個の隣接画素のうち「×」が付されてない隣接画素を対象画素としている。そして、注目画素に隣接する8個の隣接画素において注目画素の方向ベクトルの方向に位置する画素から順に矢印で示す如く反時計回りに対象画素を探索し、最初に見つけた対象画素(注目画素の右上に隣接する隣接画素)を選択画素として選択する。そして、注目画素から選択画素への方向(図10(B)では矢印で示している)を示す情報を、被写体領域の輪郭を示す情報(輪郭情報)として生成する。
ここで、上記のステップS2130の処理についてより詳細に説明する。注目画素から次輪郭点の候補としての隣接画素への方向ベクトルを進行ベクトルと定義すると、注目画素の方向ベクトルとの外積のZ要素が正、かつ内積が最大となるような進行ベクトルに対応する隣接画素を選択画素として選択すればよい。
注目画素の位置をp、次輪郭点の候補としての隣接画素の位置をqとすると、該注目画素から該隣接画素への進行ベクトルdは以下の式(1)を計算することで求めることができる。
Figure 2021022321
次に、注目画素の方向ベクトルn=(n、n)、進行ベクトルd=(d、d)とすると、方向ベクトルnと進行ベクトルdとの外積のZ要素cは以下の式(2)を計算することで求めることができる。
Figure 2021022321
最後に、外積のZ要素cが正の隣接画素から、方向ベクトルnと進行ベクトルdとの内積を計算して最大の内積を持つ進行ベクトルdに対応する隣接画素を選択画素として選択する。
図7のフローチャートに従った処理を、図4(A)の被写体領域において非被写体領域との境界部分におけるそれぞれの画素について行うことで、図11(A)に示す輪郭情報が得られる。また、図7のフローチャートに従った処理を、図4(B)の被写体領域において非被写体領域との境界部分におけるそれぞれの画素について行うことで、図11(B)に示す輪郭情報が得られる。図11(A)、(B)では、被写体領域において非被写体領域との境界部分における各画素について、該画素から次輪郭点への方向を示す情報(矢印の情報)を輪郭情報として生成している。
なお、図12(A),(B)に示す如く、注目画素の左上方向、上方向、右上方向、左方向、右方向、左下方向、下方向、右下方向、のそれぞれにインデックス(0〜7の数字)を設けても良い。この場合、被写体領域において非被写体領域との境界部分における各画素について、該画素から次輪郭点への方向を示す情報として、該方向に対応するインデックスを輪郭情報として生成する。
このように、本実施形態では、画素ごとに独立して輪郭情報を生成することができるので、画素ごとに並列で輪郭情報の生成を行うことができ、その結果、1フレームの撮像画像における輪郭情報の生成処理を高速化できる。然るに、各フレームの複合現実空間画像の生成および表示における遅延を軽減させることができる。
なお、本実施形態では、MRに適用した場合のシステムについて説明したが、適用先はMRに限らない。つまり、撮像画像中の被写体の輪郭追跡をより高速に行いたいというニーズがある技術分野に本実施形態を適用することができる。
<変形例1>
第1の実施形態では、ステップS2130では、反時計回りに対象画素を探索していたが、時計回りに対象画素を探索しても良い。この場合、注目画素から選択画素への方向は、第1の実施形態で説明した方向と逆方向になる。
<変形例2>
第1の実施形態では、境界部分における各画素の方向ベクトルが算出できるように被写体領域の拡張処理を行ったが、拡張処理によって被写体領域の輪郭が元の輪郭からずれるため、拡張処理の前に被写体領域を収縮するといった他の画像処理を加えてもよい。被写体領域の収縮処理を行うことで撮像画像上の微小ノイズを除去すると伴に、拡張処理を行った後の輪郭の位置ずれを抑えることができる。
図13(A)に真の輪郭追跡結果、図13(B)に被写体領域に対して収縮処理を行わずに拡張処理を行った場合の輪郭追跡結果、図13(C)に被写体領域に対して収縮処理を行ってから拡張処理を行った場合の輪郭追跡結果を示す。被写体領域に対して収縮処理を行ってから拡張処理を行うことで、真の輪郭に近い輪郭追跡結果が得られることが分かる。
<変形例3>
変形例2では輪郭の位置を補正するために被写体領域に対して収縮処理を行ってから拡張処理を行った。しかし、収縮処理を行わず、輪郭抽出後に輪郭点の位置を該輪郭点の方向ベクトルとは逆方向に該方向ベクトルのサイズ分だけ移動させることで輪郭を補正してもよい。図14(A)に真の輪郭追跡結果、図14(B)に被写体領域に対して収縮処理を行ってから拡張処理を行った場合の輪郭追跡結果を示す。また、図14(C)に輪郭抽出後に各輪郭点の位置を該輪郭点の方向ベクトルとは逆方向に該方向ベクトルのサイズ分だけ移動させた輪郭追跡結果を示す。なお、図14(C)の点線部が輪郭点の位置の補正方向を示している。変形例3においても、変形例2と同様の結果が得られることが分かる。
つまり、撮像画像における特定領域において非特定領域との境界部分における注目画素について、該非特定領域への方向ベクトルを求め、注目画素の方向ベクトルに基づき、注目画素と隣接する境界部分内の画素から1つを選択画素として選択し、注目画素から選択画素への方向を示す情報を、特定領域に対応する輪郭を示す情報として生成する、という構成において、この「特定領域」を、「撮像画像における被写体の領域を拡張した領域」としても「撮像画像における被写体の領域を収縮させてから拡張した領域」としても良いし、他の方法で求めた領域であっても良い。
[第2の実施形態]
図1に示した画像処理装置1000における各機能部はハードウェアで実装しても良いし、記憶部1020を除く各機能部をソフトウェア(コンピュータプログラム)で実装しても良い。後者の場合、このコンピュータプログラムを実行可能なコンピュータ装置は画像処理装置1000に適用可能である。画像処理装置1000に適用可能なコンピュータ装置のハードウェア構成例について、図15のブロック図を用いて説明する。
CPU1501は、RAM1502やROM1503に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU1501は、コンピュータ装置全体の動作制御を行うと共に、画像処理装置1000が行うものとして上述した各処理を実行もしくは制御する。なお、コンピュータ装置には、CPU1501に加えてもしくは代えてGPGPUやFPGAなどの多数の計算コアを搭載しても良く、コンピュータ装置における処理の一部をGPGPUやFPGAなどが行っても良い。
RAM1502は、ROM1503や外部記憶装置1506からロードされたコンピュータプログラムやデータを格納するためのエリアや、I/F(インターフェース)1507を介して外部から受信したデータを格納するためのエリアを有する。さらにRAM1502は、CPU1501が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM1502は、各種のエリアを適宜提供することができる。ROM1503には、コンピュータ装置の設定データや起動プログラムなどが格納されている。
操作部1504は、キーボード、マウス、タッチパネル画面などのユーザインターフェースであり、ユーザが操作することで各種の指示をCPU1501に対して入力することができる。
表示部1505は、液晶画面やタッチパネル画面を有し、CPU1501による処理結果を画像や文字などでもって表示することができる。なお、表示部1505は、画像や文字を投影するプロジェクタなどの投影装置であっても良い。
外部記憶装置1506は、大容量情報記憶装置の一例である。外部記憶装置1506には、OS(オペレーティングシステム)、画像処理装置1000が行うものとして上述した各処理をCPU1501に実行もしくは制御させるためのコンピュータプログラムやデータが保存されている。外部記憶装置1506に保存されているコンピュータプログラムには、図1の画像処理装置1000において記憶部1020を除く各機能部の機能をCPU1501に実行もしくは制御させるためのコンピュータプログラムが含まれている。また、外部記憶装置1506に保存されているデータには、上記の説明において既知の情報として説明した情報が含まれている。
外部記憶装置1506に保存されているコンピュータプログラムやデータは、CPU1501による制御に従って適宜RAM1502にロードされ、CPU1501による処理対象となる。なお、図1の画像処理装置1000の記憶部1020は、RAM1502や外部記憶装置1506で実装可能である。
I/F1507は、コンピュータ装置が外部の装置との間のデータ通信を行うための通信インターフェースとして機能するものであり、例えば図1の撮像装置100や表示装置200は、このI/F1507に接続される。
CPU1501、RAM1502、ROM1503、操作部1504、表示部1505、外部記憶装置1506、I/F1507は何れもバス1508に接続されている。なお、図15に示した構成は、画像処理装置1000に適用可能なコンピュータ装置のハードウェア構成の一例であり、適宜変形/変更が可能である。
なお、上記の説明において使用した具体的な数値は、具体的な説明を行うために使用したものであって、上記の各実施形態や各変形例がこれらの数値に限定されることを意図したものではない。また、以上説明した各実施形態や各変形例の一部若しくは全部を適宜組み合わせても構わない。また、以上説明した各実施形態や各変形例の一部若しくは全部を選択的に用いても構わない。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
1010:取得部 1020:記憶部 1030:抽出部 1040:領域拡張部 1050:算出部 1060:算出部 1070:推定部 1080:生成部 1090:生成部

Claims (12)

  1. 撮像画像における特定領域において非特定領域との境界部分における注目画素について、該非特定領域への方向ベクトルを求める計算手段と、
    前記注目画素の方向ベクトルに基づき、前記注目画素と隣接する前記境界部分内の画素から1つを選択画素として選択する選択手段と、
    前記注目画素から前記選択画素への方向を示す情報を、前記特定領域に対応する輪郭を示す情報として生成する生成手段と
    を備えることを特徴とする画像処理装置。
  2. 前記計算手段は、前記注目画素の上下左右に隣接している4つの画素のうち前記非特定領域に属する画素が1つの場合は、前記注目画素から該1つの画素への方向ベクトルを求めることを特徴とする請求項1に記載の画像処理装置。
  3. 前記計算手段は、前記注目画素の上下左右に隣接している4つの画素のうち前記非特定領域に属する画素が複数の場合は、前記注目画素から該複数の画素のそれぞれへの方向ベクトルを求め、該求めたそれぞれの方向ベクトルを合成した方向ベクトルを求めることを特徴とする請求項1に記載の画像処理装置。
  4. 前記選択手段は、
    前記注目画素に隣接する8個の画素において前記境界部分に含まれている画素のうち、前記注目画素の方向ベクトルの方向に位置しておらず且つ方向ベクトルを求めた画素を対象画素とし、前記8個の画素において前記注目画素の方向ベクトルの方向に位置する画素から順に時計回りもしくは反時計回りに探索して最初に見つけた対象画素を前記選択画素として選択することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記計算手段、前記選択手段、および前記生成手段による処理は、前記注目画素ごとに独立して並列に行われることを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記特定領域は、前記撮像画像における被写体の領域を拡張した領域であることを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 前記特定領域は、前記撮像画像における被写体の領域を収縮させてから拡張した領域であることを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  8. 更に、
    前記輪郭を示す情報に基づいて前記輪郭の奥行き値を求め、該奥行き値に基づいて仮想空間の画像を生成し、該仮想空間の画像と前記撮像画像との合成画像を生成して出力する出力手段を備えることを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 前記出力手段は、前記撮像画像を撮像する撮像装置と、前記合成画像を表示する表示装置と、を有する装置に対して前記合成画像を出力することを特徴とする請求項8に記載の画像処理装置。
  10. 前記装置は頭部装着型表示装置であることを特徴とする請求項9に記載の画像処理装置。
  11. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の計算手段が、撮像画像における特定領域において非特定領域との境界部分における注目画素について、該非特定領域への方向ベクトルを求める計算工程と、
    前記画像処理装置の選択手段が、前記注目画素の方向ベクトルに基づき、前記注目画素と隣接する前記境界部分内の画素から1つを選択画素として選択する選択工程と、
    前記画像処理装置の生成手段が、前記注目画素から前記選択画素への方向を示す情報を、前記特定領域に対応する輪郭を示す情報として生成する生成工程と
    を備えることを特徴とする画像処理方法。
  12. コンピュータを、請求項1乃至10の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2019140124A 2019-07-30 2019-07-30 画像処理装置、画像処理方法 Active JP7345306B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019140124A JP7345306B2 (ja) 2019-07-30 2019-07-30 画像処理装置、画像処理方法
US16/938,519 US11508083B2 (en) 2019-07-30 2020-07-24 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019140124A JP7345306B2 (ja) 2019-07-30 2019-07-30 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2021022321A true JP2021022321A (ja) 2021-02-18
JP2021022321A5 JP2021022321A5 (ja) 2022-08-02
JP7345306B2 JP7345306B2 (ja) 2023-09-15

Family

ID=74259332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019140124A Active JP7345306B2 (ja) 2019-07-30 2019-07-30 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US11508083B2 (ja)
JP (1) JP7345306B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5757961A (en) * 1992-06-11 1998-05-26 Canon Kabushiki Kaisha Image processing method and apparatus for obtaining a zoom image using contour information of a binary image
JP2001243479A (ja) * 2000-02-28 2001-09-07 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法および装置、ならびに画像処理プログラムを記録した記録媒体
JP2010079414A (ja) * 2008-09-24 2010-04-08 Nikon Corp プログラム、カメラおよび画像の輪郭抽出方法
WO2017094300A1 (ja) * 2015-11-30 2017-06-08 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69227073D1 (de) * 1991-07-12 1998-10-29 Canon Kk Bildverarbeitung
JP2954426B2 (ja) * 1992-06-26 1999-09-27 キヤノン株式会社 画像処理方法及び装置
US5778107A (en) * 1993-12-24 1998-07-07 Kabushiki Kaisha Komatsu Seisakusho Position recognition method
EP0687994B1 (en) * 1994-06-17 2002-02-13 Canon Kabushiki Kaisha Contour-information extraction apparatus and method
WO1999063488A1 (fr) * 1998-06-02 1999-12-09 Sony Corporation Dispositif et procede de traitement d'images
US7706610B2 (en) * 2005-11-29 2010-04-27 Microsoft Corporation Segmentation of objects by minimizing global-local variational energy
US8207972B2 (en) * 2006-12-22 2012-06-26 Qualcomm Incorporated Quick pixel rendering processing
US8463072B2 (en) * 2008-08-29 2013-06-11 Adobe Systems Incorporated Determining characteristics of multiple light sources in a digital image
JP5430456B2 (ja) * 2010-03-16 2014-02-26 キヤノン株式会社 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置
JP2011216080A (ja) * 2010-03-18 2011-10-27 Canon Inc 画像処理装置、画像処理方法、および記憶媒体
JP5800468B2 (ja) * 2010-05-11 2015-10-28 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP5597049B2 (ja) * 2010-07-07 2014-10-01 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
US8170372B2 (en) * 2010-08-06 2012-05-01 Kennedy Michael B System and method to find the precise location of objects of interest in digital images
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
JP5777507B2 (ja) 2011-12-27 2015-09-09 キヤノン株式会社 情報処理装置、情報処理方法、及びそのプログラム
JP6426968B2 (ja) * 2014-10-08 2018-11-21 キヤノン株式会社 情報処理装置およびその方法
JP6514013B2 (ja) * 2015-04-13 2019-05-15 ローランドディー.ジー.株式会社 スライスモデル生成装置および3次元造形システム
JP6643827B2 (ja) * 2015-07-31 2020-02-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10607417B2 (en) * 2016-06-08 2020-03-31 Sony Interactive Entertainment Inc. Image generating apparatus and image generating method
US10687050B2 (en) * 2017-03-10 2020-06-16 Qualcomm Incorporated Methods and systems of reducing latency in communication of image data between devices
RU2680765C1 (ru) * 2017-12-22 2019-02-26 Общество с ограниченной ответственностью "Аби Продакшн" Автоматизированное определение и обрезка неоднозначного контура документа на изображении
CN109446912B (zh) * 2018-09-28 2021-04-09 北京市商汤科技开发有限公司 人脸图像的处理方法及装置、电子设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5757961A (en) * 1992-06-11 1998-05-26 Canon Kabushiki Kaisha Image processing method and apparatus for obtaining a zoom image using contour information of a binary image
JP2001243479A (ja) * 2000-02-28 2001-09-07 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法および装置、ならびに画像処理プログラムを記録した記録媒体
JP2010079414A (ja) * 2008-09-24 2010-04-08 Nikon Corp プログラム、カメラおよび画像の輪郭抽出方法
WO2017094300A1 (ja) * 2015-11-30 2017-06-08 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム

Also Published As

Publication number Publication date
US11508083B2 (en) 2022-11-22
JP7345306B2 (ja) 2023-09-15
US20210035318A1 (en) 2021-02-04

Similar Documents

Publication Publication Date Title
JP5248806B2 (ja) 情報処理装置、情報処理方法
US10347052B2 (en) Color-based geometric feature enhancement for 3D models
EP3992919B1 (en) Three-dimensional facial model generation method and apparatus, device, and medium
JP2019096113A (ja) キーポイントデータに関する加工装置、方法及びプログラム
CN109636890B (zh) 纹理融合方法和装置、电子设备、存储介质、产品
KR101593316B1 (ko) 스테레오 카메라를 이용한 3차원 모델 재구성 방법 및 장치
Ozbay et al. A hybrid method for skeleton extraction on Kinect sensor data: Combination of L1-Median and Laplacian shrinking algorithms
US20220405878A1 (en) Image processing apparatus, image processing method, and image processing program
US11645800B2 (en) Advanced systems and methods for automatically generating an animatable object from various types of user input
JP2010211732A (ja) 物体認識装置および方法
JP5560925B2 (ja) 3次元形状検索装置、3次元形状検索方法、及びプログラム
CN115222895B (zh) 图像生成方法、装置、设备以及存储介质
JP2000331019A (ja) 景観画像インデクス方法、装置および景観画像インデクスプログラムを記録した記録媒体
JP7345306B2 (ja) 画像処理装置、画像処理方法
JP7374433B2 (ja) 構築物の三次元形状データの生成方法
Han et al. 3D human model reconstruction from sparse uncalibrated views
JP5723301B2 (ja) 被写体認識装置及び被写体認識プログラム
JP2005339363A (ja) 人体パーツ自動分割装置及び人体パーツ自動分割方法
JP5563390B2 (ja) 画像処理装置およびその制御方法、及びプログラム
JP6641313B2 (ja) 領域抽出装置及びプログラム
JP4380376B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
GB2564715A (en) Systems and methods of forming virtual models
CN112991179B (zh) 用于输出信息的方法、装置、设备以及存储介质
JP7429666B2 (ja) 点群ノイズ除去装置及びプログラム
CN115953553B (zh) 虚拟形象生成方法、装置、电子设备以及存储介质

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230905

R151 Written notification of patent or utility model registration

Ref document number: 7345306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151