JP2018055643A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2018055643A
JP2018055643A JP2016194776A JP2016194776A JP2018055643A JP 2018055643 A JP2018055643 A JP 2018055643A JP 2016194776 A JP2016194776 A JP 2016194776A JP 2016194776 A JP2016194776 A JP 2016194776A JP 2018055643 A JP2018055643 A JP 2018055643A
Authority
JP
Japan
Prior art keywords
dimensional shape
frame
model
shape model
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016194776A
Other languages
English (en)
Other versions
JP6817770B2 (ja
Inventor
知宏 西山
Tomohiro Nishiyama
知宏 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016194776A priority Critical patent/JP6817770B2/ja
Priority to US15/708,500 priority patent/US10853952B2/en
Publication of JP2018055643A publication Critical patent/JP2018055643A/ja
Application granted granted Critical
Publication of JP6817770B2 publication Critical patent/JP6817770B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

【課題】 移動体としてのオブジェクトの位置だけでなく方向も追跡するための技術を提供すること。
【解決手段】 着目フレームの画像群に基づいて生成された複数の3次元形状モデルの位置を、該着目フレームにおける該複数の3次元形状モデルの位置として取得する。複数の3次元形状モデルのそれぞれについて、該3次元形状モデルの一部に対して該一部の形状を近似した近似モデルをフィッティングさせるフィッティング処理を行う。先行フレームにおける位置が着目フレームにおける着目3次元形状モデルの位置に近接している3次元形状モデルの先行フレームにおける決定済みの方向に基づいて、着目3次元形状モデルについて行ったフィッティング処理後の近似モデルの複数の基準方向のうち1つを、着目フレームにおける着目3次元形状モデルの方向として決定する。
【選択図】 図1

Description

本発明は、オブジェクトの追跡技術に関するものである。
移動体としてのオブジェクトを追跡する技術としては、従来から様々な技術が提案されている。特許文献1には、対象物体の移動前後の空間移動量を算出する技術が開示されている。
特許第4982410号
特許文献1を含めた従来技術では、対象物体の位置を追跡することはできるが、位置と方向の両方を追跡することはできなかった。本発明はこのような問題に鑑みてなされたものであり、移動体としてのオブジェクトの位置だけでなく方向も追跡するための技術を提供する。
本発明の一様態は、着目フレームの画像群に基づいて生成された複数の3次元形状モデルの位置を、該着目フレームにおける該複数の3次元形状モデルの位置として取得する取得手段と、前記複数の3次元形状モデルのそれぞれについて、該3次元形状モデルの一部に対して該一部の形状を近似した近似モデルをフィッティングさせるフィッティング処理を行う処理手段と、前記着目フレームに先行する先行フレームにおける位置が前記着目フレームにおける着目3次元形状モデルの位置に近接している近接3次元形状モデルの前記先行フレームにおける決定済みの方向に基づいて、前記着目3次元形状モデルについて行ったフィッティング処理後の前記近似モデルの複数の基準方向のうち1つを、前記着目フレームにおける前記着目3次元形状モデルの方向として決定する決定手段とを備えることを特徴とする。
本発明の構成によれば、移動体としてのオブジェクトの位置だけでなく方向も追跡することができる。
システムの構成例を示す図。 画像処理装置102のハードウェア構成例を示すブロック図。 ステップS403を説明する図。 画像処理装置102が行う処理のフローチャート。 第2の実施形態を説明する図。 ステップS403の処理のフローチャート。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
以下の各実施形態では、次のような構成を有する画像処理装置の一例について説明する。即ちこの画像処理装置は、着目フレームの画像群に基づいて生成された複数の3次元形状モデルの位置を、該着目フレームにおける該複数の3次元形状モデルの位置として取得する。そして画像処理装置は、複数の3次元形状モデルのそれぞれについて、該3次元形状モデルの一部に対して該一部の形状を近似した近似モデルをフィッティングさせるフィッティング処理を行う。そして画像処理装置は、着目フレームに先行する先行フレームにおける位置が着目フレームにおける着目3次元形状モデルの位置に近接している近接3次元形状モデルの先行フレームにおける決定済みの方向に基づいて、着目3次元形状モデルについて行ったフィッティング処理後の近似モデルの複数の基準方向のうち1つを、着目フレームにおける着目3次元形状モデルの方向として決定する。
先ず、本実施形態に係るシステムの構成例について、図1を用いて説明する。カメラ101a〜101jのそれぞれは動画像を撮像するカメラであり、図1に示す如く、フィールド199(競技場などのフィールド)の周囲に該フィールド199に向けて配置されている。カメラ101a〜101jのそれぞれが撮像した各フレームの画像は画像処理装置102に対して送出される。図1ではオブジェクトとして一人の人105を示しているが、本実施形態では、複数の人がオブジェクトとしてフィールド199内に位置しているものとする。
画像処理装置102は、カメラ101a〜101jのそれぞれから送出された同フレームの画像群ごとに、該画像群からオブジェクトの輪郭を抽出し、該抽出した輪郭を用いて該オブジェクトの3次元形状モデルを生成する。つまり画像処理装置102は、フレームごとに、該フレームにおけるオブジェクトの3次元形状モデルを生成する。この3次元形状モデルは、例えば、オブジェクト上の点群によって構成されるものである。なお、画像内に複数のオブジェクトが含まれている場合には、それぞれのオブジェクトについて3次元形状モデルを生成する。複数枚の画像(同フレームの画像群)におけるオブジェクトの輪郭から該オブジェクト上の点群を取得する技術については周知であるため、この技術に関する説明は省略する。なお、オブジェクトの3次元形状モデルを取得するための方法は上記の方法に限らず、如何なる方法を採用しても良い。
表示装置103には、画像処理装置102が生成した3次元形状モデル等、各種の情報を表示することができる。キーボード104a及びマウス104bは画像処理装置102に各種の指示や情報を入力するためにユーザが操作するユーザインターフェースの一例である。
なお、図1に示したシステムの構成は一例に過ぎず、例えば、カメラの数やカメラが注視する位置、カメラと画像処理装置102との間のネットワーク構成などは図1に示したものに限らない。次に、画像処理装置102のハードウェア構成例について、図2のブロック図を用いて説明する。
CPU201は、RAM202やROM203に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU201は、画像処理装置102全体の動作制御を行うと共に、画像処理装置102が行うものとして後述する各処理を実行若しくは制御する。
RAM202には、二次記憶装置204、外部記憶装置209、ROM203等からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。更にRAM202は、CPU201が各種の処理を実行若しくは制御する際に用いるワークエリアを有する。このようにRAM202は各種のエリアを適宜提供することができる。ROM203には、書き換え不要の設定データやコンピュータプログラムなどが格納されている。
二次記憶装置204は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。二次記憶装置204には、OS(オペレーティングシステム)や、画像処理装置102が行うものとして後述する各処理をCPU201に実行させるためのコンピュータプログラムやデータが保存されている。このデータには、以下の説明において既知の情報として説明するものが含まれている。二次記憶装置204に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM202にロードされ、CPU201による処理対象となる。
操作部211は、上記のマウス104bやキーボード104aを含むもので、ユーザが操作することで各種の指示を入力インターフェース205を介してCPU201に対して入力することができる。
図2では、上記のカメラ101a〜101jを撮像装置208として表している。然るに以下の説明において、撮像装置208から出力される着目フレームの画像群とは、カメラ101a〜101jのそれぞれから出力された着目フレームの画像群を意味する。撮像装置208から出力される各フレームの画像群は、RAM202や二次記憶装置204に格納される。
外部記憶装置209は、CD−RW、DVD−RWなどの記憶媒体に対するコンピュータプログラムやデータの読み書きを行う。外部記憶装置209が記憶媒体から読み出したコンピュータプログラムやデータは入力インターフェース205を介してRAM202や二次記憶装置204に出力される。一方、外部記憶装置209が記憶媒体に書き込むコンピュータプログラムやデータは、RAM202や二次記憶装置204から出力インターフェース206を介して外部記憶装置209に送出される。また、二次記憶装置204に保存されているものとして説明したコンピュータプログラムやデータの一部若しくは全部を上記の記憶媒体に格納しておき、外部記憶装置209によって記憶媒体からRAM202や二次記憶装置204に読み出すようにしても良い。
表示装置103はCRTや液晶画面などにより構成されており、CPU201による処理結果を画像や文字などでもって表示する。なお、操作部211と表示装置103とを一体化させてタッチパネル画面を構成しても良い。CPU201、RAM202、ROM203、二次記憶装置204、入力インターフェース205、出力インターフェース206、は何れもバス207に接続されている。
次に、撮像装置208からN(Nは2以上の整数)フレーム目の画像群(各画像には複数のオブジェクトが含まれている)が画像処理装置102に入力された場合に、画像処理装置102が行う処理について、図4のフローチャートを用いて説明する。
なお、図4のフローチャートに従った処理は、2フレーム目以降の画像群を対象とするものである。そこでCPU201は図4のフローチャートに従った処理を行う前に、1フレーム目の画像群について以下のような処理を行う。
CPU201は、1フレーム目の画像群に含まれているそれぞれのオブジェクトの3次元形状モデルを生成し、該3次元形状モデルの位置を1フレーム目の該3次元形状モデルの位置として求める。3次元形状モデルは上記の通り点群で構成されているため、例えば、この点群の重心位置を該3次元形状モデルの位置とすることができる(点群の位置は、例えば、カメラ101a〜101jの位置とその焦点距離などから取得可能)。なお、3次元形状モデルの位置は、3次元形状モデルを構成する全ての点群の重心位置に限らない。例えば頭部を構成する点群の重心位置を3次元形状モデルの位置としても良い。
更にCPU201は3次元形状モデルごとに、該3次元形状モデルを生成する際に参照した画像領域内のオブジェクトの顔や背番号などを認識し、該認識した顔や背番号に固有の情報を、該3次元形状モデルの識別情報として発行する。
更にCPU201は3次元形状モデルごとに、3次元形状モデルを生成する際に参照した画像領域内の顔の向きを認識し、該認識した顔の向きを1フレーム目における該3次元形状モデルの方向とする。なお、3次元形状モデルを生成する際に参照した画像領域を用いて3次元形状モデルの方向を求めるための方法はこの方法に限らない。
そしてCPU201は、3次元形状モデルごとに、該3次元形状モデルの位置、該3次元形状モデルの方向、該3次元形状モデルの識別情報、を関連づけてRAM202や二次記憶装置204などに格納する。以降、情報の格納先となるRAM202や二次記憶装置204をまとめてメモリと称する。
更にCPU201は、3次元形状モデルごとに、該3次元形状モデルの位置から1フレームの間に移動可能な範囲を示す移動可能範囲を設定する。ここで、移動可能範囲について説明する。3次元形状モデルAについて設定する移動可能範囲とは、3次元形状モデルAの位置を中心とする直方体である。なお、移動可能範囲の形状は直方体に限らず、立方体でも良いし、その形状は問わない。
ステップS401では、CPU201は、Nフレーム目の画像群に含まれているそれぞれのオブジェクトの3次元形状モデルを生成する。以下では、ステップS401で生成したそれぞれの3次元形状モデルをM(1),M(2),…,M(I)と表記する(IはステップS401で生成した3次元形状モデルの総数)。また、ステップS401では、CPU201は、以下の説明で用いる変数iを「1」に初期化する。
ステップS402ではCPU201は、M(1)〜M(I)のうち未選択の1つを選択3次元形状モデルM(i)として選択し、M(i)(点群)の重心位置を、Nフレーム目におけるM(i)の位置Piとして求める。更にCPU201は、位置Piを中心とする直方体を、M(i)の移動可能範囲として設定する。
ここで、(N−1)フレーム目の画像群から生成された3次元形状モデルをQ(1),…,Q(J)と詳記する(Jは(N−1)フレーム目の画像群から生成された3次元形状モデルの総数)。このときステップS403では、CPU201は、Q(1),…,Q(J)のそれぞれについて設定されている移動可能範囲R(1),…,R(J)のうち、ステップS402で求めた位置Piを含む移動可能範囲R(j)を特定する。つまり、ステップS403では、移動可能範囲R(j)内に位置Piが存在する=Q(j)とM(i)とが近接していると見なし、その結果、Q(j)とM(i)とは同じオブジェクトの3次元形状モデルであると見なしている(図3)。
ステップS404ではCPU201は、M(i)の腹部に相当する箇所(例えば床面から腹部までの平均的な高さに相当する箇所)の断面(床面に平行な断面)に対し、該断面の形状を近似した近似モデルをフィッティングするフィッティング処理を行う。このフィッティング処理では、M(i)の腹部に相当する箇所の断面形状に近似モデルの形状が最もフィットするように近似モデルの姿勢を変化させ、該断面形状に近似モデルの形状が最もフィットする際の近似モデルの姿勢を求める。近似モデルは、M(i)の腹部に相当する箇所の断面形状が楕円で近似できることから、「床面に平行の面内における楕円のモデル」とするが、他の形状のモデルを近似モデルとしても良い。
ここで、フィッティング処理により姿勢が確定した近似モデル(楕円)の短軸に沿う方向には、一方の方向と、それとは逆の方向である他方の方向と、の2つがあり、何れか一方の方向が「M(i)の正面が向いている方向」を示している。そこでステップS405でCPU201は、姿勢が決定した近似モデルの短軸方向の2つの方向のそれぞれの方向ベクトルのうち、Q(j)の方向として決定済みの方向を示す方向ベクトルとの内積値がより大きい方の方向ベクトルを特定する。つまりCPU201は、姿勢が決定した近似モデルの短軸方向の2つの方向のそれぞれの方向ベクトルのうち、Q(j)の方向として決定済みの方向により近い方向の方向ベクトルを特定する。そしてCPU201は、この特定した方向ベクトルが示す方向を、Nフレーム目におけるM(i)の方向Diとして決定する。
ステップS406では、CPU201は、Q(j)の識別情報、ステップS402で求めたM(i)の位置Pi、ステップS405で決定したM(i)の方向Di、を関連づけてメモリに格納する。これにより、Nフレーム目におけるM(i)の識別情報、位置及び方向をメモリに格納することができる。ステップS407では、CPU201は、インデックスiを1つインクリメントする。
ステップS408では、CPU201は、ステップS401において生成したそれぞれの3次元形状モデルのうち未選択の3次元形状モデルが残っているか否かを判断する。この判断の結果、ステップS401において生成したそれぞれの3次元形状モデルのうち未選択の3次元形状モデルが残っている場合(i≦I)には、処理はステップS402に戻る。一方、ステップS401において生成したそれぞれの3次元形状モデルのうち未選択の3次元形状モデルが残っていない場合(i>I)には、Nフレーム目の画像群についての図4のフローチャートに従った処理は終了する。そして、(N+1)フレーム目の画像群についてステップS401以降の処理が行われる。
<変形例>
第1の実施形態では、近似モデルとして床面と平行な断面における腹部の断面形状を模したモデルを用いた。しかし、近似モデルとして他のモデルを採用しても良い。例えば、一般的な人の顔の形状を模したモデルを近似モデルとして使用しても良い。その場合、選択3次元形状モデルと近似モデルとのフィッティング処理を行って、最もフィットした場合における近似モデルの姿勢をそのまま選択3次元形状モデルの方向としてもよい。
また、識別情報が同じ3次元形状モデルについては、毎フレーム識別情報を格納する必要はなく、1フレーム目については識別情報、位置、方向のセットを格納し、2フレーム目以降については、該セットに関連づけて位置及び方向を格納するようにしても良い。
[第2の実施形態]
図5に示す如く、(N−1)フレーム目ではオブジェクトAとオブジェクトBとはある程度離間しているものの、Nフレーム目ではオブジェクトAとオブジェクトBとが近接してしまうようなケースが考えられる。オブジェクトAの位置及び方向の追跡中に該オブジェクトAにオブジェクトBが近接すると、オブジェクトBをオブジェクトAと取り違えてしまい、オブジェクトBをオブジェクトAと間違えて追跡してしまう可能性がある。本実施形態に係る画像処理装置はこの点に対処したものである。以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。
本実施形態では、ステップS403において図6のフローチャートに従った処理を行う。ステップS601ではCPU201は、2以上のオブジェクトが近接しているか否かを判断する。この判断の結果、2以上のオブジェクトが近接している場合には、処理はステップS602に進み、2以上のオブジェクトが近接しているケースが発生していない場合には、処理はステップS603に進む。ステップS601における判断の処理には、様々な処理が適用できる。
例えば、それぞれの3次元形状モデルについて設定されている移動可能範囲の体積を求める。2つ以上の移動可能範囲が重複する部分を有するような場合、つまり該2つ以上の移動可能範囲が一体化して1つの一体化範囲を形成している場合には、この一体化範囲の体積を求める。そしてCPU201は、求めた体積のうち1つの移動可能範囲の体積の規定倍数(1以上の数)の体積よりも大きい体積を有するものがあったか否か、すなわち、規定体積以上の体積を有する一体化範囲があったか否かを判断する。この判断の結果、規定体積以上の体積を有する一体化範囲が存在した場合には、2以上のオブジェクトが近接していると判断する。規定体積以上の体積を有する一体化範囲が存在しなかった場合、オブジェクト同士で近接しているケースは発生していないと判断する。
また、それぞれの3次元形状モデルの位置を用いて、3次元形状モデル間の距離を求め、求めた距離が閾値以下となる3次元形状モデルが存在するか否かを判断する。この判断の結果、求めた距離が閾値以下となる3次元形状モデルが存在した場合には、2以上のオブジェクトが近接していると判断する。求めた距離が閾値以下となる3次元形状モデルが存在しなかった場合、オブジェクト同士で近接しているケースは発生していないと判断する。
ステップS602では、CPU201は、(N−1)フレーム目における一体化範囲を3次元形状モデル別にクラスタリングする。例えば、3次元形状モデルAの移動可能範囲とオブジェクトBの移動可能範囲とで一体化範囲を形成している場合、一体化範囲を、3次元形状モデルAの位置を含む範囲と、3次元形状モデルBを含む範囲と、にクラスタリングする。なお、ステップS602では、一体化範囲を形成しているそれぞれの移動可能範囲を縮小させて互いに重複する範囲が存在しないようにする方法も考えられる。また、上記ではNフレーム目の被写体に対し、距離の近い(N−1)フレーム目の被写体が紐づけられる例について説明したが、(N−1)フレーム目で被写体が近接し、Nフレーム目で交差する場合などは、別な紐付けが好ましい。例えば、(N−1)フレーム目の被写体の向き情報や、画像に射影した際の情報(顔や背番号など、特定に用いられる固有の情報)を更に用いることで紐付けを行ってもよい。
ステップS603でCPU201は、(N−1)フレーム目における各3次元形状モデルについて設定されている移動可能範囲若しくはステップS602でクラスタリング済みのそれぞれの範囲のうち、ステップS402で求めた位置Piを含む移動可能範囲を特定する。そして処理はステップS404に戻る。
[第3の実施形態]
第1,2の実施形態に係るシステムは、フィールド199においてサッカーやラグビーなどのスポーツの試合が行われている様子を撮像装置208により撮像して、オブジェクトとしての選手の位置及び方向を追跡してメモリに格納する目的にも使用できる。そのような場合、画像処理装置102は上記の動作に加え、画像からボールの3次元形状モデルを生成し、該3次元形状モデルの位置をフレームごとにメモリに格納するようにしても良い。これにより、選手の位置及び方向を追跡するだけでなく、ボールの3次元的な移動軌跡をも追跡することができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
201:CPU 208:撮像装置

Claims (9)

  1. 着目フレームの画像群に基づいて生成された複数の3次元形状モデルの位置を、該着目フレームにおける該複数の3次元形状モデルの位置として取得する取得手段と、
    前記複数の3次元形状モデルのそれぞれについて、該3次元形状モデルの一部に対して該一部の形状を近似した近似モデルをフィッティングさせるフィッティング処理を行う処理手段と、
    前記着目フレームに先行する先行フレームにおける位置が前記着目フレームにおける着目3次元形状モデルの位置に近接している近接3次元形状モデルの前記先行フレームにおける決定済みの方向に基づいて、前記着目3次元形状モデルについて行ったフィッティング処理後の前記近似モデルの複数の基準方向のうち1つを、前記着目フレームにおける前記着目3次元形状モデルの方向として決定する決定手段と
    を備えることを特徴とする画像処理装置。
  2. 前記着目フレームの画像群及び前記先行フレームの画像群は、動画像を撮像する複数の撮像装置により得られることを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記先行フレームの画像群から生成されたそれぞれの3次元形状モデルの位置を中心とする範囲のうち、前記着目フレームにおける前記着目3次元形状モデルの位置を含む範囲を特定し、該特定した範囲は前記近接3次元形状モデルの位置を中心とする範囲であることを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記決定手段は、前記先行フレームの画像群から生成されたそれぞれの3次元形状モデルの位置を中心とする範囲のうち2つ以上が一体化した一体化範囲をクラスタリングしたそれぞれの範囲のうち、前記着目フレームにおける前記着目3次元形状モデルの位置を含む範囲を特定することを特徴とする請求項1又は2に記載の画像処理装置。
  5. 前記決定手段は、前記先行フレームの画像群から生成されたそれぞれの3次元形状モデルの位置を中心とする範囲のうち2つ以上が一体化した一体化範囲を構成するそれぞれの範囲を縮小してから、前記着目フレームにおける前記着目3次元形状モデルの位置を含む範囲を特定することを特徴とする請求項1又は2に記載の画像処理装置。
  6. 前記決定手段は、前記複数の基準方向のうち、前記近接3次元形状モデルの前記先行フレームにおける決定済みの方向により近い方向を、前記着目フレームにおける前記着目3次元形状モデルの方向として決定することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 更に、
    前記取得手段が取得した位置と前記決定手段が決定した方向とを関連づけてメモリに格納する手段を備えることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
  8. 複数の撮像装置と、画像処理装置と、を有するシステムであって、
    前記画像処理装置は、
    前記複数の撮像装置によって撮像された着目フレームの画像群に基づいて生成された複数の3次元形状モデルの位置を、該着目フレームにおける該複数の3次元形状モデルの位置として取得する取得手段と、
    前記複数の3次元形状モデルのそれぞれについて、該3次元形状モデルの一部に対して該一部の形状を近似した近似モデルをフィッティングさせるフィッティング処理を行う処理手段と、
    前記着目フレームに先行する先行フレームにおける位置が前記着目フレームにおける着目3次元形状モデルの位置に近接している近接3次元形状モデルの前記先行フレームにおける決定済みの方向に基づいて、前記着目3次元形状モデルについて行ったフィッティング処理後の前記近似モデルの複数の基準方向のうち1つを、前記着目フレームにおける前記着目3次元形状モデルの方向として決定する決定手段と
    を備えることを特徴とするシステム。
  9. コンピュータを、請求項1乃至7の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2016194776A 2016-09-30 2016-09-30 画像処理装置、画像処理方法 Active JP6817770B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016194776A JP6817770B2 (ja) 2016-09-30 2016-09-30 画像処理装置、画像処理方法
US15/708,500 US10853952B2 (en) 2016-09-30 2017-09-19 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016194776A JP6817770B2 (ja) 2016-09-30 2016-09-30 画像処理装置、画像処理方法

Publications (2)

Publication Number Publication Date
JP2018055643A true JP2018055643A (ja) 2018-04-05
JP6817770B2 JP6817770B2 (ja) 2021-01-20

Family

ID=61757207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016194776A Active JP6817770B2 (ja) 2016-09-30 2016-09-30 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US10853952B2 (ja)
JP (1) JP6817770B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10534962B2 (en) * 2017-06-17 2020-01-14 Matterport, Inc. Automated classification based on photo-realistic image/model mappings

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4982410B2 (ja) * 2008-03-10 2012-07-25 株式会社東芝 空間移動量算出装置及びその方法
JP2012215555A (ja) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International 計測装置,計測方法および計測プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0917864A2 (pt) * 2008-08-15 2015-11-24 Univ Brown aparelho e método para estimativa da forma corporal
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US9679215B2 (en) * 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US8638989B2 (en) * 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US20130182079A1 (en) * 2012-01-17 2013-07-18 Ocuspec Motion capture using cross-sections of an object
US9646201B1 (en) * 2014-06-05 2017-05-09 Leap Motion, Inc. Three dimensional (3D) modeling of a complex control object
US10699463B2 (en) * 2016-03-17 2020-06-30 Intel Corporation Simulating the motion of complex objects in response to connected structure motion
JP6425847B1 (ja) * 2017-08-14 2018-11-21 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4982410B2 (ja) * 2008-03-10 2012-07-25 株式会社東芝 空間移動量算出装置及びその方法
JP2012215555A (ja) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International 計測装置,計測方法および計測プログラム

Also Published As

Publication number Publication date
US10853952B2 (en) 2020-12-01
JP6817770B2 (ja) 2021-01-20
US20180096486A1 (en) 2018-04-05

Similar Documents

Publication Publication Date Title
US10832039B2 (en) Facial expression detection method, device and system, facial expression driving method, device and system, and storage medium
US10789765B2 (en) Three-dimensional reconstruction method
Rogez et al. Mocap-guided data augmentation for 3d pose estimation in the wild
CN108292362B (zh) 用于光标控制的手势识别
Joo et al. Panoptic studio: A massively multiview system for social motion capture
JP2020042476A (ja) 関節位置の取得方法及び装置、動作の取得方法及び装置
WO2021120157A1 (en) Light weight multi-branch and multi-scale person re-identification
CN110544301A (zh) 一种三维人体动作重建系统、方法和动作训练系统
JP6425847B1 (ja) 画像処理装置、画像処理方法およびプログラム
JP2019096113A (ja) キーポイントデータに関する加工装置、方法及びプログラム
JP7427188B2 (ja) 3dポーズ取得方法及び装置
JP7164045B2 (ja) 骨格認識方法、骨格認識プログラムおよび骨格認識システム
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
WO2019041660A1 (zh) 人脸去模糊方法及装置
Elhayek et al. Fully automatic multi-person human motion capture for vr applications
US20230394834A1 (en) Method, system and computer readable media for object detection coverage estimation
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
JP6077425B2 (ja) 映像管理装置及びプログラム
JP5356036B2 (ja) モーションキャプチャにおけるグループトラッキング
JP2021016547A (ja) プログラム、記録媒体、物体検出装置、物体検出方法及び物体検出システム
JP6817770B2 (ja) 画像処理装置、画像処理方法
HanbyulJoo et al. Panoptic studio: A massively multiview system for social interaction capture
JP5713655B2 (ja) 映像処理装置、映像処理方法及びプログラム
Jiang et al. Real-time multiple people hand localization in 4d point clouds
WO2023058545A1 (ja) 情報処理装置および方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201225

R151 Written notification of patent or utility model registration

Ref document number: 6817770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151