JP2021174554A - 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体 - Google Patents

画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体 Download PDF

Info

Publication number
JP2021174554A
JP2021174554A JP2021074934A JP2021074934A JP2021174554A JP 2021174554 A JP2021174554 A JP 2021174554A JP 2021074934 A JP2021074934 A JP 2021074934A JP 2021074934 A JP2021074934 A JP 2021074934A JP 2021174554 A JP2021174554 A JP 2021174554A
Authority
JP
Japan
Prior art keywords
camera
depth
straight line
image
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021074934A
Other languages
English (en)
Other versions
JP7064257B2 (ja
Inventor
ファーン シュウ
Shu Fang
ジョウ ジィ
Ji Zhou
フォン シンポン
Xinpeng Feng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NextVPU Shanghai Co Ltd
Original Assignee
NextVPU Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NextVPU Shanghai Co Ltd filed Critical NextVPU Shanghai Co Ltd
Publication of JP2021174554A publication Critical patent/JP2021174554A/ja
Application granted granted Critical
Publication of JP7064257B2 publication Critical patent/JP7064257B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】本開示は、画像深度確定方法及び生き物認識方法、回路、装置及び記憶媒体を提供する。【解決手段】かかる画像深度確定方法は、撮影対象上のオブジェクトポイントと関連付けられる特徴点対の画素座標を取得し;第一画素座標及び第一カメラの内部パラメータに基づいて、第一カメラの第一カメラ座標系の原点を通過する第一直線を確定し;第二画素座標及び第二カメラの内部パラメータに基づいて、第二カメラの第二カメラ座標系の原点を通過する第二直線を確定し;及び、第一直線、第二直線、及び、第一カメラと第二カメラとの相対位置関係を記述する外部パラメータに基づいて、オブジェクトポイントの深度を確定することを含む。【選択図】図2

Description

本開示は、画像処理技術分野に関し、特に、画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体に関する。
シーンの深度情報を取得する方法は一般的に2つがある。1つは、レーザー測距などの手段を採用する主動型測距案であり、もう1つは、カメラヘッドに基づく立体視による手法である。カメラヘッドに基づく立体視による手法では、同一シーンの2つの異なる視角の画像中の各対(ペア)のマッチング画素点の間の視差を得ることで視差図を取得し、その後、該視差図に基づいてシーンの深度情報を得ることができる。また、人工ニューラルネットワークの発達に伴い、人工ニューラルネットワークに基づく多くの深度確定方法も出てきている。立体視による手法であれ、人工ニューラルネットワークによる手法であれ、通常、全図又は1つの大きな画像領域の画像データに基づいて操作を行う必要がある。
なお、この部分で説明した方法は、必ずしも以前に考案又は採用された方法ではない。特に明記されない限り、この部分に記載されている方法のいずれかが、この部分に含まれているという理由だけで従来技術と見なされると想定すべきではない。同様に、特に明記されない限り、この部分で言及びされている問題が、従来技術で認識されていると見なされるべきではない。
本開示の目的は、少なくとも、画像深度確定方法及び生き物認識方法を提供することにある。
本開示の1つの側面によれば、画像深度確定方法が提供される。該画像深度確定方法は、
撮影対象(被写体)上の物点(オブジェクトポイント)と関連付けられる特徴点対(ペア)の画素座標を取得し、そのうち、前記特徴点対は、第一画像において該オブジェクトポイントに対応する第一画素点及び第二画像において該オブジェクトポイントに対応する第二画素点を含み、そのうち、前記第一画像は第一カメラが前記撮影対象を撮影することで得る画像であり、前記第二画像は第二カメラが前記撮影対象を撮影することで得る画像であり、そのうち、前記画素座標は、前記第一画素点の前記第一画像における第一画素座標及び前記第二画素点の前記第二画像における第二画素座標を含み;
前記第一画素座標及び前記第一カメラの内部パラメータに基づいて、前記第一カメラの第一カメラ座標系の原点を通過する第一直線を確定し、そのうち、前記オブジェクトポイントの前記第一カメラ座標系における第一座標の表示は、前記第一直線上に位置し;
前記第二画素座標及び前記第二カメラの内部パラメータに基づいて、前記第二カメラの第二カメラ座標系の原点を通過する第二直線を確定し、そのうち、前記オブジェクトポイントの前記第二カメラ座標系における第二座標の表示は、前記第二直線上に位置し;及び
前記第一直線、前記第二直線、及び、前記第一カメラと前記第二カメラとの相対位置関係を記述する外部パラメータに基づいて、前記オブジェクトポイントの深度を確定すること(ステップ)を含む。
本開示のもう1つの側面によれば、チップ回路が提供され、それは、上述の画像深度確定方法のステップを実行するように構成される回路ユニットを含む。
本開示のもう1つの側面によれば、画像深度確定装置が提供され、それは、上述のチップ回路を含む。
本開示のもう1つの側面によれば、計算装置が提供され、それは、1つ又は複数の処理器及び記憶器を含む。記憶器には指令を含むプログラムが記憶されており、前記指令は前記1つ又は複数の処理器により実行されるときに前記1つ又は複数の処理器に上述の方法を実行させることができる。
本開示のもう1つの側面によれば、1つ又は複数の非一時的コンピュータ可読記憶が提供され、その中には指令を含むプログラムが記憶されており、前記指令は計算装置の1つ又は複数の処理器により実行されるときに前記計算装置に上述の方法を実行させることができる。
本開示のもう1つの側面によれば、生き物認識方法が提供される。該生き物認識方法は、
撮影対象上の複数のオブジェクトポイントと関連付けられる複数の特徴点対のうちの各特徴点対に対して上述の画像深度確定方法を実行することにより、前記複数のオブジェクトポイントに対応する深度を確定し、そのうち、各特徴点対の第一画素点は前記第一画像における顔のキーボードであり、各特徴点対の第二画素点は前記第二画像における顔のキーボードであり;及び
前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識すること(ステップ)を含む。
添付した図面は、実施例を例示的に示し且つ明細書の一部を構成し、明細書の文字説明とともに実施例の例示的な実施方式を説明するために使用される。図示した実施例は、例示的みを目的としており、特許請求の範囲を限定するものではない。また、すべての図面では、同じ参照記号は、類似しているが、必ずしも同じでない要素を指す。
カメラと関連付けられるカメラ結像モデルを示す図である。 本開示の例示的な実施例における画像深度確定方法のフローチャートである。 本開示の例示的な実施例における図2の画像深度確定方法のためのデータ準備プロセスのフローチャートである。 本開示の例示的な実施例における図3の方法においてオブジェクトポイントの深度を確定するステップの例示的な操作のフローチャートである。 本開示の例示的な実施例における図4の操作において第一直線及び第二直線に基づいてオブジェクトポイントの深度を確定するステップの例示的な操作のフローチャートである。 第一カメラ座標系において第一直線及び第二直線が異なる面にあること(即ち、非共面であること)を示す図である。 第一カメラ座標系において第一直線及び第二直線が同じ面にあること(即ち、共面であること)を示す図である。 本開示の例示的な実施例における画像深度確定装置の構成を示すブロック図である。 本開示の例示的な実施例における計算装置の構成を示すブロック図である。 本開示の例示的な実施例における生き物認識方法のフローチャートである。 本開示の例示的な実施例における図10の方法において撮影対象が生き物であるかどうかを認識するステップの例示的なスキームを示す図である。
本開示では、特に明記されない限り、用語「第一」、「第二」などが、各種の要素を説明するために使用されるが、これらの要素の位置関係、タイミング関係又は重要度関係を限定することを意図するものではない。このような用語は、1つの要素をもう1つの要素と区別するためだけに用いられる。幾つかの例示において、第一要素及び第二要素が該要素の同一実例を指向することができるが、幾つかの場合において、コンテキストに基づいて、それらは、異なる実例を指すこともできる。
本開示では、様々な前記例示についての説明に使用する用語は、特定の例示を説明することのみを目的としており、限定を行うことを目的としない。コンテキストに明記されない限り、要素の数が特に限定されない場合、該要素は1つであっても良く、複数であっても良い。また、本開示に使用する用語「及び/又は」は、リストされている項目的うちの任意の1つ及びすべての可能な組み合わせをカバーする。
シーンの深度を取得する関連技術では、通常、全図又は1つの大きな画像領域の画像データに対して操作(例えば、エピポーラ修正(epipolar rectification)、歪み修正)を行う必要がある。これは、比較的高い計算複雑度を来してしまうため、比較的低い処理効率又は比較的高い計算能力要求を引き起こすことがある。
以下の詳細な説明から分かるように、本開示の実施例による画像深度確定方法は画像中の特徴点対(全図又は画像領域データではない)を用いてシーンの深度を確定することができる。全図又は大きな画像領域の画像データに対して操作を行う必要のある関連技術に比べて、これは、計算量を減少させることができるため、処理効率の向上又は計算能力に対しての要求の低減に有利である。
本開示の実施例をより良く理解するために、以下、まず、カメラと関連付けられるカメラ結像モデルについて紹介する。
図1は、カメラと関連付けられるカメラ結像モデル100を示す図である。図1に示すように、3次元世界の中の物体(図では、点P(Xw,Yw,Zw)として示されている)がカメラ結像モデル100の作用を受けて2次元画像(図では、画素点P(x,y)として示されている)になる。カメラ結像モデル100は4つの座標系、即ち、世界座標系、カメラ座標系、画像物理座標系及び画像画素座標系を含み得る。
世界座標系は、物体のリアル世界の中の座標を示す参照系であり、単位は長さの単位(例えば、mm)である。カメラ座標系は、光中心を原点とする参照系であり、それは、それぞれ画像のx方向及びy方向に平行なXc軸和Yc軸、及び光軸に平行なZc軸を有し、そのうち、Xc、Yc及びZcは互いに垂直であり、単位は長さの単位である。画像物理座標系(画像座標系ともいう)は、光軸と画像平面との交点を原点とする参照系であり、それは、図に示すようなx方向及びy方向を有し、単位は長さの単位である。画像画素座標系(画素座標系ともいう)は、画像の頂点を原点とする参照系であり、それは、それぞれx方向及びy方向に平行なu方向及びv方向を有し、単位は画素である。一般的には、世界座標系は、カメラの外部パラメータによりカメラ座標系に変換することができ、カメラ座標系は、カメラの内部パラメータ(それは、通常、焦点距離対角行列及び画素変換行列を含む)により画像画素座標系に変換することができる。
2つのカメラを含む立体視システムについて言えば、図1に示すカメラ結像モデル100は、この2つのカメラのうちの何れか1つの結像原理を表すことができる。以下、立体視システムの2つのカメラのうちの1つが第一カメラC0と称され、もう1つが第二カメラC1と称される。
図2は、本開示の例示的な実施例における画像深度確定方法200のフローチャートである。図2に示すように、画像深度確定方法200は、以下のステップを含む。
ステップ210:撮影対象(被写体)上のオブジェクトポイントと関連付けられる特徴点対の画素座標を取得し、そのうち、前記特徴点対は、第一画像において該オブジェクトポイントに対応する第一画素点及び第二画像において該オブジェクトポイントに対応する第二画素点を含み、そのうち、前記第一画像は、第一カメラが前記撮影対象を撮影することで得る画像であり、前記第二画像は、第二カメラが前記撮影対象を撮影することで得る画像であり、そのうち、前記画素座標は、前記第一画素点の前記第一画像における第一画素座標及び前記第二画素点の前記第二画像における第二画素座標を含み;
ステップ230:前記第一画素座標及び前記第一カメラの内部パラメータに基づいて、前記第一カメラの第一カメラ座標系の原点を通過する第一直線を確定し、そのうち、前記オブジェクトポイントの前記第一カメラ座標系における第一座標表示は、前記第一直線上に位置し;
ステップ240:前記第二画素座標及び前記第二カメラの内部パラメータに基づいて、前記第二カメラの第二カメラ座標系の原点を通過する第二直線を確定し、そのうち、前記オブジェクトポイントの前記第二カメラ座標系における第二座標表示は、前記第二直線上に位置し;及び
ステップ250:前記第一直線、前記第二直線、及び、前記第一カメラと前記第二カメラとの相対位置関係を記述する外部パラメータに基づいて、前記オブジェクトポイントの深度を確定する。
以下、図1及び図2に基づいて方法200を具体的に説明する。
ステップ210では、撮影対象上のオブジェクトポイントPと関連付けられる特徴点対の第一画素座標P0(x0,y0)及び第二画素座標P1(x1,y1)を取得する。適切な記憶装置(ローカル及び/又はリモート)から記憶又はバッファリングされている第一画素座標P0(x0,y0)及び第二画素座標P1(x1,y1)を読み取ることができる。代替として、有線又は無線通信リンクを経由して外部装置から第一画素座標P0(x0,y0)及び第二画素座標P1(x1,y1)を受信することもできる。なお、本開示の技術的範囲はこれに限定されない。
幾つかの実施例において、ステップ210の前に、図3に示すデータ準備プロセス300を実行することで、第一画素座標P0(x0,y0)及び第二画素座標P1(x1,y1)を得ることができる。図3は、本開示の例示的な実施例における画像深度確定のためのデータ準備プロセス300のフローチャートである。図3に示すように、プロセス300は以下のステップを含んでも良い。
ステップ310において、第一カメラC0及び第二カメラC1のキャリブレーションを行う。第一カメラC0及び第二カメラC1のうちの各々の内部パラメータ及び外部パラメータは、すべて、例えば、Zhengyou Zhang Camera calibration法を採用してキャリブレーションを行うことができるが、他のキャリブレーション方法も使用可能である。第一カメラC0のシングルショットパラメータが{K0,R0,T0}と記され、そのうち、K0は第一カメラC0の内部パラメータであり、R0及びT0は第一カメラC0の外部パラメータである。より具体的には、R0及びT0は、それぞれ、世界座標系から第一カメラC0のカメラ座標系への回転行列及び平行移動ベクトル(変換ベクトル)であり、K0は第一カメラC0のカメラ座標系から第一カメラC0の画素座標系への変換行列である。第二カメラC1のシングルショットパラメータが{K1,R1,T1}と記され、そのうち、K1は第一カメラC1の内部パラメータであり、R1及びT1は第二カメラC1の外部パラメータである。より具体的には、R1及びT1は、それぞれ、世界座標系から第二カメラC1のカメラ座標系への回転行列及び平行移動ベクトルであり、K1は第二カメラC1のカメラ座標系から第二カメラC1の画素座標系への変換行列である。
一例において、
Figure 2021174554
であり、そのうち、fx0=f0/dx0、fy0=f0/dy0であり、f0は第一カメラC0の焦点距離であり、dx0は第一カメラC0のシングル画素のx方向上のサイズであり、dy0は第一カメラC0のシングル画素のy方向上のサイズであり、u0及びv0は、それぞれ、第一カメラC0の画像座標系原点の、第一カメラC0の画素座標系原点に対してのx方向及びy方向上の偏移量(画素を単位とする)を表す。同様に、該例では、
Figure 2021174554
であり、そのうち、fx1=f1/dx1、fy1=f1/dy1であり、f1は第二カメラC1の焦点距離であり、dx1は第二カメラC1のシングル画素のx方向上のサイズであり、dy1は第二カメラC1のシングル画素のy方向上のサイズであり、u1及びv1は、それぞれ、第二カメラC1の画像座標系原点の、第二カメラC1の画素座標系原点に対してのx方向及びy方向上の偏移量(画素を単位とする)である。
理解すべきは、第一カメラC0及び第二カメラC1は、立体視システムを形成するように適切に配置されても良いということである。幾つかの実施例において、第一カメラC0及び第二カメラC1は、左右配置又は上下配置することで双眼カメラを形成しても良いが、本開示はこれに限定されない。幾つかの実施例において、第一カメラC0及び第二カメラC1は、通常の双眼カメラの配置よりも互いに離れるように配置されても良い。
第一カメラC0及び第二カメラC1配置後、さらに第一カメラC0及び第二カメラC1の相対位置関係を記述する外部パラメータをキャリブレーションし、(R,T)と記しても良い。第一カメラC0のシングルショットパラメータ{K0,R0,T0}及び第二カメラC1のシングルショットパラメータ{K1,R1,T1}を用いて、世界座標系の中の座標Xwの第一カメラC0のカメラ座標系における座標はXc0=R0Xw+T0と表すことができ、また、その第二カメラC1のカメラ座標系における座標はXc1=R1Xw+T1と表すことができる。これにより、Xc0=R0R1−1Xc1+T0−R0R1−1T1を得ることができる。R=R0R1−1及びT=T0−R0R1−1T1とすると、第一カメラC0と第二カメラC1との間の回転行列R及び平行移動ベクトルTを取得することができる。外部パラメータ(R,T)が第一カメラC0と第二カメラC1との相対位置関係を記述しているから、外部パラメータ(R,T)を用いて、第二カメラC1のカメラ座標系の中の座標を第一カメラC0のカメラ座標系の中の座標に変換することができる。
第一カメラC0及び第二カメラC1の内部、外部パラメータを与えた後に、2つのカメラのカメラ座標系における2つの直線に基づいて深度を確定することができる。これは、第一カメラC0及び第二カメラC1のモデル(製品モデル)について限定しない。換言すると、各実施例では、第一カメラC0及び第二カメラC1は異なるタイプ(製品モデル)のカメラであっても良い。これにより、可用のカメラのソースを拡大し、潜在的なシステム交換性及びコスト削減を実現することができる。
ステップ320において、第一カメラC0及び第二カメラC1を用いて同一シーンを撮影する。第一カメラC0及び第二カメラC1が取得した画像は、それぞれ、第一画像IMG0及び第二画像IMG1と記される。幾つかの実施例において、第一カメラC0及び第二カメラC1は、シーンを同時に撮影してIMG0及びIMG1を取得することができる。幾つかの実施例において、第一カメラC0及び第二カメラC1は、シーンをほぼ同時に撮影することでIMG0及びIMG1を得ることができる。コンテキストにおいて、用語“ほぼ同時”とは、2つの時点の差が例えば1秒、0.5秒、0.1秒であり又はそれよりも多く又は少ないことを指しても良い。これは幾つかの応用シーンにおいて可能であり、例えば、撮影対象自身が静止状態にあり、又は静止を維持するように要求されるときである。
得られた第一画像IMG0及び第二画像IMG1には、該シーンの中の撮影対象(例えば、図1に示す点Pであり、それは以下にオブジェクトポイントと称される)に対応する画素点が存在する。理解すべきは、リアル世界の中の物体が無数のオブジェクトポイントからなると見なされ、また、本文においてオブジェクトポイントの実際のサイズを限定しないということである。コンテキストにおいて、説明の便宜のため、オブジェクトポイントPの第一画像IMG0及び第二画像IMG1における表示は、この2つの画像においてそれぞれ対応する画素点に対応する。
ステップ330において、第一画像IMG0及び第二画像IMG1のうちから特徴点を検出し、そして、特徴マッチングを行って少なくとも1つの特徴点対を取得する。各特徴点対は、第一画像IMG0の中で画像特徴(例えば、コーナー点、エッジ点、斑点など)を表す第一画素点及び第二画像IMG1の中で同一画像特徴を表す第二画素点を含む。図1に示すカメラ結像モデル100から分かるように、第一画素点はリアル世界の中の或るオブジェクトポイント(例えば、オブジェクトポイントP)の第一画像IMG0における表示であり、第二画素点は同一オブジェクトポイントの第二画像IMG1における表示である。
第一画像IMG0及び第二画像IMG1の中の特徴点の検出は、任意の既知又は将来の特徴点検出アルゴリズムにより行うことができる。典型的な特徴点検出アルゴリズムは例えばSIFT(Scale Invariant Feature Transform)、SURF(Speeded Up Robust Features)、FAST(Features From Accelerated Segment Test)、BRIEF(Binary Robust Independent Elementary Features)、ORB(Oriented FAST and Rotated BRIEF)などを含んでも良い。第一画像IMG0及び第二画像IMG1における特徴点を得た後に、任意の既知又は将来の特徴マッチングアルゴリズムにより特徴点対のマッチングを行って特徴点対を取得しても良い。代表的な特徴マッチングアルゴリズムは例えばBrute−Force Matcher、Flann−based matcherのような方法を含んでも良い。マッチングの正確度を向上させるために、他のルールやアルゴリズムとの組み合わせを採用して、誤ってマッチングされた特徴点対を除去しても良く、例えば、“ハミング距離が最小距離の2倍よりも小さい”というルール、クロスマッチ、K近傍(KNN)マッチング、RANSAC(Random Sample Consensus)などを使用しても良い。なお、ここでは、これらのアルゴリズムなどについての詳しい説明を省略する。
プロセス300により、世界座標系の中のオブジェクトポイントPの第一画像IMG0における第一画素点とその第一画素座標P0(x0,y0)及び第二画像IMG1における第二画素点とその第二画素座標P1(x1,y1)を得ることができる。得られた画素座標P0(x0,y0)及びP1(x1,y1)は、後続の利用のために、適切な記憶装置(例えば、ローカル及び/又はリモート)に記憶又はバッファリングされても良い。
その後、プロセス300は図3に示すようにノードAに進む。ここで、理解すべきは、ノードAは実際のステップ又は動作を指示するのでなく、プロセス300と後続の可能な処理ステップとの間の“インターフェース”として提供されるということである。
また、理解すべきは、プロセス300は図2及び図3において図2のステップ210の前に実行されると示されているが、他の代替可能な実施例においてプロセス300の各ステップの全部又は幾つかはステップ210の中で行われても良いということである。例えば、ステップ210はステップ330の操作を含んでも良い。幾つかの実施例において、ステップ210はステップ320、330の操作を含んでも良い。幾つかの実施例において、ステップ210はさらにステップ310の操作を含んでも良い。
ここで、再び図2を参照する。方法200はオプションとしてステップ220を含んでも良く、それは、第一画素座標P0(x0,y0)及び第二画素座標P1(x1,y1)の歪みを除去する。画像の歪みは、一般的に、レンズの製造精度及び組み立て時の偏差によるものであり、オリジナル画像のディストーションを引き起こすことがある。各レンズの歪み係数がキャリブレーションにより得られ得る。既知のように、典型的な歪み修正過程は次のとおりであり、即ち、(1)ソース画像の画素座標系を内部パラメータ行列によりカメラ座標系に変換し;(2)歪み係数により画像のカメラ座標を校正し;(3)校正後、内部パラメータ行列によりカメラ座標系を画素座標系に変換し、そして、ソース画像座標の画素値に基づいて(例えば、補間により)新しい画像座標を与える。
通常の深度確定スキームは全図又は画像領域に対して歪み修正を行うことを要する。それに比べて、方法200は特徴点に基づいて深度を確定するのであり、これは、画素座標P0(x0,y0)及びP1(x1,y1)にのみ対して歪み除去を行っても良いことを意味する。これは、計算量の減少に有利であるため、深度確定の効率を向上させることができる。また、理解しやすくするために、以下、歪み除去後のP0及びP1を依然としてP0(x0,y0)及びP1(x1,y1)と記す。
また、理解すべきは、ステップ220はオプションであるということであり、なぜならば、幾つかの実施例において、方法200はステップ210から直接ステップ230まで実行し、歪み修正を行う必要がないからである。さらに、理解すべきは、ステップ220はステップ210とステップ230との間で実行する必要がないということである。例えば、それは図3のステップ330の前に実行されても良い。また、各実施例において、第一カメラC0が撮影した第一画像IMG0及び第二カメラC1が撮影した第二画像IMG0はエピポーラ修正(平行校正ともいう)を行わなくても良い。なぜならば、画像マッチングにより特徴点対を得た後に、方法200は画素値に対して処理を行う必要がないため、厳密に校正された2つの画像を必要としないからである。これは、計算の複雑度の低減に有利であるため、処理の効率を向上させることができる。
ステップ230において、第一画素座標P0(x0,y0)及び第一カメラC0の内部パラメータK0に基づいて、第一カメラC0のカメラ座標系(以下、第一カメラ座標系という)の原点を通過する第一直線L0を確定する。図1に示すカメラ結像モデル100によれば、オブジェクトポイントPの第一カメラ座標系における表示(それは未知量であり、以下、第一座標表示ともいう)が第一直線L0上に位置する。第一カメラC0の内部パラメータK0を用いて、第一座標表示PC0(PC0x,PC0y,PC0z)と第一画素座標P0(x0,y0)との関係は以下のように示すことができる。
Figure 2021174554
第一カメラ座標系の原点及び第一座標表示PC0により第一直線L0を定義することができ、その方向ベクトルは、
Figure 2021174554
である。言い換えると、第一画像中の第一画素点P0に対応するオブジェクトポイントは該第一直線L0上に位置する。また、式(eq1)によれば、第一座標表示PC0(PC0x,PC0y,PC0z)の座標成分PC0x及びPC0yはすべて座標成分PC0zにより表すことができる。
ステップ240において、第二画素座標P1(x1,y1)及び第二カメラC1の内部パラメータK1に基づいて、第二カメラC1のカメラ座標系(以下、第二カメラ座標系という)の原点を通過する第二直線L1を確定する。図1に示すカメラ結像モデル100によれば、オブジェクトポイントPの第二カメラ座標系中の表示(それは未知量であり、以下、第二座標表示ともいう)が第二直線L1上に位置する。第二カメラC1の内部パラメータK1を用いて、第二座標表示PC1(PC1x,PC1y,PC1z)と第二画素座標P1(x1,y1)との関係は以下のように示すことができる。
Figure 2021174554
第二カメラ座標系の原点及び第二座標表示PC1(PC1x,PC1y,PC1z)により第二直線L1を定義することができる。以下に述べるように、第二直線L1の第二カメラ座標系における表示は第一カメラ座標系に変換することができ、これにより、第一直線L0(それは第一カメラ座標系において示される)と第二直線L1との間の相対位置関係を基づいて深度の確定を行うことができる。理解すべきは、第二直線L1の第二カメラ座標系における表示及び該直線の第一カメラ座標系における表示が表すのは同一直線であるが、異なる座標系が参照として採用されているということである。
ステップ250において、第一直線L0、第二直線L1、及び、第一カメラC0と第二カメラC1との相対位置関係を記述する外部パラメータ(R,T)に基づいて、オブジェクトポイントPの深度を確定する。幾つかの実施例において、ステップ250は図4に示す例示的な操作を含んでも良い。
ステップ410:前記第二直線及び前記外部パラメータに基づいて、前記第二直線の前記第一カメラ座標系における表示を確定し;及び
ステップ420:前記第一カメラ座標系において、前記第一直線及び前記第二直線に基づいて、前記オブジェクトポイントの深度を確定する。
図4を参照する。ステップ410では、第二直線L1及び外部パラメータ(R,T)に基づいて、第二直線L1の第一カメラ座標系における表示を確定する。立体視システムにおいて、計算の便宜のため、通常、2つのカメラのうちの1つ(例えば、左カメラ)のカメラ座標系を主座標系として選択し、該主座標系は世界座標系と重なり合う。本文では、第一カメラC0のカメラ座標系(即ち、第一カメラ座標系)を世界座標系とし、また、第一カメラ座標系において深度の確定を行うとする。しかし、前述のように、用語“第一”、“第二”は2つのカメラの位置関係又は重要度関係を限定するためのものではない。前にも述べたように、第二カメラ座標系において、第二カメラ座標系の原点及び第二座標表示PC1(PC1x,PC1y,PC1z)は第二直線L1を定義している。よって、第二直線L1の第一カメラ座標系における表示を確定するために、第二カメラ座標系の原点及び第二座標表示PC1(PC1x,PC1y,PC1z)の両方をすべて第一カメラ座標系に変換することができる。具体的には、外部パラメータ(R,T)を用いて、第二座標表示PC1(PC1x,PC1y,PC1z)を第一カメラ座標系中の表示PC10(PC10x,PC10y,PC10z)(以下、第三座標表示という)に変換することができる。変換のプロセスは以下のとおりである。
Figure 2021174554
同様に、第二カメラ座標系の原点の第一カメラ座標系における表示(以下、第四座標表示という)を
Figure 2021174554
と確定し、C10(Tx,Ty,Tz)と記す。
そして、第三座標表示PC10(PC10x,PC10y,PC10z)及び第四座標表示C10(Tx,Ty,Tz)に基づいて、第二直線L1の第一カメラ座標系における表示を確定する。具体的には、第二直線L1は現在に、第三座標表示PC10及び第四座標表示C10により限定され、その方向ベクトルは、
Figure 2021174554
である。
ステップ420では、第一カメラ座標系において、第一直線L0及び第二直線L1に基づいて、オブジェクトポイントPの深度を確定する。幾つかの実施例において、ステップ420は図5に示す例示的な操作を含んでも良く、即ち、前記第一直線と前記第二直線が異なる面にあることに応じて、前記第一直線と前記第二直線の共通垂線を確定し;前記第一直線と前記共通垂線の第一交点の座標及び前記第二直線と前記共通垂線の第二交点の座標を確定し;及び、前記第一交点の座標の第一深度成分及び前記第二交点の座標の第二深度成分に基づいて、前記オブジェクトポイントの深度を確定する。
図5を参照する。ステップ510では、第一直線L0と第二直線L1が共面であるかを確定する。幾つかの実施例において、これはベクトル法により実現され得る。既知のように、ベクトル法は平面幾何学及び立体幾何学における共面や共線の問題を解決するための有用なツールである。そのため、行列
Figure 2021174554
を構築し、そのうち、
Figure 2021174554
であり、即ち、第一直線L0の方向ベクトルであり、
Figure 2021174554
であり、即ち、外部パラメータ(R,T)の中の平行移動ベクトルTであり、
Figure 2021174554
であり、即ち、第二直線L1の方向ベクトルである。その後、行列Aの式|A|が零(ゼロ)であるかを確定する。|A|=0の場合、第一直線L0が第二直線L1と共面であることを表し、そうでない場合、第一直線L0が第二直線L1と非共面であると表す。カメラの組み立て精度などが原因で、第一直線L0及び第二直線L1は通常非共面である。しかし、幾つかの理想の場合、第一直線L0及び第二直線L1は共面になり得る。
(ステップ510で)第一直線L0が第二直線L1と非共面であると確定した場合、フローがステップ520に進み、該ステップでは、第一直線L0及び第二直線L1の共通垂線を確定し、L2と記す。図6は、第一カメラ座標系において非共面の第一直線L0及び第二直線L1を示す図である。ベクトルクロス積を用いて、共通垂線L2の単位方向ベクトルは以下のように計算することができる。
Figure 2021174554
ステップ530では、第一直線L0と共通垂線L2の交点(以下、第一交点という)の座標及び第二直線L1と共通垂線L2の交点(以下、第二交点という)の座標を確定する。第一交点をX0とし、その座標がX0(X0x,X0y,X0z)であり、第二交点をX1とし、その座標がX1(X1x,X1y,X1z)である場合、以下のような方程式の組を得ることができる。
Figure 2021174554
方程式の組(eq5)は、以下の空間関係に基づいて確率されるのである。
(1)第一の方程式は、第一直線L0の方向ベクトル(L0)
(外1)
Figure 2021174554
が、第一交点X0から第一カメラ座標系の原点を指向する方向ベクトルに平行であることを表し;
(2)第二の方程式は、第二直線L1の方向ベクトル(L1)
(外2)
Figure 2021174554
が、第二交点X1から第二カメラ座標系の原点(より具体的には、第二カメラ座標系の原点の第一カメラ座標系における第四座標表示C10(Tx,Ty,Tz)である)を指向する方向ベクトルに平行であることを表し;
(3)第三の方程式は、共通垂線L2の方向ベクトル(L2)
(外3)
Figure 2021174554
が、第二交点X1から第一交点X0を指向する方向ベクトルに平行であることを表す。
ステップ540では、第一交点X0の座標の深度成分X0z(以下、第一深度成分という)及び第二交点X1の座標の深度成分X1z(以下、第二深度成分という)に基づいて、オブジェクトポイントPの深度を確定する。第一カメラ座標系が世界座標系と重なり合うので、オブジェクトポイントPの第一カメラ座標系における第一座標表示PC0(PC0x,PC0y,PC0z)の深度成分PC0zをオブジェクトポイントPの深度と見なすことができる。そのため、ステップ530で第一交点座標X0(X0x,X0y,X0z)及び第二交点座標X1(X1x,X1y,X1z)を確定した上で、第一深度成分X0z及び第二深度成分X1zの事前定義の関数値をオブジェクトポイントPの深度として計算することができる。
幾つかの実施例において、前記事前定義の関数値は第一深度成分X0z及び第二深度成分X1zの加重平均値を含む。幾つかの実施例において、加重平均値は算術平均値を含み、このような場合、オブジェクトポイントPの深度PC0zは以下のように定義される。
PC0z=(X0z+X1z)/2 (eq6)
方程式の組(eq5)に基づいて、第一交点X0と第二交点X1との中心
Figure 2021174554
を得ることができ、該中心の深度成分はPC0zである。ここまで、一対の特徴点対の画素座標P0(x0,y0)及びP1(x1,y1)かっらオブジェクトポイントPの深度を確定している。
上述の実施例では、式(eq6)は、深度PC0zを共通垂線L2上の第一交点X0と第二交点X1との間の中点のところの深度成分として定義することを表す。しかし、理解すべきは、深度PC0zを共通垂線L2上の他の点のところの深度成分として定義しても良いということである。さらに、他の実施例において、深度PC0zは、任意の他の適切な関数値として定義されても良い。
ここで、再び図5を参照する。(ステップ510で)第一直線L0と第二直線L1が共面であると確定した場合、フローはステップ550に進む。このような場合、第一直線L0と第二直線L1との交点X2の座標X2(X2x,X2y,X2z)の深度成分X2zをオブジェクトポイントPの深度として確定することができる。もちろん、他の実施例も可能である。
図7は、第一カメラ座標系において共面である第一直線L0及び第二直線L1を示す図である。上述のように、第一直線L0の方向ベクトル(L0)
(外4)
Figure 2021174554
及び第二直線L1の方向ベクトル(L1)
(外5)
Figure 2021174554
は既知であり、そのうち、
Figure 2021174554
であり、また
Figure 2021174554
である。そして、第一直線L0及び第二直線L1の空間直線方程式を連立することで、この2つの直線の交点座標X2(X2x,X2y,X2z)を求めることができる。これは、簡単な空間幾何学の問題であるため、ここではその詳しい説明を省略する。交点座標X2(X2x,X2y,X2z)を得た後に、交点座標X2(X2x,X2y,X2z)の深度成分X2zをオブジェクトポイントPの深度とすることができる。
なお、各操作は図面において特定の順序に従って行われると示されているが、これは、これらの操作が必ずしも示されている特定の順序に従って実行されると限られず、また、示されている全ての操作が必ずしも期待の結果を得るために行われるとも限られない。例えば、ステップ240はステップ230の前に実行されても良く、又は、ステップ230と並列実行されても良い。あるいは、例えば、ステップ220は省略されても良い。
図8は、本開示の例示的な実施例における画像深度確定装置800の構成を示すブロック図である。図8に示すように、画像深度確定装置800は、第一カメラC0及び第二カメラC1が撮影した画像データに基づいてシーンの深度を確定する。画像深度確定装置800は、チップ回路810を含み、該チップ回路は、上述の画像深度確定方法200及びその変形例のステップを実行するように構成される回路ユニット812を含む。
なお、本文で使用される用語“回路”とは、次のような回路又はその一部を含むことを指し、即ち、特定用途向け集積回路(ASIC)、電子回路、1つ又は複数のソフトウェア又はファームウェアプログラムを実行する処理器(共通、専用又はグループ)及び/又は記憶器(共通、専用又はグループ)、並びに、前記機能を提供し得る論理回路の組み合わせ及び/又は他の適切なハードウェアコンポネントである。幾つかの実施例において、1つ又は複数のソフトウェア又はファームウェアモジュールにより回路又は回路と関連付けられる機能を実現しても良い。幾つかの実施例において、回路は、ハードウェアの中の少なくとも部分的に操作することが可能なロジックを含んでも良い。また、本文に記載の実施例は、任意の適切な設定を有するハードウェア及び/又はソフトウェアのシステムを使用し得るように実現されても良い。
図8では、画像深度確定装置800は第一カメラC0及び第二カメラC1と分離したように示されているが、幾つかの実施例において、画像深度確定装置800は、第一カメラC0及び第二カメラC1を含んでも良い。
図9は、本開示の例示的な実施例における計算装置900の構成を示すブロック図である。計算装置900は1つ又は複数の処理器及び記憶器を含んでも良い。記憶器は指令を含むプログラムを記憶しており、前記指令は前記1つ又は複数の処理器により実行されるときに前記1つ又は複数の処理器に上述の画像深度確定方法200及びその変形例を実行させることができる。
図9を参照する。ここで、計算装置900を説明し、それは、本開示の各側面に応用されるハードウェア装置の例示である。計算装置900は、処理を行い及び/又は計算するように構成される任意の機器であっても良く、ワークステーション、サーバー、デスクトップコンピュータ、ノートパソコン、タブレットコンピュータ、PDA、スマートフォン、車載コンピュータ、アクセス制御システム、勤怠管理装置又はその任意の組み合わせであっても良いが、本開示はこれに限定されない。上述の画像深度確定装置800は、その全部又は少なくとも一部が計算装置900又は類似した装置又はシステムにより実現され得る。計算装置900が若干の類型の計算プラットフォームのうちの1つの例を示しているが、計算装置900は、図9に示す部品よりも多く又は少ない部品及び/又は異なる部品を含んでも良いが、本開示の技術的範囲はこれに限定されない。
幾つかの実施例において、計算装置900は、(1つ又は複数のインターフェースを介して)バス902に接続され又はバス902と通信される部品を含んでも良い。例えば、計算装置900はバス902、1つ又は複数の処理器904、1つ又は複数の入力装置906及び1つ又は複数の出力装置908を含んでも良い。1つ又は複数の処理器904は任意の類型の処理器であっても良く、また、1つ又は複数の汎用処理器及び/又は1つ又は複数の専用処理器(例えば、特殊処理チップ)を含んでも良いが、これに限定されない。入力装置906は計算装置900に情報を入力する任意の類型の装置であっても良く、また、マウス、キーボード、タッチパネル、マイクフォン及び/又はリモコンを含んでも良いが、これに限定されない。出力装置908は情報を表示し得る任意の類型の装置であっても良く、また、表示器、スピーカー、ビデオ/音声出力端末、振動器及び/又はプリンタを含んでも良いが、これに限定されない。計算装置900はさらに非一時的記憶装置910を含み又は非一時的記憶装置910に接続されても良い。非一時的記憶装置は非一時的で且つデータ記憶を実現し得る任意の記憶装置であっても良く、また、ディスクドライブ、光ストレージデバイス、ソリッドステートストレージ、フロッピーディスク、フレキシブルディスク、ハードディスク、テープ又はその他の磁気メディア、光ディスク又はその他の光メディア、ROM(読み取り専用メモリ)、RAM、高速バッファリング記憶器及び/又は任意の他の記憶器チップ又はボックス、及び/又はコンピュータがその中からデータ、指令及び/又はコードを読み取り可能な任意の他の記憶を含んでも良いが、これに限定されない。非一時的記憶装置910はインターフェースから外すことができる。非一時的記憶装置910は1つ又は複数の非一時的コンピュータ可読記憶媒体を具現し、その中には指令を含むプログラムが記憶されており、前記指令は計算装置900の1つ又は複数の処理器により実行されるときに、前記計算装置900に上述の画像深度確定方法200及びその変形例を実行させることができる。計算装置900はさらに通信装置912を含んでも良い。通信装置912は、外部装置及び/又はネットワークと通信可能なの任意の類型の装置又はシステムであっても良く、また、モデム、ネットワークカード、赤外線通信装置、無線通信装置及び/又はチップ組、例えば、Bluetooth装置、1302.11装置、WiFi装置、WiMax装置、セルラー通信装置及び/又は類似物を含んでも良いが、これに限定されない。
幾つかの実施例において、計算装置900はさらにワーキング記憶器914を含んでも良く、それは処理器904のワーキングに有用なプログラム(指令を含む)及び/又はデータを記憶するための任意の類型の記憶器であっても良く、また、ROM及び/又はRAMを含んでも良いが、これに限定されない。
ソフトウェアエレメント(プログラム)がワーキング記憶器914にあっても良く、また、オペレーティングシステム(OS)916、1つ又は複数の応用プログラム918、駆動プログラム及び/又は他のデータ及びコードを含んでも良いが、これに限定されない。上述の方法及びステップを実行するための指令は1つ又は複数の応用プログラム918に含まれても良く、また、上述の画像深度確定装置800のチップ回路810は、処理器904が1つ又は複数の応用プログラム918の指令を読み取って実行することにより実現され得る。ソフトウェアエレメント(プログラム)の指令の実行可能なコード又はソースコードは非一時的コンピュータ可読記憶記憶(例えば、上述の記憶装置910)に記憶することができ、また、実行時にワーキング記憶器914に格納することができる(コンパイル及び/又はインストールされ得る)。また、ソフトウェアエレメント(プログラム)の指令の実行可能なコード又はソースコードは遠隔からダウンロードすることもできる。
また、理解すべきは、具体的な要求に応じて各種の変形例を行っても良いということである。例えば、カスタマイズハードウェア、及び/又はハードウェア、ソフトウェア、ファームウェア、ミッドウェア、マイクロコード、ハードウェア記述言語又はその任意の組み合わせを用いて特定の素子を実現することができる。例えば、開示の方法及び装置の中の幾つか又は全部は、本開示による論理及びアルゴリズムに基づいて、アセンブリ言語又はハードウェアプログラミング言語(例えば、VERILOG(登録商標)、VHDL、C ++)を用いてハードウェア(例えば、FPGA及び/又はPLAのプログラミング可能な論理回路)に対してプログラミングすることにより実現することもできる。
また、理解すべきは、前述の方法はサーバー−クライアントの方式で実現され得るということである。例えば、クライアントは第一カメラC0及び第二カメラC1が得た画像データを用いて、前記画像データをサーバーに送って後続の処理をしてもらうことができる。クライアントは、前述の方法における一部の処理を行い、処理により得たデータをサーバーに送信しても良い。サーバーは、クライアントからのデータを受信し、前述の方法又は前述の方法の中の他の一部を実行し、そして、実行結果をクライアントに返すこともできる。クライアントはサーバーから方法の実行結果を受信することができ、そして、例えば、出力装置によりユーザに見せることができる。
さらに理解すべきは、計算装置900のコンポネントがネットワークに分散しても良いということである。例えば、1つの処理器を用いて幾つかの処理を実行すると同時に、該1つの処理器から離れたもう1つの処理器により他の処理を実行することができる。計算装置900の他のコンポネントも同様に分散しても良い。このようにして、計算装置900は、複数の位置で複数の処理器により処理を実行する分散型計算システムと見なすことができる。
上述の画像深度確定方法200又は画像深度確定装置800は各種の用途、例えば、顔(典型的に、人間の顔)の認識に適用することができる。顔認識の応用のコンテキストにおいて、第一及び第二画像IMG0及びIMG1のうちから顔領域を確定した後に、顔特徴点検出アルゴリズムによりM個の顔特徴点(例えば、眉毛、目、鼻、口、顔輪郭などの位置上の特徴点)を取得する。第一画像IMG0上の顔特徴点は(x0i,y0i)と記し,i=1,…,Mである。第二画像IMG1上の顔特徴点は(x1i,y1i)と記し,i=1,…,Mである。マッチングの特徴点対はPAIRi((x0i,y0i),(x1i,y1i))と記し、i=1,…,Mである。上述の画像深度確定方法200を用いて、各PAIRiに対応する深度情報Diを得ることができ、i=1,…,Mである。このような深度情報はさらに生き物認識などの各種の具体的な応用に用いることができる。
図10は、本開示の例示的な実施例における生き物認識方法1000のフローチャートである。生き物認識方法1000は以下のステップを含んでも良い。
ステップ1010:撮影対象上の複数のオブジェクトポイントと関連付けられる複数の特徴点対のうちの各特徴点対に対して上述の画像深度確定方法200又はその変形例を実行し、前記複数のオブジェクトポイントに対応する深度を確定し、そのうち、各特徴点対の第一画素点は前記第一画像における顔のキーボードであり、各特徴点対の第二画素点は前記第二画像における顔のキーボードであり;及び
ステップ1020:前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識する。
図10に示すように、ステップ1010では、撮影対象上の複数のオブジェクトポイントと関連付けられる複数の特徴点対(例えば、PAIRi((x0i,y0i),(x1i,y1i)),i=1,…,M)のうちの各特徴点対に対して、画像深度確定方法200又はその変形例を実行することで、前記複数のオブジェクトポイントに対応する深度(例えば、Diであり,i=1,…,Mである)を確定することができる。
ステップ1020では、前記複数のオブジェクトポイントに対応する深度Di(i=1,…,M)に基づいて、撮影対象が生き物であるかどうかを認識する。一般的には、ステップ1020は例えば、顔深度閾値判断スキーム1022、サポートベクトルマシン(SVM)スキーム1024又は人工ニューラルネットワーク(ANN)スキーム1026に基づいても良く、例えば、図11の上位層で例示的に示されてるものである。以下、この3種類のスキームを詳細に説明するが、他の実施例も可能である。
顔深度閾値判断スキーム1022では、複数のオブジェクトポイントに対応する深度の関数値と所定閾値の関係に基づいて、撮影対象が生き物であるかどうかを認識する。具体的には、複数のオブジェクトポイントの深度の関数を構築し、各オブジェクトポイントの深度値を該関数に代入する。その後、得られた関数値と所定閾値との比較を行い、そして、比較結果に基づいて撮影対象が生き物であるかどうかを認識する。幾つかの実施例において、これは以下の例示的な操作を含んでも良い。
(1a)各特徴点対のうちの深度値最小の特徴点対を確定し、該特徴点対に対応する深度値を取得し;
(1b)それぞれ各特徴点対の深度値から該最小深度値を減算し、各特徴点対の相対深度値を取得し;
(1c)各特徴点対の相対深度値の和又は二乗和を比較値として計算する。前記比較値が所定閾値未満のときに、撮影対象が非生き物であると認識し、そうでない場合、撮影対象が生き物であると認識する。
SVMスキーム1024では、各オブジェクトポイントの深度を用いて入力ベクトルを構築し、そして、訓練済みのサポートベクトルマシンに入力して認識結果を得る。幾つかの実施例において、これは、次のような例示的な操作を含んでも良く、即ち、将各オブジェクトポイントの深度を該オブジェクトポイントの前記第一座標表示に代入して該オブジェクトポイントの空間座標を取得し;前記複数のオブジェクトポイントの対応空間座標と、標準顔(基準顔)の対応キーポイント空間座標とをアラインするためのアラインメントパラメータを確定し;確定されたアラインメントパラメータを利用して、各対応空間座標及び標準顔の対応キーポイント空間座標に対してアラインメントを行ってアラインメント後の各対応空間座標を取得し;アラインメント後の各対応空間座標の深度成分を用いて深度特徴ベクトルを構築し;及び、前記深度特徴ベクトルを訓練済みのサポートベクトルマシンによる分類器に入力して認識結果を取得する。
以下、SVMスキーム1024における操作を詳しく説明する。
(2a)各オブジェクトポイントの深度を該オブジェクトポイントの第一座標表示PC0(PC0x,PC0y,PC0z)に代入して該オブジェクトポイントの空間座標を取得する。上述の画像深度確定方法200に関する説明から分かるように、第一座標表示PC0(PC0x,PC0y,PC0z)は深度値の関数と見なすことができ、そのうち、PC0zは深度値に等しいと見なされ、PC0x及びPC0yはすべて式(eq1)に基づいてPC0zにより表され得る。よって、M個の特徴点対について、各自のM個の深度値を第一座標表示PC0(PC0x,PC0y,PC0z)に代入することで、M個の空間座標{(x,y,z),i=1,…,M}を得ることができる。
(2b)複数のオブジェクトポイントの対応空間座標{(x,y,z),i=1,…,M}と、標準顔の対応キーポイント空間座標とのアラインメントのためのアラインメントパラメータを確定する。アラインメントの作用は1つの任意角度の顔を1つの正面視の顔の形状にマッピングすることにある。標準顔は、複数の正目視の顔を撮影して一組のキーポイントの空間座標を取得し、その後、平均を取る方式で得ることができる。標準顔のキーポイント空間座標を{(xs,ys,zs),i=1,…,M}と記す。アラインメントパラメータは回転ベクトルRa、平行移動ベクトルTa、及び伸縮(ストレッチ)尺度sを含む。この場合、
Figure 2021174554
がある。そして、最小化エネルギー(コスト)関数
Figure 2021174554
を解くことで、アラインメントパラメータRa、Ta及びsを得ることができる。
(2c)確定されたアラインメントパラメータを用いて、各対応空間座標{(x,y,z),i=1,…,M}と標準顔の対応キーポイント空間座標{(xs,ys,zs),i=1,…,M}とのアラインメントを行って、ラインメント後の各対応空間座標を取得する。具体的には、アラインメントパラメータを用いて、アラインメント後のキーポイント空間座標{(x’,y’,z’),i=1,…,M}を得ることができる。
(2d)アラインメント後の各対応空間座標{(x’,y’,z’),i=1,…,M}の深度成分を用いて深度特徴ベクトルを構築する。一例において、M次元の深度特徴ベクトルFEATURE={z’,i=1,…,M}を構築することができる。
(2e)深度特徴ベクトルFEATURE={z’,i=1,…,M}を訓練済みのサポートベクトルマシンによる分類器に入力して認識結果を取得する。SVM分類器は事先訓練されたものである。SVM分類器の訓練において、生き物サンプルと非生き物サンプルのキーポイント空間座標を上述の方式でアラインし、そして、深度特徴ベクトルを訓練サンプルとして構築する。その後、訓練サンプルを用いてSVM分類器を訓練することでSVM分類器パラメータを得ることができる。
幾つかの実施例において、SVMスキーム1024の認識結果の上で、さらに伸縮尺度sを用いて生き物認識を行うことができる。伸縮尺度sの大小(サイズ)は、検出された顔と標準顔との大小の比率の関係を表す。大量の顔データを用いて、(例えば、統計の方式で)1つの伸縮尺度sの所定範囲を取得し、それを、検出された顔が正常顔であるかを指示するための指標としても良い。SVMの認識結果により撮影対象が生き物であることを示した場合、伸縮尺度sが該所定範囲内にある場合、撮影対象を生き物と認識する。伸縮尺度sが該所定範囲内に位置しない(例えば、該所定範囲の下限よりも低く又は該所定範囲の上限を超えた)場合、撮影対象を非生き物と認識する。
幾つかの実施例において、SVMスキーム1024の代わりに、直接、上述の操作(2a)及び(2b)で確定されたアラインメントパラメータ(それは伸縮尺度sを含む)を用いて生き物認識を行っても良い。即ち、伸縮尺度sが所定範囲内にある場合、撮影対象を生き物と認識する。伸縮尺度sが該所定範囲内にない(例えば、該所定範囲の下限よりも低く又は該所定範囲の上限を超えた)場合、撮影対象を非生き物と認識する。
ANNスキーム1026では、各オブジェクトポイントの空間座標{(x’,y’,z’),i=1,…,M}を用いて入力ベクトルを構築し、そして、訓練済みのサポートベクトルマシンに入力して認識結果を取得する。幾つかの実施例において、これは次のような例示的な操作を含んでも、即ち、各オブジェクトポイントの深度を該オブジェクトポイントの前記第一座標表示に代入して該オブジェクトポイントの空間座標を取得し;前記複数のオブジェクトポイントの対応空間座標と標準顔の対応キーポイント空間座標とのアラインメントのためのアラインメントパラメータを確定し;確定されたアラインメントパラメータを用いて各対応空間座標と標準顔の対応キーポイント空間座標とのアラインメントを行い、アラインメント後の各対応空間座標を取得し;アラインメント後の各対応空間座標を用いて入力ベクトルを構築し;及び、前記入力ベクトルを訓練済みの人工ニューラルネットワークに入力して認識結果を取得する。
以下、ANNスキーム1026における操作について説明する。
(3a)M個の特徴点対について、各自のM個の深度値を第一座標表示PC0(PC0x,PC0y,PC0z)に代入し、M個の空間座標{(x,y,z),i=1,…,M}を取得する。
(3b)複数のオブジェクトポイントの対応空間座標{(x,y,z),i=1,…,M}と標準顔の対応キーポイント空間座標とのアラインメントのためのアラインメントパラメータを確定する。
(3c)確定されたアラインメントパラメータを基づいて、各対応空間座標{(x,y,z),i=1,…,M}と標準顔の対応キーポイント空間座標とのアラインメントを行い、アラインメント後の各対応空間座標を取得する。ここで、操作(3a)乃至(3c)は上述のSVMスキーム1024について説明した操作(2a)乃至(2c)と同じであるため、その説明は省略される。
(3d)アラインメント後の各対応空間座標{(x’,y’,z’),i=1,…,M}を用いて入力ベクトルを構築する。一例において、{(x’,y’,z’),i=1,…,M}を直接、入力ベクトルとして構築しても良い。
(3e)前記入力ベクトルを訓練済みのANNに入力して認識結果を取得する。SVMスキーム1024と同様に、ANNは事先訓練されたものである。ANNの訓練において、生き物サンプルと非生き物サンプルのキーポイント空間座標に対して上述の方式でラインメントを行い、そして、訓練サンプルを形成する。その後、訓練サンプルを用いてANNを訓練し、ANNのネットワークパラメータを取得する。該実施例では、任意の適切な類型の人工ニューラルネットワークを採用しても良いが、本開示の技術的範囲はこれに限定されない。
幾つかの実施例において、ANNスキーム1026の認識結果をもとに、さらに伸縮尺度sを用いて生き物認識を行うことができる。即ち、ANNの認識結果により撮影対象が生き物であると示した場合、さらに伸縮尺度sを用いて認識を行い、伸縮尺度sが所定範囲内にある場合、撮影対象を生き物と認識する。伸縮尺度sが該所定範囲内に位置しない(例えば、該所定範囲の下限よりも低く又は該所定範囲の上限を超えた場合)、撮影対象を非生き物と認識する。
なお、図面を参照しながら本開示の実施例又は実施方式を説明したが、理解すべきは、上述の方法、システム及び装置は例示的な実施例又は実施方式に過ぎず、本開示の範囲はこれらの実施例又は実施方式により限定されず、特許請求の範囲及びその均等範囲により限定されるということである。実施例又は実施方式における各種の要素は、省略されても良く又は他の均等要素により置換されても良い。また、本開示に述べた順序とは異なる順序に従って各ステップを実行しても良い。さらに、各種の方式で実施例又は実施方式における各種の要素を組み合わせても良い。重要なのは、技術が進化するにつれて、ここで記載されている多くの要素を、本開示の後に現れる均等要素により置き換えることができるということである。

Claims (22)

  1. 画像深度確定方法であって、
    撮影対象上のオブジェクトポイントと関連付けられる特徴点対の画素座標を取得し、前記特徴点対は、第一画像において該オブジェクトポイントに対応する第一画素点及び第二画像において該オブジェクトポイントに対応する第二画素点を含み、前記第一画像は、第一カメラが前記撮影対象を撮影することで得る画像であり、前記第二画像は、第二カメラが前記撮影対象を撮影することで得る画像であり、前記画素座標は、前記第一画素点の前記第一画像における第一画素座標及び前記第二画素点の前記第二画像における第二画素座標を含み;
    前記第一画素座標及び前記第一カメラの内部パラメータに基づいて、前記第一カメラの第一カメラ座標系の原点を通過する第一直線を確定し、前記オブジェクトポイントの前記第一カメラ座標系における第一座標表示は、前記第一直線上に位置し;
    前記第二画素座標及び前記第二カメラの内部パラメータに基づいて、前記第二カメラの第二カメラ座標系の原点を通過する第二直線を確定し、前記オブジェクトポイントの前記第二カメラ座標系における第二座標表示は、前記第二直線上に位置し;及び
    前記第一直線、前記第二直線、及び、前記第一カメラと前記第二カメラとの相対位置関係を記述する外部パラメータに基づいて、前記オブジェクトポイントの深度を確定することを含む、画像深度確定方法。
  2. 請求項1に記載の画像深度確定方法であって、
    前記前記第一直線、前記第二直線、及び、前記第一カメラと前記第二カメラとの相対位置関係を記述する外部パラメータに基づいて、前記オブジェクトポイントの深度を確定することは、
    前記第二直線及び前記外部パラメータに基づいて、前記第二直線の前記第一カメラ座標系における表示を確定し;及び
    前記第一カメラ座標系において、前記第一直線及び前記第二直線に基づいて、前記オブジェクトポイントの深度を確定することを含む、画像深度確定方法。
  3. 請求項2に記載の画像深度確定方法であって、
    前記第二直線及び前記外部パラメータに基づいて、前記第二直線の前記第一カメラ座標系における表示を確定することは、
    前記外部パラメータを用いて、前記第二座標表示を前記第一カメラ座標系における第三座標表示に変換し、前記第二カメラ座標系の原点の前記第一カメラ座標系における第四座標表示を確定し;及び
    前記第三座標表示及び前記第四座標表示に基づいて、前記第二直線の前記第一カメラ座標系における表示を確定することを含む、画像深度確定方法。
  4. 請求項2又は3に記載の画像深度確定方法であって、
    前記第一カメラ座標系において、前記第一直線及び前記第二直線に基づいて、前記オブジェクトポイントの深度を確定することは、
    前記第一直線と前記第二直線が非共面であることに応じて、前記第一直線及び前記第二直線の共通垂線を確定し;
    前記第一直線と前記共通垂線との第一交点の座標、及び前記第二直線と前記共通垂線との第二交点の座標を確定し;及び
    前記第一交点の座標の第一深度成分及び前記第二交点の座標の第二深度成分に基づいて、前記オブジェクトポイントの深度を確定することを含む、画像深度確定方法。
  5. 請求項4に記載の画像深度確定方法であって、
    前記第一直線と前記共通垂線との第一交点の座標、及び前記第二直線と前記共通垂線との第二交点の座標を確定することは、
    前記第一直線の方向ベクトルが、前記第一交点から前記第一カメラ座標系の原点を指向する方向ベクトルに平行であり;
    前記第二直線の方向ベクトルが、前記第二交点から前記第二カメラ座標系の原点を指向する方向ベクトルに平行であり;及び
    前記共通垂線の方向ベクトルが、前記第二交点から前記第一交点を指向する方向ベクトルに平行である
    という空間関係に基づいて、前記第一交点の座標及び前記第二交点の座標を確定することを含む、画像深度確定方法。
  6. 請求項4又は5に記載の画像深度確定方法であって、
    前記第一交点座標の第一深度成分及び前記第二交点座標の第二深度成分に基づいて、前記オブジェクトポイントの深度を確定することは、
    前記第一深度成分及び前記第二深度成分の事前定義の関数値を前記オブジェクトポイントの深度として確定することを含む、画像深度確定方法。
  7. 請求項6に記載の画像深度確定方法であって、
    前記事前定義の関数値は加重平均値を含む、画像深度確定方法。
  8. 請求項7に記載の画像深度確定方法であって、
    前記加重平均値は算術平均値を含む、画像深度確定方法。
  9. 請求項2乃至8のうちの何れか1項に記載の画像深度確定方法であって、
    前記第一カメラ座標系において、前記第一直線及び前記第二直線に基づいて、前記オブジェクトポイントの深度を確定することは、
    前記第一直線と前記第二直線が共面であることに応じて、前記第一直線と前記第二直線との交点の座標の深度成分を前記オブジェクトポイントの深度として確定することを含む、画像深度確定方法。
  10. 請求項1乃至9のうちの何れか1項に記載の画像深度確定方法であって、
    前記第一カメラ及び前記第二カメラは異なる製品モデルのカメラである、画像深度確定方法。
  11. 請求項1乃至9のうちの何れか1項に記載の画像深度確定方法であって、さらに、
    前記第一画素座標及び前記第一カメラの内部パラメータに基づいて、前記第一カメラの第一カメラ座標系の原点を通過する第一直線を確定する前に、前記第一画素座標に対して歪み除去を行い;及び
    前記第二画素座標及び前記第二カメラの内部パラメータに基づいて、前記第二カメラの第二カメラ座標系の原点を通過する第二直線を確定する前に、前記第二画素座標に対して歪み除去を行うことを含む、画像深度確定方法。
  12. チップ回路であって、
    請求項1乃至11のうちの何れか1項に記載の画像深度確定方法を実行するように構成される回路ユニットを含む、チップ回路。
  13. 請求項12に記載のチップ回路を含む画像深度確定装置。
  14. 計算装置であって、
    1つ又は複数の処理器;及び
    指令を含むプログラムを記憶している記憶器を含み、
    前記指令は、前記1つ又は複数の処理器により実行されるときに、前記1つ又は複数の処理器に、請求項1乃至11のうちの何れか1項に記載の画像深度確定方法を実行させる、計算装置。
  15. コンピュータに、請求項1乃至11のうちの何れか1項に記載の画像深度確定方法を実行させるためのプログラムを記憶している、コンピュータ読み取り可能な記憶媒体。
  16. 生き物認識方法であって、
    撮影対象上の複数のオブジェクトポイントと関連付けられる複数の特徴点対のうちの各特徴点対に対して、請求項1乃至11のうちの何れか1項に記載の画像深度確定方法を実行することにより、前記複数のオブジェクトポイントに対応する深度を確定し、各特徴点対の第一画素点は、前記第一画像における顔のキーボードであり、各特徴点対の第二画素点は、前記第二画像における顔のキーボードであり;及び
    前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識することを含む、生き物認識方法。
  17. 請求項16に記載の生き物認識方法であって、
    前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識することは、
    前記複数のオブジェクトポイントに対応する深度の関数値と、所定閾値との関係に基づいて、前記撮影対象が生き物であるかどうかを認識することを含む、生き物認識方法。
  18. 請求項16に記載の生き物認識方法であって、
    各オブジェクトポイントの前記第一座標表示の各座標成分が該オブジェクトポイントの深度の関数であり、
    前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識することは、
    各オブジェクトポイントの深度を該オブジェクトポイントの前記第一座標表示に代入して、該オブジェクトポイントの空間座標を取得し;
    前記複数のオブジェクトポイントの対応空間座標と、標準顔の対応キーポイント空間座標とのアラインメントのためのアラインメントパラメータを確定し;
    確定されたアラインメントパラメータを用いて、各対応空間座標と、標準顔の対応キーポイント空間座標とのアラインメントを行って、アラインメント後の各対応空間座標を取得し;
    アラインメント後の各対応空間座標の深度成分に基づいて深度特徴ベクトルを形成し;及び
    前記深度特徴ベクトルを訓練済みのサポートベクトルマシンによる分類器に入力して、認識結果を得ることを含む、生き物認識方法。
  19. 請求項18に記載の生き物認識方法であって、
    前記アラインメントパラメータが伸縮尺度を含み、
    前記生き物認識方法は、さらに、
    前記撮影対象が生き物であることを前記認識結果により示したことに応じて、前記伸縮尺度が所定範囲内にあるかを確定し;
    前記伸縮尺度が所定範囲内にあると確定されたことに応じて、前記撮影対象を生き物と認識し;及び
    前記伸縮尺度が所定範囲内にないと確定されたことに応じて、前記撮影対象を非生き物と認識することを含む、生き物認識方法。
  20. 請求項16に記載の生き物認識方法であって、
    各オブジェクトポイントの前記第一座標表示の各座標成分が該オブジェクトポイントの深度の関数であり、
    前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識することは、
    各オブジェクトポイントの深度を該オブジェクトポイントの前記第一座標表示に代入して、該オブジェクトポイントの空間座標を取得し;
    前記複数のオブジェクトポイントの対応空間座標と、標準顔の対応キーポイント空間座標とのアラインメントのためのアラインメントパラメータを確定し、前記アラインメントパラメータは伸縮尺度を含み;
    前記伸縮尺度が所定範囲内にあることに応じて、前記撮影対象を生き物と認識し;及び
    前記伸縮尺度が所定範囲内にないことに応じて、前記撮影対象を非生き物と認識することを含む、生き物認識方法。
  21. 請求項16に記載の生き物認識方法であって、
    各オブジェクトポイントの前記第一座標表示の各座標成分が該オブジェクトポイントの深度の関数であり、
    前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識することは、
    各オブジェクトポイントの深度を該オブジェクトポイントの前記第一座標表示に代入して、該オブジェクトポイントの空間座標を取得し;
    前記複数のオブジェクトポイントの対応空間座標と、標準顔の対応キーポイント空間座標とのアラインメントのためのアラインメントパラメータを確定し;
    確定されたアラインメントパラメータを用いて、各対応空間座標と、標準顔の対応キーポイント空間座標とのアラインメントを行って、アラインメント後の各対応空間座標を取得し;
    アラインメント後の各対応空間座標を用いて入力ベクトルを形成し;及び
    前記入力ベクトルを訓練済みの人工ニューラルネットワークに入力して認識結果を得ることを含む、生き物認識方法。
  22. 請求項21に記載の生き物認識方法であって、
    前記アラインメントパラメータが伸縮尺度を含み、
    前記生き物認識方法は、さらに、
    前記撮影対象が生き物であることを前記認識結果により示したことに応じて、前記伸縮尺度が所定範囲内にあるかどうかを確定し;
    前記伸縮尺度が所定範囲内にあると確定されたことに応じて、前記撮影対象を生き物と認識し;及び
    前記伸縮尺度が所定範囲内にないと確定されたことに応じて、前記撮影対象を非生き物と認識することを含む、生き物認識方法。
JP2021074934A 2020-04-28 2021-04-27 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体 Active JP7064257B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010351856.9A CN111563924B (zh) 2020-04-28 2020-04-28 图像深度确定方法及活体识别方法、电路、设备和介质
CN202010351856.9 2020-04-28

Publications (2)

Publication Number Publication Date
JP2021174554A true JP2021174554A (ja) 2021-11-01
JP7064257B2 JP7064257B2 (ja) 2022-05-10

Family

ID=72075496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021074934A Active JP7064257B2 (ja) 2020-04-28 2021-04-27 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体

Country Status (5)

Country Link
EP (1) EP3905195A1 (ja)
JP (1) JP7064257B2 (ja)
KR (1) KR102386444B1 (ja)
CN (1) CN111563924B (ja)
WO (1) WO2021218568A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232315B2 (en) 2020-04-28 2022-01-25 NextVPU (Shanghai) Co., Ltd. Image depth determining method and living body identification method, circuit, device, and medium
CN111563924B (zh) * 2020-04-28 2023-11-10 上海肇观电子科技有限公司 图像深度确定方法及活体识别方法、电路、设备和介质
CN112487921B (zh) * 2020-11-25 2023-09-08 奥比中光科技集团股份有限公司 一种用于活体检测的人脸图像预处理方法及系统
CN114267068B (zh) * 2021-12-24 2022-11-01 合肥的卢深视科技有限公司 基于连续帧信息的人脸识别方法、电子设备及存储介质
CN116402871B (zh) * 2023-03-28 2024-05-10 苏州大学 一种基于场景平行要素的单目测距方法、系统及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239218A (ja) * 1994-02-28 1995-09-12 Atr Tsushin Syst Kenkyusho:Kk ステレオ画像間対応づけ確信度検出装置および方法
JP2003294416A (ja) * 2002-04-03 2003-10-15 Eng Kk ステレオ画像処理装置
JP2005172703A (ja) * 2003-12-12 2005-06-30 Komatsu Ltd 物体の3次元計測方法および装置
JP2011123051A (ja) * 2009-11-12 2011-06-23 Canon Inc 三次元計測方法
JP2014178265A (ja) * 2013-03-15 2014-09-25 Ricoh Co Ltd 校正装置、方法及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100553347C (zh) * 2006-10-26 2009-10-21 上海交通大学 立体视觉系统的场景深度恢复和三维重建方法
JP4807583B2 (ja) * 2007-03-29 2011-11-02 本田技研工業株式会社 射影変換収束演算処理方法
JP2010152529A (ja) * 2008-12-24 2010-07-08 Nippon Hoso Kyokai <Nhk> 頂点テクスチャマッピング装置及びプログラム
CN104680528A (zh) * 2015-02-11 2015-06-03 广州霞光技研有限公司 一种基于双目立体视觉的排爆机器人空间定位方法
KR101835434B1 (ko) * 2015-07-08 2018-03-09 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
US10373380B2 (en) * 2016-02-18 2019-08-06 Intel Corporation 3-dimensional scene analysis for augmented reality operations
CN108986161B (zh) * 2018-06-19 2020-11-10 亮风台(上海)信息科技有限公司 一种三维空间坐标估计方法、装置、终端和存储介质
WO2020037575A1 (zh) * 2018-08-22 2020-02-27 深圳市大疆创新科技有限公司 图像深度估计方法、装置、可读存储介质及电子设备
CN109118533B (zh) * 2018-08-30 2021-03-02 歌尔光学科技有限公司 深度信息处理方法、装置和设备
CN110895822B (zh) * 2018-09-13 2023-09-01 虹软科技股份有限公司 深度数据处理系统的操作方法
CN110942032B (zh) * 2019-11-27 2022-07-15 深圳市商汤科技有限公司 活体检测方法及装置、存储介质
CN111563924B (zh) * 2020-04-28 2023-11-10 上海肇观电子科技有限公司 图像深度确定方法及活体识别方法、电路、设备和介质
CN111780673B (zh) * 2020-06-17 2022-05-31 杭州海康威视数字技术股份有限公司 一种测距方法、装置及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239218A (ja) * 1994-02-28 1995-09-12 Atr Tsushin Syst Kenkyusho:Kk ステレオ画像間対応づけ確信度検出装置および方法
JP2003294416A (ja) * 2002-04-03 2003-10-15 Eng Kk ステレオ画像処理装置
JP2005172703A (ja) * 2003-12-12 2005-06-30 Komatsu Ltd 物体の3次元計測方法および装置
JP2011123051A (ja) * 2009-11-12 2011-06-23 Canon Inc 三次元計測方法
JP2014178265A (ja) * 2013-03-15 2014-09-25 Ricoh Co Ltd 校正装置、方法及びプログラム

Also Published As

Publication number Publication date
CN111563924B (zh) 2023-11-10
KR102386444B1 (ko) 2022-04-14
CN111563924A (zh) 2020-08-21
EP3905195A1 (en) 2021-11-03
WO2021218568A1 (zh) 2021-11-04
KR20210133880A (ko) 2021-11-08
JP7064257B2 (ja) 2022-05-10

Similar Documents

Publication Publication Date Title
JP7064257B2 (ja) 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
US10949649B2 (en) Real-time tracking of facial features in unconstrained video
JP5812599B2 (ja) 情報処理方法及びその装置
US11232315B2 (en) Image depth determining method and living body identification method, circuit, device, and medium
WO2019042426A1 (zh) 增强现实场景的处理方法、设备及计算机存储介质
JP5631086B2 (ja) 情報処理装置及びその制御方法、プログラム
US11120535B2 (en) Image processing method, apparatus, terminal, and storage medium
US20100182480A1 (en) Image processing apparatus, image matching method, and computer-readable recording medium
EP3502958B1 (en) Object recognition processing apparatus, object recognition processing method, and program
JP2017123087A (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
US10623629B2 (en) Imaging apparatus and imaging condition setting method and program
JP6347610B2 (ja) 画像処理装置および3次元空間情報取得方法
KR101001184B1 (ko) 얼굴 정규화 벡터를 이용한 반복적 3차원 얼굴 포즈 추정 방법
JP2019220032A (ja) 原画像を目標画像に基づいて変形した表示画像を生成するプログラム、装置及び方法
JP7298687B2 (ja) 物体認識装置及び物体認識方法
CN113034345B (zh) 一种基于sfm重建的人脸识别方法及系统
US11202000B2 (en) Learning apparatus, image generation apparatus, learning method, image generation method, and program
JP7326965B2 (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
CN109003327B (zh) 图像处理方法、装置、计算机设备及存储介质
CN112307801A (zh) 一种姿态识别方法、装置及系统
KR102654614B1 (ko) 깊이 이미지 생성 장치 및 그 동작 방법
WO2023189195A1 (ja) 画像処理装置、画像処理方法、及びプログラム
TWI823491B (zh) 深度估計模型的優化方法、裝置、電子設備及存儲介質
WO2021131103A1 (ja) 距離画像処理装置及び距離画像処理方法
US20240054747A1 (en) Image processing apparatus, image processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210511

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220415

R150 Certificate of patent or registration of utility model

Ref document number: 7064257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150