JP2021174554A - 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体 - Google Patents
画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体 Download PDFInfo
- Publication number
- JP2021174554A JP2021174554A JP2021074934A JP2021074934A JP2021174554A JP 2021174554 A JP2021174554 A JP 2021174554A JP 2021074934 A JP2021074934 A JP 2021074934A JP 2021074934 A JP2021074934 A JP 2021074934A JP 2021174554 A JP2021174554 A JP 2021174554A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- depth
- straight line
- image
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
撮影対象(被写体)上の物点(オブジェクトポイント)と関連付けられる特徴点対(ペア)の画素座標を取得し、そのうち、前記特徴点対は、第一画像において該オブジェクトポイントに対応する第一画素点及び第二画像において該オブジェクトポイントに対応する第二画素点を含み、そのうち、前記第一画像は第一カメラが前記撮影対象を撮影することで得る画像であり、前記第二画像は第二カメラが前記撮影対象を撮影することで得る画像であり、そのうち、前記画素座標は、前記第一画素点の前記第一画像における第一画素座標及び前記第二画素点の前記第二画像における第二画素座標を含み;
前記第一画素座標及び前記第一カメラの内部パラメータに基づいて、前記第一カメラの第一カメラ座標系の原点を通過する第一直線を確定し、そのうち、前記オブジェクトポイントの前記第一カメラ座標系における第一座標の表示は、前記第一直線上に位置し;
前記第二画素座標及び前記第二カメラの内部パラメータに基づいて、前記第二カメラの第二カメラ座標系の原点を通過する第二直線を確定し、そのうち、前記オブジェクトポイントの前記第二カメラ座標系における第二座標の表示は、前記第二直線上に位置し;及び
前記第一直線、前記第二直線、及び、前記第一カメラと前記第二カメラとの相対位置関係を記述する外部パラメータに基づいて、前記オブジェクトポイントの深度を確定すること(ステップ)を含む。
撮影対象上の複数のオブジェクトポイントと関連付けられる複数の特徴点対のうちの各特徴点対に対して上述の画像深度確定方法を実行することにより、前記複数のオブジェクトポイントに対応する深度を確定し、そのうち、各特徴点対の第一画素点は前記第一画像における顔のキーボードであり、各特徴点対の第二画素点は前記第二画像における顔のキーボードであり;及び
前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識すること(ステップ)を含む。
ステップ230:前記第一画素座標及び前記第一カメラの内部パラメータに基づいて、前記第一カメラの第一カメラ座標系の原点を通過する第一直線を確定し、そのうち、前記オブジェクトポイントの前記第一カメラ座標系における第一座標表示は、前記第一直線上に位置し;
ステップ240:前記第二画素座標及び前記第二カメラの内部パラメータに基づいて、前記第二カメラの第二カメラ座標系の原点を通過する第二直線を確定し、そのうち、前記オブジェクトポイントの前記第二カメラ座標系における第二座標表示は、前記第二直線上に位置し;及び
ステップ250:前記第一直線、前記第二直線、及び、前記第一カメラと前記第二カメラとの相対位置関係を記述する外部パラメータに基づいて、前記オブジェクトポイントの深度を確定する。
ステップ420:前記第一カメラ座標系において、前記第一直線及び前記第二直線に基づいて、前記オブジェクトポイントの深度を確定する。
(外1)
が、第一交点X0から第一カメラ座標系の原点を指向する方向ベクトルに平行であることを表し;
(2)第二の方程式は、第二直線L1の方向ベクトル(L1)
(外2)
が、第二交点X1から第二カメラ座標系の原点(より具体的には、第二カメラ座標系の原点の第一カメラ座標系における第四座標表示C10(Tx,Ty,Tz)である)を指向する方向ベクトルに平行であることを表し;
(3)第三の方程式は、共通垂線L2の方向ベクトル(L2)
(外3)
が、第二交点X1から第一交点X0を指向する方向ベクトルに平行であることを表す。
方程式の組(eq5)に基づいて、第一交点X0と第二交点X1との中心
(外4)
及び第二直線L1の方向ベクトル(L1)
(外5)
は既知であり、そのうち、
ステップ1020:前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識する。
(1b)それぞれ各特徴点対の深度値から該最小深度値を減算し、各特徴点対の相対深度値を取得し;
(1c)各特徴点対の相対深度値の和又は二乗和を比較値として計算する。前記比較値が所定閾値未満のときに、撮影対象が非生き物であると認識し、そうでない場合、撮影対象が生き物であると認識する。
(2e)深度特徴ベクトルFEATUREi={z’i,i=1,…,M}を訓練済みのサポートベクトルマシンによる分類器に入力して認識結果を取得する。SVM分類器は事先訓練されたものである。SVM分類器の訓練において、生き物サンプルと非生き物サンプルのキーポイント空間座標を上述の方式でアラインし、そして、深度特徴ベクトルを訓練サンプルとして構築する。その後、訓練サンプルを用いてSVM分類器を訓練することでSVM分類器パラメータを得ることができる。
Claims (22)
- 画像深度確定方法であって、
撮影対象上のオブジェクトポイントと関連付けられる特徴点対の画素座標を取得し、前記特徴点対は、第一画像において該オブジェクトポイントに対応する第一画素点及び第二画像において該オブジェクトポイントに対応する第二画素点を含み、前記第一画像は、第一カメラが前記撮影対象を撮影することで得る画像であり、前記第二画像は、第二カメラが前記撮影対象を撮影することで得る画像であり、前記画素座標は、前記第一画素点の前記第一画像における第一画素座標及び前記第二画素点の前記第二画像における第二画素座標を含み;
前記第一画素座標及び前記第一カメラの内部パラメータに基づいて、前記第一カメラの第一カメラ座標系の原点を通過する第一直線を確定し、前記オブジェクトポイントの前記第一カメラ座標系における第一座標表示は、前記第一直線上に位置し;
前記第二画素座標及び前記第二カメラの内部パラメータに基づいて、前記第二カメラの第二カメラ座標系の原点を通過する第二直線を確定し、前記オブジェクトポイントの前記第二カメラ座標系における第二座標表示は、前記第二直線上に位置し;及び
前記第一直線、前記第二直線、及び、前記第一カメラと前記第二カメラとの相対位置関係を記述する外部パラメータに基づいて、前記オブジェクトポイントの深度を確定することを含む、画像深度確定方法。 - 請求項1に記載の画像深度確定方法であって、
前記前記第一直線、前記第二直線、及び、前記第一カメラと前記第二カメラとの相対位置関係を記述する外部パラメータに基づいて、前記オブジェクトポイントの深度を確定することは、
前記第二直線及び前記外部パラメータに基づいて、前記第二直線の前記第一カメラ座標系における表示を確定し;及び
前記第一カメラ座標系において、前記第一直線及び前記第二直線に基づいて、前記オブジェクトポイントの深度を確定することを含む、画像深度確定方法。 - 請求項2に記載の画像深度確定方法であって、
前記第二直線及び前記外部パラメータに基づいて、前記第二直線の前記第一カメラ座標系における表示を確定することは、
前記外部パラメータを用いて、前記第二座標表示を前記第一カメラ座標系における第三座標表示に変換し、前記第二カメラ座標系の原点の前記第一カメラ座標系における第四座標表示を確定し;及び
前記第三座標表示及び前記第四座標表示に基づいて、前記第二直線の前記第一カメラ座標系における表示を確定することを含む、画像深度確定方法。 - 請求項2又は3に記載の画像深度確定方法であって、
前記第一カメラ座標系において、前記第一直線及び前記第二直線に基づいて、前記オブジェクトポイントの深度を確定することは、
前記第一直線と前記第二直線が非共面であることに応じて、前記第一直線及び前記第二直線の共通垂線を確定し;
前記第一直線と前記共通垂線との第一交点の座標、及び前記第二直線と前記共通垂線との第二交点の座標を確定し;及び
前記第一交点の座標の第一深度成分及び前記第二交点の座標の第二深度成分に基づいて、前記オブジェクトポイントの深度を確定することを含む、画像深度確定方法。 - 請求項4に記載の画像深度確定方法であって、
前記第一直線と前記共通垂線との第一交点の座標、及び前記第二直線と前記共通垂線との第二交点の座標を確定することは、
前記第一直線の方向ベクトルが、前記第一交点から前記第一カメラ座標系の原点を指向する方向ベクトルに平行であり;
前記第二直線の方向ベクトルが、前記第二交点から前記第二カメラ座標系の原点を指向する方向ベクトルに平行であり;及び
前記共通垂線の方向ベクトルが、前記第二交点から前記第一交点を指向する方向ベクトルに平行である
という空間関係に基づいて、前記第一交点の座標及び前記第二交点の座標を確定することを含む、画像深度確定方法。 - 請求項4又は5に記載の画像深度確定方法であって、
前記第一交点座標の第一深度成分及び前記第二交点座標の第二深度成分に基づいて、前記オブジェクトポイントの深度を確定することは、
前記第一深度成分及び前記第二深度成分の事前定義の関数値を前記オブジェクトポイントの深度として確定することを含む、画像深度確定方法。 - 請求項6に記載の画像深度確定方法であって、
前記事前定義の関数値は加重平均値を含む、画像深度確定方法。 - 請求項7に記載の画像深度確定方法であって、
前記加重平均値は算術平均値を含む、画像深度確定方法。 - 請求項2乃至8のうちの何れか1項に記載の画像深度確定方法であって、
前記第一カメラ座標系において、前記第一直線及び前記第二直線に基づいて、前記オブジェクトポイントの深度を確定することは、
前記第一直線と前記第二直線が共面であることに応じて、前記第一直線と前記第二直線との交点の座標の深度成分を前記オブジェクトポイントの深度として確定することを含む、画像深度確定方法。 - 請求項1乃至9のうちの何れか1項に記載の画像深度確定方法であって、
前記第一カメラ及び前記第二カメラは異なる製品モデルのカメラである、画像深度確定方法。 - 請求項1乃至9のうちの何れか1項に記載の画像深度確定方法であって、さらに、
前記第一画素座標及び前記第一カメラの内部パラメータに基づいて、前記第一カメラの第一カメラ座標系の原点を通過する第一直線を確定する前に、前記第一画素座標に対して歪み除去を行い;及び
前記第二画素座標及び前記第二カメラの内部パラメータに基づいて、前記第二カメラの第二カメラ座標系の原点を通過する第二直線を確定する前に、前記第二画素座標に対して歪み除去を行うことを含む、画像深度確定方法。 - チップ回路であって、
請求項1乃至11のうちの何れか1項に記載の画像深度確定方法を実行するように構成される回路ユニットを含む、チップ回路。 - 請求項12に記載のチップ回路を含む画像深度確定装置。
- 計算装置であって、
1つ又は複数の処理器;及び
指令を含むプログラムを記憶している記憶器を含み、
前記指令は、前記1つ又は複数の処理器により実行されるときに、前記1つ又は複数の処理器に、請求項1乃至11のうちの何れか1項に記載の画像深度確定方法を実行させる、計算装置。 - コンピュータに、請求項1乃至11のうちの何れか1項に記載の画像深度確定方法を実行させるためのプログラムを記憶している、コンピュータ読み取り可能な記憶媒体。
- 生き物認識方法であって、
撮影対象上の複数のオブジェクトポイントと関連付けられる複数の特徴点対のうちの各特徴点対に対して、請求項1乃至11のうちの何れか1項に記載の画像深度確定方法を実行することにより、前記複数のオブジェクトポイントに対応する深度を確定し、各特徴点対の第一画素点は、前記第一画像における顔のキーボードであり、各特徴点対の第二画素点は、前記第二画像における顔のキーボードであり;及び
前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識することを含む、生き物認識方法。 - 請求項16に記載の生き物認識方法であって、
前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識することは、
前記複数のオブジェクトポイントに対応する深度の関数値と、所定閾値との関係に基づいて、前記撮影対象が生き物であるかどうかを認識することを含む、生き物認識方法。 - 請求項16に記載の生き物認識方法であって、
各オブジェクトポイントの前記第一座標表示の各座標成分が該オブジェクトポイントの深度の関数であり、
前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識することは、
各オブジェクトポイントの深度を該オブジェクトポイントの前記第一座標表示に代入して、該オブジェクトポイントの空間座標を取得し;
前記複数のオブジェクトポイントの対応空間座標と、標準顔の対応キーポイント空間座標とのアラインメントのためのアラインメントパラメータを確定し;
確定されたアラインメントパラメータを用いて、各対応空間座標と、標準顔の対応キーポイント空間座標とのアラインメントを行って、アラインメント後の各対応空間座標を取得し;
アラインメント後の各対応空間座標の深度成分に基づいて深度特徴ベクトルを形成し;及び
前記深度特徴ベクトルを訓練済みのサポートベクトルマシンによる分類器に入力して、認識結果を得ることを含む、生き物認識方法。 - 請求項18に記載の生き物認識方法であって、
前記アラインメントパラメータが伸縮尺度を含み、
前記生き物認識方法は、さらに、
前記撮影対象が生き物であることを前記認識結果により示したことに応じて、前記伸縮尺度が所定範囲内にあるかを確定し;
前記伸縮尺度が所定範囲内にあると確定されたことに応じて、前記撮影対象を生き物と認識し;及び
前記伸縮尺度が所定範囲内にないと確定されたことに応じて、前記撮影対象を非生き物と認識することを含む、生き物認識方法。 - 請求項16に記載の生き物認識方法であって、
各オブジェクトポイントの前記第一座標表示の各座標成分が該オブジェクトポイントの深度の関数であり、
前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識することは、
各オブジェクトポイントの深度を該オブジェクトポイントの前記第一座標表示に代入して、該オブジェクトポイントの空間座標を取得し;
前記複数のオブジェクトポイントの対応空間座標と、標準顔の対応キーポイント空間座標とのアラインメントのためのアラインメントパラメータを確定し、前記アラインメントパラメータは伸縮尺度を含み;
前記伸縮尺度が所定範囲内にあることに応じて、前記撮影対象を生き物と認識し;及び
前記伸縮尺度が所定範囲内にないことに応じて、前記撮影対象を非生き物と認識することを含む、生き物認識方法。 - 請求項16に記載の生き物認識方法であって、
各オブジェクトポイントの前記第一座標表示の各座標成分が該オブジェクトポイントの深度の関数であり、
前記複数のオブジェクトポイントに対応する深度に基づいて、前記撮影対象が生き物であるかどうかを認識することは、
各オブジェクトポイントの深度を該オブジェクトポイントの前記第一座標表示に代入して、該オブジェクトポイントの空間座標を取得し;
前記複数のオブジェクトポイントの対応空間座標と、標準顔の対応キーポイント空間座標とのアラインメントのためのアラインメントパラメータを確定し;
確定されたアラインメントパラメータを用いて、各対応空間座標と、標準顔の対応キーポイント空間座標とのアラインメントを行って、アラインメント後の各対応空間座標を取得し;
アラインメント後の各対応空間座標を用いて入力ベクトルを形成し;及び
前記入力ベクトルを訓練済みの人工ニューラルネットワークに入力して認識結果を得ることを含む、生き物認識方法。 - 請求項21に記載の生き物認識方法であって、
前記アラインメントパラメータが伸縮尺度を含み、
前記生き物認識方法は、さらに、
前記撮影対象が生き物であることを前記認識結果により示したことに応じて、前記伸縮尺度が所定範囲内にあるかどうかを確定し;
前記伸縮尺度が所定範囲内にあると確定されたことに応じて、前記撮影対象を生き物と認識し;及び
前記伸縮尺度が所定範囲内にないと確定されたことに応じて、前記撮影対象を非生き物と認識することを含む、生き物認識方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010351856.9A CN111563924B (zh) | 2020-04-28 | 2020-04-28 | 图像深度确定方法及活体识别方法、电路、设备和介质 |
CN202010351856.9 | 2020-04-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021174554A true JP2021174554A (ja) | 2021-11-01 |
JP7064257B2 JP7064257B2 (ja) | 2022-05-10 |
Family
ID=72075496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021074934A Active JP7064257B2 (ja) | 2020-04-28 | 2021-04-27 | 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3905195A1 (ja) |
JP (1) | JP7064257B2 (ja) |
KR (1) | KR102386444B1 (ja) |
CN (1) | CN111563924B (ja) |
WO (1) | WO2021218568A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11232315B2 (en) | 2020-04-28 | 2022-01-25 | NextVPU (Shanghai) Co., Ltd. | Image depth determining method and living body identification method, circuit, device, and medium |
CN111563924B (zh) * | 2020-04-28 | 2023-11-10 | 上海肇观电子科技有限公司 | 图像深度确定方法及活体识别方法、电路、设备和介质 |
CN112487921B (zh) * | 2020-11-25 | 2023-09-08 | 奥比中光科技集团股份有限公司 | 一种用于活体检测的人脸图像预处理方法及系统 |
CN114267068B (zh) * | 2021-12-24 | 2022-11-01 | 合肥的卢深视科技有限公司 | 基于连续帧信息的人脸识别方法、电子设备及存储介质 |
CN116402871B (zh) * | 2023-03-28 | 2024-05-10 | 苏州大学 | 一种基于场景平行要素的单目测距方法、系统及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07239218A (ja) * | 1994-02-28 | 1995-09-12 | Atr Tsushin Syst Kenkyusho:Kk | ステレオ画像間対応づけ確信度検出装置および方法 |
JP2003294416A (ja) * | 2002-04-03 | 2003-10-15 | Eng Kk | ステレオ画像処理装置 |
JP2005172703A (ja) * | 2003-12-12 | 2005-06-30 | Komatsu Ltd | 物体の3次元計測方法および装置 |
JP2011123051A (ja) * | 2009-11-12 | 2011-06-23 | Canon Inc | 三次元計測方法 |
JP2014178265A (ja) * | 2013-03-15 | 2014-09-25 | Ricoh Co Ltd | 校正装置、方法及びプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100553347C (zh) * | 2006-10-26 | 2009-10-21 | 上海交通大学 | 立体视觉系统的场景深度恢复和三维重建方法 |
JP4807583B2 (ja) * | 2007-03-29 | 2011-11-02 | 本田技研工業株式会社 | 射影変換収束演算処理方法 |
JP2010152529A (ja) * | 2008-12-24 | 2010-07-08 | Nippon Hoso Kyokai <Nhk> | 頂点テクスチャマッピング装置及びプログラム |
CN104680528A (zh) * | 2015-02-11 | 2015-06-03 | 广州霞光技研有限公司 | 一种基于双目立体视觉的排爆机器人空间定位方法 |
KR101835434B1 (ko) * | 2015-07-08 | 2018-03-09 | 고려대학교 산학협력단 | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 |
US10373380B2 (en) * | 2016-02-18 | 2019-08-06 | Intel Corporation | 3-dimensional scene analysis for augmented reality operations |
CN108986161B (zh) * | 2018-06-19 | 2020-11-10 | 亮风台(上海)信息科技有限公司 | 一种三维空间坐标估计方法、装置、终端和存储介质 |
WO2020037575A1 (zh) * | 2018-08-22 | 2020-02-27 | 深圳市大疆创新科技有限公司 | 图像深度估计方法、装置、可读存储介质及电子设备 |
CN109118533B (zh) * | 2018-08-30 | 2021-03-02 | 歌尔光学科技有限公司 | 深度信息处理方法、装置和设备 |
CN110895822B (zh) * | 2018-09-13 | 2023-09-01 | 虹软科技股份有限公司 | 深度数据处理系统的操作方法 |
CN110942032B (zh) * | 2019-11-27 | 2022-07-15 | 深圳市商汤科技有限公司 | 活体检测方法及装置、存储介质 |
CN111563924B (zh) * | 2020-04-28 | 2023-11-10 | 上海肇观电子科技有限公司 | 图像深度确定方法及活体识别方法、电路、设备和介质 |
CN111780673B (zh) * | 2020-06-17 | 2022-05-31 | 杭州海康威视数字技术股份有限公司 | 一种测距方法、装置及设备 |
-
2020
- 2020-04-28 CN CN202010351856.9A patent/CN111563924B/zh active Active
-
2021
- 2021-04-02 WO PCT/CN2021/085276 patent/WO2021218568A1/zh active Application Filing
- 2021-04-23 EP EP21170219.6A patent/EP3905195A1/en not_active Withdrawn
- 2021-04-27 JP JP2021074934A patent/JP7064257B2/ja active Active
- 2021-04-28 KR KR1020210054725A patent/KR102386444B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07239218A (ja) * | 1994-02-28 | 1995-09-12 | Atr Tsushin Syst Kenkyusho:Kk | ステレオ画像間対応づけ確信度検出装置および方法 |
JP2003294416A (ja) * | 2002-04-03 | 2003-10-15 | Eng Kk | ステレオ画像処理装置 |
JP2005172703A (ja) * | 2003-12-12 | 2005-06-30 | Komatsu Ltd | 物体の3次元計測方法および装置 |
JP2011123051A (ja) * | 2009-11-12 | 2011-06-23 | Canon Inc | 三次元計測方法 |
JP2014178265A (ja) * | 2013-03-15 | 2014-09-25 | Ricoh Co Ltd | 校正装置、方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN111563924B (zh) | 2023-11-10 |
KR102386444B1 (ko) | 2022-04-14 |
CN111563924A (zh) | 2020-08-21 |
EP3905195A1 (en) | 2021-11-03 |
WO2021218568A1 (zh) | 2021-11-04 |
KR20210133880A (ko) | 2021-11-08 |
JP7064257B2 (ja) | 2022-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7064257B2 (ja) | 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体 | |
US10949649B2 (en) | Real-time tracking of facial features in unconstrained video | |
JP5812599B2 (ja) | 情報処理方法及びその装置 | |
US11232315B2 (en) | Image depth determining method and living body identification method, circuit, device, and medium | |
WO2019042426A1 (zh) | 增强现实场景的处理方法、设备及计算机存储介质 | |
JP5631086B2 (ja) | 情報処理装置及びその制御方法、プログラム | |
US11120535B2 (en) | Image processing method, apparatus, terminal, and storage medium | |
US20100182480A1 (en) | Image processing apparatus, image matching method, and computer-readable recording medium | |
EP3502958B1 (en) | Object recognition processing apparatus, object recognition processing method, and program | |
JP2017123087A (ja) | 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法 | |
US10623629B2 (en) | Imaging apparatus and imaging condition setting method and program | |
JP6347610B2 (ja) | 画像処理装置および3次元空間情報取得方法 | |
KR101001184B1 (ko) | 얼굴 정규화 벡터를 이용한 반복적 3차원 얼굴 포즈 추정 방법 | |
JP2019220032A (ja) | 原画像を目標画像に基づいて変形した表示画像を生成するプログラム、装置及び方法 | |
JP7298687B2 (ja) | 物体認識装置及び物体認識方法 | |
CN113034345B (zh) | 一种基于sfm重建的人脸识别方法及系统 | |
US11202000B2 (en) | Learning apparatus, image generation apparatus, learning method, image generation method, and program | |
JP7326965B2 (ja) | 画像処理装置、画像処理プログラム、及び画像処理方法 | |
CN109003327B (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
CN112307801A (zh) | 一种姿态识别方法、装置及系统 | |
KR102654614B1 (ko) | 깊이 이미지 생성 장치 및 그 동작 방법 | |
WO2023189195A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
TWI823491B (zh) | 深度估計模型的優化方法、裝置、電子設備及存儲介質 | |
WO2021131103A1 (ja) | 距離画像処理装置及び距離画像処理方法 | |
US20240054747A1 (en) | Image processing apparatus, image processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210511 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7064257 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |