JP7113910B2 - 画像処理方法及び装置、電子機器並びにコンピュータ可読記憶媒体 - Google Patents
画像処理方法及び装置、電子機器並びにコンピュータ可読記憶媒体 Download PDFInfo
- Publication number
- JP7113910B2 JP7113910B2 JP2020556853A JP2020556853A JP7113910B2 JP 7113910 B2 JP7113910 B2 JP 7113910B2 JP 2020556853 A JP2020556853 A JP 2020556853A JP 2020556853 A JP2020556853 A JP 2020556853A JP 7113910 B2 JP7113910 B2 JP 7113910B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- target area
- area image
- target
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
本開示は、2018年12月29日に提出した中国特許出願第201811647485.8号の優先権を主張し、ここで、前記中国特許出願の全ての内容が援用により本開示に組み込まれる。
例えば、本願は以下の項目を提供する。
(項目1)
画像処理方法であって、
双眼カメラの第1画像センサによって収集された第1画像から切り取った目標対象の第1目標領域画像、及び前記双眼カメラの第2画像センサによって収集された第2画像から切り取った前記目標対象の第2目標領域画像を取得することと、
前記第1目標領域画像及び前記第2目標領域画像を処理して、前記第1目標領域画像と前記第2目標領域画像との間の視差を決定することと、
前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記第1目標領域画像と前記第2目標領域画像との間の視差に基づき、前記第1画像と前記第2画像との間の視差予測結果を取得することと、を含む、前記画像処理方法。
(項目2)
前記目標対象の第1目標領域画像及び前記目標対象の第2目標領域画像を取得することは、
前記双眼カメラの第1画像センサが収集した第1画像、及び前記双眼カメラの第2画像センサが収集した第2画像を取得することと、
前記第1画像及び前記第2画像に対してそれぞれ目標検出を行って、第1目標領域画像及び第2目標領域画像を取得することと、を含む
項目1に記載の方法。
(項目3)
前記目標対象の第1目標領域画像を取得することは、
前記双眼カメラの第1画像センサが収集した第1画像に対して目標検出を行って、第1候補領域を取得することと、
前記第1候補領域の画像に対してキーポイント検出を行って、キーポイント情報を取得することと、
前記キーポイント情報に基づき、前記第1画像から第1目標領域画像を切り取ることと、を含む
項目1又は2に記載の方法。
(項目4)
前記第1目標領域画像及び前記第2目標領域画像の画像寸法が同じである
項目1~3のいずれか1項に記載の方法。
(項目5)
前記第1目標領域画像及び前記第2目標領域画像を処理して、前記第1目標領域画像と前記第2目標領域画像との間の視差を決定することは、
双眼マッチングニューラルネットワークを通して前記第1目標領域画像及び前記第2目標領域画像を処理して、前記第1目標領域画像と前記第2目標領域画像との間の視差を取得することを含む
項目1に記載の方法。
(項目6)
前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記第1目標領域画像と前記第2目標領域画像との間の視差に基づき、前記第1画像と前記第2画像との間の視差予測結果を取得する前に、前記方法は、更に、
前記第1画像における前記第1目標領域画像の位置及び前記第2画像における前記第2目標領域画像の位置に基づき、前記第1目標領域画像と前記第2目標領域画像との間の変位情報を決定することを含む
項目1に記載の方法。
(項目7)
前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記第1目標領域画像と前記第2目標領域画像との間の視差に基づき、前記第1画像と前記第2画像との間の視差予測結果を取得することは、
前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記視差を加算して、前記第1画像と前記第2画像との間の視差予測結果を取得することを含む
項目1又は6のいずれか1項に記載の方法。
(項目8)
前記方法は、更に、
前記第1画像と前記第2画像との視差予測結果に基づき、前記目標対象の深度情報を決定することと、
前記目標対象の深度情報に基づき、生体検出結果を決定することと、を含む
項目1~7のいずれか1項に記載の方法。
(項目9)
前記双眼カメラはコモーダル双眼カメラ及びクロスモーダル双眼カメラのうちの1つを含む
項目1~8のいずれか1項に記載の方法。
(項目10)
前記第1画像センサ又は前記第2画像センサは、可視光画像センサ、近赤外線画像センサ、デュアルチャネル画像センサのうちの1つを含む
項目1~9のいずれか1項に記載の方法。
(項目11)
前記目標対象は人間顔を含む
項目1~10のいずれか1項に記載の方法。
(項目12)
画像処理方法であって、
目標対象の第1目標領域画像及び前記目標対象の第2目標領域画像を取得することであって、前記第1目標領域画像は、画像収集領域の第1時刻に収集された第1画像から切り取ったものであり、前記第2目標領域画像は、前記画像収集領域の第2時刻に収集された第2画像から切り取ったものであることと、
前記第1目標領域画像及び前記第2目標領域画像を処理して、前記第1目標領域画像と前記第2目標領域画像との間のオプティカルフロー情報を決定することと、
前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記第1目標領域画像と前記第2目標領域画像との間のオプティカルフロー情報に基づき、前記第1画像と前記第2画像との間のオプティカルフロー情報予測結果を取得することと、を含む、前記画像処理方法。
(項目13)
前記目標対象の第1目標領域画像及び前記目標対象の第2目標領域画像を取得することは、
前記画像収集領域の前記第1時刻に収集された第1画像、及び前記画像収集領域の前記第2時刻に収集された第2画像を取得することと、
前記第1画像及び前記第2画像に対してそれぞれ目標検出を行って、第1目標領域画像及び第2目標領域画像を取得することと、を含む
項目12に記載の方法。
(項目14)
前記目標対象の第1目標領域画像を取得することは、
前記画像収集領域の前記第1時刻に収集された第1画像に対して目標検出を行って、第1候補領域を取得することと、
前記第1候補領域の画像に対してキーポイント検出を行って、キーポイント情報を取得することと、
前記キーポイント情報に基づき、前記第1画像から第1目標領域画像を切り取ることと、を含む
項目12又は13に記載の方法。
(項目15)
前記第1目標領域画像及び前記第2目標領域画像の画像寸法が同じである
項目12~14のいずれか1項に記載の方法。
(項目16)
前記第1目標領域画像及び前記第2目標領域画像を処理して、前記第1目標領域画像と前記第2目標領域画像との間のオプティカルフロー情報を決定することは、
ニューラルネットワークを通して前記第1目標領域画像及び前記第2目標領域画像を処理して、前記第1目標領域画像と前記第2目標領域画像との間のオプティカルフロー情報を取得することを含む
項目12に記載の方法。
(項目17)
前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記第1目標領域画像と前記第2目標領域画像との間のオプティカルフロー情報に基づき、前記第1画像と前記第2画像との間のオプティカルフロー情報予測結果を取得する前に、前記方法は、更に、
前記第1画像における前記第1目標領域画像の位置及び前記第2画像における前記第2目標領域画像の位置に基づき、前記第1目標領域画像と前記第2目標領域画像との間の変位情報を決定することを含む
項目12に記載の方法。
(項目18)
前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記第1目標領域画像と前記第2目標領域画像との間のオプティカルフロー情報に基づき、前記第1画像と前記第2画像との間のオプティカルフロー情報予測結果を取得することは、
前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記オプティカルフロー情報を加算して、前記第1画像と前記第2画像との間のオプティカルフロー情報予測結果を取得することを含む
項目12又は17のいずれか1項に記載の方法。
(項目19)
画像処理装置であって、
双眼カメラの第1画像センサによって収集された第1画像から切り取った目標対象の第1目標領域画像、及び前記双眼カメラの第2画像センサによって収集された第2画像から切り取った前記目標対象の第2目標領域画像を取得するように構成される取得ユニットと、
前記第1目標領域画像及び前記第2目標領域画像を処理して、前記第1目標領域画像と前記第2目標領域画像との間の視差を決定するように構成される第1決定ユニットと、
前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記第1目標領域画像と前記第2目標領域画像との間の視差に基づき、前記第1画像と前記第2画像との間の視差予測結果を取得するように構成される第2決定ユニットと、を備える、前記画像処理装置。
(項目20)
前記取得ユニットは、前記双眼カメラの第1画像センサが収集した第1画像、及び前記双眼カメラの第2画像センサが収集した第2画像を取得し、前記第1画像及び前記第2画像に対してそれぞれ目標検出を行って、第1目標領域画像及び第2目標領域画像を取得するように構成される
項目19に記載の装置。
(項目21)
前記取得ユニットは、
前記双眼カメラの第1画像センサが収集した第1画像に対して目標検出を行って、第1候補領域を取得するように構成される目標検出ユニットと、
前記第1候補領域の画像に対してキーポイント検出を行って、キーポイント情報を取得するように構成されるキーポイント検出ユニットと、
前記キーポイント情報に基づき、前記第1画像から第1目標領域画像を切り取るように構成される切り取りユニットと、を備える
項目19又は20に記載の装置。
(項目22)
前記第1目標領域画像及び前記第2目標領域画像の画像寸法が同じである
項目19~21のいずれか1項に記載の装置。
(項目23)
前記第1決定ユニットは、双眼マッチングニューラルネットワークを通して前記第1目標領域画像及び前記第2目標領域画像を処理して、前記第1目標領域画像と前記第2目標領域画像との間の視差を取得するように構成される
項目19に記載の装置。
(項目24)
前記装置は、更に、前記第2決定ユニットが前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記第1目標領域画像と前記第2目標領域画像との間の視差に基づき、前記第1画像と前記第2画像との間の視差予測結果を取得する前に、前記第1画像における前記第1目標領域画像の位置及び前記第2画像における前記第2目標領域画像の位置に基づき、前記第1目標領域画像と前記第2目標領域画像との間の変位情報を決定するように構成される変位決定ユニットを備える
項目19に記載の装置。
(項目25)
前記第2決定ユニットは、前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記視差を加算して、前記第1画像と前記第2画像との間の視差予測結果を取得するように構成される
項目19又は24のいずれか1項に記載の装置。
(項目26)
前記装置は、更に、
前記第1画像と前記第2画像との視差予測結果に基づき、前記目標対象の深度情報を決定するように構成される深度情報決定ユニットと、
前記目標対象の深度情報に基づき、生体検出結果を決定するように構成される生体検出決定ユニットと、を備える
項目19~25のいずれか1項に記載の装置。
(項目27)
前記双眼カメラはコモーダル双眼カメラ及びクロスモーダル双眼カメラのうちの1つを含む
項目19~26のいずれか1項に記載の装置。
(項目28)
前記第1画像センサ又は前記第2画像センサは、可視光画像センサ、近赤外線画像センサ、デュアルチャネル画像センサのうちの1つを含む
項目19~27のいずれか1項に記載の装置。
(項目29)
前記目標対象は人間顔を含む
項目19~28のいずれか1項に記載の装置。
(項目30)
画像処理装置であって、
目標対象の第1目標領域画像及び前記目標対象の第2目標領域画像を取得するように構成される取得ユニットであって、前記第1目標領域画像は、画像収集領域の第1時刻に収集された第1画像から切り取ったものであり、前記第2目標領域画像は、前記画像収集領域の第2時刻に収集された第2画像から切り取ったものである取得ユニットと、
前記第1目標領域画像及び前記第2目標領域画像を処理して、前記第1目標領域画像と前記第2目標領域画像との間のオプティカルフロー情報を決定するように構成される第1決定ユニットと、
前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記第1目標領域画像と前記第2目標領域画像との間のオプティカルフロー情報に基づき、前記第1画像と前記第2画像との間のオプティカルフロー情報予測結果を取得するように構成される第2決定ユニットと、を備える、前記画像処理装置。
(項目31)
前記取得ユニットは、画像収集領域の前記第1時刻に収集された第1画像、及び前記画像収集領域の前記第2時刻に収集された第2画像を取得し、前記第1画像及び前記第2画像に対してそれぞれ目標検出を行って、第1目標領域画像及び第2目標領域画像を取得するように構成される
項目30に記載の装置。
(項目32)
前記取得ユニットは、
画像収集領域の前記第1時刻に収集された第1画像に対して目標検出を行って、第1候補領域を取得するように構成される目標検出ユニットと、
前記第1候補領域の画像に対してキーポイント検出を行って、キーポイント情報を取得するように構成されるキーポイント検出ユニットと、
前記キーポイント情報に基づき、前記第1画像から第1目標領域画像を切り取るように構成される切り取りユニットと、を備える
項目30又は31に記載の装置。
(項目33)
前記第1目標領域画像及び前記第2目標領域画像の画像寸法が同じである
項目30~32のいずれか1項に記載の装置。
(項目34)
前記第1決定ユニットはニューラルネットワークを通して前記第1目標領域画像及び前記第2目標領域画像を処理して、前記第1目標領域画像と前記第2目標領域画像との間のオプティカルフロー情報を取得するように構成される
項目30に記載の装置。
(項目35)
前記装置は、更に、前記第2決定ユニットが前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記第1目標領域画像と前記第2目標領域画像との間のオプティカルフロー情報に基づき、前記第1画像と前記第2画像との間のオプティカルフロー情報予測結果を取得する前に、前記第1画像における前記第1目標領域画像の位置及び前記第2画像における前記第2目標領域画像の位置に基づき、前記第1目標領域画像と前記第2目標領域画像との間の変位情報を決定するように構成される変位決定ユニットを備える
項目30に記載の装置。
(項目36)
前記第2決定ユニットは、前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記オプティカルフロー情報を加算して、前記第1画像と前記第2画像との間のオプティカルフロー情報予測結果を取得するように構成される
項目30又は35のいずれか1項に記載の装置。
(項目37)
電子機器であって、
プロセッサと、
コンピュータ可読命令を記憶するように構成されるメモリと、を備え、
前記プロセッサは、前記メモリに記憶されるコンピュータ可読命令を呼び出して、項目1~11のいずれか1項に記載の方法を実行し、又は、項目12~18のいずれか1項に記載の方法を実行するように構成される、前記電子機器。
(項目38)
コンピュータ可読記憶媒体であって、
コンピュータプログラム命令が記憶され、前記コンピュータプログラム命令がプロセッサにより実行されるとき、項目1~11のいずれか1項に記載の方法を実現し、又は、前記コンピュータプログラム命令がプロセッサにより実行されるとき、項目12~18のいずれか1項に記載の方法を実現する、前記コンピュータ可読記憶媒体。
(項目39)
コンピュータプログラム製品であって、
コンピュータ命令を含み、前記コンピュータ命令がプロセッサにより実行されるとき、項目1~11のいずれか1項に記載の方法を実現し、又は、前記コンピュータ命令がプロセッサにより実行されるとき、項目12~18のいずれか1項に記載の方法を実現する、前記コンピュータプログラム製品。
前記目標検出ユニットは画像収集領域の前記第1時刻に収集された第1画像に対して目標検出を行って、第1候補領域を取得するように構成され、
前記キーポイント検出ユニットは前記第1候補領域の画像に対してキーポイント検出を行って、キーポイント情報を取得するように構成され、
前記切り取りユニットは前記キーポイント情報に基づき、前記第1画像から第1目標領域画像を切り取るように構成される。
Claims (13)
- 画像処理方法であって、
双眼カメラの第1画像センサによって収集された第1画像から切り取った目標対象の第1目標領域画像、及び前記双眼カメラの第2画像センサによって収集された第2画像から切り取った前記目標対象の第2目標領域画像を取得することと、
双眼マッチングニューラルネットワークを通してそれぞれ前記第1目標領域画像の第1特徴及び前記第2目標領域画像の第2特徴を抽出し、前記双眼マッチングニューラルネットワークにおけるマッチング代価計算モジュールによって前記第1特徴と前記第2特徴とのマッチング代価を計算し、取得された前記マッチング代価に基づいて、前記第1目標領域画像と前記第2目標領域画像との間の視差を決定することであって、前記マッチング代価は、第1特徴と第2特徴との関連性を示すものである、ことと、
前記第1画像における前記第1目標領域画像の位置及び前記第2画像における前記第2目標領域画像の位置に基づき、前記第1目標領域画像と前記第2目標領域画像との間の変位情報を決定することと、
前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記第1目標領域画像と前記第2目標領域画像との間の視差に基づき、前記第1画像と前記第2画像との間の視差予測結果を取得することと
を含む、画像処理方法。 - 前記目標対象の第1目標領域画像及び前記目標対象の第2目標領域画像を取得することは、
前記双眼カメラの第1画像センサが収集した第1画像、及び前記双眼カメラの第2画像センサが収集した第2画像を取得することと、
前記第1画像及び前記第2画像に対してそれぞれ目標検出を行って、第1目標領域画像及び第2目標領域画像を取得することと
を含む、請求項1に記載の画像処理方法。 - 前記目標対象の第1目標領域画像を取得することは、
前記双眼カメラの第1画像センサが収集した第1画像に対して目標検出を行って、第1候補領域を取得することと、
前記第1候補領域の画像に対してキーポイント検出を行って、キーポイント情報を取得することと、
前記キーポイント情報に基づき、前記第1画像から第1目標領域画像を切り取ることと
を含む、請求項1又は2に記載の画像処理方法。 - 前記取得された前記マッチング代価に基づいて、前記第1目標領域画像と前記第2目標領域画像との間の視差を決定することは、
前記マッチング代価に対して特徴抽出を行って、抽出された特徴データに基づいて、前記第1目標領域画像と前記第2目標領域画像との間の視差を取得することを含む、請求項1に記載の画像処理方法。 - 前記第1画像における前記第1目標領域画像の位置及び前記第2画像における前記第2目標領域画像の位置に基づき、前記第1目標領域画像と前記第2目標領域画像との間の変位情報を決定することは、
前記第1目標領域画像の第1中心点位置を決定し、前記第2目標領域画像の第2中心点位置を決定することと、
前記第1中心点の位置及び前記第2中心点の位置に基づき、前記第1目標領域画像と前記第2目標領域画像との間の変位情報を決定することと
を含む、請求項1に記載の画像処理方法。 - 前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記第1目標領域画像と前記第2目標領域画像との間の視差に基づき、前記第1画像と前記第2画像との間の視差予測結果を取得することは、
前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記視差を加算して、前記第1画像と前記第2画像との間の視差予測結果を取得することを含む、請求項1又は5に記載の画像処理方法。 - 前記画像処理方法は、
前記第1画像と前記第2画像との視差予測結果に基づき、前記目標対象の深度情報を決定することと、
前記目標対象の深度情報に基づき、生体検出結果を決定することと
を更に含む、請求項1~6のいずれか1項に記載の画像処理方法。 - 前記双眼カメラは、コモーダル双眼カメラ及びクロスモーダル双眼カメラのうちの1つを含む、請求項1~7のいずれか1項に記載の画像処理方法。
- 前記第1画像センサ又は前記第2画像センサは、可視光画像センサ、近赤外線画像センサ、デュアルチャネル画像センサのうちの1つを含む、請求項1~8のいずれか1項に記載の画像処理方法。
- 画像処理装置であって、
双眼カメラの第1画像センサによって収集された第1画像から切り取った目標対象の第1目標領域画像、及び前記双眼カメラの第2画像センサによって収集された第2画像から切り取った前記目標対象の第2目標領域画像を取得するように構成される取得ユニットと、
双眼マッチングニューラルネットワークを通してそれぞれ前記第1目標領域画像の第1特徴及び前記第2目標領域画像の第2特徴を抽出し、前記双眼マッチングニューラルネットワークにおけるマッチング代価計算モジュールによって前記第1特徴と前記第2特徴とのマッチング代価を計算し、取得された前記マッチング代価に基づいて、前記第1目標領域画像と前記第2目標領域画像との間の視差を決定するように構成される第1決定ユニットであって、前記マッチング代価は、第1特徴と第2特徴との関連性を示すものである、第1決定ユニットと、
前記第1画像における前記第1目標領域画像の位置及び前記第2画像における前記第2目標領域画像の位置に基づき、前記第1目標領域画像と前記第2目標領域画像との間の変位情報を決定するように構成される変位決定ユニットと、
前記第1目標領域画像と前記第2目標領域画像との間の変位情報及び前記第1目標領域画像と前記第2目標領域画像との間の視差に基づき、前記第1画像と前記第2画像との間の視差予測結果を取得するように構成される第2決定ユニットと
を備える、画像処理装置。 - 電子機器であって、
プロセッサと、
コンピュータ読み取り可能な命令を記憶するように構成されるメモリと
を備え、
前記プロセッサは、前記メモリに記憶されるコンピュータ読み取り可能な命令を呼び出して、請求項1~9のいずれか1項に記載の画像処理方法を実行するように構成される、電子機器。 - コンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ読み取り可能な記憶媒体には、コンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令は、プロセッサによって実行されると、請求項1~9のいずれか1項に記載の画像処理方法を実現する、コンピュータ読み取り可能な記憶媒体。 - 請求項1~9のいずれか1項に記載の画像処理方法を実行することをコンピュータに行わせるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811647485.8 | 2018-12-29 | ||
CN201811647485.8A CN111383256B (zh) | 2018-12-29 | 2018-12-29 | 图像处理方法、电子设备及计算机可读存储介质 |
PCT/CN2019/107362 WO2020134229A1 (zh) | 2018-12-29 | 2019-09-23 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021519983A JP2021519983A (ja) | 2021-08-12 |
JP7113910B2 true JP7113910B2 (ja) | 2022-08-05 |
Family
ID=71128548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020556853A Active JP7113910B2 (ja) | 2018-12-29 | 2019-09-23 | 画像処理方法及び装置、電子機器並びにコンピュータ可読記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210150745A1 (ja) |
JP (1) | JP7113910B2 (ja) |
CN (1) | CN111383256B (ja) |
SG (1) | SG11202010402VA (ja) |
WO (1) | WO2020134229A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260711B (zh) * | 2020-01-10 | 2021-08-10 | 大连理工大学 | 一种弱监督可信代价传播的视差估计方法 |
CN112016558B (zh) * | 2020-08-26 | 2024-05-31 | 大连信维科技有限公司 | 一种基于图像质量的介质能见度识别方法 |
CN114298912B (zh) * | 2022-03-08 | 2022-10-14 | 北京万里红科技有限公司 | 图像采集方法、装置、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014099716A (ja) | 2012-11-13 | 2014-05-29 | Canon Inc | 画像符号化装置及びその制御方法 |
JP2014235750A (ja) | 2013-06-03 | 2014-12-15 | 株式会社リコー | 目標検出方法及び目標検出装置 |
JP2015207280A (ja) | 2014-04-18 | 2015-11-19 | 株式会社リコー | 目標識別方法及び目標識別装置 |
WO2018046964A1 (en) | 2016-09-12 | 2018-03-15 | Ucl Business Plc | Predicting depth from image data using a statistical model |
JP2018189443A (ja) | 2017-04-28 | 2018-11-29 | キヤノン株式会社 | 距離測定装置、距離測定方法及び撮像装置 |
JP2018194346A (ja) | 2017-05-15 | 2018-12-06 | 日本電気株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100769461B1 (ko) * | 2005-12-14 | 2007-10-23 | 이길재 | 스테레오 비전 시스템 |
US8818024B2 (en) * | 2009-03-12 | 2014-08-26 | Nokia Corporation | Method, apparatus, and computer program product for object tracking |
US20170206427A1 (en) * | 2015-01-21 | 2017-07-20 | Sportstech LLC | Efficient, High-Resolution System and Method to Detect Traffic Lights |
WO2014152254A2 (en) * | 2013-03-15 | 2014-09-25 | Carnegie Robotics Llc | Methods, systems, and apparatus for multi-sensory stereo vision for robotics |
CN103679707A (zh) * | 2013-11-26 | 2014-03-26 | 西安交通大学 | 基于双目相机视差图的道路障碍物检测系统及检测方法 |
US11501406B2 (en) * | 2015-03-21 | 2022-11-15 | Mine One Gmbh | Disparity cache |
JP6732440B2 (ja) * | 2015-12-04 | 2020-07-29 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びそのプログラム |
CN106651923A (zh) * | 2016-12-13 | 2017-05-10 | 中山大学 | 一种视频图像目标检测与分割方法及系统 |
CN108537871B (zh) * | 2017-03-03 | 2024-02-20 | 索尼公司 | 信息处理设备和信息处理方法 |
CN107545247B (zh) * | 2017-08-23 | 2020-05-12 | 北京伟景智能科技有限公司 | 基于双目识别的立体认知方法 |
US10244164B1 (en) * | 2017-09-11 | 2019-03-26 | Qualcomm Incorporated | Systems and methods for image stitching |
CN107886120A (zh) * | 2017-11-03 | 2018-04-06 | 北京清瑞维航技术发展有限公司 | 用于目标检测跟踪的方法和装置 |
CN108154520B (zh) * | 2017-12-25 | 2019-01-08 | 北京航空航天大学 | 一种基于光流与帧间匹配的运动目标检测方法 |
CN108335322B (zh) * | 2018-02-01 | 2021-02-12 | 深圳市商汤科技有限公司 | 深度估计方法和装置、电子设备、程序和介质 |
CN108446622A (zh) * | 2018-03-14 | 2018-08-24 | 海信集团有限公司 | 目标物体的检测跟踪方法及装置、终端 |
CN108520536B (zh) * | 2018-03-27 | 2022-01-11 | 海信集团有限公司 | 一种视差图的生成方法、装置及终端 |
CN111444744A (zh) * | 2018-12-29 | 2020-07-24 | 北京市商汤科技开发有限公司 | 活体检测方法、装置以及存储介质 |
CN109887019B (zh) * | 2019-02-19 | 2022-05-24 | 北京市商汤科技开发有限公司 | 一种双目匹配方法及装置、设备和存储介质 |
CN115222782A (zh) * | 2021-04-16 | 2022-10-21 | 安霸国际有限合伙企业 | 对单目相机立体系统中的结构光投射器的安装校准 |
CN115690469A (zh) * | 2021-07-30 | 2023-02-03 | 北京图森智途科技有限公司 | 一种双目图像匹配方法、装置、设备和存储介质 |
-
2018
- 2018-12-29 CN CN201811647485.8A patent/CN111383256B/zh active Active
-
2019
- 2019-09-23 US US17/048,823 patent/US20210150745A1/en not_active Abandoned
- 2019-09-23 JP JP2020556853A patent/JP7113910B2/ja active Active
- 2019-09-23 WO PCT/CN2019/107362 patent/WO2020134229A1/zh active Application Filing
- 2019-09-23 SG SG11202010402VA patent/SG11202010402VA/en unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014099716A (ja) | 2012-11-13 | 2014-05-29 | Canon Inc | 画像符号化装置及びその制御方法 |
JP2014235750A (ja) | 2013-06-03 | 2014-12-15 | 株式会社リコー | 目標検出方法及び目標検出装置 |
JP2015207280A (ja) | 2014-04-18 | 2015-11-19 | 株式会社リコー | 目標識別方法及び目標識別装置 |
WO2018046964A1 (en) | 2016-09-12 | 2018-03-15 | Ucl Business Plc | Predicting depth from image data using a statistical model |
JP2018189443A (ja) | 2017-04-28 | 2018-11-29 | キヤノン株式会社 | 距離測定装置、距離測定方法及び撮像装置 |
JP2018194346A (ja) | 2017-05-15 | 2018-12-06 | 日本電気株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN111383256B (zh) | 2024-05-17 |
CN111383256A (zh) | 2020-07-07 |
SG11202010402VA (en) | 2020-11-27 |
US20210150745A1 (en) | 2021-05-20 |
WO2020134229A1 (zh) | 2020-07-02 |
JP2021519983A (ja) | 2021-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11830141B2 (en) | Systems and methods for 3D facial modeling | |
US11615546B2 (en) | Systems and methods for depth estimation using generative models | |
JP7113910B2 (ja) | 画像処理方法及び装置、電子機器並びにコンピュータ可読記憶媒体 | |
TWI567693B (zh) | 產生深度資訊的方法及其系統 | |
EP3190781B1 (en) | Autofocus method, device and electronic apparatus | |
WO2022121895A1 (zh) | 双目活体检测方法、装置、设备和存储介质 | |
CN111160232B (zh) | 正面人脸重建方法、装置及系统 | |
CN106981078B (zh) | 视线校正方法、装置、智能会议终端及存储介质 | |
JP2008535116A (ja) | 3次元レンダリング用の方法及び装置 | |
CN111563924B (zh) | 图像深度确定方法及活体识别方法、电路、设备和介质 | |
WO2014180255A1 (zh) | 一种数据处理方法、装置、计算机存储介质及用户终端 | |
CN113711276A (zh) | 尺度感知单目定位和地图构建 | |
CN111046845A (zh) | 活体检测方法、装置及系统 | |
JP6617150B2 (ja) | 物体検出方法及び物体検出装置 | |
JP2013114477A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
EP4050553A1 (en) | Method and device for restoring image obtained from array camera | |
CN111382607B (zh) | 活体检测方法、装置及人脸认证系统 | |
CN111383255B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN113286084B (zh) | 终端的图像采集方法及装置、存储介质、终端 | |
CN111246116B (zh) | 一种用于屏幕上智能取景显示的方法及移动终端 | |
CN110800020A (zh) | 一种图像信息获取方法、图像处理设备及计算机存储介质 | |
JP6931267B2 (ja) | 原画像を目標画像に基づいて変形した表示画像を生成するプログラム、装置及び方法 | |
JP5689693B2 (ja) | 描画処理装置 | |
CN118366229A (zh) | 基于双目时空数据协同约束的人脸防伪检测方法及系统 | |
CN111783501A (zh) | 活体检测方法和装置以及相应的电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201015 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220714 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7113910 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |