JP2020201921A - 第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム - Google Patents
第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム Download PDFInfo
- Publication number
- JP2020201921A JP2020201921A JP2019160002A JP2019160002A JP2020201921A JP 2020201921 A JP2020201921 A JP 2020201921A JP 2019160002 A JP2019160002 A JP 2019160002A JP 2019160002 A JP2019160002 A JP 2019160002A JP 2020201921 A JP2020201921 A JP 2020201921A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- depth map
- pixels
- pixel
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/25—Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40564—Recognize shape, contour of object, extract position and orientation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
Abstract
Description
本開示の実施形態1は、通信インターフェースと制御回路とを備えるカメラ画像処理システムに関する。通信インターフェースは、(i)第1のタイプの深度検知カメラでありかつ第1のカメラ視野を有する第1のカメラ、及び(ii)第1のタイプの深度検知カメラとは異なる第2のタイプの深度検知カメラであり、かつ第1のカメラ視野とオーバーラップする第2のカメラ視野を有する第2のカメラと通信するように構成されている。制御回路は、通信インターフェースが第1のカメラ及び第2のカメラと通信するとき、第1のカメラによって検知される情報に基づいて生成される第1の深度マップを受け取るように構成され、当該第1の深度マップは、第1のカメラ視野における各物理的位置の第1のセットを表す画素の第1のセットを含み、当該画素の第1のセットは、各物理的位置の第1セットに対する各深度値の第1のセットを示し、当該各深度値の第1のセットは第1のカメラに関連する。制御回路は、第2のカメラによって検知される情報に基づいて生成される第2の深度マップを受け取るように更に構成され、当該第2の深度マップは、第2のカメラ視野における各物理的位置の第2のセットを表す画素の第2のセットを含み、当該画素の第2のセットは、各物理的位置の第2セットに対する各深度値の第2のセットを示し、当該各深度値の第2のセットは第2のカメラに関連する。制御回路は、各物理的位置の第2のセットも表す、第1の深度マップの画素の第3のセットを特定するように更に構成され、当該画素の第3のセットは第2の深度マップの画素の第2のセットに対応する。制御回路は、画素の第3のセットから1つ以上の空画素を特定するように更に構成され、当該1つ以上の空画素の各空画素は、深度値が割り当てられていない第1の深度マップの画素である。制御回路は、1つ以上の空画素の各空画素に、第2の深度マップの画素の第2のセットの対応する画素の深度値に基づく各深度値を割り当てることにより、第1の深度マップを更新するように更に構成され、空画素に対する対応する画素は、当該空画素と同じ物理的位置を表す、第2の深度マップの画素の第2のセットの画素である。
Claims (20)
- (i)第1のタイプの深度検知カメラでありかつ第1のカメラ視野を有する第1のカメラ、及び(ii)前記第1のタイプの深度検知カメラとは異なる第2のタイプの深度検知カメラであり、かつ前記第1のカメラ視野とオーバーラップする第2のカメラ視野を有する第2のカメラと通信するように構成された通信インターフェースと、
前記通信インターフェースが前記第1のカメラ及び前記第2のカメラと通信するとき、
前記第1のカメラによって検知される情報に基づいて生成される第1の深度マップを受け取ることであって、該第1の深度マップは、前記第1のカメラ視野における各物理的位置の第1のセットを表す画素の第1のセットを含み、該画素の第1のセットは、前記各物理的位置の第1セットに対する各深度値の第1のセットを示し、該各深度値の第1のセットは前記第1のカメラに関連する、第1の深度マップを受け取ることと、
前記第2のカメラによって検知される情報に基づいて生成される第2の深度マップを受け取ることであって、該第2の深度マップは、前記第2のカメラ視野における各物理的位置の第2のセットを表す画素の第2のセットを含み、該画素の第2のセットは、前記各物理的位置の第2セットに対する各深度値の第2のセットを示し、該各深度値の第2のセットは前記第2のカメラに関連する、第2の深度マップを受け取ることと、
前記各物理的位置の第2のセットも表す、前記第1の深度マップの画素の第3のセットを特定することであって、該画素の第3のセットは前記第2の深度マップの前記画素の第2のセットに対応する、画素の第3のセットを特定することと、
前記画素の第3のセットから1つ以上の空画素を特定することであって、該1つ以上の空画素の各空画素は、深度値が割り当てられていない前記第1の深度マップの画素である、1つ以上の空画素を特定することと、
前記1つ以上の空画素の各空画素に、前記第2の深度マップの前記画素の第2のセットの対応する画素の深度値に基づく各深度値を割り当てることにより、前記第1の深度マップを更新することであって、前記空画素に対する前記対応する画素は、該空画素と同じ物理的位置を表す、前記第2の深度マップの前記画素の第2のセットの画素である、前記第1の深度マップを更新することと、
を行うように構成された制御回路と、
を備える、カメラ画像処理システム。 - 前記制御回路は、前記第2の深度マップの前記対応する画素の前記深度値に基づき、かつ、前記第1のカメラと前記第2のカメラとの間の空間的関係を定義する変換関数に基づき、前記1つ以上の空画素のセットの各空画素に割り当てるべき前記各深度値を求めるように構成されている、請求項1に記載のカメラ画像処理システム。
- 前記第2の深度マップの前記画素の第2のセットは、各画素座標のセットを有し、前記制御回路は、前記各画素座標のセットに基づき、かつ前記第1のカメラと前記第2のカメラとの間の空間的関係を定義する前記変換関数に基づき、各画素座標の追加のセットを求めることにより、前記第1の深度マップの前記画素の第3のセットを特定するように構成され、前記各画素座標の追加のセットは、前記画素の第3のセットを特定する、請求項2に記載のカメラ画像処理システム。
- 前記制御回路は、前記第1のカメラから前記通信インターフェースを介して前記第1の深度マップを受け取り、前記第2のカメラから前記通信インターフェースを介して前記第2の深度マップを受け取るように構成されている、請求項1に記載のカメラ画像処理システム。
- 前記制御回路は、前記第1の深度マップが、前記第2の深度マップの第2の解像度より高い第1の解像度を有する場合、
前記1つ以上の空画素に属した又は属する少なくとも1つの画素に対して、該少なくとも1つの画素に隣接しかつ深度値が割り当てられていない、前記第1の深度マップの1つ以上の隣接する空画素の各セットを特定し、
前記1つ以上の隣接する空画素の各セットに、前記少なくとも1つの画素に割り当てられた又は割り当てられるべき深度値を割り当てる、
ことにより、前記第1の深度マップを更に更新するように構成されている、請求項1に記載のカメラ画像処理システム。 - 前記制御回路は、前記少なくとも1つの画素を包囲する画素の領域における全ての空画素として、前記1つ以上の隣接する空画素の各セットを特定するように構成され、前記制御回路は、前記第1の深度マップの解像度と前記第2の深度マップの解像度との比に基づき、前記領域のサイズを求めるように構成されている、請求項5に記載のカメラ画像処理システム。
- 前記制御回路は、
前記1つ以上の空画素に属した又は属する第1の画素に隣接し、かつ前記1つ以上の空画素に属した又は属する第2の画素に隣接する、1つ以上の隣接する空画素のセットを特定し、
前記1つ以上の隣接する空画素のセットに、前記第1の画素に割り当てられた又は割り当てられるべき第1の深度値と、前記第2の画素に割り当てられた又は割り当てられるべき第2の深度値との平均である平均深度値を割り当てる、
ことにより、前記第1の深度マップを更に更新するように構成されている、請求項1に記載のカメラ画像処理システム。 - 前記制御回路は、
前記第1の画素に隣接し、前記1つ以上の空画素の他の任意の画素に隣接していない隣接する空画素の追加のセットを特定し、
前記隣接する空画素の追加のセットに前記第1の深度値を割り当てる、
ことにより、前記第1の深度マップを更に更新するように構成されている、請求項7に記載のカメラ画像処理システム。 - 前記制御回路は、前記1つ以上の空画素に属した又は属する各画素に対して、
該画素の各中心位置を求め、
該画素によって表される物理的位置の各座標として、該画素の前記中心位置の上に射影する3D座標であって、該3D座標の成分が該画素に割り当てられた又は割り当てられるべき深度値に等しい、3D座標を特定し、
前記各3D座標に基づき点群を生成する、
ように構成されている、請求項1に記載のカメラ画像処理システム。 - 前記制御回路は、前記1つ以上の空画素に属した又は属する各画素に対して、(i)該画素の前記各中心位置及び(ii)前記第1のカメラの焦点を通る仮想線上にある座標として、前記各3D座標を求めるように構成されている、請求項9に記載のカメラ画像処理システム。
- 前記制御回路は、前記第1の深度マップの前記1つ以上の画素の各画素が前記画素の第2のセットの複数の画素に対応するように、前記第1の深度マップが前記第2の深度マップの第2の解像度より低い第1の解像度を有するとき、
前記第2の深度マップの前記画素の第2のセットの対応する画素の各深度値の平均に基づき、前記1つ以上の空画素の各空画素に割り当てるべき前記各深度値を求める、
ように構成されている、請求項1に記載のカメラ画像処理システム。 - 前記カメラ画像処理システムはロボット制御システムの一部であり、前記通信インターフェースが前記第1のカメラ、前記第2のカメラ及びロボットと通信するとき、前記制御回路は、
前記第1の深度マップが前記第2の深度マップの深度値に基づいて更新された後、前記第1の深度マップに基づいてロボット移動コマンドを生成し、
前記通信インターフェースを介して前記ロボット移動コマンドを前記ロボットに通信する、
ように構成されている、請求項1に記載のカメラ画像処理システム。 - 前記制御回路は、前記第1の深度マップが前記第2の深度マップの深度値に基づいて更新された後、前記第1の深度マップに基づいて前記ロボット移動コマンドを生成するように構成されている、請求項12に記載のカメラ画像処理システム。
- 命令を有する非一時的コンピューター可読媒体であって、該命令は、カメラ画像処理システムの制御回路によって実行されると、該制御回路に、
第1の深度マップを受け取ることであって、該第1の深度マップは、前記カメラ画像処理システムの該非一時的コンピューター可読媒体から、又は、該カメラ画像処理システムの通信インターフェースを介して受け取られ、該通信インターフェースは、第1のタイプの深度検知カメラでありかつ第1のカメラ視野を有する第1のカメラと通信するように構成され、前記第1の深度マップは、前記通信インターフェースが通信するように構成される前記第1のカメラによって検知される情報に基づいて生成され、前記第1の深度マップは、前記第1のカメラ視野における各物理的位置の第1のセットを表す画素の第1のセットを含み、該画素の第1のセットは、前記各物理的位置の第1のセットに対する各深度値の第1のセットを示し、該各深度値の第1のセットは、前記通信インターフェースが通信するように構成される前記第1のカメラに関連する、第1の深度マップを受け取ることと、
第2の深度マップを受け取ることであって、該第2の深度マップは、前記カメラ画像処理システムの該非一時的コンピューター可読媒体から、又は、該カメラ画像処理システムの前記通信インターフェースを介して受け取られ、該通信インターフェースは、前記第1のタイプの深度検知カメラとは異なる第2のタイプの深度検知カメラであり、かつ前記第1のカメラ視野とオーバーラップする第2のカメラ視野を有する、第2のカメラと通信するように構成され、前記第2の深度マップは、前記通信インターフェースが通信するように構成される前記第2のカメラによって検知される情報に基づいて生成され、前記第2の深度マップは、前記第2のカメラ視野における各物理的位置の第2のセットを表す画素の第2のセットを含み、該画素の第2のセットは、前記各物理的位置の第2のセットに対する各深度値の第2のセットを示し、該各深度値の第2のセットは、前記通信インターフェースが通信するように構成される前記第2のカメラに関連する、第2の深度マップを受け取ることと、
前記各物理的位置の第2のセットも表す、前記第1の深度マップの画素の第3のセットを特定することであって、該画素の第3のセットは前記第2の深度マップの前記画素の第2のセットに対応する、画素の第3のセットを特定することと、
前記画素の第3のセットから1つ以上の空画素を特定することであって、該1つ以上の空画素の各空画素は、深度値が割り当てられていない前記第1の深度マップの画素である、1つ以上の空画素を特定することと、
前記1つ以上の空画素の各空画素に、前記第2の深度マップの前記画素の第2のセットの対応する画素の深度値に基づく各深度値を割り当てることにより、前記第1の深度マップを更新することであって、前記空画素に対する前記対応する画素は、該空画素と同じ物理的位置を表す、前記第2の深度マップの前記画素の第2のセットの画素である、前記第1の深度マップを更新することと、
を行わせる、非一時的コンピューター可読媒体。 - 前記第1の深度マップが、前記第2の深度マップの第2の解像度より高い第1の解像度を有する場合、前記命令は更に、前記制御回路に、
前記1つ以上の空画素に属した又は属する少なくとも1つの画素に対して、該少なくとも1つの画素に隣接しかつ深度値が割り当てられていない、前記第1の深度マップの1つ以上の隣接する空画素の各セットを特定させ、
前記1つ以上の隣接する空画素の各セットに、前記少なくとも1つの画素に割り当てられた又は割り当てられるべき深度値を割り当てさせる、
請求項14に記載の非一時的コンピューター可読媒体。 - 前記命令は、前記制御回路に、前記少なくとも1つの画素を包囲する画素の領域における全ての空画素として、前記1つ以上の隣接する空画素の各セットを特定させ、前記制御回路は、前記第1の深度マップの解像度と前記第2の深度マップの解像度との比に基づき、前記領域のサイズを求めるように構成されている、請求項15に記載の非一時的コンピューター可読媒体。
- 前記命令は更に、前記制御回路に、前記1つ以上の空画素に属した又は属する各画素に対して、
前記画素の各中心位置を求めることと、
前記画素によって表される物理的位置の各座標として、該画素の前記中心位置の上に射影する3D座標であって、該3D座標の成分が前記画素に割り当てられた又は割り当てられるべき深度値に等しい、3D座標を求めることと、
前記各3D座標に基づいて点群を生成することと、
を実施させる、請求項14に記載の非一時的コンピューター可読媒体。 - 1つ以上の深度マップを更新する方法であって、
カメラ画像処理システムの制御回路により第1の深度マップを受け取ることであって、該第1の深度マップは、前記カメラ画像処理システムの非一時的コンピューター可読媒体から、又は該カメラ画像処理システムの通信インターフェースを介して受け取られ、該通信インターフェースは、第1のタイプの深度検知カメラでありかつ第1のカメラ視野を有する第1のカメラと通信するように構成され、前記第1の深度マップは、前記通信インターフェースが通信するように構成される前記第1のカメラによって検知される情報に基づいて生成され、前記第1の深度マップは、前記第1のカメラ視野における各物理的位置の第1のセットを表す画素の第1のセットを含み、該画素の第1のセットは、前記各物理的位置の第1のセットに対する各深度値の第1のセットを示し、該各深度値の第1のセットは、前記通信インターフェースが通信するように構成される前記第1のカメラに関連する、第1の深度マップを受け取ることと、
第2の深度マップを受け取ることであって、該第2の深度マップは、前記カメラ画像処理システムの前記非一時的コンピューター可読媒体から、又は該カメラ画像処理システムの前記通信インターフェースを介して受け取られ、該通信インターフェースは、前記第1のタイプの深度検知カメラとは異なる第2のタイプの深度検知カメラであり、かつ前記第1のカメラ視野とオーバーラップする第2のカメラ視野を有する、第2のカメラと通信するように構成され、前記第2の深度マップは、前記通信インターフェースが通信するように構成される前記第2のカメラによって検知される情報に基づいて生成され、前記第2の深度マップは、前記第2のカメラ視野における各物理的位置の第2のセットを表す画素の第2のセットを含み、該画素の第2のセットは、前記各物理的位置の第2のセットに対する各深度値の第2のセットを示し、該各深度値の第2のセットは、前記通信インターフェースが通信するように構成される前記第2のカメラに関連する、第2の深度マップを受け取ることと、
前記各物理的位置の第2のセットも表す、前記第1の深度マップの画素の第3のセットを特定することであって、該画素の第3のセットは前記第2の深度マップの前記画素の第2のセットに対応する、画素の第3のセットを特定することと、
前記画素の第3のセットから1つ以上の空画素を特定することであって、該1つ以上の空画素の各空画素は、深度値が割り当てられていない前記第1の深度マップの画素である、1つ以上の空画素を特定することと、
前記1つ以上の空画素の各空画素に、前記第2の深度マップの前記画素の第2のセットの対応する画素の深度値に基づく各深度値を割り当てることにより、前記第1の深度マップを更新することであって、前記空画素に対する前記対応する画素は、該空画素と同じ物理的位置を表す、前記第2の深度マップの前記画素の第2のセットの画素である、前記第1の深度マップを更新することと、
を含む、方法。 - 前記第1の深度マップが、前記第2の深度マップの第2の解像度より高い第1の解像度を有する場合、
前記1つ以上の空画素に属した又は属する少なくとも1つの画素に対して、該少なくとも1つの画素に隣接しかつ深度値が割り当てられていない、前記第1の深度マップの1つ以上の隣接する空画素の各セットを特定することと、
前記1つ以上の隣接する空画素の各セットに、前記少なくとも1つの画素に割り当てられた又は割り当てられるべき深度値を割り当てることと、
を更に含む、請求項18に記載の方法。 - 前記少なくとも1つの画素を包囲する画素の領域における全ての空画素として前記1つ以上の隣接する空画素の各セットを特定することであって、前記制御回路は、前記第1の深度マップの解像度と前記第2の深度マップの解像度との比に基づいて、前記領域のサイズを求めるように構成される、特定すること、
を更に含む、請求項19に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/438,084 | 2019-06-11 | ||
US16/438,084 US10510155B1 (en) | 2019-06-11 | 2019-06-11 | Method and processing system for updating a first image generated by a first camera based on a second image generated by a second camera |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019233623A Division JP2020201930A (ja) | 2019-06-11 | 2019-12-25 | 第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6656549B1 JP6656549B1 (ja) | 2020-03-04 |
JP2020201921A true JP2020201921A (ja) | 2020-12-17 |
Family
ID=68549938
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019160002A Active JP6656549B1 (ja) | 2019-06-11 | 2019-09-03 | 第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム |
JP2019233623A Pending JP2020201930A (ja) | 2019-06-11 | 2019-12-25 | 第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム |
JP2024017509A Pending JP2024040313A (ja) | 2019-06-11 | 2024-02-07 | 第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019233623A Pending JP2020201930A (ja) | 2019-06-11 | 2019-12-25 | 第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム |
JP2024017509A Pending JP2024040313A (ja) | 2019-06-11 | 2024-02-07 | 第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム |
Country Status (4)
Country | Link |
---|---|
US (3) | US10510155B1 (ja) |
JP (3) | JP6656549B1 (ja) |
CN (3) | CN111243001B (ja) |
DE (1) | DE102020206759A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022209166A1 (ja) * | 2021-03-31 | 2022-10-06 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び較正用ターゲット |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190055582A (ko) * | 2017-11-15 | 2019-05-23 | 삼성전자주식회사 | 전자 장치의 이미지 촬영 방법 및 그 전자 장치 |
US10965929B1 (en) * | 2019-01-04 | 2021-03-30 | Rockwell Collins, Inc. | Depth mapping and parallel distortion correction for mixed reality |
JP7424800B2 (ja) * | 2019-11-06 | 2024-01-30 | ファナック株式会社 | 制御装置、その制御方法、及び制御システム |
US11103998B2 (en) | 2019-12-12 | 2021-08-31 | Mujin, Inc. | Method and computing system for performing motion planning based on image information generated by a camera |
CN113219900B (zh) * | 2019-12-12 | 2022-03-29 | 牧今科技 | 基于相机生成的图像信息执行运动规划的方法和计算系统 |
US11618167B2 (en) * | 2019-12-24 | 2023-04-04 | X Development Llc | Pixelwise filterable depth maps for robots |
CN115552476A (zh) | 2020-02-06 | 2022-12-30 | 伯克希尔格雷营业股份有限公司 | 用于利用可编程运动装置的铰接臂上的位置未知的基准物的照相机校准的系统和方法 |
US11006039B1 (en) | 2020-02-13 | 2021-05-11 | Mujin, Inc. | Method and system for determining occlusion within a camera field of view |
CN111582196B (zh) * | 2020-02-13 | 2021-05-04 | 牧今科技 | 用于确定相机视场内的遮挡的方法和系统 |
US11425324B2 (en) * | 2020-06-22 | 2022-08-23 | Samsung Electronics Co., Ltd. | Time-of-flight down-up sampling using a compressed guide |
CN113865481B (zh) * | 2020-06-30 | 2024-05-07 | 北京小米移动软件有限公司 | 对象尺寸测量方法、装置及存储介质 |
WO2022087983A1 (zh) * | 2020-10-29 | 2022-05-05 | 深圳市大疆创新科技有限公司 | 测距方法、测距装置与可移动平台 |
JPWO2022201804A1 (ja) * | 2021-03-25 | 2022-09-29 | ||
US11594016B1 (en) * | 2022-05-03 | 2023-02-28 | Plusai, Inc. | Navigating a vehicle based on data processing using synthetically generated images |
US11806882B1 (en) * | 2022-06-14 | 2023-11-07 | Plus One Robotics, Inc. | Robotic picking system and method of use |
CN115994937A (zh) * | 2023-03-22 | 2023-04-21 | 科大讯飞股份有限公司 | 深度估计方法、装置及机器人 |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3745117B2 (ja) * | 1998-05-08 | 2006-02-15 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
EP2255930A1 (de) * | 2009-05-27 | 2010-12-01 | Leica Geosystems AG | Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum |
EP2269783A1 (de) * | 2009-06-30 | 2011-01-05 | Leica Geosystems AG | Kalibrierungsverfahren für ein Messsystem |
US8643701B2 (en) * | 2009-11-18 | 2014-02-04 | University Of Illinois At Urbana-Champaign | System for executing 3D propagation for depth image-based rendering |
US9094660B2 (en) * | 2010-11-11 | 2015-07-28 | Georgia Tech Research Corporation | Hierarchical hole-filling for depth-based view synthesis in FTV and 3D video |
US10848731B2 (en) * | 2012-02-24 | 2020-11-24 | Matterport, Inc. | Capturing and aligning panoramic image and depth data |
US9571818B2 (en) * | 2012-06-07 | 2017-02-14 | Nvidia Corporation | Techniques for generating robust stereo images from a pair of corresponding stereo images captured with and without the use of a flash device |
US9237326B2 (en) * | 2012-06-27 | 2016-01-12 | Imec Taiwan Co. | Imaging system and method |
US20140098100A1 (en) * | 2012-10-05 | 2014-04-10 | Qualcomm Incorporated | Multiview synthesis and processing systems and methods |
WO2014083752A1 (ja) * | 2012-11-30 | 2014-06-05 | パナソニック株式会社 | 別視点画像生成装置および別視点画像生成方法 |
US10497140B2 (en) * | 2013-08-15 | 2019-12-03 | Intel Corporation | Hybrid depth sensing pipeline |
EP2887312A1 (en) * | 2013-12-18 | 2015-06-24 | Nokia Corporation | Method, apparatus and computer program product for depth estimation of stereo images |
CN104008569B (zh) * | 2014-02-24 | 2016-03-02 | 惠州学院 | 一种基于深度视频的3d场景生成方法 |
TWI573433B (zh) * | 2014-04-30 | 2017-03-01 | 聚晶半導體股份有限公司 | 優化深度資訊的方法與裝置 |
CN105096300B (zh) * | 2014-05-08 | 2018-06-12 | 株式会社理光 | 对象检测方法和设备 |
US20160188977A1 (en) * | 2014-12-24 | 2016-06-30 | Irobot Corporation | Mobile Security Robot |
US10217189B2 (en) * | 2015-09-16 | 2019-02-26 | Google Llc | General spherical capture methods |
US9734405B2 (en) | 2015-10-05 | 2017-08-15 | Pillar Vision, Inc. | Systems and methods for monitoring objects in athletic playing spaces |
US10341633B2 (en) | 2015-11-20 | 2019-07-02 | Qualcomm Incorporated | Systems and methods for correcting erroneous depth information |
US9996933B2 (en) | 2015-12-22 | 2018-06-12 | Qualcomm Incorporated | Methods and apparatus for outlier detection and correction of structured light depth maps |
US20170186223A1 (en) * | 2015-12-23 | 2017-06-29 | Intel Corporation | Detection of shadow regions in image depth data caused by multiple image sensors |
WO2017139330A1 (en) | 2016-02-08 | 2017-08-17 | Berkshire Grey Inc. | Systems and methods for providing processing of a variety of objects employing motion planning |
CN106780592B (zh) * | 2016-06-30 | 2020-05-22 | 华南理工大学 | 基于相机运动和图像明暗的Kinect深度重建方法 |
US9972067B2 (en) * | 2016-10-11 | 2018-05-15 | The Boeing Company | System and method for upsampling of sparse point cloud for 3D registration |
CN106651925B (zh) * | 2016-11-28 | 2019-08-30 | 深圳奥比中光科技有限公司 | 一种彩色深度图像的获取方法、获取设备 |
US10691979B2 (en) * | 2017-01-04 | 2020-06-23 | Aquifi, Inc. | Systems and methods for shape-based object retrieval |
US10755428B2 (en) * | 2017-04-17 | 2020-08-25 | The United States Of America, As Represented By The Secretary Of The Navy | Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model |
WO2018208791A1 (en) * | 2017-05-08 | 2018-11-15 | Aquifi, Inc. | Systems and methods for inspection and defect detection using 3-d scanning |
TWI625678B (zh) * | 2017-06-21 | 2018-06-01 | 鴻海精密工業股份有限公司 | 電子設備及其手勢識別方法 |
US10523880B2 (en) * | 2017-09-28 | 2019-12-31 | Waymo Llc | Synchronized spinning LIDAR and rolling shutter camera system |
US10891778B2 (en) * | 2018-01-10 | 2021-01-12 | The Board Of Trustees Of The University Of Illinois | Apparatus and method for producing three-dimensional models from magnetic resonance imaging |
US10740964B2 (en) * | 2018-03-13 | 2020-08-11 | Recogni Inc. | Three-dimensional environment modeling based on a multi-camera convolver system |
US11412198B2 (en) * | 2018-05-31 | 2022-08-09 | Intel Corporation | Bit depth coding mechanism |
US11148295B2 (en) * | 2018-06-17 | 2021-10-19 | Robotics Materials, Inc. | Systems, devices, components, and methods for a compact robotic gripper with palm-mounted sensing, grasping, and computing devices and components |
US10867430B2 (en) * | 2018-11-19 | 2020-12-15 | Intel Corporation | Method and system of 3D reconstruction with volume-based filtering for image processing |
US10460208B1 (en) * | 2019-01-02 | 2019-10-29 | Cognata Ltd. | System and method for generating large simulation data sets for testing an autonomous driver |
-
2019
- 2019-06-11 US US16/438,084 patent/US10510155B1/en active Active
- 2019-08-15 CN CN202010044657.3A patent/CN111243001B/zh active Active
- 2019-08-15 CN CN202310609399.2A patent/CN116664651A/zh active Pending
- 2019-08-15 CN CN201910751259.2A patent/CN110490922B/zh active Active
- 2019-09-03 JP JP2019160002A patent/JP6656549B1/ja active Active
- 2019-10-30 US US16/668,492 patent/US11080876B2/en active Active
- 2019-12-25 JP JP2019233623A patent/JP2020201930A/ja active Pending
-
2020
- 2020-05-29 DE DE102020206759.7A patent/DE102020206759A1/de active Pending
-
2021
- 2021-06-28 US US17/360,073 patent/US11688089B2/en active Active
-
2024
- 2024-02-07 JP JP2024017509A patent/JP2024040313A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022209166A1 (ja) * | 2021-03-31 | 2022-10-06 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び較正用ターゲット |
Also Published As
Publication number | Publication date |
---|---|
JP6656549B1 (ja) | 2020-03-04 |
US10510155B1 (en) | 2019-12-17 |
CN116664651A (zh) | 2023-08-29 |
US11080876B2 (en) | 2021-08-03 |
US20210327082A1 (en) | 2021-10-21 |
JP2020201930A (ja) | 2020-12-17 |
US11688089B2 (en) | 2023-06-27 |
CN110490922B (zh) | 2023-06-16 |
CN111243001A (zh) | 2020-06-05 |
CN111243001B (zh) | 2021-01-12 |
JP2024040313A (ja) | 2024-03-25 |
US20200394810A1 (en) | 2020-12-17 |
DE102020206759A1 (de) | 2020-12-17 |
CN110490922A (zh) | 2019-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6656549B1 (ja) | 第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム | |
US11310479B2 (en) | Non-uniform spatial resource allocation for depth mapping | |
US20190007659A1 (en) | Sensor for securing a machine | |
US20120154542A1 (en) | Plural detector time-of-flight depth mapping | |
US20190079192A1 (en) | Time-of-flight augmented structured light range-sensor | |
CN109362237B (zh) | 用于检测被监测体积内入侵的方法和系统 | |
US20130321790A1 (en) | Three dimensional surface mapping system using optical flow | |
JP6187671B2 (ja) | 自己位置算出装置及び自己位置算出方法 | |
JP7259835B2 (ja) | フォークリフト用の画像処理装置、および制御プログラム | |
US9992480B1 (en) | Apparatus and methods related to using mirrors to capture, by a camera of a robot, images that capture portions of an environment from multiple vantages | |
US10893190B2 (en) | Tracking image collection for digital capture of environments, and associated systems and methods | |
US10733740B2 (en) | Recognition of changes in a detection zone | |
US20200356094A1 (en) | Methods and systems for machine state related visual feedback in a robotic device | |
KR20230065978A (ko) | 구조화된 광을 사용하여 장면에서 평면 표면들을 직접 복구하기 위한 시스템, 방법 및 매체 | |
US20180225007A1 (en) | Systems and methods for user input device tracking in a spatial operating environment | |
CN114296057A (zh) | 一种计算测距系统相对外参的方法、装置和存储介质 | |
JPWO2017038659A1 (ja) | 運動検出装置及びそれを用いた三次元形状測定装置 | |
EP3992662A1 (en) | Three dimensional measurement device having a camera with a fisheye lens | |
KR20220146617A (ko) | 라이다 측정에서 블루밍을 검출하는 방법 및 장치 | |
US20230186496A1 (en) | Vision Sensing Device and Method | |
EP3834997A1 (en) | Method and device for calibrating a machine vision device for position determination | |
CN113050073B (zh) | 参考平面标定方法、障碍物检测方法以及距离检测装置 | |
WO2022054497A1 (ja) | 充填率計測方法、情報処理装置およびプログラム | |
Kuehnle et al. | Real-time 3D environment model for obstacle detection and collision avoidance with a mobile service robot | |
KR100910203B1 (ko) | 자율이동플랫폼 장치의 지형영상 출력장치, 이를 구비하는 자율이동플랫폼 장치 및 자율이동플랫폼 장치의 지형영상 출력방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191111 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191111 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191225 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6656549 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |