JP2023502239A - 広視野角のステレオカメラ装置およびこれを利用した深度画像処理方法 - Google Patents

広視野角のステレオカメラ装置およびこれを利用した深度画像処理方法 Download PDF

Info

Publication number
JP2023502239A
JP2023502239A JP2022528968A JP2022528968A JP2023502239A JP 2023502239 A JP2023502239 A JP 2023502239A JP 2022528968 A JP2022528968 A JP 2022528968A JP 2022528968 A JP2022528968 A JP 2022528968A JP 2023502239 A JP2023502239 A JP 2023502239A
Authority
JP
Japan
Prior art keywords
image
stereo camera
camera device
person
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022528968A
Other languages
English (en)
Other versions
JP7372708B2 (ja
Inventor
パク,キ-ヨン
キム,ドンソク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Argosvision Inc
Original Assignee
Argosvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200104281A external-priority patent/KR102310958B1/ko
Priority claimed from KR1020210023553A external-priority patent/KR102430274B1/ko
Priority claimed from KR1020210023552A external-priority patent/KR102430273B1/ko
Priority claimed from KR1020210097826A external-priority patent/KR20230016390A/ko
Application filed by Argosvision Inc filed Critical Argosvision Inc
Publication of JP2023502239A publication Critical patent/JP2023502239A/ja
Application granted granted Critical
Publication of JP7372708B2 publication Critical patent/JP7372708B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

広視野角のステレオカメラ装置およびこれを利用した深度画像処理方法を提供する。本発明の一実施形態に係るステレオカメラ装置は、垂直方向に配置された第1レンズと第2レンズによって撮影される被写体の第1画像と第2画像を受信する受信部、前記受信した第1画像と第2画像を地図投影法で変換する変換部、および前記地図投影法で変換された第1画像と第2画像を縦方向にステレオマッチングを実行することにより、前記被写体の深度を抽出する処理部を含む。【選択図】図2

Description

本発明は、広視野角のステレオカメラ装置およびこれを利用した深度画像処理方法に関し、より詳細には、2つのレンズ、例えば、魚眼レンズを垂直方向に配置させて水平視野角と垂直視野角を向上させることによって広視野角を有するステレオカメラ装置およびこれを利用した深度画像処理方法に関する。
ヒューマンコンピュータインタフェース(Human-Computer Interface)の実現のために、カラー画像と3D情報である深度マップをともに出力するRGB-Dカメラに対する研究が多くなされている。マイクロソフト社が自社のゲームのために普及したRGB-DカメラであるKinectセンサは、複数人のジェスチャ認識機能を提供することから、本来の目的であったゲームだけではなく、多様なヒューマンコンピュータインタフェースのための目的として使用された。その後、多様なRGB-Dカメラ製品が発売されるようになり、3Dコンテンツの製作、自律走行、ロボットなどにその活用範囲が広がっている。
RGB-Dカメラは、深度情報を取得する方式に応じてステレオカメラとTOF(Time of Flight)カメラに区分される。一般的なステレオカメラは、基準線(Base line)だけ離れて設置された2台のカメラで構成され、各カメラの視点不一致を利用して深度情報を取得する。深度情報を得るためには両方のカメラの画像を比較するステレオマッチング過程を経なければならず、ステレオマッチング過程の速度と正確度を高めるためにパターン光や構造光が使用されたりもする。TOFカメラは、被写体に向かってレーザなどを照射した後、光が被写体で反射して戻ってくる時間に基づいて距離を計算して2D画像とともに深度情報を提供するカメラである。TOFカメラは、一般的にステレオ方式よりも精密な距離情報を提供するが、相対的に低い空間分析能(Spatial Resolution)を提供し、測定距離と使用環境にも制約がある。
一般的なカメラは、直線投影(Rectilinear Projection)のために設計されたレンズを使用する。直線投影では、実世界の直線が画像でも直線で現れるため、人間が認知したものと同じような画像を得ることはできるが、カメラの視野角が広くなるほど画像周辺にある物体が中央部の物体よりも相対的に大きく表現されるという問題がある。通常、水平120度程度の視野角までは直線投影レンズを利用し、それ以上の視野角が必要な場合には魚眼レンズ(Fisheye Lens)を使用する。魚眼レンズは、実世界を歪曲収差(Barrel Distortion)があるように画像に投影し、180度以上の視野角も画像に収めることができる。
RGB-Dカメラの使用環境がロボット、ドローン、自律走行車のような移動体にまで拡張し、これにより広い視野角に対する要求が高まっている。しかし、大部分のRGB-Dカメラは直線投影レンズを利用するため、水平120度以上の視野角を提供するのに困難があった。一部のステレオカメラは、魚眼レンズを使用してより広い視野角を提供したりもするが、直線投影画像のような1D探索による効率的なステレオマッチングは魚眼レンズ画像では難しいという短所がある。また、魚眼レンズを使用したとしても、ステレオカメラの基準線(Base line)と同じ方向から距離情報を得ることができないため、水平画角は180度以内に制限される。
本発明の実施形態は、2つのレンズ、例えば、魚眼レンズを垂直方向に配置させて水平視野角をレンズの最大水平視野角まで向上させ、垂直視野角を最大180度まで高めた広視野角を有するステレオカメラ装置およびこれを利用した深度画像処理方法を提供する。
また、本発明の実施形態は、説明したステレオカメラ装置を利用して、1m以内の接近距離にいるユーザの全身の動作を認識することができる広視野角のステレオカメラ基盤のヒューマンマシンインタフェース(Human-Machine Interface)システムおよびこれを利用した深度画像処理方法を提供する。
また、本発明の実施形態は、説明したステレオカメラ装置を利用して、ユーザの動作やユーザの周辺環境を認識することができる広視野角のステレオカメラ基盤の1人称ビジョンシステムおよびこれを利用した深度画像処理方法を提供する。
さらに、本発明の実施形態は、説明したステレオカメラ装置を利用して、近距離の人物を認識して追従することができる広視野角のステレオカメラ基盤の人物追従システムおよびその方法を提供する。
本発明の一実施形態に係るステレオカメラ装置は、垂直方向に配置された第1レンズと第2レンズによって撮影された被写体の第1画像と第2画像を受信する受信部、前記受信した第1画像と第2画像を地図投影法で変換する変換部、および前記地図投影法で変換された第1画像と第2画像を縦方向にステレオマッチングを実行することにより、前記被写体の深度を抽出する処理部を含む。
前記変換部は、前記第1画像と第2画像を正距円筒図法(Equirectangular Projection)で変換してよい。
前記変換部は、球面座標系を利用してエピポーラ線(Epipolar line)を球面の経度線と一致させる回転変換を実行してよい。
前記処理部は、前記地図投影法で変換された第1画像と第2画像を経度線に対応する垂直線に沿って検索することにより、ステレオマッチングを実行してよい。
前記第1レンズと前記第2レンズは、魚眼レンズを含んでよい。
前記第1レンズと前記第2レンズは、水平視野角が180度以上の魚眼レンズであってよい。
前記処理部は、前記抽出された被写体の深度を利用して、水平180度以上の広視野角を有する前記被写体に対する深度画像を取得してよい。
前記受信部は、前記第1画像を撮影するためのイメージセンサと前記第2画像を撮影するためのイメージセンサを含み、前記第1画像と前記第2画像を撮影するためのイメージセンサの横の長さが縦の長さよりも長い長方形である場合、垂直視野角よりも広い水平視野角が得られるようにそれぞれ横方向に配置されてよい。
前記ステレオカメラ装置は、前記ステレオカメラ装置から抽出される前記被写体の深度マップを利用して前記ユーザの動作と前記ユーザの周辺に位置する事物と地形を含む周辺環境を認識し、前記認識されたユーザの動作と周辺環境を前記ユーザに提供するビジョン処理部をさらに含んでよい。
前記ステレオカメラ装置は、前記ステレオカメラ装置から抽出される前記被写体の深度マップを利用して前記人物および前記人物との距離を認識し、前記認識された人物および前記人物との距離を利用して前記人物を一定の距離で追従するように制御する制御部をさらに含んでよい。
前記制御部は、前記被写体の深度マップを利用して前記人物の移動方向と前記人物の周辺に位置する事物と地形を含む周辺環境を認識し、前記人物の移動方向と前記周辺環境に基づいて衝突の可能性を感知し、衝突感知の可能性を反映して前記人物を追従するように制御することを特徴としてよい。
本発明の一実施形態に係る深度画像処理方法は、ステレオカメラ装置の深度画像処理方法であって、垂直方向に配置された第1レンズと第2レンズによって撮影される被写体の第1画像と第2画像を受信する段階、前記受信した第1画像と第2画像を地図投影法で変換する段階、および前記地図投影法で変換された第1画像と第2画像を縦方向にステレオマッチングを実行することにより、前記被写体の深度を抽出する段階を含む。
前記深度画像処理方法は、前記抽出された被写体の深度マップを利用して前記ユーザの動作と前記ユーザの周辺に位置する事物と地形を含む周辺環境を認識し、前記認識されたユーザの動作と周辺環境を前記ユーザに提供する段階をさらに含んでよい。
前記深度画像処理方法は、前記抽出された被写体の深度マップを利用して前記人物および前記人物との距離を認識し、前記認識された人物および前記人物との距離を利用して前記人物を一定の距離で追従するように制御する段階をさらに含んでよい。
本発明の実施形態によると、2つのレンズ、例えば、魚眼レンズを垂直方向に配置させて水平視野角と垂直視野角を向上させることにより、広視野角を有することができる。
本発明の実施形態によると、水平視野角と垂直視野角を向上させて広視野角を有することにより、人間の視野よりも広いRGB-D(depth)カメラを実現し、正距円筒図法で変換された広視野角画像を使用して客体を容易に検出することができる。
魚眼レンズ画像の場合、画像周辺部で直立する被写体が傾いたり歪曲したりするように現れるが、正距円筒図法で変換された画像では直立する被写体が直立した状態で表現され、客体を極めて容易に検出することができる。
本発明は、人間よりも広い視野角を提供することから、RGB-Dカメラをロボット、車両、ドローンのような移動体に装着して使用することができるし、1m以内に接近した人物の全身検出が可能であることから、人間追従ロボット(Human Following Robot)に付着する場合、追従対象が接近していても全身を検出することができ、追従対象が左右に移動方向を変えた場合でも視野から外れないため安定的に追従することが可能となる。したがって、本発明は、ヒューマンコンピュータインタフェースではもちろん、人間とロボットの相互作用と各種移動体で活用することができる。
また、本発明の実施形態によると、広視野角のステレオカメラ装置を利用して、ユーザの動作やユーザの周辺環境を認識することができる。
これにより、本発明の実施形態によると、広視野角のステレオカメラ装置をユーザの頭や胴体などの身体部位に付けてユーザの前面方向だけを撮影しても、広視野角を有することから、ユーザの手や腕の動作はもちろん、ユーザの姿勢や行動などを把握することができ、広視野角のステレオカメラ装置を利用して深度マップを抽出することにより、ステレオカメラ装置によって撮影される周辺環境、例えば、衝突、底が平らであるか傾いているかなどの地形把握を感知して認識することができる。
このような本発明がVRやHMDなどの装置に適用される場合、認識されたユーザの動作と周辺環境などの情報が仮想現実で実現されるように提供することができる。
また、本発明の実施形態によると、広視野角のステレオカメラ装置を利用して、近距離の人物を認識して追従することができる。
したがって、本発明の実施形態によると、移動ロボットのような人間追従システムが近距離、例えば、1m以内の人物を認識して追従することにより、移動ロボットを運用するための専門人力が必要なくなり、人力消耗を減らすことができる。すなわち、本発明は、近距離の人物の全身をすべて撮影することができるため、撮影された人物を検出して追従する多様なアルゴリズムを適用することができる。
本発明の実施形態によると、1m以内の近距離人物の認識はもちろん、正確な位置も把握することができるため、縦方向だけでなく横方向に迅速に移動する人物を単独で追従することができる。
本発明の実施形態によると、ステレオカメラ装置によって抽出される被写体の深度マップを利用して人物と人物の周辺に位置する事物と地形を含む周辺環境を認識することにより、周辺環境に基づいて衝突の可能性を感知することができ、衝突が発生すると判断される場合には、衝突の可能性を反映して人間追従システムを制御することで、移動ロボットの破損の可能性を減らすことができる。
このような本発明は、物流分野をはじめとする多様な分野、例えば、人間追従物流ロボット、集配員追従ロボット、個人用カーゴロボット、電動ゴルフカートなどに適用することができる。
本発明の一実施形態における、ステレオカメラ装置に対する構成を示した図である。 本発明のステレオカメラ装置において、魚眼レンズの配置と、垂直視野角よりも広い水平視野角を得るためのそれぞれのイメージセンサの横方向の配置と、視野角を説明するための一例を示した図である。 本発明のステレオカメラ装置において、エピポーラ線幾何を説明するための一例を示した図である。 深度を抽出する方法を説明するための一例を示した図である。 魚眼レンズ画像に対する正距円筒図法による変換を説明するための一例を示した図である。 同じ大きさのディスパリティに対する深度の一例を示した図である。 本発明のステレオカメラ装置の視野角を説明するための一例を示した図である。 本発明の一実施形態における、ステレオカメラ装置の深度画像処理方法の動作を示したフローチャートである。 本発明の一実施形態における、ステレオカメラ装置を基盤とする1人称ビジョンシステムの構成を示した図である。 本発明の一実施形態における、ステレオカメラ装置が1人称ビジョンシステムとして動作する場合に実行される深度画像処理方法の追加の段階を示した図である。 本発明の一実施形態における、ステレオカメラ装置を基盤とする人間追従システムの構成を示した図である。 本発明の一実施形態における、ステレオカメラ装置が人間追従システムとして動作する場合に実行される深度画像処理方法の追加の段階を示した図である。
本発明の利点および特徴、またはこれを達成する方法は、添付の図面とともに詳しく説明する実施形態を参照すれば明らかになる。しかし、本発明は、以下で開示する実施形態に限定されてはならず、互いに異なる多様な形態で実現されてよい。本実施形態は、本発明の開示を完全なものとしながら、本発明が属する技術分野において通常の知識を有する者に発明の範疇を完全に知らせるために提供されるものに過ぎず、本発明は特許請求の範囲によってのみ定義される。
本明細書で使用する用語は、実施形態を説明するためのものに過ぎず、本発明を制限しようとする意図はない。本明細書に記載する単数型は、特に言及しない限り複数型も含む。明細書で使用する「含む(comprises)」および/または「含む(comprising)」は、言及する構成要素、段階、動作、および/または素子が1つ以上の他の構成要素、段階、動作、および/または素子を存在または追加することを排除しない。
他の定義がない限り、本明細書で使用するすべての用語(技術および科学的用語を含む)は、本発明が属する技術分野において通常の知識を有する者が共通して理解する意味として使用されてよい。さらに、一般的に使用される事前に定義されている用語は、特別に明らかに定義されていない限り、理想的または過度に解釈されてはならない。
以下、添付の図面を参照しながら、本発明の好ましい実施形態について詳しく説明する。図面において、同一の構成要素に対しては同一の参照符号を使用し、同一の構成要素に関する重複する説明は省略する。
本発明の実施形態は、2つのレンズ、例えば、魚眼レンズを垂直方向に配置させて水平視野角と垂直視野角を向上させることによって広視野角を有するステレオカメラ装置を提供することをその要旨とする。
このとき、本発明は、2つの魚眼レンズそれぞれによって撮影される魚眼画像を地図投影法、例えば、子午線が直線で表示される正距円筒図法(Equirectangular Projection)で変換した後、正距円筒図法で変換された魚眼画像を縦方向または垂直方向にステレオマッチングを実行することにより、魚眼画像によって撮影された被写体に対する深度を抽出し、抽出した深度を利用して広視野角の画像を取得することができる。
本発明のステレオカメラ装置は、2つの魚眼レンズまたは魚眼レンズカメラが同じ方向を向くように垂直に配置されるため、球面座標系を利用すればエピポーラ線(Epipolar line)が球面の経度線(子午線)と一致するようになり、魚眼レンズ画像を正距円筒図法で変換すれば経度線が画像において垂直線で表現されるため、垂直線に沿って検索することによって効率的なステレオマッチングを実行することができる。
本発明のステレオカメラ装置は、上側の魚眼レンズと下側の魚眼レンズによって撮影される画像に対し、正距円筒図法で変換された画像の各ディスパリティ(angular disparity)から被写体に対する深度を抽出または算出する。
このような本発明について図1~8を参照しながら説明すれば、次のとおりとなる。
図1は、本発明の一実施形態における、ステレオカメラ装置の構成を示した図であり、ステレオカメラ装置またはシステムの概念的な構成を示した図である。図2は、本発明のステレオカメラ装置において、魚眼レンズの配置と、垂直視野角よりも広い水平視野角を得るためのそれぞれのイメージセンサの横方向の配置と、視野角を説明するための一例を示した図である。図3は、本発明のステレオカメラ装置において、エピポーラ線幾何を説明するため一例を示した図である。図4は、深度を抽出する方法を説明するための一例を示した図である。図5は、魚眼レンズ画像に対する正距円筒図法による変換を説明するための一例を示した図である。図6は、同じ大きさのディスパリティに対する深度の一例を示した図である。図7は、本発明のステレオカメラ装置の視野角を説明するための一例を示した図である。
図1~7を参照すると、本発明の実施形態に係るステレオカメラ装置100は、受信部110、変換部120、および処理部130を含む。
受信部110は、垂直方向に配置される第1レンズ、例えば第1魚眼レンズ(または、第1魚眼レンズカメラ)と第2レンズ、例えば第2魚眼レンズ(または、第2魚眼レンズカメラ)によって撮影される被写体の第1画像(または、第1魚眼画像)と第2画像(または、第2魚眼画像)を受信する。
例えば、受信部110は、図2に示すように、垂直方向に配置される第1魚眼レンズと第2魚眼レンズによって撮影される被写体の第1魚眼画像と第2魚眼画像を受信する。ここで、第1魚眼レンズと第2魚眼レンズは、同じ方向を向くように垂直方向に配置され、最大水平視野角と最大180度まで向上した垂直視野角を有してよい。例えば、垂直方向に配置された第1魚眼レンズと第2魚眼レンズは、200度以上の水平視野角と180度以上の垂直視野角を有してよい。ただし、魚眼レンズそれぞれは、200度以上の水平視野角と180度以上の垂直視野角に制限あるいは限定されてはならず、水平視野角と垂直視野角は、使用する魚眼レンズによって異なってよい。
また、受信部110は、第1画像を撮影するための第1カメラの第1イメージセンサと第2画像を撮影するための第2カメラの第2イメージセンサの横の長さが縦の長さよりも長い長方形の場合、縦視野角(または、垂直視野角)よりも広い横視野角(または、水平視野角)を得るように、それぞれのイメージセンサは横方向に配置されてよい。ただし、これに制限あるいは限定されてはならず、受信部110のイメージセンサはそれぞれ縦方向に配置されてもよい。
変換部120は、受信部110で受信する第1魚眼画像と第2魚眼画像を地図投影法で変換する。
このとき、変換部120は、第1魚眼画像と第2魚眼画像を正距円筒図法(Equirectangular Projection)で変換してよい。
ここで、正距円筒図法は、地図投影法の1つであって、緯度線と経度線がそれぞれ水平線と垂直線で表現されてよい。例えば、図3に示すように、変換部は、220度の魚眼画像を正距円筒図法で変換することにより、エクイレクタングラー画像(Equirectangular image)に変換してよい。このような正距円筒図法は、360度カメラなどで従来の直線投影(Rectilinear Projection)画像に収めることのできない広い視野角を有するために使用されてよい。また、180度以上の視野角の魚眼レンズ画像を正距円筒図法で変換すれば、画像の上下部分が左右に大きく伸びる歪曲が発生することがある。
また、変換部120は、第1魚眼画像と第2魚眼画像を正距円筒図法で変換する前に、第1魚眼画像と第2魚眼画像を回転させて子午線の方向を一致させるための画像整列(image rectification)を実行してもよい。画像整列を行えば、2つの画像の比較が1次元探索に単純化されるため、ステレオマッチングの速度を高めることができる。
処理部130は、変換部120により、正距円筒図法で変換された魚眼画像、すなわち、第1エクイレクタングラー画像と第2エクイレクタングラー画像を縦方向または垂直方向にステレオマッチングを実行することにより、第1魚眼レンズと第2魚眼レンズによって撮影される被写体の深度または深度マップを抽出する。
このとき、処理部130は、図4に示すように、2つの魚眼レンズまたは魚眼レンズカメラが同じ方向を向くように垂直に配置されるため、球面座標系を利用すれば、エピポーラ線(Epipolar line)が球面の経度線(子午線)と一致するようになり、魚眼レンズ画像を正距円筒図法で変換すれば、経度線が画像において垂直線で表現されるため、垂直線に沿って検索することによって効率的なステレオマッチングを実行することができる。
さらに、処理部130は、図5に示すように、上側の魚眼レンズと下側の魚眼レンズによって撮影される画像に対し、正距円筒図法で変換された画像の各ディスパリティ(angulardis parity)、すなわち、φ-φから被写体に対する深度(d)を抽出または算出してよい。ここで、深度は、以下の数式(1)によって抽出または算出されてよい。
Figure 2023502239000002
ここで、各ディスパリティが同じであっても、深度はφによって異なることが分かる。また、Baseline Bと同じ方向である上側と下側、例えば、φが-90度または90度では深度が求められないことを確認することができる。
このとき、カメラが向く方向をZ軸とし、基準線(Baseline)の方向をY軸としたとき、同じ大きさの各ディスパリティに対する深度は、図6に示すように異なってよい。
制限的な視野角を有する従来のステレオでは、深度(または、距離)とディスパリティの大きさが反比例関係にあると近似して計算したが、広い視野角を使用するときは、上記の数式(1)のように深度と各ディスパリティは複雑な関係を有するため、これを考慮しなければならない。
さらに、処理部130は、抽出された被写体の深度を利用して、180度以上の水平視野角と最大180度の垂直視野角の広視野角を有する被写体に対する像を取得してよい。
このように、本発明の実施形態に係るステレオカメラ装置は、2つのレンズ、例えば、魚眼レンズを垂直方向に配置させて水平視野角と垂直視野角を向上させることにより、広視野角を有することができる。例えば、本発明において、垂直視野角は最大180度、水平視野角は180度よりも遥かに広い広視野角のRGB-Dカメラ装置を実現することができる。ここで、280度の魚眼レンズを使用するとき、水平視野角280度と垂直視野角180度視野角も可能である。
また、本発明の実施形態に係るステレオカメラ装置は、本発明の実施形態によると、水平視野角と垂直視野角を向上させて広視野角を有することによって人間の視野角よりも広いRGB-D(depth)カメラを実現することができ、これによって接近客体を容易に検出することができる。例えば、本発明の実施形態に係るステレオカメラ装置は、図7に示すように、接近客体を容易に検出することができるため、1m以内に接近した人物の全身検出が可能となる。
また、本発明の実施形態に係るステレオカメラ装置を追従ロボットに付着する場合、追従対象が接近していても全身を検出することができ、追従対象が左右に移動方向を変える場合にも視野から外れないため安定的な追従が可能となる。したがって、本発明は、ヒューマンコンピュータインタフェースだけではなく、人間とロボットの相互作用と各種移動体で活用することができる。
上述したように、本発明のステレオカメラ装置は、2つの魚眼レンズまたは魚眼レンズカメラを垂直方向または縦方向に配置して撮影した画像を正距円筒図法(Equirectangular Projection)で変換することにより、上下画像の効率的なステレオマッチングが可能となる。
直線投影(Rectilinear projection)画像を利用する従来のステレオカメラは、2つのカメラを水平に配置するか垂直に配置することに大きな差がないため、被写体の方向を考慮した上で装着が便利な方向に配置して使用すればよかったが、正距円筒図法で変換された画像を利用する広視野角ステレオカメラの場合は、カメラの設置方向によって画像歪曲の形態が変わり、図6に示すようにステレオマッチングで求めることのできる深度の正確度が変わるため、画像の歪曲と被写体に対してより正確な深度値を求めることのできるステレオカメラの配置を考慮する必要がある。
直線投影画像の場合は、実世界での直線が画像でも常に直線で表現されるため、カメラの設置方向によって画像に歪曲が発生しないが、正距円筒図法で変換した画像の場合は、実世界での垂直線は直線で表現されるが実世界の水平線は曲線で表現され、カメラの設置方向によって画像歪曲の形態が変わるようになる。
すなわち、カメラが左右に傾かないことにより、直立した被写体が正距円筒図法で変換された画像で最も少ない歪曲で表現することができる。
これにより、正距円筒図法で変換された画像を使用するカメラは、主に、正面を向いて直立した状態で使用されると仮定してよく、2つのレンズを縦方向に配置した広視野角ステレオカメラは、以下の3つの内容を考慮した上で、縦方向に配置する場合の長所を利用した。
1つ目に、180度以上の視野角のステレオでは、2つのカメラの間に隠れが発生する。例えば、画像において、ステレオカメラを構成する横のカメラも見える。これにより、2つのカメラを垂直方向に配置することにより、隠れの方向が上側から下側になるようにしてよい。一般的な状況において、被写体は、天井方向や床方向よりは正面や側面方向に意味を有する可能性が高いため、隠れの方向が上側から下側を向くようにすることは長所となる。
2つ目に、正距円筒図法(Equirectangular Projection)を使用する場合、両極(Pole)に該当する画像の上側端と下側端に近くなるほど実際よりも過度に拡大されて表現されるという問題がある。2つのカメラを垂直方向に配置することにより、このような歪曲が発生する方向も上側と下側方向に一致させることができる。
3つ目に、既存の制限的な視野角のステレオでは、深度の大きさはディスパリティに反比例すると近似して計算したが、視野角が広くなれば、同じ大きさのディスパリティに対してもカメラが向く方向からステレオカメラの基準線の方向に行くほど深度が低くなるため正確な深度を得難くなる。2つのカメラを垂直方向に配置すれば、基準線の方向が上側と下側方向を向くため、正確度が低下する領域を上側と下側に一致させることができる。
本発明のステレオカメラ装置は、2つのカメラまたは2つのレンズの間に干渉が起こる方向と深度を求めることができない方向を一致させることによって深度を求めることができない領域を最小化し、水平方向深度マップの視野角を180度以上に広げることができる。当然、本発明のステレオカメラ装置は、280度の魚眼レンズを使用するときに、水平方向に対して280度の深度マップを求めることができる。
さらに、本発明の実施形態に係るステレオカメラ装置は、上側カメラと下側カメラのうちの下側カメラの画像を基準に上側カメラ画像を探索してステレオマッチングを実行するようになれば、隠れ(occlusion)によるホール(hole)が客体の下方向に発生するようになる。これは、水平方向に配置されたステレオカメラ装置ではホールが客体の左側または右側に発生するようになることに比べ、本発明ではホールが発生したとしても客体の下側に発生するため、客体検出などの場合により有利となる。
図8は、本発明の一実施形態における、ステレオカメラ装置の深度画像処理方法を示したフローチャートであり、図1~7のステレオカメラ装置の動作の流れを示している。
図8を参照すると、本発明の実施形態に係るステレオカメラ装置の深度画像処理方法は、垂直方向に配置された第1レンズと第2レンズによって撮影される被写体の第1画像、例えば、第1魚眼画像と第2画像、例えば、第2魚眼画像を受信する(S810)。
段階810で第1魚眼画像と第2魚眼画像を受信すれば、受信した第1魚眼画像と第2魚眼画像を地図投影法で変換する(S820)。
このとき、段階820は、第1魚眼画像と第2魚眼画像を正距円筒図法(Equirectangular Projection)で変換してよい。また、段階820は、球面座標系を利用してエピポーラ線(Epipolar line)を球面の経度線と一致させるように変換してよい。
段階820で第1魚眼画像と第2魚眼画像が地図投影法で変換されれば、地図投影法で変換された第1魚眼画像と第2魚眼画像を縦方向にステレオマッチングを実行することによって被写体の深度を抽出し、抽出された被写体の深度を利用して180度以上の水平視野角と最大180度の垂直視野角の広視野角を有する被写体に対する深度画像を取得する(S830、S840)。
このとき、段階830は、前記地図投影法で変換された第1画像と第2画像を経度線に対応する垂直線に沿って検索することにより、ステレオマッチングを実行してよい。
図8ではその詳細な説明を省略しているが、図8を構成する各段階は、図1~7で説明したすべての内容を含んでいる。これは、当技術分野の当業者にとって明白な事実である。
また、ステレオカメラ装置は、撮影されるユーザの腕と手の動作、ユーザの姿勢、さらに周辺環境、例えば、周辺の地形や周辺の事物などを認識してこの情報を提供することができる。
このような本発明について図9~10を参照しながら説明すれば、次のとおりとなる。
図9は、本発明の一実施形態における、ステレオカメラ装置を基盤とする1人称ビジョンシステムの構成を示した図である。
図9を参照すると、ステレオカメラ装置100は、ビジョン処理部910をさらに含むことにより、1人称ビジョンシステムとして動作することができる。
このような場合、ステレオカメラ装置100は、ユーザの頭や胴体などの身体部位、さらには帽子などに付着してユーザの前面方向を撮影してよい。また、ステレオカメラ装置100によって撮影されるものは、ステレオカメラ装置が広視野角を有することから、ユーザの前面だけを撮影しても、ユーザの腕や手などの身体部位も撮影することができ、周辺環境、例えば、事物、建物、地形などを撮影することもできる。本発明では、このように撮影されるすべてのものを被写体として説明する。
ステレオカメラ装置100が1人称ビジョンシステムとして動作する場合、ビジョン処理部910は、ステレオカメラ装置100が取得する被写体の深度マップを利用してユーザの動作とユーザの周辺に位置する事物と地形を含む周辺環境を認識し、このように認識された情報、すなわち、ユーザの動作と周辺環境情報をユーザに提供する。
1人称ビジョンシステム(ステレオカメラ装置100)は、例えば、水平180度以上の広視野角を有するRGB-Dカメラ装置として人間と同じような類似する視野を提供することができるため、1人称ビジョンシステム(ステレオカメラ装置100)を着用したユーザの上下左右手の動作がすべて視野に入るようになる。これにより、ビジョン処理部910は、ステレオカメラ装置100がユーザの前面を撮影しても、ユーザの手と腕の動作、さらにユーザの行動や姿勢などを認識することができる。
ビジョン処理部910は、ステレオカメラ装置100によって深度マップが抽出されるため、周辺事物検出によってユーザの衝突の可能性を感知してこれに関する情報をユーザに提供することもでき、ユーザの手に品物がある場合、ユーザの手と品物の位置検出により、ユーザの手が品物の後ろに位置するか、品物がユーザの手の中に位置するかなどの情報を提供することもでき、周辺環境認識により、周辺の地形や客体などに関する情報をリアルタイムでともに提供することもできる。
このように、ステレオカメラ装置100がビジョン処理部910をさらに含むことにより、ユーザの手と腕の作検出または事物などのような接近客体検出が可能となる。
図10は、本発明の一実施形態における、ステレオカメラ装置が1人称ビジョンシステムとして動作する場合に実行される深度画像処理方法の追加の段階を示した図であり、図9の1人称ビジョンシステムとして動作するステレオカメラ装置が、図8に示した深度画像処理方法の段階S840以後に追加で実行する段階を示している。
図10を参照すると、図8を参照しながら説明した段階830および段階840で被写体の深度または深度マップが抽出された後、抽出された被写体の深度マップを利用してユーザの動作とユーザの周辺に位置する事物と地形を含む周辺環境を認識し、認識されたユーザの動作と周辺環境をユーザに提供する(S1010)。
また、ステレオカメラ装置は、ステレオカメラ装置が抽出した被写体の深度マップを利用して人物と人物の周辺に位置する事物と地形を含む周辺環境を認識することにより、周辺環境から衝突の可能性を感知することができ、衝突が発生すると判断される場合は、衝突の可能性を反映して人間追従システムを制御することもできる。
このような本発明について図11~12を参照しながら説明すれば、次のとおりとなる。
図11は、本発明の一実施形態における、ステレオカメラ装置を基盤とする人間追従システムの構成を示した図である。
図11を参照すると、ステレオカメラ装置100は、制御部1110をさらに含むことにより、人間追従システムとして動作することができる。
このような場合、ステレオカメラ装置100によって撮影されるものは、ステレオカメラ装置が広視野角を有するため、人間追従システムが追従しなければならない人物と周辺環境、例えば、事物、建物、地形などを撮影することができる。本発明では、このように撮影されるすべてのものを被写体として説明する。
ステレオカメラ装置100が人間追従システムとして動作する場合、制御部1110は、ステレオカメラ装置100が取得する被写体の深度マップを利用して追従しなければならない人物および人物との距離を認識し、認識された人物および人物との距離を利用して人物を一定の距離で追従するように人間追従システム(ステレオカメラ装置100)を制御してよい。
このとき、制御部1110は、被写体の深度マップを利用して、人物および人物との距離だけでなく、人物の移動方向と人物の周辺に位置する事物、衝突の可能性がある客体と地形を含む周辺環境を認識し、このように認識された情報、すなわち、人物の移動方向と周辺環境に基づいて人間追従システム(ステレオカメラ装置100)の衝突の可能性を感知し、衝突感知の可能性を反映することで、人間追従システム(ステレオカメラ装置100)が人物を追従するように制御してもよい。
人間追従システム(ステレオカメラ装置100)は、ステレオカメラ装置100、例えば、最大180度、水平視野角が180度よりも遥かに広い広視野角のRGB-Dカメラ装置によって人間と同じような視野を提供することができるため、近距離、例えば、1m以内で人物を追従することができ、近距離で人物の全身をすべて認識することができるため正確な位置の把握も可能となり、縦方向だけでなく横方向に迅速に移動する人物を単独で追従することができる。
図12は、本発明の一実施形態における、ステレオカメラ装置が人間追従システムとして動作する場合に実行される深度画像処理方法の追加の段階を示した図であり、図11の人間追従システムとして動作するステレオカメラ装置が、図8に示した深度画像処理方法の段階S840以後に追加で実行する段階を示している。
図12を参照すると、図8を参照しながら説明した段階830および段階840で被写体の深度または深度マップが抽出された後、抽出された被写体の深度マップを利用して人物および人物との距離を認識し、認識された人物および人物との距離を利用して人物を一定の距離で追従するように制御する(S1210)。
このとき、段階1210は、被写体の深度マップを利用して人物の移動方向と人物の周辺に位置する事物と地形を含む周辺環境を認識し、人物の移動方向と周辺環境に基づいて衝突の可能性を感知し、衝突感知の可能性を反映して人物を追従するように制御してもよい。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者であれば、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置(virtula equipmetn)、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。前記コンピュータで読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。前記媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであっても、コンピュータソフトウェア当業者に公知な使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピディスク、磁気テープのような磁気媒体、CD-ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。

Claims (14)

  1. 垂直方向に配置された第1レンズと第2レンズによって撮影される被写体の第1画像と第2画像を受信する受信部、
    前記受信した第1画像と第2画像を地図投影法で変換する変換部、および
    前記地図投影法で変換された第1画像と第2画像を縦方向にステレオマッチングを実行することにより、前記被写体の深度を抽出する処理部
    を含む、ステレオカメラ装置。
  2. 前記変換部は、
    前記第1画像と第2画像を正距円筒図法(Equirectangular Projection)で変換することを特徴とする、請求項1に記載のステレオカメラ装置。
  3. 前記変換部は、
    球面座標系を利用してエピポーラ線(Epipolar line)を球面の経度線と一致させる回転変換を実行することを特徴とする、請求項2に記載のステレオカメラ装置。
  4. 前記処理部は、
    前記地図投影法で変換された第1画像と第2画像を経度線に対応する垂直線に沿って検索することにより、ステレオマッチングを実行することを特徴とする、請求項3に記載のステレオカメラ装置。
  5. 前記第1レンズと前記第2レンズは、
    魚眼レンズを含むことを特徴とする、請求項1に記載のステレオカメラ装置。
  6. 前記第1レンズと前記第2レンズは、
    水平視野角が180度以上の魚眼レンズであることを特徴とする、請求項5に記載のステレオカメラ装置。
  7. 前記処理部は、
    前記抽出された被写体の深度を利用して水平180度以上の広視野角を有する前記被写体に対する画像を取得することを特徴とする、請求項1に記載のステレオカメラ装置。
  8. 前記受信部は、
    前記第1画像を撮影するためのイメージセンサと前記第2画像を撮影するためのイメージセンサを含み、
    前記第1画像と前記第2画像を撮影するためのイメージセンサは、
    横の長さが縦の長さよりも長い長方形の場合、垂直視野角よりも広い水平視野角を得るようにそれぞれ横方向に配置されることを特徴とする、請求項1に記載のステレオカメラ装置。
  9. 前記ステレオカメラ装置から抽出される前記被写体の深度マップを利用して前記ユーザの動作と前記ユーザの周辺に位置する事物と地形を含む周辺環境を認識し、前記認識されたユーザの動作と周辺環境を前記ユーザに提供するビジョン処理部
    をさらに含む、請求項1に記載のステレオカメラ装置。
  10. 前記ステレオカメラ装置から抽出される前記被写体の深度マップを利用して前記人物および前記人物との距離を認識し、前記認識された人物および前記人物との距離を利用して前記人物を一定の距離で追従するように制御する制御部
    をさらに含む、請求項1に記載のステレオカメラ装置。
  11. 前記制御部は、
    前記被写体の深度マップを利用して前記人物の移動方向と前記人物の周辺に位置する事物と地形を含む周辺環境を認識し、前記人物の移動方向と前記周辺環境に基づいて衝突の可能性を感知し、衝突感知可能性を反映して前記人物を追従するように制御することを特徴とする、請求項10に記載のステレオカメラ装置。
  12. ステレオカメラ装置の深度画像処理方法であって、
    垂直方向に配置された第1レンズと第2レンズによって撮影される被写体の第1画像と第2画像を受信する段階、
    前記受信した第1画像と第2画像を地図投影法で変換する段階、および
    前記地図投影法で変換された第1画像と第2画像を縦方向にステレオマッチングを実行することにより、前記被写体の深度を抽出する段階
    を含む、深度画像処理方法。
  13. 前記抽出された被写体の深度マップを利用して前記ユーザの動作と前記ユーザの周辺に位置する事物と地形を含む周辺環境を認識し、前記認識されたユーザの動作と周辺環境を前記ユーザに提供する段階
    をさらに含む、請求項12に記載の深度画像処理方法。
  14. 前記抽出された被写体の深度マップを利用して前記人物および前記人物との距離を認識し、前記認識された人物および前記人物との距離を利用して前記人物を一定の距離で追従するように制御する段階
    をさらに含む、請求項12に記載の深度画像処理方法。
JP2022528968A 2020-08-20 2021-07-29 広視野角のステレオカメラ装置およびこれを利用した深度画像処理方法 Active JP7372708B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
KR1020200104281A KR102310958B1 (ko) 2020-08-20 2020-08-20 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법
KR10-2020-0104281 2020-08-20
KR1020210023553A KR102430274B1 (ko) 2021-02-22 2021-02-22 광시야각의 스테레오 카메라 기반 사람 추종 시스템 및 그 방법
KR10-2021-0023553 2021-02-22
KR1020210023552A KR102430273B1 (ko) 2021-02-22 2021-02-22 광시야각의 스테레오 카메라 기반 1인칭 비전 시스템 및 이를 이용한 영상 처리 방법
KR10-2021-0023552 2021-02-22
KR1020210097826A KR20230016390A (ko) 2021-07-26 2021-07-26 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법
KR10-2021-0097826 2021-07-26
PCT/KR2021/009844 WO2022039404A1 (ko) 2020-08-20 2021-07-29 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법

Publications (2)

Publication Number Publication Date
JP2023502239A true JP2023502239A (ja) 2023-01-23
JP7372708B2 JP7372708B2 (ja) 2023-11-01

Family

ID=80270038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022528968A Active JP7372708B2 (ja) 2020-08-20 2021-07-29 広視野角のステレオカメラ装置およびこれを利用した深度画像処理方法

Country Status (5)

Country Link
US (2) US11729367B2 (ja)
EP (1) EP4057626A4 (ja)
JP (1) JP7372708B2 (ja)
CN (1) CN115191113A (ja)
WO (1) WO2022039404A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022088142A (ja) * 2020-12-02 2022-06-14 ヤマハ発動機株式会社 距離認識システムおよびその制御方法、船舶
US20220321859A1 (en) * 2021-03-25 2022-10-06 Korea Advanced Institute Of Science And Technology Real-time omnidirectional stereo matching method using multi-view fisheye lenses and system thereof
JP2022184139A (ja) * 2021-05-31 2022-12-13 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2158573A1 (en) * 2007-06-20 2010-03-03 Thomson Licensing System and method for stereo matching of images
JP6353289B2 (ja) * 2014-06-23 2018-07-04 株式会社Soken 測距補正装置
KR102458339B1 (ko) * 2015-08-07 2022-10-25 삼성전자주식회사 360도 3d 입체 영상을 생성하는 전자 장치 및 이의 방법
KR20180132893A (ko) 2016-05-26 2018-12-12 후지필름 가부시키가이샤 연마액, 연마액의 제조 방법, 연마액 원액, 및 화학적 기계적 연마 방법
JP2017220051A (ja) * 2016-06-08 2017-12-14 ソニー株式会社 画像処理装置、画像処理方法、および車両
KR101853269B1 (ko) * 2017-04-12 2018-06-14 주식회사 씨오티커넥티드 스테레오 이미지들에 관한 깊이 맵 스티칭 장치
KR102454161B1 (ko) * 2017-06-15 2022-10-14 삼성전자주식회사 전방향 이미지를 프로세싱하기 위한 방법 및 장치
JP6793608B2 (ja) * 2017-08-07 2020-12-02 日立オートモティブシステムズ株式会社 ステレオ画像処理装置
ES2702999B2 (es) 2017-09-05 2022-06-28 Univ Valencia Politecnica Material poroso para la detección de Candida albicans, método de diagnóstico que lo utiliza y método de preparación del mismo
KR20190119231A (ko) * 2018-04-04 2019-10-22 엘지전자 주식회사 위치 보정 기능이 향상된 주행 제어장치 및 이를 이용한 로봇 청소기
US10672188B2 (en) * 2018-04-19 2020-06-02 Microsoft Technology Licensing, Llc Surface reconstruction for environments with moving objects
CN108888187A (zh) * 2018-05-31 2018-11-27 四川斐讯信息技术有限公司 一种基于深度相机的扫地机器人
KR102345230B1 (ko) 2019-08-23 2021-12-30 주식회사 제우스이엔피 실리콘질화막 식각액 조성물 및 이의 제조방법
KR20210023553A (ko) 2019-08-23 2021-03-04 주식회사 에싸 장작 패기 장치 및 방법
US11232315B2 (en) * 2020-04-28 2022-01-25 NextVPU (Shanghai) Co., Ltd. Image depth determining method and living body identification method, circuit, device, and medium

Also Published As

Publication number Publication date
US20230344979A1 (en) 2023-10-26
US11729367B2 (en) 2023-08-15
EP4057626A1 (en) 2022-09-14
US20220060677A1 (en) 2022-02-24
EP4057626A4 (en) 2023-11-15
CN115191113A (zh) 2022-10-14
WO2022039404A1 (ko) 2022-02-24
JP7372708B2 (ja) 2023-11-01

Similar Documents

Publication Publication Date Title
CN110582798B (zh) 用于虚拟增强视觉同时定位和地图构建的系统和方法
CN108406731B (zh) 一种基于深度视觉的定位装置、方法及机器人
KR101947619B1 (ko) 모바일 디바이스에서의 slam
US10762386B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
JP2023502239A (ja) 広視野角のステレオカメラ装置およびこれを利用した深度画像処理方法
US9201425B2 (en) Human-tracking method and robot apparatus for performing the same
US8660362B2 (en) Combined depth filtering and super resolution
US20190033988A1 (en) Controller tracking for multiple degrees of freedom
KR102398478B1 (ko) 전자 디바이스 상에서의 환경 맵핑을 위한 피쳐 데이터 관리
US20200309534A1 (en) Systems and methods for robust self-relocalization in a pre-built visual map
KR20180118219A (ko) 이동형 원격현전 로봇과의 인터페이싱
WO2019127518A1 (zh) 避障方法、装置及可移动平台
WO2015093130A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6919882B2 (ja) 人推定システムおよび推定プログラム
KR102310958B1 (ko) 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법
KR102430273B1 (ko) 광시야각의 스테레오 카메라 기반 1인칭 비전 시스템 및 이를 이용한 영상 처리 방법
KR20230016390A (ko) 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법
Zhang et al. MARS: parallelism-based metrically accurate 3D reconstruction system in real-time
Li et al. A multi-modal gesture recognition system in a human-robot interaction scenario
Sigalas et al. Visual estimation of attentive cues in HRI: the case of torso and head pose
KR102430274B1 (ko) 광시야각의 스테레오 카메라 기반 사람 추종 시스템 및 그 방법
TWI751735B (zh) 自走車跟隨系統及自走車跟隨方法
JP2024501368A (ja) 3次元位置を決定するための方法およびシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231013

R150 Certificate of patent or registration of utility model

Ref document number: 7372708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150