JP2018511796A - 視覚光、および、赤外の投射されるパターンを検出するためのイメージャ - Google Patents

視覚光、および、赤外の投射されるパターンを検出するためのイメージャ Download PDF

Info

Publication number
JP2018511796A
JP2018511796A JP2017548945A JP2017548945A JP2018511796A JP 2018511796 A JP2018511796 A JP 2018511796A JP 2017548945 A JP2017548945 A JP 2017548945A JP 2017548945 A JP2017548945 A JP 2017548945A JP 2018511796 A JP2018511796 A JP 2018511796A
Authority
JP
Japan
Prior art keywords
environment
optical sensor
infrared
depth
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017548945A
Other languages
English (en)
Other versions
JP6461369B2 (ja
Inventor
コノリジ,カート
Original Assignee
エックス デベロップメント エルエルシー
エックス デベロップメント エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エックス デベロップメント エルエルシー, エックス デベロップメント エルエルシー filed Critical エックス デベロップメント エルエルシー
Publication of JP2018511796A publication Critical patent/JP2018511796A/ja
Application granted granted Critical
Publication of JP6461369B2 publication Critical patent/JP6461369B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40425Sensing, vision based motion planning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Abstract

【課題】 深度検知のための方法およびシステムが提供される。【解決手段】 システムは、特定の赤外帯域の中の赤外光を捕捉するように構成される第2の複数のフォト検出器が間に散在する、可視光を捕捉するように構成される第1の複数のフォト検出器を各々が含む、第1および第2の光学センサを含む。システムはさらには、(i)環境の第1の対応するフィーチャを、第1の光学センサにより捕捉される第1の可視光画像と、第2の光学センサにより捕捉される第2の可視光画像との間で識別することと、(ii)環境の第2の対応するフィーチャを、第1の光学センサにより捕捉される第1の赤外光画像と、第2の光学センサにより捕捉される第2の赤外光画像との間で識別することと、(iii)深度推定値を、環境内の少なくとも1つの表面に対して、第1の対応するフィーチャ、および、第2の対応するフィーチャに基づいて決定することとを行うように構成されるコンピューティングデバイスを含む。【選択図】 図6

Description

関連出願の相互参照
[0001] 本出願は、2015年3月30日に出願され、「Imager for Detecting Visual Light and Projected Patterns」という名称の、米国特許出願第14/672,369号の優先権を主張するものであり、その米国特許出願はここに、参照によりその全体が組み込まれている。
[0002] 把持構成要素を内に含むロボティックマニピュレータなどのロボティックシステムは、物体を持ち上げる、または移動させることを必然的に含む用途に対して使用され得る。実例としてロボティックデバイスは、コンテナに物体を充填する、物体の積重体を創出する、または、物体をトラックの荷台から荷下ろしをするために使用され得る。一部の事例では、物体のすべては、同じタイプのものであり得る。他の事例では、コンテナまたはトラックは、箱入りの物品、缶、タイヤ、または、他の積重可能な物体などの、異なるタイプの物体の混合体を内に含み得る。そのようなロボティックシステムは、ロボティックマニピュレータに、物体を持ち上げるように指図することを、物体が環境内のどこにあるかの、あらかじめ決定されたナレッジに基づいて行い得る。
[0003] 一部の例では、ロボティックシステムは、コンピュータビジョン技法を使用して、3次元(3D)シーン幾何学的配置の表現を決定し得る。例として、ロボティックシステムは、シーンから観測される情報を三角測量で測定して、シーン内の1つまたは複数の表面までの深度(depth)を決定し得る。深度検知に対する1つの手法は、立体画像処理の使用である。この手法によれば、お互いに対する知られている物理的関係性を伴う2つの光学センサが、シーンの2つの画像を捕捉するために使用される。対応する画素値のマッピングを2つの画像の中で見出し、どれだけ遠く離れてこれらの共通エリアが画素空間内に在るかを算出することにより、コンピューティングデバイスは、深度マップまたは画像を、三角測量を使用して決定し得る。深度マップまたは深度画像は、シーン内の物体の表面の距離に関係する情報を内に含み得る。
[0004] 構造化光処理を使用する、深度検知に対する別の手法が用いられ得る。構造化光処理の主な考え方は、知られている照射パターンをシーン上に投射し、投射されるパターンを含むシーンの画像を捕捉することである。例えば、図1で示されるように、プロジェクタ102は、知られているテクスチャパターンを物体104上に投射し得るものであり、光学センサ106(例えば、カメラ)は、物体104の画像108を捕捉し得る。コンピューティングデバイスは次いで、画像内の領域と、投射されるパターンの特定のパートとの間の対応関係を決定し得る。プロジェクタ102の位置、光学センサ106の位置、および、画像108の中のパターンの特定のパートに対応する領域の場所を与えられると、コンピューティングデバイスは次いで、三角測量を使用して、物体104の表面までの深度を推定し得る。
[0005] 典型的には、プロジェクタ102および光学センサ106は、水平に、ベースラインに沿って変位させられ、プロジェクタ102および光学センサ106は較正される。較正プロセスは、光学センサ106内の画素を、プロジェクタ102内の画素の1次元曲線にマッピングし得る。センサ画像およびプロジェクタ画像が矯正されるならば、この曲線は、水平ラインの形式をとり得る。この事例では、投射されるテクスチャパターンに対するマッチの探索は、このラインに沿って進み得るものであり、そのことは、プロセスをより効率的にする。
[0006] 環境内の深度検知であって、その環境は、明るい、および薄暗い部分を伴う、深度検知が、投射されるパターン、および可視光の両方を検知する能力があるイメージャを使用して改善され得る。本明細書で説明されるように、イメージャの対が、投射されるパターンの、1つまたは複数の赤外光画像、および、環境の可視光画像の対を捕捉し得る。コンピューティングデバイスは、第1の深度推定値を、シーン内の表面に対して、赤外光画像の少なくとも1つから、構造化光処理を使用して決定し得る。コンピューティングデバイスはさらには、第2の深度推定値を、シーン内の表面に対して、立体画像の対から、立体画像処理を使用して決定し得る。コンピューティングデバイスは次いで、第1の深度推定値、および、第2の深度推定値を組み合わせて、組み合わされた深度推定値を、環境内の1つまたは複数の表面に対して決定し得る。
[0007] 1つの例では、第1の光学センサと、第2の光学センサと、光源と、コンピューティングデバイスとを含むシステムが提供される。各々の光学センサは、特定の赤外帯域の中の赤外光を捕捉するように構成される第2の複数のフォト検出器が間に散在する、可視光を捕捉するように構成される第1の複数のフォト検出器を含む。光源は、特定の赤外帯域の中の波長の赤外光を環境上に投射するように構成される。コンピューティングデバイスは、環境の第1の対応するフィーチャを、第1の光学センサにより捕捉される第1の可視光画像と、第2の光学センサにより捕捉される第2の可視光画像との間で識別するように構成される。コンピューティングデバイスはさらには、環境の第2の対応するフィーチャを、第1の光学センサにより捕捉される第1の赤外光画像と、第2の光学センサにより捕捉される第2の赤外光画像との間で識別するように構成される。コンピューティングデバイスは、深度推定値を、環境内の少なくとも1つの表面に対して、第1の対応するフィーチャ、および、第2の対応するフィーチャに基づいて決定するようにさらに構成される。
[0008] 別の例では、フォト検出器の平面状アレイと、光フィルタアレイと、制御回路とを含む光学センサが提供される。フォト検出器の平面状アレイは、第1の複数のフォト検出器と、第2の複数のフォト検出器とを含む。各々のフォト検出器は、電荷を、フォト検出器上に入射する光の強度に基づいて生成するように構成される。光フィルタアレイは、フォト検出器の平面状アレイに結合される。光フィルタアレイは、可視光を第1の複数のフォト検出器上に通過させるように構成される第1の複数のフィルタと、特定の赤外帯域の中の赤外光を第2の複数のフォト検出器上に通過させるように構成される第2の複数のフィルタとを含む。第1の複数のフィルタは、第2の複数のフィルタが間に散在する。制御回路は、可視光画像を、第1の複数のフォト検出器からの電荷に基づいて生成するように構成される。制御回路はさらには、赤外光画像を、第2の複数のフォト検出器からの電荷に基づいて生成するように構成される。
[0009] さらに別の例では、第1の光学センサの第1の複数のフォト検出器から、第1の視点から知覚されるような、環境の第1の可視光画像を受信する工程を必然的に含む方法が提供される。方法はさらには、第2の光学センサの第1の複数のフォト検出器から、第2の視点から知覚されるような、環境の第2の可視光画像を受信する工程を必然的に含む。方法は、第1の光学センサの第2の複数のフォト検出器から、第1の視点から知覚されるような、環境の第1の赤外光画像を受信する工程をさらに必然的に含む。第1の光学センサの第2の複数のフォト検出器は、特定の赤外帯域の中の赤外光を捕捉するように構成される。加えて方法は、第2の光学センサの第2の複数のフォト検出器から、第2の視点から知覚されるような、環境の第2の赤外光画像を受信する工程を必然的に含む。第2の光学センサの第2の複数のフォト検出器は、特定の赤外帯域の中の赤外光を捕捉するように構成される。さらに方法は、コンピューティングデバイスにより、環境の第1の対応するフィーチャを、第1の可視光画像と、第2の可視光画像との間で識別する工程を必然的に含む。方法はさらには、コンピューティングデバイスにより、環境の第2の対応するフィーチャを、第1の赤外光画像と、第2の赤外光画像との間で識別する工程を必然的に含む。方法は、コンピューティングデバイスにより、深度推定値を、環境内の少なくとも1つの表面に対して、第1の対応するフィーチャ、および、第2の対応するフィーチャに基づいて決定する工程をさらに必然的に含む。
[0010] さらに別の例では、第1の光学センサの第1の複数のフォト検出器から、第1の視点から知覚されるような、環境の第1の可視光画像を受信するための手段を含むシステムが提供される。システムはさらには、第2の光学センサの第1の複数のフォト検出器から、第2の視点から知覚されるような、環境の第2の可視光画像を受信するための手段を含む。システムは、第1の光学センサの第2の複数のフォト検出器から、第1の視点から知覚されるような、環境の第1の赤外光画像を受信するための手段をさらに含む。第1の光学センサの第2の複数のフォト検出器は、特定の赤外帯域の中の赤外光を捕捉するように構成される。加えてシステムは、第2の光学センサの第2の複数のフォト検出器から、第2の視点から知覚されるような、環境の第2の赤外光画像を受信するための手段を含む。第2の光学センサの第2の複数のフォト検出器は、特定の赤外帯域の中の赤外光を捕捉するように構成される。さらにシステムは、コンピューティングデバイスにより、環境の第1の対応するフィーチャを、第1の可視光画像と、第2の可視光画像との間で識別するための手段を含む。システムはさらには、コンピューティングデバイスにより、環境の第2の対応するフィーチャを、第1の赤外光画像と、第2の赤外光画像との間で識別するための手段を含む。システムは、コンピューティングデバイスにより、深度推定値を、環境内の少なくとも1つの表面に対して、第1の対応するフィーチャ、および、第2の対応するフィーチャに基づいて決定するための手段をさらに含む。
[0011] 上述の概要は、単に図解的なものであり、決して制限的であることは意図されない。上記で説明された、図解的な態様、実施形態、および特徴に加えて、さらなる態様、実施形態、および特徴が、図、および、以下の詳細な説明、および、付随する図面への参照により明らかになろう。
[0012]構造化光処理に対する例の手法の概念図解図である。 [0013]例の実施形態による、移動可能な荷車上に装着されるロボティックアームを示す図である。 [0014]例の実施形態による、ロボティックデバイスを図解する機能ブロック線図である。 [0015]例の実施形態による、ロボティックアーム、および、箱の積重体を示す図である。 [0016]例の実施形態による、ロボティックアーム上に装着されるセンサによる、図3Aからの箱の積重体のスキャニングを示す図である。 [0017]例の実施形態による、箱を移動させる、図3Aからのロボティックアームを示す図である。 [0018]例の実施形態による、例の光学センサの機能性の概念図解図である。 [0019]例の実施形態による、例の光学センサ上のフォト検出器の例の配置構成の概念図解図である。 [0020]例の実施形態による、例の光学センサ上のフォト検出器の別の例の配置構成の概念図解図である。 [0021]例の実施形態による、例の立体イメージングシステムの概念図解図である。 [0022]例の実施形態による、コンピューティングデバイスにより遂行され得る例の機能のブロック線図である。 [0023]例の実施形態による、相関表面を決定するための例の構成の概念図解図である。 [0024]例の実施形態による、相関表面の例の図解図である。 [0025]例の実施形態による、相関表面を組み合わせることの例の図解図である。 [0026]例の実施形態による、複数個の深度画像からの情報を組み合わせることの概念図解図である。 [0027]例の実施形態による、例の実施形態による、例の環境の概念図解図である。 [0028]例の実施形態による、深度を複数個の深度画像から決定することの例の図解図である。 [0029]例の実施形態による、シーンの例の画像の図である。 [0030]例の実施形態による、図11Aで示されるシーンの例の深度画像の図である。 [0031]例の実施形態による、投射されるパターンを伴うシーンの例の画像の図である。 [0032]例の実施形態による、図11Cで示されるシーンの例の深度画像の図である。
[0033] 例の方法およびシステムが、本明細書で説明される。本明細書で説明される、いずれの例の実施形態または特徴も、必ずしも、他の実施形態または特徴より、好ましい、または有利であると解釈されることになるわけではない。本明細書で説明される例の実施形態は、制限的であるように定められるものではない。開示されるシステムおよび方法の、所定の態様は、多種多様の異なる構成で、配置構成され、組み合わされ得るものであり、それらの構成のすべては、本明細書で企図されるものであるということが、直ちに理解されよう。
[0034] その上に、図で示される特定の配置構成は、制限的とみなされるべきものではない。他の実施形態は、所与の図で示される各々の要素の、より多いもの、または、より少ないものを含み得るということが理解されるべきである。さらに、図解される要素の一部は、組み合わされる、または省略されることがある。なおもさらに、例の実施形態は、図で図解されない要素を含み得る。
[0035] 広い輝度レンジを伴う環境内の深度検知を改善し得る、方法、光学センサ、およびロボティックシステムが、本明細書で提供される。コンピュータビジョンシステムを装備したロボティックシステムは、変動するレベルの照明を伴う種々の環境の中で動作し得る。日中の間の屋外の環境、および、よく照らされる屋内の環境などの、所定の環境は、立体画像処理を使用する深度検知によく適したものであり得る。環境内の物体が明るく照射されるとき、それらの物体から反射される光を検知するイメージャは、それらの物体のフィーチャ(例えば、形状、色、輪郭、エッジ、その他)の、相当の詳細を捕捉し得る。しかしながら、薄暗い人工照明を伴う屋内の環境、および、夜間環境などの、他の環境では、より少ない光が、物体から反射され得るものであり、そのことが、それらの物体のフィーチャの洞察をより困難にする。その上に、立体画像ベースの深度検知は、主として、共通のフィーチャを、異なる観点からとられる2つの画像の間で識別することに依存するので、多くの色変動、エッジ、輪郭、または他の人工物を伴わないもの(例えば、大きい単一色の平坦な表面)などの、検出可能なフィーチャをほとんど有さない物体の深度を決定することは困難であり得る。
[0036] より薄暗い環境、および/または、検出可能なフィーチャをほとんど有さない物体を伴う環境では、構造化光手法が、深度検知を改善することを、パターン化された光をシーン上に投射し、投射されるパターンを伴うそのシーンの画像を捕捉することにより行い得る。投射されるパターンは、人工的なフィーチャを物体および表面上に光らせるものであり、それらの物体および表面は、さもなければ、正確な深度検知に対して、フィーチャをあまりにもほとんど有し得ない、または、あまりにも薄暗く照らされ得るものである。かくして、構造化光処理を、投射されるパターンを伴う環境を捕捉する画像に対して用いることにより、正確な深度検知が、環境内の表面に対して達成され得るものであり、それらの表面は、さもなければ、あまりにも暗くあり得る、または、フィーチャをあまりにもほとんど有し得ないものである。一部の実現形態では、投射されるパターンは、特定の赤外波長帯域の中の波長の光であり得る。この構造化光技法は、より暗い、および、一部の屋内の環境では有用であり得る一方で、投射されるパターンは、太陽光などの異なる光源により、弱められる、または圧倒されることがある。
[0037] 動作の間、ロボティックシステムは、明るい環境と暗い環境との間で、および/または、屋内の環境から屋外の環境へと移ることがある。一部の事例では、ロボティックシステムは、明るい部分、および、暗い部分の組み合わせを有する環境に遭遇し得る。実例として、部分的に屋内の、および、部分的に屋外のシーンは、暗い影に対して対照をなす、明るい、太陽で照らされる表面を有し得る。これらのシナリオでは、ロボティックシステムは、立体画像処理および構造化光処理の組み合わせを使用する深度検知から利益を得ることがある。
[0038] 本出願の光学センサは、1つまたは複数の波長帯域(例えば、可視光帯域および/または赤外光帯域)内の光を検出する能力があり得る。様々な実施形態によれば、光学センサは、赤外検知フォト検出器が間に散在する、可視検知フォト検出器の組み合わせを含む。可視検知および赤外検知フォト検出器は、本明細書で論考される種々の様式で配置構成され得る。光学センサの制御回路網は、可視光画像を、可視検知フォト検出器を使用して生成し、赤外光画像を、赤外検知フォト検出器を使用して生成し得る。結果として、1つのそのような光学センサは、画像を、光の2つの異なる波長帯域で捕捉し得る。
[0039] 可視光画像および赤外光画像の両方を捕捉する能力がある、単一の光学センサは、各々が独立して可視光画像または赤外光画像のいずれかを捕捉する、2つの別々の光学センサと比較して、よりリソース効率的であり得る。光学センサの数を低減することは、小さなロボティックシステム上など、空間リソースが制限されるときに所望され得る。その上に、単一の光学センサは、動作するためのより少ないエネルギーを要し得るものであり、ロボティックシステムの信頼性を、機能不全に陥りやすいセンサの数を低減することにより増大し得る。
[0040] 上記で説明された利益に加えて、可視検知フォト検出器および赤外検知フォト検出器の両方を相互混合する、単一の光学センサは、系統的誤差の影響を低減するものであり、それらの系統的誤差は、さもなければ、2つの別々の光学センサが使用されるならば存在することになるものである。その上に、可視検知フォト検出器および赤外検知フォト検出器が間に散在するなんらかの配置構成が、系統的誤差の影響を回避する、または、さらに低減するために用いられ得る。かくして、単一の光学センサを使用することは、典型的には、2つの異なる光学センサを使用することと関連付けられる、誤差が起こりやすい較正技法を遂行する必要性を回避する。
[0041] 様々な実施形態によれば、イメージングシステムは、異なる視点からの、環境の画像を捕捉するように構成される、上記で説明された光学センサ(さらには本明細書では「イメージャ」と呼称され得る)の2つ以上を含む。イメージングシステムは、環境またはシーンを複数個の波長帯域で、立体視的にイメージングし得る。次いでコンピューティングデバイスは、立体画像処理を使用して、環境の複数個の深度マップ(例えば、表面の深度情報)を、各々の波長帯域での異なる視点からの画像の対に基づいて生成し得る。複数個の波長帯域から導出される深度情報を、単一の深度マップに組み合わせることにより、コンピューティングデバイスは、広い輝度レンジを伴う環境の、より完全形の、および正確な深度マップを生成し得る。
[0042] 様々な実施形態によれば、イメージングシステムは、知られている距離だけ互いから分離される、ならびに、各々は画像を、可視光帯域、および、特定の赤外(IR)光帯域の両方で捕捉するように構成される、上記で説明された光学センサの2つを含み得る。イメージングシステムはさらには、知られている構造化光パターンを環境上に、その特定のIR光帯域の中で投射するテクスチャプロジェクタを含み得る。このIRパターンは、フィーチャを表面上に投射し、それらのフィーチャが、深度決定を(特に、物体のフィーチャが、可視光スペクトルで洞察するのが困難であり得る、低い光環境で)改善する一方で、投射されるパターンは、人工照明および/または太陽光などの、他の源からの、強度の高い赤外光により、圧倒される、または弱められることがある。結果として、色差、物体のエッジ、および/または、投射されるパターンの部分などの、一部のフィーチャは、可視光帯域、または、特定のIR光帯域のいずれかで知覚されるのみであることがある。
[0043] 1つの例では、コンピューティングデバイスは、環境の深度情報を、イメージングシステムにより捕捉される可視光画像の対の間の対応するフィーチャに基づいて決定し得る。例として、コンピューティングデバイスは、対応する画素値のマッピングを、2つの可視光画像の中で決定し得るものであり、2つの光学センサの間の物理的関係性に基づいて、コンピューティングデバイスは、深度情報を、三角測量を使用して決定し得る。広い輝度レンジを伴う環境では、可視光ベースの深度情報は、環境のよく照射される部分に対する深度を提供し得る。コンピューティングデバイスはさらには、環境の深度情報を、イメージングシステムにより捕捉されるIR光画像の対の間の対応するフィーチャに基づいて決定し得る。IR光ベースの深度情報は、環境の薄暗く照らされる部分に対する深度を提供し得る。次いでコンピューティングデバイスは、可視光画像およびIR光画像の両方から導出される深度情報を組み合わせて、環境内の表面の、より総合的および正確な深度マップを決定し得る。
[0044] 様々な追加的な例が、下記で説明されるものであり、それゆえに、上記の例は、制限的であるように定められるものではない。参照がここで、詳細に、様々な実施形態に対して為されることになり、それらの実施形態の例は、付随する図面で図解される。以下の詳細な説明では、数多くの具体的な詳細が、本開示、および、説明される実施形態の、徹底した理解をもたらすために論述される。しかしながら本開示は、これらの具体的な詳細なしに実践され得る。他の実例では、よく知られている方法、手順、構成要素、および回路は、実施形態の態様を不必要に不明瞭にしないように、詳細には説明されていない。
[0045] 加えて、この開示の部分は、説明される方法および装置を、箱および/または他の物体の操作(例えば、荷積みおよび/または荷下ろし)を手助けするように実現することを指すが、方法および装置は、なおその上に、他の環境で実現され得る。実例として、方法および装置は、一般的には、任意の環境で、環境の3D幾何学的配置、または、環境内の物体の3D幾何学的配置を決定するように実現され得る。例として、方法および装置は、家屋内の部屋、もしくは、ビルディング内のオフィスの、3D幾何学的配置を、またはおそらくは、アリーナ、会議センタ、もしくはショッピングモールの、一部分の3D幾何学的配置を決定する一助となるように実現され得る。同様に方法および装置は、なおその上に、屋外の環境で利用され得る。
[0046] 様々な実施形態によれば、本明細書で説明されるのは、保管コンテナ内へ、または、車両からなどの、箱および/または他の物体の、自動化された荷積みおよび/または荷下ろしのための、方法およびシステムである。一部の例の実施形態では、箱または物体は、パレット上に自動的に整理および配置され(パレタイズされ)、または、パレットから自動的に取り去られ(デパレタイズされ)得る。例の中で、トラックの荷積み/荷下ろしをすることのプロセス、および/または、物体をパレタイズ/デパレタイズすることのプロセスを自動化することは、いくつかの産業上の、および事業上の利点をもたらし得る。
[0047] 様々な実施形態によれば、トラックの荷積み/荷下ろしをすることのプロセス、および/または、物体をパレタイズ/アンパレタイズすることのプロセスを自動化することは、物体を移動させる、または、他の機能を遂行するための、1つまたは複数のロボティックデバイスの組み込みを含み得る。一部の実施形態では、ロボティックデバイスは、可動にされることが、ロボティックデバイスを、車輪の付いた基部、ホロノミックな基部(例えば、任意の方向に移動し得る基部)、または、天井、壁、もしくは床上のレールと結合することにより行われ得る。一部の実施形態では、基部は、高架の基部であり得る。
[0048] 一部の例では、1つまたは複数のセンサと、1つまたは複数のコンピュータと、1つまたは複数のロボティックアームとを含むシステムが説明される。センサは、1つまたは複数の物体を内に含む環境を、視覚データおよび/または3D深度情報を捕捉するためにスキャンし得る。スキャンからのデータは次いで、デジタル環境再構築を提供するために、より大きいエリアの表現に統合され得る。追加的な例では、再構築される環境は次いで、持ち上げることになる物体を識別する、物体に対する選出位置を決定する、ならびに/あるいは、衝突のない軌道を、1つもしくは複数のロボティックアーム、および/または、可動の基部に対して計画するために使用され得る。
[0049] 本明細書で使用される際、用語「箱」は、パレット上に配置され得る、あるいは、トラックもしくはコンテナ上に荷積みをされ得る、または、トラックもしくはコンテナから荷下ろしをされ得る、任意の物体または物品を指すことになる。例えば、矩形の固形物に加えて、「箱」は、缶、ドラム缶、タイヤ、または、任意の他の「単純な」形状の幾何学的物品を指し得る。加えて「荷積み」および「荷下ろし」は各々、他方を示唆するために使用され得る。例えば、例が、トラックの荷積みをするための方法を説明するならば、実質的に同じ方法がさらには、なおその上に、トラックの荷下ろしをするために使用され得るということが理解されることになる。本明細書で使用される際、「パレタイジング」は、箱をパレット上に荷積みをし、パレット上の箱が、パレット上で保管または輸送され得るような方策で、箱を積重または配置構成することを指し、一方で用語「デパレタイジング」は、箱をパレットから取り去ることを指す。加えて、用語「パレタイジング」および「デパレタイジング」は各々、他方を示唆するために使用され得る。
[0050] 様々な実施形態によれば、ロボティックマニピュレータは、ホロノミックな荷車(例えば、荷車が任意の方向に移動することを可能とする車輪を伴う荷車)上に装着され得る。図2Aは、ロボティックマニピュレータを内に含む、例示的なホロノミックな荷車を図示する。一部の実施形態では、移動可能な荷車212は、荷車212上に装着されるロボティックアーム202を含み得る。ロボティックアーム202は、環境の中の物体を把持するための把持構成要素204を内に含み得る。荷車は、1つまたは複数の車輪214を内に含み得るものであり、それらの車輪214は、2つの自由度を伴って動作する、ホロノミックな車輪であり得る。さらなる実施形態では、ラップアラウンド前方コンベヤベルト210が、ホロノミックな荷車212上に含まれ得る。一部の例では、ラップアラウンド前方コンベヤベルト210は、ロボットが、箱をトラックコンテナもしくはパレットから、または、トラックコンテナもしくはパレットに、荷下ろしまたは荷積みをするとき、そのロボットの把持部を左または右に回転させる必要がないことを可能とし得る。
[0051] 他の例では、ロボティックマニピュレータは、異なるタイプの移動可能な装置上に装着されることがあり、または、移動可能な基部上に全く装着されないことがある。例えばロボティックマニピュレータは、固定された位置に、工場設定の枠内で装着され得る。他の例の実施形態では、1つまたは複数のロボティックマニピュレータは、トラックまたはコンテナのレール上に装着され得る。そのような例では、ロボティックマニピュレータは、トラックまたはコンテナの、荷積みまたは荷下ろしをするために使用され得る。
[0052] 図2Bは、例の実施形態による、ロボティックデバイス200を図解する機能ブロック線図である。ロボティックデバイス200は、機械システム220、検知システム230、制御システム240、および、パワーサプライ250などの、様々なサブシステムを含み得る。ロボティックデバイス200は、より多い、または、より少数のサブシステムを含み得るものであり、各々のサブシステムは、複数個の要素を含み得る。さらに、ロボティックデバイス200のサブシステムおよび要素の各々は、相互接続され得る。かくして、ロボティックデバイス200の説明される機能の1つまたは複数は、追加的な機能もしくは物理的構成要素に分割される、または、より少数の機能もしくは物理的構成要素に組み合わされることがある。一部の例では、追加的な機能および/または物理的構成要素が、図2Aおよび2Bにより図解される例に追加され得る。
[0053] 機械システム220は、ロボティックアーム202と、把持部204と、コンベヤベルト210と、(移動可能な、または、ホロノミックな)荷車212と、1つまたは複数の車輪214とを含む、図2Aについて上記で説明された構成要素を含み得る。機械システム220は加えて、モータ222を含み得るものであり、そのモータ222は、電気的パワーによりパワー供給される電気モータであり得るものであり、または、ガスベースの燃料、もしくはソーラーパワーなどの、いくつかの異なるエネルギー源によりパワー供給され得る。加えてモータ222は、パワーをパワーサプライ250から受けるように構成され得る。パワーサプライ250は、パワーを、ロボティックデバイス200の様々な構成要素に提供し得るものであり、例えば、再充電可能なリチウムイオンまたは鉛酸電池を表し得る。例の実施形態では、そのような電池の、1つまたは複数のバンクが、電気的パワーを提供するように構成され得る。他のパワーサプライ材料およびタイプが、さらには可能である。
[0054] 検知システム230は、センサ206およびセンサ208などの、ロボティックアーム202に取り付けられる1つまたは複数のセンサを使用し得るものであり、それらのセンサは、環境に関する情報を、ロボティックアーム202が移動する際に検知する、2Dセンサおよび/または3D深度センサであり得る。検知システムは、環境に関する情報を決定し得るものであり、その情報は、箱を効率的に選出し、移動させるために、制御システム240(例えば、運動計画ソフトウェアを走らせるコンピュータ)により使用され得るものである。制御システム240は、デバイス上に場所決めされ得るものであり、または、デバイスとの遠隔通信の状態にあり得る。さらなる例では、前方ナビゲーションセンサ216および後方ナビゲーションセンサ218などの、可動の基部上に装着される、1つまたは複数の、2Dまたは3Dセンサ、ならびに、センサ206およびセンサ208などの、ロボティックアーム上に装着される、1つまたは複数のセンサからのスキャンが、トラックまたは他のコンテナの、側部、床、天井、および/または前壁を含む、環境のデジタルモデルを築き上げるために統合され得る。この情報を使用して、制御システム240は、可動の基部が、荷下ろしまたは荷積みのための位置内にナビゲートすることを引き起こし得る。
[0055] 追加的な例では、平面状表面情報が、3Dセンサから、壁、床/天井、および/または箱面をモデリングするために抽出され得る。床をモデリングする後、物体を床平面上に投射することが、障害物、および/または、箱などの標的物体の区分を可能にし得る。床平面投射はさらには、平面として正確にモデリングされないことがある、コンテナまたはトラックの、うね状の側部をモデリングするために使用され得る。さらなる例では、側壁角度、床平面ロールおよびピッチ、ならびに/または、側壁からの距離が、可動の基部をコンテナ内に、衝突なしで巧みに進ませるために使用され得る。単一のラインスキャンよりむしろ、拡張された3D情報の使用が、ナビゲーション情報の抽出をロバストにする一助となり得る。例えば側壁は、3Dセンサにより捕捉される垂直方向の存続範囲を有し得る。深度情報の単一のラインを使用するスキャニングシステムは、それらのシステムが垂直方向にスキャンするならば、より低速であることがあり、および/または、それらのシステムはより少ない情報を獲得するので、よりロバストでないことがある。追加的な例では、前方平面モデリングが、トラック荷下ろしで選出することになる物体の次のグループまでの距離を決定し得る。
[0056] さらなる例では、ロボティックアーム202は、デジタル吸着グリッド把持部などの把持部204を装備し得る。そのような実施形態では、把持部は、1つまたは複数の吸着バルブを含み得るものであり、それらの吸着バルブは、遠隔検知もしくは単一点距離測定によって、および/または、吸着が達成されるかどうかを検出することによってのいずれかで、オンまたはオフにされ得る。追加的な例では、デジタル吸着グリッド把持部は、連結式の拡張部を含み得る。一部の実施形態では、吸着把持部をレオロジー流体または粉末によって作動させる潜在能力は、高い曲率を伴う物体に関する普通以上の把持を可能にし得る。
[0057] 一部の実施形態では、把持部は潜在的に、いくつもの箱または物体に広がり、吸着を、取り扱われる物体の、一部またはすべてに対してオンにし得る。一部の実施形態では、吸着または付着デバイスは、「デジタル」グリッドであり得るものであり、それによりロボティックデバイスは、任意の数の吸着デバイスをオンにすることを、そのことが、掴みのために検知される箱に適合することになるように行い得る。一部の実現形態では、システムは、箱での合わせ目(近接する箱の間の分離)に気付き得るものであり、それによって吸着デバイスは、両方の箱を一度に持ち上げるために、合わせ目の両方の側部上で活動化され得るものであり、そのことにより、処理量を2倍にする。一部の実施形態では、吸着デバイスは、所定の量時間の後、それらの吸着デバイスが表面を成功裏に把持し得るかどうかを検知し得るものであり、そのことの後、それらの吸着デバイスは自動的に止まり得る。さらなる実施形態では、吸着デバイスのセクションは、箱の上部を掴握するために折り畳めることがある。実例として、把持部は、初期に最大限の伸張状態で開始し、次いで、把持される表面に外形を合わせることがある。
[0058] さらなる例では、ロボティックアームは、小刻みの動きを実現して、吸着把持を改善し得る。追加的な実施形態では、ロボティックアームは、箱を左右交互に小刻みに動かすことを、箱をその周囲から区分する一助となるように行い得る。他の実施形態では、アームは、箱の持ち上げの際に小刻みに動いて、他の物体と押し合いをすることを回避し得る。そのような実施形態では、物体に付着することを試みることを、その物体を、吸着を使用して持ち上げるために行うとき、ロボティックアームは、小刻みの運動を、物体に対するしっかりした封止を生じさせるために用い得る。さらなる例では、ロボティックアームは、物体を小刻みに動かすことを、ロボティックアームが物体を持ち上げている際に行い得るものであり、それにより箱は、より穏やかに、他の物品との摩擦または重複接触を断ち得る。このことは、物体をあまりにも直行的に、または、あまりにも急速に引き上げることが、他の物品が空中に投げ上げられることを引き起こす状況を回避する一助となり得る。
[0059] 様々な実施形態によれば、段ボール箱は、凹形の、凸形の、または、他の形でしわになった面を有し得るものであり、それらの面は、吸着デバイスが付着することを難しくするものである。かくして、吸着デバイスを、デバイスが吸着接触を為す際に小刻みに動かすことが、段ボール箱、および、他の非平面状物体に関する、より信頼性の高い把持を可能にし得る。さらなる例では、最初に箱を掴むとき、少数の中心吸着デバイスがオンにされ得るものであり、アームは、前後に小刻みに動くことを、そのアームが箱を引き出すことを開始する際に行い得る。このことは、他の箱との表面付着を断ち、箱を引き出すことを開始する一助となり得る。箱が少なくとも部分的に引き出されると、箱は次いで、他の箱から、より容易に区分され得る。一部の実施形態では、乱雑状態の中の物体を持ち上げながら、小刻みに動くことは、他の物体を、持ち上げられる物体から取り去り得るものであり、そのことにより、周囲の物体の、望まれない持ち上げを防止する。
[0060] 様々な実施形態によれば、物品の区分は、成功裏の掴握のために必要であり得る。一部の実施形態では、平滑表面パッチが、2つの別々の物体に属し得る。そのような実例では、物体とのマニピュレータ相互作用が使用されることが、シーンを摂動させて、物体を互いから、より良好に区分するために行われ得る。運動分離のために、コンベヤ上の、スライド上の、荷物内で移動する、および/または、荷物の中で活発に押し合いをされる、物体の、自然な、または強制的な動きが、物体区分を高めるために、立体深度を算出するために、オプティカルフロー、視差、または時間遅延ビューにより追跡され得る。
[0061] 他の例では、検知システムにより使用されるセンサの1つまたは複数は、深度検知デバイスに対して位置合わせされる、RGBaD(RGB+アクティブ深度)カラーまたは白黒カメラであり得るものであり、そのデバイスは、パターンをシーン内に投射することなどのアクティブビジョン技法を使用して、カメラ、または複数のカメラと、知られているオフセットパターンプロジェクタとの間での深度三角測量を可能にするものである。このタイプのセンサデータは、ロバストな区分を可能にする一助となり得る。様々な実施形態によれば、バーコード、テクスチャコヒーレンス、色、3D表面特質、または、表面上の印刷されたテキストなどの手がかりが、さらには使用されることが、どこに、および/または、どのように物体を(例えば、物体を固定具の入れ物に適合させて)配置すべきかを知るために、物体を識別する、および/または、その物体の姿勢を見出すために行われ得る。一部の実施形態では、影またはテクスチャ差が、なおその上に、物体を区分するために用いられ得る。
[0062] ロボティックデバイス200の機能の多くまたはすべては、制御システム240により制御され得る。制御システム240は、メモリ246などの非一時的コンピュータ可読媒体に記憶される命令244を実行する、少なくとも1つのプロセッサ242(少なくとも1つのマイクロプロセッサを含み得る)を含み得る。制御システム240はさらには、複数のコンピューティングデバイスを表し得るものであり、それらのコンピューティングデバイスは、ロボティックデバイス200の、個々の構成要素またはサブシステムを、分散型の方式で制御する働きをし得るものである。
[0063] 一部の実施形態では、メモリ246は、図2A〜2Bに関して上記で説明されたものを含む、ロボティックデバイス200の様々な機能を実行するために、プロセッサ242により実行可能な命令244(例えば、プログラム論理)を内に含み得る。メモリ246は、なおその上に、追加的な命令を内に含み得るものであり、それらの命令は、機械システム220、センサシステム230、および/もしくは制御システム240の、1つもしくは複数にデータを送信する、その1つもしくは複数からデータを受信する、その1つもしくは複数と相互作用する、ならびに/または、その1つもしくは複数を制御するための命令を含む。
[0064] 様々な実施形態によれば、知覚誘導型ロボットが説明される。実例として、ロボティックデバイスは、知覚の、計画と一体の組み合わせを利用して、ロボットアームを、箱を持ち上げ、箱を、その箱が納まることを必要とするところに配置するように誘導し得る。図3Aは、例の実施形態による、箱の積重体を伴う、図2Aからのロボティックデバイスのパートを図解する。示されるようにロボティックデバイスは、上記で説明されたような、把持構成要素204と、センサ206および208と、コンベヤ210とを伴うロボティックアーム202を含み得る。一部の例では、ロボティックデバイスは、図2Aについて説明されたような、ホロノミックな荷車上に装着され得るものであり、異なるタイプの移動可能な装置上に装着され得るものであり、レールもしくは鉄道線路上に装着され得るものであり、または、定置であり得る。ロボティックデバイスは、箱の形状およびサイズの、異種のものからなる混合体を内に含む、箱の積重体320から箱を選出するように制御され得る。
[0065] 例の中で、2Dおよび/または3Dでの物体のモデルを含む仮想環境が、箱を持ち上げるための計画または戦略を策定するために、決定および使用され得る。一部の例では、ロボットは、図3Bで示されるように、1つまたは複数のセンサを使用して、物体を内に含む環境をスキャンし得る。ロボティックアーム202が移動する際に、アーム上のセンサ206は、箱の積重体320に関するセンサデータを捕捉することを、個々の箱の形状および/または位置を決定するために行い得る。追加的な例では、3D環境の、より大きいピクチャが、個々の(例えば、3D)スキャンからの情報を統合することにより築き上げられ得る。これらのスキャンを遂行するセンサは、ロボティックアーム上の固定された位置に、および/または、他の場所に配置され得る。様々な実施形態によれば、スキャンは、いくつかの異なる技法のいずれかまたはすべてによって、構築および使用され得る。
[0066] 一部の例では、スキャンは、1つまたは複数の3Dセンサが装着されるロボティックアームを移動させることにより為され得る。アーム位置からのフィードバックは、どこでセンサが位置決めされるかに関する姿勢情報を提供し得るものであり、統合の一助となるために使用され得る。代わりに、または加えて、スキャンは、1つまたは複数の2Dセンサを使用して為されることが、実例として、運動を活用し、環境内の主要点を追跡することにより行われ得る。さらなる例では、スキャンは、所与の視域をカバーする視野(FOV)を有する固定マウントカメラからのものであり得る。追加的な例では、スキャンは、潜在的にはより良好な統合結果を与える、綿密な姿勢推定の一助となるように、視覚的に位置合わせされ得る。
[0067] さらなる例では、仮想環境は、3D容積測定または表面モデルを使用して、(例えば、異なるセンサからの)情報を統合して築き上げられ得る。このことは、1つのセンサが、大きい環境をカバーするには不充分であり得る事例でなどで、システムが、より大きい環境の中で動作することを可能とし得る。そのような技法はさらには、捕捉される詳細のレベルを増大し得るものであり、そのことは、ロボティックデバイスが様々なタスクを遂行する一助となり得る。特に、情報を統合することは、(例えば、ノイズレベルを下げることにより)単一のスキャンだけからよりも綿密な詳細を生み得る。このことは、より良好な物体検出、表面選出、または他の用途を可能にし得る。
[0068] さらなる例では、広角度環境再構築が、環境を検知し、その情報を、単純な数学的3D幾何学的外形(例えば、平面、円柱、円錐、半球、その他)の単純化された幾何学的モデルに抽出することにより遂行され得る。一部の実例では、そのような技法は、運動計画をより容易にし得るものであり、および/または、モデルの違反(例えば、衝突)を、検出するのをより容易にし得る。代わりに、または加えて、そのような技法は、パラメトリック記述が環境を拡張することを可能とし得る。実例として、地面は、それを遮断する物体の背後に延在する平面と見なされ得る。
[0069] 追加的な例では、環境内の、平面、または、他の数学的表面は、3Dで抽出され得る。これらの知られている「理想的な」表面検出は、環境の、より正確なモデルに組み合わされ得る。実例として、平面は、壁(または、それらの数学的記述)、および、他の障害物の、完全な存続範囲を決定して、衝突を回避し、関心の物体の場所を検出するために使用され得る。さらには、物体の数学的表現は、環境内に進入する人などの異常を探すために使用され得る。そのような事象は、理想的なモデルに違反し得るものであり、そのことは、それらの事象の検出をより容易にし得る。
[0070] 他の例では、箱などの所定の物体は、単純な平面状の外形を有し得る。実例として、金属缶は円柱の幾何学的外形を有し得るものであり、タイヤは円環の幾何学的外形を有し得る。例のシステムは、所定の物体の、この特色を活用することを、それらの物体をモデリングする、および/または、物体に対する手引きの運動計画を決定するために行い得る。実例として、所定の形状の知られているテンプレートが、特定の形状とマッチングするように見える、環境の中の物体の、検出されるフィーチャを精緻化するために使用され得る。
[0071] 一部の例では、2Dおよび3D情報は、少なくとも部分的に、1つまたは複数のファサードによって表され得る。ファサードは、深度マップ(例えば、第3の次元としての距離を伴う2Dマップ)として表される、物体のセットを内に含む、平面状に近い構築物として定義され得る。ファサードの例は、トラック内の箱の壁、箱もしくは他の物体を内に含むパレット積重体の上部、または、雑然とした物体の大箱の上部を含み得る。
[0072] さらなる例では、ファサードは、箱から構築されることが、実例として、箱を持ち上げるための順序を計画するために行われ得る。実例として、図3Cで示されるように、箱322が、ロボティックデバイスにより、持ち上げることになる次の箱として識別され得る。箱322は、センサ206および208などの、1つまたは複数のセンサにより収集されるセンサデータに基づいて構築される、箱の積重体320の前壁を表すファサードの中で識別され得る。制御システムは次いで、箱322が、選出することになる次の箱であると決定することを、ことによると、その箱の形状およびサイズ、箱の積重体320の上部上でのその箱の位置に基づいて、ならびに/または、標的コンテナの特性、もしくは、箱に対する場所に基づいて行い得る。ロボティックアーム202は次いで、箱322を、把持部204を使用して持ち上げ、箱322をコンベヤベルト210上に配置するように(例えば、箱322を保管エリア内に輸送するために)制御され得る。
[0073] 追加的な例では、ファサードは、3D表面情報の正投射として表され得る。この表現は、ファサードをパースして、関心のあるエリアを特定の用途に対して決定することを可能とし得る。例えばトラック荷下ろしでは、持ち上げることになる次の箱の左上隅が、ファサード表現に基づいて決定され得る。他の例では、統合された3D環境の正投射が、用途に関係付けられるタスクを遂行するために、広いFOVの、容易にパースされる表現を与えるように決定され得る。1つのそのようなタスクは、選出することになる箱の隅、または複数の隅(例えば、上部左)を見出すことであり得る。別のそのようなタスクは、良好な表面(例えば、相対的に平坦で大きい)を、物体を大箱から選出するために見出すことを必然的に含み得る。
[0074] さらなる例では、箱の積重体の3Dモデルが、箱を積重体またはパレットに/から、荷積み/荷下ろしをすることに対して、進行を計画および追跡する一助となるためのモデルとして、構築および使用され得る。ファサードの、任意の1つの実際のカメラビューは、視角遮断および透視歪みの難点があり得る。適宜、ロボットアーム動きによる複数個のRGBDビュー、および/または、荷車基部、もしくは、固定された場所からの異なるビューが、選出されることになる箱の単一のファサードを創出するために組み合わされ得る。
[0075] 他の例では、3Dモデルは、衝突回避のために使用され得る。例の中で、衝突のない軌道を計画することは、環境内の物体および表面の3D場所を決定することを必然的に含み得る。軌道オプティマイザは、環境再構築により提供される3D情報を役立てて、障害物の存在下で経路を最適化し得る。さらなる例では、オプティマイザは、リアルタイムで作業し得るものであり、多くの種類の制約を受け入れ得る。そのような制約の例として、オプティマイザは、エンドエフェクタレベルを、軌道の全体を通して保つことを試行し得る。
[0076] 追加的な例では、環境は、3D点のメッシュまたはセットとして捕捉され得る。ロボットアームは、迅速な衝突点検のために、平面断片の凸包として表され得る。環境の不断の、または頻繁な更新は、ロボットアームが変化に迅速に応答することを可能とし得る。さらなる例では、オプティマイザは、頻繁な連続的な衝突点検を、その経路の全体を通して遂行し得る。オプティマイザは、随意の制約を、物体から所定の距離だけ離れた状態を保つこと、または、目標位置に所与の角度から接近することなどの、コストの形式で受け入れ得る。加えてオプティマイザは、ロボット故障条件を回避することを、関節空間で作業すること、ワインドアップの経過を追うこと、および、目標位置を複数個の逆運動学解の中から選定することにより行い得る。運動計画に対する1つの戦略は、いくつものムーブを先読みして、選定された目標関節位置が、次のムーブに対して受け入れ可能であることになるかどうかを確かめることを必然的に含み得る。
[0077] 一部の実施形態では、ロボティックアーム、カメラ、ケーブル、および/または、他の構成要素に対する衝突回避などの経路制約は、制約ベースの計画ソルバに入れられ、アームを移動させるための最良の経路を知覚のために生むことのために求解され得る。加えて、一部の実施形態では、ソルバは、物体を持ち上げる、移動させる、および、配置するための最良の経路を決定し得る。
[0078] 様々な実施形態によれば、3Dおよび/または視覚センサは、作業空間に対するそれらのセンサの姿勢を決定するために較正され得る。固定されたセンサの事例では、較正は、それらのセンサの固定された姿勢を作業空間で決定し得る。アーム上のセンサの事例では、較正は、センサの、そのセンサが取り付けられるアームリンクからのオフセット姿勢を決定し得る。
[0079] 例の中で、較正技法は、作業空間内の随意の数のセンサの較正を可能とし得る。較正は、種々のパラメータおよび係数の、一部またはすべてを決定することを必然的に含み得る。例えば較正は、焦点距離および画像中心などの、1つまたは複数の内因性パラメータに対して求解し得る。別の例として、較正は、半径方向および接線方向の歪みのモデルなどの、1つまたは複数の歪み係数を決定し得る。なおも別の例として、較正は、シーン内の物体の、パターンに、または、同じパターンをシーン内で識別した他のセンサに対して相対的な位置を定義する、1つまたは複数の外因性パラメータに対して求解し得る。
[0080] 一部の例では、較正は、少なくとも部分的に、較正パターンを使用することにより遂行され得るものであり、その較正パターンは、2Dまたは3Dでのフィーチャの知られているセットであり得る。実例として、ドットの知られているパターンが使用され得るものであり、その場合、各々のドットと、他のドットとの間の距離は知られている。較正は、少なくとも部分的に、物体の、複数個の異なるビューを収集することにより遂行され得る。さらなる例では、較正パターンの、複数個のビューを、異なる位置で捕捉することは、(1)カメラの、1つもしくは複数の係数の較正、および/または、(2)カメラが、較正パターンが固定されたところにより確立される座標系に対して相対的にどこにあるかを知ること、を可能とし得る。特定の実施形態では、シーン内のカメラは、ロボットアーム上の較正パターンを識別し得るものであり、一方で、アーム上のカメラは、シーン内の較正パターンを同時に識別する。
[0081] 追加的な例では、較正は、シーン内で固定されるカメラを必然的に含み得る。この事例では、較正パターンは、ロボティックアーム上に配置され得る。ロボティックアームは、ロボティックアーム上の較正パターンの、複数個のビューが収集される際に、シーンを通って移動するように構成され得る。このことは、カメラを較正する一助となり得るものであり、および/または、カメラの座標系をロボットの座標系と関係付けるために有用であり得る。さらに、各々のデバイスの、他のものとの関係は、各々のデバイスにより、ロボティックアームが移動する際に決定され得る。
[0082] 所定の例では、較正は、ロボティックアーム上に場所決めされるカメラを必然的に含み得る。較正パターンは、壁またはテーブル上に装着され得る。次いでカメラは、至る所に移動させられ得るものであり、較正パターンの、複数個のビューを、異なるロボットまたはロボティックアーム位置から収集する。異なる3Dまたは2Dビュー(例えば、2、20、または200)が収集されるとき、これらのビューは、較正関係性に対して求解するために使用され得る。較正の後、アーム上のカメラが移動するとき、システムは、そのカメラが、セットされる座標系に対して相対的にどこにあるかを、シーン内の較正パターンの場所に基づいて決定し得る。特定の実施形態では、較正パターンおよびカメラの両方は移動可能であり得る。例えば較正パターンは、ロボティックアームが箱を配置するように構成され得るコンベヤベルト上に場所決めされ得る。較正の後、システムは、カメラが、コンベヤベルト上のそのスポットに対して相対的にどこにあったかを決定し得る。
[0083] さらなる例では、非線形最適化が、2段階プロセスで、3Dセンサ較正のロバストな推定のために遂行され得る。1つの段階では、初期化が、標的およびセンサの相対的な姿勢オフセットから導出され得る。別の段階では、初期化を与えられると、バッチバンドル調整が、標的点と一体で、カメラの最適な姿勢を見出すために使用され得る。較正は、関節長および関節角度オフセットなどのロボットパラメータの推定に拡張され得る。
[0084] 他の例では、較正パターンに対してのカメラの、または、カメラに対しての較正パターンの、知られている精密なロボット運動が、較正結果を改善するために使用され得る。実例として、精密にどのようにカメラが移動するかに関する情報が、より正確なカメラ較正を取得するために使用され得る。すなわち、カメラが50mm右に移動させられるならば、較正物体からの動きの対応する(透視投影)量が検出され得る。この情報は、連帯的に、または別々に、較正および追跡パラメータを最適化するために使用され得る。
[0085] 追加的な例では、ロボットは、そのロボットの継続中の較正を考察し、情報をより良好な較正のために最大化するような方策で移動し得る。例えばそのロボットは、一部のビューエリアが確かめられていないということを検出し、それらのビューに向かうことがある。
[0086] さらなる例では、一般的には、乱雑状態にされた収集エリアから、定義済みの大箱への、異種のものからなる、カテゴリー別の物品の実践的な操作のためのシステムが提示される。一部の実施形態では、物品を内に含む選出場所は、精密な物体の向きに敏感でないことがあり、物品は、一体に混合されることがある。追加的な例では、物品に対する配置場所は、物体の向きに敏感であることがあり、または、敏感でないことがある。一部の例では、選出および配置領域は、何らかの許容誤差を伴う物体を選出または配置することに対して受け入れ可能な3D領域と定義され得る。選出および配置領域は、同様の、および/または、全く異なる物体によって、きわめて乱雑状態にされていることがある。他の実施形態では、物品は、分別された物品を特定の向きで保持する、金属もしくはプラスチック留め具などの固定具から来る、または、その固定具に入れられることがある。
[0087] 追加的な例では、選出および配置の両方の場所の環境モデリングが、インテリジェントな掴握場所および運動、ならびに、事象報告(例えば、配置領域が満杯である、または、選出領域が空であるとき)のために使用され得る。一部の例では、物体バウンディングボリュームが計算され得るものであり、および/または、物体の区別するフィーチャが見出され得る(テクスチャ、色、バーコード、またはOCRなど)。一部の実施形態では、物体は、割り当てられた行先場所に分別されることが、物体タイプまたは物体IDによりインデックス付けされる場所割り当てのデータベースに対するマッチングにより行われ得る。実例として、物体の場所は、バーコードを読み取ること、物体のサイズを考慮することから、および/または、特定の種類の物体を認識することにより導出され得る。
[0088] 一部の例では、ロボティックデバイスに対する計画が、物体に対する標的場所の中での、物体の所定の構成を達成するために決定され得る。実例として、荷積み/荷下ろし、または、パレタイジング/デパレタイジングに対する目標は、(1)箱の中間での最小限の空隙を伴う高密度の梱包、および/または、(2)容易に崩れることにならない安定した梱包を達成することであり得る。一部の実施形態では、安定性は、一般的に、重い物体が下部上にあり、軽い物体が上部上にあるということを要し得る。他の例では、パレットが、絡み合っていない柱状体の積重体、柱状体傾斜、または、悪い積重体の他の特性を回避するために創出され得る。
[0089] さらなる例では、パレットまたはトラック/コンテナは、人間のオペレータによる、後続の荷下ろしプロセスでの作業が最小化されるように荷積みをされ得る。実例として、一部の実施形態では物品は、後入れ先出し順序で配置され得るものであり、それによって、開梱時に、最初に必要とされる物品は最上部上にある、2番目に必要とされる物品は、1層下にある、等々となる。他の例では、パレットの荷積みは、どのように物品が梱包セルに向かって流れるかには非依存であり得る。かくして、一部の実施形態によれば、システムは、ランダムな順序で、または、前もって知られている順序で送出されるパッケージに対処し得る。加えて、一部の実施形態では、システムは、物品の流れの変化にリアルタイムで適応し得る。さらなる例では、1つまたは複数の箱は、箱を一時の保管エリアで保持することにより、記録され、緩衝され得るものであり、その場合、それらの箱の順序は、途中で変化させられ得る。
[0090] 様々な実施形態によれば、2Dシミュレータおよび/または3Dシミュレータが、トラックもしくはコンテナ荷積み/荷下ろしに対して、または、パレット荷積み/荷下ろしに対して利用され得る。一部の例では、箱の積重体のステートが、物理的世界で捕捉され、シミュレータに入力され得る。一部の実施形態では、1つの箱からすべての箱までの、箱の可変サイズ待ち行列が、シミュレータにより、選出することになる次の箱を見出すために使用され得る。例えば、2つの箱、または4つの箱、または10個の箱の待ち行列が、シミュレータにより考慮され得る。
[0091] さらなる例では、シミュレータは、待ち行列内の箱にわたって探索して、最良の箱配置を、ヒューリスティックアルゴリズムにより、および/または、力ずくの、もしくは多重分解能の探索により見出し得る。一部の実施形態では、システムは、以前の、より粗いレベルで見出された、最良の箇所の周りでの、箱の、次第に綿密になる配置によって漸進し得る。一部の実施形態では、特定の次の箱の配置が決定され終えると、物理プランナが、運動計画に対して使用されることが、箱を効率的に、決定された場所に移動させるために行われ得る。さらなる例では、物理的な、およびシミュレートされた積重体は、連続的に、積重体の品質(例えば、密度、安定性、および/または順序配置)に対して監視され得る。一部の例では、プロセスは、すべての箱が配置され終える、または、標的コンテナが、もはや別の箱に適合し得ないまで、反復させられ得る。
[0092] 図4は、例の光学センサ402の機能性の概念図解図400である。光学センサ402は、フォト検出器404などのフォト検出器のアレイを含む。アレイ内のフォト検出器の一部は、光であって、その波長が可視スペクトル(例えば、380nmから750nmまで)の中のものである、光の入射ビームに露出させられるときに電荷を生成するように構成される。アレイ内の他のフォト検出器は、光であって、その波長が赤外スペクトル(例えば、750nmから3000nmまで)の中のものである、光の入射ビームに露出させられるときに電荷を生成するように構成される。一部の実施形態では、赤外検知フォト検出器は、赤外光の狭帯域(例えば、825nmから875nmまで)を捕捉するように構成される。構造化光実施形態では、赤外テクスチャプロジェクタが、赤外光のそのような狭帯域の中のパターン化された光を投射し得る。
[0093] 可視検知フォト検出器および赤外検知フォト検出器は、種々の様式で配置構成され得る。一部の実施形態では、可視検知フォト検出器は、赤外検知フォト検出器が間に散在し得るものであり、それによって、各々のタイプのフォト検出器の、実質的に均一の混合が、フォト検出器のアレイの全域に存する。可視検知および赤外検知フォト検出器を配置構成することの様々な様式が、本明細書で企図され、さらにより詳細に下記で論考される。
[0094] 一部の実現形態では、フォト検出器のアレイは、光フィルタのアレイに結合され得る。光フィルタは、フォト検出器の上部上に重ねられ得るものであり、それによって、特定のフォト検出器上に入射する光は、最初に、それぞれの光フィルタを通過する。各々の光フィルタは、バンドパスフィルタの役割を果たし得るものであり、そのバンドパスフィルタは、光であって、その波長が特定の帯域の中にある、光を通過させ、一方で、光であって、その波長がその特定の帯域の外側にある、光をブロックする、または減衰させるものである。本明細書で説明されるように、所定の波長の光を捕捉または検出する「ように構成される」フォト検出器は、上記で説明されたような光フィルタに結合されるフォト検出器として実現され得る。
[0095] 動作の間、光学センサ402上に入射する可視光406および赤外(IR)光408は、それぞれ、光学センサの可視検知フォト検出器および赤外検知フォト検出器により捕捉され得る。光学センサは、可視光画像410およびIR光画像412を、フォト検出器内の電荷から生成するように構成される、制御回路網および/または処理デバイスを含み得る。これらの画像は次いで、コンピューティングデバイスに提供されることが、可能な使用の中でもとりわけ、立体画像処理および深度検知での使用のために行われ得る。
[0096] 特定の波長帯域であって、それらによって可視光フォト検出器および赤外光フォト検出器が光を捕捉する、特定の波長帯域は、特定の実現形態に依存して変動し得るということに留意されたい。加えて、これらの波長帯域のエッジでの降下のレートが、さらには、具体的な実現形態に依存して変動し得る。可視光帯域および赤外光帯域の境界は、実現形態の間で変動し得るということが理解されるべきである。
[0097] さらには、本明細書で説明されるような「可視光画像」は、一部の実例では、パンクロマチック画像(例えば、可視スペクトル内の光の色に対して高感度のグレースケール画像)を指し得るということに留意されたい。他の実例では、フォト検出器は、赤、緑、および青の可視光を別々に検知するために用意され得る。そのような実例では、光学センサの制御回路網は、デモザイキング、または、他の画像プロセスを、カラー画像を構築するために遂行し得る。本明細書で説明されるような「可視光画像」は、パンクロマチック画像またはカラー画像のいずれかを指し得る。
[0098] 図5Aは、例の実施形態による、例の光学センサ上のフォト検出器の例の配置構成500の概念図解図である。図5で図示される例の配置構成500は、図4で図解される光学センサ402などの、本出願の光学センサに対するフォト検出器の、1つの例の配置構成であり得る。図5で示される例の配置構成500は、チェッカーボードパターンであり、可視検知フォト検出器および赤外検知フォト検出器は、行の方、および、列の方の両方で交互になる。しかしながら、種々の他のフォト検出器パターンが、特定の光学センサ上で、特定の実現形態に依存して使用され得るということが理解されるべきである。
[0099] 動作の間、光学センサは、可視光画像を、その光学センサの可視検知フォト検出器を使用して捕捉し、赤外光画像を、その光学センサの赤外検知フォト検出器を使用して捕捉し得る。本明細書で説明されるように、これらの画像は、立体画像処理で、環境内の表面の深度を決定するために使用され得る。そのような立体画像処理は、フィーチャの画素場所を、1つの観点からの(例えば、第1の光学センサからの)画像の中で決定し、その画素場所を、異なる観点からの(例えば、第2の光学センサからの)画像の中のそのフィーチャの画素場所と比較することを必然的に含み得る。三角測量を使用して、そのフィーチャの深度が、2つの異なる観点の間の知られている距離(例えば、第1および第2の光学センサの間の距離)、および、2つの画像内のそのフィーチャの相対的な画素場所に基づいて決定され得る。
[0100] 本出願の深度検知技法は、そのような立体画像処理を、2つの異なるタイプの光 − 赤外光および可視光 − によって遂行して、深度推定値を、光の、2つの異なる帯域(例えば、波長帯域または周波数帯域)で決定することを必然的に含む。次いでそれらの深度推定値は、組み合わされた深度推定値を、環境内の少なくとも1つの表面に対して形成するために組み合わされ得る。しかしながら、可視検知フォト検出器および赤外検知フォト検出器は、厳密に同じ位置をフォト検出器上で占有するのではなく、むしろ、平面状アレイ内に間に散在するので、若干量の不正確さが、2つの別々の深度推定値を組み合わせるときに存在し得る。
[0101] 1つの例として、可視光画像は、可視検知フォト検出器504により捕捉されるフィーチャを含み得るものであり、一方で赤外光画像は、赤外検知フォト検出器506により捕捉されるその同じフィーチャを含み得る。このフィーチャは、同じ画素場所を、可視光画像および赤外光画像の両方で占有するように見え得るが、フィーチャを捕捉したそれぞれのフォト検出器の物理的位置は異なる(この例では、フォト検出器504とフォト検出器506との間の距離)。このわずかな不正確さは、特定のパターンであって、それによって可視検知フォト検出器および赤外検知フォト検出器が間に散在する、特定のパターンに依存して変動し得る。図5で図解されるチェッカーボードパターンは、そのような不正確さを低減する、フォト検出器の1つの例の配置構成である。
[0102] そのような不正確さを低減することに加えて、図5で図解されるチェッカーボードパターンは、低減される系統的誤差を提供する。可視検知フォト検出器列が赤外検知フォト検出器列と交互になる、フォト検出器の異なる配置構成を考えてみる。2つのそのような、列で交互になる光学センサを利用するイメージングシステムは、増大される系統的誤差を免れ得ない。2つの光学センサが不十分に較正されるならば、捕捉される画像の中の相対的な画素位置は、偏移させられ得るものであり、系統的誤差を結果的に生じさせる。この偏移は、フォト検出器の列全体に対して、画素場所の正確さに悪影響を及ぼし得る。フォト検出器タイプを、行および列の両方に沿って交互にすることにより(例えば、チェッカーボードパターン)、そのような系統的バイアスは回避され得るものであり、または、その系統的バイアスの影響は有意に低減され得る。
[0103] 一部の実施形態では、この不正確さは、ソフトウェアおよび/または技法を使用して、フォト検出器の知られている配置構成に基づいて、なくされ得る、または補正され得る。図5でのフォト検出器配置構成500が、16個のフォト検出器 − 8つの可視検知フォト検出器、および、8つの赤外検知フォト検出器からなる、光学センサ全体であると考えてみる。例の実施形態では、8つの可視検知フォト検出器は、2x2パンクロマチック画像を、可視スペクトル内の光から生成するために使用され得るものであり、しかるに、8つの赤外検知フォト検出器は、2x2画像を、狭帯域赤外スペクトル内の光から生成するために使用され得る。この例では、各々のモザイク(モザイク502など)は、画像内の単一の画素に対応し得るものであり、すなわち、2つの可視検知フォト検出器は、可視光画像内の画素に対応し、一方で、2つの赤外検知フォト検出器は、赤外光画像内の画素に対応する。モザイクの中の同じタイプの2つのフォト検出器により生成される電荷は、画素を画像に対して生成するときに平均化され得る。結果的に生じる画像の分解能は(2つのフォト検出器が単一の画素に寄与するので)低減されるが、系統的バイアスは低減され、特定のモザイクにより捕捉されるフィーチャからの光は、可視光画像および赤外光画像内の同じ画素場所で表される。
[0104] 他の実施形態では、可視検知フォト検出器は、赤外検知フォト検出器との交互になるパターンで配置構成され得る。1つの例として、アレイ内の各々の行は、可視検知フォト検出器と赤外検知フォト検出器との間で交互になり得る。別の例として、アレイ内の各々の列は、可視検知フォト検出器と赤外検知フォト検出器との間で交互になり得る。追加的な実施形態では、光学センサは、可視検知および赤外検知フォト検出器を、反復するパターンまたはモザイクで配置構成し得る。例えば、任意の数の可視検知および赤外検知フォト検出器をモザイクの中で組み合わせる、様々な正方形タイリングパターンが実現され得る。所与のモザイクは、任意の数のフォト検出器を含み得る。フォト検出器の特定の配置構成にかかわらず、光学センサは、光学センサが可視光画像および赤外光画像の両方を捕捉することを可能にする、可視検知フォト検出器および赤外検知フォト検出器の何らかの組み合わせを有し得る。
[0105] 一部の実現形態では、可視光および赤外光検知光学センサを利用するロボティックシステムは、そのシステムが現在、所与の時点にいる環境を意識、検出、または他の形で分類し得る。そのようなロボティックシステムは、光学センサの、1つまたは複数のフォト検出器の動作を、そのシステムが現在、中心の座を占めている、決定された環境に基づいて改変し得る。光学センサの制御回路は、可能な動作態様の中でもとりわけ、各々の光学センサの電荷に適用するためのゲインの量、および、時間の長さであって、それによってフォト検出器を光に露出するための、時間の長さ(露出時間)を含む、光学センサの様々な動作態様およびパラメータを、動作の間、変化させるように構成可能であり得る。異なるゲイン値および露出時間が、可視検知フォト検出器および赤外検知フォト検出器に対して、一部の実現形態ではセットされ得る。
[0106] 1つの例として、ロボティックシステムは、そのシステムが日中の屋外の環境で動作していると決定し、応答的に、フォト検出器の露出時間および/またはゲイン値を低減し得る。一部の事例では、ロボティックシステムは、可視検知フォト検出器の露出時間を低減し、または、他の形でセットし得るものであり、一方で、赤外検知フォト検出器の露出時間を低減しない、または、他の形で変化させない。そのロボティックシステムが、暗い屋内の環境内に移動するならば、ロボティックシステムは、応答的に、可視検知フォト検出器および/または赤外検知フォト検出器の、露出時間および/またはゲイン値を増大し得る。ロボティックシステムは、可視検知フォト検出器、赤外検知フォト検出器、または両方の、ゲイン値および/または露出時間を変動させることを要し得る、他のシナリオに遭遇し得る。
[0107] 一部の実例では、ロボティックシステムは、特定の環境の中で動作するように設計され得るものであり、照明の極端な変化に逢着することは予期されない。例えばロボティックシステムは、単独で、窓をほとんど伴わない、相対的に不変の人工照明を伴う、屋内の環境で動作するように設計され得る。しかしながら、そのような環境はそれでもなお、よく照らされる表面、および、影で覆われる表面を内に含み得るが、予期される輝度レンジは、他の混合型の屋内および屋外の環境内より小さい。そのような環境内のロボティックシステムは、赤外検知フォト検出器より多くの可視検知フォト検出器を各々が内に含む、1つまたは複数の光学センサを用い得る。
[0108] 例えば、各々の赤外検知フォト検出器は、赤外の投射されるパターンに対して、より高感度であり得るものであり、一方で、各々の可視検知フォト検出器は、環境内の周辺光に対して比較的、より少なく高感度であり得る。かくして、所定の光学センサは、その意図される使用に依存して、一方のタイプのフォト検出器の、より多くを、他方と比較して含むように設計され得る。その上に、可視検知フォト検出器および赤外検知フォト検出器が配置構成される様式は、各々のタイプのフォト検出器の数、および、光学センサの意図される目的に依存して変動し得る。種々の方策で配置構成される、任意の数の可視検知フォト検出器および赤外検知フォト検出器を組み合わせる、様々なフォト検出器が、実現形態、意図される使用、および/または、ロボティックシステムが遭遇することを予期される環境の種類に依存して実現され得るということが理解されるべきである。
[0109] 16個のフォト検出器が縦4横4のアレイで図示されているが、本出願の光学センサは、種々の規模で配置構成される、任意の数のフォト検出器を含み得るということに留意されたい。さらには、本明細書で言及されるような用語「モザイク」は、フォト検出器の反復されるグループ化を指すということに留意されたい。
[0110] 一部の実施形態では、可視検知フォト検出器は、赤、緑、および青(RGB)の可視光を別々に捕捉するためのフォト検出器を含み得る。図5Bは、赤検知、緑検知、青検知、および赤外検知フォト検出器の配置構成510の概念図解図である。可視検知フォト検出器がすべての可視光を広帯域にわたって捕捉する、図5Aで示される例の光学センサとは違い、図5Bで示される可視検知フォト検出器は、可視光を、赤、緑、および青の可視光に対する、より小さな別々の帯域で捕捉する。
[0111] 一部の実施形態では、環境のカラー画像を捕捉することが、立体視深度検知を遂行することに加えて所望され得る。図5Bでのものに類するように配置構成されるフォト検出器を伴う光学センサは、そのようなカラー画像を提供するために用いられ得る。そのような光学センサの制御回路網は、RGBフォト検出器から検出される光を、カラー画像を生成するために組み合わせ得る。一部の事例では、カラー画像は、可視光画像からのフィーチャ検出を高めることを、パンクロマチック画像から洞察するのが困難であり得る、微妙な色変化の検出を可能にすることにより行い得る。
[0112] 「可視検知フォト検出器」は本明細書では、可視光のすべての色からのパンクロマチック画像を捕捉する広帯域可視光フォト検出器、または、可視光スペクトルの中の、より小さな帯域(例えば、赤光、緑光、および青光)を、カラー画像を捕捉するために検出するフォト検出器の組み合わせのいずれかを指し得るということが理解されるべきである。
[0113] 図6は、テクスチャプロジェクタ602と、第1の光学センサ604と、第2の光学センサ606とを含む、例の立体イメージングシステム600の概念図解図である。図6では、第1の光学センサ604は、テクスチャプロジェクタ602から距離D1だけ分離されて示され、第2の光学センサ606は、テクスチャプロジェクタ602から距離D2だけ分離されて示される。第1の光学センサ604は、第2の光学センサ606からD3の距離だけ分離されて示される。図6の立体イメージングシステム600では、第1の光学センサ604、および、第2の光学センサ606は、環境608を、異なる角度から(例えば、異なる観点から)観測し得る。かくして、第1の光学センサ604は、第1の視点からの、環境608の画像を捕捉するために使用され得るものであり、一方で、第2の光学センサ606は、第2の視点からの、環境608の画像を捕捉するために使用され得る。
[0114] 第1の光学センサ604、および、第2の光学センサ606は、可視光画像および赤外光画像の両方を捕捉するように構成され得る。一部の実施形態では、第1の光学センサ604、および、第2の光学センサ606は、光学センサ402と同様、または同じであり、上記で説明された様式で配置構成されるフォト検出器(図5で示される配置構成500を含む)を有し得る。
[0115] 環境608は、少なくとも部分的に、可視光610により照射され得る。この可視光源は、可能な可視光源の中でもとりわけ、太陽光、または、(例えば、白熱電球、蛍光電球、発光ダイオード、その他からの)可視スペクトル人工照明であり得る。可視光610は、環境608の中の、所定の部分、物体、または表面に明るく照射し得るものであり、一方で、環境608の中の、他の部分、物体、または表面は、影で覆われる、または、薄暗く照らされる。
[0116] 環境608はさらには、テクスチャプロジェクタ602からの、赤外の投射されるパターンにより部分的に照射され得る。テクスチャプロジェクタ602は、赤外光発光体または赤外プロジェクタであり得る。実例として、テクスチャプロジェクタは、光源、投射光学部品、および、液晶ディスプレイ(LCD)、または、光をパターンによって遮る他の方法を含み得る。投射されるパターンは、形状の中でもとりわけ、格子、ドット、縞、スポット、水平棒、および/または垂直棒の、知られている組み合わせであり得る。
[0117] 一部の実例では、投射されるパターンは、影で覆われる、または、薄暗く照らされる、環境608の中の、部分、物体、または表面から反射されるときに検出可能であるのみであり得る。所定の可視光源は、可視光を発光することに加えて、赤外の投射されるパターンを弱める、または圧倒する、赤外光を発光し得る。
[0118] 一部の実施形態では、投射されるパターンは、形状の特有な組み合わせである、知られている、または、他の形であらかじめ決定されたパターンであり得る。パターンがあらかじめ決定されるとき、そのパターンの特有な部分は、捕捉される赤外画像の中で場所決めされ、三角測量のための基準点を提供し得る。例えば、あらかじめ決定されたパターンの特有な部分が、捕捉される画像から識別されると、あらかじめ決定されたパターンの、その特有な部分の特質(そのサイズおよび場所など)が、その特有な部分が投射される表面の深度を決定するための基盤として使用され得る。知られている、または、あらかじめ決定された、投射されるパターンを用いた実現形態では、構造化光深度検知は、ただ1つの赤外画像、ならびに、光学センサおよびテクスチャプロジェクタの相対的な位置を、深度マップを生成するために要し得る。しかしながら、異なる視点から捕捉される複数個の赤外光画像は、三角測量の正確さを精緻化または検証するために使用され得る、追加的な情報を提供し得る。
[0119] 他の実施形態では、投射されるパターンは、ランダムに生成され得る。一部の実現形態では、複数個の赤外光画像は、変化する、ランダムに生成される、投射されるパターンに関して捕捉され得る。構造化光処理を用いるコンピューティングデバイスは、深度情報を、各々の赤外光画像に対して導出し得る。各々の異なるパターンに対応する深度情報は、次いで、より正確な、または完全形の深度マップを生成するために組み合わされ得る。
[0120] 動作の間、第1の光学センサ604は、環境608から反射される可視光610からの可視光画像、および、環境608から反射される、赤外の投射されるパターンからの赤外光画像を捕捉し得る。異なる視点から、第2の光学センサ606は、環境608から反射される可視光610からの可視光画像、および、環境608から反射される、赤外の投射されるパターンからの赤外光画像を捕捉し得る。環境の暗い部分は、光学センサの露出時間に依存して、黒い、または、非常に暗いように見え得るものであり、一方で、環境608の明るく照らされる部分は、照射される表面の詳細およびフィーチャを、可視光画像内であらわにし得る。反対に、環境608の明るく照らされる部分は、光学センサの露出時間に依存して、白い、または、弱められたように見え得るものであり、一方で、環境608の暗い部分は、投射される赤外パターンを、赤外光画像内であらわにし得る。
[0121] コンピューティングデバイスは、深度画像を、第1の光学センサ604、および、第2の光学センサ606により捕捉される2つの可視光画像に基づいて生成し得る。このことは、対応する画素値(例えば、特定のフィーチャの画素値)のマッピングを、2つの可視光画像の中で見出し、どれだけ遠く離れてこれらの共通エリアが画素空間内に在るかを算出し、三角測量(例えば、2つの光学センサの間の距離D3に基づく)を使用して、深度マップまたは画像を決定することを必然的に含み得る。この深度マップまたは深度画像は、反射される可視光から検出されるフィーチャに基づく、環境608内の物体の表面の距離に関係する情報を内に含み得る。しかしながら、環境608の、影、または、薄暗く照らされる部分内の、物体の表面は、十分な可視光を反射することを、それらの表面の距離が正確に決定されるようには行い得ないものであり、かくして、可視光画像から生み出される深度マップは、深度を、環境608内の表面の一部に対して正確に表し得る。
[0122] 同様にコンピューティングデバイスは、深度画像を、第1の光学センサ604、および、第2の光学センサ606により捕捉される2つの赤外光画像に基づいて生成し得る。深度画像または深度マップは、赤外光画像に対して、可視光画像に対してのものと同様の様式で生成され得る。この深度マップまたは深度画像は、反射される赤外光(赤外の投射されるパターンを含む)から検出されるフィーチャに基づく、環境608内の物体の表面の距離に関係する情報を内に含み得る。しかしながら、環境608の明るく照射される部分内の、物体の表面は、あまりにも多くの赤外光を反射し得るものであり、そのことにより、さもなければ検出可能なフィーチャを弱め、それらの表面の距離の決定を困難にするものであり、かくして、赤外光画像から生み出される深度マップは、深度を、環境608内の表面の一部に対して正確に表し得る。
[0123] コンピューティングデバイスは、可視光画像から生成される深度マップ、および、赤外光画像から生成される深度マップからの情報を組み合わせて、環境608の組み合わされた深度マップを決定し得る。各々の深度マップは、異なる光スペクトルで検出される深度を表すので、深度マップを組み合わせることは、より総合的および/または正確な深度マップを、全体的な環境608に対して提供し得る。
[0124] 一部の実施形態では、深度マップは、第1の光学センサ604、または、第2の光学センサ606のいずれかにより捕捉される単一の赤外光画像に基づいて決定され得る。例えばコンピューティングデバイスは、テクスチャプロジェクト602と、第1の光学センサ604との間の知られている距離に基づく三角測量技法、および、第1の光学センサ604による、環境608上への投射されるパターンの捕捉される赤外画像を用いて、深度マップを決定し得る。知られている距離D1、D2、およびD3、ならびに、第1の光学センサ604、および/または、第2の光学センサ606により捕捉される、1つまたは複数の赤外画像の、任意の組み合わせが、深度マップを決定するために使用され得る。
[0125] 一部の実例では、可視光画像から決定される深度マップ、および、赤外光画像から決定される別の深度マップは、重複する深度情報を内に含み得る。組み合わされた深度マップを生成するとき、コンピューティングデバイスは、深度情報を、2つの深度マップの1つから選択して、組み合わされた深度マップで使用し得る。一部の実現形態では、コンピューティングデバイスは、両方の深度マップからの深度情報を、重複する深度情報が実在する場合に平均化し得る。
[0126] 可視光画像から決定される深度マップは、2つの異なる視点から捕捉される、少なくとも2つの可視光画像を要するが、赤外光画像から決定される深度マップは、それらの視点の1つから捕捉される、単一の赤外光画像を要するのみであり得る。上記で説明されたように、赤外ベースの深度マップは、テクスチャプロジェクタ602と、赤外光画像を捕捉する光学センサとの間の知られている距離に基づく三角測量を使用して決定され得る。かくして、他の例の立体イメージングシステムでは、第1の光学センサ604、および、第2の光学センサ606のただ1つが、赤外画像を捕捉することを、本出願の、可視光および赤外光に基づくことからの、組み合わされた深度マップ技法を履行するために行うための能力を要する。
[0127] 図7は、環境の仮想表現を決定するための例の方法700のブロック線図である。図7で示される方法700は、例えば、図2Bのロボティックデバイス200により、または、より一般的には、任意のコンピューティングデバイスの、1つもしくは複数の構成要素により、使用または実現され得る方法の実施形態を提示する。方法700は、ブロック702〜714の1つまたは複数により図解されるような、1つまたは複数の、動作、機能、またはアクションを含み得る。ブロックは逐次的な順序で図解されるが、これらのブロックはさらには、並列に、および/または、本明細書で説明されるものとは異なる順序で遂行され得る。さらには、様々なブロックが、所望される実現形態に基づいて、より少数のブロックに組み合わされる、追加的なブロックに分割される、および/または、取り去られることがある。
[0128] 加えて、本明細書で開示される、方法700、ならびに、他のプロセスおよび方法に対して、ブロック線図は、本実施形態の、1つの可能な実現形態の、機能性および動作を示す。この事項において、各々のブロックは、プログラムコードの、モジュール、断片、または一部分を表し得るものであり、そのプログラムコードは、プロセッサまたはコンピューティングデバイスにより、プロセスでの具体的な論理機能または工程を実現するために実行可能な、1つまたは複数の命令を含むものである。プログラムコードは、例えば、ディスクまたはハードドライブを含む記憶デバイスなどの、任意のタイプのコンピュータ可読媒体上に記憶され得る。コンピュータ可読媒体は、例えば、レジスタメモリ、プロセッサキャッシュ、およびランダムアクセスメモリ(RAM)に類する、データを時間の短い期間の間記憶するコンピュータ可読媒体などの、非一時的コンピュータ可読媒体を含み得る。コンピュータ可読媒体はさらには、例えば、読み取り専用メモリ(ROM)、光学または磁気ディスク、コンパクトディスク読み取り専用メモリ(CD-ROM)に類する、2次または永続的長期記憶装置などの非一時的媒体を含み得る。コンピュータ可読媒体はさらには、任意の他の揮発性または不揮発性記憶システムであり得る。コンピュータ可読媒体は、例えば、コンピュータ可読記憶媒体、または有形記憶デバイスと考えられ得る。
[0129] 加えて、本明細書で開示される、方法700、ならびに、他のプロセスおよび方法に対して、図7での各々のブロックは、プロセスでの具体的な論理機能を遂行するために配線される回路網を表し得る。
[0130] 1つの実施形態では、方法700の機能は、図2Bの700制御システム240などの制御システムにより遂行され得る。他の実施形態では、方法700の機能は、複数個の制御システムにわたって分散され得るものであり、それらの制御システムは、立体画像処理の出力を使用して、環境内の表面の深度を決定するように構成されるものである。
[0131] ブロック702、704、および706は、可視光画像からの深度知覚と関連付けられる。ブロック708、710、および712は、赤外光画像からの深度知覚と関連付けられる。ブロックのこれらの2つのグループは、並列に遂行されているように図示されるが、図7で示される方法700のブロック702〜714の各々は、任意の順序で遂行され得る。方法700の動作の配置構成は、方法700の理解を手助けすることが意図されるものであり、ブロック702〜714の動作が遂行され得る順序を制限すると、解釈が誤られるべきではない。
[0132] ブロック702で方法700は、第1の光学センサの第1の複数のフォト検出器から、第1の視点から知覚されるような、環境の第1の可視光画像を受信する工程を必然的に含む。第1の光学センサは、図4について上記で説明された光学センサ402と同様に、可視検知フォト検出器および赤外検知フォト検出器の組み合わせを含み得る。フォト検出器は、可能な配置構成の中でもとりわけ、図5について説明されたようなチェッカーボードパターンなどの、種々の方策で配置構成され得る。第1の光学センサはさらには、図6で示される第1の光学センサ604と同様であり得る。
[0133] 可視スペクトルの中の光は、第1の複数のフォト検出器が電荷を生成することを引き起こし得る。特定のフォト検出器により生成される電荷は、その特定のフォト検出器上に入射する光の強度または輝度に比例し得る。第1の光学センサは、第1の複数のフォト検出器により生成される電荷を読み取り、それらの電荷に基づいて、画像を生成するように構成される制御回路網を含み得る。一部の実施形態では、画像は、人間に可視の波長スペクトルの中でパンクロマチック(例えば、グレースケール)である。他の実施形態では、第1の複数のフォト検出器は、赤、緑、および青の可視光を別々に捕捉するフォト検出器を含み、制御回路網は、それらの電荷を組み合わせて(例えば、デモザイクして)、カラー画像を形成するように構成され得る。
[0134] ブロック704で方法700は、第2の光学センサの第1の複数のフォト検出器から、第2の視点から知覚されるような、環境の第2の可視光画像を受信する工程を必然的に含む。第1の光学センサは、第2の光学センサから、知られている距離に位置決めされ得る。一部の実施形態では、第1および第2の光学センサの相対的な角度が、さらには知られている。コンピューティングデバイスは、第1の光学センサと、第2の光学センサとの間の、それぞれの距離および角度を使用して、環境内の少なくとも1つの表面の深度を推定し得る。
[0135] ブロック706で方法700は、環境の第1の対応するフィーチャを、第1の可視光画像と、第2の可視光画像との間で識別する工程を必然的に含む。環境はその中に、表面を環境の中で形成するいくつかの物体を有し得る。それらの物体は、可能なフィーチャの中でもとりわけ、エッジ、色の変化、および輪郭などの、所定の視覚的に認識可能なフィーチャを有し得るものであり、それらのフィーチャは、第1の可視光画像、および、第2の可視光画像の両方で、共通に認識され得るものである。コンピューティングデバイスは、環境の所与のフィーチャを識別し、そのフィーチャの第1の画素場所を、第1の可視光画像の中で、および、そのフィーチャの第2の画素場所を、第2の可視光画像の中で決定し得る。第1の画素場所と、第2の画素場所との間の差、ならびに、第1および第2の光学センサの相対的な位置に基づいて、そのフィーチャの深度(例えば、光学センサとフィーチャとの間の距離)が、三角測量および/または立体画像処理を使用して決定され得る。そのようなフィーチャ深度決定は、環境の中の、任意の数の識別されるフィーチャに対して反復させられ得る。
[0136] ブロック708で方法700は、第1の光学センサの第2の複数のフォト検出器から、第1の視点から知覚されるような、環境の第1の赤外光画像を受信する工程を必然的に含む。方法700で説明される赤外光は、赤外光の特定の帯域(例えば、可能なIR帯域の中でもとりわけ、825nmから875nmまで)の中の光であり得る。環境の第1の赤外光画像は、様々な光源からの、その特定の帯域の中の残存赤外光を捕捉し得る。一部の実施形態では、第1の赤外光画像はさらには、環境上に、テクスチャプロジェクタにより投射される赤外パターンを捕捉し得る。
[0137] ブロック710で方法700は、第2の光学センサの第2の複数のフォト検出器から、第2の視点から知覚されるような、環境の第2の赤外光画像を受信する工程を必然的に含む。第1の赤外光画像に類するように、第2の赤外光画像は、環境上に、テクスチャプロジェクタにより投射される赤外パターンを捕捉し得る。
[0138] ブロック712で方法700は、環境の第2の対応するフィーチャを、第1の赤外光画像と、第2の赤外光画像との間で識別する工程を必然的に含む。特定の赤外帯域の中の残存赤外光は、環境の中の物体または表面の所定のフィーチャを検出するための妥当な照射を提供し得る。加えて、環境上に投射される赤外パターンは、さもなければ、薄暗く照らされる、または、フィーチャのない、環境内の表面上に、検出可能なフィーチャを生み出す。ブロック706について説明されたように、コンピューティングデバイスは、環境内のフィーチャ(自然に実在する、および/または、人工的に投射されるフィーチャ)を識別し、2つの赤外光画像の間の、それらの識別されたフィーチャの相対的な画素場所を決定し、それらのフィーチャの深度を、三角測量および/または立体画像処理を使用して決定し得る。
[0139] ブロック714で方法700は、深度推定値を、環境内の少なくとも1つの表面に対して、第1の対応するフィーチャ、および、第2の対応するフィーチャに基づいて決定する工程を必然的に含む。単一の表面の文脈では、コンピューティングデバイスは、第1の深度推定値を、その表面に対して、第1の対応するフィーチャに基づいて決定し、第2の深度推定値を、その表面に対して、第2の対応するフィーチャに基づいて決定し得る。コンピューティングデバイスは、立体画像処理および/または三角測量技法を、第1および第2の深度推定値を決定するために用い得る。一部の実施形態では、コンピューティングデバイスは、組み合わされた深度推定値を、第1および第2の深度推定値を平均化することにより決定し得る。
[0140] 所与の表面の特定のフィーチャは、可視光画像または赤外光画像のいずれかで識別されるのみであり得る。そのような事例では、深度推定値を決定することは、深度推定値を、画像の対であって、それからその特定のフィーチャが識別され得る、画像の対に基づいて決定することを必然的に含み得る。
[0141] 全体的な環境(または、複数個の表面を内に含む、環境の一部分)の文脈では、コンピューティングデバイスは、可視光ベースの深度マップを、環境内の様々な表面に対して、可視光画像の間の、識別された対応するフィーチャに基づいて生成し、赤外光ベースの深度マップを、環境内の様々な表面に対して、赤外光画像の間の、識別された対応するフィーチャに基づいて生成し得る。可視光ベースの深度マップは、深度情報を、環境の薄暗く照らされる部分に対して欠くことがあり、一方で、赤外光ベースの深度マップは、深度情報を、環境の明るく照らされる部分に対して欠くことがある。一部の実現形態では、コンピューティングデバイスは、組み合わされた深度マップを決定することを、2つの深度マップの一方を「ベース」深度マップとして選択し、次いで、選択された深度マップから欠落している深度情報を、他方の深度マップから含めることにより行い得る。
[0142] 他の実現形態では、コンピューティングデバイスは、組み合わされた深度マップを決定することを、特有な深度情報をいずれかの深度マップから含め、所与の表面に対する深度情報が両方の深度マップに実在する場合、両方の深度マップからの深度情報を、その所与の表面に対して平均化することにより行い得る。例えばコンピューティングデバイスは、どの深度情報が可視光ベースの深度マップに特有であるか、どの深度情報が赤外光ベースの深度マップに特有であるか、および、どの深度情報が両方の深度マップに実在するかを決定し得る。最初にコンピューティングデバイスは、各々の深度マップからの特有な深度情報をまとめ得る、または、他の形で一体に結び付け得る。次いでコンピューティングデバイスは、深度情報を、表面であって、それらの深度が両方の深度マップに存在する、表面に対して平均化し、その平均化された深度情報を、特有な深度情報と、まとめて、または、他の形で組み合わせて、組み合わされた深度マップを形成し得る。
[0143] 「深度マップ」および「深度画像」は、環境内の表面の空間的な深度情報を指し得るということに留意されたい。深度マップの例の表現が、下記の図11Bおよび図11Dで図示される。
[0144] 一部の実例では、コンピューティングデバイスは、方法700の、1つまたは複数のブロックを反復させて、複数個の深度推定値を環境に対して決定し得る。例えばコンピューティングデバイスは、方法700を使用して、環境内の1つまたは複数の表面までの深度を指示する深度マップを決定し得る。
[0145] 様々な実施形態では、深度マップまたは深度画像を決定することは、フィーチャを、1つの観点からの画像から識別し、その同じフィーチャを、異なる観点からの別の画像の中で場所決めすることを必然的に含み得る。2つの画像の間の、そのフィーチャの相対的な画素場所は、深度(例えば、光学センサからの距離)を三角測量により決定するための基盤として使用され得る。様々な実現形態では、これらの対応するフィーチャを識別することは、1つまたは複数の相関表面を決定することを必然的に含み得る。本明細書で説明されるような「相関表面」は、1つの画像の中の、画素、および、その近傍(例えば、近接する、または、他の形でその画素の付近の、他の画素)と、異なる画像の中の、2つ以上の画素(例えば、画素、および、それらの近傍)との間の類似性の度合を指し示す、数値的な推定の組み合わせを指す。図8A、図8B、および図8Cは、相関表面が、2つの画像の間の対応するフィーチャの識別での様々な実現形態で使用され得る様式を図解する。様々な実例では、相関表面を決定するとき、左画像内の、所与の画素(画素XLなど)、および、その「近傍」が、右画像内の、1つまたは複数の画素と比較され得る。所与の画素Xを包囲する近傍を、相関表面を決定するときに考慮することが、本例で遂行され得る。加えて、プロセスは裏返しにされ得るものであり、それによって、右画像内の画素は、左画像内の、2つ以上の画素と比較され得るということが理解されるべきである。
[0146] 図8Aは、例の実施形態による、相関表面を決定するための例の構成の概念図解図800である。構成は、環境の、異なる視点を提供するように配置構成される、左光学センサ802と、右光学センサ804とを含む。図8A、図8B、および図8Cについて論考される以下の例は、プロセスであって、それにより相関表面が画素Xに対して決定され得る、プロセスを説明するものである。左光学センサ802により捕捉される画像の画素Xは、x値およびy値座標位置を画像の中で有する、左視点画像の中の画素であり得る。
[0147] 相関表面を画素Xに対して決定するとき、コンピューティングデバイスは、左画像内の画素Xの態様(例えば、明るさ、明度、色、その他)を、画素X、(X+1)、(X+2)、(X-1)、および(X-2)などの、右画像内の、1つまたは複数の画素の態様と比較し得る。コンピューティングデバイスは、左画素Xと、それらの右画像画素の1つまたは複数との間の類似性の度合を決定し得る。2つの画素の間の類似性の度合を表す数値的な値は、本明細書では「相関値」と呼称され得るものであり、それによって、相関値のセットは、相関表面の基盤としての働きをする。本例では、より小さな相関値は、2つの画素の間の、より高い程度の類似性を指し示し、しかるに、より大きな相関値は、2つの画素の間の、より少ない程度の類似性を指し示す。かくして、何らかの「くぼみ」、「谷」、または局在最小値は、他の周囲の画素と比較して、最も高い相対的な程度の類似性を有する2つの画素と解され得るものであり、そのことは、一部の事例では、「マッチ」(例えば、対応するフィーチャ)を意味し得る。
[0148] 例の動作として、コンピューティングデバイスは、相関表面をXに対して決定することを、最初に、画素Xを、画素X、(X+1)、(X+2)、(X-1)、および(X-2)の各々と比較することにより行う。相関表面810は、それらの比較を遂行する後に生成され得る。図8Bで示されるように、相関表面810は、相関表面810での「谷」812により指示されるような、画素(X+1)に対応する点pでの局在最小値を内に含む。この例では、コンピューティングシステムは、かくして、Xでのフィーチャが(X+1)でのフィーチャに対応すると決定し得る。相対的な画素場所を、対応するフィーチャに対して識別することを基に、コンピューティングデバイスは、三角測量を使用して、Xでのフィーチャの深度を、左光学センサ802から点pまでの距離に等しいように決定し得る。そのような三角測量技法は、Xの投射ライン806、および、(X+1)の投射ライン808の交点を決定することを必然的に含み得る。Xに対する投射ライン806は、左光学センサの焦点Fに基づいて決定され得るものであり、(X+1)に対する投射ライン808は、右光学センサの焦点Fに基づいて決定され得る。
[0149] この例では、右画像上の「x」画素が増大するにつれて(例えば、さらに右にある「x」画素)、対応する点pの深度は減少し、反対に、右画像上の「x」画素が減少するにつれて(例えば、さらに左にある「x」画素)、対応する点pの深度は増大するということに留意されたい。かくして、対応するフィーチャの相対的な画素場所を相関表面から識別する後、コンピューティングデバイスはさらには、そのフィーチャの深度を推定し得る。
[0150] さらには、図8Aおよび図8Bについて上記で説明された例は、相関表面を左画像画素Xに対して、互いに水平に近接する右画像画素のセットに対して算出することのプロセスを論考するものであるということに留意されたい。しかしながら、様々な実施形態は、相関表面を算出することを、右画像画素の可能なセットの中でもとりわけ、互いに垂直に近接する右画像画素のセット、画素の2次元アレイを成り立たせる右画像画素のセット、または、所与の右画像画素のあらかじめ決定された半径の中にある右画像画素のセットと、左画像画素Xを比較することにより行うことを必然的に含み得る。相関表面が所与の左画像画素に対して決定される様式は、可能性のある要因の中でもとりわけ、所与のシステム内の2つの光学センサの相対的な位置、または、相関システムを決定するために使用されるコンピューティングデバイスの処理速度を含む、種々の要因に依存し得る。
[0151] 本明細書で説明されるような相関表面は、離散的な相関値の集合体を指し得る。相関表面の、任意の曲線適合、または、連続的な表現は、解説目的で提供されるものであり、様々な実施形態は、関数の表現式(例えば、多項式、または、他の補間される関数)を決定することがあり、または、決定しないことがある。
[0152] 一部の実施形態では、複数個の相関表面が、光の、異なる波長から捕捉される画像に対応して決定され得る。例えば、2つの光学センサが、可視光画像の対、および、赤外光画像の対を捕捉し得る。例のプロセスでは、コンピューティングデバイスは、1つの相関表面を可視光画像の対から決定し、別の相関表面を赤外光画像の対から決定し得る。次いでコンピューティングデバイスは、2つの相関表面を組み合わせて、組み合わされた相関表面を決定し得る。この例のプロセスの例の図解図が、図8Cで示される。
[0153] 例のシナリオでは、フィーチャは、光の、1つの波長帯域の中で検出可能であるのみであり得る。例えば、環境の暗い部分内の表面の所定のフィーチャは、可視光画像に対して、その可視光画像から区別可能なフィーチャを決定するにはあまりにも暗いものであり得る。しかしながら、赤外光プロジェクタは、照射することを、さもなければ暗い表面に行い、フィーチャが赤外光スペクトル内で検出されることを可能とし得る。
[0154] 図8Cでは、可視光画像から決定される、画素Xに対する相関表面830は、何らのくぼみ、谷、または局在最小値も内に含まない。しかしながら、赤外光画像から決定される、画素Xに対する相関表面840は、局在最小値を点pで有する。コンピューティングデバイスは、相関表面830および相関表面840を加算して、組み合わされた相関表面850を決定し得る。対応するp値を、2つの相関表面830および840の間で加算することにより、局在最小値は、相関表面850内で維持される。かくして、異なる光波長から各々は決定された、2つの相関表面を一体に、単純に加算することにより、結果的に生じる組み合わされた相関表面850は、別々の相関表面の両方からの局所最小値を保存し得る。次いでコンピューティングデバイスは、これらの局所最小値を、組み合わされた相関表面850から識別し、それらの局在最小値のどれが、対応するフィーチャを表すかを、所与の画素値によって識別し、その所与の画素値でのフィーチャの深度を、上記で説明されたように決定し得る。
[0155] 局在最小値を識別することは、種々の技法を使用して達成され得る。一部の実現形態では、コンピューティングデバイスは、所与の相関表面での相関値が、しきい値相関値未満であるかどうかを決定し得る。他の実現形態では、コンピューティングデバイスは、所与の相関表面での最も小さな相関値が、2番目に小さな相関値未満であるかどうかを決定し得る。種々の他の技法が、局在最小値を相関表面で識別するために使用され得る。
[0156] 図9は、複数個の深度画像からの情報を組み合わせて、組み合わされた出力深度画像を形成することの概念図解図900である。コンピューティングデバイスは、立体画像処理を、可視光画像Aおよび可視光画像Bに関して用いて、第1の深度画像902を決定し得る。第1の深度画像は、1つまたは複数の光学センサから、環境内の少なくとも1つの表面までの距離のマッピングであり得る。コンピューティングデバイスはさらには、立体画像処理を、IR光画像AおよびIR光画像Bに関して用いて、第2の深度画像904を決定し得る。第1の深度画像に類するように、第2の深度画像は、1つまたは複数の光学センサから、環境内の少なくとも1つの表面までの距離のマッピングであり得る。コンピューティングデバイスは、第1の深度画像902、および、第2の深度画像904を、出力深度画像906を決定するために組み合わせ得る。
[0157] 図10Aは、例の実施形態による、例の環境の概念図解図1000である。例の環境は、壁1008と、テクスチャプロジェクタ1002に対する壁の前方に位置決めされる箱1010とを含む。テクスチャプロジェクタ1002は、壁1008および箱1010から、ある距離に配置され、図6について説明されたようなテクスチャプロジェクタ602と同様に、または同じに、赤外の投射されるパターンを投射するように構成され得る。加えて、第1の光学センサ1004、および、第2の光学センサ1006が、存在し、例の環境の可視光画像および赤外光画像の両方を捕捉し得る。テクスチャプロジェクタ1002、第1の光学センサ1004、および、第2の光学センサ1006は、図6について説明されたような、テクスチャプロジェクタ602、第1の光学センサ604、および、第2の光学センサ606と同様の様式で構成され得る。
[0158] 図10Aで示される例の環境は、明るい光源により部分的に照らされ、それによって環境は、明るいエリア1014(ドットを打たれたパターンを使用して図解される)と、暗いエリア1012とを有する。明るいエリア1014は、人工光源(例えば、電球)により、および/または、太陽光により照射され得る。暗いエリア1012は、物体から環境上に投げかけられる影により生み出され得るものであり、または、環境のその部分に照射する光源を欠くことの結果であり得る。壁1008および箱1010の両方は、図10Aで図解されるように、暗い部分と、明るい部分とを含む。テクスチャプロジェクタ1002は、パターンを環境全体上に投射し得るものであり、しかしながら、光学センサは、赤外の投射されるパターンを、暗いエリア1012上で知覚するのみであり得る。かくして、暗いエリア1012は、その上に投射される赤外パターンを有するように図示される。
[0159] 動作の間、光学センサ1004および1006は、異なる視点からの、可視光画像および赤外光画像の両方を捕捉する。深度情報を、これらの捕捉される画像から決定することのプロセスが、図10Bで図示され、下記で説明される。
[0160] 図解図1000は、明るいエリアを、ドットを使用して図示し、暗いエリアを、可視で知覚可能な投射されるパターンを有するように図示するということに留意されたい。これらの図解されるパターンは、解説目的で提供されるものであり、必ずしも、環境の、光学センサの知覚、または、人間の目の知覚に対応するわけではない。さらには、暗いエリア1012と、明るいエリア1014との間の境界は、図10Aの図解図1000では、はっきりとしたものであるが、他の環境での、暗いエリアと、明るいエリアとの間の境界は、むしろ傾斜をもつものであり得るということに留意されたい。
[0161] 図10Bは、深度を複数個の深度画像から決定することの例の図解図である。図10Bの左側は、深度推定値を、赤外の投射されるパターンにより照射される暗いエリアから決定することを図示する。環境の図解図1020上の、陰を付けられたエリアは、環境の部分であって、その上で、投射されるパターンが、赤外光画像により検出され得るものであり、環境内の表面の深度を決定するために使用される、環境の部分を表す。解説の目的で、表面の深度を、水平セクション1022にわたって推定することが論考される。構造化光処理を使用して、コンピューティングデバイスは、深度情報を、赤外の投射されるパターンにより照射される、環境の暗いエリアの赤外光画像から決定し得る。結果的に生じる深度推定値は、グラフ1024で図示される。左から右に移動すると、遠い壁の深度が検出され、次いで深度は、箱が検出される際に減少し、ついには暗いエリアが終わる(ドットにより表される)。この例では、深度情報は、明るいエリアに対して、赤外光画像に基づいて決定されず、このことはなぜならば、明るい光が、赤外の投射されるパターンを圧倒したということであり、そのことにより、明るいエリア上のフィーチャの洞察を困難にしたからであるということに留意されたい。
[0162] 図10Bの右側は、深度推定値を、明るいエリアから決定することを図示する。環境の図解図1030上の、陰を付けられたエリアは、可視光画像からのフィーチャの視覚的検出を可能とする明るい光により照射され、環境内の表面の深度を決定するために使用される、環境の部分を表す。立体画像処理を使用して、コンピューティングデバイスは、深度情報を、環境の明るいエリアの可視光画像から決定し得る。結果的に生じる深度推定値は、グラフ1034で図示される。左から右に移動すると、深度情報は、暗いエリアに沿って、明るいエリアが到達されるまで決定されない。このことはなぜならば、可視光スペクトルでは、暗いエリアは、深度を検知するために使用されるフィーチャを洞察するための充分な光を提供しないからである。明るいエリアと、暗いエリアとの間のその境界(グラフ1034でのドットにより表される)で、箱の深度が検出され、次いで、壁の深度が検出される。
[0163] グラフ1040は、グラフ1024およびグラフ1034で示される深度推定値からの、組み合わされた深度推定値を図示する。環境は、広い輝度レンジを有していたが、本出願の深度検知技法を用いることが、環境の、明るいエリア、および、暗いエリアの両方の深度推定値を生み出した。図10Aおよび9Bで図解されるように、所与の表面は、明るい部分、および、暗い部分の両方を有し得るものであり、それらの部分は、典型的な立体イメージング技法を使用すると、不充分または不正確な深度情報を、その表面に関して提供することになる。しかしながら、環境内の、可視スペクトル内の光、および、環境上への、特定の赤外帯域の中の投射されるパターンを検出することにより、環境内の表面の、総合的および正確な深度情報が検出され得る。本出願の技法は、太陽で照らされる環境、より暗い屋内の環境、ならびに、光および暗い環境の組み合わせでの、改善された深度検知を提供し得る。
[0164] 図11Aは、例の実施形態による、シーンの例の画像1100である。図11Aで示されるシーンは、開放された車庫または格納庫の扉を含み、その扉を通って太陽光が、地面の一部分に照射する。地面の他の部分、および内壁は、太陽光の輝度との比較では、薄暗く照らされる。典型的な立体画像処理は、図11Bで示されるような、シーンの深度マップ1110を生み出し得る。図11Bでは、環境の黒の部分は、深度情報を欠くことを指示し、一方で、環境の白またはグレーの部分は、その決定された深度情報を指示する(その場合、淡いグレーは、より小さな深度を指示し、暗いグレーは、より大きい深度を指示する)。図11Bで示されるように、深度情報は、シーンの、影で覆われる部分の大部分に対して決定されないことがある。
[0165] 図11Cは、例の実施形態による、投射されるパターンを伴うシーンの例の画像1120である。画像1120は、地面に照射する太陽光、および、環境の、影で覆われる部分に照射する、投射されるパターンの両方を示す。画像1120は、幅広いレンジの光波長を表し得るものであり、同時に、捕捉される可視光および/または赤外光を、解説の目的で図示し得るということに留意されたい。本出願の、組み合わされた赤外および可視光深度検知を遂行することにより、コンピューティングデバイスは、図11Dで示されるような、シーンの深度マップ1130を生成し得る。図11Bで示される深度マップ1110とは違い、図11Dで示される深度マップ1130は、シーンの、影で覆われる部分からの深度情報(赤外光画像から、構造化光処理を使用して導出されたものであり得る)を含む。深度マップ1110と比較して、組み合わされた可視光および赤外光深度検知から決定される深度マップ1130は、より総合的な深度情報を提供する。
[0166] 本明細書で説明される配置構成は、単に例の目的でのものであるということが理解されるべきである。したがって当業者は、他の配置構成、および、他の要素(例えば、機械、インターフェイス、機能、順序、および、機能のグループ化、その他)が、代わりに使用され得るものであり、一部の要素は、所望される結果によって一切が省略され得るということを察知するであろう。さらに、説明される要素の多くは、離散的な、もしくは分散型の構成要素として、または、他の構成要素との連関で、任意の適した組み合わせおよび場所で実現され得る機能エンティティである。
[0167] 様々な態様および実施形態が本明細書で開示されたが、他の態様および実施形態が、当業者には明らかであろう。本明細書で開示された様々な態様および実施形態は、図解の目的でのものであり、制限的であることは意図されず、真の範囲は、以下の特許請求の範囲に、併せて、そのような特許請求の範囲が権利を付与される均等物の最大限の範囲により指示される。本明細書で使用される専門用語は、単に特定の実施形態を説明する目的でのものであり、制限的であることは意図されないということが、さらには理解されることになる。
[0168] 詳細での、多くの修正、変形、および変更が、説明された例に対して為され得るので、先の説明での、および、付随する図で示される、すべての事柄は、図解的である、および、制限的な主意でのものではないと解されるということが意図される。さらに、以下のことが本説明の態様をさらに説明するということが、理解されることを意図される。

Claims (20)

  1. 第1の光学センサ、および、第2の光学センサであって、各々の光学センサは、特定の赤外帯域の中の赤外光を捕捉するように構成される第2の複数のフォト検出器が間に散在する、可視光を捕捉するように構成される第1の複数のフォト検出器を備える、第1の光学センサ、および、第2の光学センサと、
    前記特定の赤外帯域の中の波長の赤外光を環境上に投射するように構成される光源と、
    コンピューティングデバイスであって、
    前記環境の第1の対応するフィーチャを、前記第1の光学センサにより捕捉される第1の可視光画像と、前記第2の光学センサにより捕捉される第2の可視光画像との間で識別することと、
    前記環境の第2の対応するフィーチャを、前記第1の光学センサにより捕捉される第1の赤外光画像と、前記第2の光学センサにより捕捉される第2の赤外光画像との間で識別することと、
    深度推定値を、前記環境内の少なくとも1つの表面に対して、前記第1の対応するフィーチャ、および、前記第2の対応するフィーチャに基づいて決定することと
    を行うように構成される、コンピューティングデバイスと
    を備えるシステム。
  2. 前記深度推定値を、前記環境内の少なくとも1つの表面に対して決定することは、
    前記環境内の少なくとも1つの表面の第1の深度推定値を、前記第1の対応するフィーチャに基づいて決定することと、
    前記環境内の少なくとも1つの表面の第2の深度推定値を、前記第2の対応するフィーチャに基づいて決定することと、
    前記深度推定値として、少なくとも1つの表面の組み合わされた深度推定値を、前記第1の深度推定値、および、前記第2の深度推定値に基づいて決定することと
    を含む、請求項1に記載のシステム。
  3. 前記組み合わされた深度推定値を決定することは、前記第1の深度推定値、および、前記第2の深度推定値を平均化して、前記組み合わされた深度推定値を決定することを含む、請求項2に記載のシステム。
  4. 前記光源は、あらかじめ決定されたテクスチャパターンを前記環境上に投射するように構成されるテクスチャプロジェクタである、請求項1に記載のシステム。
  5. 前記コンピューティングシステムは、前記テクスチャプロジェクタが、前記あらかじめ決定されたテクスチャパターンを前記環境上に投射することを、前記第1の赤外光画像、および、前記第2の赤外光画像が捕捉される前に引き起こすようにさらに構成される、請求項4に記載のシステム。
  6. 各々の光学センサの、前記第1の複数のフォト検出器、および、前記第2の複数のフォト検出器は、チェッカーボードパターンで配置構成される、請求項1に記載のシステム。
  7. ロボティックマニピュレータをさらに備え、前記少なくとも2つの光学センサは、前記ロボティックマニピュレータに結合される、請求項1に記載のシステム。
  8. 前記光源は、前記ロボティックマニピュレータに結合される、請求項7に記載のシステム。
  9. 前記コンピューティングデバイスは、
    組み合わされた深度推定値が決定されたときからの時間の長さを決定するように、ならびに、
    時間のしきい値長さを上回る時間の前記長さに基づいて、(i)前記第1の対応するフィーチャを識別する工程、(ii)前記第2の対応するフィーチャを識別する工程、および、(iii)前記深度推定値を決定する工程を反復させるように、
    さらに構成される、請求項1に記載のシステム。
  10. 第1の複数のフォト検出器と、第2の複数のフォト検出器とを備える、フォト検出器の平面状アレイであって、各々のフォト検出器は、電荷を、前記フォト検出器上に入射する光の強度に基づいて生成するように構成される、フォト検出器の平面状アレイと、
    可視光を前記第1の複数のフォト検出器上に通過させるように構成される第1の複数のフィルタと、特定の赤外帯域の中の赤外光を前記第2の複数のフォト検出器上に通過させるように構成される第2の複数のフィルタとを備える、フォト検出器の前記平面状アレイに結合される光フィルタアレイであって、前記第1の複数のフィルタは、前記第2の複数のフィルタが間に散在する、光フィルタアレイと、
    制御回路であって、
    可視光画像を、前記第1の複数のフォト検出器からの電荷に基づいて生成することと、
    赤外光画像を、前記第2の複数のフォト検出器からの電荷に基づいて生成することと
    を行うように構成される、制御回路と
    を備える光学センサ。
  11. 前記第1の複数のフィルタ、および、前記第2の複数のフィルタは、チェッカーボードパターンで配置構成される、請求項10に記載の光学センサ。
  12. 前記第1の複数のフィルタは、赤の可視光を通過させるように構成されるフィルタの第1のサブセットと、緑の可視光を通過させるように構成されるフィルタの第2のサブセットと、青の可視光を通過させるように構成されるフィルタの第3のサブセットとを備える、請求項10に記載の光学センサ。
  13. 前記第1の複数のフィルタ、および、前記第2の複数のフィルタは、複数のフィルタモザイクを備える正方形タイリングパターンを形成するように配置構成され、各々のフィルタモザイクは、(1)赤の可視光を通過させる前記第1のサブセットのフィルタと、(2)緑の可視光を通過させる前記第2のサブセットのフィルタと、(3)赤の可視光を通過させる前記第3のサブセットのフィルタと、(4)前記特定の赤外帯域の中の赤外光を通過させる前記第2の複数のフィルタのうちのフィルタとを備える、請求項12に記載の光学センサ。
  14. 前記制御回路は、
    時間の第1の継続期間の間中、前記第1の複数のフォト検出器が、可視光を捕捉して、前記可視光画像が基づく前記電荷を生成することを引き起こすことと、
    時間の第2の継続期間の間中、前記第2の複数のフォト検出器が、赤外光を捕捉して、前記赤外光画像が基づく前記電荷を生成することを引き起こすことと
    を行うようにさらに構成され、
    時間の前記第2の継続期間は、時間の前記第1の継続期間より大きい、請求項10に記載の光学センサ。
  15. 前記制御回路は、
    前記第1の複数のフォト検出器により生成される前記電荷を、第1のゲイン値により増幅することと、
    前記第2の複数のフォト検出器により生成される前記電荷を、第2のゲイン値により増幅することと
    を行うようにさらに構成され、
    前記第2のゲイン値は、前記第1のゲイン値より大きい、請求項10に記載の光学センサ。
  16. 前記第1の複数のフォト検出器内のいくつかのフォト検出器は、前記第2の複数のフォト検出器内のいくつかのフォト検出器より多い、請求項10に記載の光学センサ。
  17. 第1の光学センサの第1の複数のフォト検出器から、第1の視点から知覚されるような、環境の第1の可視光画像を受信する工程と、
    第2の光学センサの第1の複数のフォト検出器から、第2の視点から知覚されるような、前記環境の第2の可視光画像を受信する工程と、
    前記第1の光学センサの第2の複数のフォト検出器から、前記第1の視点から知覚されるような、前記環境の第1の赤外光画像を受信する工程であって、前記第1の光学センサの前記第2の複数のフォト検出器は、特定の赤外帯域の中の赤外光を捕捉するように構成される、受信する工程と、
    前記第2の光学センサの第2の複数のフォト検出器から、前記第2の視点から知覚されるような、前記環境の第2の赤外光画像を受信する工程であって、前記第2の光学センサの前記第2の複数のフォト検出器は、前記特定の赤外帯域の中の赤外光を捕捉するように構成される、受信する工程と、
    コンピューティングデバイスにより、前記環境の第1の対応するフィーチャを、前記第1の可視光画像と、前記第2の可視光画像との間で識別する工程と、
    前記コンピューティングデバイスにより、前記環境の第2の対応するフィーチャを、前記第1の赤外光画像と、前記第2の赤外光画像との間で識別する工程と、
    前記コンピューティングデバイスにより、深度推定値を、前記環境内の少なくとも1つの表面に対して、前記第1の対応するフィーチャ、および、前記第2の対応するフィーチャに基づいて決定する工程と
    を含む方法。
  18. 前記深度推定値を、前記環境内の少なくとも1つの表面に対して決定する工程は、
    前記環境内の少なくとも1つの表面の第1の深度推定値を、前記第1の対応するフィーチャに基づいて決定する工程と、
    前記環境内の少なくとも1つの表面の第2の深度推定値を、前記第2の対応するフィーチャに基づいて決定する工程と、
    前記深度推定値として、少なくとも1つの表面の組み合わされた深度推定値を、前記第1の深度推定値、および、前記第2の深度推定値に基づいて決定する工程と
    を含む、請求項17に記載の方法。
  19. テクスチャプロジェクタが、あらかじめ決定されたテクスチャパターンを前記環境上に投射することを引き起こす工程であって、前記あらかじめ決定されたテクスチャパターンは、前記特定の赤外帯域の中の波長の赤外光である、引き起こす工程
    をさらに含む、請求項18に記載の方法。
  20. 前記第2の深度推定値を決定する工程は、
    前記環境内の特定の表面の第1の位置を、前記第1の赤外光画像内で決定する工程と、
    前記環境内の前記特定の表面の第2の位置を、前記第2の赤外光画像内で決定する工程と、
    三角測量を使用して、前記第2の深度推定値を、前記第1の位置、前記第2の位置、および、前記第2の光学センサの位置に対する前記第1の光学センサの位置に基づいて決定する工程と
    を含む、請求項18に記載の方法。
JP2017548945A 2015-03-30 2016-03-30 視覚光、および、赤外の投射されるパターンを検出するためのイメージャ Active JP6461369B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/672,369 US9694498B2 (en) 2015-03-30 2015-03-30 Imager for detecting visual light and projected patterns
US14/672,369 2015-03-30
PCT/US2016/024929 WO2016160930A1 (en) 2015-03-30 2016-03-30 Imager for detecting visual light and infrared projected patterns

Publications (2)

Publication Number Publication Date
JP2018511796A true JP2018511796A (ja) 2018-04-26
JP6461369B2 JP6461369B2 (ja) 2019-01-30

Family

ID=55750475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017548945A Active JP6461369B2 (ja) 2015-03-30 2016-03-30 視覚光、および、赤外の投射されるパターンを検出するためのイメージャ

Country Status (7)

Country Link
US (3) US9694498B2 (ja)
EP (1) EP3278058B1 (ja)
JP (1) JP6461369B2 (ja)
KR (1) KR101967088B1 (ja)
CN (2) CN107667527B (ja)
AU (1) AU2016243617B2 (ja)
WO (1) WO2016160930A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021193238A1 (ja) * 2020-03-27 2021-09-30 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
US20220130060A1 (en) * 2020-10-28 2022-04-28 Stmicroelectronics (Research & Development) Limited Scalable Depth Sensor
WO2024029142A1 (ja) * 2022-08-01 2024-02-08 株式会社日立製作所 センシング装置およびセンシング方法

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016054656A1 (en) * 2014-10-03 2016-04-07 Wynright Corporation Perception-based robotic manipulation system and method for automated truck unloader that unloads/unpacks product from trailers and containers
JP6782239B2 (ja) * 2015-01-06 2020-11-11 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc パターン光を用いた深さマップを提供するための方法およびシステム
US10205929B1 (en) * 2015-07-08 2019-02-12 Vuu Technologies LLC Methods and systems for creating real-time three-dimensional (3D) objects from two-dimensional (2D) images
US10421559B2 (en) * 2015-08-30 2019-09-24 Farzad Soudbakhsh Robotic handling system (RHS)
NL2015542B1 (en) * 2015-10-01 2017-04-20 Rexnord Flattop Europe Bv Planning system and method for maintaining a cycle time in an automobile factory.
US9682481B2 (en) 2015-10-26 2017-06-20 X Development Llc Communication of information regarding a robot using an optical identifier
WO2017092809A1 (en) * 2015-12-03 2017-06-08 Abb Schweiz Ag A method for teaching an industrial robot to pick parts
US10257498B2 (en) * 2015-12-04 2019-04-09 Empire Technology Development Llc Coordination of multiple structured light-based 3D image detectors
US11198284B2 (en) * 2015-12-21 2021-12-14 2679667 Ontario Inc. Large format 3D printing augmented with 3D scanning and anomoly tracking feedback
US10030968B2 (en) * 2016-02-08 2018-07-24 Youspace, Inc. Floor estimation for human computer interfaces
CA3014766A1 (en) 2016-03-01 2017-09-08 Magic Leap, Inc. Depth sensing systems and methods
JP6378232B2 (ja) * 2016-03-17 2018-08-22 ファナック株式会社 複数の種類の物品を積み付けるための積み付けパターン計算装置および積み付け装置
US20170270654A1 (en) * 2016-03-18 2017-09-21 Intel Corporation Camera calibration using depth data
KR102597435B1 (ko) * 2016-04-20 2023-11-03 엘지이노텍 주식회사 영상 취득 장치 및 그 방법
DE102016109919A1 (de) * 2016-05-30 2017-11-30 Carl Zeiss Ag Vorrichtung zur Vermessung von Objekten
PL3507216T3 (pl) * 2016-08-04 2021-07-12 Opex Corporation Zautomatyzowany system magazynowania i odbierania z detektorem do wykrywania przedmiotów wystających poza wartość graniczną wymiarów
US10597235B2 (en) 2016-10-20 2020-03-24 Intelligrated Headquarters, Llc Carton unloader tool for jam recovery
US10315866B2 (en) * 2016-10-20 2019-06-11 Intelligrated Headquarters, Llc 3D-2D vision system for robotic carton unloading
US10033988B2 (en) 2016-10-31 2018-07-24 Verizon Patent And Licensing Inc. Methods and systems for capturing depth data using frequency-segregated structured light
US10437342B2 (en) 2016-12-05 2019-10-08 Youspace, Inc. Calibration systems and methods for depth-based interfaces with disparate fields of view
KR102595391B1 (ko) 2016-12-07 2023-10-31 매직 아이 인코포레이티드 조정 가능한 초점 이미징 센서를 포함한 거리 센서
US10815080B2 (en) * 2017-01-11 2020-10-27 Omnitracs, Llc Automatic truck loading and unloading system
US10620316B2 (en) * 2017-05-05 2020-04-14 Qualcomm Incorporated Systems and methods for generating a structured light depth map with a non-uniform codeword pattern
US11821985B2 (en) * 2017-06-02 2023-11-21 Pixart Imaging Inc. Mobile robot performing multiple detections using image frames of same optical sensor
US11752635B2 (en) 2017-06-02 2023-09-12 Pixart Imaging Inc. Mobile robot performing multiple detections using image frames of same optical sensor
US10627518B2 (en) 2017-06-02 2020-04-21 Pixart Imaging Inc Tracking device with improved work surface adaptability
EP3637045B1 (en) * 2017-06-07 2023-05-24 Sony Semiconductor Solutions Corporation Information processing device and method
US20180370028A1 (en) * 2017-06-24 2018-12-27 Elizabeth Marie De Zulueta Autonomous Robotic Aide
CN109213138B (zh) * 2017-07-07 2021-09-14 北京臻迪科技股份有限公司 一种避障方法、装置及系统
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
US20190068853A1 (en) * 2017-08-22 2019-02-28 Microsoft Technology Licensing, Llc Structured light and flood fill light illuminator
US10535151B2 (en) 2017-08-22 2020-01-14 Microsoft Technology Licensing, Llc Depth map with structured and flood light
WO2019055625A1 (en) * 2017-09-14 2019-03-21 Walmart Apollo, Llc SYSTEM AND METHOD FOR OPTIMIZING PALLETS
EP3684699A4 (en) * 2017-09-20 2021-06-16 Magna International Inc. SYSTEM AND PROCESS FOR SAMPLING IN ADAPTIVE BIN FOR MANUFACTURING
US10521920B2 (en) * 2017-09-21 2019-12-31 Intel Corporation Reducing textured IR patterns in stereoscopic depth sensor imaging
EP3692396A4 (en) 2017-10-08 2021-07-21 Magik Eye Inc. DISTANCE MEASUREMENT USING A LONGITUDINAL GRID PATTERN
CN107749070B (zh) * 2017-10-13 2020-06-02 京东方科技集团股份有限公司 深度信息的获取方法和获取装置、手势识别设备
US20190187721A1 (en) * 2017-12-15 2019-06-20 Ankobot (Shanghai) Smart Technologies Co., Ltd. Control method and system, and mobile robot using the same
TW201927497A (zh) * 2017-12-25 2019-07-16 由田新技股份有限公司 機械手臂自動加工系統及其方法及非暫態電腦可讀取記錄媒體
US10802117B2 (en) 2018-01-24 2020-10-13 Facebook Technologies, Llc Systems and methods for optical demodulation in a depth-sensing device
US10805594B2 (en) * 2018-02-08 2020-10-13 Facebook Technologies, Llc Systems and methods for enhanced depth sensor devices
US10735640B2 (en) 2018-02-08 2020-08-04 Facebook Technologies, Llc Systems and methods for enhanced optical sensor devices
JP7253323B2 (ja) * 2018-02-14 2023-04-06 オムロン株式会社 3次元計測システム及び3次元計測方法
JP2019150930A (ja) * 2018-03-05 2019-09-12 国立大学法人 筑波大学 溶接ロボット動作教示システム、溶接ロボット動作教示方法およびプログラム
CN114827573A (zh) 2018-03-20 2022-07-29 魔眼公司 调整相机曝光以用于三维深度感测和二维成像
KR20200123849A (ko) 2018-03-20 2020-10-30 매직 아이 인코포레이티드 가변 밀도들의 투영 패턴을 사용하는 거리 측정
US10818024B2 (en) * 2018-03-26 2020-10-27 Simmonds Precision Products, Inc. Ranging objects external to an aircraft using multi-camera triangulation
CN108648225B (zh) * 2018-03-31 2022-08-02 奥比中光科技集团股份有限公司 目标图像获取系统与方法
WO2019191819A1 (en) * 2018-04-05 2019-10-10 Efficiency Matrix Pty Ltd Computer implemented structural thermal audit systems and methods
KR101965529B1 (ko) * 2018-04-06 2019-04-03 한양대학교 산학협력단 양자점층을 포함하는 듀얼 이미지 센서
EP3792189A4 (en) * 2018-05-09 2022-01-26 Kawasaki Jukogyo Kabushiki Kaisha SAMPLING METHOD AND SAMPLING SYSTEM
CN108629325B (zh) * 2018-05-11 2021-06-22 北京旷视科技有限公司 物品位置的确定方法、装置及系统
CN110533709B (zh) * 2018-05-23 2023-02-07 杭州海康威视数字技术股份有限公司 深度图像获取方法、装置及系统、图像采集设备
US10785422B2 (en) * 2018-05-29 2020-09-22 Microsoft Technology Licensing, Llc Face recognition using depth and multi-spectral camera
EP3803266A4 (en) 2018-06-06 2022-03-09 Magik Eye Inc. DISTANCE MEASUREMENT USING HIGH DENSITY PROJECTION PATTERNS
US11407111B2 (en) * 2018-06-27 2022-08-09 Abb Schweiz Ag Method and system to generate a 3D model for a robot scene
US10867408B1 (en) * 2018-07-23 2020-12-15 Apple Inc. Estimation of spatial relationships between sensors of a multi-sensor device
US11475584B2 (en) 2018-08-07 2022-10-18 Magik Eye Inc. Baffles for three-dimensional sensors having spherical fields of view
US11473969B2 (en) 2018-08-09 2022-10-18 Ouster, Inc. Channel-specific micro-optics for optical arrays
US10739189B2 (en) * 2018-08-09 2020-08-11 Ouster, Inc. Multispectral ranging/imaging sensor arrays and systems
CN110855961A (zh) * 2018-08-20 2020-02-28 奇景光电股份有限公司 深度感测装置及其操作方法
CN112105892A (zh) 2018-09-12 2020-12-18 谷歌有限责任公司 使用运动数据和面元数据识别地图特征
EP3855215A4 (en) * 2018-09-18 2021-11-10 Panasonic Intellectual Property Management Co., Ltd. DEPTH ACQUISITION DEVICE, DEPTH ACQUISITION PROCESS AND PROGRAM
WO2020080758A1 (ko) * 2018-10-15 2020-04-23 주식회사 고영테크놀러지 검사를 위한 장치, 방법 및 명령을 기록한 기록 매체
CN109889803B (zh) * 2019-01-10 2022-03-29 奥比中光科技集团股份有限公司 一种结构光图像获取方法及装置
WO2020150131A1 (en) * 2019-01-20 2020-07-23 Magik Eye Inc. Three-dimensional sensor including bandpass filter having multiple passbands
US11023763B2 (en) * 2019-03-19 2021-06-01 Boston Dynamics, Inc. Detecting boxes
US11474209B2 (en) 2019-03-25 2022-10-18 Magik Eye Inc. Distance measurement using high density projection patterns
CN109905175B (zh) * 2019-03-26 2021-02-05 Oppo广东移动通信有限公司 飞行时间组件的控制系统和终端
TR201905154A2 (tr) * 2019-04-05 2020-10-21 Jeanologia Teknoloji A S Atalet ölçüm üni̇tesi̇ (imu) ve telli̇ kodlayici konum sensörleri̇ kullanilan üç boyutlu pozi̇syon ve oryantasyon hesaplama ve roboti̇k uygulamasi terti̇bati
US11019249B2 (en) 2019-05-12 2021-05-25 Magik Eye Inc. Mapping three-dimensional depth map data onto two-dimensional images
US10696494B1 (en) 2019-05-31 2020-06-30 Mujin, Inc. Robotic system for processing packages arriving out of sequence
US11077554B2 (en) 2019-05-31 2021-08-03 Mujin, Inc. Controller and control method for robotic system
US10618172B1 (en) 2019-05-31 2020-04-14 Mujin, Inc. Robotic system with error detection and dynamic packing mechanism
US10696493B1 (en) 2019-05-31 2020-06-30 Mujin, Inc. Robotic system with packing mechanism
US10679379B1 (en) 2019-05-31 2020-06-09 Mujin, Inc. Robotic system with dynamic packing mechanism
US10647528B1 (en) 2019-05-31 2020-05-12 Mujin, Inc. Robotic system for palletizing packages using real-time placement simulation
WO2020243901A1 (en) * 2019-06-04 2020-12-10 Texas Instruments Incorporated An optical time of flight sensor for navigation systems in robotic applications
US11688030B2 (en) * 2019-06-12 2023-06-27 Frito-Lay North America, Inc. Shading topography imaging for robotic unloading
CN111121663B (zh) * 2019-06-20 2022-09-06 杭州光粒科技有限公司 物体三维形貌测量方法、系统和计算机可读存储介质
CN110220478A (zh) * 2019-06-25 2019-09-10 杭州晶一智能科技有限公司 一种规则物体三维尺寸的快速测量方法
US11131584B2 (en) * 2019-08-01 2021-09-28 Viavi Solutions Inc. Sensor device
GB2589419A (en) * 2019-08-09 2021-06-02 Quantum Leap Tech Limited Fabric maintenance sensor system
CN110360954B (zh) * 2019-08-14 2021-05-04 山东师范大学 一种基于空间坐标计算的面形测量方法与系统
US11407117B1 (en) * 2019-08-20 2022-08-09 X Development Llc Robot centered augmented reality system
JP6965910B2 (ja) * 2019-08-27 2021-11-10 セイコーエプソン株式会社 動作方法および表示装置
WO2021096930A1 (en) * 2019-11-12 2021-05-20 Google Llc Volumetric performance capture with relighting
CN114730010A (zh) 2019-12-01 2022-07-08 魔眼公司 利用飞行时间信息增强基于三角测量的三维距离测量
WO2021118702A1 (en) 2019-12-12 2021-06-17 Mujin, Inc. Method and computing system for performing motion planning based on image information generated by a camera
EP4094181A4 (en) 2019-12-29 2024-04-03 Magik Eye Inc ASSIGNMENT OF THREE-DIMENSIONAL COORDINATES TO TWO-DIMENSIONAL FEATURE POINTS
US11580654B2 (en) * 2019-12-30 2023-02-14 Qualcomm Incorporated Alternating light distributions for active depth sensing
JP2023510738A (ja) 2020-01-05 2023-03-15 マジック アイ インコーポレイテッド 3次元カメラの座標系を2次元カメラの入射位置に移動させる方法
CN111358424B (zh) * 2020-03-17 2022-10-25 苏州微清医疗器械有限公司 一种眼底成像亮度调节方法以及眼底相机
CN111844035B (zh) * 2020-07-17 2022-04-15 炬星科技(深圳)有限公司 机器人标定方法、设备及存储介质
CN112254664B (zh) * 2020-07-23 2022-06-28 南京优登科技有限公司 高性能部件点云轮廓分析评价方法
US11097414B1 (en) * 2020-12-22 2021-08-24 X Development Llc Monitoring of surface touch points for precision cleaning
CN112883909A (zh) * 2021-03-16 2021-06-01 东软睿驰汽车技术(沈阳)有限公司 基于包围盒的障碍物位置检测方法、装置和电子设备
DE102021114067A1 (de) * 2021-05-31 2022-12-01 Jungheinrich Aktiengesellschaft Flurförderzeug mit einer optischen Überwachungseinrichtung
US11902664B2 (en) 2021-09-22 2024-02-13 Adam A. Locke Cellular telephone with protracting monitor screen and camera
US11700061B1 (en) * 2022-04-05 2023-07-11 Inuitive Ltd. Apparatus for synchronizing operation of optical sensors and a method for using same

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11337815A (ja) * 1998-05-27 1999-12-10 Toshiba Corp 固体撮像装置及びカメラ用測距装置
JP2001189926A (ja) * 1999-12-28 2001-07-10 Mitsubishi Electric Corp 路上監視用撮像装置
JP2001264033A (ja) * 2000-03-17 2001-09-26 Sony Corp 三次元形状計測装置とその方法、三次元モデリング装置とその方法、およびプログラム提供媒体
US20110175983A1 (en) * 2010-01-15 2011-07-21 Samsung Electronics Co., Ltd. Apparatus and method for obtaining three-dimensional (3d) image
WO2012137434A1 (ja) * 2011-04-07 2012-10-11 パナソニック株式会社 立体撮像装置
JP2013172038A (ja) * 2012-02-21 2013-09-02 Panasonic Corp 部品実装装置、撮像装置および撮像方法
JP2013257162A (ja) * 2012-06-11 2013-12-26 Ricoh Co Ltd 測距装置
JP2014035567A (ja) * 2012-08-07 2014-02-24 Chuo Spring Co Ltd 形状計測装置
US20140340287A1 (en) * 2012-01-23 2014-11-20 Washington University Goggle imaging systems and methods
US20150256813A1 (en) * 2014-03-07 2015-09-10 Aquifi, Inc. System and method for 3d reconstruction using multiple multi-channel cameras

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7970177B2 (en) 2006-03-23 2011-06-28 Tyzx, Inc. Enhancing stereo depth measurements with projected texture
US20100246893A1 (en) * 2009-03-26 2010-09-30 Ashwin Dani Method and Apparatus for Nonlinear Dynamic Estimation of Feature Depth Using Calibrated Moving Cameras
US8408821B2 (en) * 2010-10-12 2013-04-02 Omnivision Technologies, Inc. Visible and infrared dual mode imaging system
US9128036B2 (en) * 2011-03-21 2015-09-08 Federal-Mogul Corporation Multi-spectral imaging system and method of surface inspection therewith
JP2012242948A (ja) * 2011-05-17 2012-12-10 Sony Corp 表示制御装置および方法、並びにプログラム
JP2014009997A (ja) * 2012-06-28 2014-01-20 Ricoh Co Ltd 測距装置
KR20140009774A (ko) * 2012-07-13 2014-01-23 삼성전자주식회사 3d 이미지 센서 및 이를 포함하는 시스템
TWI503618B (zh) 2012-12-27 2015-10-11 Ind Tech Res Inst 深度影像擷取裝置、其校正方法與量測方法
CN103995581B (zh) 2013-02-18 2017-03-01 义明科技股份有限公司 光学感测装置以及图像感测装置
US9407837B2 (en) 2013-02-28 2016-08-02 Google Inc. Depth sensor using modulated light projector and image sensor with color and IR sensing
US11265534B2 (en) * 2014-02-08 2022-03-01 Microsoft Technology Licensing, Llc Environment-dependent active illumination for stereo matching
WO2015152829A1 (en) * 2014-04-03 2015-10-08 Heptagon Micro Optics Pte. Ltd. Structured-stereo imaging assembly including separate imagers for different wavelengths
US20170091550A1 (en) * 2014-07-15 2017-03-30 Qualcomm Incorporated Multispectral eye analysis for identity authentication
CN104268871A (zh) * 2014-09-23 2015-01-07 清华大学 基于近红外激光散斑深度估计的方法及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11337815A (ja) * 1998-05-27 1999-12-10 Toshiba Corp 固体撮像装置及びカメラ用測距装置
JP2001189926A (ja) * 1999-12-28 2001-07-10 Mitsubishi Electric Corp 路上監視用撮像装置
JP2001264033A (ja) * 2000-03-17 2001-09-26 Sony Corp 三次元形状計測装置とその方法、三次元モデリング装置とその方法、およびプログラム提供媒体
US20110175983A1 (en) * 2010-01-15 2011-07-21 Samsung Electronics Co., Ltd. Apparatus and method for obtaining three-dimensional (3d) image
WO2012137434A1 (ja) * 2011-04-07 2012-10-11 パナソニック株式会社 立体撮像装置
US20140340287A1 (en) * 2012-01-23 2014-11-20 Washington University Goggle imaging systems and methods
JP2013172038A (ja) * 2012-02-21 2013-09-02 Panasonic Corp 部品実装装置、撮像装置および撮像方法
JP2013257162A (ja) * 2012-06-11 2013-12-26 Ricoh Co Ltd 測距装置
JP2014035567A (ja) * 2012-08-07 2014-02-24 Chuo Spring Co Ltd 形状計測装置
US20150256813A1 (en) * 2014-03-07 2015-09-10 Aquifi, Inc. System and method for 3d reconstruction using multiple multi-channel cameras

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021193238A1 (ja) * 2020-03-27 2021-09-30 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
US20220130060A1 (en) * 2020-10-28 2022-04-28 Stmicroelectronics (Research & Development) Limited Scalable Depth Sensor
US11721031B2 (en) * 2020-10-28 2023-08-08 Stmicroelectronics (Research & Development) Limited Scalable depth sensor
WO2024029142A1 (ja) * 2022-08-01 2024-02-08 株式会社日立製作所 センシング装置およびセンシング方法

Also Published As

Publication number Publication date
KR101967088B1 (ko) 2019-04-08
US20160288330A1 (en) 2016-10-06
EP3278058B1 (en) 2019-05-22
AU2016243617B2 (en) 2018-05-10
CN107667527A (zh) 2018-02-06
US9694498B2 (en) 2017-07-04
US20200025561A1 (en) 2020-01-23
CN111669566A (zh) 2020-09-15
AU2016243617A1 (en) 2017-10-05
KR20170131635A (ko) 2017-11-29
WO2016160930A1 (en) 2016-10-06
JP6461369B2 (ja) 2019-01-30
CN111669566B (zh) 2022-02-22
CN107667527B (zh) 2020-05-15
US20170261314A1 (en) 2017-09-14
EP3278058A1 (en) 2018-02-07
US11209265B2 (en) 2021-12-28
US10466043B2 (en) 2019-11-05

Similar Documents

Publication Publication Date Title
JP6461369B2 (ja) 視覚光、および、赤外の投射されるパターンを検出するためのイメージャ
US20210187736A1 (en) Determining a Virtual Representation of an Environment By Projecting Texture Patterns
US9507995B2 (en) Combination of stereo and structured-light processing
US9659217B2 (en) Systems and methods for scale invariant 3D object detection leveraging processor architecture
US9205562B1 (en) Integration of depth points into a height map
US10455212B1 (en) Projected pattern motion/vibration for depth sensing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181225

R150 Certificate of patent or registration of utility model

Ref document number: 6461369

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250