JP2021052293A - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP2021052293A
JP2021052293A JP2019173588A JP2019173588A JP2021052293A JP 2021052293 A JP2021052293 A JP 2021052293A JP 2019173588 A JP2019173588 A JP 2019173588A JP 2019173588 A JP2019173588 A JP 2019173588A JP 2021052293 A JP2021052293 A JP 2021052293A
Authority
JP
Japan
Prior art keywords
information processing
depth
probability distribution
probability
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019173588A
Other languages
English (en)
Inventor
航平 漆戸
Kohei URUSHIDO
航平 漆戸
琢人 元山
Takuto Motoyama
琢人 元山
政彦 豊吉
Masahiko Toyoshi
政彦 豊吉
駿 李
Shun Ri
駿 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2019173588A priority Critical patent/JP2021052293A/ja
Priority to US17/753,793 priority patent/US20220351400A1/en
Priority to CN202080065342.5A priority patent/CN114531898A/zh
Priority to PCT/JP2020/027951 priority patent/WO2021059695A1/ja
Publication of JP2021052293A publication Critical patent/JP2021052293A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)

Abstract

【課題】物体を高精度に検出することができる情報処理装置、情報処理方法および情報処理プログラムを提案する。【解決手段】情報処理装置は、各々の基線長の方向が交差するように配置された複数のステレオカメラと、複数のステレオカメラによって撮像された撮像画像から、撮像画像に含まれる物体のデプスを推定するデプス推定部と、デプス推定部で推定したデプスと、複数のステレオカメラの基線長の方向に対する物体の縁線の方向の角度に応じて決定されるデプスの信頼度とに基づいて、物体を検出する物体検出部と、を備える。【選択図】図6

Description

本開示は、情報処理装置、情報処理方法および情報処理プログラムに関する。
ドローン等の無人移動体にステレオカメラを取り付け、当該ステレオカメラで撮像した画像から物体を検出する技術が知られている。
例えば特許文献1には、ステレオカメラを含む測距システムを複数備え、各測距システムで求めた複数の測距値のうちの最も小さな値を最終的な測距値とする測距システムが開示されている。また、特許文献2には、複数のステレオカメラを備え、車両のワイパーの動きに応じて、使用するステレオカメラを切り替えるシステムが開示されている。
特開2018−146457号公報 特開2018−32986号公報
ステレオカメラを用いた物体の検出では、例えば左右のカメラから見える物体の視差に基づいて、カメラと物体との距離を測定するが、測定対象の物体がステレオカメラの基線長の方向に延びている場合、距離の測定が難しいという問題がある。
そこで、本開示では、物体を高精度に検出することができる情報処理装置、情報処理方法および情報処理プログラムを提案する。
本開示によれば、各々の基線長の方向が交差するように配置された複数のステレオカメラと、前記複数のステレオカメラによって撮像された撮像画像から、前記撮像画像に含まれる物体のデプスを推定するデプス推定部と、前記デプス推定部で推定したデプスと、前記複数のステレオカメラの基線長の方向に対する前記物体の縁線の方向の角度に応じて決定される前記デプスの信頼度とに基づいて、前記物体を検出する物体検出部と、を備える情報処理装置が提供される。
一般的なステレオカメラシステムの構成を説明するための図である。 ステレオカメラによるデプス推定において、基線長の方向と物体の延伸方向とが異なる場合の一例を示す図である。 ステレオカメラによるデプス推定において、基線長の方向と物体の延伸方向とが同じである場合の一例を示す図である。 デプスが適切に推定できない場合の一例を示す図である。 デプスが適切に推定できない場合の一例を示す図である。 本開示の第1の実施形態に係る情報処理装置の構成を示すブロック図である。 本開示の第1の実施形態に係る情報処理装置が備えるステレオカメラシステムの構成の一例を示す図である。 本開示の第1の実施形態に係る情報処理装置が備えるステレオカメラシステムの構成の一例を示す図である。 本開示の第1の実施形態に係る情報処理装置による情報処理の概要を説明するための図である。 本開示の第1の実施形態に係る情報処理装置が行う情報処理において、RGB画像からエッジ画像を生成する様子を示す図である。 本開示の第1の実施形態に係る情報処理装置が行う情報処理において、Occupancy Grid Mapの一例を示す図である。 本開示の第1の実施形態に係る情報処理装置が行う情報処理において、エッジ画像の一例を示す図である。 本開示の第1の実施形態に係る情報処理装置が備えるステレオカメラシステムにおいて、第一のステレオカメラを示す図である。 本開示の第1の実施形態に係る情報処理装置が行う情報処理において、第一のステレオカメラに対応する、エッジ方向に基づくマップ投票確率(確率分布)の一例を示す図である。 本開示の第1の実施形態に係る情報処理装置が備えるステレオカメラシステムにおいて、第二のステレオカメラを示す図である。 本開示の第1の実施形態に係る情報処理装置が行う情報処理において、第二のステレオカメラに対応する、エッジ方向に基づくマップ投票確率(確率分布)の一例を示す図である。 本開示の第1の実施形態に係る情報処理装置が行う情報処理の一例を示すフローチャートである。 本開示の第2の実施形態に係る情報処理装置の構成を示すブロック図である。 本開示の第2の実施形態に係る情報処理装置が行う情報処理において、ステレオカメラシステムの位置および姿勢が変化した様子を示す図である。 本開示の第2の実施形態に係る情報処理装置が行う情報処理において、ステレオカメラシステムの位置および姿勢が変化した場合のエッジ方向に基づくマップ投票確率(確率分布)の変形の一例を示す図である。 本開示の第2の実施形態に係る情報処理装置が行う情報処理において、ステレオカメラシステムの位置および姿勢が変化した場合のエッジ方向に基づくマップ投票確率(確率分布)の変形の一例を示す図である。 本開示の第2の実施形態に係る情報処理装置が行う情報処理の一例を示すフローチャートである。 本開示の第2の実施形態に係る情報処理装置が行う情報処理の変形例において、ステレオカメラシステムの位置および姿勢が変化した場合のエッジ方向に基づくマップ投票確率(確率分布)の変形の一例を示す図である。 本開示の第2の実施形態に係る情報処理装置が行う情報処理の変形例の一例を示すフローチャートである。 本開示の実施形態に係る情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成例を示す説明図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
なお、説明は以下の順序で行うものとする。
<<1.概要>>
<<2.第1の実施形態>>
<2−1.構成>
<2−2.処理の概要>
<2−3.処理の流れ>
<<3.第2の実施形態>>
<<4.第2の実施形態の変形例>>
<<5.ハードウェア構成例>>
<<6.効果>>
<<1.概要>>
まず、本開示の実施形態に係る情報処理装置が行う情報処理の概要について、図1〜図5を参照しながら説明する。図1は、例えばドローン等の無人移動体に取り付けられる一般的なステレオカメラシステム110の構成を示している。このステレオカメラシステム110は、二つの撮像部(カメラ)110a,110bを備える二眼カメラシステムである。ステレオカメラシステム110は、支持部材120を介して、例えば無人移動体の下部に取り付けられている。
このようなステレオカメラシステム110を用いた物体の検出では、左右の撮像部110a,110bから見える物体の視差に基づいて、例えば三角測量等の手法を利用して物体までの距離(以下、「デプス」という)を推定する。このデプス推定において、例えば図2に示すように、撮像部110aの中心と撮像部110bの中心との間の距離を示す基線長の方向と、測定対象の物体の延伸方向とが平行ではなく、交差しているような関係である場合、右側カメラの映像に写る物体と左側カメラの映像に写る物体との対応関係の把握が容易であるため、デプスを適切に推定することができる。
一方、例えば図3に示すように、基線長の方向と、測定対象の物体の延伸方向とが平行または平行に近い場合、右側カメラの映像に写る物体と左側カメラの映像に写る物体との対応関係の把握が困難であるため、デプスを適切に推定することができない。そのため、例えばステレオカメラシステム110を、基線長の方向と水平方向とが一致するように(図1参照)無人移動体に取り付けて運用した場合、図4のA部に示したような電線を認識することができなかったり、あるいは図5のB部に示すようなビルの天井部分が飛び出ているように認識される、といった不具合が生じる。
そこで、本開示に係る情報処理装置では、例えばV字型に配置した三眼カメラシステムを用いて、二つのステレオカメラによりデプスを推定した後、撮像画像に対してエッジ処理を行い、物体のエッジを検出する。そして、撮像画像に含まれる物体のエッジの方向(以下、「エッジ方向」という)に応じたデプスの信頼度に基づいて、Occupancy Grid Map(占有格子地図)のマップ投票確率を算出し、当該Occupancy Grid Mapに半径することにより、物体を検出する。
<<2.第1の実施形態>>
<2−1.構成>
次に、第一の実施形態に係る情報処理装置1の構成について、図6〜図8を参照しながら説明する。情報処理装置1は、例えばドローン等の無人移動体に搭載され、三眼カメラシステムで撮像した画像から物体を検出する装置である。なお、本実施形態では、情報処理装置1が無人移動体に搭載される例について説明するが、その他にも、工場や自宅等で用いられる自律移動型ロボット、車両、携帯端末等に情報処理装置1を搭載してもよい。情報処理装置1は、図6に示すように、三つの撮像部(カメラ)10a,10b,10cと、制御部20と、記憶部30と、を備えている。
撮像部10a,10b,10cは、例えばレンズおよび絞り等の光学系と、イメージセンサとを有し、被写体を撮像する処理を行う。撮像部10a,10b,10cは、各々が撮像した画像(以下、「撮像画像」という)を、制御部20に出力する。また、撮像部10a,10b,10cは、第一のステレオカメラ11aと第二のステレオカメラ11bとを備えるステレオカメラシステム10を構成する。
ステレオカメラシステム10は、例えば図7に示すように、三つの撮像部10a,10b,10cを備える三眼カメラシステムである。ステレオカメラシステム10は、支持部材12を介して、例えば無人移動体の下部に取り付けられている。撮像部10a,10b,10cは、V字状に配置されている。すなわち、第一、第二のステレオカメラ11a,11bは、第一のステレオカメラ11aの基線長の方向と、第二のステレオカメラ11bの基線長の方向とが直交するように配置されている。
第一のステレオカメラ11aを構成する撮像部10aおよび撮像部10bは、水平方向に並べて配置されている。すなわち、撮像部10aおよび撮像部10bを結ぶ基線長の方向は、水平方向と一致している。また、第二のステレオカメラ11bを構成する撮像部10bおよび撮像部10cは、鉛直方向に並べて配置されている。すなわち、撮像部10bおよび撮像部10cを結ぶ基線長の方向は、鉛直方向と一致している。なお、第一、第二のステレオカメラ11a,11bは、各々の基線長の方向が交差するように配置されていればよく、各々の基線長の方向が直角以外であってもよい。
ここで、第一、第二のステレオカメラ11a,11bの基線長の方向は、水平方向または鉛直方向と一致していなくてもよい。例えば、情報処理装置1では、図7に示したステレオカメラシステム10に代えて、図8に示したステレオカメラシステム10Aを用いてもよい。ステレオカメラシステム10Aにおいて、第一のステレオカメラ11aを構成する撮像部10aおよび撮像部10bは、水平方向または鉛直方向からずらして配置されている。また同様に、第二のステレオカメラ11bを構成する撮像部10bおよび撮像部10cは、水平方向または鉛直方向からずらして配置されている。
制御部20は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)やFPGA(Field Programmable Gate Array)等、種々のプロセッサにより実現することができる。制御部20は、撮像部10a,10b,10cから入力された撮像画像に対して、種々の処理を実行する。制御部20は、デプス推定部21と、エッジ検出部22と、物体検出部23と、を備えている。
デプス推定部21は、第一、第二のステレオカメラ11a,11bによって撮像された撮像画像から、当該撮像画像に含まれる物体のデプスを推定する。デプス推定部21は、撮像部10a,10bから見える物体の視差、撮像部10b,10cから見える物体の視差に基づいて、例えば三角測量等の周知の手法を用いてデプスを推定する。
エッジ検出部22は、第一、第二のステレオカメラ11a,11bによって撮像された撮像画像から、当該撮像画像に含まれる物体のエッジを検出する。なお、「エッジ」とは、物体の境界を示す連続する線のことを示している。エッジ検出部22は、撮像部10a,10b,10cのいずれかによって撮像された単眼画像(RGB画像)から物体のエッジを検出し、エッジ画像を生成する(後記する図10参照)。
物体検出部23は、デプス推定部21によって生成されたデプス情報と、エッジ検出部22によって生成されたエッジ情報とに基づいて、物体を検出する。物体検出部23は、デプス推定部21で推定したデプスと、第一、第二のステレオカメラ11a,11bの基線長の方向に対する物体のエッジ方向の角度に応じて決定されるデプスの信頼度とに基づいて、物体を検出する。なお、物体検出部23における処理の詳細は後記する。
記憶部30は、種々の情報を保持している。記憶部30は、例えば制御部20の各部を実現させるためのプログラムを記憶している。この場合、制御部20は、記憶部30に記憶されているプログラムを展開して実行することにより、各部の機能を実現する。記憶部30は、例えばRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、またはハードディスク、ソリッドステートドライブ、光ディスク等の記憶装置により実現することができる。また、記憶部30は、複数の異なるメモリ等で構成されてもよい。
<2−2.処理の概要>
次に、本実施形態に係る情報処理装置1の処理の概要について、図9〜図16を参照しながら説明する。情報処理装置1では、図9に示すように、画像撮像処理Pr1、デプス推定処理Pr2、エッジ検出処理Pr3、マップ投票確率算出処理Pr4およびマップ投票処理Pr5を、この順番で実施する。
(画像撮像処理Pr1)
画像撮像処理Pr1において、撮像部10a,10b,10cは、例えばRGB画像を撮像し、撮像したRGB画像をデプス推定部21およびエッジ検出部22に出力する。
(デプス推定処理Pr2)
デプス推定処理Pr2において、デプス推定部21は、RGB画像に含まれる物体のデプスを推定し、推定したデプス情報を物体検出部23に出力する。
(エッジ検出処理Pr3)
エッジ検出処理Pr3において、エッジ検出部22は、RGB画像に含まれる物体のエッジを検出する。エッジ検出処理Pr3では、例えば図10に示すように、RGB画像をエッジ画像に変換し、エッジの位置および方向に関する情報を含むエッジ情報を物体検出部23に出力する。
(マップ投票確率算出処理Pr4)
マップ投票確率算出処理Pr4において、物体検出部23は、Occupancy Grid Mapのマップ投票確率を算出する。ここで、「Occupancy Grid Map」とは、例えば図11に示すように、RGB画像に含まれる空間を格子状に分割し、上方から俯瞰した地図のことを示している。情報処理装置1が搭載された無人移動体では、このOccupancy Grid Mapに基づいて、移動経路上における障害物の有無を把握する。同図において、濃い斜線を付した格子は「物体あり」、空白の格子は「物体なし」、薄い斜線を付した格子は「物体の有無が不明」、ということを示している。
マップ投票確率とは、物体がOccupancy Grid Mapの各格子を占有する確率を示している。図11に示したOccupancy Grid Mapにおいて、例えばある格子(Cell i)における事象の事後確率(ある格子を物体が占有している確率)は、下記式(1)で示すことができる。
Figure 2021052293
また、上記式(1)は、下記式(2)により算出することができる。すなわち、「時刻tまでの事象の事後確率」は、「1時刻前までの事象の事後確率」に対して「現時刻の観測に基づくマップ投票確率」を掛け合わせることにより求めることができる。すなわち、1時刻前までOccupancy Grid Mapとして保有している確率に対して、現在の観測に基づく確率を掛け合わせることにより、現在のOccupancy Grid Mapとする。
Figure 2021052293
本実施形態では、上記式(2)における「p(m|z,x)」を、下記式(3)により求める。すなわち、「観測事象の距離に基づくマップ投票確率(第一の確率分布)」に対して「観測事象のエッジ方向に基づくマップ投票確率(第二の確率分布)」を掛け合わせることにより、「現時刻の観測に基づくマップ投票確率」を求める。すなわち、マップ投票確率を三次元的に求める。
Figure 2021052293
マップ投票確率算出処理Pr4において、物体検出部23は、デプス推定部21で推定したデプスに基づく第一の確率分布と、デプスの信頼度を示す第二の確率分布とを算出する。ここで、第一の確率分布は、上記式(3)における「観測事象の距離に基づくマップ投票確率」のことを示しており、第二の確率分布は、上記式(3)における「観測事象のエッジ方向に基づくマップ投票確率」のことを示している。
「デプスの信頼度」とは、撮像画像において物体のエッジが存在する位置における確率分布であって、基線長の方向に対するエッジ方向が直角に近いほど、高い確率を有する確率分布のことを示している。
例えば、エッジ検出部22によって、図12に示すように、水平方向のエッジおよび鉛直方向のエッジを検出した場合を考える。この場合、図13に示すような「基線長の方向=水平方向」である第一のステレオカメラ11aに対応する第二の確率分布は、図14に示すように、基線長に対して直角な鉛直方向のエッジに対して最も高い確率が乗るような分布となる。一方、図15に示すような「基線長の方向=鉛直方向」である第二のステレオカメラ11bに対応する第二の確率分布は、図16に示すように、基線長に対して直角な水平方向のエッジに対して最も高い確率が乗るような分布となる。
このように、マップ投票確率算出処理Pr4では、第一、第二のステレオカメラ11a,11bの撮像画像から推定したデプスがどれくらい信頼できるのかという信頼度を、例えば図14および図16に示すような二次元の正規分布として近似する。
マップ投票確率算出処理Pr4において、物体検出部23は、第一の確率分布および第二の確率分布に基づいて、Occupancy Grid Mapにおけるマップ投票確率を算出する。すなわち、物体検出部23は、上記の式(3)に示すように、第一の確率分布(物体までの距離に基づくマップ投票確率)および第二の確率分布(物体のエッジ方向に基づくマップ投票確率)を掛け合わせることにより、マップ投票確率を算出する。
(マップ投票処理Pr5)
マップ投票処理Pr5において、物体検出部23は、算出したマップ投票確率に基づいて各格子に投票を行うことによりOccupancy Grid Mapを作成する。情報処理装置1は、このように作成したOccupancy Grid Mapに基づいて物体を検出する。
<2−3.処理の流れ>
次に、本実施形態に係る情報処理装置1の処理の流れについて、図17を参照しながら説明する。まず、制御部20は、第一、第二のステレオカメラ11a,11bによって撮像された画像を取得する(ステップS1)。続いて、制御部20のデプス推定部21は、撮像画像に含まれる物体のデプスを推定する(ステップS2)。
続いて、制御部20は、デプス推定部21によってデプスを適切に推定できたか否かを判定する(ステップS3)。デプスを適切に推定できなかったと判定した場合(ステップS3でNo)、制御部20は本処理を終了する。一方、デプスを適切に推定できたと判定した場合(ステップS3でYes)、制御部20のエッジ検出部22は、撮像画像に含まれる物体のエッジを検出する(ステップS4)。
続いて、制御部20は、エッジ検出部22によってエッジを適切に検出できたか否かを判定する(ステップS5)。エッジを適切に検出できなかったと判定した場合(ステップS5でNo)、制御部20の物体検出部23は、Occupancy Grid Mapに投票を行い(ステップS6)、本処理を終了する。一方、エッジを適切に検出できたと判定した場合(ステップS5でYes)、物体検出部23は、上記の式(1)〜式(3)に基づいてマップ投票確率を算出する(ステップS7)。
続いて、物体検出部23は、マップ投票確率の算出結果が複数あるか否かを判定する(ステップS8)。なお、「マップ投票確率の算出結果が複数ある」とは、例えば、図13に示した基線長の方向が水平方向である第一のステレオカメラ11aに対応するマップ投票確率と、図15に示した基線長の方向が鉛直方向である第二のステレオカメラ11bに対応するマップ投票確率と、がそれぞれ算出されているような場合を示している。
ステップS8において、マップ投票確率の算出結果が複数ないと判定した場合(ステップS8でNo)、物体検出部23は、算出されたマップ投票確率に基づいてOccupancy Grid Mapに投票を行い(ステップS9)、本処理を終了する。
ステップS8において、マップ投票確率の算出結果が複数あると判定した場合(ステップS8でYes)、物体検出部23は、複数のマップ投票確率を掛け合わせて合算する(ステップS10)。続いて、物体検出部23は、合算したマップ投票確率に基づいてOccupancy Grid Mapに投票を行い(ステップS11)、本処理を終了する。
<<3.第2の実施形態>>
次に、第2の実施形態に係る情報処理装置1Aについて、図18〜図22を参照しながら説明する。情報処理装置1Aは、前記した情報処理装置1の各構成に加えて慣性計側部40を備えている。また、情報処理装置1Aの制御部20Aは、前記した制御部20の各構成に加えて位置姿勢推定部24を備えている。
慣性計側部40は、例えば3軸加速度センサおよび3軸ジャイロセンサ等を含むIMU(Inertial Measurement Unit)により構成されており、取得したセンサ情報を制御部20Aの位置姿勢推定部24に出力する。位置姿勢推定部24は、撮像部10a,10b,10cによって撮像した撮像画像と、慣性計側部40から入力されたセンサ情報とに基づいて、情報処理装置1Aが搭載された無人移動体の位置および姿勢(例えば向き、傾き等)を検出する。なお、無人移動体の位置および姿勢の検出方法は、上記のIMUを用いた方法に限定されない。
本実施形態における物体検出部23は、前フレームで算出した第二の確率分布(物体のエッジ方向に基づくマップ投票確率)をキーフレームとして登録し、現フレームにおいて、第一、第二のステレオカメラ11a,11bの位置および姿勢が変化した場合、当該第一、第二のステレオカメラ11a,11bの位置および姿勢の変化量に基づいて、キーフレームを変形(例えば移動および回転)させることにより、第二の確率分布を算出する。
図19に示すように、例えば無人移動体の飛行中にステレオカメラシステム10の姿勢が変化した場合、その都度第二の確率分布を計算し直すと、情報処理装置1Aの処理負荷が増加するおそれがある。そこで、情報処理装置1Aの物体検出部23は、前フレームで算出した第二の確率分布をキーフレームとして登録しておく。そして、次のフレーム(現フレーム)において、ステレオカメラシステム10の姿勢が変化した場合、位置姿勢推定部24によって推定された自機の姿勢の変化量に応じて、図20に示すように、対応するキーフレーム(第二の確率分布)を回転させることにより、現フレームの第二の確率分布を算出する。続いて、物体検出部23は、算出した第二の確率分布と、第一の確率分布とを掛け合わせることにより、マップ投票確率を算出する。なお、位置姿勢推定部24によって推定された自機の位置および姿勢の変化量が、予め定めた閾値以上である場合は、第二の確率分布を再計算し、計算した第二の確率分布をキーフレームとして登録し直す。
以下、自機の位置および姿勢の変化を踏まえた第二の確率分布の変形の一例について、図21を参照しながら説明する。例えば同図に示すように、第二の確率分布を、エッジ周辺の二次元の正規分布で近似している場合、この正規分布は、x平均、y平均、エッジ水平分散、エッジ垂直分散、傾き、分布全体の大きさ等の値で表すことができる。これらの値を、エッジの角度や自機の位置および姿勢の変化量に応じて変化させる。なお、そのエッジが画像内でどれくらい移動するかは、当該エッジまでの距離と撮像部10a,10b,10cのパラメータから推定することが可能である。
例えば第一のステレオカメラ11aの基線長の方向が水平方向である場合(図13参照)、図21に示すように、基線長の方向に対するエッジの角度が小さくなるほど、両分散(エッジ水平分散、エッジ垂直分散)を大きくしていく。また、基線長の方向に対するエッジの角度が小さくなるほど、分布全体の大きさを小さくしていく。
情報処理装置1Aでは、上記のような処理を行うことにより、第二の確率分布(物体のエッジ方向に基づくマップ投票確率)の計算頻度を減らすことができるため、処理負荷を軽減することができる。
次に、本実施形態に係る情報処理装置1Aの処理の流れについて、図22を参照しながら説明する。まず、制御部20Aの位置姿勢推定部24は、自機の位置および姿勢を推定する(ステップS11)。続いて、制御部20Aは、位置姿勢推定部24によって推定された自機の位置および姿勢の変化量が、予め定めた閾値未満であるか否かを判定する(ステップS12)。
ステップS12において、制御部20Aの位置姿勢推定部24によって推定された自機の位置および姿勢の変化量が、予め定めた閾値未満である場合(ステップS12でYes)、物体検出部23は、自機の位置姿勢の変化に起因するマップ投票確率を算出する(ステップS13)。ステップS13において、物体検出部23は、自機の位置および姿勢の変化量に応じて、予め登録されたキーフレームを変形させることにより、第二の確率分布を算出する。そして、物体検出部23は、算出した第二の確率分布と、第一の確率分布とを掛け合わせることにより、マップ投票確率を算出する。続いて、物体検出部23は、Occupancy Grid Mapに投票を行い(ステップS14)、本処理を終了する。
ステップS12において、制御部20Aの位置姿勢推定部24によって推定された自機の位置および姿勢の変化量が、予め定めた閾値以上である場合(ステップS12でNo)、物体検出部23は、エッジ方向に起因するマップ投票確率を算出する(ステップS15)。ステップS15において、物体検出部23は、第二の確率分布を再度計算し、算出した第二の確率分布と、第一の確率分布とを掛け合わせることにより、マップ投票確率を算出する。続いて、物体検出部23は、Occupancy Grid Mapに投票を行い(ステップS16)、第二の確率分布をキーフレームとして登録し直した後(ステップS17)、本処理を終了する。
<<4.第2の実施形態の変形例>>
次に、第2の実施形態に係る情報処理装置1Aの変形例について、図23および図24を参照しながら説明する。本実施形態に係る情報処理装置1Aの構成は、前記した図18と同様であるため、図示は省略する。
本実施形態における物体検出部23は、キーフレームを変形させることにより算出した第二の確率分布と、現フレームで算出した第二の確率分布とを比較することにより、第二の確率分布をフィルタリングする。すなわち、物体検出部23は、図23に示すように、自機の位置姿勢の変化に起因して算出した第二の確率分布と、現在のエッジ方向に起因して算出した第二の確率分布とを比較し、極端に差がある確率分布や違和感のある確率分布を排除することにより、物体検出の安定性を向上させる。
次に、本実施形態に係る情報処理装置1Aの処理の流れについて、図24を参照しながら説明する。まず、制御部20Aの位置姿勢推定部24は、自機の位置および姿勢を推定する(ステップS21)。続いて、制御部20Aは、位置姿勢推定部24によって推定された自機の位置および姿勢の変化量が、予め定めた閾値未満であるか否かを判定する(ステップS22)。
ステップS22において、制御部20Aの位置姿勢推定部24によって推定された自機の位置および姿勢の変化量が、予め定めた閾値未満である場合(ステップS22でYes)、物体検出部23は、自機の位置姿勢の変化に起因するマップ投票確率を算出する(ステップS23)。ステップS23において、物体検出部23は、自機の位置および姿勢の変化量に応じて、予め登録されたキーフレームを変形させることにより、第二の確率分布を算出する。そして、物体検出部23は、算出した第二の確率分布と、第一の確率分布とを掛け合わせることにより、マップ投票確率を算出する。
続いて、物体検出部23は、自機の位置姿勢の変化に起因して算出した第二の確率分布と、現在のエッジ方向に起因して算出した第二の確率分布とを比較し(ステップS24)、極端に差がある確率分布をフィルタリングする(ステップS25)。続いて、物体検出部23は、Occupancy Grid Mapに投票を行い(ステップS26)、本処理を終了する。
ステップS22において、制御部20Aの位置姿勢推定部24によって推定された自機の位置および姿勢の変化量が、予め定めた閾値以上である場合(ステップS22でNo)、物体検出部23は、エッジ方向に起因するマップ投票確率を算出する(ステップS27)。ステップS27において、物体検出部23は、第二の確率分布を再度計算し、算出した第二の確率分布と、第一の確率分布とを掛け合わせることにより、マップ投票確率を算出する。続いて、物体検出部23は、Occupancy Grid Mapに投票を行い(ステップS28)、第二の確率分布をキーフレームとして登録し直した後(ステップS29)、本処理を終了する。
<<5.ハードウェア構成例>>
上記の実施形態に係る情報処理装置1,1A等の情報機器は、例えば図25に示すような構成のコンピュータ1000によって実現される。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500および入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300またはHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、および当該プログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る情報処理装置1,1Aとして機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、制御部130等の機能を実現する。また、HDD1400には、本開示に係る情報処理プログラムや、記憶部30内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
<<6.効果>>
情報処理装置1,1Aは、第一、第二のステレオカメラ11a,11bと、デプス推定部21と、物体検出部23と、を備える。第一、第二のステレオカメラ11a,11bは、各々の基線長の方向が交差するように配置されている。また、デプス推定部21は、第一、第二のステレオカメラ11a,11bによって撮像された撮像画像から、撮像画像に含まれる物体のデプスを推定する。また、物体検出部23は、デプス推定部21で推定したデプスと、第一、第二のステレオカメラ11a,11bの基線長の方向に対する物体のエッジ方向の角度に応じて決定されるデプスの信頼度とに基づいて、物体を検出する。
これにより、情報処理装置1,1Aは、第一、第二のステレオカメラ11a,11bの基線長の方向に対する物体のエッジ方向の角度に応じて決定されるデプスの信頼度を用いることにより、エッジ方向を問わずに物体を高精度に検出することができる。また、情報処理装置1,1Aを、例えばドローン等の無人移動体に適用することにより、電線等の水平線を適切に認識することができ、かつビルの天井部分が飛び出ているように認識されることを回避することができる。また、情報処理装置1,1Aによれば、ステレオカメラを利用した既存のデプス推定システムを流用することができるため、物体の検出精度を低コストで向上させることができる。
情報処理装置1,1Aにおいて、デプスの信頼度は、撮像画像において物体のエッジが存在する位置における確率分布であって、基線長の方向に対するエッジ方向が直角に近いほど、高い確率を有する確率分布である。
これにより、情報処理装置1,1Aは、第一、第二のステレオカメラ11a,11bの基線長の方向に対する物体のエッジ方向の角度に応じて決定されるデプスの信頼度を確率分布にモデル化することにより、物体を高精度に検出することができる。
情報処理装置1,1Aにおいて、物体検出部23は、デプス推定部21で推定したデプスに基づく第一の確率分布(物体までの距離に基づくマップ投票確率)と、デプスの信頼度を示す第二の確率分布(物体のエッジ方向に基づくマップ投票確率)とを算出し、第一の確率分布および第二の確率分布に基づいて、撮像画像に含まれる空間が格子状に分割された占有格子地図において、物体が各格子を占有する確率を示すマップ投票確率を算出し、マップ投票確率に基づいて各格子に投票を行うことにより占有格子地図を作成する。
これにより、情報処理装置1,1Aは、占有格子地図を作成することにより、物体の位置や物体までの距離を把握することができる。
情報処理装置1,1Aにおいて、物体検出部23は、第一の確率分布および第二の確率分布を掛け合わせることにより、マップ投票確率を算出する。
これにより、情報処理装置1,1Aは、物体までの距離に基づく確率分布と、物体のエッジ方向に基づく確率分布とを踏まえて、マップ投票確率を三次元的に求めることができる。
情報処理装置1Aにおいて、物体検出部23は、前フレームで算出した第二の確率分布(物体のエッジ方向に基づくマップ投票確率)をキーフレームとして登録し、現フレームにおいて、第一、第二のステレオカメラ11a,11bの位置および姿勢が変化した場合、第一、第二のステレオカメラ11a,11bの位置および姿勢の変化量に基づいて、キーフレームを変形させることにより、第二の確率分布を算出する。
これにより、情報処理装置1Aは、自機(第一、第二のステレオカメラ11a,11b)の移動や回転に関する情報を用いることにより、計算量を削減することができるため、処理負荷が軽減する。
情報処理装置1Aにおいて、物体検出部23は、キーフレームを変形させることにより算出した第二の確率分布(物体のエッジ方向に基づくマップ投票確率)と、現フレームで算出した第二の確率分布とを比較することにより、第二の確率分布をフィルタリングする。
これにより、情報処理装置1Aは、極端に差がある確率分布や違和感のある確率分布をフィルタリングすることにより、物体検出の安定性を向上させることができる。
情報処理装置1,1Aにおいて、第一、第二のステレオカメラ11a,11bは、第一のステレオカメラ11aと、第二のステレオカメラ11bとを有し、第一、第二のステレオカメラ11a,11bは、第一のステレオカメラ11aの基線長の方向と、第二のステレオカメラ11bの基線長の方向とが直交するように配置されている。
これにより、情報処理装置1,1Aは、第一のステレオカメラ11aの基線長の方向と、第二のステレオカメラ11bの基線長の方向とを直交させて配置することにより、エッジ方向を問わずに物体を高精度に検出することができる。
情報処理方法は、各々の基線長の方向が交差するように配置された第一、第二のステレオカメラ11a,11bによって撮像された撮像画像から、撮像画像に含まれる物体のデプスを推定することと、デプスと、第一、第二のステレオカメラ11a,11bの基線長の方向に対する物体のエッジ方向の角度に応じて決定されるデプスの信頼度とに基づいて、物体を検出することと、を含む。
これにより、情報処理方法は、物体のエッジ方向に応じて決定されるデプスの信頼度を用いることにより、エッジ方向を問わずに物体を高精度に検出することができる。また、情報処理方法を、例えばドローン等の無人移動体に適用することにより、電線等の水平線を適切に認識することができ、かつビルの天井部分が飛び出ているように認識されることを回避することができる。また、情報処理方法によれば、ステレオカメラを利用した既存のデプス推定システムを流用することができるため、物体の検出精度を低コストで向上させることができる。
情報処理プログラムは、コンピュータを、デプス推定部21と、エッジ検出部22と、物体検出部23と、して機能させる。デプス推定部21は、各々の基線長の方向が交差するように配置されている第一、第二のステレオカメラ11a,11bによって撮像された撮像画像から、撮像画像に含まれる物体のデプスを推定する。また、物体検出部23は、デプス推定部21で推定したデプスと、第一、第二のステレオカメラ11a,11bの基線長の方向に対する物体のエッジ方向の角度に応じて決定されるデプスの信頼度とに基づいて、物体を検出する。
これにより、情報処理プログラムは、物体のエッジ方向に応じて決定されるデプスの信頼度を用いることにより、エッジ方向を問わずに物体を高精度に検出することができる。また、情報処理プログラムを、例えばドローン等の無人移動体に適用することにより、電線等の水平線を適切に認識することができ、かつビルの天井部分が飛び出ているように認識されることを回避することができる。また、情報処理プログラムによれば、ステレオカメラを利用した既存のデプス推定システムを流用することができるため、物体の検出精度を低コストで向上させることができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また他の効果があってもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、前記した情報処理装置1,1Aのステレオカメラシステム10は、三つの撮像部10a,10b,10cを備える三眼カメラシステムであったが(図7参照)、撮像部の個数は四つ以上であってもよい。また、前記した情報処理装置1,1Aでは、デプスの信頼度を示す確率分布を二次元の正規分布で表していたが(図14、図16参照)、二次元の正規分布以外で表してもよい。
また、前記した情報処理装置1,1Aでは、エッジ検出部22によって物体のエッジを検出し、第一、第二のステレオカメラ11a,11bの基線長の方向に対する物体のエッジ方向の角度に応じてデプスの信頼度を決定していたが、エッジ以外の物体の縁線を検出し、前記した基線長の方向に対する物体の縁線の方向の角度に応じてデプスの信頼度を決定してもよい。エッジ以外の物体の縁線としては、例えば物体における色、模様等の境界を示す連続する線等が挙げられる。
また、前記した情報処理装置1では、マップ投票確率の算出結果が複数ある場合に、複数のマップ投票確率を掛け合わせて合算していたが(図17のステップS10参照)、マップ投票確率を合算せずに、確率の高い方のマップ投票確率に基づいてOccupancy Grid Mapに投票を行ってもよい。
また、前記した情報処理装置1,1Aは、被写体となる物体のエッジ方向を問わずに信頼できるデプス情報を取得することができるため、Occupancy Grid Mapの作成以外の用途にも幅広く用いることができる。例えば、取得したデータをキーフレームとすることにより、その後撮影されたデータ(1ステレオによるものでも構わない)に不自然なところがないかをチェックしたり、あるいは短時間の衝突判定に用いたりすることもできる。
なお、本技術は以下のような構成も取ることができる。
(1)
各々の基線長の方向が交差するように配置された複数のステレオカメラと、
前記複数のステレオカメラによって撮像された撮像画像から、前記撮像画像に含まれる物体のデプスを推定するデプス推定部と、
前記デプス推定部で推定したデプスと、前記複数のステレオカメラの基線長の方向に対する前記物体の縁線の方向の角度に応じて決定される前記デプスの信頼度とに基づいて、前記物体を検出する物体検出部と、
を備える情報処理装置。
(2)
前記デプスの信頼度は、前記撮像画像において前記物体の縁線が存在する位置における確率分布であって、前記基線長の方向に対する前記縁線の方向が直角に近いほど、高い確率を有する確率分布である、前記(1)に記載の情報処理装置。
(3)
前記物体検出部は、
前記デプス推定部で推定したデプスに基づく第一の確率分布と、前記デプスの信頼度を示す第二の確率分布とを算出し、
前記第一の確率分布および前記第二の確率分布に基づいて、前記撮像画像に含まれる空間が格子状に分割された占有格子地図において、前記物体が各格子を占有する確率を示すマップ投票確率を算出し、
前記マップ投票確率に基づいて各格子に投票を行うことにより前記占有格子地図を作成する、前記(1)または前記(2)に記載の情報処理装置。
(4)
前記物体検出部は、前記第一の確率分布および前記第二の確率分布を掛け合わせることにより、前記マップ投票確率を算出する、前記(3)に記載の情報処理装置。
(5)
前記物体検出部は、
前フレームで算出した第二の確率分布をキーフレームとして登録し、
現フレームにおいて、前記複数のステレオカメラの位置および姿勢が変化した場合、前記複数のステレオカメラの位置および姿勢の変化量に基づいて、前記キーフレームを変形させることにより、第二の確率分布を算出する、前記(1)から前記(4)のいずれか一項に記載の情報処理装置。
(6)
前記物体検出部は、
前記キーフレームを変形させることにより算出した第二の確率分布と、現フレームで算出した第二の確率分布とを比較することにより、第二の確率分布をフィルタリングする、前記(1)から前記(5)のいずれか一項に記載の情報処理装置。
(7)
前記複数のステレオカメラは、第一のステレオカメラと、第二のステレオカメラとを有し、
前記第一のステレオカメラおよび前記第二のステレオカメラは、前記第一のステレオカメラの基線長の方向と、前記第二のステレオカメラの基線長の方向とが直交するように配置されている、前記(1)から前記(6)のいずれか一項に記載の情報処理装置。
(8)
各々の基線長の方向が交差するように配置された複数のステレオカメラによって撮像された撮像画像から、前記撮像画像に含まれる物体のデプスを推定することと、
前記デプスと、前記複数のステレオカメラの基線長の方向に対する前記物体の縁線の方向の角度に応じて決定される前記デプスの信頼度とに基づいて、前記物体を検出することと、
を含む情報処理方法。
(9)
コンピュータを、
各々の基線長の方向が交差するように配置された複数のステレオカメラによって撮像された撮像画像から、前記撮像画像に含まれる物体のデプスを推定するデプス推定部と、
前記デプス推定部で推定したデプスと、前記複数のステレオカメラの基線長の方向に対する前記物体の縁線の方向の角度に応じて決定される前記デプスの信頼度とに基づいて、前記物体を検出する物体検出部と、
して機能させるための情報処理プログラム。
1,1A 情報処理装置
10,10A,110 ステレオカメラシステム
10a,10b,10c,110a,110b 撮像部
11a 第一のステレオカメラ
11b 第二のステレオカメラ
12,120 支持部材
20,20A 制御部
21 デプス推定部
22 エッジ検出部
23 物体検出部
24 位置姿勢推定部
30 記憶部
40 慣性計側部

Claims (9)

  1. 各々の基線長の方向が交差するように配置された複数のステレオカメラと、
    前記複数のステレオカメラによって撮像された撮像画像から、前記撮像画像に含まれる物体のデプスを推定するデプス推定部と、
    前記デプス推定部で推定したデプスと、前記複数のステレオカメラの基線長の方向に対する前記物体の縁線の方向の角度に応じて決定される前記デプスの信頼度とに基づいて、前記物体を検出する物体検出部と、
    を備える情報処理装置。
  2. 前記デプスの信頼度は、前記撮像画像において前記物体の縁線が存在する位置における確率分布であって、前記基線長の方向に対する前記縁線の方向が直角に近いほど、高い確率を有する確率分布である、請求項1に記載の情報処理装置。
  3. 前記物体検出部は、
    前記デプス推定部で推定したデプスに基づく第一の確率分布と、前記デプスの信頼度を示す第二の確率分布とを算出し、
    前記第一の確率分布および前記第二の確率分布に基づいて、前記撮像画像に含まれる空間が格子状に分割された占有格子地図において、前記物体が各格子を占有する確率を示すマップ投票確率を算出し、
    前記マップ投票確率に基づいて各格子に投票を行うことにより前記占有格子地図を作成する、請求項2に記載の情報処理装置。
  4. 前記物体検出部は、前記第一の確率分布および前記第二の確率分布を掛け合わせることにより、前記マップ投票確率を算出する、請求項3に記載の情報処理装置。
  5. 前記物体検出部は、
    前フレームで算出した第二の確率分布をキーフレームとして登録し、
    現フレームにおいて、前記複数のステレオカメラの位置および姿勢が変化した場合、前記複数のステレオカメラの位置および姿勢の変化量に基づいて、前記キーフレームを変形させることにより、第二の確率分布を算出する、請求項4に記載の情報処理装置。
  6. 前記物体検出部は、
    前記キーフレームを変形させることにより算出した第二の確率分布と、現フレームで算出した第二の確率分布とを比較することにより、第二の確率分布をフィルタリングする、請求項5に記載の情報処理装置。
  7. 前記複数のステレオカメラは、第一のステレオカメラと、第二のステレオカメラとを有し、
    前記第一のステレオカメラおよび前記第二のステレオカメラは、前記第一のステレオカメラの基線長の方向と、前記第二のステレオカメラの基線長の方向とが直交するように配置されている、請求項1に記載の情報処理装置。
  8. 各々の基線長の方向が交差するように配置された複数のステレオカメラによって撮像された撮像画像から、前記撮像画像に含まれる物体のデプスを推定することと、
    前記デプスと、前記複数のステレオカメラの基線長の方向に対する前記物体の縁線の方向の角度に応じて決定される前記デプスの信頼度とに基づいて、前記物体を検出することと、
    を含む情報処理方法。
  9. コンピュータを、
    各々の基線長の方向が交差するように配置された複数のステレオカメラによって撮像された撮像画像から、前記撮像画像に含まれる物体のデプスを推定するデプス推定部と、
    前記デプス推定部で推定したデプスと、前記複数のステレオカメラの基線長の方向に対する前記物体の縁線の方向の角度に応じて決定される前記デプスの信頼度とに基づいて、前記物体を検出する物体検出部と、
    して機能させるための情報処理プログラム。
JP2019173588A 2019-09-24 2019-09-24 情報処理装置、情報処理方法および情報処理プログラム Pending JP2021052293A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019173588A JP2021052293A (ja) 2019-09-24 2019-09-24 情報処理装置、情報処理方法および情報処理プログラム
US17/753,793 US20220351400A1 (en) 2019-09-24 2020-07-17 Information processing apparatus, information processing method, and information processing program
CN202080065342.5A CN114531898A (zh) 2019-09-24 2020-07-17 信息处理装置、信息处理方法和信息处理程序
PCT/JP2020/027951 WO2021059695A1 (ja) 2019-09-24 2020-07-17 情報処理装置、情報処理方法および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019173588A JP2021052293A (ja) 2019-09-24 2019-09-24 情報処理装置、情報処理方法および情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2021052293A true JP2021052293A (ja) 2021-04-01

Family

ID=75156407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019173588A Pending JP2021052293A (ja) 2019-09-24 2019-09-24 情報処理装置、情報処理方法および情報処理プログラム

Country Status (4)

Country Link
US (1) US20220351400A1 (ja)
JP (1) JP2021052293A (ja)
CN (1) CN114531898A (ja)
WO (1) WO2021059695A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112022001260T5 (de) * 2021-08-24 2023-12-21 Hitachi Astemo, Ltd. Objektabstandsdetektionsvorrichtung
KR20230057649A (ko) * 2021-10-22 2023-05-02 주식회사 한화 로봇 안전 감시 시스템
CN116804554A (zh) * 2022-03-16 2023-09-26 华为技术有限公司 一种占据栅格地图生成方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5375531B2 (ja) * 2009-11-06 2013-12-25 株式会社リコー 距離画像取得装置及び距離画像取得処理方法
WO2013099169A1 (ja) * 2011-12-27 2013-07-04 パナソニック株式会社 ステレオ撮影装置
JP5881777B2 (ja) * 2014-06-24 2016-03-09 オリンパス株式会社 顕微鏡

Also Published As

Publication number Publication date
WO2021059695A1 (ja) 2021-04-01
CN114531898A (zh) 2022-05-24
US20220351400A1 (en) 2022-11-03

Similar Documents

Publication Publication Date Title
WO2021059695A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
US10789719B2 (en) Method and apparatus for detection of false alarm obstacle
CN112292711A (zh) 关联lidar数据和图像数据
KR101072876B1 (ko) 이동 로봇에서 자신의 위치를 추정하기 위한 방법 및 장치
WO2020253260A1 (zh) 时间同步处理方法、电子设备及存储介质
Hamel et al. Homography estimation on the special linear group based on direct point correspondence
US20190301871A1 (en) Direct Sparse Visual-Inertial Odometry Using Dynamic Marginalization
CN113137968B (zh) 基于多传感器融合的重定位方法、重定位装置和电子设备
CN112313536B (zh) 物体状态获取方法、可移动平台及存储介质
CN111989631A (zh) 自身位置推定方法
EP4001844A1 (en) Method and apparatus with localization
JP4502733B2 (ja) 障害物測定方法及び障害物測定装置
WO2021189784A1 (zh) 一种场景重建方法、系统、装置及扫地机器人
CN110720113A (zh) 一种参数处理方法、装置及摄像设备、飞行器
JP2019007739A (ja) 自己位置推定方法及び自己位置推定装置
CN113011231A (zh) 分类滑窗方法和slam定位方法及其系统和电子设备
US20210402616A1 (en) Information processing apparatus, information processing method, mobile robot, and non-transitory computer-readable storage medium
CN112291701B (zh) 定位验证方法、装置、机器人、外部设备和存储介质
EP4181066A1 (en) Method and apparatus with pose estimation
KR102555269B1 (ko) 전방향 영상센서 및 관성측정센서의 자세추정 융합 방법 및 시스템