JPWO2019021412A1 - 位置推定装置、位置推定方法及びプログラム記録媒体 - Google Patents

位置推定装置、位置推定方法及びプログラム記録媒体 Download PDF

Info

Publication number
JPWO2019021412A1
JPWO2019021412A1 JP2019532286A JP2019532286A JPWO2019021412A1 JP WO2019021412 A1 JPWO2019021412 A1 JP WO2019021412A1 JP 2019532286 A JP2019532286 A JP 2019532286A JP 2019532286 A JP2019532286 A JP 2019532286A JP WO2019021412 A1 JPWO2019021412 A1 JP WO2019021412A1
Authority
JP
Japan
Prior art keywords
frame
unit
image
position estimation
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019532286A
Other languages
English (en)
Other versions
JP6819785B2 (ja
Inventor
佐藤 慶明
慶明 佐藤
典良 広井
典良 広井
中野 学
学 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019021412A1 publication Critical patent/JPWO2019021412A1/ja
Application granted granted Critical
Publication of JP6819785B2 publication Critical patent/JP6819785B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Image Analysis (AREA)

Abstract

映像を用いた位置推定の精度を向上させるための技術を提供する。位置推定装置10は、撮像部100により撮像され、複数のフレームにより構成される映像から抽出される複数の特徴点に基づく撮像部100の位置推定を含む映像処理を実行する映像処理部110と、前記複数のフレームのうちの第1のグループに属する第1のフレームに対する前記映像処理において得られる映像関連情報に基づいて、前記複数のフレームのうちの前記第1のグループと異なる第2のグループに属する第2のフレームにおける撮像部100の露光条件を決定する撮像制御部120とを含む。

Description

本開示は、映像を用いた位置推定に関する。
UAV(Unmanned aerial vehicle)、自動運転車、ロボットなどの移動に際しては、いわゆる自己位置、すなわち移動する物体の位置の推定が必要な場合がある。自己位置を推定する技術としては、例えば、SLAM(Simultaneous Localization and Mapping)技術が知られている(例えば、特許文献1参照)。SLAMのうち、特に映像に基づくものを、Visual SLAMともいう。ただし、以下においては、Visual SLAMのことも単にSLAMという場合がある。
また、静止画においては、ダイナミックレンジが広い画像表現を目的とした合成、すなわちHDR合成(High Dynamic Range Imaging)が知られている(例えば、特許文献2参照)。HDR合成は、同一のシーンの画像を、露光量を変えながら複数回撮像し、複数枚の画像を合成することでダイナミックレンジが幅広い画像を得る技法である。
特開2009−237845号公報 特開2015−144475号公報
SLAMによる位置推定においても、ダイナミックレンジの不足に起因する白飛びや黒潰れが推定の精度を低下させる場合がある。例えば、映像に白飛びや黒潰れが多く発生すると、十分な数の特徴点が抽出できないゆえに位置推定に失敗する可能性が高まる。また、移動する物体の自己位置を推定する場合には、物体自体の位置が時々刻々と変化し得るため、同一のシーンを複数回撮像することが困難である。ゆえに、移動する物体の自己位置を推定する場合には、上述のような静止画におけるHDR合成を適用することが困難である、という技術的な課題が存在する。
本開示の例示的な目的は、上述の課題に鑑み、映像を用いた位置推定の精度を向上させるための技術を提供することにある。
一の態様において、撮像手段により撮像され、複数のフレームにより構成される映像から抽出される複数の特徴点に基づく当該撮像手段の位置推定を含む映像処理を実行する映像処理手段と、前記複数のフレームのうちの第1のグループに属する第1のフレームに対する前記映像処理において得られる映像関連情報に基づいて、前記複数のフレームのうちの前記第1のグループと異なる第2のグループに属する第2のフレームにおける前記撮像手段の露光条件を決定する撮像制御手段とを含む位置推定装置が提供される。
別の態様において、撮像手段により撮像され、複数のフレームにより構成される映像から抽出される複数の特徴点に基づく当該撮像手段の位置推定を含む映像処理を実行し、前記複数のフレームのうちの第1のグループに属する第1のフレームに対する前記映像処理において得られる映像関連情報に基づいて、前記複数のフレームのうちの前記第1のグループと異なる第2のグループに属する第2のフレームにおける前記撮像手段の露光条件を決定する位置推定方法が提供される。
さらに別の態様において、コンピュータに、撮像手段により撮像され、複数のフレームにより構成される映像から抽出される複数の特徴点に基づく当該撮像手段の位置推定を含む映像処理を実行するステップと、前記複数のフレームのうちの第1のグループに属する第1のフレームに対する前記映像処理において得られる映像関連情報に基づいて、前記複数のフレームのうちの前記第1のグループと異なる第2のグループに属する第2のフレームにおける前記撮像手段の露光条件を決定するステップとを実行させるためのプログラムを記録したコンピュータ読み取り可能なプログラム記録媒体が提供される。
本開示によれば、映像を用いた位置推定の精度が向上する。
図1は、位置推定装置の構成の一例を示すブロック図である。 図2は、映像におけるBF(Bright Frame)及びDF(Dark Frame)の一例を示す図である。 図3は、ある被写体を撮像した画像から抽出され得る特徴点の絶対輝度値に対する分布を示すヒストグラムの一例を示す模式図である。 図4は、位置推定装置の動作の一例を示すフローチャートである。 図5は、自律移動システムの構成の一例を示すブロック図である。 図6は、SLAM部の動作の一例を示すフローチャートである。 図7は、位置推定処理の一例を示すフローチャートである。 図8は、マッピング処理の一例を示すフローチャートである。 図9は、撮像制御部の動作の一例を示すフローチャートである。 図10は、自律移動システムの構成の別の例を示すブロック図である。 図11Aは、露光条件のリセットの第1の例を示す図である(第1のシーン)。 図11Bは、露光条件のリセットの第1の例を示す図である(第2のシーン)。 図11Cは、露光条件のリセットの第1の例を示す図である(第3のシーン)。 図11Dは、露光条件のリセットの第1の例を示す図である(第4のシーン)。 図12Aは、露光条件のリセットの第2の例を示す図である(リセット前)。 図12Bは、露光条件のリセットの第2の例を示す図である(リセット後)。 図13は、SLAM処理が失敗した場合の露光量の設定手順の一例を示す図である。 図14は、露光量に起因する自己位置の誤差の一例を示す図である。 図15は、コンピュータ装置のハードウェア構成の一例を示すブロック図である。
[第1実施形態]
図1は、一実施形態に係る位置推定装置10の構成を示すブロック図である。位置推定装置10は、映像処理部110と、撮像制御部120とを少なくとも含む。映像処理部110及び撮像制御部120は、例えば、1以上のプロセッサと1以上のメモリとを用いて実現される。位置推定装置10は、撮像部100をさらに含んでもよい。ただし、撮像部100は、位置推定装置10と異なる装置に含まれてもよい。撮像部100は、映像処理部110及び撮像制御部120と有線又は無線で接続される。
位置推定装置10は、3次元の実空間における撮像部100の位置(以下「撮像位置」ともいう。)を推定するための情報処理装置である。位置推定装置10が撮像部100を含む場合、ここでいう撮像位置は、自己位置と言い換えることができる。すなわち、この場合の自己位置は、位置推定装置10がある位置のことである。
撮像部100は、撮像された映像を示す映像データを生成する。撮像部100は、CMOS(Complementary Metal-Oxide-Semiconductor)センサ等の撮像素子を含んで構成される。撮像部100は、典型的には、いわゆるビデオカメラである。本実施形態において、撮像部100は、自動車、UAV(Unmanned Aerial Vehicle)等の移動する物体に搭載される。したがって、撮像部100の撮像範囲、すなわち撮像部100により撮像されるシーンは、時々刻々と変化し得る。ただし、映像処理部110及び撮像制御部120は、この移動する物体に搭載される必要はなく、例えば当該物体と無線通信する構成であってもよい。
本実施形態における映像は、複数のフレームにより構成される。すなわち、映像は、所定の時間間隔で撮像された複数の画像(静止画)を含む。映像のフレームレートは、例えば30fps(frames per second)以上であるが、必ずしもこれに限定されない。また、本実施形態におけるフレームレートは、CFR(Constant Frame Rate)とVFR(Variable Frame Rate)のいずれであってもよい。また、本実施形態における映像は、モノクロであるかカラーであるかを問わず、その解像度(すなわち1画面当たりの画素数)も限定されない。ただし、以下においては、説明の便宜上、映像はモノクロであるとする。
撮像部100は、所定のフレームレートで映像データを生成することができる。すなわち、映像データは、撮像タイミングが異なる複数の画像を含む。撮像部100は、このような映像データを映像処理部110に供給する。また、撮像部100は、撮像制御部120により決定された露光条件で撮像を実行する(詳細は後述)。
映像処理部110は、撮像部100により生成された映像データに映像処理を実行する。本実施形態において、映像処理部110により実行される映像処理は、撮像部100により撮像された映像に基づいて撮像位置を推定する処理を少なくとも含む。以下においては、この処理のことを「位置推定(localization)」ともいう。また、映像処理部110は、撮像部100により撮像された映像に基づいて、後述されるマッピング(マップ情報の生成)を実行してもよい。
いくつかの場合において、映像処理部110は、位置推定とマッピングとをSLAMを用いて実行する。この場合、映像処理部110は、映像から抽出される特徴点に基づいて、位置推定とマッピングとを実行する。この場合、マッピングにより生成されるマップ情報は、複数の特徴点の位置関係を示す。マップ情報は、具体的には、特徴点の3次元座標とその特徴量とを特徴点毎に表す情報である。換言すれば、マップ情報は、どのような特徴点が実空間のどの位置にあるかを示す情報である。また、映像処理部110は、撮像部100が移動しながら撮像を実行することで、マップ情報を更新することができる。ここでいう更新とは、マップ情報に新たな情報を追加することをいう。
特徴点は、画像を特徴付ける点である。特徴点は、例えば、画像において特徴的な輝度変化を示す部分であり、典型的には輝度変化が急峻な部分である。特徴点の一例としては、いわゆるエッジやコーナーを挙げることができる。本実施形態における特徴点としては、SIFT(Scale-Invariant Feature Transform)、SURF(Speeded Up Robust Features)、HOG(Histograms of Oriented Gradients)など、周知の特徴量のいずれかに基づいて抽出される特徴点が利用可能である。本実施形態における特徴点は、典型的には、輝度や照明の変化に対して頑強(ロバスト)な特徴点である。また、本実施形態における映像は、位置推定等に必要な十分な数の特徴点が抽出できるものであるとする。
撮像制御部120は、撮像部100による撮像を制御する。撮像制御部120は、例えば、撮像部100による撮像時の露光条件を決定する。ここでいう露光条件は、露光量、露光時間、シャッター速度、絞り、ゲインなどを含み得る。撮像制御部120は、一般的な自動露出機能に加え、映像処理部110から得られる情報(以下「映像関連情報」ともいう。)に基づいて露光条件を決定することができる。映像関連情報は、例えば、撮像部100により撮像された映像を用いて特定される、当該映像の輝度に関する情報(以下「輝度情報」ともいう。)である。
より詳細には、撮像制御部120は、映像処理部110によって第1のグループに属するフレームに対して実行される映像処理において得られる映像関連情報に基づいて、当該第1のグループと異なる第2のグループに属するフレームにおける露光条件を決定する。また、撮像制御部120は、第2のグループに属するフレームに対する映像処理において得られる映像関連情報に基づいて、第1のグループに属するフレームにおける露光条件を決定してもよい。
本実施形態において、映像データに含まれるフレームは、「BF(bright frame)」と「DF(dark frame)」のいずれかに分類される。BF及びDFは、上述の第1のグループ及び第2のグループの一例に相当する。第1のグループは、BF及びDFのいずれか一方に相当し、第2のグループは、BF及びDFの他方に相当する。
BFは、DFよりも明るく撮像されるフレームである。例えば、BFは、DFに比べ、各画素の露光量が多い。換言すれば、BFは、いわゆる「白飛び(撮像素子に対する光量が過多で階調が著しく失われた状態)」がDFよりも生じやすい露光条件で撮像されているともいえる。また、DFは、いわゆる「黒潰れ(撮像素子に対する光量が過少で階調が著しく失われた状態)」がBFよりも生じやすい露光条件で撮像されているといえる。ただし、ここでいうBF(又はDF)は、他方に比べて相対的に明るい(又は暗い)だけであって、その絶対的な明るさが特定の範囲に限定されるものではない。
図2は、映像におけるBF及びDFの一例を示す図である。いくつかの場合において、BFとDFは、映像に交互に含まれる。例えば、図2に例示された映像は、第1、第3、第5、…、第nフレームがBFであり、第2、第4、第6、…、第(n+1)フレームがDFである。ここにおいて、nは、1以上の整数(奇数)である。
図2の場合、映像は、BFの次にDF、そのDFの次に別のBF、というようにBFとDFが繰り返される。ただし、BFとDFは、必ずしも映像に交互に含まれなくてもよい。例えば、映像は、BFが数フレーム連続した後にDFが数フレーム連続してもよい。また、BFとDFは、映像に等しい比率で含まれていなくてもよい。
撮像制御部120は、第1のグループに属するフレームに関する輝度情報に基づいて、第2のグループに属するフレームの撮像時の露光条件を決定することができる。すなわち、撮像制御部120は、あるフレームの露光条件を、当該フレームと異なるグループに属し、かつ当該フレームより前に撮像されたフレームに関する輝度情報に基づいて決定することができる。
例えば、図2の場合において、撮像制御部120は、第nフレームに関する輝度情報に基づいて第(n+1)フレームの撮像時の露光条件を決定してもよい。あるいは、撮像制御部120は、第nフレームに関する輝度情報に基づいて第(n+3)フレームの撮像時の露光条件を決定してもよい。撮像制御部120によって露光条件が決定されるフレームと、露光条件を決定するための輝度情報を得るフレームは、グループが異なっていれば、必ずしも連続していなくてよい。以下においては、露光条件を決定するための輝度情報を得るフレームを「第1のフレーム」、撮像制御部120によって露光条件が決定されるフレームを「第2のフレーム」ともいう。
撮像制御部120は、露光条件を決定するための輝度情報を映像処理部110から取得する。本実施形態において、輝度情報は、画像に含まれる1又は複数の画素の輝度に関連する情報である。いくつかの場合において、輝度情報は、1又は複数の画素の輝度値を示す。例えば、輝度情報は、画像中の特徴点の輝度値であってもよく、特徴点の輝度値に基づいて得られる情報(複数の特徴点の輝度値のヒストグラム)であってもよい。なお、ここでいう「輝度」は、後述される絶対輝度と相対輝度の双方を含む。
いくつかの場合において、撮像制御部120は、第1のフレームと第2のフレームとから同一の特徴点が複数抽出されるように第2のフレームの露光条件を決定する。この場合において、第1のフレームと第2のフレームとは、その撮像範囲に同一の特徴点(すなわち、実空間における同一の位置)が含まれる(映っている)ものとする。
図3は、ある被写体を撮像した画像から抽出され得る特徴点の絶対輝度値に対する分布を示すヒストグラムの一例を示す模式図である。このヒストグラムは、横軸が特徴点の相対輝度値に基づいて算出される絶対輝度値を示し、縦軸が特徴点の頻度、すなわち画素数を示す。ここにおいて、絶対輝度とは、撮像される物体表面の明るさをいう。絶対輝度値は、この絶対輝度を所定の基準に従って数値化した値である。絶対輝度は、便宜的には照度に相当すると考えてもよい。よって、絶対輝度値は、便宜的にルクス、すなわちルーメン毎平方メートルで表してもよい。なお、絶対輝度値は、ここでは大きいほど明るいことを示す。
撮像部100は、このようなヒストグラムで表される被写体を一定のダイナミックレンジで撮像する。ただし、撮像部100のダイナミックレンジは、有限の範囲であるため、被写体から抽出され得る特徴点の全てを記録することはできない。撮像部100により撮像された各画素の輝度値のことを、以下においては「相対輝度値」という。また、相対輝度値によって表される各画素の相対的な明るさのことを、以下においては「相対輝度」という。
相対輝度値は、ある物体が特定の露光条件で撮像された場合における各画素の輝度値である点において、撮像される物体そのものの明るさを示す絶対輝度値と異なる。すなわち、ここでいう相対輝度値は、物体そのものの明るさと、撮像時の露光条件とに依存する。相対輝度値は、撮像部100の画像出力が8ビットである場合には、0〜255(すなわち256階調)の無次元量によって表される。相対輝度値は、絶対輝度値と同様に、ここでは大きいほど明るいことを示す。
絶対輝度値は、ある露光条件で撮像された画像の相対輝度値と、当該画像の撮像時の露光条件とに基づいて算出することができる。絶対輝度値は、相対輝度値及び露光量を変数とする所定の関数に基づいて算出されてもよい。絶対輝度値は、例えば、以下のように算出することもできる。
ここで、DFにおける絶対輝度値をLD、DFにおける相対輝度値をIDとすると、LD及びIDは、以下の式(1)を満たす。ここにおいて、γは、所定の定数である。γは、例えば「1/2.4(≒0.42)」であるが、これに限定されない。また、IDは、ここでは0(最小値)〜1(最大値)に正規化された数値とする。IDは、撮像部100の画像出力が8ビットである場合には、出力値を「255」で除することによって算出される。
Figure 2019021412
また、BFにおける絶対輝度値をLB、BFにおける相対輝度値をIBとすると、LB及びIBは、以下の式(2)を満たす。ここにおいて、γは、式(1)と同様の定数である。また、IBは、IDと同様に、0〜1に正規化された数値とする。
Figure 2019021412
なお、同一のシーンを異なる露光量で撮影した場合、絶対輝度値と露光量は、次の式(3)を満たす。ここにおいて、KDは、DFにおける露光量を表す。また、KBは、BFにおける露光量を表す。そうすると、式(1)は、式(2)及び式(3)を用いて式(4)のように変形することが可能である。
Figure 2019021412

Figure 2019021412
あるいは、ID及びIBは、次の式(5)のように近似的に表すことも可能である。ここにおいて、a及びbは、撮像部100の特性等によって定まる係数である。
Figure 2019021412
図3において、撮像部100が第1の露光条件で撮像した場合の輝度レンジをR1、第2の露光条件で撮像した場合の輝度レンジをR2とする。例えば、第1の露光条件で撮像された場合、被写体のうちの絶対輝度値が輝度レンジR1の上限値を上回る部分は、相対輝度値が一様に最大値を示す画像となる。すなわち、この部分では、画像に白飛びが発生する。一方、第2の露光条件で撮像された場合、被写体のうちの絶対輝度値が輝度レンジR2の下限値を下回る部分は、相対輝度値が一様に最小値を示す画像となる。すなわち、この部分では、画像に黒潰れが発生する。特徴点は、白飛びや黒潰れが発生した領域、すなわち階調に有意な変化が生じない領域からは、抽出することが困難である。
画像のうちの相対輝度値が輝度レンジR1、R2の範囲内にある領域は、相対輝度値に差はあるものの、撮像されたそれぞれの画像において階調が再現されている。したがって、輝度レンジR1及びR2が重なる範囲、すなわち絶対輝度値が図中のR3に含まれる範囲の画素は、第1の露光条件と第2の露光条件のいずれで撮像された場合においても、白飛び又は黒潰れのいずれも発生することなく撮像される。そのため、範囲R3に含まれる画素に基づいて抽出される特徴点は、第1の露光条件で撮像された画像と第2の露光条件で撮像された画像の双方から抽出可能である。
また、異なる露光条件で撮像された2つの画像には、他方の画像では階調が再現されていない部分が含まれ得る。例えば、第1の露光条件で撮像された画像には、第2の露光条件で撮像された画像では黒潰れしている部分の階調が記録されている。一方、第2の露光条件で撮像された画像には、第1の露光条件で撮像された画像では白飛びしている部分の階調が記録されている。
以上より、図3の例において第1の露光条件で撮像された画像(以下「DF画像」ともいう。)と第2の露光条件で撮像された画像(以下「BF画像」ともいう。)とには、次の2点の特徴がある。第一に、BF画像及びDF画像は、互いに共通の特徴点、すなわち双方から抽出可能な特徴点(絶対輝度値が範囲R3の特徴点)を含んでいる。第二に、BF画像及びDF画像は、互いに共通でない特徴点、すなわち一方の画像からは抽出されるが、他方の画像からは抽出されない特徴点(絶対輝度値が輝度レンジR1の下限値以上かつ範囲R3の下限値以下、又は範囲R3の上限値以上輝度レンジR2の上限値以下の特徴点)を含んでいる。
これらの特徴は、映像処理部110による位置推定を輝度変化に対して頑強にすることを可能にする。例えば、映像処理部110は、複数の露光条件を切り替えながら撮像が実行されることにより、白飛びや黒潰れに起因して十分な数の特徴点が抽出できなくなって位置推定に失敗する可能性を減らすことが可能である。また、映像処理部110は、複数の露光条件を切り替えながら撮像が実行されることにより、このような切り替えが行われない場合よりも多くの特徴点を抽出することが可能である。なぜならば、露光条件が切り替わることによって、切り替え前に白飛び又は黒潰れによって特徴点が抽出できなかった領域からも特徴点が抽出できるようになるからである。
このような位置推定を可能にするために、撮像制御部120は、第1のフレームの輝度レンジと第2のフレームの輝度レンジとが部分的に重なり、双方のフレームから共通の特徴点が一定数以上抽出できるように第2のフレームの露光条件を決定する。換言すれば、撮像制御部120は、第1のフレームと第2のフレームのいずれにおいても黒潰れ及び白飛びを生じることなく撮像される領域(図2におけるR3)が発生するように第2のフレームにおける露光条件を決定する。撮像制御部120は、DFの露光条件を決定する際にはBFから特定される輝度情報を参照し、BFの露光条件を決定する際にはDFから特定される輝度情報を参照する。換言すれば、第1のフレームがDFである場合には第2のフレームがBFであり、第1のフレームがBFである場合には第2のフレームがDFである。
位置推定装置10の構成は、以上のとおりである。この構成のもと、位置推定装置10は、撮像部100から供給される映像データに基づいて、撮像位置を推定するとともに、撮像部100による撮像を制御する。また、位置推定装置10は、位置推定とマッピングとを同時に、すなわち並行して実行してもよい。
図4は、位置推定装置10の動作(特に、露光条件の制御に係る動作)を示すフローチャートである。位置推定装置10は、撮像部100による映像データの生成に際して、ステップS11、S12を繰り返し実行する。
ステップS11において、映像処理部110は、所定の映像処理を実行する。このとき、映像処理部110は、撮像部100により撮像された映像に基づく位置推定を少なくとも実行する。映像処理部110は、撮像部100により撮像された映像から抽出される特徴点に基づいて撮像位置を推定する。ステップS11における位置推定は、例えば、周知のSLAM技術を用いて実行される。
ステップS12において、撮像制御部120は、撮像部100に適用される露光条件を決定する。より詳細には、撮像制御部120は、第2のフレームにおける撮像部100の露光条件を、第1のフレームに対する映像処理において得られる映像関連情報(輝度情報等)に基づいて決定する。撮像部100は、ステップS12において決定された露光条件に従って第2のフレームの撮像を実行する。
映像処理部110は、このステップS12において決定された露光条件に従って撮像された映像に基づいて撮像位置を推定することにより、ステップS11を実行する。映像処理部110及び撮像制御部120は、このように互いの処理結果を反映させながら、ステップS11、S12を繰り返し実行する。その結果、露光条件は、BFの露光条件とDFの露光条件とが切り替わる場合にも、双方のフレームから共通の特徴点が抽出されるように決定される。
以上のとおり、本実施形態の位置推定装置10は、映像に含まれるフレームが露光条件に基づいて第1のグループと第2のグループとに区別される場合において、一方のグループに属する第1のフレームに対する映像処理において得られる映像関連情報に基づいて、他方のグループに属する第2のフレームを撮像する際の露光条件を決定する構成を有する。この構成は、第1のグループに属するフレームの画像と第2のグループに属するフレームの画像とから共通の特徴点を抽出することを可能にする。
SLAM等の映像ベースの位置推定において、画像から十分な数の特徴点が抽出できない場合、生成済みのマップ情報のような既知の特徴点との比較が困難になる。そのため、例えば、時間的又は空間的な明暗差が顕著なシーンのような、白飛びや黒潰れが多く発生し得るシーンを用いた位置推定は、そうでないシーンでの位置推定に比べ、推定の精度が低下したり、推定自体が失敗したりする可能性が高まる。これに対し、本実施形態の位置推定装置10は、白飛びや黒潰れが多く発生し得るシーンにおいて、上述のように露光条件を切り替えることにより、十分な数の特徴点を抽出することが可能である。したがって、本実施形態の位置推定装置10によれば、同様の構成を有しない場合に比べ、映像を用いた位置推定の精度を向上させることが可能である。
[第2実施形態]
図5は、別の実施形態に係る自律移動システム20の構成を示すブロック図である。自律移動システム20は、UAV、自律走行車、自律移動ロボット等の移動体に搭載されるシステムである。自律移動システム20は、撮像部200と、SLAM部210と、撮像制御部220と、移動制御部230とを含む。このうち、撮像部200、SLAM部210及び撮像制御部220は、第1実施形態の位置推定装置10の一例に相当する。
以下においては、自律移動システム20は、UAVに搭載されるものとする。すなわち、ここでいう「移動」は、空中の飛行を含む。ただし、自律移動システム20は、UAVに限らず、他の移動体に適用されることも可能である。撮像部200、SLAM部210及び撮像制御部220の動作は、移動体が異なっても、基本的には変わらない。
なお、以降の実施形態において、ブロック図に示される矢印は、ブロック間のデータの流れの一例を示し、データの流れが図示された矢印の方向のみに限定されることを意図しない。また、以降の実施形態及び変形例において使用される用語のうち、第1実施形態においても使用された用語は、特に断りがある場合を除き、第1実施形態において使用された用語と同様の意味で用いられる。また、本実施形態においては、BFとDFが交互に(すなわち1フレーム毎に)切り替わるものとする。
撮像部200は、映像データを生成する。撮像部200は、CMOSセンサ等の撮像素子と、レンズ、絞り等の光学系部材とを少なくとも含む。この撮像素子は、UAVの特定の位置に固定的に設けられる。撮像部200は、所定のフレームレートで撮像された映像データをSLAM部210に供給する。
SLAM部210は、位置推定及びマッピングを実行する。SLAM部210は、SLAM技術を用いて、UAVの位置(以下「自己位置」ともいう。)を推定するとともにマップ情報を生成する。SLAM部210は、より詳細には、特徴点抽出部211と、位置推定部212と、地図生成部213とを含む。SLAM部210は、第1実施形態における映像処理部110の一例に相当する。
特徴点抽出部211は、映像から特徴点を抽出する。特徴点抽出部211は、撮像部200により生成された映像データに含まれる各フレームから特徴点を抽出する。なお、特徴点抽出部211による特徴点の抽出アルゴリズムは、特定のアルゴリズムに限定されない。特徴点抽出部211は、例えば、上述した特徴量(SIFT、SURF、HOGなど)に基づいて特徴点を抽出する。
位置推定部212は、自己位置を推定する。位置推定部212は、特徴点抽出部211により抽出された特徴点と、地図生成部213により生成されたマップ情報とに基づいて、マップ情報により定義される空間におけるUAVの位置、すなわち自己位置を推定する。
位置推定部212による位置推定は、周知のSLAM技術を用いて実行される。例えば、位置推定には、PTAM(Parallel Tracking and Mapping for Small AR Workspaces)が利用可能である。なお、本実施形態において、自己位置は、撮像位置と実質的に同じである。また、ここでいう自己位置の推定は、座標の推定のみならず、姿勢(すなわち3次元的な傾き)の推定を含み得る。
位置推定部212は、位置推定の基準となるフレーム(以下「キーフレーム」ともいう。)における位置の推定結果を示すキーフレーム情報を地図生成部213に供給する。キーフレーム情報は、特定のフレームにおける自己位置を示す位置情報と、特徴点抽出部211により抽出された当該フレームにおける特徴点の位置を示す特徴点情報とを含む。なお、キーフレームは、映像データから以下のように決定される。
例えば、キーフレームは、撮像部200の変位に基づいて決められる。ここでいう変位は、並進運動による変位と回転運動による変位の双方を含み得る。具体的には、映像データを構成するフレームのうちのあるキーフレームとその次のキーフレームは、それぞれの撮像範囲に同一の領域(すなわち実空間における同じ位置)を含むように決定される。ただし、ここでいう領域は、1又は複数の特徴点が抽出可能な領域であるとする。より詳細には、映像データを構成するフレームのうちのあるフレームがキーフレームである場合、次のキーフレームは、当該あるフレームが撮像された時点からの撮像部200の移動量が所定の閾値以下である時点において撮像されたフレームである。すなわち、この場合、ある期間の映像データに占めるキーフレームの割合は、当該期間における撮像部200の移動量(すなわち自己位置の変化)が多いほど高く、少ないほど低い。あるいは、キーフレームは、映像データに対して数フレームおきに(すなわち周期的に)設定されてもよい。
位置情報は、自己位置を所定の座標系によって表すデータである。例えば、位置情報は、3次元直交座標系のx、y、z座標の3成分と、各座標方向の傾き(回転)を表す3成分とを用いて記述することができる。また、特徴点情報は、特徴点抽出部211により抽出された特徴点のそれぞれの位置を、例えば所定の位置を原点とする3次元直交座標系を用いて示すデータである。特徴点情報において、各特徴点は、その特徴点の特徴量と座標の組み合わせによって一意的に特定することができる。
地図生成部213は、マップ情報を生成する。具体的には、地図生成部213は、位置推定部212から供給されたキーフレーム情報に基づいて、既存のマップ情報を更新する。より詳細には、地図生成部213は、マップ情報に記録されている既存の特徴点の情報(例えば、以前のキーフレーム情報から特定される特徴点)と、最新のキーフレーム情報から特定される特徴点とを比較し、新たに特定された特徴点をマップ情報に追加する。
このとき、地図生成部213は、自己位置の変化(すなわち変位)に応じた座標変換を実行することにより、異なる位置から撮像された特徴点同士を対応付けることができる。具体的には、地図生成部213は、異なる位置から撮像された特徴点を共通の座標系の座標に変換することが可能である。この座標変換は、同次変換等の周知技術に基づいて実現可能であるため、その詳細はここでは省略する。
撮像制御部220は、撮像部200による撮像を制御する。撮像制御部220は、少なくとも撮像部200による撮像時の露光条件を決定する。本実施形態において、撮像制御部220は、SLAM部210から供給される輝度情報を用いて露光条件を決定することができる。
例えば、撮像制御部220は、特徴点抽出部211により抽出された特徴点の相対輝度値を輝度情報として用いて露光条件を決定する。より詳細には、撮像制御部220は、DFにおける露光条件を、BFにおいて抽出された特徴点の相対輝度値に基づいて決定する。また、撮像制御部220は、BFにおける露光条件を、DFにおいて抽出された特徴点の相対輝度値に基づいて決定する。具体的には以下のとおりである。
撮像制御部220は、BFの輝度レンジとDFの輝度レンジとが重複するように、換言すればBFとDFとにおいて同一の特徴点が抽出されるように、各フレームにおける露光条件を決定する。例えば、撮像制御部220は、BFにおける露光量をDFにおける露光量に基づいて決定する。具体的には、撮像制御部220は、BF及びDFに関し、各特徴点の絶対輝度値を当該特徴点の相対輝度値に基づいて算出し、それぞれのフレームの特徴点の絶対輝度値を比較することにより露光条件を決定することができる。なお、特徴点の絶対輝度値は、その特徴点の相対輝度値を用いた所定の演算により算出可能である。
移動制御部230は、UAVの移動を制御する。移動制御部230は、SLAM部210により推定された自己位置と、SLAM部210により生成されたマップ情報とに基づいて、UAVの飛行を制御する。例えば、移動制御部230は、マップ情報により示される障害物に衝突しないようにこれを避けたり、撮像対象である物体を撮像範囲から外れないように撮像し続けたり、といった飛行制御を実行する。
図6は、SLAM部210の動作を示すフローチャートである。以下においては、図6に示される一連の処理のことを「SLAM処理」ともいう。なお、SLAM処理は、BF及びDFのいずれにおいても同様に実行される。SLAM部210は、撮像部200により撮像が実行されている間、図6の処理を繰り返し実行する。
ステップS211において、特徴点抽出部211は、処理対象のフレームから特徴点を抽出する。なお、特徴点抽出部211は、特徴点の抽出を毎フレーム実行する。ステップS212において、位置推定部212は、ステップS211において抽出された特徴点とマップ情報とに基づいて自己位置を推定する。ステップS213において、地図生成部213は、ステップS211において抽出された特徴点と、ステップS212において推定された自己位置とに基づいて、マップ情報を生成(更新)する。
図7は、ステップS212の処理(以下「位置推定処理」ともいう。)の詳細を示すフローチャートである。位置推定部212は、この位置推定処理を毎フレーム実行する。なお、映像データにおける最初のキーフレームは、ここでは、撮像を開始した最初のフレームであるとする。
ステップS2121において、位置推定部212は、ステップS211において抽出された特徴点とマップ情報とに基づいて自己位置を推定する。ステップS2121の自己位置の推定は、SLAMの要素技術の一つである。具体的には、位置推定部212は、ステップS211において抽出された特徴点とマップ情報に記録されている特徴点とを比較することにより、自己位置がマップ中のどこであるかを推定する。
ステップS2122において、位置推定部212は、キーフレームを更新するかを判断する。具体的には、位置推定部212は、カレントフレームにおける自己位置と直前のキーフレームにおける自己位置とを比較し、自己位置の変位が所定の閾値以上であるかを判断する。
自己位置の変位が所定の閾値以上である場合(S2122:YES)、位置推定部212は、ステップS2123を実行する。一方、自己位置の変位が所定の閾値未満である場合(S2122:NO)、位置推定部212は、ステップS2123をスキップ(省略)する。ステップS2123において、位置推定部212は、キーフレームを更新する。具体的には、位置推定部212は、カレントフレームを新たなキーフレームとする。
ステップS2124において、位置推定部212は、カレントフレームがキーフレームであるかを判断する。例えば、ステップS2123においてキーフレームが更新された場合、位置推定部212は、カレントフレームをキーフレームであると判断する。あるいは、位置推定部212は、撮像を開始した最初のフレームをキーフレームであると判断する。一方、カレントフレームが最初のフレームでもなく、ステップS2123において更新されてもいない場合、位置推定部212は、カレントフレームをキーフレームでないと判断する。
カレントフレームがキーフレームである場合(S2124:YES)、位置推定部212は、ステップS2125を実行する。一方、カレントフレームがキーフレームでない場合(S2124:NO)、位置推定部212は、ステップS2125をスキップする。ステップS2125において、位置推定部212は、カレントフレームにおいて推定された自己位置を示す位置情報とカレントフレームにおいて抽出された特徴点の位置を示す特徴点情報とをキーフレーム情報として出力する。すなわち、キーフレーム情報は、フレーム毎にではなく、キーフレーム毎に出力される。
図8は、ステップS213の処理(以下「マッピング処理」ともいう。)の詳細を示すフローチャートである。本実施形態において、マッピング処理は、キーフレーム情報に基づいて実行される処理である。そのため、マッピング処理は、フレーム毎にではなく、キーフレーム毎に実行される。マッピング処理がキーフレーム毎に実行されることで、マップ情報のデータ量及びマップ情報の記録に要する処理量が必要以上に増加することを抑えることが可能である。なお、マッピング処理は、SLAMの要素技術の一つである。
ステップS2131において、地図生成部213は、位置推定部212により出力されたキーフレーム情報を取得する。ステップS2132において、地図生成部213は、ステップS2131において取得されたキーフレーム情報に含まれる特徴点情報と、既存のマップ情報とを比較する。特徴点情報には、マップ情報に含まれる特徴点と、マップ情報に含まれない特徴点とが混在している場合がある。
ステップS2133において、地図生成部213は、特徴点情報により示される特徴点の中にマップ情報に含まれない特徴点があるか判断する。マップ情報に含まれない特徴点がある場合(S2133:YES)、地図生成部213は、ステップS2134を実行する。一方、マップ情報に含まれない特徴点がない場合(S2133:NO)、地図生成部213は、ステップS2134をスキップする。
ステップS2134において、地図生成部213は、キーフレーム情報に含まれる特徴点情報が表す特徴点のうち、マップ情報に含まれない特徴点をマップ情報に追加する。また、地図生成部213は、このとき、自己位置の履歴(すなわちUAVの経路)をあわせてマップ情報に記録してもよい。
なお、位置推定部212及び地図生成部213は、並列に動作しながら位置推定処理及びマッピング処理を実行してもよい。すなわち、位置推定部212は、地図生成部213により逐次更新されるマップ情報に基づいて自己位置を推定することができる。また、地図生成部213は、位置推定部212により逐次供給されるキーフレーム情報に基づいてマップ情報を更新することができる。
図9は、撮像制御部220の動作を示すフローチャートである。撮像制御部220は、SLAM部210がSLAM処理を実行しているときに、図9の処理を実行する。すなわち、SLAM部210及び撮像制御部220は、並列に動作しながら図6、図9の処理をそれぞれ実行する。撮像制御部220は、撮像部200により撮像が実行されている間、図9の処理を繰り返し実行する。
ステップS221において、撮像制御部220は、露光量の初期値を設定する。この初期値は、BF又はDFのいずれかに対応する所定の数値である。説明の便宜上、露光量の初期値は、ここではBFに対応する数値であるとする。
ステップS222において、撮像制御部220は、ステップS221、S227又はS228において設定された露光量で撮像部200に撮像を実行させる。すなわち、撮像制御部220は、ステップS221、S227又はS228において設定された露光量で撮像が行われるように撮像部200を制御する。例えば、ステップS222がステップS221に次いで実行される場合、撮像部200は、BFに相当する露光量で撮像を実行する。
ステップS223において、撮像制御部220は、ステップS222に従って撮像されたフレームから抽出された特徴点の相対輝度値を特定する。より詳細には、撮像制御部220は、SLAM処理のステップS211において抽出された特徴点の相対輝度値を特定する。ここにおいて、相対輝度値は、処理対象のフレーム、すなわちカレントフレームに含まれる特徴点の輝度値そのものである。
ステップS224において、撮像制御部220は、ステップS222に従って撮像されたフレームから抽出された特徴点の絶対輝度値を算出する。撮像制御部220は、ある特徴点の相対輝度値と、カレントフレームの撮像時に設定された露光量とを用いた所定の演算により、当該特徴点の絶対輝度値を算出する。
ステップS225において、撮像制御部220は、ステップS224において算出された絶対輝度値を用いて特徴点ヒストグラムを算出する。ここでいう特徴点ヒストグラムは、第1実施形態における図3のヒストグラムのように、カレントフレームから抽出される特徴点の絶対輝度値の分布を示す。撮像制御部220は、算出された特徴点ヒストグラムを所定の記憶領域に一時的に記憶する。撮像制御部220は、BFの特徴点ヒストグラムとDFの特徴点ヒストグラムとをそれぞれ記憶する。本実施形態の特徴点ヒストグラムは、第1実施形態における映像関連情報の一例に相当する。
なお、絶対輝度値が撮像制御部220の輝度レンジを外れる画素は、白飛び又は黒潰れとして記録される。すなわち、このような画素の相対輝度値は、最小値(8ビット出力の場合、0)又は最大値(8ビット出力の場合、255)となる。よって、撮像制御部220は、ステップS225において、最大値又は最小値を示す相対輝度値を除外してから特徴点ヒストグラムを算出してもよい。このようにすれば、特徴点ヒストグラムから白飛び又は黒潰れの影響を取り除くことが可能である。
ステップS226において、撮像制御部220は、カレントフレームがBFとDFのいずれかを判断する。撮像制御部220は、カレントフレームがBFであれば(S226:YES)、ステップS227を実行する。また、撮像制御部220は、カレントフレームがDFであれば(S226:NO)、ステップS228を実行する。ステップS227及びS228は、いずれも、カレントフレームの次のフレームにおける露光量を設定する処理である。
ステップS227において、撮像制御部220は、DF用の露光量を設定する。撮像制御部220は、BFの特徴点ヒストグラムに基づいて、DF用の露光量を設定する。具体的には、撮像制御部220は、カレントフレーム(この場合BF)と次のフレーム(この場合DF)とで輝度レンジが重複し、かつ両フレームにおいて共通の特徴点が所定の数以上抽出できるように、DF用の露光量を設定する。
なお、露光量と当該露光量で撮像可能な絶対輝度値の範囲との関係は、ここでは既知であるとする。すなわち、撮像部200における露光量が定まれば、そのとき撮像される画像の輝度レンジも一意的に定まる。したがって、露光量を設定することは、ここでは輝度レンジの上限及び下限を設定することと実質的に同意であるといえる。ただし、輝度レンジの幅自体は、一定であるとする。
ステップS228において、撮像制御部220は、BF用の露光量を設定する。撮像制御部220は、DFの特徴点ヒストグラムに基づいて、BF用の露光量を設定する。具体的には、撮像制御部220は、カレントフレーム(この場合DF)と次のフレーム(この場合BF)とで輝度レンジが重複し、かつ両フレームにおいて共通の特徴点が所定の数以上抽出できるように、BF用の露光量を設定する。
ステップS227又はS228の後、撮像制御部220は、ステップS222を実行する。撮像部200は、次のフレームに対し、ステップS227又はS228において設定された露光量を適用する。ここでいう次のフレームは、ステップS227の後においてはDFであり、ステップS228の後においてはBFである。
撮像制御部220は、撮像部200による撮像が終了するまで、このような処理を繰り返す。これにより、映像データは、BFとDFが交互に繰り返される。換言すれば、映像データの各フレームは、明るめの露光条件で撮像された後は暗めの露光条件で撮像され、暗めの露光条件で撮像された後は明るめの露光条件で撮像される。
以上のとおり、本実施形態の自律移動システム20は、BFの露光条件をDFに対する映像処理において得られる輝度情報に基づいて決定する構成を有する。また、自律移動システム20は、DFの露光条件をBFに対する映像処理において得られる輝度情報に基づいて決定する構成を有する。また、BFとDFは、本実施形態においては交互に繰り返される。このような構成は、BFからDF、あるいはDFからBFの切り替えに際し、前後のフレームで同じ特徴点を抽出することを可能にする。したがって、自律移動システム20は、第1実施形態の位置推定装置10と同様の作用効果を奏することができる。
また、本実施形態の自律移動システム20は、特徴点ヒストグラムに基づいて露光量を決定することができる。UAVは、移動しながら撮影を行うため、撮像するシーンが時々刻々と変化し得る。したがって、撮像範囲内の絶対輝度値の分布も、時々刻々と変化し得る。しかし、絶対輝度値の分布は、シーンが徐々に明るくなったり暗くなったりといったように、撮像中に変化することがある。自律移動システム20は、特徴点ヒストグラムを算出し、算出された特徴点ヒストグラムに基づいて露光量を決定することにより、フレーム内の特徴点の絶対輝度値の分布に応じて露光量を変化させることができる。したがって、自律移動システム20によれば、露光量をシーンの変化に追従させることができる。これにより、自律移動システム20は、輝度変化が激しいシーンであってもSLAM処理が失敗するおそれを低減させることが可能である。
また、本実施形態の自律移動システム20によれば、BFとDFとが交互に、すなわち1フレーム単位で繰り返される。これにより、BFとDFとが交互に繰り返されない場合に比べ、BFとDFの間におけるUAVの変位が少なくなるため、特徴点がより多く抽出される可能性が高まる。なぜならば、UAVは移動しながら撮影を行うため、BFとDFの時間差が大きくなると、両フレームで同じ特徴点を抽出できなくなる可能性が高まるためである。一方、フレームレートがUAVの移動速度に比して十分に高ければ、連続する2つのフレーム間におけるUAVの自己位置の差は、無視できる程度に少ない。したがって、自律移動システム20によれば、SLAM処理の精度、すなわち位置推定の精度及びマップ情報の精度を向上させることが可能である。
[第3実施形態]
図10は、さらに別の実施形態に係る自律移動システム30の構成を示すブロック図である。自律移動システム30は、撮像部300と、SLAM部310と、撮像制御部320と、移動制御部330とを含む。SLAM部310は、より詳細には、特徴点抽出部311と、位置推定部312と、地図生成部313とを含む。
自律移動システム30は、いくつかの点を除き、第2実施形態の自律移動システム20と同様の構成を有する。具体的には、自律移動システム30は、撮像制御に履歴情報を用いる点において自律移動システム20と相違する。より詳細には、自律移動システム30は、以下の構成が自律移動システム20と異なる。
撮像制御部320は、履歴情報を記憶する記憶部321を含む。履歴情報は、映像データの各フレームにおける絶対輝度値の履歴を示す。履歴情報は、撮像部300による撮像中にシーンがどのように変化したかを示しているともいえる。撮像制御部320は、撮像部300が撮像を開始してからの全フレームの絶対輝度値を記憶部321に記憶するように構成されてもよいが、直近の一定期間のフレームの絶対輝度値のみを記憶部321に記憶し、古い情報を破棄するように構成されてもよい。
履歴情報は、絶対輝度値とその座標を関連付けたデータであってもよいが、絶対輝度値のヒストグラムであってもよい。換言すれば、履歴情報は、各フレームの輝度の傾向、すなわち、各フレームが全体としてどのような明るさのシーンであるかを特定できれば足りる。
以下においては、記憶部321には、各フレームの絶対輝度値のヒストグラムが履歴情報として記憶されているとする。絶対輝度値のヒストグラムを算出する機能は、SLAM部310と撮像制御部320のいずれが有していてもよい。
例えば、SLAM部310が絶対輝度値のヒストグラムを算出する場合、特徴点抽出部311は、まず、画像を構成する各画素の相対輝度値に基づいて、各画素の絶対輝度値を算出する。次いで、特徴点抽出部311は、各画素の絶対輝度値を用いてヒストグラムを算出し、算出されたヒストグラムをフレーム毎に撮像制御部320に供給する。撮像制御部320は、特徴点抽出部311から供給されたヒストグラムを記憶部321に記録する。
一方、撮像制御部320が絶対輝度値のヒストグラムを算出する場合、特徴点抽出部311は、画像を構成する各画素の相対輝度値を撮像制御部320に供給する。撮像制御部320は、特徴点抽出部311から供給された各画素の相対輝度値に基づいて、絶対輝度値のヒストグラムを算出する。
撮像制御部320は、履歴情報を参照することにより、絶対輝度値の時間変化を特定することができる。換言すれば、撮像制御部320は、履歴情報を参照することにより、映像においてシーンがどのように変化したかを特定することができる。例えば、撮像制御部320は、シーンが全体として明るくなったり、あるいは暗くなったりしていることを、履歴情報に基づいて特定することができる。
また、撮像制御部320は、このような履歴情報を用いて露光条件をリセットすることができる。ここでいうリセットは、例えば、BF用及びDF用の露光量のそれぞれを所定の値(例えば、初期値)に変更することである。例えば、撮像制御部320は、特徴点抽出部311により抽出される特徴点の数(又はその変化)が所定の条件を満たした場合に、露光条件をリセットする。あるいは、撮像制御部320は、絶対輝度値が所定の分布を示す場合(換言すれば、絶対輝度値のヒストグラムが所定の形状の曲線となる場合)に、露光条件をリセットしてもよい。
一例として、撮像制御部320は、特徴点抽出部311により抽出される特徴点の数が時間とともに減少した場合(例えば、所定の期間に所定の割合以上減少した場合)や、特徴点抽出部311により抽出される特徴点の数が所定の閾値以下になった場合に、露光条件をリセットする。換言すれば、撮像制御部320は、特徴点抽出部311により抽出される特徴点の数が減少し、位置推定が失敗する可能性が高まった場合に、露光条件をリセットする。
図11A〜図11Dは、本実施形態における撮像制御、すなわち露光条件のリセットの一例を示す図である。図11A〜図11Dに示すヒストグラムは、それぞれ、シーン全体の絶対輝度値を仮想的に示す。これらのヒストグラムは、シーン全体の絶対輝度値の時系列的な変化を示している。すなわち、ヒストグラムHは、ヒストグラムHよりも後のシーンのヒストグラムである。また、ヒストグラムHは、ヒストグラムHよりも後のシーンのヒストグラムである。また、ヒストグラムHは、ヒストグラムHよりも後のシーンのヒストグラムである。また、図中のBF、DFは、それぞれ、各シーンにおけるBF又はDFの輝度レンジ(すなわち撮像可能な絶対輝度値の範囲)を示している。なお、履歴情報として記録される絶対輝度値は、図示されたヒストグラム全体ではなく、図中のBF又はDFの範囲に含まれる絶対輝度値のみである。
図11A〜図11Dを用いて例示されたシーンは、絶対輝度値のピークを2つ有し、かつ、明るい側のピークに相当する領域が撮像範囲から徐々に外れるようなシーンである。本実施形態において、このようなシーンが撮像された場合、BF及びDFの輝度レンジは、最初は徐々に明るい側にシフトする(図11A、図11B参照)。
しかし、撮像部300の輝度レンジは有限であるため、BFの輝度レンジは、一定の値より明るくはならない。一方、シーンは徐々に変化し、明るい側のピークに相当する領域は、撮像範囲から外れていく(図11B、図11C参照)。そうすると、BF及びDFの輝度レンジのオーバーラップが増えたとしても、双方のフレームから抽出される特徴点はさほど増加しない。また、シーンの変化に追従し続けるだけでは、十分な数の特徴点がBF及びDFの双方から抽出できなくなる可能性も生じる。
そこで、撮像制御部320は、撮像されたシーンにこのような変化がある場合に、露光条件をリセットする。具体的には、撮像制御部320は、BF及びDFのうち、特徴点抽出部311により抽出される特徴点の数がより多いフレームの絶対輝度値に基づいて露光条件をリセットする。図11Cの例の場合、撮像制御部320は、相対輝度値が小さくなる(すなわち、露光量が少なくなる)方向に露光条件を変更する。
そうすると、BF及びDFの輝度レンジは、シーンの変化に追従したそれまでの変化(図11A〜図11C参照)とは異なり、初期値に応じた一定の範囲に変化する(図11D参照)。このようにすることで、BF及びDFの輝度レンジがシーンの変化に再び追従するように変化することが可能になる。したがって、撮像制御部320は、位置推定をシーンの変化に対して頑強にすることが可能である。
図12A及び図12Bは、本実施形態における撮像制御の別の例を示す図である。図12A及び図12Bに示すヒストグラムは、図11A〜図11Dに示すヒストグラムと同様に、シーン全体の絶対輝度値をそれぞれ示す。また、図中のBF、DFは、それぞれ、各シーンにおけるBF又はDFの輝度レンジ(すなわち撮像可能な絶対輝度値の範囲)を示している。
図12Aの例において、撮像制御部320は、特徴点抽出部311により抽出される特徴点の数が少なく、所定の閾値以下であったとする。このように、絶対輝度値のヒストグラムに偏りがある場合において、第2実施形態の撮像制御(図9参照)を実行すると、BF及びDFの輝度レンジは、徐々にヒストグラムのピーク位置にシフトする。しかし、BF及びDFの輝度レンジがピーク位置にシフトし、双方のフレームにおいて十分な数の特徴点が抽出できるようになるまでに時間を要する。
このような場合において、撮像制御部320は、履歴情報に基づいて露光条件をリセットする。具体的には、撮像制御部320は、特徴点抽出部311により抽出される特徴点の数が所定の閾値以下である場合に、BF及びDFの絶対輝度値に基づいて、特徴点がより多く抽出される方向(この例の場合、露光量が少なくなる方向)に露光条件を変更する。
そうすると、BF及びDFの輝度レンジは、図12Bに示すようにシフトする。これにより、特徴点抽出部311は、十分な数の特徴点を、第2実施形態の撮像制御が実行された場合よりも少ない所要時間で抽出できるようになる。したがって、撮像制御部320は、位置推定をシーンの変化に対して頑強にすることが可能である。
[変形例]
上述した第1〜第3実施形態は、例えば、以下のような変形を適用することができる。これらの変形例は、必要に応じて適宜組み合わせることも可能である。また、特定の実施形態を用いて記載された変形例は、矛盾を生じない範囲において、他の実施形態にも適用され得る。
(1)映像処理部110は、映像に基づいてオプティカルフローを算出してもよい。オプティカルフローは、映像に含まれる物体の動きを表す。映像処理部110は、オプティカルフローに基づいて、撮像範囲の移動方向(換言すれば、撮像部100の移動方向)を推定することができる。なお、オプティカルフローの算出方法は、周知のいずれの方法であってもよく、特に限定されない。
撮像制御部120は、映像関連情報と、映像処理部110により推定された撮像範囲の移動方向にある画素の明るさとに基づいて露光条件を決定してもよい。例えば、撮像制御部120は、ステップS12において決定された露光条件を、映像処理部110により推定された撮像範囲の移動方向にある画素の明るさに基づいて補正する。
一例として、撮像範囲に占める明るい領域の割合が徐々に多くなるような場合、撮像部100は、撮像されるシーンに明るい物体が徐々に増えているか、あるいは暗い場所から明るい場所に向かっている、といえる。例えば、撮像部100を搭載した物体がトンネル内から出口に移動するような場合の映像は、時間とともに明るくなる。このような場合、撮像制御部120は、明るくなった画像からでも特徴点が抽出できるように、露光量を低下させる。
なお、映像から算出されるオプティカルフローには、撮像範囲の移動方向と異なるものが含まれ得る。例えば、映像に自動車や人間などの物体が映り込んだ場合、この物体に対応するオプティカルフローは、シーン全体としてのオプティカルフローと異なる動きを示す。映像処理部110は、このようなオプティカルフローを無視することにより、シーン中の移動する物体が移動方向の推定に与える影響を低減させてもよい。
(2)マップ情報は、SLAM処理によって生成されてもよいが、あらかじめ生成及び記録されていてもよい。マップ情報があらかじめ記録される場合、SLAM部210は、マッピング処理を実行する必要がない。すなわち、SLAM部210は、所定の記憶領域にあらかじめ記録されたマップ情報に基づいて位置推定処理を実行する。なお、このようなマップ情報は、自律移動システム20とは別の撮像システムを用いて生成されてもよい。
(3)マップ情報は、複数の特徴点の位置及び特徴量を示す情報(以下「第1の情報」ともいう。)に加え、当該複数の特徴点の明るさを示す情報(以下「第2の情報」ともいう。)を含んでもよい。第2の情報は、例えば、特徴点の絶対輝度値を示す情報である。第2の情報は、特徴点の絶対輝度値をヒストグラムで表す情報であってもよい。
第2の情報は、マップ情報と同様にあらかじめ記録されていてもよいが、位置推定部212により生成され、キーフレーム情報の一部として地図生成部213に供給されてもよい。あらかじめ記録されたマップ情報に第2の情報が含まれる場合には、特徴点の抽出に必要なおおよその露光条件が予測可能である。
マップ情報が第2の情報を含む場合、撮像制御部220は、BF及びDFの特徴点ヒストグラム(すなわち、映像関連情報)と、第2の情報とに基づいて露光条件を決定することができる。例えば、撮像制御部220は、第2の情報により示される特徴点の絶対輝度値に基づいて、BF及びDFの双方で抽出可能な特徴点が一定数を超えるように露光量を決定してもよい。このようにすれば、撮像制御部220は、実空間上の特徴点が既知の位置の近傍においては、第2の情報に基づいて露光条件を決定することができる。したがって、撮像制御部220は、位置推定が失敗する可能性を低減させることが可能である。
さらに、撮像制御部220は、あらかじめ記録された第2の情報と位置推定部212により生成された第2の情報とがある場合には、これらの比較結果に基づく撮像制御を実行してもよい。あらかじめ記録された第2の情報は、あらかじめ記録されたマップ情報が生成された時点での特徴点の明るさを示す。これに対し、位置推定部212により生成された第2の情報は、撮像部200により撮像された時点での特徴点の明るさ、すなわち、すなわち撮像時の明るさを示す。したがって、マップ情報により表される実空間が屋外のように照明条件が一定でない空間である場合には、これらの第2の情報が表す特徴点は、実際には同じ特徴点であっても絶対輝度値が異なる可能性がある。そうすると、撮像制御部220は、第2の情報に基づいて露光条件を決定する場合に適切な露光条件とすることができずに、十分な数の特徴点が抽出できない映像が撮像される可能性が生じる。
そこで、撮像制御部220は、あらかじめ記録された第2の情報と位置推定部212により生成された第2の情報とがある場合には、同一(又は実質的に同一)の位置にある特徴点の明るさを比較し、その差に応じた露光条件を決定してもよい。例えば、撮像制御部220は、あらかじめ記録された第2の情報により示されるある特徴点の絶対輝度値(以下「第1の絶対輝度値」ともいう。)と、位置推定部212から供給された当該特徴点の絶対輝度値(以下「第2の絶対輝度値」ともいう。)との差分が所定の閾値以上である場合には、あらかじめ記録された第2の情報に基づいて決定された露光量を補正する。より具体的には、撮像制御部220は、第1の絶対輝度値が第2の絶対輝度値よりも明るい場合には、あらかじめ記録された第2の情報に基づいて決定された露光量を低下させる方向(すなわち明るさを抑える方向)に補正する。このようにすれば、撮像制御部220は、撮像時の照明条件に応じた露光条件で撮像部200に撮像させることが可能である。したがって、撮像制御部220は、位置推定が失敗する可能性を低減させることが可能である。
(5)撮像部200による撮像処理と、SLAM処理とは、それぞれ独立に実行されてもよい。あるいは、これらの処理は、同期的に実行されてもよい。ここでいう同期的とは、一方の処理の実行タイミングが他方の処理の実行タイミングに依存することをいう。
(6)SLAM部210は、UAVの位置又は姿勢が大きく変化した場合などに、SLAM処理を失敗する可能性がある。撮像制御部220は、例えば、あるフレームに対応するSLAM処理が失敗し、SLAM部210から特徴点の相対輝度値が得られなかった場合、図9の処理によっては、当該フレームの次のフレームの露光量を決定できない。
このような場合に対処するため、撮像制御部220は、BF用及びDF用の露光量の最新の値を記憶してもよい。そして、撮像制御部220は、SLAM処理が失敗した場合には、BF用又はDF用の露光量の最新の値を用いて露光量を設定する。
図13は、SLAM処理が失敗した場合の露光量の設定手順を示す。ここにおいて、F1〜F5は、フレーム番号を意味する。また、E1〜E5は、フレームF1〜F5における露光量を意味する。なお、フレームF1、F3、F5は、ここではBFであるとする。また、フレームF2、F4は、ここではDFであるとする。
フレームF1は、露光量の初期値を用いて撮像される(図9のステップS221参照)。すなわち、露光量E1は、この初期値に相当する。フレームF2の露光量E2は、フレームF1から抽出された特徴点の相対輝度値に基づいて決定される。このとき、撮像制御部220は、BF用の露光量の最新の値としてE1、DF用の露光量の最新の値としてE2をそれぞれ記憶している。
同様に、フレームF3の露光量E3は、フレームF2から抽出された特徴点の相対輝度値に基づいて決定され、フレームF4の露光量E4は、フレームF3から抽出された特徴点の相対輝度値に基づいて決定される。撮像制御部220は、露光量が決定される毎に、BF用又はDF用の露光量の最新の値を更新する。例えば、露光量E4を決定した時点では、撮像制御部220は、BF用の露光量の最新の値としてE3、DF用の露光量の最新の値としてE4をそれぞれ記憶している。
ここで、フレームF4に対応するSLAM処理が失敗し、特徴点の相対輝度値を得ることができなかったと仮定する。このような場合、撮像制御部220は、BF用の露光量の最新の値、すなわちE3をフレームF5の露光量E5として用いる。このようにすれば、撮像制御部220は、SLAM処理が一時的に失敗したとしても、露光制御を中断することなく継続させることが可能である。
(7)SLAM処理によって推定された自己位置は、露光量に起因した誤差を含む場合がある。例えば、第2実施形態のようにBF用の露光量とDF用の露光量とで交互に撮像を実行すると、BFにおいて推定された自己位置とDFにおいて推定された自己位置との間に系統的な誤差が生じる可能性がある。
図14は、露光量に起因する自己位置の誤差の一例を示す。ここにおいて、F1〜F5は、フレーム番号を意味する。また、P1〜P5は、フレームF1〜F5において推定された自己位置を意味する。なお、フレームF1、F3、F5は、ここではBFであるとする。また、フレームF2、F4は、ここではDFであるとする。
UAVは、実際には、図中の矢印に沿った軌跡で移動しているものとする。すなわち、この例では、自己位置P1〜P5に誤差が生じている。これらの誤差は、BFとDFとで異なる傾向を示している。なお、このような誤差の生じやすさは、特徴点の抽出アルゴリズムや撮像対象によって異なり得る。
このような誤差が生じる場合、SLAM部210(地図生成部213)は、撮像部200の位置を、2以上のフレームにおいて推定された自己位置に基づいて合成してもよい。より詳細には、SLAM部210は、BFから推定された自己位置とDFから推定された自己位置とを別のマップ情報として記録し、これらを合成することにより自己位置を補正する。ここでいう合成は、例えば、時間的に近接する2以上の自己位置の座標の平均値を算出し、この平均値を補正後の座標とみなす処理である。
ここにおいて、SLAM部210は、自己位置の信頼性に応じた重み付けに従った補正を実行してもよい。例えば、SLAM部210は、自己位置の信頼性に応じた重み付き平均を用いて補正後の座標を算出してもよい。ここでいう信頼性は、例えば、各々のフレームから抽出された特徴点の数に基づいて定められる。具体的には、自己位置の座標は、抽出可能な特徴点の数が多いフレームに基づいて推定されたものほど、信頼性が高い(すなわち誤差が少ない)。
(8)撮像部100は、単一の物体に搭載された複数の撮像素子によって構成されてもよい。例えば、撮像部100は、BF用の撮像素子とDF用の撮像素子とを含んで構成されてもよい。あるいは、撮像部100は、単一の撮像素子にBF用の撮像領域(1又は複数のセル)とDF用の撮像領域とを含んで構成されてもよい。
(9)本開示に係る装置(位置推定装置10、自律移動システム20、及び自律移動システム30)の具体的なハードウェア構成は、さまざまなバリエーションが含まれ、特定の構成に限定されない。例えば、本開示に係る装置は、ソフトウェアを用いて実現されてもよく、複数のハードウェアを用いて各種処理を分担するように構成されてもよい。
図15は、本開示に係る装置を実現するコンピュータ装置400のハードウェア構成の一例を示すブロック図である。コンピュータ装置400は、CPU(Central Processing Unit)401と、ROM(Read Only Memory)402と、RAM(Random Access Memory)403と、記憶装置404と、ドライブ装置405と、通信インタフェース406と、入出力インタフェース407とを含んで構成される。
CPU401は、RAM403を用いてプログラム408を実行する。通信インタフェース406は、ネットワーク410を介して外部装置とデータをやり取りする。入出力インタフェース407は、周辺機器(撮像装置など)とデータをやり取りする。通信インタフェース406及び入出力インタフェース407は、データを取得又は出力するための構成要素として機能することができる。
なお、プログラム408は、ROM402に記憶されていてもよい。また、プログラム408は、メモリカード等の記録媒体409に記録され、ドライブ装置405によって読み出されてもよいし、外部装置からネットワーク410を介して送信されてもよい。
本開示に係る装置は、図15に示す構成(又はその一部)によって実現され得る。例えば、位置推定装置10の場合、映像処理部110及び撮像制御部120は、CPU401、ROM402及びRAM403に対応する。
なお、本開示に係る装置の構成要素は、単一の回路(プロセッサ等)によって構成されてもよいし、複数の回路の組み合わせによって構成されてもよい。ここでいう回路(circuitry)は、専用又は汎用のいずれであってもよい。例えば、本開示に係る装置は、一部が専用のプロセッサによって実現され、他の部分が汎用のプロセッサによって実現されてもよい。例えば、映像処理部110と撮像制御部120は、別異のプロセッサによって構成されてもよい。
[付記]
本開示の一部又は全部は、以下の付記のようにも記載され得る。ただし、本発明は、必ずしもこの付記の態様に限定されない。
(付記1)
撮像手段により撮像され、複数のフレームにより構成される映像から抽出される複数の特徴点に基づく当該撮像手段の位置推定を含む映像処理を実行する映像処理手段と、
前記複数のフレームのうちの第1のグループに属する第1のフレームに対する前記映像処理において得られる映像関連情報に基づいて、前記複数のフレームのうちの前記第1のグループと異なる第2のグループに属する第2のフレームにおける前記撮像手段の露光条件を決定する撮像制御手段と
を備える位置推定装置。
(付記2)
前記撮像制御手段は、前記第1のフレームと前記第2のフレームとから同一の特徴点が複数抽出されるように前記露光条件を決定する
付記1に記載の位置推定装置。
(付記3)
前記映像処理手段は、前記複数の特徴点の位置及び特徴量を示す第1の情報と、当該複数の特徴点の明るさを示す第2の情報とを含むマップ情報に基づいて前記位置推定を実行し、
前記撮像制御手段は、前記映像関連情報と、前記第2の情報とに基づいて、前記第2のフレームにおける前記露光条件を決定する
付記1又は付記2に記載の位置推定装置。
(付記4)
前記撮像制御手段は、前記第2の情報により示される前記複数の特徴点のうちの少なくともいずれかの特徴点の明るさと、当該特徴点の撮像時の明るさとに基づいて、前記第2のフレームにおける前記露光条件を決定する
付記3に記載の位置推定装置。
(付記5)
前記映像処理手段は、前記映像におけるオプティカルフローに基づいて撮像範囲の移動方向を推定し、
前記撮像制御手段は、前記映像関連情報と、前記推定された移動方向にある画素の明るさとに基づいて、前記第2のフレームにおける前記露光条件を決定する
付記1から付記4までのいずれかに記載の位置推定装置。
(付記6)
前記映像処理手段は、前記位置推定により推定された前記撮像手段の位置を、前記第1のグループに属するフレームにおいて推定された位置と前記第2のグループに属するフレームにおいて推定された位置とを用いて補正する
付記1から付記5までのいずれかに記載の位置推定装置。
(付記7)
前記映像処理手段は、
前記第1のグループに属するフレームにおいて推定された位置と前記第2のグループに属するフレームにおいて推定された位置との信頼性に基づく重み付けに従って、前記撮像手段の位置を補正する
付記6に記載の位置推定装置。
(付記8)
前記映像におけるシーンの変化を示す履歴情報を記憶する記憶手段を備え、
前記撮像制御手段は、所定の条件を満たした場合に、前記第2のフレームにおける前記露光条件をリセットする
付記1から付記7までのいずれかに記載の位置推定装置。
(付記9)
撮像手段により撮像され、複数のフレームにより構成される映像から抽出される複数の特徴点に基づく当該撮像手段の位置推定を含む映像処理を実行し、
前記複数のフレームのうちの第1のグループに属する第1のフレームに対する前記映像処理において得られる映像関連情報に基づいて、前記複数のフレームのうちの前記第1のグループと異なる第2のグループに属する第2のフレームにおける前記撮像手段の露光条件を決定する
位置推定方法。
(付記10)
前記露光条件を、前記第1のフレームと前記第2のフレームとから同一の特徴点が複数抽出されるように決定する
付記9に記載の位置推定方法。
(付記11)
コンピュータに、
撮像手段により撮像され、複数のフレームにより構成される映像から抽出される複数の特徴点に基づく当該撮像手段の位置推定を含む映像処理を実行する第1のステップと、
前記複数のフレームのうちの第1のグループに属する第1のフレームに対する前記映像処理において得られる映像関連情報に基づいて、前記複数のフレームのうちの前記第1のグループと異なる第2のグループに属する第2のフレームにおける前記撮像手段の露光条件を決定する第2のステップと
を実行させるためのプログラムを記録したコンピュータ読み取り可能なプログラム記録媒体。
(付記12)
前記決定するステップは、前記第1のフレームと前記第2のフレームとから同一の特徴点が複数抽出されるように前記露光条件を決定する
付記11に記載のプログラム記録媒体。
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
10 位置推定装置
100 撮像部
110 映像処理部
120 撮像制御部
20、30 自律移動システム
200、300 撮像部
210、310 SLAM部
211、311 特徴点抽出部
212、312 位置推定部
213、313 地図生成部
220、320 撮像制御部
321 記憶部
230、330 移動制御部
400 コンピュータ装置

Claims (12)

  1. 撮像手段により撮像され、複数のフレームにより構成される映像から抽出される複数の特徴点に基づく当該撮像手段の位置推定を含む映像処理を実行する映像処理手段と、
    前記複数のフレームのうちの第1のグループに属する第1のフレームに対する前記映像処理において得られる映像関連情報に基づいて、前記複数のフレームのうちの前記第1のグループと異なる第2のグループに属する第2のフレームにおける前記撮像手段の露光条件を決定する撮像制御手段と
    を備える位置推定装置。
  2. 前記撮像制御手段は、前記第1のフレームと前記第2のフレームとから同一の特徴点が複数抽出されるように前記露光条件を決定する
    請求項1に記載の位置推定装置。
  3. 前記映像処理手段は、前記複数の特徴点の位置及び特徴量を示す第1の情報と、当該複数の特徴点の明るさを示す第2の情報とを含むマップ情報に基づいて前記位置推定を実行し、
    前記撮像制御手段は、前記映像関連情報と、前記第2の情報とに基づいて、前記第2のフレームにおける前記露光条件を決定する
    請求項1又は請求項2に記載の位置推定装置。
  4. 前記撮像制御手段は、前記第2の情報により示される前記複数の特徴点のうちの少なくともいずれかの特徴点の明るさと、当該特徴点の撮像時の明るさとに基づいて、前記第2のフレームにおける前記露光条件を決定する
    請求項3に記載の位置推定装置。
  5. 前記映像処理手段は、前記映像におけるオプティカルフローに基づいて撮像範囲の移動方向を推定し、
    前記撮像制御手段は、前記映像関連情報と、前記推定された移動方向にある画素の明るさとに基づいて、前記第2のフレームにおける前記露光条件を決定する
    請求項1から請求項4までのいずれか1項に記載の位置推定装置。
  6. 前記映像処理手段は、前記位置推定により推定された前記撮像手段の位置を、前記第1のグループに属するフレームにおいて推定された位置と前記第2のグループに属するフレームにおいて推定された位置とを用いて補正する
    請求項1から請求項5までのいずれか1項に記載の位置推定装置。
  7. 前記映像処理手段は、
    前記第1のグループに属するフレームにおいて推定された位置と前記第2のグループに属するフレームにおいて推定された位置との信頼性に基づく重み付けに従って、前記撮像手段の位置を補正する
    請求項6に記載の位置推定装置。
  8. 前記映像におけるシーンの変化を示す履歴情報を記憶する記憶手段を備え、
    前記撮像制御手段は、所定の条件を満たした場合に、前記第2のフレームにおける前記露光条件をリセットする
    請求項1から請求項7までのいずれか1項に記載の位置推定装置。
  9. 撮像手段により撮像され、複数のフレームにより構成される映像から抽出される複数の特徴点に基づく当該撮像手段の位置推定を含む映像処理を実行し、
    前記複数のフレームのうちの第1のグループに属する第1のフレームに対する前記映像処理において得られる映像関連情報に基づいて、前記複数のフレームのうちの前記第1のグループと異なる第2のグループに属する第2のフレームにおける前記撮像手段の露光条件を決定する
    位置推定方法。
  10. 前記露光条件を、前記第1のフレームと前記第2のフレームとから同一の特徴点が複数抽出されるように決定する
    請求項9に記載の位置推定方法。
  11. コンピュータに、
    撮像手段により撮像され、複数のフレームにより構成される映像から抽出される複数の特徴点に基づく当該撮像手段の位置推定を含む映像処理を実行するステップと、
    前記複数のフレームのうちの第1のグループに属する第1のフレームに対する前記映像処理において得られる映像関連情報に基づいて、前記複数のフレームのうちの前記第1のグループと異なる第2のグループに属する第2のフレームにおける前記撮像手段の露光条件を決定するステップと
    を実行させるためのプログラムを記録したコンピュータ読み取り可能なプログラム記録媒体。
  12. 前記決定するステップは、前記第1のフレームと前記第2のフレームとから同一の特徴点が複数抽出されるように前記露光条件を決定する
    請求項11に記載のプログラム記録媒体。
JP2019532286A 2017-07-27 2017-07-27 位置推定装置、位置推定方法及びプログラム Active JP6819785B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/027167 WO2019021412A1 (ja) 2017-07-27 2017-07-27 位置推定装置、位置推定方法及びプログラム記録媒体

Publications (2)

Publication Number Publication Date
JPWO2019021412A1 true JPWO2019021412A1 (ja) 2020-04-16
JP6819785B2 JP6819785B2 (ja) 2021-01-27

Family

ID=65040694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019532286A Active JP6819785B2 (ja) 2017-07-27 2017-07-27 位置推定装置、位置推定方法及びプログラム

Country Status (3)

Country Link
US (1) US11457158B2 (ja)
JP (1) JP6819785B2 (ja)
WO (1) WO2019021412A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7283378B2 (ja) * 2019-12-26 2023-05-30 株式会社豊田自動織機 自己位置推定装置、移動体、自己位置推定方法、及び自己位置推定プログラム
JP2022099868A (ja) * 2020-12-23 2022-07-05 株式会社デンソー 車載用カメラ

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048513A (ja) * 2000-05-26 2002-02-15 Honda Motor Co Ltd 位置検出装置、位置検出方法、及び位置検出プログラム
JP2002185867A (ja) * 2000-12-13 2002-06-28 Canon Inc 撮像装置、撮像装置の制御装置及び光量制御方法
JP2003304417A (ja) * 2002-04-08 2003-10-24 Olympus Optical Co Ltd 撮像システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7844077B2 (en) * 2007-07-06 2010-11-30 Topcon Corporation Location measuring device and method
JP4985516B2 (ja) 2008-03-27 2012-07-25 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
RU2623295C2 (ru) * 2011-05-20 2017-06-23 Оптилифт Ас Система, устройство и способ текущего контроля положения и ориентации транспортного средства, погрузочного устройства и груза при работе погрузочного устройства
US9357136B2 (en) * 2014-02-04 2016-05-31 Nokia Technologies Oy Using inertial sensors to provide smoothed exposure and white balance adjustments for video and photographic applications
EP3128740B1 (en) * 2014-03-31 2020-04-01 Sony Corporation Image-capturing device, method for outputting image data, and program
JP2015144475A (ja) 2015-03-11 2015-08-06 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048513A (ja) * 2000-05-26 2002-02-15 Honda Motor Co Ltd 位置検出装置、位置検出方法、及び位置検出プログラム
JP2002185867A (ja) * 2000-12-13 2002-06-28 Canon Inc 撮像装置、撮像装置の制御装置及び光量制御方法
JP2003304417A (ja) * 2002-04-08 2003-10-24 Olympus Optical Co Ltd 撮像システム

Also Published As

Publication number Publication date
WO2019021412A1 (ja) 2019-01-31
JP6819785B2 (ja) 2021-01-27
US11457158B2 (en) 2022-09-27
US20200154023A1 (en) 2020-05-14

Similar Documents

Publication Publication Date Title
US20200043225A1 (en) Image processing apparatus and control method thereof
US10511776B2 (en) Image fusion method and apparatus, and terminal device
CN108335279B (zh) 图像融合和hdr成像
US9330446B2 (en) Method and apparatus for processing image
KR101071352B1 (ko) 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법
EP2273450A2 (en) Target tracking apparatus, image tracking apparatus, methods of controlling operation of same, and digital camera
CN110008795B (zh) 图像目标追踪方法及其系统与计算机可读取记录介质
CN109922275B (zh) 曝光参数的自适应调整方法、装置及一种拍摄设备
CN108335272B (zh) 一种拍摄图片的方法及设备
US11089236B2 (en) Image processing apparatus and image processing method, and image capturing apparatus
JP2008259161A (ja) 目標追尾装置
CN110958361B (zh) 能够进行hdr合成的摄像设备及其控制方法和存储介质
US11343434B2 (en) Image processing apparatus and control method for same
JP6819785B2 (ja) 位置推定装置、位置推定方法及びプログラム
JP2019101996A (ja) 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法
JP5118590B2 (ja) 被写体追尾方法及び撮像装置
EP3799416A1 (en) Image processing apparatus and method, and image capturing apparatus
US12008773B2 (en) Object tracking apparatus and control method thereof using weight map based on motion vectors
JP2014093037A (ja) 画像処理装置
WO2023166556A1 (ja) 情報処理システム、情報処理方法、及び記録媒体
JP5677485B2 (ja) ホワイトバランス制御装置およびそれを用いた撮像装置並びにホワイトバランス制御方法
US20230096626A1 (en) Image processing device and image processing method
JP2017123069A (ja) 画像処理装置および方法、および撮像装置
JP2023086273A (ja) 画像処理装置およびその制御方法
CN115953342A (zh) 图像处理方法及装置、终端设备、存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R150 Certificate of patent or registration of utility model

Ref document number: 6819785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150