JP2019149621A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2019149621A
JP2019149621A JP2018032150A JP2018032150A JP2019149621A JP 2019149621 A JP2019149621 A JP 2019149621A JP 2018032150 A JP2018032150 A JP 2018032150A JP 2018032150 A JP2018032150 A JP 2018032150A JP 2019149621 A JP2019149621 A JP 2019149621A
Authority
JP
Japan
Prior art keywords
image
feature point
registered
information
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018032150A
Other languages
English (en)
Inventor
雄也 山口
Yuya Yamaguchi
雄也 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2018032150A priority Critical patent/JP2019149621A/ja
Priority to US16/971,114 priority patent/US11430204B2/en
Priority to PCT/JP2019/004790 priority patent/WO2019163576A1/ja
Priority to EP19757243.1A priority patent/EP3761629B1/en
Publication of JP2019149621A publication Critical patent/JP2019149621A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

【課題】撮像画像に対して適切な露光制御を行うことができる。【解決手段】マッチング部は、撮像画像から抽出された特徴点を、所定の記憶部に記憶されている登録特徴点とマッチングし、登録特徴点に対応する撮像画像の特徴点である対応特徴点を抽出する。制御部は、撮像画像の対応特徴点の近傍領域の画像である領域画像に基づいて露光制御値を設定する。本技術は、例えば、移動体に設けられたカメラの露光制御を行う露光制御装置等に適用できる。【選択図】図1

Description

本技術は、情報処理装置、情報処理方法、およびプログラムに関し、特に、撮像画像に対して適切な露光制御を行うことができるようにした情報処理装置、情報処理方法、およびプログラムに関する。
ビューイング(鑑賞)を目的として撮像するカメラの露光制御では、画像全体の光量が指定した値となるように露光制御するものや、(経験的に人物などの重要な被写体が映りやすい)画像上の特定領域の光量が指定した値となるように露光制御するものがある。例えば、特許文献1には、撮像領域を複数の小領域に分割し、分割された小領域から選択した特定領域の輝度値に応じて露光を制御する方法が開示されている。
特開2007−74163号公報
近年、産業用カメラ、監視カメラ、車載カメラといった特定用途カメラ向けに独自の露光制御を行うことも増えてきている。自動車、自律移動ロボット、ドローンなどのような、自律的に移動を制御する移動体には、カメラが搭載されており、カメラで撮像された画像に基づいて自己位置の推定を行っている。例えば、ドローンのような3次元空間上を自由に動き回る装置に搭載されるカメラでは、撮像される被写体とその映り方のバリエーションが膨大となり、特定領域の光量による露光制御では、撮影用途に重要な被写体の露光を制御できず、被写体の追従が出来ないといった問題が発生する。
本技術は、このような状況に鑑みてなされたものであり、位置推定などに撮像画像を用いる場合に、撮像画像に対して適切な露光制御を行うことができるようにするものである。
本技術の一側面の情報処理装置は、撮像画像から抽出された特徴点を、所定の記憶部に記憶されている登録特徴点とマッチングし、前記登録特徴点に対応する前記撮像画像の特徴点である対応特徴点を抽出するマッチング部と、前記撮像画像の前記対応特徴点の近傍領域の画像である領域画像に基づいて露光制御値を設定する制御部とを備える。
本技術の一側面の情報処理方法は、情報処理装置が、撮像画像から抽出された特徴点を、所定の記憶部に記憶されている登録特徴点とマッチングし、前記登録特徴点に対応する前記撮像画像の特徴点である対応特徴点を抽出し、前記撮像画像の前記対応特徴点の近傍領域の画像である領域画像に基づいて露光制御値を設定する。
本技術の一側面のプログラムは、コンピュータを、撮像画像から抽出された特徴点を、所定の記憶部に記憶されている登録特徴点とマッチングし、前記登録特徴点に対応する前記撮像画像の特徴点である対応特徴点を抽出するマッチング部と、前記撮像画像の前記対応特徴点の近傍領域の画像である領域画像に基づいて露光制御値を設定する制御部として機能させるものである。
本技術の一側面においては、撮像画像から抽出された特徴点が、所定の記憶部に記憶されている登録特徴点とマッチングされ、前記登録特徴点に対応する前記撮像画像の特徴点である対応特徴点が抽出され、前記撮像画像の前記対応特徴点の近傍領域の画像である領域画像に基づいて露光制御値が設定される。
なお、本技術の一側面の情報処理装置は、コンピュータにプログラムを実行させることにより実現することができる。
また、本技術の一側面の情報処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
情報処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本技術の一側面によれば、撮像画像に対して適切な露光制御を行うことができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した情報処理装置の一実施の形態である露光制御装置の構成例を示すブロック図である。 キーフレーム情報を説明する図である。 露光制御装置による露光制御処理を説明するフローチャートである。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.露光制御装置の構成例
2.露光制御処理のフローチャート
3.変形例
4.コンピュータ構成例
<1.露光制御装置の構成例>
図1は、本技術を適用した情報処理装置の一実施の形態である露光制御装置の構成例を示すブロック図である。
図1の露光制御装置1は、カメラ11、エッジ・コーナ検出部12、特徴点抽出部13、自己位置推定部14、環境マップ記憶部15、マッチング部16、領域重み選択部17、および、カメラ制御部18を備え、カメラ11の撮像画像に基づいてカメラ11の露光制御を行う。
露光制御装置1は、例えば、自動車、自律移動ロボット、ドローン等の自律的に移動を制御する移動体に組み込まれている。
なお、図1では、露光制御装置1の一部にカメラ11が含まれているが、カメラ11は露光制御装置1とは別に設けられてもよい。
カメラ11は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子、メカシャッタ、1以上のレンズ等を含み、所定のフレームレートで被写体を撮像し、その結果得られる画像(撮像画像)をエッジ・コーナ検出部12に供給する。カメラ11は、ステレオカメラやTOF(Time Of Flight)カメラ等で構成され、撮像画像の各画素の3次元位置を検出することができる。
カメラ11では、カメラ制御部18の制御に従って露光が調整される。例えば、カメラ11は、カメラ制御部18から供給される制御信号に基づいて、シャッタ期間やゲインを変更して撮像する。なお、シャッタ期間は、メカシャッタでもよいし、電子シャッタでもよい。
エッジ・コーナ検出部12は、カメラ11から供給される撮像画像のエッジまたはコーナの少なくとも一方を検出し、検出結果を、撮像画像とともに特徴点抽出部13に供給する。エッジおよびコーナの検出には、既知の任意の手法を採用することができる。
特徴点抽出部13は、エッジ・コーナ検出部12から供給されるエッジまたはコーナの検出結果を用いて、撮像画像の特徴点を抽出する。特徴点の抽出方法も、ハリスコーナー、SHIFT、SURF、FASTなどの任意の手法を用いることができる。特徴点抽出部13は、抽出した撮像画像の特徴点と、撮像画像を、自己位置推定部14に供給する。
自己位置推定部14は、特徴点抽出部13から供給される撮像画像の特徴点を用いて、Visual-SLAM(Simultaneous Localization and Mapping)により、露光制御装置1が組み込まれている移動体の位置(自己位置)および姿勢を推定する。より具体的には、自己位置推定部14は、いま特徴点抽出部13から供給された現フレームの撮像画像と、それより前のタイミングで特徴点抽出部13から供給された過去フレームの撮像画像の、特徴点の関係性に基づいて、移動体の自己位置および姿勢を推定する。また、自己位置推定部14は、撮像画像のモーショントラッキングに失敗し、過去フレームと現フレームの撮像画像の特徴点の関係性に基づく自己位置推定に失敗した場合には、環境マップ記憶部15に記憶されている、事前に撮像された撮像画像のキーフレーム情報を参照することで、現フレームの撮像画像のトラッキングを行い、自己位置推定を再開(リローカライズ)する。また、自己位置推定に失敗しなかった場合でも、環境マップ記憶部15の環境マップを用いた自己位置推定結果を参照し、その精度を向上させることもできる。
なお、露光制御装置1またはそれが組み込まれている移動体に、ジャイロセンサ、加速度センサ、磁気センサ、圧力センサ等の慣性計測センサが設けられている場合には、自己位置推定部14は、それらのセンサ情報も用いて、高精度に自己位置および姿勢を推定することができる。
ここで、環境マップ記憶部15に記憶されているキーフレーム情報を生成した撮像画像であって、事前に撮像された撮像画像を、カメラ11から順次撮像されて得られる撮像画像と区別するため、登録画像と称する。
環境マップ記憶部15には、例えば、移動体の想定される移動経路で事前に撮像された複数枚の登録画像それぞれについてのキーフレーム情報が、環境マップとして記憶されている。1つのキーフレーム情報には、登録画像に含まれる1つの特徴点の3次元位置情報(x,y,z)と、その所定の近傍領域の画像(以下、パッチ画像と称する。)が少なくとも含まれる。
図2は、1枚の登録画像から抽出された複数の特徴点Pcと、その近傍領域のパッチ画像Pgの例を示している。なお、図2では、図が煩雑になるのを防止するため、一部の特徴点Pcとパッチ画像Pgの符号については省略されている。1つのキーフレーム情報は、図2に示されるような、各登録画像で抽出された1以上の特徴点Pcの3次元位置情報(x,y,z)と、その近傍領域のパッチ画像Pgを含む。
なお、1つのキーフレーム情報には、特徴点のセマンティック情報や、特徴点の優先度、特徴点の登録画像を撮像したときの撮像時刻やカメラ位置情報、の少なくとも1つをさらに含めて記憶してもよい。特徴点のセマンティック情報は、例えば、“床”、“机”、“カーテン”などのように、その特徴点の意味づけを行う情報である。
キーフレーム情報に含まれる特徴点を、撮像画像から抽出された特徴点と区別して、登録特徴点と称する。1枚の登録画像に対して複数の登録特徴点が抽出されるので、環境マップ記憶部15には、1枚の登録画像に対して複数のキーフレーム情報が記憶されている。ただし、環境マップ記憶部15には、各登録画像から抽出された複数のキーフレーム情報が登録画像単位で記憶されており、登録画像自体は記憶されない。
なお、本実施の形態では、環境マップ記憶部15に記憶するキーフレーム情報の生成方法については特に言及しないが、露光制御装置1が自ら生成してもよいし、例えば、クラウド上のサーバ装置からダウンロードしてもよい。露光制御装置1が自ら生成する場合には、例えば、マッチング部16が登録画像からキーフレーム情報を生成する処理を行う。
マッチング部16には、現フレームの撮像画像と、撮像画像から抽出された、1以上の特徴点に関する特徴点情報が、自己位置推定部14から供給される。
マッチング部16は、現フレームの撮像画像の1以上の特徴点を、環境マップ記憶部15に記憶されているキーフレーム情報の登録特徴点と登録画像単位でマッチングすることにより、環境マップ記憶部15に記憶されている所定の登録画像に対応する1以上のキーフレーム情報を選択する。例えば、マッチング部16は、DBoW(Distributed Bag of Words)等の手法を用いて、現フレームの撮像画像に含まれる1以上の特徴点と、キーフレーム情報の登録特徴点とのマッチングを登録画像単位で行い、最も相関の高い(スコアの高い)登録画像を特定して、そのキーフレーム情報を選択する。DBoWの手法については、例えば、“Bags of binary words for fast place recognition in image sequences,” IEEE2012などに開示されている。なお、マッチングの方法は、DBoWに限定されず、例えば、ニューラルネットワークを用いて、現フレームの撮像画像の1以上の特徴点と、キーフレーム情報の登録特徴点とのマッチングを行ってもよい。
さらに、マッチング部16は、現フレームの撮像画像の特徴点とマッチングすると選択された、所定の登録画像の1以上のキーフレーム情報の登録特徴点それぞれについて、登録特徴点に対応する現フレームの撮像画像の特徴点を抽出する。例えば、マッチング部16は、登録特徴点と現フレームの撮像画像の特徴点との相関関係を、特徴点のユークリッド距離等を用いて求め、相関が最大となる登録特徴点と現フレームの撮像画像の特徴点とのペアを決定し、登録特徴点に対応する現フレームの撮像画像の特徴点を抽出する。これにより、現フレームの撮像画像に含まれる1以上の登録特徴点に対して、登録特徴点と現フレームの撮像画像の特徴点とが1対1に対応付けられる。登録特徴点に対応する現フレームの特徴点を、以下では、対応特徴点と称する。
マッチング部16は、抽出された対応特徴点に対応するキーフレーム情報を、撮像画像とともに、領域重み選択部17に供給する。
なお、抽出された対応特徴点の数が所定値以下である場合、即ち、現フレームの撮像画像の対応特徴点の数が少なく、環境マップ記憶部15に記憶されている登録画像とマッチしていないと判断される場合には、マッチング部16は、環境マップを用いた露光制御ではなく、その他の露光制御方式、例えば、撮像画像の全画素の平均輝度値を用いた全画面露光制御に切り替える制御信号をカメラ制御部18に供給する。これにより、カメラ制御部18は、露光制御方式を、環境マップを用いた露光制御から全画面露光制御に切り替えることができる。
領域重み選択部17は、マッチング部16から供給されるキーフレーム情報に基づいて、現フレームの撮像画像の対応特徴点の近傍領域の画像である領域画像を選択する。領域画像は、キーフレーム情報のパッチ画像に対応する、現フレームの撮像画像のパッチ画像に相当する。現フレームの撮像画像には、複数の対応特徴点が存在するため、領域画像も複数選択される。
また、領域重み選択部17は、現フレームの撮像画像から選択された各領域画像に対して重みを設定する。各領域画像の重みは、例えば、カメラ11からの対応特徴点までの距離に応じて決定することができる。カメラ11からより近い位置にある対応特徴点は、カメラ画像上で相対的により大きく動くことから、自己位置推定を行う際には、より近い位置にある特徴点を信頼すると、より精度が高くなることが知られている。そこで、領域重み選択部17は、領域画像の重みとして、カメラ11からより近い位置にある領域画像ほど重みを大きく設定することができる。
また、環境マップ記憶部15にキーフレーム情報として、特徴点のセマンティック情報が記憶されており、領域重み選択部17に、露光制御装置1が組み込まれた移動体の制御部等から動作モードが指示された場合には、領域重み選択部17は、セマンティック情報に基づいて各領域画像の重みを決定することができる。例えば、動作モードとして、“床重視モード”、“道路重視モード”、“看板重視モード”等があり、“床重視モード”が指示された場合、領域重み選択部17は、動作モードに対応するセマンティック情報である“床”を有する領域画像の重みを大きく設定することができる。
あるいはまた、環境マップ記憶部15にキーフレーム情報として、特徴点の優先度が記憶されている場合には、領域重み選択部17は、キーフレーム情報に含まれる特徴点の優先度に基づいて各領域画像の重みを決定することができる。
さらに、領域重み選択部17は、上述したカメラ11からの対応特徴点までの距離、対応特徴点のセマンティック情報、対応特徴点に設定された優先度などの重み要素を適宜組み合わせて、各領域画像の重みを決定してもよい。
領域重み選択部17は、現フレームの撮像画像から選択した各領域画像と、その重みを、カメラ制御部18に供給する。
カメラ制御部18は、領域重み選択部17から供給される各領域画像と重みに基づいて露光制御値を設定する。より具体的には、カメラ制御部18は、領域重み選択部17から供給される複数の領域画像の重み付け平均輝度を算出し、算出された重み付け平均輝度に基づいて、露光制御値を設定する。露光制御値は、例えば、カメラ11のゲイン、シャッタ期間を制御するパラメータであり、算出された重み付け平均輝度が予め設定した目標値に近づくような露光制御値が決定される。
カメラ制御部18は、各領域画像に基づいて設定した露光制御値に対応する制御信号をカメラ11に供給する。カメラ11は、カメラ制御部18から供給される露光制御値に基づいて、ゲインまたはシャッタ期間を変更する。なお、露光制御装置1が被写体を照明する照明装置を制御可能な場合には、カメラ制御部18は、算出された重み付け平均輝度に基づいて、照明装置の光量値を制御してもよい。また、例えば、ゲイン、シャッタ、及び、照明を同時に制御する場合、複数の照明装置を制御する場合、カメラ11が領域毎にゲインを変えられるような場合などでは、複数の装置(カメラ11、照明装置など)に制御信号を供給したり、複数種類の露光制御値の制御信号を供給する、などしてもよい。
<2.露光制御処理のフローチャート>
図3のフローチャートを参照して、露光制御装置1が実行する露光制御処理について説明する。この処理は、例えば、カメラ11で撮像が行われ、撮像画像が取得されたときに開始される。
初めに、ステップS1において、エッジ・コーナ検出部12は、カメラ11から供給された撮像画像を取得し、取得した撮像画像のエッジまたはコーナの少なくとも一方を検出する。そして、エッジ・コーナ検出部12は、エッジまたはコーナの検出結果を、撮像画像とともに特徴点抽出部13に供給する。
ステップS2において、特徴点抽出部13は、エッジ・コーナ検出部12から供給されたエッジまたはコーナの検出結果を用いて、撮像画像の特徴点を抽出する。特徴点の抽出方法には、例えば、ハリスコーナー、SHIFT、SURF、FASTなどの手法を用いることができる。特徴点抽出部13は、抽出した撮像画像の特徴点と、撮像画像を、自己位置推定部14に供給する。
ステップS3において、自己位置推定部14は、特徴点抽出部13から供給された撮像画像の特徴点を用いて、Visual-SLAMにより、露光制御装置1が組み込まれている移動体の位置(自己位置)および姿勢を推定する。より具体的には、いま特徴点抽出部13から供給された現フレームの撮像画像と、それより前のタイミングで特徴点抽出部13から供給された過去フレームの撮像画像の、特徴点の関係性に基づいて、移動体の自己位置および姿勢を推定する。また、ステップS3において、自己位置推定部14は、現フレームの撮像画像と、1以上の特徴点に関する特徴点情報を、マッチング部16に供給する。
ステップS4において、マッチング部16は、現フレームの撮像画像の1以上の特徴点を、環境マップ記憶部15に記憶されているキーフレーム情報の登録特徴点とマッチングすることにより、環境マップ記憶部15に記憶されている所定の登録画像の1以上のキーフレーム情報を選択する。
ステップS5において、マッチング部16は、選択したキーフレーム情報に対応する現フレームの特徴点(対応特徴点)を抽出する。より詳しくは、マッチング部16は、現フレームの撮像画像の特徴点とマッチングすると選択された、所定の登録画像の1以上のキーフレーム情報の登録特徴点それぞれについて、登録特徴点に対応する現フレームの撮像画像の特徴点を抽出する。
そして、ステップS6において、マッチング部16は、抽出された対応特徴点の数が所定値より大きいかを判定する。
ステップS6で、抽出された対応特徴点の数が所定値より大きいと判定された場合、処理はステップS7に進み、マッチング部16は、抽出された対応特徴点に対応するキーフレーム情報を、撮像画像とともに、領域重み選択部17に供給する。
ステップS8において、領域重み選択部17は、マッチング部16から供給されたキーフレーム情報に基づいて、現フレームの撮像画像の対応特徴点の近傍領域の画像である領域画像を選択する。
ステップS9において、領域重み選択部17は、現フレームの撮像画像から選択された各領域画像に対して重みを設定する。各領域画像の重みは、例えば、カメラ11からの対応特徴点までの距離、対応特徴点のセマンティック情報、対応特徴点に設定された優先度などに応じて設定される。領域重み選択部17は、現フレームの撮像画像から選択した各領域画像と、その重みを、カメラ制御部18に供給する。
ステップS10において、カメラ制御部18は、領域重み選択部17から供給された各領域画像と重みに基づいて、露光制御値を設定する。より具体的には、カメラ制御部18は、領域重み選択部17から供給される複数の領域画像の重み付け平均輝度を算出し、算出された重み付け平均輝度が予め設定した目標値に近づくような露光制御値を決定する。決定された露光制御値は、カメラ11に供給され、露光制御値に応じてゲインまたはシャッタ期間が変更される。
一方、ステップS6で、抽出された対応特徴点の数が所定値以下であると判定された場合、処理はステップS11に進み、マッチング部16は、撮像画像の全画素の輝度値を用いた全画面露光制御に切り替える制御信号を、現フレームの撮像画像とともに、カメラ制御部18に供給する。カメラ制御部18は、露光制御方式を、環境マップを用いた露光制御から全画面露光制御に切り替え、撮像画像の全画素の平均輝度値を算出し、平均輝度値に基づいて露光制御値を決定する。決定された露光制御値は、カメラ11に供給され、露光制御値に応じてゲインまたはシャッタ期間が変更される。
ステップS12において、カメラ制御部18は、露光制御を終了するかを判定する。例えば、露光制御装置1が組み込まれている移動体の制御部から、カメラ11による撮像を終了する命令が供給された場合、露光制御を終了すると判定する。
ステップS12で、まだ露光制御を終了しないと判定された場合、処理はステップS1に戻され、上述したステップS1乃至S12の処理が繰り返される。すなわち、カメラ11から次に供給される撮像画像を現フレームの撮像画像として、上述した露光制御が実行される。
一方、ステップS12で、露光制御を終了すると判定された場合、露光制御処理は終了する。
露光制御装置1による露光制御処理は、以上のように実行される。
<3.変形例>
露光制御処理の変形例について説明する。
上述した露光制御処理では、現フレームの撮像画像に含まれる特徴点にマッチする所定の登録画像の1以上のキーフレーム情報を選択する場合に、マッチング部16は、環境マップ記憶部15に記憶されている全てのキーフレーム情報とマッチングを行った。
しかしながら、キーフレーム情報を生成したときの登録画像を撮像したときのカメラ位置情報がキーフレーム情報の一部として環境マップ記憶部15に記憶されている場合には、マッチング部16は、自己位置推定部14が算出した移動体(カメラ11)の位置を自己位置推定部14から取得し、移動体(カメラ11)の位置から一定範囲内のカメラ位置情報を有するキーフレーム情報に限定して、環境マップ記憶部15に記憶されているキーフレーム情報を検索して選択してもよい。
あるいはまた、キーフレーム情報を生成したときの登録画像を撮像したときの撮像時刻がキーフレーム情報の一部として環境マップ記憶部15に記憶されている場合には、マッチング部16は、現在時刻、すなわち現フレームの撮像画像を撮像した時刻に近い(現在時刻から一定時間幅内の)キーフレーム情報に限定して、環境マップ記憶部15に記憶されているキーフレーム情報を検索して選択してもよい。
以上のように環境マップ記憶部15に記憶されているキーフレーム情報を検索する検索対象を、カメラ位置情報、撮像時刻情報等に基づいて選択し、選択されたキーフレーム情報を用いてマッチングを行うことにより、マッチングの誤検出を防止するとともに、必要となる計算コストを抑えることができる。
また、上述した露光制御処理において、カメラ制御部18は、複数の領域画像の重み付け平均輝度を算出し、算出された重み付け平均輝度が予め設定した目標値に近づくように露光制御値を決定した。
露光制御値を決定するその他の方法として、環境マップ記憶部15に記憶されているキーフレーム情報が適切に露光制御された登録画像から生成したキーフレーム情報である場合には、そのキーフレーム情報に露光制御値を合わせるように、露光制御値を決定してもよい。
この場合、領域重み選択部17は、現フレームの撮像画像から選択した各領域画像と重みに加えて、マッチング部16から供給されたキーフレーム情報を、カメラ制御部18に供給する。カメラ制御部18は、キーフレーム情報のパッチ画像と、それに対応する領域画像との輝度平均の差分値を領域画像ごとに算出し、さらに、領域画像の重みに応じて重み付けした重み付け平均差分値を算出する。そして、カメラ制御部18は、算出した重み付け平均差分値に基づいて、露光制御値を設定する。
ドローンなど3次元空間を自由な姿勢で動き回る移動体において、Visual-SLAMのための撮像では、画像によって明るい場所、暗い場所が映る画素位置は様々であり、解決するには何らかの認識により露光を合わせる画素位置を決める必要があるが、自由に動き回る移動体が撮像する全ての認識器を持つことは不可能である。また、全ての画像情報を予め記憶しておくことも現実的ではない。
Visual-SLAMを用いた自己位置推定では、リローカライズのために特徴点の3次元情報であるキーフレーム情報が予め用意されている。
上述した露光制御装置1が実行する露光制御処理によれば、自己位置推定部14が画像によるモーショントラッキングに失敗した場合に備えて環境マップ記憶部15に環境マップとして記憶されているキーフレーム情報を露光制御にも用いることで、空間を正確に認識し、適切な露光制御を行うことができる。
自己位置推定で用いられる環境マップ記憶部15のキーフレーム情報をそのまま用いる方法でもよいし、上述したように、特徴点の優先度、セマンティック情報、カメラ位置情報など、必要最低限の情報を付加してもよい。本来自己位置推定で用いられるキーフレーム情報を利用するので、露光制御に必要な付加情報を追加したとしても、少ない負荷で高精度な露光制御が実現できる。
露光制御が難しい複数の明暗領域が存在する場所においても、事前に撮像して登録画像のキーフレーム情報を環境マップ記憶部15に記憶しておくことで、正しい露光制御を行うことができる。
上述した露光制御処理は、ドローンなど3次元空間を自由な姿勢で動き回る移動体のカメラの露光制御、屋外から屋内への移動(又はその逆の移動)など輝度が劇的に変化する環境におけるカメラの露光制御に特に有効である。
<4.コンピュータ構成例>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているマイクロコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図4は、上述した露光制御処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及びドライブ110が接続されている。
入力部106は、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部107は、ディスプレイ、スピーカ、出力端子などよりなる。記憶部108は、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体111を駆動する。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した露光制御処理が行われる。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなども適宜記憶される。
コンピュータでは、プログラムは、リムーバブル記録媒体111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、上述した実施の形態の全てまたは一部を適宜組み合わせた形態を採用することができる。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
撮像画像から抽出された特徴点を、所定の記憶部に記憶されている登録特徴点とマッチングし、前記登録特徴点に対応する前記撮像画像の特徴点である対応特徴点を抽出するマッチング部と、
前記撮像画像の前記対応特徴点の近傍領域の画像である領域画像に基づいて露光制御値を設定する制御部と
を備える情報処理装置。
(2)
前記記憶部に記憶されている複数の前記登録特徴点それぞれに対応する前記撮像画像の前記領域画像を選択し、選択された複数の前記領域画像に対して重みを設定する領域重み選択部をさらに備え、
前記制御部は、複数の前記領域画像の重み付け平均輝度を算出し、前記重み付け平均輝度に基づいて、前記露光制御値を設定する
前記(1)に記載の情報処理装置。
(3)
前記領域重み選択部は、前記撮像画像を撮像したカメラに近い位置の前記領域画像の重みを大きく設定する
前記(2)に記載の情報処理装置。
(4)
前記記憶部は、事前に撮像された登録画像に含まれる前記登録特徴点の3次元位置情報と、その近傍領域の画像であるパッチ画像とを、キーフレーム情報として記憶する
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記記憶部は、事前に撮像された登録画像に含まれる前記登録特徴点の3次元位置情報と、その近傍領域の画像であるパッチ画像と、前記登録特徴点のセマンティック情報とを、キーフレーム情報として記憶し、
前記領域重み選択部は、前記セマンティック情報に基づいて、前記領域画像の重みを設定する
前記(2)に記載の情報処理装置。
(6)
前記領域重み選択部は、動作モードに対応する前記セマンティック情報を有する前記領域画像の重みを大きく設定する
前記(5)に記載の情報処理装置。
(7)
前記記憶部は、事前に撮像された登録画像に含まれる前記登録特徴点の3次元位置情報と、その近傍領域の画像であるパッチ画像と、前記登録特徴点の優先度とを、キーフレーム情報として記憶し、
前記領域重み選択部は、前記優先度に基づいて、前記領域画像の重みを設定する
前記(2)に記載の情報処理装置。
(8)
前記記憶部は、事前に撮像された登録画像に含まれる前記登録特徴点の3次元位置情報と、その近傍領域の画像であるパッチ画像とを、キーフレーム情報として記憶し、
前記制御部は、前記キーフレーム情報の前記登録特徴点の前記パッチ画像と、前記撮像画像の前記対応特徴点の前記領域画像との輝度平均の差分値を、前記領域画像の重みに応じて重み付けした重み付け平均差分値を算出し、前記重み付け平均差分値に基づいて、露光制御値を設定する
前記(1)に記載の情報処理装置。
(9)
前記記憶部は、事前に撮像された登録画像に含まれる前記登録特徴点の3次元位置情報と、その近傍領域の画像であるパッチ画像と、前記登録画像が事前に撮像されたときの撮像位置情報を、キーフレーム情報として記憶し、
前記マッチング部は、前記記憶部に記憶されている前記キーフレーム情報を前記撮像位置情報に基づいて選択し、選択された前記キーフレーム情報の前記登録特徴点とマッチングし、前記撮像画像の前記対応特徴点を抽出する
前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記記憶部は、事前に撮像された登録画像に含まれる前記登録特徴点の3次元位置情報と、その近傍領域の画像であるパッチ画像と、前記登録画像が事前に撮像されたときの撮像時刻情報を、キーフレーム情報として記憶し、
前記マッチング部は、前記記憶部に記憶されている前記キーフレーム情報を前記撮像時刻情報に基づいて選択し、選択された前記キーフレーム情報の前記登録特徴点とマッチングし、前記撮像画像の前記対応特徴点を抽出する
前記(1)乃至(8)のいずれかに記載の情報処理装置。
(11)
情報処理装置が、
撮像画像から抽出された特徴点を、所定の記憶部に記憶されている登録特徴点とマッチングし、前記登録特徴点に対応する前記撮像画像の特徴点である対応特徴点を抽出し、
前記撮像画像の前記対応特徴点の近傍領域の画像である領域画像に基づいて露光制御値を設定する
情報処理方法。
(12)
コンピュータを、
撮像画像から抽出された特徴点を、所定の記憶部に記憶されている登録特徴点とマッチングし、前記登録特徴点に対応する前記撮像画像の特徴点である対応特徴点を抽出するマッチング部と、
前記撮像画像の前記対応特徴点の近傍領域の画像である領域画像に基づいて露光制御値を設定する制御部
として機能させるためのプログラム。
1 露光制御装置, 11 カメラ, 14 自己位置推定部, 15 環境マップ記憶部, 16 マッチング部, 17 領域重み選択部, 18 カメラ制御部, 101 CPU, 102 ROM, 103 RAM, 106 入力部, 107 出力部, 108 記憶部, 109 通信部, 110 ドライブ

Claims (12)

  1. 撮像画像から抽出された特徴点を、所定の記憶部に記憶されている登録特徴点とマッチングし、前記登録特徴点に対応する前記撮像画像の特徴点である対応特徴点を抽出するマッチング部と、
    前記撮像画像の前記対応特徴点の近傍領域の画像である領域画像に基づいて露光制御値を設定する制御部と
    を備える情報処理装置。
  2. 前記記憶部に記憶されている複数の前記登録特徴点それぞれに対応する前記撮像画像の前記領域画像を選択し、選択された複数の前記領域画像に対して重みを設定する領域重み選択部をさらに備え、
    前記制御部は、複数の前記領域画像の重み付け平均輝度を算出し、前記重み付け平均輝度に基づいて、前記露光制御値を設定する
    請求項1に記載の情報処理装置。
  3. 前記領域重み選択部は、前記撮像画像を撮像したカメラに近い位置の前記領域画像の重みを大きく設定する
    請求項2に記載の情報処理装置。
  4. 前記記憶部は、事前に撮像された登録画像に含まれる前記登録特徴点の3次元位置情報と、その近傍領域の画像であるパッチ画像とを、キーフレーム情報として記憶する
    請求項1に記載の情報処理装置。
  5. 前記記憶部は、事前に撮像された登録画像に含まれる前記登録特徴点の3次元位置情報と、その近傍領域の画像であるパッチ画像と、前記登録特徴点のセマンティック情報とを、キーフレーム情報として記憶し、
    前記領域重み選択部は、前記セマンティック情報に基づいて、前記領域画像の重みを設定する
    請求項2に記載の情報処理装置。
  6. 前記領域重み選択部は、動作モードに対応する前記セマンティック情報を有する前記領域画像の重みを大きく設定する
    請求項5に記載の情報処理装置。
  7. 前記記憶部は、事前に撮像された登録画像に含まれる前記登録特徴点の3次元位置情報と、その近傍領域の画像であるパッチ画像と、前記登録特徴点の優先度とを、キーフレーム情報として記憶し、
    前記領域重み選択部は、前記優先度に基づいて、前記領域画像の重みを設定する
    請求項2に記載の情報処理装置。
  8. 前記記憶部は、事前に撮像された登録画像に含まれる前記登録特徴点の3次元位置情報と、その近傍領域の画像であるパッチ画像とを、キーフレーム情報として記憶し、
    前記制御部は、前記キーフレーム情報の前記登録特徴点の前記パッチ画像と、前記撮像画像の前記対応特徴点の前記領域画像との輝度平均の差分値を、前記領域画像の重みに応じて重み付けした重み付け平均差分値を算出し、前記重み付け平均差分値に基づいて、露光制御値を設定する
    請求項1に記載の情報処理装置。
  9. 前記記憶部は、事前に撮像された登録画像に含まれる前記登録特徴点の3次元位置情報と、その近傍領域の画像であるパッチ画像と、前記登録画像が事前に撮像されたときの撮像位置情報を、キーフレーム情報として記憶し、
    前記マッチング部は、前記記憶部に記憶されている前記キーフレーム情報を前記撮像位置情報に基づいて選択し、選択された前記キーフレーム情報の前記登録特徴点とマッチングし、前記撮像画像の前記対応特徴点を抽出する
    請求項1に記載の情報処理装置。
  10. 前記記憶部は、事前に撮像された登録画像に含まれる前記登録特徴点の3次元位置情報と、その近傍領域の画像であるパッチ画像と、前記登録画像が事前に撮像されたときの撮像時刻情報を、キーフレーム情報として記憶し、
    前記マッチング部は、前記記憶部に記憶されている前記キーフレーム情報を前記撮像時刻情報に基づいて選択し、選択された前記キーフレーム情報の前記登録特徴点とマッチングし、前記撮像画像の前記対応特徴点を抽出する
    請求項1に記載の情報処理装置。
  11. 情報処理装置が、
    撮像画像から抽出された特徴点を、所定の記憶部に記憶されている登録特徴点とマッチングし、前記登録特徴点に対応する前記撮像画像の特徴点である対応特徴点を抽出し、
    前記撮像画像の前記対応特徴点の近傍領域の画像である領域画像に基づいて露光制御値を設定する
    情報処理方法。
  12. コンピュータを、
    撮像画像から抽出された特徴点を、所定の記憶部に記憶されている登録特徴点とマッチングし、前記登録特徴点に対応する前記撮像画像の特徴点である対応特徴点を抽出するマッチング部と、
    前記撮像画像の前記対応特徴点の近傍領域の画像である領域画像に基づいて露光制御値を設定する制御部
    として機能させるためのプログラム。
JP2018032150A 2018-02-26 2018-02-26 情報処理装置、情報処理方法、およびプログラム Pending JP2019149621A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018032150A JP2019149621A (ja) 2018-02-26 2018-02-26 情報処理装置、情報処理方法、およびプログラム
US16/971,114 US11430204B2 (en) 2018-02-26 2019-02-12 Information processing device, information processing method, and program
PCT/JP2019/004790 WO2019163576A1 (ja) 2018-02-26 2019-02-12 情報処理装置、情報処理方法、およびプログラム
EP19757243.1A EP3761629B1 (en) 2018-02-26 2019-02-12 Information processing device, autonomous mobile body, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018032150A JP2019149621A (ja) 2018-02-26 2018-02-26 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2019149621A true JP2019149621A (ja) 2019-09-05

Family

ID=67688335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018032150A Pending JP2019149621A (ja) 2018-02-26 2018-02-26 情報処理装置、情報処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US11430204B2 (ja)
EP (1) EP3761629B1 (ja)
JP (1) JP2019149621A (ja)
WO (1) WO2019163576A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7220591B2 (ja) * 2019-03-07 2023-02-10 三菱重工業株式会社 自己位置推定装置、自己位置推定方法及びプログラム
EP4184912A4 (en) * 2020-07-15 2023-12-20 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
WO2022027432A1 (zh) * 2020-08-06 2022-02-10 深圳市锐明技术股份有限公司 拍摄方法、拍摄装置及终端设备
CN115022552B (zh) * 2021-02-18 2024-04-16 北京石头创新科技有限公司 自行走设备的摄像曝光方法和自行走设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5174307B2 (ja) * 2000-01-12 2013-04-03 アップル インコーポレイテッド カラー信号処理
JP2007074163A (ja) 2005-09-05 2007-03-22 Sony Corp 撮像装置および撮像方法
US8306280B2 (en) * 2006-04-11 2012-11-06 Nikon Corporation Electronic camera and image processing apparatus
JP2007282119A (ja) 2006-04-11 2007-10-25 Nikon Corp 電子カメラおよび画像処理装置
JP2009239792A (ja) * 2008-03-28 2009-10-15 Sony Corp 撮像装置、画像処理装置、およびプログラム
JP2011095797A (ja) 2009-10-27 2011-05-12 Sony Corp 画像処理装置、画像処理方法及びプログラム
US8842912B2 (en) * 2011-05-19 2014-09-23 Foveon, Inc. Method for processing highlights and saturated regions in a digital image
WO2014031795A1 (en) * 2012-08-21 2014-02-27 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras
US9967529B2 (en) * 2015-06-04 2018-05-08 Disney Enterprises, Inc. Output light monitoring for benchmarking and enhanced control of a display system
WO2016197307A1 (en) * 2015-06-08 2016-12-15 SZ DJI Technology Co., Ltd. Methods and apparatus for image processing
US10360868B2 (en) * 2015-12-09 2019-07-23 Hisense Electric Co., Ltd. Image processing method and liquid crystal display device
JP6658001B2 (ja) 2016-01-27 2020-03-04 株式会社リコー 位置推定装置、プログラム、位置推定方法
US10949712B2 (en) * 2016-03-30 2021-03-16 Sony Corporation Information processing method and information processing device

Also Published As

Publication number Publication date
WO2019163576A1 (ja) 2019-08-29
EP3761629B1 (en) 2024-05-01
EP3761629A1 (en) 2021-01-06
US20210012142A1 (en) 2021-01-14
US11430204B2 (en) 2022-08-30
EP3761629A4 (en) 2021-04-21

Similar Documents

Publication Publication Date Title
WO2019163576A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN107852447B (zh) 基于设备运动和场景距离使电子设备处的曝光和增益平衡
CN109829933B (zh) 影像目标追踪方法及装置
CN110008795B (zh) 图像目标追踪方法及其系统与计算机可读取记录介质
CN112166459A (zh) 基于多相机卷积器系统的三维环境建模
CN108198199B (zh) 运动物体跟踪方法、运动物体跟踪装置和电子设备
JP7272024B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
US10545215B2 (en) 4D camera tracking and optical stabilization
JP6526955B2 (ja) センサ情報統合方法、及びその装置
US10122912B2 (en) Device and method for detecting regions in an image
JP7334432B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
JP2020514891A (ja) ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分
WO2013121215A1 (en) Video tracking apparatus and method
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
JP4699056B2 (ja) 自動追尾装置及び自動追尾方法
CN110111364B (zh) 运动检测方法、装置、电子设备及存储介质
US10705408B2 (en) Electronic device to autofocus on objects of interest within field-of-view of electronic device
US11842515B2 (en) Information processing device, information processing method, and image capturing apparatus for self-position-posture estimation
US9761009B2 (en) Motion tracking device control systems and methods
CN113065392A (zh) 一种机器人的跟踪方法和装置
US10708501B2 (en) Prominent region detection in scenes from sequence of image frames
WO2019188392A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP2011135227A (ja) 被写体追跡装置及びその制御方法
US20230065506A1 (en) Image processing apparatus, control method thereof, and image capturing apparatus
RU2809064C1 (ru) Устройство и способ автоматического переключения режимов работы камеры