JPWO2019093297A1 - 情報処理装置、制御方法、及びプログラム - Google Patents

情報処理装置、制御方法、及びプログラム Download PDF

Info

Publication number
JPWO2019093297A1
JPWO2019093297A1 JP2019552792A JP2019552792A JPWO2019093297A1 JP WO2019093297 A1 JPWO2019093297 A1 JP WO2019093297A1 JP 2019552792 A JP2019552792 A JP 2019552792A JP 2019552792 A JP2019552792 A JP 2019552792A JP WO2019093297 A1 JPWO2019093297 A1 JP WO2019093297A1
Authority
JP
Japan
Prior art keywords
camera
moving body
sensor
detected
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019552792A
Other languages
English (en)
Other versions
JP6849097B2 (ja
Inventor
尚司 谷内田
尚司 谷内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019093297A1 publication Critical patent/JPWO2019093297A1/ja
Priority to JP2021032372A priority Critical patent/JP7230941B2/ja
Application granted granted Critical
Publication of JP6849097B2 publication Critical patent/JP6849097B2/ja
Priority to JP2022179299A priority patent/JP2023010769A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

情報処理装置は、センサ(10)を利用して移動体(20)を検出することで、センサ(10)から移動体(20)へ向かう方向(第1方向(12))を特定する。情報処理装置は、カメラ(30)の光軸方向(34)を第1方向(12)に沿って移動させながら、カメラ(30)に撮像を行わせる。その結果、それぞれ異なる方向を撮像した複数の撮像画像(32)が、カメラ(30)によって生成される。情報処理装置(2000)は、撮像画像(32)を画像解析することで移動体(20)を検出する。

Description

本発明は情報処理装置、制御方法、及びプログラムに関する。
移動体を監視するためにカメラが利用されている。例えば特許文献1は、隣り合わせで配置された広角カメラと望遠カメラを利用して移動体の監視を行う監視カメラ装置を開示している。この監視カメラ装置は、広角カメラによって生成された画像を用いて移動体を検出し、その画像におけるその移動体の位置に基づいて望遠カメラの撮影光軸の方向を変更する。こうすることで、望遠カメラの撮像範囲の中心で移動体を捉えるようにする。
特開2007−116666号公報
特許文献1の監視カメラ装置では、望遠カメラが広角カメラの近傍に置かれていること、すなわち望遠カメラと広角カメラが略同一の方向を撮像できることが前提となっている。この前提があるため、広角カメラから移動体へ向かう方向と略同一の方向へ望遠カメラの撮影光軸を向けることで、望遠カメラで移動体を撮像することができる。したがって、特許文献1の技術では、望遠カメラと広角カメラとを互いに離れた位置に設けることができない。
本発明はこの課題に鑑みてなされたものであり、その目的の一つは、移動体の検出に利用するセンサをより自由な位置に配置できる技術を提供することである。
本発明の情報処理装置は、1)センサを用いて移動体を検出し、センサから移動体へ向かう第1方向を特定する第1検出手段と、2)第1カメラの光軸方向を第1方向に沿って移動させながら第1カメラに撮像を行わせる制御手段と、3)第1カメラによって生成される第1撮像画像から移動体を検出する第2検出手段と、を有する。
本発明の制御方法はコンピュータによって実行される。当該制御方法は、1)センサを用いて移動体を検出し、センサから移動体へ向かう第1方向を特定する第1検出ステップと、2)第1カメラの光軸方向を第1方向に沿って移動させながら第1カメラに撮像を行わせる制御ステップと、3)第1カメラによって生成される第1撮像画像から移動体を検出する第2検出ステップと、を有する。
本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。
本発明によれば、移動体の検出に利用するセンサをより自由な位置に配置できる技術が提供される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1の情報処理装置の概要を説明するための図である。 実施形態1の情報処理装置の機能構成を例示する図である。 情報処理装置を実現するための計算機を例示する図である。 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。 センサとして第2カメラを利用するケースを例示する図である。 ユーザから検出領域の指定を受け付けるケースを例示する図である。 検出空間を例示する図である。 第1方向を更新する様子を例示する図である。 移動体が監視されるエリアを鉛直方向に平面視した図である。 移動体が監視されるエリアを横から見た図である。 実施形態2の情報処理装置の機能構成を例示する図である。 実施形態3の情報処理装置の機能構成を例示する図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
[実施形態1]
<概要>
図1は、実施形態1の情報処理装置(図2に示す情報処理装置2000)の概要を説明するための図である。以下で説明する情報処理装置2000の動作は、情報処理装置2000の理解を容易にするための例示であり、情報処理装置2000の動作は以下の例に限定されるわけではない。情報処理装置2000の動作の詳細やバリエーションについては後述する。
情報処理装置2000は、センサ10を利用して移動体20を検出することで、センサ10から移動体20へ向かう方向(図1における第1方向12)を特定する。情報処理装置2000は、カメラ30の光軸方向34を第1方向12に沿って(すなわち、センサ10から移動体20へ向けて)移動させながら、カメラ30に撮像を行わせる。その結果、それぞれ異なる方向を撮像した複数の撮像画像32が、カメラ30によって生成される。情報処理装置2000は、撮像画像32を画像解析することで移動体20を検出する。
この方法によれば、センサ10とカメラ30とを近傍に設置しなくても、カメラ30が移動体20を検出できる。なぜなら、移動体20は第1方向12上に存在するため、カメラ30の光軸方向34を第1方向12に沿って移動させながらカメラ30による撮像を繰り返していくことで、いずれかの撮像画像32に移動体20を含めることができるためである。よって、本実施形態の情報処理装置2000には、センサ10と移動体20とを近傍に設置しなくてもよく、これらをより自由な位置に配置できるという利点がある。
以下、本実施形態の情報処理装置2000についてさらに詳細に説明する。
<情報処理装置2000の機能構成の例>
図2は、実施形態1の情報処理装置2000の機能構成を例示する図である。情報処理装置2000は第1検出部2020、制御部2040、及び第2検出部2060を有する。第1検出部2020は、センサ10を利用して移動体20を検出し、センサ10から移動体20へ向かう第1方向12を特定する。制御部2040は、カメラ30の光軸方向34を第1方向12に沿って移動させながら、カメラ30に撮像を行わせる。第2検出部2060は、カメラ30によって生成される撮像画像32から移動体20を検出する。
<情報処理装置2000のハードウエア構成>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図3は、情報処理装置2000を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。
ネットワークインタフェース1120は、計算機1000をネットワークに接続するためのインタフェースである。このネットワークは、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。
例えばネットワークインタフェース1120には、ネットワークを介して、センサ10やカメラ30が接続される。センサ10は、移動体20を検出することができる任意のセンサである。詳しくは後述するが、例えばセンサ10には、カメラ、音響センサ、又は電波センサなどを利用することができる。カメラ30は、撮像を行って撮像画像を生成する任意の撮像装置である。例えばカメラ30は、定期的に撮像を行うことで動画データを生成するビデオカメラである。この場合、撮像画像32は、動画データを構成する各フレームである。
ストレージデバイス1080は、情報処理装置2000の各機能構成部を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
<処理の流れ>
図4は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。第1検出部2020は、センサ10を利用して移動体20を検出する(S102)。第1検出部2020は、センサ10から移動体20へ向かう第1方向12を特定する(S104)。
S106からS116は、所定の条件が満たされるまで繰り返し行われるループ処理である。所定の条件が満たされている場合、図4の処理は終了する。一方、所定の条件が満たされていない場合、図4の処理はS108に進む。
制御部2040は、カメラ30の光軸方向34を第1方向12に沿って移動させる(S108)。制御部2040は、カメラ30に撮像を行わせる(S110)。第2検出部2060は、カメラ30によって生成された撮像画像32を対象にしてオブジェクト検出処理を行う(S112)。撮像画像32からオブジェクトが検出された場合(S114:YES)、第2検出部2060は、検出されたオブジェクトを移動体20として検出する(S118)。そして、図4の処理は終了する。一方、撮像画像32からオブジェクトが検出されない場合(S114:NO)、図4の処理はS106に進む。
ループ処理Aを終了させる所定の条件は様々である。例えば所定の条件は、第1方向12に沿って撮像可能な全ての範囲についてカメラ30が撮像を終えたことである。より具体的には、所定の条件は、カメラ30の撮像方向が第1方向12と平行になったことである。
なお、情報処理装置2000が実行する処理の流れは、図4に示した流れに限定されない。例えば制御部2040は、カメラ30に複数回撮像を行わせた後に、生成された各撮像画像を対象としたオブジェクト検出処理を行ってもよい。すなわち、カメラ30によって生成される複数の撮像画像それぞれを対象としたオブジェクト検出処理を、ループ処理Aの後にまとめて実行してもよい。
また、制御部2040は、S112で検出されたオブジェクトを無条件で移動体20として扱うのではなく、そのオブジェクトが所定の条件を満たしている場合に、そのオブジェクトを移動体20として扱うようにしてもよい。この点については後述する。
<センサ10を利用した移動体20の検出>
第1検出部2020は、センサ10を利用して移動体20を検出する。センサ10を利用して移動体20を検出する方法は、利用するセンサの種類に依存する。以下、センサ10として利用できるセンサの主な種類ごとに、移動体20の検出方法を例示する。
<<カメラを利用するケース>>
例えばセンサ10として、カメラを利用することができる。ここで、センサ10として利用されるカメラを第2カメラと呼ぶ。図5は、センサ10として第2カメラを利用するケースを例示する図である。図5において、第2カメラは符号40で表されている。以下、第2カメラ40によって生成される撮像画像を第2撮像画像42と表記する。
第2カメラ40による撮像は、カメラ30よりも画角が広い状態で行われる。言い換えれば、第2カメラ40による撮像は、カメラ30よりも焦点距離が短い状態で行われる。そこで例えば、カメラ30には望遠カメラを利用し、第2カメラ40には広角カメラを利用する。このような2つのカメラを利用することで、まずは広角カメラ(カメラ30)で広い範囲を撮像することで、移動体20の存在及び移動体20が存在する方向を早期に割り出し、その後に望遠カメラ(第2カメラ40)で移動体20を大きく撮像することで、移動体20について詳細を把握するという動作が可能となる。
第1検出部2020は、第2カメラ40によって生成される第2撮像画像42から移動体20を検出する。ここで第1検出部2020は、第2撮像画像42に含まれる任意のオブジェクトを移動体20として検出してもよいし(図3参照)、第2撮像画像42に含まれなおかつ所定の条件を満たすオブジェクトを移動体20として検出してもよい。前者の場合、第1検出部2020は、例えば第2撮像画像42から前景領域を抽出し、その前景領域によって表されるオブジェクトを移動体20とする。ここで、画像から前景領域を抽出する技術には既存の技術を利用することができる。
一方、所定の条件を満たすオブジェクトを移動体20として検出するとする。この場合、例えば、移動体20として検出すべきオブジェクトの特徴量を予め定めておく。第1検出部2020は、第2撮像画像42から、この特徴量を持つ画像領域を検出し、検出された画像領域で表されるオブジェクトを移動体20とする。移動体20として検出すべきオブジェクトは、例えば、飛行機、ドローン、又は鳥などの飛翔体である。なお、検出すべきオブジェクトの特徴量を定める技術、及びその特徴量を持つオブジェクトを画像から検出する技術には、既存の技術を利用することができる。
その他にも例えば、第1検出部2020は、第2撮像画像42から検出されたオブジェクトのうち、移動しているオブジェクトのみを移動体20として検出してもよい。例えば制御部2040は、或る第2撮像画像42からオブジェクトを検出したら、その後に生成される各第2撮像画像42を対象としてそのオブジェクトをトラッキングすることで、そのオブジェクトが移動しているかどうかを判定する。そのオブジェクトが移動していると判定したら、制御部2040は、そのオブジェクトを移動体20として扱う。一方、そのオブジェクトが移動していないと判定したら、制御部2040は、そのオブジェクトを移動体20として扱わない。なお、画像から検出されるオブジェクトが移動しているかどうかを判定する技術には、既存の技術を利用することができる。
第1検出部2020は、第2撮像画像42の画像領域全体を移動体20の検出対象としてもよいし、第2撮像画像42の中の一部の画像領域のみを移動体20の検出対象としてもよい。後者の場合において移動体20の検出対象とする画像領域を、検出領域と呼ぶ。
例えば情報処理装置2000は、ユーザから検出領域を指定する入力操作を受け付ける。図6は、ユーザから検出領域の指定を受け付けるケースを例示する図である。図6において、タッチパネル50には、第2カメラ40によって撮像される第2撮像画像42で構成されるビデオ52が表示されている。ユーザは、ビデオ52を見ることで、情報処理装置2000に移動体20として検出させたいオブジェクトを見つける。移動体20として検出させたいオブジェクトを見つけたら、ユーザは、そのオブジェクトが映っているタッチパネル50上の位置をタッチする。第1検出部2020は、第2撮像画像42においてこのタッチされた位置に対応する画像位置を特定し、その画像位置を基準とする第2撮像画像42の画像領域についてオブジェクトの検出を行う。そして第1検出部2020は、検出されたオブジェクトを移動体20として扱う。例えば図6では、ユーザが指54でタッチした画像位置を中心とする矩形の領域56が、検出領域として扱われる。その結果、ドローン58が移動体20として検出される。
ユーザが検出領域を指定する方法は様々である。例えばユーザは、上述したように、第2撮像画像42上の位置を指定する。第1検出部2020は、指定された位置を基準として定まる所定のサイズ及び形状の画像領域を、検出領域として扱う。なお、指定された位置を基準として所定のサイズ及び形状の画像領域を定める技術には、既存の技術を利用することができる。
ユーザは、第2撮像画像42上の位置ではなく、領域を指定してもよい。この場合、ユーザによって指定された領域を検出領域として扱う。領域を指定する領域には、例えばドラッグ操作やスライド操作などを利用することができる。
<<音響センサを利用するケース>>
例えばセンサ10として、音響センサを利用することができる。この音響センサとしては、複数のマイクロフォンを立体的に配置したマイクロフォンアレイを用いる。ここで、複数のマイクロフォンが立体的に配置されるとは、マイクロフォンアレイを構成する全てのマイクロフォンを通る単一の平面が存在しないことを意味する。
立体的に配置された複数のマイクロフォンで同一の音を検出すると、マイクロフォンアレイからその音の発生源へ向かう方向を特定することができる。そこで第1検出部2020は、音響センサを構成する複数のマイクロフォンによって所定の特徴を持つ音が検出された場合に、その音の発生源を移動体20として検出する。
上記「所定の特徴」としては、様々な特徴を扱いうる。例えば所定の特徴は、音圧の大きさで表される。この場合、第1検出部2020は、音響センサによって検出された音の音圧が所定値以上であるか否かを判定し、所定値以上であった場合に、その音の発生源を移動体20として扱う。すなわち、予め設定された大きさよりも大きい音を発する音源を移動体20として扱う。
その他にも例えば、所定の特徴は、検出したい移動体20が発する音の周波数スペクトルで表される。この場合、第1検出部2020は、音響センサによって検出される音の周波数スペクトルを解析し、所定特徴と一致又は類似する周波数スペクトルを持つ音であった場合に、その音の発生源を移動体20として扱う。移動体20として飛行機を検出する場合の所定特徴は、例えば飛行機のエンジン音の周波数スペクトルである。移動体20としてドローンを検出する場合の所定特徴は、例えばドローンのロータの回転音(以下、ロータ音)の周波数スペクトルである。
なお、飛行機のエンジン音の周波数スペクトルは、飛行機の機種等によって異なる。上記所定の特徴は、様々な飛行機のエンジン音の周波数スペクトルを含むように或る程度広い周波数スペクトルの範囲として定められてもよいし、或る特定の機種等の飛行機のエンジン音の周波数スペクトルとして表されてもよい。後者の場合、その特定の機種の飛行機のみが移動体20として検出されるようになる。
同様に、ドローンのロータ音の周波数スペクトルも、ドローンの機種などによって異なる。そこで所定特徴は、様々なドローンのロータ音の周波数スペクトルを含むように或る程度広い周波数スペクトルの範囲として定められてもよいし、或る特定の機種等のドローンのロータ音の周波数スペクトルとして表されてもよい。後者の場合、その特定の機種のドローンのみが移動体20として検出されるようになる。
ここで、移動体20として検出すべき移動体が発する音の特徴、すなわち上記所定の特徴を示す情報を、音特徴情報と呼ぶ。音特徴情報は、第1検出部2020からアクセス可能な記憶装置に記憶させておく。第1検出部2020は、音特徴情報を取得し、音特徴情報に示される所定の特徴を持つ音が音響センサによって検出されたか否かを判定する。そして、第1検出部2020は、所定の特徴を持つ音が音響センサによって検出されたら、センサ10からその音の発生源へ向かう方向を第1方向12として特定する。
<<電波センサを利用するケース>>
例えばセンサ10として、電波センサを利用することができる。この電波センサとしては、複数の電波受信機を立体的に配置した受信機アレイを用いる。ここで、複数の電波受信機が立体的に配置されるとは、受信機アレイを構成する全ての受信機を通る単一の平面が存在しないことを意味する。第1検出部2020は、電波センサを構成する複数の受信機によって所定の特徴を持つ電波が検出された場合に、その電波の発生源を移動体20として扱う。
上記所定の特徴としては、様々な特徴を扱いうる。例えば所定の特徴は、電波の振幅の大きさで表される。この場合、第1検出部2020は、電波センサによって検出された電波の振幅の大きさが所定値以上であるか否かを判定し、所定値以上であった場合に、その電波の発生源を移動体20として扱う。すなわち、予め設定された大きさよりも振幅が大きい電波を発する発生源を移動体20として扱う。
その他にも例えば、所定の特徴は、検出したい移動体20が発する電波の周波数スペクトルで表される。この場合、第1検出部2020は、電波センサによって検出される電波の周波数スペクトルを解析し、所定の特徴と一致又は類似する周波数スペクトルを持つ電波であった場合に、その音の発生源を移動体20として扱う。この場合、検出したい移動体20が出力する電波の周波数スペクトルを予め把握しておき、その周波数スペクトルを表す情報を記憶装置に記憶させておく。
その他にも例えば、所定の特徴は、検出したい移動体20が発する電波に載せられているデータで表される。移動体20が電波に載せてデータを送信する場合、受信機で電波を復調してデータを抽出することで、そのデータの内容を把握することができる。例えば移動体20がイーサネット(登録商標)フレームを無線で送信するとする。この場合、このイーサネット(登録商標)フレームの送信元 MAC(Media Access Control)アドレスには、移動体20が有するネットワークインタフェースの MAC アドレスが示されている。そこで第1検出部2020は、電波センサによって受信された電波を復調してイーサネット(登録商標)フレームを取り出し、そのイーサネット(登録商標)フレームの送信元 MAC アドレスを見ることで、その電波の発生源に関する情報を得ることができる。
そこで例えば、第1検出部2020は、電波センサが受信した電波から得られたデータの発信元を特定し、その発信元が所定の条件を満たしている場合に、その発信元を移動体20として検出する。例えば所定の条件は、「発信元が、特定の送信元アドレスを持つオブジェクトであること」である。この場合、第1検出部2020は、特定のアドレスを持つオブジェクトのみを移動体20として検出する。こうすることで、特定のアドレスを持つオブジェクトのみを移動体20として検出することが可能となる。
その他にも例えば、所定の条件は、「発信元が、所定のグループに属すること」である。例えば一般に、MAC アドレスにはベンダコードが含まれる。そのため、このベンダコードを利用して、電波の発生源の製造業者を特定することができる。よって、特定の製造業者によって製造された移動体20のみを検出するといったことが可能となる。
ここで、上記所定の特徴を示す情報を特徴情報と呼ぶ。特徴情報は、第1検出部2020からアクセス可能な記憶装置に記憶させておく。第1検出部2020は、特徴情報を取得し、特徴情報に示される所定の特徴を持つ音が音響センサによって検出されたか否かを判定することで、所定の特徴を持つ音を発する移動体20を検出する。
ここで、移動体20として検出すべき移動体が発する電波の特徴、すなわち上記所定の特徴を示す情報を、電波特徴情報と呼ぶ。電波特徴情報は、第1検出部2020からアクセス可能な記憶装置に記憶させておく。第1検出部2020は、電波特徴情報を取得し、電波特徴情報に示される所定の特徴を持つ電波が電波センサによって検出されたか否かを判定する。そして、第1検出部2020は、所定の特徴を持つ電波が電波センサによって検出されたら、センサ10からその電波の発生源へ向かう方向を第1方向12として特定する。
<第1方向12の特定>
第1検出部2020は、センサ10を利用して第1方向12を特定する。第1方向12は、センサ10から移動体20へ向かう方向である。例えばセンサ10として第2カメラ40を利用する場合、第1検出部2020は、カメラ30の各種設定パラメータ(撮像方向や焦点距離など)及び第2撮像画像42における移動体20の位置に基づいて、第1方向12を特定する。ここで、カメラの設定パラメータ及び撮像画像上におけるオブジェクトの位置に基づいて、カメラからオブジェクトに向かう方向を特定する技術には、既存の技術を利用することができる。
センサ10として前述した音響センサを利用する場合、例えば制御部2040は、各マイクロフォンが移動体20から発せられる音を検出したタイミングの差異に基づいて、音響センサから移動体20へ向かう方向を特定する。ここで、立体的に配置された各マイクロフォンで或る音を検出したタイミングの差異に基づいてその音の音源へ向かう方向を特定する技術には、既存の技術を利用することができる。なお、センサ10として前述した電波センサを利用する場合も、音響センサを利用した場合と同様の方法で第1方向12を特定することができる。
<カメラ30の制御:S106、S108>
制御部2040は、カメラ30の光軸方向34を第1方向12に沿って移動させながら、カメラ30に複数回撮像を行わせる(S106、S108)。ここで制御部2040は、カメラ30の姿勢を変更することでカメラ30の光軸方向34を変更してもよいし、カメラ30の姿勢を変えずにカメラ30の光軸方向34を変更してもよい。前者の場合、例えば制御部2040は、カメラ30が設置されている曇台などの台の姿勢を変更することで、カメラ30の光軸方向34を移動させる。一方後者の場合、例えば、カメラ30の光軸上に光学素子(ミラーなど)を配置しておき、制御部2040がこの光学素子の姿勢などを制御することで、カメラ30の光軸方向34を移動させる。
なお、カメラ30の光軸方向34が通る第1方向12上の位置の初期位置は、静的に定められていてもよいし、動的に決定されてもよい。前者の場合、例えば第1方向12の始点を初期位置として設定する。
一方後者の場合、例えば情報処理装置2000を利用して移動体20の検出を行う空間範囲(以下、検出空間)を予め定めておき、第1方向12が検出空間に入る位置を初期位置とする。図7は、検出空間を例示する図である。図7において、検出空間は符号60で表されている。第1方向12が検出空間60に入る位置は位置62である。そこで制御部2040は、カメラ30の光軸方向34が通る第1方向12上の位置の初期位置を位置62とする。なお、第1方向12が検出空間60から出る第1方向12上の位置は位置64である。そこで制御部2040は、カメラ30の光軸方向34を位置62から位置64まで移動させるようにしてもよい。
その他にも例えば、制御部2040は、センサ10の検出結果に基づいて上記初期位置を決定してもよい。例えばセンサ10がカメラであるとする。この場合、制御部2040は、撮像画像32に含まれる移動体20の種類等を特定することで、その移動体20の実空間上のサイズを表す情報を取得する。制御部2040は、移動体20の実空間上のサイズと、撮像画像32における移動体20のサイズとに基づいて、センサ10から移動体20までの距離を推定する。そして制御部2040は、センサ10から第1方向12に沿って上記推定距離離れた位置を、カメラ30の光軸方向34が通る第1方向12上の初期位置とする。なお、オブジェクトの実空間上のサイズと撮像画像上のサイズとに基づいて、カメラからそのオブジェクトまでの距離を推定する技術には、既存の技術を利用することができる。
ここで、カメラ30に複数回撮像を行わせる方法は様々である。例えばカメラ30として、所定の周期(例えば 30fps(frames per second))で定期的に撮像を行うビデオカメラを利用する。カメラ30は、制御部2040による制御に応じて撮像を開始してもよいし、常時撮像を行っていてもよい。後者の場合、第2検出部2060は、カメラ30によって生成される撮像画像32のうち、制御部2040によるカメラ30の撮像方向の制御が開始された時点以降に生成された撮像画像32を利用する。
その他にも例えば、制御部2040は、カメラ30に撮像を行わせる各タイミングで、撮像を指示する制御信号を送信してもよい。この場合、カメラ30は、制御信号を受信するタイミングで撮像を行う。
<<カメラ30の焦点について>>
制御部2040は、第1方向12上にカメラ30の焦点が位置するようにカメラ30の焦点距離を設定してもよい。具体的には、制御部2040は、カメラ30から、カメラ30の撮像方向と第1方向12との交点までの距離を算出し、その距離をカメラ30の焦点距離に設定する。なお、制御部2040は、カメラ30の光軸方向を移動させると共に、カメラ30の焦点距離を変更する。
このようにカメラ30の焦点を第1方向12上に設定することにより、カメラ30は、ピントが合った状態で移動体20を撮像することができる。そのため、第2検出部2060が撮像画像32から移動体20を検出しやすくなる。
また、カメラ30の光軸方向に移動体20とは異なるオブジェクトが存在したとしても、そのオブジェクトはピントが合っていない状態で撮像されることとなる。そのため、撮像画像32に含まれるオブジェクトのうち、ピントが合っているオブジェクトのみを移動体20として検出するようにすることで、移動体20の誤検出を防ぐことができる。すなわち、センサ10によって移動体20として検出されたオブジェクト以外のオブジェクトが、第2検出部2060によって誤って移動体20として検出されてしまうことを防ぐことができる。なお、画像中のオブジェクトにピントが合っているかどうかを判定する技術には、既存の技術を利用することができる。
<撮像画像32からの移動体20の検出:S112、S114、S116>
第2検出部2060は撮像画像32からオブジェクトを検出することで、撮像画像32から移動体20を検出する(S112、S114、S116)。例えば第2検出部2060は、複数の撮像画像32を生成時点が早いものから順に画像解析していき、最初に検出されたオブジェクトを撮像画像32として扱う。こうすることで、第1方向12上に複数のオブジェクトが存在していた場合に、その中で最もセンサ10に近いオブジェクトが、移動体20として検出される。
ただし第2検出部2060は、第1検出部2020による検出の結果を利用し、撮像画像32から検出されたオブジェクトが、第1検出部2020によって検出された移動体20と同じものであるか否かを判定してもよい。例えばセンサ10が第2カメラ40である場合、第1検出部2020は、第2撮像画像42から検出される移動体20の特徴量を算出する。この特徴量により、例えば移動体20が鳥であるのか、飛行機であるのか、それともドローンであるのかなど、移動体20のおおまかな特徴を把握することができる。
そこで第2検出部2060は、撮像画像32から検出されたオブジェクトが、第1検出部2020によって算出された移動体20の特徴量を持つか否かを判定する。撮像画像32から検出されたオブジェクトがこの特徴量を持つ場合、第2検出部2060は、そのオブジェクトを移動体20として検出する。一方、撮像画像32から検出されたオブジェクトがこの特徴量を持たない場合、第2検出部2060は、そのオブジェクトが移動体20ではないと判定する。
また前述したように、センサ10によって検出する移動体20の種類を予め定めているケースがある。例えば、センサ10が音響センサである場合において、或る特定機種のドローンのロータの音を検出する場合、センサ10によって検出される移動体20は、その特定機種のドローンである。そこで第2検出部2060は、撮像画像32から検出するオブジェクトを、その特定機種のドローンに限定してもよい。この場合、例えば、センサ10を利用して検出する種類に分類されるオブジェクトが共通して持つ特徴量を予め定めておく。第2検出部2060は、撮像画像32から検出されたオブジェクトがこの特徴量を持つ場合に、そのオブジェクトを移動体20として検出する。一方、撮像画像32から検出されたオブジェクトがこの特徴量を持たない場合、第2検出部2060は、そのオブジェクトが移動体20ではないと判定する。
その他にも例えば、前述したようにカメラ30の焦点が第1方向12上に位置するようにカメラ30の焦点を制御する場合、第2検出部2060は、撮像画像32から検出されるオブジェクトのうち、ピントが合っているもののみを移動体20として検出してもよい。ここで、画像に含まれるオブジェクトにピントが合っているか否かを判定する技術には、既存の技術を利用することができる。
<第1方向12の更新>
ここで、カメラ30の光軸方向34を第1方向12に沿って移動させている最中にも、センサ10を用いて移動体20を検出することができる。そして、センサ10によって検出される移動体20の位置が変化すると、それに伴って第1方向12が変化する。この場合、制御部2040は、センサ10による検出結果に基づいて第1方向12を更新してもよい。
図8は、第1方向12を更新する様子を例示する図である。第1方向12−1は、時点t1におけるセンサ10の検出結果に基づき、第1検出部2020が特定した第1方向である。制御部2040は、時点t1以降、第1方向12−1に沿ってカメラ30の光軸方向34を移動させながら、カメラ30に撮像を行わせる。
その後、第1検出部2020は、時点t2におけるセンサ10の検出結果に基づき、第1方向12−2を特定する。そこで制御部2040は、時点t2以降は、第1方向12−1ではなく第1方向12−2に沿ってカメラ30の光軸方向34を移動させる。その後も同様に、時点t3におけるセンサ10の検出結果に基づき第1方向12−3が特定され、時点t3以降におけるカメラ30の光軸方向34は第1方向12−3に沿って移動させる。
このようにカメラ30を第1方向12に沿って移動させている途中で第1方向12を更新することにより、カメラ30の光軸方向34を第1方向12に沿って移動させている最中における移動体20の位置の変化も考慮して、カメラ30を利用した移動体20の検出が行われる。よって、移動体20をより確実に検出できるようになる。
<センサ10とカメラ30を複数利用するケースについて>
上述の説明では、センサ10やカメラ30の数が1つであるケースを例に説明していた。しかしながら、センサ10やカメラ30の数は複数であってもよい。以下、センサ10とカメラ30をそれぞれ複数設けるケースについて、具体的に例示する。
図9と図10は、センサ10とカメラ30が複数設けられるユースケースを例示する図である。図9は、移動体20が監視されるエリアを鉛直方向に平面視した図である。図10は、移動体20が監視されるエリアを横から見た図である。本ユースケースにおける移動体20は、ドローン120である。ドローン120は、ビル100とビル110との間を飛行する。その航路は、監視エリア130の中に設定されている。
監視エリア130には、8つのセンサ10と2つのカメラ30が設けられている。カメラ30−1は、センサ10−1からセンサ10−4の中心位置に配置されている。一方、カメラ30−2は、センサ10−5からセンサ10−7の中心位置に配置されている。監視エリア130内の点線の矩形は、各センサ10がドローン120を検出する範囲を表している。
第1検出部2020は、センサ10−1からセンサ10−8を利用して、ドローン120を検出する。ここで、センサ10−1からセンサ10−4のいずれかによってドローン120が検出された場合、制御部2040は、カメラ30−1を制御して撮像画像32を生成させ、その撮像画像32からドローン120を検出する。一方、センサ10−5からセンサ10−7のいずれかによってドローン120が検出された場合、制御部2040は、カメラ30−2を制御して撮像画像32を生成させ、その撮像画像32からドローン120を検出する。
[実施形態2]
図11は実施形態2の情報処理装置2000の機能構成を例示する図である。以下で説明する事項を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様の機能を有する。
実施形態2の情報処理装置2000は出力部2080を有する。出力部2080は、第2検出部2060によって移動体20が検出された撮像画像32を出力する。撮像画像32を出力する方法は様々である。例えば出力部2080は、移動体20が検出された撮像画像32を記憶装置に出力することで、その記憶装置にその撮像画像32を記憶させる。その他にも例えば、出力部2080は、移動体20が検出された撮像画像32をディスプレイ装置に出力することで、そのディスプレイ装置にその撮像画像32を表示させる。その他にも例えば、出力部2080は、移動体20が検出された撮像画像32を情報処理装置2000以外の端末に送信してもよい。例えば、移動体の監視を行っている監視員が利用している端末(以下、監視端末)に対し、移動体20が検出された撮像画像32を送信する。監視端末に受信された撮像画像32は、例えば、監視端末に設けられているディスプレイ装置に表示される。
ここで、情報処理装置2000は、第2検出部2060によって移動体20が検出された後は、カメラ30によって移動体20が撮像され続けるように、カメラ30に移動体20を追従させる機能を有していてもよい。この場合、第2検出部2060によって移動体20が検出された後に生成される各撮像画像32には移動体20が含まれる。すなわち、カメラ30により、移動体20を含む動画データが生成されるようになる。この場合、出力部2080は、第2検出部2060によって移動体20が検出された撮像画像32だけでなく、それ以降に生成された撮像画像32も含めた動画データを出力してもよい。なお、カメラに特定のオブジェクトを追従させる技術には既存の技術を利用することができる。
<ハードウエア構成の例>
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
<作用効果>
本実施形態の情報処理装置2000によれば、移動体20が検出された撮像画像32が出力される。ここで、カメラ30による撮像は、センサ10を用いて特定された第1方向12に沿って光軸方向34を移動させながら行えばよいため、カメラ30の撮像範囲はある程度狭くすることができる。例えば前述したように、カメラ30として望遠カメラを利用することができる。よって、情報処理装置2000によれば、移動体20が大きく撮像された撮像画像32を得ることができ、撮像画像32を用いて移動体20の外見を詳細に把握することができる。
[実施形態3]
図12は実施形態3の情報処理装置2000の機能構成を例示する図である。以下で説明する事項を除き、実施形態3の情報処理装置2000は、実施形態1又は2の情報処理装置2000と同様の機能を有する。
実施形態2の情報処理装置2000は算出部2100を有する。算出部2100は、第2検出部2060によって検出された移動体20の3次元位置を算出する機能を有する。情報処理装置2000によれば、互いに異なる位置に設置されたセンサ10とカメラ30それぞれによって移動体20が検出される。そのため、移動体20の3次元位置は、センサ10から移動体20へ向かう方向(第1方向12)と、カメラ30から移動体20へ向かう方向(以下、第2方向)との交点として定まる。そこで算出部2100は、第1方向12と第2方向の交点を算出し、その交点を移動体20の3次元位置とする。
3次元位置は例えば、GPS 座標と高度の組み合わせとして表すことができる。具体的には、x 座標と y 座標をそれぞれ GPS 座標の x 座標と y 座標とし、z 座標を高度とする。その他にも例えば、移動体20の3次元位置は、センサ10やカメラ30の位置を基準とした相対位置で表されてもよい。
なお、算出部2100によって算出された移動体20の3次元座標は、移動体20が検出された撮像画像32を出力部2080が検出する方法と同様の方法により出力されることが好ましい。例えば、撮像画像32をディスプレイ装置に表示させる場合、撮像画像32上の移動体20の付近に、移動体20の3次元位置の情報を重畳させて表示させることが好適である。
<ハードウエア構成の例>
実施形態3の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
<作用効果>
本実施形態の情報処理装置2000によれば、異なる位置に配置されたセンサ10とカメラ30のそれぞれから移動体20へ向かう方向に基づいて、移動体20の3次元位置を把握することができる。そして、このように算出した3次元位置を、移動体20の監視や追跡などの様々な用途に利用することができる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態を組み合わせた構成や、上記以外の様々な構成を採用することもできる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. センサを用いて移動体を検出し、前記センサから前記移動体へ向かう第1方向を特定する第1検出手段と、
第1カメラの光軸方向を前記第1方向に沿って移動させながら前記第1カメラに撮像を行わせる制御手段と、
前記第1カメラによって生成される第1撮像画像から前記移動体を検出する第2検出手段と、を有する情報処理装置。
2. 前記第2検出手段は、移動体が検出される前記第1撮像画像のうち、最も早く生成された第1撮像画像から検出される移動体を、前記センサによって検出される移動体として扱う、1.に記載の情報処理装置。
3. 前記センサは前記第1カメラよりも焦点距離が短い第2カメラであり、
前記第1検出手段は、前記第2カメラによって生成される撮像画像を画像解析することで前記移動体を検出する、1.又は2.に記載の情報処理装置。
4. 前記センサは音響センサであり、
前記第1検出手段は、検出すべき移動体が発する音の特徴を表す情報を取得し、前記特徴を持つ音が前記音響センサによって検出されたら、前記音響センサからその音の発生源へ向かう方向を前記第1方向として特定する、1.又は2.に記載の情報処理装置。
5. 前記センサは電波センサであり、
前記第1検出手段は、検出すべき移動体が発する電波の特徴を表す情報を取得し、前記特徴を持つ電波が前記電波センサによって検出されたら、前記電波センサからその電波の発生源へ向かう方向を前記第1方向として特定する、1.又は2.に記載の情報処理装置。
6. 前記制御手段は、前記センサによって検出された移動体のサイズに基づいて前記第1カメラの撮像方向の初期位置を決定し、前記第1カメラの撮像方向を前記初期位置から前記第1方向に沿って移動させる、1.乃至5.いずれか一つに記載の情報処理装置。
7. 前記制御手段は、前記第1方向上に前記第1カメラの焦点が位置するように、前記第1カメラの焦点距離を設定する、1.乃至6.いずれか一つに記載の情報処理装置。
8. 前記第1検出手段は前記第1方向を繰り返し特定し、
前記制御手段は、前記第1カメラの光軸方向を前記第1方向に沿って移動させている際に前記第1方向が新たに特定された場合、前記新たに特定された第1方向に沿って前記第1カメラの光軸方向を移動させる、1.乃至7.いずれか一つに記載の情報処理装置。
9. 前記移動体が検出された前記第1撮像画像を出力する出力手段を有する、1.乃至8.いずれか一つに記載の情報処理装置。
10. 前記第1方向と、前記移動体が検出されたときの前記第1カメラの光軸方向とに基づいて、前記移動体の3次元位置を算出する算出手段を有する、1.乃至9.いずれか一つに記載の情報処理装置。
11. コンピュータによって実行される制御方法であって、
センサを用いて移動体を検出し、前記センサから前記移動体へ向かう第1方向を特定する第1検出ステップと、
第1カメラの光軸方向を前記第1方向に沿って移動させながら前記第1カメラに撮像を行わせる制御ステップと、
前記第1カメラによって生成される第1撮像画像から前記移動体を検出する第2検出ステップと、を有する制御方法。
12. 前記第2検出ステップにおいて、移動体が検出される前記第1撮像画像のうち、最も早く生成された第1撮像画像から検出される移動体を、前記センサによって検出される移動体として扱う、11.に記載の制御方法。
13. 前記センサは前記第1カメラよりも焦点距離が短い第2カメラであり、
前記第1検出ステップにおいて、前記第2カメラによって生成される撮像画像を画像解析することで前記移動体を検出する、11.又は12.に記載の制御方法。
14. 前記センサは音響センサであり、
前記第1検出ステップにおいて、検出すべき移動体が発する音の特徴を表す情報を取得し、前記特徴を持つ音が前記音響センサによって検出されたら、前記音響センサからその音の発生源へ向かう方向を前記第1方向として特定する、11.又は12.に記載の制御方法。
15. 前記センサは電波センサであり、
前記第1検出ステップにおいて、検出すべき移動体が発する電波の特徴を表す情報を取得し、前記特徴を持つ電波が前記電波センサによって検出されたら、前記電波センサからその電波の発生源へ向かう方向を前記第1方向として特定する、11.又は12.に記載の制御方法。
16. 前記制御ステップにおいて、前記センサによって検出された移動体のサイズに基づいて前記第1カメラの撮像方向の初期位置を決定し、前記第1カメラの撮像方向を前記初期位置から前記第1方向に沿って移動させる、11.乃至15.いずれか一つに記載の制御方法。
17. 前記制御ステップにおいて、前記第1方向上に前記第1カメラの焦点が位置するように、前記第1カメラの焦点距離を設定する、11.乃至16.いずれか一つに記載の制御方法。
18. 前記第1検出ステップにおいて、前記第1方向を繰り返し特定し、
前記制御ステップにおいて、前記第1カメラの光軸方向を前記第1方向に沿って移動させている際に前記第1方向が新たに特定された場合、前記新たに特定された第1方向に沿って前記第1カメラの光軸方向を移動させる、11.乃至17.いずれか一つに記載の制御方法。
19. 前記移動体が検出された前記第1撮像画像を出力する出力ステップを有する、11.乃至18.いずれか一つに記載の制御方法。
20. 前記第1方向と、前記移動体が検出されたときの前記第1カメラの光軸方向とに基づいて、前記移動体の3次元位置を算出する算出ステップを有する、11.乃至19.いずれか一つに記載の制御方法。
21. 11.乃至20.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。
この出願は、2017年11月13日に出願された日本出願特願2017−218281号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
ユーザは、第2撮像画像42上の位置ではなく、領域を指定してもよい。この場合、ユーザによって指定された領域を検出領域として扱う。領域を指定する操作には、例えばドラッグ操作やスライド操作などを利用することができる。
ここで、上記所定の特徴を示す情報を特徴情報と呼ぶ。特徴情報は、第1検出部2020からアクセス可能な記憶装置に記憶させておく。第1検出部2020は、特徴情報を取得し、特徴情報に示される所定の特徴を持つ電波電波センサによって検出されたか否かを判定することで、所定の特徴を持つ電波を発する移動体20を検出する。

Claims (21)

  1. センサを用いて移動体を検出し、前記センサから前記移動体へ向かう第1方向を特定する第1検出手段と、
    第1カメラの光軸方向を前記第1方向に沿って移動させながら前記第1カメラに撮像を行わせる制御手段と、
    前記第1カメラによって生成される第1撮像画像から前記移動体を検出する第2検出手段と、を有する情報処理装置。
  2. 前記第2検出手段は、移動体が検出される前記第1撮像画像のうち、最も早く生成された第1撮像画像から検出される移動体を、前記センサによって検出される移動体として扱う、請求項1に記載の情報処理装置。
  3. 前記センサは前記第1カメラよりも焦点距離が短い第2カメラであり、
    前記第1検出手段は、前記第2カメラによって生成される撮像画像を画像解析することで前記移動体を検出する、請求項1又は2に記載の情報処理装置。
  4. 前記センサは音響センサであり、
    前記第1検出手段は、検出すべき移動体が発する音の特徴を表す情報を取得し、前記特徴を持つ音が前記音響センサによって検出されたら、前記音響センサからその音の発生源へ向かう方向を前記第1方向として特定する、請求項1又は2に記載の情報処理装置。
  5. 前記センサは電波センサであり、
    前記第1検出手段は、検出すべき移動体が発する電波の特徴を表す情報を取得し、前記特徴を持つ電波が前記電波センサによって検出されたら、前記電波センサからその電波の発生源へ向かう方向を前記第1方向として特定する、請求項1又は2に記載の情報処理装置。
  6. 前記制御手段は、前記センサによって検出された移動体のサイズに基づいて前記第1カメラの撮像方向の初期位置を決定し、前記第1カメラの撮像方向を前記初期位置から前記第1方向に沿って移動させる、請求項1乃至5いずれか一項に記載の情報処理装置。
  7. 前記制御手段は、前記第1方向上に前記第1カメラの焦点が位置するように、前記第1カメラの焦点距離を設定する、請求項1乃至6いずれか一項に記載の情報処理装置。
  8. 前記第1検出手段は前記第1方向を繰り返し特定し、
    前記制御手段は、前記第1カメラの光軸方向を前記第1方向に沿って移動させている際に前記第1方向が新たに特定された場合、前記新たに特定された第1方向に沿って前記第1カメラの光軸方向を移動させる、請求項1乃至7いずれか一項に記載の情報処理装置。
  9. 前記移動体が検出された前記第1撮像画像を出力する出力手段を有する、請求項1乃至8いずれか一項に記載の情報処理装置。
  10. 前記第1方向と、前記移動体が検出されたときの前記第1カメラの光軸方向とに基づいて、前記移動体の3次元位置を算出する算出手段を有する、請求項1乃至9いずれか一項に記載の情報処理装置。
  11. コンピュータによって実行される制御方法であって、
    センサを用いて移動体を検出し、前記センサから前記移動体へ向かう第1方向を特定する第1検出ステップと、
    第1カメラの光軸方向を前記第1方向に沿って移動させながら前記第1カメラに撮像を行わせる制御ステップと、
    前記第1カメラによって生成される第1撮像画像から前記移動体を検出する第2検出ステップと、を有する制御方法。
  12. 前記第2検出ステップにおいて、移動体が検出される前記第1撮像画像のうち、最も早く生成された第1撮像画像から検出される移動体を、前記センサによって検出される移動体として扱う、請求項11に記載の制御方法。
  13. 前記センサは前記第1カメラよりも焦点距離が短い第2カメラであり、
    前記第1検出ステップにおいて、前記第2カメラによって生成される撮像画像を画像解析することで前記移動体を検出する、請求項11又は12に記載の制御方法。
  14. 前記センサは音響センサであり、
    前記第1検出ステップにおいて、検出すべき移動体が発する音の特徴を表す情報を取得し、前記特徴を持つ音が前記音響センサによって検出されたら、前記音響センサからその音の発生源へ向かう方向を前記第1方向として特定する、請求項11又は12に記載の制御方法。
  15. 前記センサは電波センサであり、
    前記第1検出ステップにおいて、検出すべき移動体が発する電波の特徴を表す情報を取得し、前記特徴を持つ電波が前記電波センサによって検出されたら、前記電波センサからその電波の発生源へ向かう方向を前記第1方向として特定する、請求項11又は12に記載の制御方法。
  16. 前記制御ステップにおいて、前記センサによって検出された移動体のサイズに基づいて前記第1カメラの撮像方向の初期位置を決定し、前記第1カメラの撮像方向を前記初期位置から前記第1方向に沿って移動させる、請求項11乃至15いずれか一項に記載の制御方法。
  17. 前記制御ステップにおいて、前記第1方向上に前記第1カメラの焦点が位置するように、前記第1カメラの焦点距離を設定する、請求項11乃至16いずれか一項に記載の制御方法。
  18. 前記第1検出ステップにおいて、前記第1方向を繰り返し特定し、
    前記制御ステップにおいて、前記第1カメラの光軸方向を前記第1方向に沿って移動させている際に前記第1方向が新たに特定された場合、前記新たに特定された第1方向に沿って前記第1カメラの光軸方向を移動させる、請求項11乃至17いずれか一項に記載の制御方法。
  19. 前記移動体が検出された前記第1撮像画像を出力する出力ステップを有する、請求項11乃至18いずれか一項に記載の制御方法。
  20. 前記第1方向と、前記移動体が検出されたときの前記第1カメラの光軸方向とに基づいて、前記移動体の3次元位置を算出する算出ステップを有する、請求項11乃至19いずれか一項に記載の制御方法。
  21. 請求項11乃至20いずれか一項に記載の制御方法の各ステップをコンピュータに実行させるプログラム。
JP2019552792A 2017-11-13 2018-11-06 情報処理装置、制御方法、及びプログラム Active JP6849097B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021032372A JP7230941B2 (ja) 2017-11-13 2021-03-02 情報処理装置、制御方法、及びプログラム
JP2022179299A JP2023010769A (ja) 2017-11-13 2022-11-09 情報処理装置、制御方法、及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017218281 2017-11-13
JP2017218281 2017-11-13
PCT/JP2018/041101 WO2019093297A1 (ja) 2017-11-13 2018-11-06 情報処理装置、制御方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021032372A Division JP7230941B2 (ja) 2017-11-13 2021-03-02 情報処理装置、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019093297A1 true JPWO2019093297A1 (ja) 2020-11-19
JP6849097B2 JP6849097B2 (ja) 2021-03-24

Family

ID=66437785

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019552792A Active JP6849097B2 (ja) 2017-11-13 2018-11-06 情報処理装置、制御方法、及びプログラム
JP2021032372A Active JP7230941B2 (ja) 2017-11-13 2021-03-02 情報処理装置、制御方法、及びプログラム
JP2022179299A Pending JP2023010769A (ja) 2017-11-13 2022-11-09 情報処理装置、制御方法、及びプログラム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021032372A Active JP7230941B2 (ja) 2017-11-13 2021-03-02 情報処理装置、制御方法、及びプログラム
JP2022179299A Pending JP2023010769A (ja) 2017-11-13 2022-11-09 情報処理装置、制御方法、及びプログラム

Country Status (3)

Country Link
US (2) US11727579B2 (ja)
JP (3) JP6849097B2 (ja)
WO (1) WO2019093297A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242988B (zh) * 2020-01-14 2023-04-28 青岛联合创智科技有限公司 一种广角相机与长焦相机联动双云台跟踪目标的方法
CN113064805A (zh) * 2021-03-29 2021-07-02 联想(北京)有限公司 一种电子设备的控制方法以及控制装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004320175A (ja) * 2003-04-11 2004-11-11 Victor Co Of Japan Ltd 監視カメラシステム
JP2010124023A (ja) * 2008-11-17 2010-06-03 Hitachi Kokusai Electric Inc 監視システム
WO2016038971A1 (ja) * 2014-09-10 2016-03-17 富士フイルム株式会社 撮像制御装置、撮像制御方法、カメラ、カメラシステム及びプログラム
JP2016170522A (ja) * 2015-03-11 2016-09-23 株式会社東芝 移動体検出装置
JP2017050829A (ja) * 2015-09-04 2017-03-09 株式会社日立情報通信エンジニアリング カメラ制御システム、及び、カメラ制御方法
JP2017175475A (ja) * 2016-03-24 2017-09-28 パナソニックIpマネジメント株式会社 モニタリングシステム及びモニタリング方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006074290A2 (en) * 2005-01-07 2006-07-13 Gesturetek, Inc. Optical flow based tilt sensor
JP4188394B2 (ja) 2005-09-20 2008-11-26 フジノン株式会社 監視カメラ装置及び監視カメラシステム
WO2017163688A1 (en) 2016-03-24 2017-09-28 Panasonic Intellectual Property Management Co., Ltd. Monitoring system and monitoring method
JP6786253B2 (ja) 2016-04-15 2020-11-18 キヤノン株式会社 撮像システム、情報処理装置、撮像システムの制御方法、情報処理装置の制御方法、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004320175A (ja) * 2003-04-11 2004-11-11 Victor Co Of Japan Ltd 監視カメラシステム
JP2010124023A (ja) * 2008-11-17 2010-06-03 Hitachi Kokusai Electric Inc 監視システム
WO2016038971A1 (ja) * 2014-09-10 2016-03-17 富士フイルム株式会社 撮像制御装置、撮像制御方法、カメラ、カメラシステム及びプログラム
JP2016170522A (ja) * 2015-03-11 2016-09-23 株式会社東芝 移動体検出装置
JP2017050829A (ja) * 2015-09-04 2017-03-09 株式会社日立情報通信エンジニアリング カメラ制御システム、及び、カメラ制御方法
JP2017175475A (ja) * 2016-03-24 2017-09-28 パナソニックIpマネジメント株式会社 モニタリングシステム及びモニタリング方法

Also Published As

Publication number Publication date
JP6849097B2 (ja) 2021-03-24
JP7230941B2 (ja) 2023-03-01
JP2023010769A (ja) 2023-01-20
US20230342953A1 (en) 2023-10-26
US11727579B2 (en) 2023-08-15
US20200349719A1 (en) 2020-11-05
WO2019093297A1 (ja) 2019-05-16
JP2021103881A (ja) 2021-07-15

Similar Documents

Publication Publication Date Title
US20210019627A1 (en) Target tracking method and apparatus, medium, and device
US11042723B2 (en) Systems and methods for depth map sampling
CN107925821B (zh) 监控
US9865087B2 (en) Method and system for disambiguation of augmented reality tracking databases
US10514708B2 (en) Method, apparatus and system for controlling unmanned aerial vehicle
EP3809161A1 (en) Information processing device, information processing method and distance measurement system
JP2023010769A (ja) 情報処理装置、制御方法、及びプログラム
US20170188140A1 (en) Controlling audio beam forming with video stream data
US10861169B2 (en) Method, storage medium and electronic device for generating environment model
EP2888716B1 (en) Target object angle determination using multiple cameras
US10306394B1 (en) Method of managing a plurality of devices
CN113432620B (zh) 误差估计方法、装置、车载终端及存储介质
US20160073087A1 (en) Augmenting a digital image with distance data derived based on acoustic range information
US10459533B2 (en) Information processing method and electronic device
US20220030206A1 (en) Information processing apparatus, information processing method, program, and projection system
US10281294B2 (en) Navigation system and navigation method
EP4184446A1 (en) Method and system for improving target detection performance through dynamic learning
CN113689484B (zh) 深度信息的确定方法、装置、终端及存储介质
JP6465089B2 (ja) ロボットシステムとその識別装置
CN115705370A (zh) 轨迹标注方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210215

R150 Certificate of patent or registration of utility model

Ref document number: 6849097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150