JPWO2020166178A1 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JPWO2020166178A1
JPWO2020166178A1 JP2020572093A JP2020572093A JPWO2020166178A1 JP WO2020166178 A1 JPWO2020166178 A1 JP WO2020166178A1 JP 2020572093 A JP2020572093 A JP 2020572093A JP 2020572093 A JP2020572093 A JP 2020572093A JP WO2020166178 A1 JPWO2020166178 A1 JP WO2020166178A1
Authority
JP
Japan
Prior art keywords
sound
directional microphone
orientation
camera
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020572093A
Other languages
English (en)
Other versions
JP7391053B2 (ja
Inventor
勝彦 浅井
一暢 小西
ステファン ウィリアム ジョン
和夫 井上
俊介 久原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2020166178A1 publication Critical patent/JPWO2020166178A1/ja
Application granted granted Critical
Publication of JP7391053B2 publication Critical patent/JP7391053B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/222Remote-control arrangements operated by humans
    • G05D1/224Output arrangements on the remote controller, e.g. displays, haptics or speakers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/326Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/02Details casings, cabinets or mounting therein for transducers covered by H04R1/02 but not provided for in any of its subgroups
    • H04R2201/025Transducer mountings or cabinet supports enabling variable orientation of transducer of cabinet

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Traffic Control Systems (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

コントローラ(200)は、プロセッサ(202)とメモリ(203)とを備え、メモリ(203)は、無人飛行体(100)のカメラ(103)が出力する撮像画像および無人飛行体(100)の指向性マイクロフォン(105)が出力する音声を記憶し、カメラの位置および姿勢ならびに指向性マイクロフォンの位置および姿勢を記憶し、プロセッサは、メモリから撮像画像、音声、カメラの位置および姿勢、ならびに指向性マイクロフォンの位置および姿勢を取得し、カメラの位置および姿勢ならびに指向性マイクロフォンの位置および姿勢を用いて、指向性マイクロフォンの収音方向を算出し、撮像画像上の、算出された収音方向に対応する位置に、収音方向を示すオブジェクトを重畳し、オブジェクトが重畳された撮像画像を表示装置に表示させる。

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
特許文献1には、地上にいる人が操作する無人ヘリコプタに搭載された撮影装置が撮影した映像に、撮影装置の光学系の向きを示す角度情報を重ねた画像を、地上装置に表示させる遠隔操作システムが開示されている。
特開2001−309233号公報
しかしながら、特許文献1の技術では、音を取得するマイクロフォンが無人飛行体に搭載されることは想定されていない。音は視覚で認識することができないため、映像が提供されても品質の良いターゲット音を収音できるように人が無人飛行体を操作することは難しい。
そこで本開示では、人が操作する無人飛行体を用いた収音の品質を向上させることができる情報処理装置、情報処理方法及びプログラムを提供する。
本開示に係る情報処理装置は、プロセッサとメモリとを備え、前記メモリは、無人飛行体が備えるカメラが出力する撮像画像、および、前記無人飛行体が備える指向性マイクロフォンが出力する音声を記憶し、前記カメラの位置および姿勢、ならびに、前記指向性マイクロフォンの位置および姿勢を記憶し、前記プロセッサは、前記メモリから前記撮像画像、前記音声、前記カメラの位置および姿勢、ならびに前記指向性マイクロフォンの位置および姿勢を取得し、前記カメラの位置および姿勢ならびに前記指向性マイクロフォンの位置および姿勢を用いて、前記指向性マイクロフォンの収音方向を算出し、前記撮像画像上の、算出された前記収音方向に対応する位置に、前記収音方向を示すオブジェクトを重畳し、前記オブジェクトが重畳された撮像画像を表示装置に表示させる。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示に係る情報処理装置、情報処理方法およびプログラムは、人が操作する無人飛行体を用いた収音の品質を向上させることができる。
図1は、実施の形態に係る無人飛行体およびコントローラの外観を示す図である。 図2は、実施の形態に係る無人飛行体の上面図である。 図3は、無人飛行体のカメラの撮像範囲、および、指向性マイクロフォンの収音方向を示す図である。 図4は、実施の形態に係る無人飛行体およびコントローラの構成を示すブロック図である。 図5は、収音処理が実行されている場合に、方向変換部により変換される操作について説明するための図である。 図6は、収音方向の速度指示を、上下動成分と前後動成分とに分解する処理を説明するための図である。 図7は、音源としての人が映っている撮像画像の一例を示す図である。 図8は、オブジェクトが重畳された撮像画像の一例を示す図である。 図9は、第1の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。 図10は、第2の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。 図11は、第3の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。 図12は、第4の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。 図13は、第5の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。 図14は、第6の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。 図15は、第7の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。 図16は、第8の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。 図17は、実施の形態に係る収音処理における無人飛行体およびコントローラの動作例を示すシーケンス図である。 図18は、実施の形態に係るコントローラにおける画像処理の詳細を示すフローチャートである。 図19は、実施の形態に係る無人飛行体の操作の変換処理における無人飛行体およびコントローラの動作例を示すシーケンス図である。
(本開示の基礎となった知見)
近年、飛行する推進力を得るためのプロペラを有する無人飛行体に収音させることで、無人飛行体を移動可能なコミュニケーションツールとして活用することが検討されている。このような無人飛行体に搭載したマイクロフォンで収音する場合、ターゲット音だけでなく、無人飛行体のプロペラによる風切り音を主とする、無人飛行体自身で発生する騒音も収音してしまう。このため、騒音が収音されることを低減するために、指向性マイクロフォンを用いて収音することが考えられる。
無人飛行体に指向性マイクロフォンを搭載する場合、無人飛行体は上空を飛行するため、指向性マイクロフォンの収音範囲をターゲット音の音源に向けるために、指向性マイクロフォンは、無人飛行体の機体から斜め下方を向いた状態で機体に固定されることが望ましい。また、無人飛行体を軽量化する観点から、少数の指向性マイクロフォンを配置することが考えられる。このため、無人飛行体に搭載される指向性マイクロフォンの収音範囲は、特定の範囲に限定されてしまう。よって、指向性マイクロフォンの収音範囲内に音源が入る位置に機体を移動させる必要がある。
ところで特許文献1の技術では、撮像装置により撮像された映像に撮像装置の光学系の向きを示す角度情報が重畳された画像を、地上装置に表示させている。このように角度情報が重畳された画像を表示することで、撮影装置の操作性や移動体の操縦性の向上を図っている。
しかしながら、特許文献1の技術では、音を取得するマイクロフォンが無人飛行体に搭載されることは想定されていない。このため、音源が指向性マイクロフォンの収音範囲内に入っているか否かを判断することが難しく、音源が指向性マイクの収音範囲内に入る位置に無人飛行体を移動させることは難しい。
このような問題を解決するために、本開示の一態様に係る無人飛行体は、プロセッサとメモリとを備え、前記メモリは、無人飛行体が備えるカメラが出力する撮像画像、および、前記無人飛行体が備える指向性マイクロフォンが出力する音声を記憶し、前記カメラの位置および姿勢、ならびに、前記指向性マイクロフォンの位置および姿勢を記憶し、前記プロセッサは、前記メモリから前記撮像画像、前記音声、前記カメラの位置および姿勢、ならびに前記指向性マイクロフォンの位置および姿勢を取得し、前記カメラの位置および姿勢ならびに前記指向性マイクロフォンの位置および姿勢を用いて、前記指向性マイクロフォンの収音方向を算出し、前記撮像画像上の、算出された前記収音方向に対応する位置に、前記収音方向を示すオブジェクトを重畳し、前記オブジェクトが重畳された撮像画像を表示装置に表示させる。
これによれば、無人飛行体のカメラにより出力された撮像画像上の、算出された収音方向の対応する位置に、指向性マイクロフォンの収音方向を示すオブジェクトが重畳された撮像画像を表示装置に表示させるため、ユーザに指向性マイクロフォンの収音方向の撮像画像上における位置を伝えることができる。すなわち、指向性マイクロフォンの収音方向を可視化することができる。このため、ユーザは、表示装置に表示された画像を見ながらオブジェクトがターゲット音の音源に合うように無人飛行体を操作することで、指向性マイクロフォンの収音方向を音源に向けることが容易にできる。よって、人が操作する無人飛行体を用いた収音の品質を向上させることができる。
また、前記プロセッサは、前記指向性マイクロフォンの収音における基準となる方向を前記収音方向として算出してもよい。
このため、ユーザは、表示装置に表示された画像を見ながらオブジェクトが音源に合うように無人飛行体を操作することで、指向性マイクロフォンの収音における基準となる方向を音源に向けることが容易にできる。よって、人が操作する無人飛行体を用いた収音の品質を向上させることができる。
また、前記プロセッサは、前記撮像画像に映る物体までの測定距離をさらに取得し、算出された収音方向、および、取得された前記測定距離を用いて、前記物体の位置における前記指向性マイクロフォンの収音範囲をさらに算出し、算出された前記収音範囲を示すオブジェクトを、前記収音方向を示す前記オブジェクトとして前記撮像画像に重畳してもよい。
このため、ユーザは、表示装置に表示された画像を見ながらオブジェクトが音源に合うように無人飛行体を操作することで、音源を指向性マイクロフォンの収音範囲内に収めることが容易にできる。よって、人が操作する無人飛行体を用いた収音の品質を向上させることができる。
また、前記プロセッサは、前記無人飛行体の移動方向と前記収音方向とを対応付け、対応付けた結果に基づいて前記無人飛行体の移動を制御してもよい。
このため、無人飛行体は、収音方向を基準とした方向に移動が制御されるため、指向性マイクロフォンの収音方向を音源に合わせたまま移動することができる。
また、前記プロセッサは、前記無人飛行体の移動に関する操作入力を受け付け、前記操作入力を前記対応付けた結果に基づいて変換することにより、前記無人飛行体の移動を制御してもよい。
これによれば、ユーザは、収音方向を基準とした方向に無人飛行体を移動させることが容易にできるため、指向性マイクロフォンの収音方向を音源に合わせたまま無人飛行体を移動することができる。
また、前記プロセッサは、算出された前記収音方向が前記カメラの撮像範囲から外れる場合、前記撮像範囲から前記収音方向への向きを示すオブジェクトを前記撮像画像に重畳してもよい。
このため、ユーザは、表示装置に表示された画像を見ながらオブジェクトが示す方向に向くように無人飛行体を操作することで、指向性マイクロフォンの収音方向を音源に向けることが容易にできる。よって、収音の品質を向上させることができる。
また、前記プロセッサは、前記指向性マイクロフォンの収音品質に応じた設定距離をさらに取得し、取得された前記撮像画像に映る物体までの測定距離と、取得された前記設定距離との差分に基づいて、前記収音方向を示す前記オブジェクトの表示態様を制御してもよい。
このため、例えば、物体から指向性マイクロフォンまでの距離に応じて収音品質が高品質であると予測される場合と、低品質であると予測される場合とで異なる表示態様のオブジェクトを表示装置に表示することができる。よって、ユーザは、表示装置に表示された画像を見ながらオブジェクトが高品質の表示態様になるように無人飛行体を操作することで、指向性マイクロフォンから得られるターゲット音の収音の品質を向上させることができる。
また、前記プロセッサは、前記差分が閾値以上である場合又は前記測定距離の測定可能範囲に物体が存在しない場合、前記収音方向を示す前記オブジェクトの表示態様を固定してもよい。
これによれば、収音品質が所定の品質以下である場合、オブジェクトの表示態様を固定するため、表示態様を変更するための処理負荷を低減することができる。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、本発明の一態様に係る無人飛行体について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態)
以下、実施の形態を説明する。
[1.構成]
図1は、実施の形態に係る無人飛行体およびコントローラの外観を示す図である。図2は、実施の形態に係る無人飛行体の上面図である。
図1および図2に示されるように、無人飛行体100は、コントローラ200へのユーザによる操作入力(以下、「操作」とも言う。)に応じた操作信号をコントローラ200から受信し、受信した操作信号に応じて飛行する。また、無人飛行体100は、飛行している状態において、受信した操作信号に応じて無人飛行体100が備えるカメラ103を用いた撮像を行ってもよい。カメラ103により撮像された撮像画像は、コントローラ200に送信されてもよいし、スマートフォンなどの携帯端末に送信されてもよい。
コントローラ200は、ユーザからの操作を受け付けて、受け付けた操作に応じた操作信号を無人飛行体100に送信する。コントローラ200は、ディスプレイ204を備える。ディスプレイ204は、例えば、無人飛行体100から受信した撮像画像を表示する。なお、コントローラ200は、スマートフォンなどの携帯端末と接続されることで、携帯端末のディスプレイをディスプレイ204として利用してもよい。
これにより、ユーザは、無人飛行体100のカメラ103に撮像させた撮像画像を、コントローラ200のディスプレイ204でリアルタイムに確認しながら、コントローラ200を操作することで、無人飛行体100の飛行中における位置および姿勢の少なくとも一方である飛行状態を変更することができる。このため、ユーザは、無人飛行体100のカメラ103によって撮像する撮像範囲を自由に変更することができる。
無人飛行体100は、4つの発生器110と、機体120と、4つのアーム121とを備える。
4つの発生器110のそれぞれは、無人飛行体100を飛行させる力を発生させる。4つの発生器110のそれぞれは、具体的には、気流を発生させることで無人飛行体100を飛行させる力を発生させる。4つの発生器110のそれぞれは、回転することで気流を発生させる回転翼111と、回転翼111を回転させるアクチュエータ112とを有する。回転翼111およびアクチュエータ112は、鉛直方向に略平行な回転軸を有し、回転翼111の上方から下方に向かって流れる気流を発生させる。これにより、4つの発生器110は、無人飛行体100が上方に浮上する推力を発生させ、無人飛行体100を飛行させる力を発生させる。アクチュエータ112は、例えば、回転翼111の回転軸で回転するモータである。
4つの発生器110は、上方から見た場合、機体120の重心を中心として、90度の角度間隔でそれぞれ配置されている。つまり、4つの発生器110は、機体120を囲うように環状に並んで配置されている。
なお、4つの発生器110のそれぞれが有する回転翼111は、1つのプロペラで構成される例を図示しているが、これに限らずに、2つのプロペラが同一の回転軸において互いに逆回転する二重反転プロペラで構成されていてもよい。また、発生器110は、飛行可能であれば、4つ未満であってもよいし、5つ以上であってもよい。
機体120は、例えば、円柱形状の箱状の部材、つまり、筐体であり、内部に、プロセッサ、メモリ、バッテリ、各種センサなどの電子機器が配置されている。なお、機体120の形状は、円柱形状に限らずに、四角柱など他の形状の箱状の形状であってもよい。
また、機体120の外部には、カメラ103および指向性マイクロフォン105が配置されている。例えば、指向性マイクロフォン105は、無人飛行体100を上方から見た場合、環状に並ぶ4つの発生器110のうち互いに隣接する2つの発生器110の間の方向を向いて機体120に固定されている。つまり、指向性マイクロフォン105は、機体120を中心として、一の発生器110に向かう方向を基準に45°ずれた方向を向いて配置されている。指向性マイクロフォン105は、例えば、無人飛行体100の前方を向いて機体120に固定されている。また、指向性マイクロフォン105は、無人飛行体100を水平方向から見た場合、斜め下方を向いて機体120に固定されている。
また、4つのアーム121は、それぞれ、機体120から4つの発生器110に向かって延び、先端に4つの発生器110が固定されている部材である。つまり、4つのアーム121の一端は、機体120に固定されており、4つのアームの他端には、それぞれ、4つの発生器110が固定されている。
図3は、無人飛行体のカメラの撮像範囲、および、指向性マイクロフォンの収音方向を示す図である。
図3に示されるように、カメラ103は、水平方向よりも斜め下方の撮像範囲130を撮像するように、機体120に固定されている。撮像範囲130は、例えば、カメラ103の位置を頂点とする略四角錐形状の範囲である。撮像範囲130は、水平方向からの平面視において、範囲上限131から範囲下限132までの角度範囲により規定される。また、指向性マイクロフォン105は、水平方向から角度θだけ斜め下方の収音方向153を向いて機体120に固定されている。指向性マイクロフォン105の収音範囲150は、収音方向153を中心軸とし、指向性マイクロフォン105の位置を頂点とする略円錐形状の範囲である。収音範囲150は、水平方向からの平面視において、範囲上限151から範囲下限152までの角度範囲により規定される。水平方向からの平面視において、収音範囲150の角度範囲は、カメラ103の撮像範囲を規定する画角よりも小さい角度範囲であってもよい。
図4は、実施の形態に係る無人飛行体およびコントローラの構成を示すブロック図である。具体的には、図4は、無人飛行体100およびコントローラ200のそれぞれが備えるハードウェア構成と、プロセッサ101、202による機能とについて説明するためのブロック図である。
まず、無人飛行体100について説明する。無人飛行体100は、プロセッサ101と、センサ102と、カメラ103と、測距センサ104と、指向性マイクロフォン105と、メモリ106と、通信IF(Interface)107と、4つの発生器110とを備える。
プロセッサ101は、センサ102、カメラ103が有するイメージセンサ、測距センサ104、指向性マイクロフォン105などを含む各種センサにより検出された検出結果、通信IF107による受信結果などを取得し、取得された検出結果または受信結果に対して、メモリ106または図示しないストレージに記憶されている所定のプログラムを実行することで各種処理を実行する。これにより、プロセッサ101は、4つの発生器110、カメラ103および通信IF107のうちの少なくとも1つを制御する。
センサ102は、例えば、加速度センサ、ジャイロセンサ、気圧センサ、地磁気センサ、GPS(Global Positioning System)受信機などを含むセンサである。
加速度センサは、無人飛行体100の異なる3方向のそれぞれにかかる加速度を検出するセンサである。加速度センサは、無人飛行体100の姿勢を検出する姿勢センサの一例である。
ジャイロセンサは、無人飛行体100の異なる3方向を軸とした3軸周りそれぞれの回転における角速度を検出するセンサである。ジャイロセンサは、無人飛行体100の姿勢を検出する姿勢センサの一例である。
気圧センサは、無人飛行体100の周囲の環境の気圧を検出するセンサである。
地磁気センサは、無人飛行体100の基準となる方向が向いている方角を検出するセンサである。基準となる方向は、例えば、無人飛行体100の前方であってもよい。地磁気センサは、無人飛行体100の姿勢を検出する姿勢センサの一例である。
GPS受信機は、GPS衛星を含む人工衛星から当該GPS受信機の位置を示す情報を受信する。つまり、GPS受信機は、無人飛行体100の現在位置を検出する。なお、GPS受信機が受信する情報を発信する人工衛星は、GNSS(Global Navigation Satellite System)に対応する衛星であればよく、GPS衛星に限らない。
カメラ103は、レンズなどの光学系およびイメージセンサを有する機器である。カメラ103は、機体120に対する相対的な向きが固定されていてもよいし、機体120に対する相対的な向きの変更が自在であってもよい。後者の場合、カメラ103は、カメラ103の三軸方向周りの姿勢を一定に保つためのジンバル(図示せず)で支持されていてもよい。ジンバルは、無人飛行体100の姿勢が変化しても、カメラ103の姿勢を、例えば、地球座標系に対して所望の姿勢に維持するための機器である。ここで所望の姿勢とは、コントローラ200から受信した操作信号に含まれるカメラ103の撮像方向によって定まる姿勢であってもよい。
測距センサ104は、測距センサ104から周囲の物体までの距離を検出するセンサである。測距センサ104は、例えば、カメラ103のイメージセンサの各画素に設けられていてもよい。この場合、カメラ103は、例えば、デプスカメラである。また、測距センサ104は、超音波センサ、TOF(Time Of Flight)カメラ、LIDAR(Light Detection and Ranging)などであってもよい。
指向性マイクロフォン105は、特定の方向(以下、「収音方向」と言う。)を基準とする所定の角度範囲である収音範囲において、収音範囲以外の角度範囲よりも高品質な音を収音することができる特性、つまり、指向性を有するマイクロフォンである。所定の角度範囲は、例えば、90°以下の角度範囲であり、指向性マイクロフォン105の位置を基準とした広がりを有する3次元的な角度範囲である。3次元的な角度範囲は、例えば、収音方向を軸として、指向性マイクロフォン105の位置から離れるほど広がる略円錐形状を有する。指向性マイクロフォン105は、複数のマイクロフォン素子を有するマイクロフォンアレイにより構成されていてもよい。指向性マイクロフォン105は、収音することで音データを生成し、生成した音データを出力する。
メモリ106は、無人飛行体100の機体120に対するカメラ103の位置および姿勢を示す情報、機体120に対する指向性マイクロフォン105の位置および姿勢を示す情報、指向性マイクロフォン105の収音方向、収音範囲および収音推奨距離を示す情報、機体120に対する測距センサ104の位置及び姿勢を示す情報などを記憶している。メモリ106は、プロセッサ101により実行されるプログラムを記憶していてもよい。メモリ106は、例えば、不揮発性メモリにより実現される。
通信IF107は、コントローラ200または通信端末との間で通信する通信インタフェースである。通信IF107は、例えば、コントローラ200が発する送信信号を受信するための通信インタフェースを含む。また、通信IF107は、例えば、IEEE802.11a、b、g、n、ac、ax規格に適合した無線LAN(Local Area Network)インタフェースであってもよいし、Bluetooth(登録商標)規格に適合したインタフェースであってもよい。
4つの発生器110は、上述により説明しているため、詳細な説明を省略する。
プロセッサ101は、機能構成として、飛行制御部101aと、画像取得部101bと、収音部101cとを有する。つまり、飛行制御部101a、画像取得部101bおよび収音部101cによる各機能は、プロセッサ101がメモリ106に記憶されているプログラムを実行することで実現される。
飛行制御部101aは、センサ102により検出された無人飛行体100の現在位置、飛行速度および飛行姿勢と、通信IF107により受信されたコントローラ200からの操作信号とに応じて、発生器110のアクチュエータ112の回転数を制御する。これにより、飛行制御部101aは、無人飛行体100の飛行状態を制御する。つまり、飛行制御部101aは、ユーザによるコントローラ200への操作に応じてコントローラ200から出力された操作信号に応じて、無人飛行体100の飛行状態を制御する。つまり、飛行制御部101aは、例えば、フライトコントローラとして機能する。
画像取得部101bは、カメラ103により撮像された撮像画像を取得する。画像取得部101bは、第1のサンプリング周期で撮像画像をカメラ103から逐次取得する。このとき、画像取得部101bは、画像に、当該撮像画像がカメラ103により撮像されたタイミングを対応付けてもよい。また、画像取得部101bは、測距センサ104により測定された、無人飛行体100から無人飛行体100の周囲の物体までの測定距離を取得する。画像取得部101bは、第2のサンプリング周期で、上記測定距離を測距センサ104から逐次取得する。このとき、画像取得部101bは、測定距離に、当該測定距離が測距センサ104により測定されたタイミングを対応付けてもよい。画像取得部101bは、互いに対応するタイミングで取得された、撮像画像および測定距離を用いて、撮像画像および測定距離を対応付ける。具体的には、画像取得部101bは、撮像画像上の複数の領域のそれぞれについて、当該領域と、当該領域に映り込んでいる物体までの測定距離とを対応付ける。撮像画像上の複数の領域は、例えば、撮像画像を構成する複数の画素であってもよいし、撮像画像を構成する複数のブロックであってもよい。
カメラ103および測距センサ104が一体化されているデプスカメラにより構成されている場合には、第1のサンプリング周期と第2のサンプリング周期とは、同じサンプリング周期であり、互いにサンプリングするタイミングが一致する。また、この場合、撮像画像の各画素に対応付けられている測定距離が取得されるため、撮像画像および測定距離を用いて容易に撮像画像および測定距離を対応付けることができる。
一方で、カメラ103および測距センサ104が別体である場合には、第1のサンプリング周期と第2のサンプリング周期とは異なるサンプリング周期であり、サンプリングするタイミングが一致しないことが多い。このため、画像取得部101bは、例えば、カメラ103により撮像された撮像画像と、当該撮像画像が撮像されたタイミングに最も近いタイミングで測距センサ104により測定された測定距離とを対応付けてもよい。なお、第1のサンプリング周期と第2のサンプリング周期とが同期されている場合には、この限りではなく、同期されたタイミングで、カメラ103により撮像された撮像画像と、測距センサ104により測定された測定距離とが対応付けられる。
画像取得部101bは、カメラ103で撮像された撮像画像と、測距センサ104により測定された物体までの測定距離と、メモリ106に記憶されている、カメラ103の位置および姿勢を示す情報、並びに、測距センサ104の位置および姿勢を示す情報とを用いて、撮像画像および測定距離を対応付ける。
画像取得部101bは、撮像画像および測定距離を対応付けた結果である距離画像を、通信IF107を介してコントローラ200へ出力する。画像取得部101bは、逐次取得した撮像画像および測定距離を用いて、距離画像を逐次生成し、逐次生成された距離画像を逐次コントローラ200へ出力してもよい。これにより、無人飛行体100は、リアルタイムに距離画像をコントローラ200へ出力することができる。
なお、画像取得部101bは、距離画像に、当該距離画像の元になった撮像画像がカメラ103により撮像されたタイミングをさらに対応付けてもよい。また、画像取得部101bによりカメラ103から取得された撮像画像は、メモリ106に記憶されてもよい。また、画像取得部101bにより取得された測定距離は、メモリ106に記憶されてもよい。また、画像取得部101bにより対応付けられた結果である距離画像は、メモリ106に記憶されてもよい。
収音部101cは、通信IF107によりコントローラ200から受信された収音指示に従って、指向性マイクロフォン105を用いた収音処理を実行し、指向性マイクロフォン105により逐次生成された音データを取得する。収音部101cは、音データに、当該音データが指向性マイクロフォン105により生成されたタイミングを対応付けてもよい。収音部101cにより取得された音データは、メモリ106に記憶されてもよいし、通信IF107を介してコントローラ200へ出力されてもよい。
次に、コントローラ200について説明する。コントローラ200は、入力IF(Interface)201と、プロセッサ202と、メモリ203と、ディスプレイ204と、通信IF(Interface)205とを備える。コントローラ200は、情報処理装置の一例である。
入力IF201は、ユーザによる操作を受け付け、受け付けられた操作に応じた操作信号をプロセッサ202に出力する。入力IF201は、ユーザから、無人飛行体100の移動に関する操作を受け付ける。無人飛行体100の移動に関する操作は、例えば、無人飛行体100の移動する方向と、当該方向への移動速度とを指示する操作であり、指定された方向に指定された移動速度で無人飛行体100を移動させるための操作である。なお、無人飛行体100の移動に関する操作は、例えば、無人飛行体100の移動する方向と、当該方向への移動距離とを指示する操作であってもよい。入力IF201は、例えば、無人飛行体100が移動する方向を示す操作、回転を示す操作などを受け付ける方向キーまたはレバー、各種機能を実行する操作を受け付けるボタンなどを有するコントロールパッドである。
プロセッサ202は、入力IF201により受け付けられた操作に応じた操作信号、通信IF205による受信結果などを取得し、取得された操作信号または受信結果に対して、メモリ203または図示しないストレージに記憶されている所定のプログラムを実行することで各種処理を実行する。これにより、プロセッサ202は、ディスプレイ204および通信IF205のうちの少なくとも1つを制御する。
メモリ203は、プロセッサ202より実行されるプログラムを記憶している。また、メモリ203は、無人飛行体100により出力され、通信IF205を介して取得された、距離画像および音データを記憶する。また、メモリ203は、無人飛行体100の機体120に対するカメラ103の位置および姿勢を示す情報、機体120に対する指向性マイクロフォン105の位置および姿勢を示す情報、指向性マイクロフォン105の収音方向、収音範囲および収音推奨距離を示す情報、機体120に対する測距センサ104の位置及び姿勢を示す情報などを記憶してもよいし、これらの情報を無人飛行体100から通信IF205を介して取得し、取得されたこれらの情報を記憶してもよい。メモリ203は、例えば、不揮発性メモリにより実現される。
ディスプレイ204は、プロセッサ202により出力された撮像画像を表示する。ディスプレイ204は、表示装置の一例である。ディスプレイ204は、例えば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイなどにより実現される。
通信IF205は、無人飛行体100との間で通信する通信インタフェースである。通信IF205は、例えば、無人飛行体100に送信信号を送信するための通信インタフェース、および、無人飛行体100が発する送信信号を受信するための通信インタフェースを含む。また、通信IF205は、例えば、IEEE802.11a、b、g、n、ac、ax規格に適合した無線LAN(Local Area Network)インタフェースであってもよいし、Bluetooth(登録商標)規格に適合したインタフェースであってもよい。
プロセッサ202は、機能構成として、方向変換部202aと、画像処理部202bとを有する。つまり、方向変換部202aおよび画像処理部202bによる各機能は、プロセッサ202がメモリ203に記憶されているプログラムを実行することで実現される。
図5は、収音処理が実行されている場合に、方向変換部により変換される操作について説明するための図である。図6は、収音方向の速度指示を、上下動成分と前後動成分とに分解する処理を説明するための図である。
方向変換部202aは、収音処理が実行されている場合、入力IF201から操作信号を取得し、操作信号により示されるユーザによる操作のうち前後方向の移動速度の速度指示を、指向性マイクロフォン105の収音方向153への移動速度の速度指示に置き換える。そして、方向変換部202aは、無人飛行体100の移動方向と指向性マイクロフォン105の収音方向153とを対応付けた結果に基づいて無人飛行体100の移動を制御する。方向変換部202aは、例えば、無人飛行体100の前後方向(つまり、水平方向)に対する、指向性マイクロフォン105の収音方向の角度の差を用いて、無人飛行体100の移動方向と収音方向153とを対応付けてもよい。
例えば、方向変換部202aは、置き換えられた収音方向への移動速度の速度指示を、収音方向が水平方向から角度θだけ下方を向いている対応関係を用いて、図6に示されるように、水平方向への移動速度の成分と上下方向への移動速度の成分とに分解する。方向変換部202aは、図5に示されるように、分解後の水平方向への移動速度の成分を無人飛行体100の前後方向への移動速度の速度指示として生成し、分解後の上下方向への移動速度の成分を操作信号により示される操作のうち上下方向の移動速度に加算し、加算後の移動速度を上下方向の移動速度の速度指示として生成する。なお、方向変換部202aは、上下方向の上方向への移動速度を正とし、下方向への移動速度を負として、移動速度の加算を行う。また、方向変換部202aは、左右方向の移動速度の速度指示、および、回転の移動速度の速度指示については、変換せずにそのまま出力する。
このように、方向変換部202aは、入力された操作を、対応付けた結果に基づいて変換することにより、無人飛行体100の移動を操作する。これにより、収音処理が実行されている場合、収音方向を前後方向として無人飛行体100を移動させることが容易にでき、ユーザは、無人飛行体100を音源に近づけたり遠ざけたりする操作を行うことが容易にできる。
なお、上記では、指向性マイクロフォン105が無人飛行体100を上方からみた場合に、無人飛行体100の前方を向いて固定されているため、方向変換部202aは、前後方向の移動速度の速度指示を、収音方向153への移動速度の速度指示に置き換えるとしたが、これに限らない。
例えば、方向変換部202aは、指向性マイクロフォン105が無人飛行体100の前方に対して無人飛行体100の右下に傾いて固定されている場合に、入力IF201から取得したユーザによる操作のうち前後方向の移動速度の速度指示を、収音方向への移動速度の速度指示に置き換えるとともに、左右方向の移動速度の速度指示を、収音方向と水平面上で直交した方向への移動速度の速度指示に置き換えてもよい。この場合、前後方向の移動速度の速度指示が無人飛行体100の前後方向、上下方向、左右方向への移動速度成分に分解され、左右方向の移動速度の速度指示が無人飛行体100の前後方向、左右方向の成分に分解される。そして、分解された上下方向の移動速度の成分が上下方向の速度指示として統合され、分解された前後方向の移動速度の成分が前後方向の速度指示として統合され、分解された左右方向の移動速度の成分が左右方向の速度指示として統合される。
また、収音方向153への移動速度の速度指示に置き換えられる速度指示の方向は、カメラ103の撮像方向に応じて決定されてもよい。例えば、カメラ103の撮像方向が前方である場合は前後方向の速度指示が収音方向153の速度指示に置き換えられてもよく、カメラ103の撮像方向が右方である場合は左右方向の速度指示が収音方向153の速度指示に置き換えられてもよい。
また、無人飛行体100が複数の指向性マイクロフォンを備えている場合に、前後方向の移動速度の速度指示を置き換える収音方向は、カメラ103の撮像方向に応じて決定されてもよい。例えば、カメラ103の撮像方向が前方である場合は前後方向の速度指示が前方に向かって配置された指向性マイクロフォンの収音方向の速度指示に置き換えられてもよく、カメラ103の撮像方向が右方である場合は右方に向かって配置された指向性マイクロフォンの収音方向への速度指示に置き換えられてもよい。
また、収音処理が実行されていない場合には、入力IF201から出力された操作信号は、変換されずに通信IF205を介して、無人飛行体100に出力される。これにより、収音処理が実行されていない場合には、無人飛行体100は、操作信号に応じた方向および移動速度で、移動の制御が行われる。
画像処理部202bは、メモリ203から距離画像、音データ、カメラ103の位置および姿勢、ならびに指向性マイクロフォン105の位置および姿勢を取得する。画像処理部202bは、カメラ103の位置および姿勢ならびに指向性マイクロフォン105の位置および姿勢を用いて、指向性マイクロフォン105の収音方向153を算出する。
また、画像処理部202bは、取得された距離画像を用いて、撮像画像に映る物体までの測定距離もメモリ203から取得する。画像処理部202bは、算出された収音方向153、および、取得された測定距離を用いて、撮像画像に映る物体の位置における指向性マイクロフォン105の収音範囲150をさらに算出する。
そして、画像処理部202bは、図7および図8に示されるように、距離画像のうちの撮像画像310上の、算出された収音方向153に対応する位置に、収音方向153を示すオブジェクト312、および、収音範囲150を示すオブジェクト313を含むオブジェクト311を重畳する。なお、オブジェクト312は、指向性マイクロフォン105の収音における基準となる方向を示す。例えば、画像処理部202bは、オブジェクト312及びオブジェクト313を、収音範囲150と撮像画像310に映る被写体との距離に応じて算出する。画像処理部202bは、メモリ203から指向性マイクロフォン105の収音範囲を読み出し、算出された収音方向153を軸とする位置に読み出された収音範囲を適用することで、撮像画像310上の指向性マイクロフォン105の収音範囲150を特定する。画像処理部202bは、取得された距離画像を用いて、特定された収音範囲150内にある直近の物体までの距離を算出し、算出された距離に対応するオブジェクト312およびオブジェクト313を算出する。この場合、画像処理部202bは、距離画像を複数のエリアに分割して、分割されたエリア毎に距離を算出する。そして、収音範囲150において、複数のエリアのそれぞれで算出された複数の距離のうち所定の条件を満たす距離に対応するオブジェクトをオブジェクト312およびオブジェクト313として算出する。オブジェクト313は、例えば、楕円形状を有する。
複数の距離のうち所定の条件を満たす距離とは、例えば、最短の距離であってもよいし、最も多い距離であってもよいし、複数の距離が最も多く分布している距離範囲に基づいて算出される距離であってもよい。また、収音範囲150において、特定の距離に対応するオブジェクトは、例えば、無人飛行体100から特定の距離だけ離れた位置における、撮像範囲130および収音範囲150のサイズおよび位置関係から算出されてもよい。具体的には、オブジェクト313は、略四角錐形状の撮像範囲130と、略円錐形状の収音範囲150とを、無人飛行体100から特定の距離だけ離れた位置において、撮像方向または収音方向153に略垂直な平面で切断した場合における撮像範囲130および収音範囲150のサイズおよび位置関係から算出されてもよい。
エリア毎の距離は、例えば、対象エリア内の複数の画素でそれぞれ測定されている複数の距離の平均値、中央値などの代表値であってもよいし、複数の画素でそれぞれ測定されている複数の距離そのものであってもよい。また、測距センサ104がデプスカメラではなく、他のセンサにより構成される場合、測距センサ104は、カメラ103の撮像範囲130をカメラ103の光軸に交差する平面で複数のエリアに分割し、分割された複数のエリア毎に物体までの距離を測定してもよい。この場合、無人飛行体100は、カメラ103により撮像された撮像画像と、撮像画像において上記複数のエリアのそれぞれで測定された複数の距離とを、コントローラ200に送信しているものとする。
なお、画像処理部202bは、上記の方法でオブジェクト312、313を算出することに限らない。例えば、画像処理部202bは、先にオブジェクト312の画像上の位置を決定し、決定された位置に映る物体までの距離を用いて、当該距離に対応するオブジェクトをオブジェクト313として生成してもよい。この場合、測距センサ104は、収音方向153における物体までの距離を計測すればよい。オブジェクト313は、例えば、楕円形状を有する。なお、この場合では、後述する図14に示されるように、音源400が収音範囲150内にあっても収音方向153が音源400から外れている場合には、無人飛行体100から音源400よりも奥側の物体までの距離が計測される。
また、画像処理部202bは、例えば、撮像画像310と対応付けられた収音範囲150と距離画像における画素毎の距離情報とを用いて、各画素が収音範囲150内にあるか否かをそれぞれ判定し、収音範囲150内(又は境界線上)にある画素の領域をオブジェクト313として算出してもよい。同様に、画像処理部202bは、各画素が収音方向153に対応する位置にあるか否かをそれぞれ判定し、収音方向153上にある画素にオブジェクト312が表示されるようにオブジェクト312を算出してもよい。この場合、画素毎に距離が異なるため、算出されるオブジェクト313の形状は滑らかな曲線になりにくくなる。代わりに、収音範囲がより正確に表示される。また、収音範囲150が複数の物体に跨る場合には、各物体との距離に応じてオブジェクト313の表示形態が異なることになる。
なお、図7および図8において、撮像画像310に映る物体は、例えば、音源の一例である人である。ここで、図7は、音源としての人が映っている撮像画像の一例を示す図である。図8は、オブジェクトが重畳された撮像画像の一例を示す図である。
なお、本実施の形態では、撮像画像310に映る物体が音源か否かは無人飛行体を操作するユーザが判断し、ユーザが収音対象と考える音源に収音方向を合わせることが想定される。そのため、当然ながら音源でない物体に対しても本実施の形態における表示態様の制御が行われる場合がある。さらに、無人飛行体は、撮像画像310に映る物体が音源であるか否かを判定し、物体が音源であると判定された場合に、本実施の形態における画像処理部202bによる表示態様の制御及び方向変換部202aによる方向変換処理が行われてもよい。例えば、画像処理部202bは、撮像画像310を画像解析することにより撮像画像310に映る物体を認識し、認識された物体が音源であるか否かを判定する。認識された物体が音源であると判定された場合、画像処理部202bによる表示態様の制御及び方向変換部202aによる操作の方向変換処理が行われる。
また、コントローラ200のディスプレイ204が起動された場合、又はオブジェクトの重畳がユーザから指示された場合に、本実施の形態における画像処理部202bによる表示態様の制御及び方向変換部202aによる方向変換処理が行われてもよい。また、無人飛行体100は、音源である物体と無人飛行体100との距離が所定距離内であるかを判定し、当該距離が所定距離内であると判定された場合に、本実施の形態における画像処理部202bによる表示態様の制御及び方向変換部202aによる方向変換処理が行われてもよい。
画像処理部202bは、オブジェクト311が重畳された撮像画像(以下、「重畳後画像」という。)314をディスプレイ204に出力し、ディスプレイ204に重畳後画像314を表示させる。
次に、各場面において、画像処理部202bにより生成される重畳後画像の一例について図9〜図16を用いて説明する。
図9は、第1の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。図10は、第2の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。図11は、第3の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。図12は、第4の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。図13は、第5の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。図14は、第6の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。図15は、第7の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。図16は、第8の場面における、無人飛行体と音源との位置関係、および、重畳後画像を示す図である。なお、図9〜図11および図14〜図16は、無人飛行体の側面図である。また、図12および図13は、無人飛行体の上面図である。
第1の場面は、図3および図8と同様であるため説明を省略する。
第2の場面は、無人飛行体100が第1の場面における位置から上昇した後の場面である。第2の場面では、図10に示されるように、無人飛行体100の上昇に伴い、撮像範囲130および収音範囲150が音源400の上方に移動する。このため、重畳後画像324に映っている音源400は、第1の場面の重畳後画像314と比較して、重畳後画像324の下方に移動する。無人飛行体100は、水平方向及び前後方向に移動していないため、重畳後画像324に重畳されるオブジェクト311には、第1の場面から変化はない。
第3の場面は、無人飛行体100が第1の場面における位置から水平方向において音源400に近づく方向、つまり、前方に移動した後の場面である。第3の場面では、図11に示されるように、無人飛行体100の前方への移動に伴い、音源400に対する撮像範囲130および収音範囲150が変化する。このため、重畳後画像334に映っている音源400は、第1の場面の重畳後画像314と比較して、大きく映る。また、オブジェクト331のうちの収音範囲150を示すオブジェクト333は、音源400に追従して大きくなるように計算される一方で、音源400までの距離が接近することに伴って音源400上における収音範囲150のエリアが小さくなる。そのため、結果として、重畳後画像314上のオブジェクト313と、重畳後画像334上のオブジェクト333との大きさはそれほど変わらない。なお、収音方向153を示すオブジェクト332は、カメラ103に対する相対的な姿勢が変化していないため、オブジェクト312と同じ位置を指している。
第4の場面は、カメラ103が回転自在に機体120に接続されている場合の例であり、カメラ103が無人飛行体100の前方よりも左側の角度範囲を撮像している場面である。第4の場面は、図12に示されるように、撮像範囲130内に収音範囲150が含まれる場合であって、音源400が収音範囲150外にある場合である。このため、重畳後画像344に映っている音源400と重ならない位置に、収音方向153を示すオブジェクト342と、収音範囲150を示すオブジェクト343とを含むオブジェクト341が重畳される。よって、ユーザは、カメラ103による撮像範囲を固定したままで、無人飛行体100を左回転方向または左方向に移動させる操作をコントローラ200に対して行うことで、指向性マイクロフォン105の収音範囲150を音源400に向けることが容易にできる。
第5の場面は、第4の場面と同様にカメラ103が回転自在に機体120に接続されている場合の例であり、第4の場面よりもさらに左側の角度範囲を撮像している場面である。第5の場面は、図13に示されるように、撮像範囲130よりも右側に外れた位置に収音範囲150が存在する。このため、画像処理部202bは、撮像範囲130から収音方向153への向きを示すオブジェクト351が重畳されている重畳後画像354を生成する。オブジェクト351は、例えば、右方を指す三角形状である。つまり、オブジェクト351は、右方に指向性マイクロフォン105の収音範囲150が存在することを示している。なお、オブジェクト351は、右方を指す矢印の形状であってもよい。また、オブジェクト351は、撮像画像において近い方向側の辺周辺の領域に重畳される。よって、ユーザは、第4の場面と同様に、カメラ103による撮像範囲を固定したままで、無人飛行体100を左回転方向または左方向に移動させる操作をコントローラ200に対して行うことで、指向性マイクロフォン105の収音範囲150を音源400に向けることが容易にできる。なお、オブジェクト351は、指向性マイクロフォン105の収音方向153が近い方の向きを示す。
第6〜第8の場面は、音源400が指向性マイクロフォン105の収音範囲150内に入っている場合において、無人飛行体100から音源400までの距離に応じて、オブジェクトの表示態様を制御する場合の例である。
第6の場面は、図14に示されるように、音源400が、指向性マイクロフォン105の収音範囲150内に入っており、かつ、指向性マイクロフォン105の収音品質が最も高い第1の品質となる第1の距離d1の位置までの間の第1の範囲に入っている場面である。なお、第1の範囲とは、例えば、指向性マイクロフォン105の位置を起点としたときの第1の距離d1の位置までの間の範囲である。このため、画像処理部202bは、第1の距離d1と無人飛行体100から音源400までの測定距離との差分に基づいて、オブジェクト361の表示態様を第1の品質を示す表示態様とした重畳後画像364を生成する。例えば、画像処理部202bは、オブジェクト361に含まれる収音範囲を示すオブジェクト363を示す線を太線とする。
第7の場面は、図15に示されるように、音源400が、指向性マイクロフォン105の収音範囲150内に入っており、かつ、指向性マイクロフォン105の収音品質が2番目に高い第2の品質となる第2の距離d2の位置までの間の第2の範囲に入っている場面である。なお、第2の範囲とは、例えば、指向性マイクロフォン105の位置を起点としたときの、第1の距離d1の位置から第2の距離d2の位置までの間の範囲である。このため、画像処理部202bは、第2の距離d2と無人飛行体100から音源400までの測定距離との差分に基づいて、オブジェクト371の表示態様を第2の品質を示す表示態様とした重畳後画像374を生成する。例えば、画像処理部202bは、オブジェクト371に含まれる収音範囲を示すオブジェクト373を示す線を二重線とする。
第8の場面は、図16に示されるように、音源400が、指向性マイクロフォン105の収音範囲150内に入っており、かつ、指向性マイクロフォン105の収音品質が低い第3の品質となる第2の距離d2の位置よりも遠い第3の範囲に入っている場面である。なお、第3の範囲とは、例えば、指向性マイクロフォン105の位置を起点としたときの、第2の距離d2の位置よりも遠い範囲である。このため、画像処理部202bは、第2の距離d2と無人飛行体100から音源400までの測定距離との差分に基づいて、オブジェクト381の表示態様を第3の品質を示す表示態様とした重畳後画像384を生成する。例えば、画像処理部202bは、オブジェクト381に含まれる収音範囲を示すオブジェクト383を示す線を破線とする。
なお、画像処理部202bは、差分が閾値以上である場合、オブジェクトの表示態様を変更せずに固定したままとしてもよい。また、収音品質の代わりに、測定距離の測定可能範囲に物体が存在するか否かに基づいて、オブジェクトの表示態様が固定されてもよい。例えば、指向性マイクロフォン105とカメラ103の位置が十分に近いと仮定できる場合、画像上のオブジェクト382及びオブジェクト383の位置及び大きさはオブジェクト382の対象物までに距離に対してそれほど変化しないはずである。そのため、対象物が測距センサの範囲外にある場合には、画像処理部202bは、対象物が測距センサの最大距離にあるとして計算したオブジェクト382及びオブジェクト383の位置及びサイズを表示させる。
なお、第4の場面において、画像処理部202bは、上述した第6〜第8の場面のように無人飛行体100から音源400までの距離に応じてオブジェクトの表示態様を制御してもよい。第4の場面は、音源400ではない物体500が収音範囲150内にある。なお、物体500は、例えば看板である。
この場合、画像処理部202bは、指向性マイクロフォン105の収音範囲150内に物体500があることが測距センサ104による測定距離から検出されても、オブジェクト343の表示態様を変化させない。つまり、画像処理部202bは、収音範囲150外にある物体500が収音範囲150内に入った場合に、収音範囲150内に物体500が入る前の表示態様のままのオブジェクト343を撮像画像に重畳する。このため、画像処理部202bは、無人飛行体100から、収音範囲150内の物体500までの距離が第2の距離d2の位置よりも遠い第3の範囲に入っていたとしても、第3の範囲に音源400が位置するときの表示態様に変更しない。なお、物体が音源であるか否かは、上述したように、例えば、撮像画像を画像解析することで判定される。
なお、画像処理部202bは、収音範囲150内に音源400が入っていない場合には、オブジェクト343の表示態様を初期状態の表示態様のままとしてもよい。つまり、この場合、第4の場面では、画像処理部202bは、初期状態の表示態様でオブジェクト343を撮像画像に重畳する。
なお、画像処理部202bは、第6〜第8の場面において線種を変更することで、収音品質に応じた表示態様を変更するとしたが、収音範囲を示すオブジェクトの線種を変更することに限らずに、当該オブジェクトの色を変更することで表示態様を変更してもよいし、オブジェクトの色の濃度を変更することで表示態様を変更してもよい。また、画像処理部202bは、収音範囲を示すオブジェクトの表示態様を変更することに限らずに、収音方向を示すオブジェクトの表示態様を変更してもよい。画像処理部202bは、例えば、収音方向を示すオブジェクトの大きさを変更してもよいし、当該オブジェクトを点滅させ、点滅させる速さを変更してもよい。
また、画像処理部202bは、音源400が予め定められた距離または安全範囲よりも近い位置に位置する場合に、警告表示を重畳した画像を重畳後画像として生成し、生成された重畳後画像をディスプレイ204に表示してもよい。
なお、以上の実施の形態では収音範囲を示すオブジェクトを線で表現していたが、これに限るものではなく、画像上で収音範囲内外の色味を異ならせて識別できるようにしてもよい。
[2.動作]
次に、実施の形態に係る無人飛行体100およびコントローラ200の動作について説明する。まず、収音処理における動作例について説明する。
図17は、実施の形態に係る収音処理における無人飛行体およびコントローラの動作例を示すシーケンス図である。
無人飛行体100の画像取得部101bは、カメラ103から撮像画像を取得し、測距センサ104から測定距離を取得する(S11)。
次に、画像取得部101bは、取得された撮像画像および測定距離を用いて距離画像を生成する(S12)。ステップS11およびS12の処理の詳細は、画像取得部101bの機能の説明において記載したため、省略する。
収音部101cは、指向性マイクロフォン105により逐次生成された音データを取得する(S13)。ステップS13の処理の詳細は、収音部101cの機能の説明において記載したため、省略する。
プロセッサ101は、生成された距離画像および音データを、通信IF107を用いて、コントローラ200に送信する(S14)。ここで、プロセッサ101は、メモリ106に記憶されているカメラ103の位置および姿勢、並びに、指向性マイクロフォン105の位置、姿勢および収音方向を示す情報を、通信IF107を用いて、コントローラ200に送信してもよい。
次に、コントローラ200は、距離画像および音データを受信すると、画像処理を実行する(S15)。画像処理の詳細は、図18を用いて説明する。
図18は、実施の形態に係るコントローラにおける画像処理の詳細を示すフローチャートである。
コントローラ200の画像処理部202bは、カメラ103の位置および姿勢、並びに、指向性マイクロフォン105の位置、姿勢および収音方向を示す情報を取得する(S21)。画像処理部202bは、通信IF107を介して、無人飛行体100から上記情報を取得してもよいし、上記情報が予めメモリ203に記憶されている場合にはメモリ203から上記情報を取得してもよい。
画像処理部202bは、取得されたカメラ103の位置および姿勢ならびに指向性マイクロフォン105の位置および姿勢を用いて、取得された距離画像のうちの撮像画像における収音方向に対応する位置を算出する(S22)。
画像処理部202bは、撮像画像上の、算出された収音方向に対応する位置に、収音方向を示すオブジェクトを重畳する(S23)。なお、ステップS21〜S23の処理の詳細は、画像処理部202bの機能の説明において記載したため、省略する。
図17の説明に戻り、プロセッサ202は、画像処理によって生成された重畳後画像を、ディスプレイ204に表示する(S16)。
次に、収音処理時における操作の変換処理について説明する。
図19は、実施の形態に係る無人飛行体の操作の変換処理における無人飛行体およびコントローラの動作例を示すシーケンス図である。
コントローラ200の方向変換部202aは、無人飛行体100の指向性マイクロフォン105の収音方向を取得する(S31)。方向変換部202aは、通信IF107を介して、無人飛行体100から上記収音方向を取得してもよいし、上記収音方向が予めメモリ203に記憶されている場合にはメモリ203から上記収音方向を取得してもよい。
方向変換部202aは、入力IF201により受け付けられた操作を、取得された収音方向を前後方向として受け付ける(S32)。
方向変換部202aは、操作を無人飛行体の各方向への移動指示を示す操作信号に変換し(S33)、変換後の操作信号を、通信IF206を介して無人飛行体100に出力する(S34)。なお、ステップS31〜S33の処理の詳細は、方向変換部202aの機能の説明において記載したため、省略する。
無人飛行体100は、受信した操作信号に応じて飛行制御を行う(S35)。
[3.効果など]
本実施の形態に係るコントローラ200によれば、無人飛行体100のカメラ103により出力された撮像画像上の、算出された収音方向153の対応する位置に、指向性マイクロフォン105の収音方向153を示すオブジェクト311が重畳された重畳後画像314をディスプレイ204に表示させる。このため、ユーザに指向性マイクロフォン105の収音方向153の重畳後画像314上における位置を伝えることができる。すなわち、指向性マイクロフォン105の収音方向153を可視化することができる。このため、ユーザは、表示された重畳後画像314を見ながらオブジェクト311がターゲット音の音源に合うように無人飛行体100を操作することで、指向性マイクロフォン105の収音方向153を音源400に向けることが容易にできる。よって、人が操作する無人飛行体100を用いた収音の品質を向上させることができる。
また、本実施の形態に係るコントローラ200において、画像処理部202bは、撮像画像に映る物体までの測定距離をさらに取得し、算出された収音方向、および、取得された測定距離を用いて、物体の位置における指向性マイクロフォン105の収音範囲150をさらに算出し、算出された収音範囲150を示すオブジェクト313を撮像画像に重畳する。このため、ユーザは、表示された重畳後画像314を見ながらオブジェクト313が音源400に合うように無人飛行体100を操作することで、音源400を指向性マイクロフォン105の収音範囲150内に収めることが容易にできる。よって、人が操作する無人飛行体100を用いた収音の品質を向上させることができる。
また、本実施の形態に係るコントローラ200において、方向変換部202aは、無人飛行体100の移動方向と収音方向153とを対応付け、対応付けた結果に基づいて無人飛行体100の移動を制御する。このため、無人飛行体100は、収音方向153を基準とした方向に移動が制御されるため、指向性マイクロフォン105の収音方向153を音源400に合わせたまま移動することが容易にできる。
また、本実施の形態に係るコントローラ200において、方向変換部202aは、無人飛行体100の移動に関する操作入力を受付け、操作入力を対応付けた結果に基づいて変換することにより、無人飛行体100の移動を制御する。これによれば、ユーザは、収音方向153を基準とした方向に無人飛行体100を移動させることが容易にできるため、指向性マイクロフォン105の収音方向153を音源400に合わせたまま無人飛行体100を移動することが容易にできる。
また、本実施の形態に係るコントローラ200において、画像処理部202bは、算出された収音方向153がカメラ103の撮像範囲130から外れる場合、撮像範囲130から収音方向153への向きを示すオブジェクト351を撮像画像に重畳する。このため、ユーザは、表示された重畳後画像314を見ながらオブジェクト351が示す方向に向くように無人飛行体100を操作することで、指向性マイクロフォン105の収音方向153を音源400に向けることが容易にできる。よって、収音の品質を向上させることができる。
また、本実施の形態に係るコントローラ200において、画像処理部202bは、指向性マイクロフォン105の収音品質に応じた設定距離をさらに取得し、取得された撮像画像に映る物体までの測定距離と、取得された設定距離との差分に基づいて、オブジェクトの表示態様を制御する。このため、音源400の物体から指向性マイクロフォン105までの距離に応じて収音品質が高品質であると予測される場合と、低品質であると予測される場合とで異なる表示態様でオブジェクトを表示することができる。よって、ユーザは、表示された重畳後画像を見ながらオブジェクトが高品質の表示態様になるように無人飛行体100を操作することで、指向性マイクロフォン105から得られるターゲット音の収音の品質を向上させることができる。
また、本実施の形態に係るコントローラ200において、画像処理部202bは、差分が閾値以上である場合、オブジェクトの表示態様を固定する。これによれば、収音品質が所定の品質以下である場合、オブジェクトの表示態様を固定するため、表示態様を変更するための処理負荷を低減することができる。
[4.変形例]
上記実施の形態に係るコントローラ200において、指向性マイクロフォン105の収音方向または収音範囲を示すオブジェクトを表示するか、表示しないかをユーザによる操作によって選択的に切り替えることができてもよい。
上記実施の形態に係るコントローラ200では、収音処理が実行されている場合に、指向性マイクロフォン105の収音方向に移動するように、入力された操作を、対応付けた結果に基づいて変換することにより、無人飛行体100の移動を操作するとしたが、これに限らない。コントローラ200では、収音処理が実行されている場合に操作しても、通常の無人飛行体100の移動制御となるように、上記変換をしないように切り替えることができてもよい。
上記実施の形態では、オブジェクトとして楕円形の枠を重畳する例を示しているが、オブジェクトは、楕円形の枠に限らずに、中が塗りつぶされた楕円形のオブジェクトであってもよいし、楕円形の外側が塗りつぶされたオブジェクトであってもよい。
上記実施の形態に係るコントローラ200では、指向性マイクロフォン105が複数のマイクロフォン素子を有するマイクロフォンアレイにより構成されている場合には、画像処理部202bは、マイクロフォンアレイにより出力された結果を用いて特定された、撮像画像上における音源の位置を重畳した画像を重畳後画像として生成してもよい。そして、生成された重畳後画像をディスプレイ204に表示してもよい。
上記実施の形態に係るコントローラ200では、撮像画像を画像認識することで撮像画像上の人の形状を識別し、識別された人の形状における人の口を特定し、特定された人の口の位置に音源であることを示すオブジェクトを重畳した画像を重畳後画像として生成してもよい。そして、生成された重畳後画像をディスプレイ204に表示してもよい。
上記実施の形態に係る無人飛行体100は、4つの発生器110を備える構成としたが、無人飛行体100が備える発生器の数は、4つに限らずに、1〜3つであってもよいし、5つ以上であってもよい。
上記実施の形態に係る無人飛行体100は、機体120と4つの発生器110とが4つのアーム121により接続される構成としたが、これに限らずに、4つの発生器110が機体120に接続されている構成であれば、4つのアーム121を備えていない構成であってもよい。つまり、無人飛行体は、機体120に直接4つの発生器110が接続されている構成であってもよい。
上記実施の形態に係る無人飛行体100は、1つの指向性マイクロフォン105を備える構成としたが、無人飛行体100が備える指向性マイクロフォンの数は、1つに限らずに、2つ以上であってもよい。無人飛行体が2つ以上の指向性マイクロフォンを備える場合には、2つ以上の指向性マイクロフォンのそれぞれについて、1つの指向性マイクロフォンの収音方向を算出する処理と同様の処理を実行すればよい。このように、無人飛行体が2つ以上の指向性マイクロフォンを備える場合、コントローラ200は、それぞれの指向性マイクロフォンの収音方向を示すオブジェクトを表示してもよい。表示するオブジェクトには、2つ以上の指向性マイクロフォンのうちのどのマイクロフォンの収音方向であるかを示す識別子をオブジェクトと共に表示してもよい。
上記実施の形態では、コントローラ200が画像処理部202bを有するとしたが、これに限らずに、無人飛行体100が画像処理部202bと同様の機能を有してもよい。つまり、無人飛行体100が重畳後画像を生成し、生成した重畳後画像をコントローラ200に送信してもよい。この場合、コントローラ200は、無人飛行体100から受信した重畳後画像をディスプレイ204に表示する。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態のコントローラ200、情報処理方法などを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、プロセッサおよびメモリを備える少なくとも1つの情報処理装置により実行される情報処理方法であって、無人飛行体が備えるカメラが出力する撮像画像、および、前記無人飛行体が備える指向性マイクロフォンが出力する音声を前記メモリに記憶し、前記カメラの位置および姿勢、ならびに、前記指向性マイクロフォンの位置および姿勢を前記メモリに記憶し、前記メモリから前記撮像画像、前記音声、前記カメラの位置および姿勢、ならびに前記指向性マイクロフォンの位置および姿勢を取得し、前記カメラの位置および姿勢ならびに前記指向性マイクロフォンの位置および姿勢を用いて、前記指向性マイクロフォンの収音方向を算出し、前記撮像画像上の、算出された前記収音方向に対応する位置に、前記収音方向を示すオブジェクトを重畳し、前記オブジェクトが重畳された撮像画像を表示装置に表示させる情報処理方法を実行させる。
以上、本開示の一つまたは複数の態様に係る情報処理装置、情報処理方法およびプログラムについて、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つまたは複数の態様の範囲内に含まれてもよい。
例えば、指向性マイクロフォンの収音範囲は可変であってもよい。例えば、マイクロフォンの指向性が変更された場合、変更後の指向性に基づいて収音範囲が取得される。この場合、取得された収音範囲を用いてオブジェクトが重畳される。
なお、プロセッサ101またはプロセッサ202で行う処理には、機械学習を用いてもよい。機械学習には、例えば、入力情報に対してラベル(出力情報)が付与された教師データを用いて入力と出力との関係を学習する教師あり学習、ラベルのない入力のみからデータの構造を構築する教師なし学習、ラベルありとラベルなしのどちらも扱う半教師あり学習、状態の観測結果から選択した行動に対するフィードバック(報酬)を得ることにより、最も多く報酬を得ることができる連続した行動を学習する強化学習などが挙げられる。また、機械学習の具体的な手法として、ニューラルネットワーク(多層のニューラルネットワークを用いた深層学習を含む)、遺伝的プログラミング、決定木、ベイジアン・ネットワーク、サポート・ベクター・マシン(SVM)などが存在する。本開示においては、以上で挙げた具体例のいずれかを用いればよい。
本開示は、人が操作する無人飛行体を用いた収音の品質を向上させることができる情報処理装置、情報処理方法およびプログラムなどとして有用である。
100 無人飛行体
101 プロセッサ
102 センサ
103 カメラ
104 測距センサ
105 指向性マイクロフォン
106 メモリ
107 通信IF
110 発生器
111 回転翼
112 アクチュエータ
120 機体
121 アーム
130 撮像範囲
131 上限
132 下限
150 収音範囲
151 上限
152 下限
153 収音方向
200 コントローラ
201 入力IF
202 プロセッサ
202a 方向変換部
202b 画像処理部
203 メモリ
204 ディスプレイ
205 通信IF
310 撮像画像
311〜313、331〜333、341〜343、351、361〜363、371〜373、381〜383 オブジェクト
314、324、334、344、354、364、374、384 重畳後画像
400 音源

Claims (10)

  1. プロセッサとメモリとを備え、
    前記メモリは、
    無人飛行体が備えるカメラが出力する撮像画像、および、前記無人飛行体が備える指向性マイクロフォンが出力する音声を記憶し、
    前記カメラの位置および姿勢、ならびに、前記指向性マイクロフォンの位置および姿勢を記憶し、
    前記プロセッサは、
    前記メモリから前記撮像画像、前記音声、前記カメラの位置および姿勢、ならびに前記指向性マイクロフォンの位置および姿勢を取得し、
    前記カメラの位置および姿勢ならびに前記指向性マイクロフォンの位置および姿勢を用いて、前記指向性マイクロフォンの収音方向を算出し、
    前記撮像画像上の、算出された前記収音方向に対応する位置に、前記収音方向を示すオブジェクトを重畳し、
    前記オブジェクトが重畳された撮像画像を表示装置に表示させる
    情報処理装置。
  2. 前記プロセッサは、前記指向性マイクロフォンの収音における基準となる方向を前記収音方向として算出する
    請求項1に記載の情報処理装置。
  3. 前記プロセッサは、
    前記撮像画像に映る物体までの測定距離をさらに取得し、
    算出された収音方向、および、取得された前記測定距離を用いて、前記物体の位置における前記指向性マイクロフォンの収音範囲をさらに算出し、
    算出された前記収音範囲を示すオブジェクトを、前記収音方向を示す前記オブジェクトとして前記撮像画像に重畳する
    請求項1または2に記載の情報処理装置。
  4. 前記プロセッサは、
    前記無人飛行体の移動方向と前記収音方向とを対応付け、
    対応付けた結果に基づいて前記無人飛行体の移動を制御する
    請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記プロセッサは、
    前記無人飛行体の移動に関する操作入力を受け付け、
    前記操作入力を前記対応付けた結果に基づいて変換することにより、前記無人飛行体の移動を制御する
    請求項4に記載の情報処理装置。
  6. 前記プロセッサは、
    算出された前記収音方向が前記カメラの撮像範囲から外れる場合、前記撮像範囲から前記収音方向への向きを示すオブジェクトを前記撮像画像に重畳する
    請求項1〜5のいずれか1項に記載の情報処理装置。
  7. 前記プロセッサは、
    前記指向性マイクロフォンの収音品質に応じた設定距離をさらに取得し、
    取得された前記撮像画像に映る物体までの測定距離と、取得された前記設定距離との差分に基づいて、前記収音方向を示す前記オブジェクトの表示態様を制御する
    請求項1〜6のいずれか1項に記載の情報処理装置。
  8. 前記プロセッサは、前記差分が閾値以上である場合又は前記測定距離の測定可能範囲に物体が存在しない場合、前記収音方向を示す前記オブジェクトの表示態様を固定する
    請求項7に記載の情報処理装置。
  9. プロセッサおよびメモリを備える少なくとも1つの情報処理装置により実行される情報処理方法であって、
    無人飛行体が備えるカメラが出力する撮像画像、および、前記無人飛行体が備える指向性マイクロフォンが出力する音声を前記メモリに記憶し、
    前記カメラの位置および姿勢、ならびに、前記指向性マイクロフォンの位置および姿勢を前記メモリに記憶し、
    前記メモリから前記撮像画像、前記音声、前記カメラの位置および姿勢、ならびに前記指向性マイクロフォンの位置および姿勢を取得し、
    前記カメラの位置および姿勢ならびに前記指向性マイクロフォンの位置および姿勢を用いて、前記指向性マイクロフォンの収音方向を算出し、
    前記撮像画像上の、算出された前記収音方向に対応する位置に、前記収音方向を示すオブジェクトを重畳し、
    前記オブジェクトが重畳された撮像画像を表示装置に表示させる
    情報処理方法。
  10. プロセッサおよびメモリを備える少なくとも1つの情報処理装置により実行される情報処理方法であって、
    無人飛行体が備えるカメラが出力する撮像画像、および、前記無人飛行体が備える指向性マイクロフォンが出力する音声を前記メモリに記憶し、
    前記カメラの位置および姿勢、ならびに、前記指向性マイクロフォンの位置および姿勢を前記メモリに記憶し、
    前記メモリから前記撮像画像、前記音声、前記カメラの位置および姿勢、ならびに前記指向性マイクロフォンの位置および姿勢を取得し、
    前記カメラの位置および姿勢ならびに前記指向性マイクロフォンの位置および姿勢を用いて、前記指向性マイクロフォンの収音方向を算出し、
    前記撮像画像上の、算出された前記収音方向に対応する位置に、前記収音方向を示すオブジェクトを重畳し、
    前記オブジェクトが重畳された撮像画像を表示装置に表示させる
    情報処理方法を前記情報処理装置に実行させるためのプログラム。
JP2020572093A 2019-02-15 2019-12-04 情報処理装置、情報処理方法およびプログラム Active JP7391053B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019025843 2019-02-15
JP2019025843 2019-02-15
PCT/JP2019/047314 WO2020166178A1 (ja) 2019-02-15 2019-12-04 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2020166178A1 true JPWO2020166178A1 (ja) 2021-12-23
JP7391053B2 JP7391053B2 (ja) 2023-12-04

Family

ID=72045310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020572093A Active JP7391053B2 (ja) 2019-02-15 2019-12-04 情報処理装置、情報処理方法およびプログラム

Country Status (5)

Country Link
US (1) US12024284B2 (ja)
EP (1) EP3926976B1 (ja)
JP (1) JP7391053B2 (ja)
CN (1) CN112703748B (ja)
WO (1) WO2020166178A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020213198A1 (ja) * 2019-04-18 2020-10-22 パナソニックIpマネジメント株式会社 無人飛行体、制御方法及びプログラム
JP7457949B2 (ja) * 2019-05-15 2024-03-29 パナソニックIpマネジメント株式会社 情報処理方法、無人飛行体及び無人飛行体制御システム
JP6883628B2 (ja) * 2019-09-06 2021-06-09 Kddi株式会社 操縦装置、情報処理方法、及びプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309233A (ja) 2000-04-19 2001-11-02 Japan Aviation Electronics Industry Ltd 撮影装置の遠隔操作システム
US20080247567A1 (en) * 2005-09-30 2008-10-09 Squarehead Technology As Directional Audio Capturing
JP5240832B2 (ja) * 2008-06-04 2013-07-17 Necカシオモバイルコミュニケーションズ株式会社 音入力装置、音入力方法およびプログラム
JP5141392B2 (ja) * 2008-06-20 2013-02-13 カシオ計算機株式会社 撮像装置、周音範囲表示方法及びプログラム
JP5358843B2 (ja) * 2008-07-09 2013-12-04 シャープ株式会社 音出力制御装置、音出力制御方法、及び音出力制御プログラム
JP2010154259A (ja) * 2008-12-25 2010-07-08 Victor Co Of Japan Ltd 画像音声処理装置
JP5353316B2 (ja) * 2009-03-06 2013-11-27 ヤマハ株式会社 音場可視化装置
JP5246790B2 (ja) * 2009-04-13 2013-07-24 Necカシオモバイルコミュニケーションズ株式会社 音データ処理装置、及び、プログラム
KR101155610B1 (ko) * 2010-04-30 2012-06-13 주식회사 에스원 음원 위치 표시 장치 및 그 방법
JP2014033332A (ja) * 2012-08-03 2014-02-20 Jvc Kenwood Corp 撮像装置及び撮像方法
US9264797B2 (en) * 2012-12-21 2016-02-16 Panasonic Intellectual Property Management Co., Ltd. Directional microphone device, acoustic signal processing method, and program
CN103426282A (zh) * 2013-07-31 2013-12-04 深圳市大疆创新科技有限公司 遥控方法及终端
US9414153B2 (en) * 2014-05-08 2016-08-09 Panasonic Intellectual Property Management Co., Ltd. Directivity control apparatus, directivity control method, storage medium and directivity control system
DE102015210405A1 (de) * 2015-06-05 2016-12-08 Sennheiser Electronic Gmbh & Co. Kg Audioverarbeitungssystem und Verfahren zum Verarbeiten eines Audiosignals
JP6493860B2 (ja) * 2015-07-23 2019-04-03 パナソニックIpマネジメント株式会社 監視制御システム及び監視制御方法
US10379534B2 (en) * 2016-01-28 2019-08-13 Qualcomm Incorporated Drone flight control
JP6664119B2 (ja) 2016-03-24 2020-03-13 パナソニックIpマネジメント株式会社 モニタリングシステム及びモニタリング方法
WO2017163688A1 (en) 2016-03-24 2017-09-28 Panasonic Intellectual Property Management Co., Ltd. Monitoring system and monitoring method
US10067736B2 (en) 2016-09-30 2018-09-04 Sony Interactive Entertainment Inc. Proximity based noise and chat
US10979613B2 (en) * 2016-10-17 2021-04-13 Dolby Laboratories Licensing Corporation Audio capture for aerial devices
CN106653041B (zh) * 2017-01-17 2020-02-14 北京地平线信息技术有限公司 音频信号处理设备、方法和电子设备
CN107509026A (zh) * 2017-07-31 2017-12-22 深圳市金立通信设备有限公司 一种录音区域的显示方法及其终端

Also Published As

Publication number Publication date
US12024284B2 (en) 2024-07-02
EP3926976A4 (en) 2022-03-23
US20210221505A1 (en) 2021-07-22
EP3926976B1 (en) 2024-05-08
CN112703748B (zh) 2024-06-04
CN112703748A (zh) 2021-04-23
JP7391053B2 (ja) 2023-12-04
WO2020166178A1 (ja) 2020-08-20
EP3926976A1 (en) 2021-12-22

Similar Documents

Publication Publication Date Title
US20220374010A1 (en) User Interaction Paradigms For A Flying Digital Assistant
US10648809B2 (en) Adaptive compass calibration based on local field conditions
CN107087427B (zh) 飞行器的控制方法、装置和设备以及飞行器
CN107340777B (zh) 一种水下无人船控制系统及方法
CN108351574B (zh) 用于设置相机参数的系统、方法和装置
CN107531322B (zh) 空中捕获平台
CA3107720C (en) Systems and methods for controlling operations of marine vessels
JP7391053B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2018178756A1 (en) System and method for providing autonomous photography and videography
CN108521812A (zh) 无人机的控制方法、无人机以及机器可读存储介质
WO2016031105A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014062789A (ja) 写真計測用カメラ及び航空写真装置
CN108021145A (zh) 带目标跟踪和拍摄角保持的无人机移动图像自主拍摄系统
CN107205111B (zh) 摄像装置、移动装置、摄像系统、摄像方法和记录介质
JP6912281B2 (ja) 飛行体、飛行制御システム、飛行制御方法、プログラム及び記録媒体
WO2019093282A1 (ja) 環境取得システム
KR20170086482A (ko) 플라잉 봇의 제어 장치 및 제어 방법
JP6583840B1 (ja) 検査システム
JP2019185689A (ja) 検出対象位置特定システム
CN109032184A (zh) 飞行器的飞行控制方法、装置、终端设备及飞行控制系统
WO2023173307A1 (zh) 可移动平台及其控制方法、信息提示方法、装置、电子设备、计算机可读存储介质
JP6482856B2 (ja) 監視システム
CN110785720A (zh) 信息处理装置、信息提示指示方法、程序以及记录介质
JP6681101B2 (ja) 検査システム
JP7452543B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231121

R150 Certificate of patent or registration of utility model

Ref document number: 7391053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150