JP7304955B2 - 画像処理装置、システム、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、システム、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP7304955B2
JP7304955B2 JP2021541869A JP2021541869A JP7304955B2 JP 7304955 B2 JP7304955 B2 JP 7304955B2 JP 2021541869 A JP2021541869 A JP 2021541869A JP 2021541869 A JP2021541869 A JP 2021541869A JP 7304955 B2 JP7304955 B2 JP 7304955B2
Authority
JP
Japan
Prior art keywords
image
processing
information
audio
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021541869A
Other languages
English (en)
Other versions
JPWO2021038752A1 (ja
Inventor
誠 小泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2021038752A1 publication Critical patent/JPWO2021038752A1/ja
Application granted granted Critical
Publication of JP7304955B2 publication Critical patent/JP7304955B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/20Position of source determined by a plurality of spaced direction-finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0294Trajectory determination or predictive filtering, e.g. target tracking or Kalman filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/22Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Otolaryngology (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Analysis (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本発明は、画像処理装置、システム、画像処理方法および画像処理プログラムに関する。
撮像装置によって生成した画像を用いて画像解析を行い、物体の検出や追尾を行う動体検出技術が知られている。動体検出は、撮像時の焦点調節や監視カメラへの応用に利点がある。このような動体検出に関する技術は、例えば特許文献1に記載されている。特許文献1の発明では、RGB映像を取得するモードと赤外映像を取得するモードとを有し、背景差分法を用いて動体検出を行う際に、背景モデルの再生成の要否を判断し、効率的な動体検出を実現している。
特開2018-185635号公報
しかしながら、動体検出においては誤検出も多く発生する。誤検出が発生すると、動体検出に基づく様々な後処理にも問題が生じるため、処理の目的に応じた適切なオブジェクトに対して選択的に処理実行することが望まれている。
そこで、本発明は、音声情報を適用することによって、処理の目的に応じた適切なオブジェクトに対して処理実行することができる画像処理装置、システム、画像処理方法および画像処理プログラムを提供することを目的とする。
本発明のある観点によれば、画像センサが取得した画像情報を受信する第1の受信部と、1つまたは複数の指向性マイクロフォンが取得した、画像センサの被写界内の少なくとも一部の領域における音声情報を受信する第2の受信部と、音声情報を、被写界内の位置を示す画像情報の画素アドレスに関連付ける関連付け処理部と、画像情報から被写界内に存在するオブジェクトの少なくとも一部を検出するオブジェクト検出部と、関連付け処理部による関連付けの結果に基づき、オブジェクトに対して所定の処理を行う処理実行部とを備える画像処理装置が提供される。
本発明の別の観点によれば、画像情報を取得する画像センサと、画像センサの被写界内の少なくとも一部の領域における音声情報を取得する1つまたは複数の指向性マイクロフォンと、画像情報を受信する第1の受信部と、音声情報を受信する第2の受信部と、音声情報を、被写界内の位置を示す画像情報の画素アドレスに関連付ける関連付け処理部と、画像情報から被写界内に存在するオブジェクトの少なくとも一部を検出するオブジェクト検出部と、関連付け処理部による関連付けの結果に基づき、オブジェクトに対して所定の処理を行う処理実行部とを有する端末装置とを備えるシステムが提供される。
本発明のさらに別の観点によれば、画像センサが取得した画像情報を受信するステップと、1つまたは複数の指向性マイクロフォンが取得した、画像センサの被写界内の少なくとも一部の領域における音声情報を受信するステップと、音声情報を、被写界内の位置を示す画像情報の画素アドレスに関連付けるステップと、画像情報から被写界内に存在するオブジェクトの少なくとも一部を検出するステップと、関連付けの結果に基づき、オブジェクトに対して所定の処理を行うステップとを含む画像処理方法が提供される。
本発明のさらに別の観点によれば、画像センサが取得した画像情報を受信する機能と、1つまたは複数の指向性マイクロフォンが取得した、画像センサの被写界内の少なくとも一部の領域における音声情報を受信する機能と、音声情報を、被写界内の位置を示す画像情報の画素アドレスに関連付ける機能と、画像情報から被写界内に存在するオブジェクトの少なくとも一部を検出する機能と、関連付けの結果に基づき、オブジェクトに対して所定の処理を行う機能とをコンピュータに実現させる画像処理プログラムが提供される。
本発明の第1の実施形態に係るシステムの概略的な構成を示すブロック図である。 本発明の第1の実施形態における処理の流れについて概略的に説明するための図である。 本発明の第1の実施形態に係る処理の例を示すフローチャートである。 本発明の第1の実施形態に係る処理の例を示すフローチャートである。 本発明の第1の実施形態に係る処理の例を示すフローチャートである。 本発明の第2の実施形態に係るシステムの概略的な構成を示すブロック図である。 本発明の第2の実施形態における処理の流れについて概略的に説明するための図である。 本発明の第2の実施形態に係る処理の例を示すフローチャートである。
以下、添付図面を参照しながら、本発明のいくつかの実施形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る画像処理システム10の概略的な構成を示すブロック図である。
図示された例において、画像処理システム10は、ビジョンセンサ101と、マイクロフォン102と、情報処理装置200とを含む。
ビジョンセンサ101は、光の強度変化を検出したときにイベント信号を生成するイベント駆動型センサ(EDS:Event Driven Sensor)からなるセンサアレイと、センサに接続される処理回路とを含む。EDSは、受光素子を含み、入射する光の強度変化、より具体的には輝度変化を検出したときにイベント信号を生成する。輝度変化を検出しなかったEDSはイベント信号を生成しないため、ビジョンセンサ101においてイベント信号は、イベントが発生した画素アドレスについて時間非同期的に生成される。具体的には、イベント信号は、センサの識別情報(例えば画素アドレス)、輝度変化の極性(上昇または低下)、およびタイムスタンプを含む。ビジョンセンサ101で生成されたイベント信号は、情報処理装置200に出力される。
マイクロフォン102は、ビジョンセンサ101の被写界内の少なくとも一部の領域で発生した音を音声信号に変換する。マイクロフォン102は、例えばマイクアレイを構成する複数の指向性マイクを含み、所定の信号レベル以上の音を検出した時にビジョンセンサ101の被写界内の少なくとも一部の領域で音が発生した位置を示す位置情報に関連付けられた音声信号を生成する。マイクロフォン102で生成される音声信号は、ビジョンセンサ101の被写界内の位置情報(例えばXY座標)、信号レベル(音量)、およびタイムスタンプを含む。マイクロフォン102で生成された音声信号は、情報処理装置200に出力される。ここで、音声信号のタイムスタンプは、イベント信号のタイムスタンプと共通であるか、または対応付け可能である。
情報処理装置200は、例えば通信インターフェース、プロセッサ、およびメモリを有するコンピュータによって実装され、プロセッサがメモリに格納された、または通信インターフェースを介して受信されたプログラムに従って動作することによって実現されるイベント信号受信部201、オブジェクト検出部202、音声信号受信部203、位置合わせ処理部204、関連付け処理部205、オブジェクト分類部206、第1画像処理部207、第2画像処理部208の機能を含む。以下、各部の機能についてさらに説明する。
イベント信号受信部201は、ビジョンセンサ101で生成されたイベント信号を受信する。ビジョンセンサ101の被写界内でオブジェクトの位置が変化した場合、輝度変化が発生し、その輝度変化が発生した画素アドレスでEDSが生成したイベント信号がイベント信号受信部201により受信される。なお、被写界内でのオブジェクトの位置変化は、ビジョンセンサ101の被写界内における動体の移動によって起こるだけでなく、ビジョンセンサ101が搭載された装置の移動によって、実際は静止している物体が見かけ上移動する場合にも起こるが、EDSが生成するイベント信号ではそれらの区別はつかない。
オブジェクト検出部202は、イベント信号受信部201が受信したイベント信号に基づいて、オブジェクトを検出する。例えば、オブジェクト検出部202は、受信したイベント信号によって同じ極性のイベントが発生していることが示される連続した画素領域に存在するオブジェクトを検出し、検出結果を示す情報を関連付け処理部205に供給する。上述のように、イベント信号では実際に移動しているオブジェクトとビジョンセンサ101が搭載された装置の移動によって見かけ上移動しているオブジェクトとは区別されないため、オブジェクト検出部202によって検出されるオブジェクトにはビジョンセンサ101の被写界内で実際に動いているオブジェクトと、実際には静止しているがビジョンセンサ101が搭載された装置の移動によって見かけ上移動しているオブジェクトとが含まれる。
音声信号受信部203は、マイクロフォン102で生成された音声信号を受信する。ここで、音声信号受信部203が受信する音声信号には、ビジョンセンサ101の被写界内の少なくとも一部の領域で音が発生した位置を示す位置情報が関連付けられている。多くの場合、ビジョンセンサ101の被写界内で実際に動いているオブジェクトは、オブジェクト自身が発する音(例えば、モーターやエンジンが発する音や、部品が互いにぶつかる音など)、またはオブジェクトの移動に伴って発生する音(例えば、摩擦音や風切り音など)が発生する。これらの音を示す音声信号が、位置情報とともに音声信号受信部203により受信される。上述したように、ビジョンセンサ101からのイベント信号に基づくオブジェクト検出では実際に動いているオブジェクトと実際には静止しているが見かけ上移動しているオブジェクトとが区別されないが、マイクロフォン102からの音声信号は、実際に移動しているオブジェクトについてのみ取得される可能性が高い。
位置合わせ処理部204は、音声信号受信部203が受信した音声信号の座標系を、イベント信号受信部201が受信したイベント信号の座標系に合わせる処理を行う。なお、ビジョンセンサ101により生成されるイベント信号の位置情報(画素アドレス)と、マイクロフォン102により生成される音声信号の位置情報とは予めキャリブレーションされており、位置合わせ処理部204は、2つの位置情報の相関に基づいて幾何的な演算を行うことにより、音声信号受信部203が受信した音声信号の座標系を、イベント信号受信部201が受信したイベント信号の座標系に変換する処理を行う。なお、ビジョンセンサ101とマイクロフォン102とは、同軸上または近接して配置されても良い。この場合、上述したキャリブレーションを簡易的に、かつ精度良く行うことができる。
関連付け処理部205は、位置合わせ処理部204の処理結果を用いて、音声信号を、オブジェクト検出部202が検出したオブジェクトの画像内での領域に対応する画素アドレスに関連付ける処理を行う。本実施形態において、位置合わせ処理部204は音声信号の位置情報と画素アドレスとのキャリブレーション結果に基づいて座標系を変換するため、関連付け処理部205も位置情報と画素アドレスとのキャリブレーション結果を用いて音声情報を画素アドレスに関連付ける。具体的には、例えば、関連付け処理部205は、オブジェクトが検出される基になったイベント信号が生成された時間(例えば、イベント信号のタイムスタンプの最小と最大との間)において、オブジェクトの画像内での領域と一致または重複する位置で発生した音を示す音声信号に基づく情報をオブジェクトの画素アドレスに関連付ける。ここで、オブジェクトの画素アドレスに関連付けられる情報には、例えば音声検出の有無のみが含まれてもよいし、音声信号の信号レベルなどがさらに含まれても良い。
オブジェクト分類部206は、関連付け処理部205による関連付けの結果に基づいて、オブジェクト検出部202で検出したオブジェクトを分類する。本実施形態において、オブジェクト分類部206は、音声検出があったことを示す情報が関連付けられたオブジェクト、または関連付けられた情報によって示される音声信号の信号レベルが閾値以上であるオブジェクトを音ありオブジェクトに分類し、それ以外のオブジェクトを音なしオブジェクトに分類する。あるいは、オブジェクト分類部206は、音声検出があったことを示す情報に関連付けられていないオブジェクト、または関連付けられた情報によって示される音声信号の信号レベルが閾値未満であるオブジェクトを音なしオブジェクトに分類し、それ以外のオブジェクトを音ありオブジェクトに分類してもよい。
ここで、「実際に移動している物体は音を発する」という前提にたてば、上記のようなオブジェクト分類部206の処理によって分類される音ありオブジェクトは実際に移動しているオブジェクト(動体)であり、音なしオブジェクトは実際には静止しているが見かけ上移動しているオブジェクト(背景)である。
第1画像処理部207は、オブジェクト分類部206によって音ありオブジェクトに分類されたオブジェクトの情報に基づいて、第1画像処理を行う。第1画像処理は、例えば実際に移動しているオブジェクト(動体)を処理対象とする処理であり、例えばトラッキング処理や動体を切り出して描画する処理などが含まれる。
例えば、第1画像処理部207がトラッキング処理を実行する場合、オブジェクト分類部206は、上記の音ありオブジェクトのみをトラッキング対象オブジェクトに追加する。そして、第1画像処理部207は、トラッキング対象オブジェクトについて、時系列のイベント信号の検出結果に基づくトラッキング処理を行う。
一方、第2画像処理部208は、オブジェクト分類部206によって音なしオブジェクトに分類されたオブジェクトの情報に基づいて、第2画像処理を行う。第2画像処理は、例えば実際は静止しているが見かけ上移動しているオブジェクト(背景)を処理対象とする処理であり、例えば自己位置推定処理やモーションキャンセル処理、画像から動体を消して背景のみを描画する処理などが含まれる。
例えば、第2画像処理部208が自己位置推定処理を実行する場合、オブジェクト分類部206は、上記の音なしオブジェクトのみを自己位置推定処理の対象オブジェクトに追加する。そして、第2画像処理部208は、対象オブジェクトについて、時系列のイベント信号の検出結果に基づいて例えばSLAM(Simultaneously Localization and Mapping)などの手法を用いた自己位置推定処理を行う。同様に、第2画像処理部208がモーションキャンセル処理を実行する場合も、オブジェクト分類部206は上記の音なしオブジェクトのみをモーションキャンセル処理の対象オブジェクトに追加する。そして、第2画像処理部208は、ビジョンセンサ101の被写界内で対象オブジェクトの位置が維持されるように、ビジョンセンサ101を補償的に回転または移動させるモーションキャンセル処理を行う。モーションキャンセル処理は、例えばビジョンセンサ101を搭載した装置の駆動部に制御信号を送信することによって実行されてもよい。
図2は、図1に示した画像処理システムにおける処理を概念的に説明するための図である。図示された例において、ビジョンセンサ101により生成されたイベント信号には、実際に移動しているオブジェクト(動体)である車両(obj1)と、ビジョンセンサ101が搭載された装置の移動によって見かけ上移動しているオブジェクト(背景)である建物(obj2)とが含まれる。マイクロフォン102では、車両の走行によって発生する音のみが集音されるため、音声信号は動体である車両と一致または重複する領域(斜線で示す)についてのみ生成される。
この結果、情報処理装置200の関連付け処理部205では、車両のオブジェクト(obj1)のみに音声検出があったことを示す情報(または閾値以上の音声信号の信号レベル)が関連付けられ、オブジェクト分類部206は車両のオブジェクト(obj1)を音ありオブジェクトに分類する。第1画像処理部207は、車両のオブジェクト(obj1)に対してトラッキングなどの処理を実行する。
一方、関連付け処理部205では、建物のオブジェクト(obj2)には音声検出があったことを示す情報が関連付けられず(または閾値未満の音声信号の信号レベルが関連付けられ)、オブジェクト分類部206は建物のオブジェクト(obj2)を音なしオブジェクトに分類する。第2画像処理部208は、建物のオブジェクト(obj2)を用いて自己位置推定やモーションキャンセルなどの処理を実行する。
なお、図2では、説明のために車両のオブジェクト(obj)および建物のオブジェクト(obj2)が切り出して別個に描画されるように図示されているが、画像としてそれぞれのオブジェクトを切り出して描画する必要はなく、上述したような画像処理がオブジェクトの描画を伴わずに実行されてもよい。
図3は、本発明の第1の実施形態に係る処理の例を示すフローチャートである。図示された例では、情報処理装置200のイベント信号受信部201がビジョンセンサ101により生成されたイベント信号を受信し(ステップS101)、イベント信号受信部201により受信したイベント信号に基づいて、オブジェクト検出部202がオブジェクトを検出する(ステップS102)。一方、音声信号受信部203がマイクロフォン102により取得された音声信号を受信し(ステップS103)、位置合わせ処理部204が位置合わせ処理を行う(ステップS104)。そして、オブジェクト検出部202で検出したオブジェクトごとに、関連付け処理部205が関連付け処理を行う(ステップS105)。
図4および図5は、図3のフローチャートの後段における処理の2つの例を示すフローチャートである。
図4に図示された第1の例では、関連付け処理部205が関連付け処理を行った後に、オブジェクト分類部206がオブジェクトの位置における音声検出の有無を判定し(ステップS202)、音声検出があったオブジェクトを処理対象オブジェクトに分類する(ステップS203)。オブジェクト分類部206は、上記のステップS102でオブジェクト検出部202が検出したオブジェクトについて分類処理を繰り返す(ステップS201からS204)。そして、処理対象オブジェクトに分類されたオブジェクトを対象として、第1画像処理部207がトラッキング処理を実行する(ステップS205)。
図5に図示された第2の例では、関連付け処理部205が関連付け処理を行った後に、オブジェクト分類部206がオブジェクトの位置における音声検出の有無を判定し(ステップS302)、音声検出がなかったオブジェクトを処理対象オブジェクトに分類する(ステップS303)。オブジェクト分類部206は、上記のステップS102でオブジェクト検出部202が検出したオブジェクトについて分類処理を繰り返す(ステップS301からS304)。そして、処理対象オブジェクトに分類されたオブジェクトを自己位置推定処理またはモーションキャンセル処理に利用するオブジェクトとして、第2画像処理部208が自己位置推定処理またはモーションキャンセル処理を実行する(ステップS305)。
以上で説明したような本発明の第1の実施形態では、指向性のマイクロフォン102が取得した、ビジョンセンサ101の被写界内の少なくとも一部の領域における音声情報を、被写界内の位置を示すイベント信号の画素アドレスに関連付け、画像情報から被写界内に存在するオブジェクトの少なくとも一部を検出し、関連付け処理の結果に基づき、オブジェクトに対して所定の処理を行う。したがって、音声情報を適用することによって、処理の目的に応じた適切なオブジェクトに対する処理を行うことができる。
また、本発明の第1の実施形態では、関連付けの結果に基づいて、オブジェクトを音ありオブジェクトおよび音なしオブジェクトに分類する。音ありオブジェクトまたは音なしオブジェクトの少なくともいずれかを選択的に用いて所定の処理を行うことによって、例えばオブジェクトが動体であるか、背景であるかといったようなオブジェクトの特性に応じた適切な処理を行うことができる。
具体的には、例えば、本発明の第1の実施形態では、実際に移動しているオブジェクト(動体)に対してトラッキング処理を実行することができる。この場合、ビジョンセンサ101が搭載された装置が移動している状況であっても、動体であるオブジェクトをとらえる可能性を高めることが期待できる。そのため、例えば、危険察知などの目的で近接物体をトラッキングする際にも、見かけ上移動しているオブジェクトを誤ってトラッキングしてしまうという問題を回避することができる。また、真に移動しているオブジェクトのみをトラッキングできる可能性を高めることができるので、ビジョンセンサ101が搭載された装置が移動している場合などに、画面全体でイベント信号が生成されたとしても、遅延なくより正確にオブジェクトをトラッキングすることができる。
また、例えば、本発明の第1の実施形態では、実際は静止しているが見かけ上移動しているオブジェクト(背景)の時系列の検出結果を用いて、ビジョンセンサ101が搭載された装置の自己位置推定処理を実行することができる。例えば、自己位置推定処理において静止しているオブジェクトだけをマップ化する必要がある場合に、本発明の第1の実施形態では、静止しているオブジェクトを正しく区別して自己位置推定処理を行うことにより、自己位置推定用のマップの精度を向上させることができる。
また、例えば、本発明の第1の実施形態では、実際は静止しているが見かけ上移動しているオブジェクト(背景)の時系列の検出結果を用いて、ビジョンセンサ101が搭載された装置におけるモーションキャンセル処理を実行することができる。モーションキャンセルで基準になる静止したオブジェクトを精度良く認識する必要がある場合に、本発明の第1の実施形態では、静止しているオブジェクトを正しく区別してモーションキャンセル処理を行うことにより、ビジョンセンサ101の回転または移動を正しく補償するモーションキャンセル処理が可能になる。
なお、上記の例で説明された画像処理システム10による画像処理は、これらの例に限定されない。
例えば、図3および図4で説明された各画像処理の何れか一つのみを行う構成としても良いし、複数の画像処理を行う構成としても良い。
また、第1画像処理部207による画像処理と第2画像処理部208による画像処理との何れか一方のみを行う構成としても良い。この場合、図1で示されたブロック図において、第1画像処理部207または第2画像処理部208の何れかのみを備えても良い。
(第2の実施形態)
次に、本発明の第2の実施形態について詳細に説明する。図6は、本発明の第2の実施形態に係る画像処理システム20の概略的な構成を示すブロック図である。第1の実施形態の各構成と実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
第1の実施形態では、検出したオブジェクトごとに関連付け処理を行う例を示したが、第2の実施形態では、関連付け処理の結果に基づいてオブジェクト検出を行う。
図示された例において、画像処理システム20は、ビジョンセンサ101と、マイクロフォン102と、情報処理装置300とを含む。
情報処理装置300は、例えば通信インターフェース、プロセッサ、およびメモリを有するコンピュータによって実装され、プロセッサがメモリに格納された、または通信インターフェースを介して受信されたプログラムに従って動作することによって実現されるイベント信号受信部201、音声信号受信部203、位置合わせ処理部204、関連付け処理部301、オブジェクト検出部302、画像処理部303の機能を含む。以下、図1と異なる構成の機能についてさらに説明する。
関連付け処理部301は、上記の第1の実施形態で説明した位置合わせ処理部204の処理結果を用いて、音声信号受信部203により受信した音声信号を、ビジョンセンサ101の被写界内の位置を示すイベント信号の画素アドレスに関連付ける処理を行う。具体的には、例えば、関連付け処理部301は、オブジェクトが検出される基になったイベント信号が生成された時間(例えば、イベント信号のタイムスタンプの最小と最大との間)において、ビジョンセンサ101の被写界内の少なくとも一部の領域において発生した音を示す音声信号に基づく情報を、イベント信号の画素アドレスに関連付ける。ここで、イベント信号の画素アドレスに関連付けられる情報には、例えば音声検出の有無のみが含まれてもよいし、音声信号の信号レベルなどがさらに含まれても良い。
オブジェクト検出部302は、イベント信号の画素アドレスに関連付けられた音声信号に応じて決定される画像内の領域で、イベント信号に基づいてオブジェクトを検出する。例えば、オブジェクト検出部302は、画像処理部303による画像処理の対象となるオブジェクトの特性に応じた音声情報に応じて決定される画像内の領域で、イベント信号によって同じ極性のイベントが発生していることが示される連続した画素領域に存在するオブジェクトを検出し、検出結果を示す情報を画像処理部303に供給する。
例えば、画像処理部303が、第1の実施形態の第1画像処理部207で説明したように、ビジョンセンサ101の被写界内で実際に動いている音ありオブジェクトを処理対象とする場合、オブジェクト検出部302は、音声検出があったことを示す情報、または音声信号の信号レベルが閾値以上であることを示す情報が音声情報として関連付けられた画像内の領域で、イベント信号に基づくオブジェクト検出を行う。
また、例えば、画像処理部303が、第1の実施形態の第2画像処理部208で説明したように、実際には静止しているがビジョンセンサ101が搭載された装置の移動によって見かけ上移動している音なしオブジェクトを処理対象とする場合、オブジェクト検出部302は、音声検出があったことを示す情報が音声情報として関連付けられていない画像内の領域、または音声信号の信号レベルが閾値未満であることを示す情報が音声情報として関連付けられた画像内の領域で、イベント信号に基づくオブジェクト検出を行う。
このように、本実施形態においては、オブジェクト検出部302がすべてのオブジェクトを検出するのではなく、音声情報を適用して、画像処理部303による画像処理の対象となるオブジェクトのみを検出する。
画像処理部303は、オブジェクト検出部302によって検出されたオブジェクトの情報に基づいて、第1の実施形態の第1画像処理部207または第2画像処理部208と同様に画像処理を行う。
図7は、図6に示した画像処理システムにおける処理を概念的に説明するための図である。図示された例において、ビジョンセンサ101により生成されたイベント信号には、実際に移動しているオブジェクト(動体)である車両と、ビジョンセンサ101が搭載された装置の移動によって見かけ上移動しているオブジェクト(背景)である建物とが含まれる。マイクロフォン102では、車両の走行によって発生する音のみが集音されるため、音声信号は動体である車両と一致または重複する領域(斜線で示す)についてのみ生成される。
この結果、情報処理装置300の関連付け処理部301は、車両のオブジェクトが含まれる領域R1のみに音声検出があったことを示す情報(または閾値以上の音声信号の信号レベル)を関連付け、オブジェクト検出部302が領域R1で車両のオブジェクト(obj1)を検出し、画像処理部303がこのオブジェクトに対してトラッキングなどの処理を実行する。
あるいは、関連付け処理部301が音声検出があったことを示す情報を関連付けなかった(または閾値未満の音声信号の信号レベルを関連付けた)領域R2で、オブジェクト検出部302が建物のオブジェクト(obj2)を検出し、画像処理部303がこのオブジェクトに対して自己位置推定やモーションキャンセルなどの処理を実行してもよい。
なお、図7では、説明のために車両のオブジェクト(obj)および建物のオブジェクト(obj2)が切り出して別個に描画されるように図示されているが、画像としてそれぞれのオブジェクトを切り出して描画する必要はなく、上述したような画像処理がオブジェクトの描画を伴わずに実行されてもよい。
図8は、本発明の第2の実施形態に係る処理の例を示すフローチャートである。図示された例では、情報処理装置300のイベント信号受信部201がビジョンセンサ101により生成されたイベント信号を受信する(ステップS401)。一方、音声信号受信部203がマイクロフォン102により取得された音声信号を受信し(ステップS402)、位置合わせ処理部204が位置合わせ処理を行う(ステップS403)。そして、関連付け処理部301が関連付け処理を行う(ステップS404)。次に、イベント信号受信部201により受信したイベント信号に基づいて、オブジェクト検出部302がオブジェクトを検出し(ステップS405)、画像処理部303が画像処理を実行する(ステップS406)。
以上で説明したような本発明の第2の実施形態では、画素アドレスに関連付けられた音声情報に応じて決定される画像内の領域で検出されたオブジェクトに対して所定の処理を行うことによって、処理の目的に応じたオブジェクトに対する処理を行うことができる。
なお、上記の各実施形態で説明された画像処理システム10およびシステム20による画像処理を、一般的な画像ベースの物体認識(General Object Recognition)と組み合わせて実行しても良い。例えば、画像ベースの物体認識によって構造物(建物など)や静置物(椅子など)等、通常静止しているオブジェクトであることが特定されたオブジェクトを、上述した情報処理装置200のオブジェクト分類部206が音なしオブジェクト(実際は静止しているが見かけ上移動している背景)に分類した場合、オブジェクトの分類が正しく行われたと判断することができる。一方、画像ベースの物体認識による認識結果と分類結果が矛盾する場合には、オブジェクトの分類が正しく行われなかったと判断し、例えば物体認識または音声信号との関連付けを再実行してもよい。このような構成とすることにより、オブジェクトの分類精度を向上させることができる。
また、例えば、画像ベースの物体認識によって特定されたオブジェクトと、上述した情報処理装置300のオブジェクト検出部302により検出されたオブジェクトとの特性が一致した場合、オブジェクト検出部302によるオブジェクトの検出が正しく行われたと判断することができる。一方、画像ベースの物体認識による認識結果と検出結果が矛盾する場合には、オブジェクト検出部302によるオブジェクトの検出が正しく行われなかったと判断し、例えば物体認識または音声信号との関連付けを再実行してもよい。このような構成とすることにより、オブジェクトの検出精度を向上させることができる。
また、上記の各実施形態において、マイクロフォン102により生成された音声信号に対して周波数解析を行い、音源の種類や特性を認識し、音声信号に基づく認識結果と、上述した一般物体認識による認識結果との整合が取れているか否かを判断してもよい。この場合、例えば、オブジェクトの音声信号に基づく認識の結果が動物の鳴き声であり、一般物体認識による認識結果が動物である場合には整合が取れているので、そのオブジェクトを関連付け処理やオブジェクト分類処理の対象とする。一方、整合が取れていない場合には、画像信号と音声信号との少なくとも一方におけるノイズであると判断し、そのオブジェクトを関連付け処理やオブジェクト分類処理の対象としない。このような構成とすることにより、オブジェクト検出の精度を向上させることができる。
また、上記の各実施形態で説明された画像処理システム10およびシステム20による画像処理を、特定のオブジェクトをターゲットとするトラッキング処理に適用しても良い。例えば、ゲーム機器のコントローラ等の入力装置をトラッキングする場合には、入力装置に常時所定の音を発する発信部材を備える。そして、まず音声情報に基づいて大まかなトラッキング処理を行い、次に、大まかなトラッキング処理に基づいてトラッキング範囲を限定し、画像情報に基づくより詳細なトラッキング処理を行うことにより、処理負荷を抑えつつ、トラッキング処理の精度を向上させることができる。
また、上記の各実施形態で説明された画像処理システム10およびシステム20においては、ビジョンセンサ101によりイベント信号を生成する例を示したが、この例に限定されない。例えば、ビジョンセンサ101に代えてRGB画像を取得する撮像装置を備えても良い。この場合、例えば、複数フレームの画像の差分に基づいてオブジェクト検出を行うことにより、同様の効果を得ることができる。なお、音声情報に基づいて検出範囲を限定した上でオブジェクト検出を行うことにより、オブジェクト検出の処理負荷を抑えることもできる。
なお、上記の各実施形態で説明された画像処理システム10およびシステム20は、単一の装置内で実装されても良いし、複数の装置に分散して実装されても良い。例えば、ビジョンセンサ101を含む端末装置に画像処理システム10およびシステム20全体を実装しても良いし、情報処理装置200および情報処理装置300をサーバー装置に分離して実装しても良い。また、関連付け処理後またはオブジェクト分類後のデータを保存した上で、事後的に画像処理を行う構成としても良い。この場合、画像処理は、イベント信号受信部、音声信号受信部、オブジェクト検出部、位置合わせ処理部、関連付け処理部、オブジェクト分類部、第1画像処理部、第2画像処理部、画像処理部をそれぞれ別の装置で行う構成としても良い。
以上、添付図面を参照しながら本発明のいくつかの実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10,20…画像処理システム、101…ビジョンセンサ、102…マイクロフォン、200,300…情報処理装置、201…イベント信号受信部、202,302…オブジェクト検出部、203…音声信号受信部、204…位置合わせ処理部、205,301…関連付け処理部、206…オブジェクト分類部、207…第1画像処理部、208…第2画像処理部、303…画像処理部

Claims (15)

  1. 画像センサが取得した画像情報であって、輝度変化が発生した画素アドレスと時間情報とを含む前記画像情報を受信する第1の受信部と、
    1つまたは複数の指向性マイクロフォンが取得した、前記画像センサの被写界内の少なくとも一部の領域における音声情報を受信する第2の受信部と、
    前記画像情報から前記被写界内に存在するオブジェクトの少なくとも一部を検出するオブジェクト検出部と、
    前記音声情報を、前記オブジェクトの検出に用いた前記画像情報の時間情報を参照して、前記被写界内の位置を示す前記画像情報の画素アドレスに関連付ける関連付け処理部と、
    前記関連付け処理部による関連付けの結果に基づき、前記オブジェクトに対して所定の処理を行う処理実行部と
    を備える画像処理装置。
  2. 前記第2の受信部は、前記被写界内の位置を示す位置情報に関連付けられた前記音声情報を受信し、
    前記関連付け処理部は、前記位置情報と前記画素アドレスとのキャリブレーション結果を用いて前記音声情報を前記画素アドレスに関連付ける、請求項1に記載の画像処理装置。
  3. 前記関連付け処理部は、前記オブジェクト検出部が検出した前記オブジェクトの画像内での領域に対応する前記画素アドレスに前記音声情報を関連付け、
    前記処理実行部は、前記音声情報が関連付けられた前記画素アドレスに対応する前記オブジェクトに対して前記所定の処理を行う、請求項1または請求項2に記載の画像処理装置。
  4. 前記オブジェクト検出部は、前記画素アドレスに関連付けられた前記音声情報に応じて決定される画像内の領域で前記オブジェクトを検出し、
    前記処理実行部は、前記オブジェクト検出部が検出した前記オブジェクトに対して前記所定の処理を行う、請求項1または請求項2に記載の画像処理装置。
  5. 前記オブジェクト検出部が検出した前記オブジェクトを、前記オブジェクトの画像内での領域に対応する前記画素アドレスに関連付けられた前記音声情報に応じて、第1のオブジェクトおよび第2のオブジェクトに分類するオブジェクト分類部をさらに備え、
    前記処理実行部は、前記オブジェクトのうち前記第1のオブジェクトに対して前記所定の処理を行う、請求項3に記載の画像処理装置。
  6. 前記音声情報は、音声検出の有無を示す情報を含み、
    前記処理実行部は、音声検出があったことを示す前記音声情報に関連付けられた画素アドレスで検出された前記オブジェクトに対して前記所定の処理を行う、請求項1から請求項5のいずれか1項に記載の画像処理装置。
  7. 前記処理実行部は、前記オブジェクトの時系列の検出結果を用いてトラッキング処理を行う、請求項6に記載の画像処理装置。
  8. 前記音声情報は、音声検出の有無を示す情報を含み、
    前記処理実行部は、音声検出がなかったことを示す前記音声情報に関連付けられたか、または音声検出があったことを示す前記音声情報に関連付けられなかった画素アドレスで検出された前記オブジェクトに対して前記所定の処理を行う、請求項1から請求項5のいずれか1項に記載の画像処理装置。
  9. 前記処理実行部は、前記オブジェクトの時系列の検出結果を用いて前記画像センサが搭載された装置の自己位置推定処理を行う、請求項8に記載の画像処理装置。
  10. 前記処理実行部は、前記オブジェクトの時系列の検出結果を用いて前記画像センサが搭載された装置のモーションキャンセル処理を行う、請求項8に記載の画像処理装置。
  11. 前記処理実行部は、前記画像情報から、前記オブジェクトのみを含む画像情報を抽出する、請求項1から請求項5のいずれか1項に記載の画像処理装置。
  12. 前記画像センサは、画素ごとに入射する光の強度変化を検出したときにイベント信号を生成するイベント駆動型のビジョンセンサであり、
    前記画像情報は、前記イベント信号を含む、請求項1から請求項11の何れか1項に記載の画像処理装置。
  13. 輝度変化が発生した画素アドレスと時間情報とを含む画像情報を取得する画像センサと、
    前記画像センサの被写界内の少なくとも一部の領域における音声情報を取得する1つまたは複数の指向性マイクロフォンと、
    前記画像情報を受信する第1の受信部と、
    前記音声情報を受信する第2の受信部と、
    前記画像情報から前記被写界内に存在するオブジェクトの少なくとも一部を検出するオブジェクト検出部と、
    前記音声情報を、前記オブジェクトの検出に用いた前記画像情報の時間情報を参照して、前記被写界内の位置を示す前記画像情報の画素アドレスに関連付ける関連付け処理部と、
    前記関連付け処理部による関連付けの結果に基づき、前記オブジェクトに対して所定の処理を行う処理実行部と
    を有する端末装置と
    を備えるシステム。
  14. 画像センサが取得した画像情報であって、輝度変化が発生した画素アドレスと時間情報とを含む前記画像情報を受信するステップと、
    1つまたは複数の指向性マイクロフォンが取得した、前記画像センサの被写界内の少なくとも一部の領域における音声情報を受信するステップと、
    前記画像情報から前記被写界内に存在するオブジェクトの少なくとも一部を検出するステップと、
    前記音声情報を、前記オブジェクトの検出に用いた前記画像情報の時間情報を参照して、前記被写界内の位置を示す前記画像情報の画素アドレスに関連付けるステップと、
    関連付けの結果に基づき、前記オブジェクトに対して所定の処理を行うステップと
    を含む画像処理方法。
  15. 画像センサが取得した画像情報であって、輝度変化が発生した画素アドレスと時間情報とを含む前記画像情報を受信する機能と、
    1つまたは複数の指向性マイクロフォンが取得した、前記画像センサの被写界内の少なくとも一部の領域における音声情報を受信する機能と、
    前記画像情報から前記被写界内に存在するオブジェクトの少なくとも一部を検出する機能と、
    前記音声情報を、前記オブジェクトの検出に用いた前記画像情報の時間情報を参照して、前記被写界内の位置を示す前記画像情報の画素アドレスに関連付ける機能と、
    関連付けの結果に基づき、前記オブジェクトに対して所定の処理を行う機能と
    をコンピュータに実現させる画像処理プログラム。
JP2021541869A 2019-08-28 2019-08-28 画像処理装置、システム、画像処理方法および画像処理プログラム Active JP7304955B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/033709 WO2021038752A1 (ja) 2019-08-28 2019-08-28 画像処理装置、システム、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2021038752A1 JPWO2021038752A1 (ja) 2021-03-04
JP7304955B2 true JP7304955B2 (ja) 2023-07-07

Family

ID=74683969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021541869A Active JP7304955B2 (ja) 2019-08-28 2019-08-28 画像処理装置、システム、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US20220308157A1 (ja)
JP (1) JP7304955B2 (ja)
WO (1) WO2021038752A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116540178B (zh) * 2023-04-28 2024-02-20 广东顺德西安交通大学研究院 一种音视频融合的噪声源定位方法及系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301161A (ja) 2007-05-31 2008-12-11 Fujifilm Corp 画像処理装置、デジタルカメラ、及び画像処理方法
JP2010103972A (ja) 2008-09-25 2010-05-06 Sanyo Electric Co Ltd 画像処理装置及び電子機器
JP2011217334A (ja) 2010-04-02 2011-10-27 Canon Inc 撮像装置および撮像装置の制御方法
JP2013141090A (ja) 2011-12-28 2013-07-18 Canon Inc 撮影装置及びその処理方法
JP2015100066A (ja) 2013-11-20 2015-05-28 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム
JP2015177490A (ja) 2014-03-18 2015-10-05 株式会社リコー 映像音声処理システム、情報処理装置、映像音声処理方法、及び映像音声処理プログラム
JP2016039407A (ja) 2014-08-05 2016-03-22 パナソニックIpマネジメント株式会社 音声処理システム及び音声処理方法
JP2017028529A (ja) 2015-07-23 2017-02-02 パナソニックIpマネジメント株式会社 モニタリングシステム及びモニタリング方法
WO2017159003A1 (ja) 2016-03-17 2017-09-21 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
JP2017175474A (ja) 2016-03-24 2017-09-28 パナソニックIpマネジメント株式会社 モニタリングシステム及びモニタリング方法
US20180098082A1 (en) 2016-09-30 2018-04-05 Intel Corporation Motion estimation using hybrid video imaging system
JP2019029962A (ja) 2017-08-03 2019-02-21 キヤノン株式会社 撮像装置およびその制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090292504A1 (en) * 2008-04-11 2009-11-26 Haas Alfred M Adaptive Image Sensor
US9736580B2 (en) * 2015-03-19 2017-08-15 Intel Corporation Acoustic camera based audio visual scene analysis
US10909384B2 (en) * 2015-07-14 2021-02-02 Panasonic Intellectual Property Management Co., Ltd. Monitoring system and monitoring method
US10134422B2 (en) * 2015-12-01 2018-11-20 Qualcomm Incorporated Determining audio event based on location information
US10045120B2 (en) * 2016-06-20 2018-08-07 Gopro, Inc. Associating audio with three-dimensional objects in videos
WO2018163545A1 (ja) * 2017-03-09 2018-09-13 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301161A (ja) 2007-05-31 2008-12-11 Fujifilm Corp 画像処理装置、デジタルカメラ、及び画像処理方法
JP2010103972A (ja) 2008-09-25 2010-05-06 Sanyo Electric Co Ltd 画像処理装置及び電子機器
JP2011217334A (ja) 2010-04-02 2011-10-27 Canon Inc 撮像装置および撮像装置の制御方法
JP2013141090A (ja) 2011-12-28 2013-07-18 Canon Inc 撮影装置及びその処理方法
JP2015100066A (ja) 2013-11-20 2015-05-28 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム
JP2015177490A (ja) 2014-03-18 2015-10-05 株式会社リコー 映像音声処理システム、情報処理装置、映像音声処理方法、及び映像音声処理プログラム
JP2016039407A (ja) 2014-08-05 2016-03-22 パナソニックIpマネジメント株式会社 音声処理システム及び音声処理方法
JP2017028529A (ja) 2015-07-23 2017-02-02 パナソニックIpマネジメント株式会社 モニタリングシステム及びモニタリング方法
WO2017159003A1 (ja) 2016-03-17 2017-09-21 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
JP2017175474A (ja) 2016-03-24 2017-09-28 パナソニックIpマネジメント株式会社 モニタリングシステム及びモニタリング方法
US20180098082A1 (en) 2016-09-30 2018-04-05 Intel Corporation Motion estimation using hybrid video imaging system
JP2019029962A (ja) 2017-08-03 2019-02-21 キヤノン株式会社 撮像装置およびその制御方法

Also Published As

Publication number Publication date
US20220308157A1 (en) 2022-09-29
JPWO2021038752A1 (ja) 2021-03-04
WO2021038752A1 (ja) 2021-03-04

Similar Documents

Publication Publication Date Title
US20060104454A1 (en) Method for selectively picking up a sound signal
JP3927980B2 (ja) 物体検出装置、物体検出サーバおよび物体検出方法
US11152001B2 (en) Vision-based presence-aware voice-enabled device
CN111034222A (zh) 拾音装置、拾音方法以及程序
CN102939617A (zh) 姿势识别装置、姿势识别方法和程序
JP2014204375A (ja) 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
CN112120700A (zh) 咳嗽检测装置、咳嗽检测方法以及记录介质
JP7304955B2 (ja) 画像処理装置、システム、画像処理方法および画像処理プログラム
KR20210064591A (ko) 차량용 다중 센서를 위한 딥러닝 처리 장치 및 방법
US9992593B2 (en) Acoustic characterization based on sensor profiling
FR3077886B1 (fr) Systeme de signalement de depassement d'un seuil d'intensite sonore
JP4825909B2 (ja) 顔検知装置
CN112470215A (zh) 控制方法、装置和可移动平台
RU174044U1 (ru) Аудиовизуальный многоканальный детектор наличия голоса
JP7384158B2 (ja) 画像処理装置、移動装置、および方法、並びにプログラム
US10268922B2 (en) Image processing by means of cross-correlation
CN114556146A (zh) 用于将尤其是在机动车环境中的对象分类的方法和设备
US20220065976A1 (en) Mobile body detection device, mobile body detection method, and mobile body detection program
JP2000092368A (ja) カメラ制御装置及びコンピュータ読み取り可能な記憶媒体
US10812898B2 (en) Sound collection apparatus, method of controlling sound collection apparatus, and non-transitory computer-readable storage medium
KR20230082243A (ko) 운전자 보조 장치, 차량 및 그 제어 방법
WO2021140844A1 (ja) 人体検出装置および人体検出方法
KR101907875B1 (ko) 퓨전 탐지 시스템, 탐지 프로세서, 레이더 장치 및 물체 탐지 방법
JPWO2020175085A1 (ja) 画像処理装置、及び画像処理方法
JP2020144607A (ja) 人検出装置および人検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230627

R150 Certificate of patent or registration of utility model

Ref document number: 7304955

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150