JP7304955B2 - 画像処理装置、システム、画像処理方法および画像処理プログラム - Google Patents
画像処理装置、システム、画像処理方法および画像処理プログラム Download PDFInfo
- Publication number
- JP7304955B2 JP7304955B2 JP2021541869A JP2021541869A JP7304955B2 JP 7304955 B2 JP7304955 B2 JP 7304955B2 JP 2021541869 A JP2021541869 A JP 2021541869A JP 2021541869 A JP2021541869 A JP 2021541869A JP 7304955 B2 JP7304955 B2 JP 7304955B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- information
- audio
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/18—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
- G01S5/20—Position of source determined by a plurality of spaced direction-finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0294—Trajectory determination or predictive filtering, e.g. target tracking or Kalman filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/18—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
- G01S5/22—Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/15—Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Otolaryngology (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Image Analysis (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
図1は、本発明の第1の実施形態に係る画像処理システム10の概略的な構成を示すブロック図である。
図示された例において、画像処理システム10は、ビジョンセンサ101と、マイクロフォン102と、情報処理装置200とを含む。
図4に図示された第1の例では、関連付け処理部205が関連付け処理を行った後に、オブジェクト分類部206がオブジェクトの位置における音声検出の有無を判定し(ステップS202)、音声検出があったオブジェクトを処理対象オブジェクトに分類する(ステップS203)。オブジェクト分類部206は、上記のステップS102でオブジェクト検出部202が検出したオブジェクトについて分類処理を繰り返す(ステップS201からS204)。そして、処理対象オブジェクトに分類されたオブジェクトを対象として、第1画像処理部207がトラッキング処理を実行する(ステップS205)。
また、本発明の第1の実施形態では、関連付けの結果に基づいて、オブジェクトを音ありオブジェクトおよび音なしオブジェクトに分類する。音ありオブジェクトまたは音なしオブジェクトの少なくともいずれかを選択的に用いて所定の処理を行うことによって、例えばオブジェクトが動体であるか、背景であるかといったようなオブジェクトの特性に応じた適切な処理を行うことができる。
例えば、図3および図4で説明された各画像処理の何れか一つのみを行う構成としても良いし、複数の画像処理を行う構成としても良い。
また、第1画像処理部207による画像処理と第2画像処理部208による画像処理との何れか一方のみを行う構成としても良い。この場合、図1で示されたブロック図において、第1画像処理部207または第2画像処理部208の何れかのみを備えても良い。
次に、本発明の第2の実施形態について詳細に説明する。図6は、本発明の第2の実施形態に係る画像処理システム20の概略的な構成を示すブロック図である。第1の実施形態の各構成と実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
情報処理装置300は、例えば通信インターフェース、プロセッサ、およびメモリを有するコンピュータによって実装され、プロセッサがメモリに格納された、または通信インターフェースを介して受信されたプログラムに従って動作することによって実現されるイベント信号受信部201、音声信号受信部203、位置合わせ処理部204、関連付け処理部301、オブジェクト検出部302、画像処理部303の機能を含む。以下、図1と異なる構成の機能についてさらに説明する。
このように、本実施形態においては、オブジェクト検出部302がすべてのオブジェクトを検出するのではなく、音声情報を適用して、画像処理部303による画像処理の対象となるオブジェクトのみを検出する。
Claims (15)
- 画像センサが取得した画像情報であって、輝度変化が発生した画素アドレスと時間情報とを含む前記画像情報を受信する第1の受信部と、
1つまたは複数の指向性マイクロフォンが取得した、前記画像センサの被写界内の少なくとも一部の領域における音声情報を受信する第2の受信部と、
前記画像情報から前記被写界内に存在するオブジェクトの少なくとも一部を検出するオブジェクト検出部と、
前記音声情報を、前記オブジェクトの検出に用いた前記画像情報の時間情報を参照して、前記被写界内の位置を示す前記画像情報の画素アドレスに関連付ける関連付け処理部と、
前記関連付け処理部による関連付けの結果に基づき、前記オブジェクトに対して所定の処理を行う処理実行部と
を備える画像処理装置。 - 前記第2の受信部は、前記被写界内の位置を示す位置情報に関連付けられた前記音声情報を受信し、
前記関連付け処理部は、前記位置情報と前記画素アドレスとのキャリブレーション結果を用いて前記音声情報を前記画素アドレスに関連付ける、請求項1に記載の画像処理装置。 - 前記関連付け処理部は、前記オブジェクト検出部が検出した前記オブジェクトの画像内での領域に対応する前記画素アドレスに前記音声情報を関連付け、
前記処理実行部は、前記音声情報が関連付けられた前記画素アドレスに対応する前記オブジェクトに対して前記所定の処理を行う、請求項1または請求項2に記載の画像処理装置。 - 前記オブジェクト検出部は、前記画素アドレスに関連付けられた前記音声情報に応じて決定される画像内の領域で前記オブジェクトを検出し、
前記処理実行部は、前記オブジェクト検出部が検出した前記オブジェクトに対して前記所定の処理を行う、請求項1または請求項2に記載の画像処理装置。 - 前記オブジェクト検出部が検出した前記オブジェクトを、前記オブジェクトの画像内での領域に対応する前記画素アドレスに関連付けられた前記音声情報に応じて、第1のオブジェクトおよび第2のオブジェクトに分類するオブジェクト分類部をさらに備え、
前記処理実行部は、前記オブジェクトのうち前記第1のオブジェクトに対して前記所定の処理を行う、請求項3に記載の画像処理装置。 - 前記音声情報は、音声検出の有無を示す情報を含み、
前記処理実行部は、音声検出があったことを示す前記音声情報に関連付けられた画素アドレスで検出された前記オブジェクトに対して前記所定の処理を行う、請求項1から請求項5のいずれか1項に記載の画像処理装置。 - 前記処理実行部は、前記オブジェクトの時系列の検出結果を用いてトラッキング処理を行う、請求項6に記載の画像処理装置。
- 前記音声情報は、音声検出の有無を示す情報を含み、
前記処理実行部は、音声検出がなかったことを示す前記音声情報に関連付けられたか、または音声検出があったことを示す前記音声情報に関連付けられなかった画素アドレスで検出された前記オブジェクトに対して前記所定の処理を行う、請求項1から請求項5のいずれか1項に記載の画像処理装置。 - 前記処理実行部は、前記オブジェクトの時系列の検出結果を用いて前記画像センサが搭載された装置の自己位置推定処理を行う、請求項8に記載の画像処理装置。
- 前記処理実行部は、前記オブジェクトの時系列の検出結果を用いて前記画像センサが搭載された装置のモーションキャンセル処理を行う、請求項8に記載の画像処理装置。
- 前記処理実行部は、前記画像情報から、前記オブジェクトのみを含む画像情報を抽出する、請求項1から請求項5のいずれか1項に記載の画像処理装置。
- 前記画像センサは、画素ごとに入射する光の強度変化を検出したときにイベント信号を生成するイベント駆動型のビジョンセンサであり、
前記画像情報は、前記イベント信号を含む、請求項1から請求項11の何れか1項に記載の画像処理装置。 - 輝度変化が発生した画素アドレスと時間情報とを含む画像情報を取得する画像センサと、
前記画像センサの被写界内の少なくとも一部の領域における音声情報を取得する1つまたは複数の指向性マイクロフォンと、
前記画像情報を受信する第1の受信部と、
前記音声情報を受信する第2の受信部と、
前記画像情報から前記被写界内に存在するオブジェクトの少なくとも一部を検出するオブジェクト検出部と、
前記音声情報を、前記オブジェクトの検出に用いた前記画像情報の時間情報を参照して、前記被写界内の位置を示す前記画像情報の画素アドレスに関連付ける関連付け処理部と、
前記関連付け処理部による関連付けの結果に基づき、前記オブジェクトに対して所定の処理を行う処理実行部と
を有する端末装置と
を備えるシステム。 - 画像センサが取得した画像情報であって、輝度変化が発生した画素アドレスと時間情報とを含む前記画像情報を受信するステップと、
1つまたは複数の指向性マイクロフォンが取得した、前記画像センサの被写界内の少なくとも一部の領域における音声情報を受信するステップと、
前記画像情報から前記被写界内に存在するオブジェクトの少なくとも一部を検出するステップと、
前記音声情報を、前記オブジェクトの検出に用いた前記画像情報の時間情報を参照して、前記被写界内の位置を示す前記画像情報の画素アドレスに関連付けるステップと、
関連付けの結果に基づき、前記オブジェクトに対して所定の処理を行うステップと
を含む画像処理方法。 - 画像センサが取得した画像情報であって、輝度変化が発生した画素アドレスと時間情報とを含む前記画像情報を受信する機能と、
1つまたは複数の指向性マイクロフォンが取得した、前記画像センサの被写界内の少なくとも一部の領域における音声情報を受信する機能と、
前記画像情報から前記被写界内に存在するオブジェクトの少なくとも一部を検出する機能と、
前記音声情報を、前記オブジェクトの検出に用いた前記画像情報の時間情報を参照して、前記被写界内の位置を示す前記画像情報の画素アドレスに関連付ける機能と、
関連付けの結果に基づき、前記オブジェクトに対して所定の処理を行う機能と
をコンピュータに実現させる画像処理プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/033709 WO2021038752A1 (ja) | 2019-08-28 | 2019-08-28 | 画像処理装置、システム、画像処理方法および画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021038752A1 JPWO2021038752A1 (ja) | 2021-03-04 |
JP7304955B2 true JP7304955B2 (ja) | 2023-07-07 |
Family
ID=74683969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021541869A Active JP7304955B2 (ja) | 2019-08-28 | 2019-08-28 | 画像処理装置、システム、画像処理方法および画像処理プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220308157A1 (ja) |
JP (1) | JP7304955B2 (ja) |
WO (1) | WO2021038752A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116540178B (zh) * | 2023-04-28 | 2024-02-20 | 广东顺德西安交通大学研究院 | 一种音视频融合的噪声源定位方法及系统 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008301161A (ja) | 2007-05-31 | 2008-12-11 | Fujifilm Corp | 画像処理装置、デジタルカメラ、及び画像処理方法 |
JP2010103972A (ja) | 2008-09-25 | 2010-05-06 | Sanyo Electric Co Ltd | 画像処理装置及び電子機器 |
JP2011217334A (ja) | 2010-04-02 | 2011-10-27 | Canon Inc | 撮像装置および撮像装置の制御方法 |
JP2013141090A (ja) | 2011-12-28 | 2013-07-18 | Canon Inc | 撮影装置及びその処理方法 |
JP2015100066A (ja) | 2013-11-20 | 2015-05-28 | キヤノン株式会社 | 撮像装置及びその制御方法、並びにプログラム |
JP2015177490A (ja) | 2014-03-18 | 2015-10-05 | 株式会社リコー | 映像音声処理システム、情報処理装置、映像音声処理方法、及び映像音声処理プログラム |
JP2016039407A (ja) | 2014-08-05 | 2016-03-22 | パナソニックIpマネジメント株式会社 | 音声処理システム及び音声処理方法 |
JP2017028529A (ja) | 2015-07-23 | 2017-02-02 | パナソニックIpマネジメント株式会社 | モニタリングシステム及びモニタリング方法 |
WO2017159003A1 (ja) | 2016-03-17 | 2017-09-21 | ソニー株式会社 | 画像処理装置と画像処理方法およびプログラム |
JP2017175474A (ja) | 2016-03-24 | 2017-09-28 | パナソニックIpマネジメント株式会社 | モニタリングシステム及びモニタリング方法 |
US20180098082A1 (en) | 2016-09-30 | 2018-04-05 | Intel Corporation | Motion estimation using hybrid video imaging system |
JP2019029962A (ja) | 2017-08-03 | 2019-02-21 | キヤノン株式会社 | 撮像装置およびその制御方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090292504A1 (en) * | 2008-04-11 | 2009-11-26 | Haas Alfred M | Adaptive Image Sensor |
US9736580B2 (en) * | 2015-03-19 | 2017-08-15 | Intel Corporation | Acoustic camera based audio visual scene analysis |
US10909384B2 (en) * | 2015-07-14 | 2021-02-02 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring system and monitoring method |
US10134422B2 (en) * | 2015-12-01 | 2018-11-20 | Qualcomm Incorporated | Determining audio event based on location information |
US10045120B2 (en) * | 2016-06-20 | 2018-08-07 | Gopro, Inc. | Associating audio with three-dimensional objects in videos |
WO2018163545A1 (ja) * | 2017-03-09 | 2018-09-13 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
-
2019
- 2019-08-28 WO PCT/JP2019/033709 patent/WO2021038752A1/ja active Application Filing
- 2019-08-28 JP JP2021541869A patent/JP7304955B2/ja active Active
- 2019-08-28 US US17/635,304 patent/US20220308157A1/en active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008301161A (ja) | 2007-05-31 | 2008-12-11 | Fujifilm Corp | 画像処理装置、デジタルカメラ、及び画像処理方法 |
JP2010103972A (ja) | 2008-09-25 | 2010-05-06 | Sanyo Electric Co Ltd | 画像処理装置及び電子機器 |
JP2011217334A (ja) | 2010-04-02 | 2011-10-27 | Canon Inc | 撮像装置および撮像装置の制御方法 |
JP2013141090A (ja) | 2011-12-28 | 2013-07-18 | Canon Inc | 撮影装置及びその処理方法 |
JP2015100066A (ja) | 2013-11-20 | 2015-05-28 | キヤノン株式会社 | 撮像装置及びその制御方法、並びにプログラム |
JP2015177490A (ja) | 2014-03-18 | 2015-10-05 | 株式会社リコー | 映像音声処理システム、情報処理装置、映像音声処理方法、及び映像音声処理プログラム |
JP2016039407A (ja) | 2014-08-05 | 2016-03-22 | パナソニックIpマネジメント株式会社 | 音声処理システム及び音声処理方法 |
JP2017028529A (ja) | 2015-07-23 | 2017-02-02 | パナソニックIpマネジメント株式会社 | モニタリングシステム及びモニタリング方法 |
WO2017159003A1 (ja) | 2016-03-17 | 2017-09-21 | ソニー株式会社 | 画像処理装置と画像処理方法およびプログラム |
JP2017175474A (ja) | 2016-03-24 | 2017-09-28 | パナソニックIpマネジメント株式会社 | モニタリングシステム及びモニタリング方法 |
US20180098082A1 (en) | 2016-09-30 | 2018-04-05 | Intel Corporation | Motion estimation using hybrid video imaging system |
JP2019029962A (ja) | 2017-08-03 | 2019-02-21 | キヤノン株式会社 | 撮像装置およびその制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20220308157A1 (en) | 2022-09-29 |
JPWO2021038752A1 (ja) | 2021-03-04 |
WO2021038752A1 (ja) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20060104454A1 (en) | Method for selectively picking up a sound signal | |
JP3927980B2 (ja) | 物体検出装置、物体検出サーバおよび物体検出方法 | |
US11152001B2 (en) | Vision-based presence-aware voice-enabled device | |
CN111034222A (zh) | 拾音装置、拾音方法以及程序 | |
CN102939617A (zh) | 姿势识别装置、姿势识别方法和程序 | |
JP2014204375A (ja) | 画像処理システム、画像処理装置、それらの制御方法、及びプログラム | |
CN112120700A (zh) | 咳嗽检测装置、咳嗽检测方法以及记录介质 | |
JP7304955B2 (ja) | 画像処理装置、システム、画像処理方法および画像処理プログラム | |
KR20210064591A (ko) | 차량용 다중 센서를 위한 딥러닝 처리 장치 및 방법 | |
US9992593B2 (en) | Acoustic characterization based on sensor profiling | |
FR3077886B1 (fr) | Systeme de signalement de depassement d'un seuil d'intensite sonore | |
JP4825909B2 (ja) | 顔検知装置 | |
CN112470215A (zh) | 控制方法、装置和可移动平台 | |
RU174044U1 (ru) | Аудиовизуальный многоканальный детектор наличия голоса | |
JP7384158B2 (ja) | 画像処理装置、移動装置、および方法、並びにプログラム | |
US10268922B2 (en) | Image processing by means of cross-correlation | |
CN114556146A (zh) | 用于将尤其是在机动车环境中的对象分类的方法和设备 | |
US20220065976A1 (en) | Mobile body detection device, mobile body detection method, and mobile body detection program | |
JP2000092368A (ja) | カメラ制御装置及びコンピュータ読み取り可能な記憶媒体 | |
US10812898B2 (en) | Sound collection apparatus, method of controlling sound collection apparatus, and non-transitory computer-readable storage medium | |
KR20230082243A (ko) | 운전자 보조 장치, 차량 및 그 제어 방법 | |
WO2021140844A1 (ja) | 人体検出装置および人体検出方法 | |
KR101907875B1 (ko) | 퓨전 탐지 시스템, 탐지 프로세서, 레이더 장치 및 물체 탐지 방법 | |
JPWO2020175085A1 (ja) | 画像処理装置、及び画像処理方法 | |
JP2020144607A (ja) | 人検出装置および人検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230627 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7304955 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |