JP2023069116A - Information processing apparatus, imaging apparatus, control method thereof, image processing system and program - Google Patents
Information processing apparatus, imaging apparatus, control method thereof, image processing system and program Download PDFInfo
- Publication number
- JP2023069116A JP2023069116A JP2021180751A JP2021180751A JP2023069116A JP 2023069116 A JP2023069116 A JP 2023069116A JP 2021180751 A JP2021180751 A JP 2021180751A JP 2021180751 A JP2021180751 A JP 2021180751A JP 2023069116 A JP2023069116 A JP 2023069116A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- vibration
- information
- area
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、撮像センサによる振動検出に関する。 The present invention relates to vibration detection by an imaging sensor.
ファクトリーオートメーション(Factory Automation(FA))分野等では、作業の工程における装置や部品に対する振動を解析するために、振動を検知するための振動センサが用いられる。特許文献1には、当該振動センサとして、撮像装置におけるイベント駆動型の撮像素子(イベントベースタイプのイメージセンサ(イベントベースセンサ))が開示されている。
2. Description of the Related Art In the field of factory automation (FA) and the like, vibration sensors are used to detect vibrations in order to analyze vibrations of devices and parts in work processes.
特許文献1に開示されているイベントベースセンサは、振動を検知することは可能であるが、解析者(ユーザ)が検知された振動を解析する際に、当該振動がどのような特徴を有する振動なのかを判断するのは困難であった。
The event-based sensor disclosed in
本発明は上記課題に鑑みてなされたものであり、検知された振動の特徴をユーザが容易に理解できるようにするための技術を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide a technology that enables a user to easily understand the characteristics of the detected vibration.
上記目的を達成する一手段として本発明の情報処理装置は、以下の構成を有する。すなわち、撮像装置から、被写体の撮影画像と、前記被写体において振動が生じた部分の領域を示す領域情報と、前記部分の振動に応じた音を表す振動音の情報とを取得する取得手段と、前記撮影画像に前記領域情報により示される前記領域を重畳して表示部に表示する表示制御手段と、ユーザによる前記表示部に対する操作を受け付ける受付手段と、前記受付手段により前記領域に対する選択操作が受け付けられた場合に、前記振動音の情報に基づき、前記振動音を発音部から出力させる音制御手段と、を有する。 As one means for achieving the above object, the information processing apparatus of the present invention has the following configuration. That is, an acquisition means for acquiring, from an imaging device, a photographed image of a subject, region information indicating a region of a portion of the subject where vibration occurs, and vibration sound information representing a sound corresponding to the vibration of the portion; display control means for superimposing the area indicated by the area information on the captured image and displaying the area on a display section; reception means for receiving an operation by a user on the display section; and reception means for receiving a selection operation on the area. and sound control means for outputting the vibrating sound from the sound generating unit when the vibrating sound is generated.
本発明によれば、検知された振動の特徴をユーザが容易に理解できるようにするための技術が提供される。 SUMMARY OF THE INVENTION In accordance with the present invention, techniques are provided to facilitate user comprehension of the characteristics of detected vibrations.
以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Embodiments for carrying out the present invention will be described in detail below with reference to the accompanying drawings. The embodiments described below are examples of means for realizing the present invention, and should be appropriately modified or changed according to the configuration of the apparatus to which the present invention is applied and various conditions. It is not limited to the embodiment. Also, not all combinations of features described in the present embodiment are essential for the solution means of the present invention.
[第1実施形態]
(システム構成)
図1(a)に、本実施形態による画像処理システムの構成の概略図を示す。本画像処理システムは、ネットワークカメラ1とクライアント装置2で構成され、ネットワークカメラ1とクライアント装置2はネットワーク3で接続可能に構成されている。
[First embodiment]
(System configuration)
FIG. 1A shows a schematic diagram of the configuration of an image processing system according to this embodiment. This image processing system is composed of a
ネットワークカメラ1は、後述するように撮像部(撮像部203)を備え、任意の被写体に対して当該撮像部により撮像することにより得られた信号から、撮影画像を生成することが可能な撮像装置である。クライアント装置2は、例えばパーソナルコンピュータ(PC)、携帯電話、スマートフォン、PDA、タブレット端末といった任意の情報処理装置である。
The
(ネットワークカメラ1の構成)
図2を参照して、ネットワークカメラ1の構成例について説明する。まず、ネットワークカメラ1のハードウェア構成について説明する。図2(a)は、ネットワークカメラ1のハードウェア構成の一例を示すブロック図である。ネットワークカメラ1は、そのハードウェア構成の一例として、記憶部201、制御部202、撮像部203、集音部204、入力部205、表示部206、発音部207、および通信部208を有する。
(Configuration of network camera 1)
A configuration example of the
記憶部201は、ROM(Read Only Memory)やRAM(Random Access Memory)等のメモリにより構成され、後述する各種動作を行うためのプログラムや、通信のための通信パラメータ等の各種情報を記憶する。なお、記憶部201として、ROM、RAM等のメモリの他に、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のメモリカード、DVDなどの記憶媒体を用いてもよい。また、記憶部201が複数のメモリ等を備えていてもよい。
The
制御部202は、例えば、1つ以上のCPU(Central Processing Unit)により構成され、記憶部201に記憶されたプログラムを実行することにより、ネットワークカメラ1を制御する。
The
撮像部203は、レンズ及び撮像素子から構成され、被写体像を電気信号へ変換する光電変換を行う。撮像部203にて撮像および光電変換された電気信号は、画像処理部211(図2(b))に伝達される。
また、本実施形態において、撮像部203の撮像素子はイベントベースセンサであり、画素の輝度変化情報(変化量、変化傾向等)、当該画素のアドレス(X-Y座標)、変化の時間情報(変化のタイミング/時間等)を出力することが可能に構成される。これにより、撮像部203は、被写体の動きを輝度の変化として出力することができる。一般的なイベントベースセンサの検知レートは、約1G(1×10E9)Event/secであり、その場合、100×100画素の領域では最大で50KHzまでのセンシングが可能である。画素の輝度変化情報、当該画素のアドレス(X-Y座標)、時間情報は、振動検知部213(図2(b))に伝達される。
なお、撮像部203は、例えば、アバランシェフォトダイオード(APD)によって構成された画素を有していてもよい。具体的には、撮像部203は、各々のAPD(画素)に入射した光子の数を計数し、更にセンサ外部から供給されるクロック(あるいはそのクロックを用いてセンサ内で生成されるクロック)を用いて、光子が一定の数になるまでの時間をカウントする。撮像部203は、計測された光子の数がN回目に閾値を超えるのに要した第1の時間と、同様に光子の数がN+1回目に閾値を超えるのに要した第2の時間との比較結果に応じて画素の輝度の変化を検出する。あるいは、撮像部203は、一定周期で光子をカウントし、N回目の光子数とN+1回目の光子数との変化に応じて輝度の変化を検出してもよい。撮像部203の画素としてアバランシェフォトダイオード(APD)を用いることによって、読み出しノイズが少ないため精度よく振動を検出できる。
The
Further, in the present embodiment, the imaging device of the
Note that the
集音部204は、ネットワークカメラ1の外部に存在する音(外部音)を集音し、音声信号として電気信号へ変換する。集音部204にて変換された音声信号(電気信号)は、音処理部212(図2(b))へ伝達される。外部音の具体例としては、ネットワークカメラ1の周囲の環境音、人物の会話音等がある。
The
入力部205は、例えばユーザからの各種操作の受付を行う。表示部206は、各種表示の出力を行う。なお、タッチパネルのように入力部205と表示部206の両方を1つのモジュールで実現するようにしてもよい。
発音部207は、各種音声信号を可聴音として発音する。
通信部208は、外部装置との有線/無線通信を制御するインタフェースである。
The
The
A
続いて、ネットワークカメラ1の機能構成について説明する。図2(b)は、ネットワークカメラ1の機能構成の一例を示すブロック図である。ネットワークカメラ1は、その機能構成の一例として、画像処理部211、音処理部212、振動検知部213、属性情報生成部214、音生成部215、通信制御部216、および出力制御部217を有する。
Next, the functional configuration of the
画像処理部211は、撮像部203(図2(a))から電気信号を受信し、当該電気信号に対して所定の画像処理を施すことにより、撮影画像を生成する。生成された撮影画像は、通信制御部216へ伝達される。
音処理部212は、集音部204(図2(a))から電気信号へ変換された音声信号(外部音)を受信し、当該音声信号に対して増幅、帯域制限、アナログ-デジタル変換の各処理を施し、外部音のデジタル音声信号(外部音の情報)を生成する。生成されたデジタル音声信号は、通信制御部216へ伝達される。
The
The
振動検知部213は、撮像部203からの情報(画素の輝度変化情報、当該画素のアドレス(X-Y座標)、時間情報)に基づいて、被写体の周期的な動きを被写体の振動として検知する。振動検知部213は、例えば、輝度変化がある画素が所定のアドレス範囲内で留まり、アドレス変位を繰り返しているときに振動として検知することができる。
上述のように、撮像部203の撮像素子であるイベントベースセンサは、一般的に、約1G(1×10E9)Event/secの検知レートを有し、この場合、100×100画素の領域では最大で50KHzまでの振動の検知(センシング)が可能である。
The
As described above, the event-based sensor, which is the imaging element of the
属性情報生成部214は、振動検知部213により振動が検知された被写体(対象物)において、撮像部203からの情報(輝度変化情報、当該画素のアドレス(X-Y座標)、時間情報)を用いて演算処理を行うことにより、振動の特性(特徴)を示す属性情報を生成(導出)する。属性情報は例えば、振動の基本周波数、強度、変調度、および断続度のいずれかを含む。属性情報にはさらに、振動検知された部分の位置(領域)を示す領域情報として、振動検知された画素のアドレス(以下、検知アドレスと称する)が付加される、もしくは含まれる。生成された属性情報は、記憶部201に記憶される。
基本周波数は、振動を構成する最も低い周波数成分の周波数であり、強度は、振動を構成する周波数成分ごとの強度であり、変調度は、振動を構成する複数の周波数成分の比率であり、断続度は、振動の断続性を示す度合いである。
The attribute
The fundamental frequency is the frequency of the lowest frequency component that makes up the vibration, the intensity is the intensity of each frequency component that makes up the vibration, and the modulation index is the ratio of the multiple frequency components that make up the vibration. The degree is a degree indicating intermittence of vibration.
当該演算には、例えば、FFT(Fast Fourier Transform)演算が用いられ、FFTにより振動強度の周波数分布が算出される。そして、低次の周波数成分から基本周波数が導出され、各周波数成分の平均信号強度から強度が導出され、基本周波数成分と他の周波数成分の比率から変調度が導出される。断続度は、FFT演算を行う単位期間(フレーム)において、フレーム間でのデータの不連続の度合いにより算出される。なお、FFT演算および、FFT演算により変調度、断続度を導出することを含む音声処理は既知の技術である。生成された振動の属性情報は、音生成部215と通信制御部216に伝達される。
For example, FFT (Fast Fourier Transform) calculation is used for the calculation, and the frequency distribution of vibration intensity is calculated by FFT. Then, the fundamental frequency is derived from the low-order frequency components, the intensity is derived from the average signal strength of each frequency component, and the degree of modulation is derived from the ratio of the fundamental frequency component to the other frequency components. The degree of discontinuity is calculated from the degree of discontinuity of data between frames in a unit period (frame) in which the FFT operation is performed. Note that the FFT calculation and the audio processing including the derivation of the degree of modulation and the degree of discontinuity by the FFT calculation are known techniques. The attribute information of the generated vibration is transmitted to the
音生成部215は、属性情報生成部214により生成された属性情報から、振動を表す音として振動音を生成する。生成された振動音の情報は、通信制御部216へ伝達される。ここで、図4と図5を参照して、生成される振動音について説明する。図4は音生成部215の構成の概念図を示し、図5は振動音の生成過程を説明するための図である。
The
図4に示すように、音生成部215は、一例として、ホワイトノイズ生成部41、デジタルフィルタ42、設定部43から構成される。まず、ホワイトノイズ生成部41は、被写体が起こし得る振動の全ての周波数成分を含む信号であるホワイトノイズを生成する(図5(a))。次に、設定部43は、属性情報に基づいて、検知された振動の周波数特性を有する周波数特性を導出し、デジタルフィルタ42に設定する。設定部43は、属性情報生成部214により導出された基本周波数、強度(レベルに対応)、変調度から、振動の周波数特性を導出してデジタルフィルタ42に設定することができる。なお、導出手法はこれに限定されない。
As shown in FIG. 4 , the
図5(b)に、設定部43に導出し設定された周波数特性の例を示す。デジタルフィルタ42は、ホワイトノイズ生成部41により生成されたホワイトノイズを、図5(b)に示す周波数特性を有するフィルタでフィルタリング(合成)することにより、属性情報を反映した振動音を生成する。図5(c)に、生成(合成)された振動音の周波数特性を示す。このように、デジタルフィルタ42のフィルタリングにより、検知された振動と同じ周波数成分を有する振動音が生成される。音生成部215により生成された振動音は、検知アドレスが付加されて、通信制御部216へ伝達される。
FIG. 5B shows an example of frequency characteristics derived and set in the
通信制御部216は、上述のように生成された、撮影画像、音声信号、属性情報、振動音の情報等を、ネットワーク3を介して送信するためにネットワーク信号(例えばEthernet信号)に変換し、当該ネットワーク信号を、ネットワーク3を介してクライアント装置2へ送信(配信)する。
また、本実施形態による通信制御部216は、サーバ機能を有し、制御部202により起動されることにより、ネットワーク3を介してクライアント装置2と接続し、接続後に撮影画像の配信を行うための初期画面データをクライアント装置2に送信するように構成される。
出力制御部217は、表示部206に対する表示制御や発音部207に対する発音制御を行う。
The
In addition, the
The
(クライアント装置2の構成)
次に、図3を参照して、クライアント装置2の構成例について説明する。まず、クライアント装置2の機能構成について説明する。図3(a)は、クライアント装置2のハードウェア構成の一例を示すブロック図である。クライアント装置2は、そのハードウェア構成の一例として、記憶部301、制御部302、入力部303、表示部304、発音部305、および通信部306を有する。記憶部301、制御部302、入力部303、表示部304、発音部305、および通信部306は、図2(a)のネットワークカメラ1の記憶部201、制御部202、入力部205、表示部206、発音部207、および通信部208とそれぞれ同様の構成であるため、説明を省略する。
(Configuration of client device 2)
Next, a configuration example of the
続いて、クライアント装置2の機能構成について説明する。図3(b)は、クライアント装置2の機能構成の一例を示すブロック図である。クライアント装置2は、その機能構成の一例として、通信制御部311、情報復元部312、表示情報生成部313、および出力制御部314を有する。
Next, the functional configuration of the
通信制御部311は、ネットワーク3を介してネットワークカメラ1により送信されたネットワーク信号を受信する。例えば、通信制御部311は、撮影画像、属性情報、振動音と音声信号(外部音)の信号(情報)を受信する。
情報復元部312は、通信制御部311により受信された信号に対する復元処理を行う。例えば、情報復元部312は、受信された信号から、ネットワークカメラ1により生成された、撮像画像(画像信号)、音声信号(外部音)、属性情報、振動音を復元する。
The
The
表示情報生成部313は、受信された振動の属性情報から、表示部304に表示する情報(表示情報)を生成する。例えば、表示情報生成部313は、当該振動の属性情報から、テキスト情報を生成する。当該テキスト情報には、当該振動がどのような音であるかを表す情報(例えば、「連続音」、「可聴外」、「変調音」)や、当該振動の基本周波数の情報(変調音である場合は複数の周波数)をテキストの形式で生成する。また、表示情報生成部313は、受信された(属性情報に付加された)検知アドレスから、振動している部分の領域を示す図形を、振動領域として生成する。
The display
出力制御部314は、クライアント装置2の表示部304に対する表示制御を行う。例えば、出力制御部314は、通信制御部311により受信され、情報復元部312により生成された撮影画像に、表示情報生成部313で生成された各種情報を重畳して(すなわち、撮影画像上に当該各種情報が表示されるように)、表示部304に表示する。また、出力制御部314は、発音部305からの発音を制御する。
The
(処理の流れ)
続いて、ネットワークカメラ1とクライアント装置2による処理の流れを説明する。まず、ネットワークカメラ1の処理について説明する。図6は、本実施形態によるネットワークカメラ1により実行される例示的な処理のフローチャートである。なお、図6に示すフローチャートは、ネットワークカメラ1の制御部202が記憶部201に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現されうる。
(Processing flow)
Next, the flow of processing by the
ネットワークカメラ1が所望の場所に設置され、電源が投入されると(S61)、制御部202はネットワークカメラ1の通信制御部216のサーバ機能を立ち上げる。これにより、ネットワークカメラ1は、ネットワーク3を介してクライアント装置2と接続可能な状態になる。続いて、通信制御部216は、ネットワーク3を介して初期画面データをクライアント装置2に送信する。
When the
初期画面データの送信後に、通信制御部216によりクライアント装置2から設定完了の通知が受信されると(S62)、ネットワークカメラ1は撮影画像の配信を開始する。すなわち、撮像部203は、ネットワークカメラ1の撮影画角内にある1つ以上の被写体(対象物)を撮像し、当該撮像により得られた電気信号を画像処理部211へ出力する。そして、画像処理部211は、当該電気信号から撮影画像を生成する。通信制御部216は、画像処理部211により生成された撮影画像をクライアント装置2に送信(配信)する(S63)。またこのとき、通信制御部216は、音処理部212により生成された音声信号(外部音)をクライアント装置2に送信(配信)してもよい。図8(a)に、クライアント装置2に送信される撮影画像の例を示す。
After transmitting the initial screen data, when the
撮影画像がクライアント装置2に配信されている状態で、振動検知部213は、撮像部203により出力される情報から、被写体(対象物)の振動の検知を行う。検知処理は上述の通りである。振動検知部213により振動が検知されると(S64でYes)、属性情報生成部214は、振動の属性情報を生成する(S65)。属性情報の生成処理は上述の通りである。通信制御部216は、生成された属性情報を、ネットワーク3を介してクライアント装置2に送信する(S66)。
While the captured image is being distributed to the
また、S65で生成された属性情報は音生成部215に入力され、音生成部215は、属性情報を反映した振動音を生成する(S67)。振動音の生成処理は上述の処理通りである。通信制御部216は、生成された振動音を、ネットワーク3を介してクライアント装置2に送信する(S68)。
その後、制御部202は、撮影画像の配信を終了するか否かを判定し、終了しない場合は(S69でNo)、処理はS64へ戻り、終了する場合は(S69でYes)、図6の処理を終了する。撮影画像の配信を終了するか否かは、例えば、通信制御部216が、クライアント装置2から配信終了要求を受信するか否かにより判定可能である。この場合、通信制御部216が当該要求を受信すると、制御部202は、撮影画像の配信を終了すると判定することができる。
Also, the attribute information generated in S65 is input to the
After that, the
次に、クライアント装置2の処理について説明する。図7は、本実施形態によるクライアント装置2により実行される例示的な処理のフローチャートである。なお、図7に示すフローチャートは、クライアント装置2の制御部302が記憶部301に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現されうる。なお、クライアント装置2は、電源が投入されているものとする。また、ここでは、通信制御部216が情報復元部312の機能も有するものとする。
Next, processing of the
ネットワークカメラ1の電源が投入されたことに応じて初期画面データが送信される(図6のS61)と、クライアント装置2の通信制御部311は当該データを受信し、表示制御部314は当該データを基に、表示部304に初期画面を表示する(S71)。その後、クライアント装置2のユーザによる、初期画面に対する所定の操作(例えば所定のURLへのアクセス)により、撮影画像を表示するためのブラウザが表示部304で開くと、通信制御部311は、設定完了通知を、ネットワーク3を介してネットワークカメラ1に送信する(S72)。
When the initial screen data is transmitted in response to the power-on of the network camera 1 (S61 in FIG. 6), the
設定完了通知の送信後、通信制御部311により撮影画像(および外部音)が受信(取得)され、表示制御部314は、撮影画像を、表示部304に表示する(S73)。ここで表示される撮影画像の一例は図8(a)に示される。
撮影画像が表示部304に表示されている状態で、ネットワークカメラ1により被写体の振動が検知されると、通信制御部311は、ネットワークカメラ1により生成された当該振動の属性情報と振動音の情報を受信する(S74でYes)。受信された属性情報と振動音は、記憶部301に記憶される。続いて、表示情報生成部313は、受信された属性情報に基づいて、表示部304に表示する情報(表示情報)を生成し(S75)、表示制御部314は、表示部304に表示されている撮影画像上に、生成された当該表示情報を表示する(S76)。
After transmitting the setting completion notification, the
When the
表示情報生成部313により生成される表示情報は、上述のように、例えば、被写体において振動している部分の領域を示す図形(振動領域)、属性情報のテキスト情報を含む。また、表示情報生成部313は、これらの情報に加えて、発音可能であることを示すアイコンを生成してもよい。
The display information generated by the display
図8(b)に、本実施形態によるクライアント装置の表示部304に表示される画面の例を示す。図8(b)の例では、ネットワークカメラ1が1つ以上の被写体に対して複数の部分の振動を検知し、それぞれの振動について属性情報や振動音を生成して送信した例である。図8(b)において、領域81、83、85は、振動領域を示す図形(振動部分を囲む境界線の図形)を示し、領域82、84、86は、領域81、83、85の振動の属性情報のテキスト情報を示す。
領域82の「1KHz 連続音」は、振動音が1KHzの周波数で連続している音であることを表す。領域84の「22KHz 可聴外」は、振動音が可聴帯域(20KHz程度)外の22KHzの音であることを表す。領域86の「2KHz/600Hz 変調音」は、振動音が2KHzと600Hzの周波数の和で構成された変調音であることを表す。
また、図8(b)には、領域81に対して発音可能であることを示すアイコン87も示されており、ここではラッパの形のアイコンである。図示していないが、領域85に対して発音可能であることを示すアイコンも表示されてもよい。
FIG. 8B shows an example of a screen displayed on the
"1 KHz continuous sound" in the
Also shown in FIG. 8(b) is an
クライアント装置2のユーザが、入力部303を介して表示部304に表示されているいずれかの振動領域を選択すると(S77でYes)、選択出力制御部314は、当該選択された振動領域に対応する振動音を発音部305から出力する(S78)。なお、振動領域に替えて、ユーザが、属性情報のテキストやアイコンのいずれを選択することに応じて、選択された領域に対応する振動音が出力されるように構成されてもよい。
When the user of the
その後、クライアント装置のユーザが、ネットワークカメラ1から配信される撮影画像の表示を終了するまで、S74~S78の処理が続けられる。そして、ユーザが、表示終了するために、配信終了の要求を、入力部303を介して入力し、通信制御部311が当該要求をネットワークカメラ1に送信すると(S79でYes)、図7の処理を終了する。なお、配信(表示)終了のための手続きは、これに限定されない。
After that, the processing of S74 to S78 is continued until the user of the client device ends the display of the photographed image distributed from the
以上のように、クライアント装置2の表示部には、ネットワークカメラ1において振動検知された部分の属性情報が表示され、クライアント装置2のユーザにより、表示画面上で振動検知された部分の領域が選択されることに応じて、当該選択された部分に対応した振動音が出力される。これにより、ユーザは、振動がどのような特徴を有するかを、音により把握することが可能となり、振動の特徴の理解が容易になる。
As described above, the display unit of the
なお、本実施形態では、図8(b)に示すように、クライアント装置2の表示部304は、属性情報のテキスト情報(領域82、84、86)を表示する例を示したが、振動領域のみを表示し、当該領域の選択に応じて、当該領域に応じた振動音を出力するように構成されてもよい。この場合、例えば、ネットワークカメラ1により送信される属性情報には振動の検知アドレス(領域情報)のみが含まれ、クライアント装置2は、当該検知アドレスに基づいて表示部304に振動領域を撮影画像に重畳して表示する。そして、ユーザにより当該領域が選択されることに応じて、クライアント装置2は、当該領域に応じた振動音を出力することができる。
In this embodiment, as shown in FIG. 8B, the
また、本実施形態では、ネットワークカメラ1において、振動検知部213により振動が検知された後に、音生成部215が振動音を生成したが、クライアント装置2からの振動領域の選択の通知に応じて、音生成部212が振動音を生成してもよい。この場合、ユーザによる振動領域の選択の情報が、ネットワーク3を介してネットワークカメラ1に伝達され、ネットワークカメラ1の制御部202により音生成部215へ当該情報が伝達される。当該情報には、選択された振動領域に対応する画素のアドレスといった、位置を特定するためのアドレスを含むものとする。音生成部215は、記憶部201に記憶されている属性情報から、伝達された情報のアドレスを参照し、当該アドレスに対応する検知アドレスが付加された属性情報について演算を開始し、振動音を生成することができる。
Further, in the present embodiment, in the
また、図6のS67において、音生成部215により生成された振動音(合成音)が可聴帯域外の場合は、出力制御部217は、可聴帯域内の所定の音声を警告音として発音部207から出力するようにしてもよい。
また、このような場合は、ネットワークカメラ1からクライアント装置2へ所定の通知を行ってもよい。例えば、ネットワークカメラ1の属性情報生成部214は振動音が可聴帯域外であることを示す情報もしくは周波数の情報を属性情報に含め、当該情報を受信したクライアント装置2の出力制御部314は当該情報から、振動音が可聴帯域でないと判定する。そして、出力制御部314が、可聴帯域内の所定の音声に変換し、当該音を警告音として発音部305から出力してもよいし、表示制御部314が、所定の警告表示を表示部304に表示してもよい。
6, if the vibration sound (synthesized sound) generated by the
Also, in such a case, the
また、クライアント装置2では、図7のS77において、ユーザが振動領域を選択するまでの間、もしくは、振動音を出力させてないときは、出力制御部314は、ネットワークカメラ1から受信した、ネットワークカメラ1の外部音を発音部305から出力してもよい。
In addition, in the
また、クライアント装置2では、図8(b)のように複数の振動領域が表示され、S77における1つの領域選択に応じて振動音が出力されているときに、ユーザが別の領域を選択した場合は、出力制御部314は、直近に選択された領域(すなわち、当該別の領域)に対応する振動音を出力するようにしてもよい。あるいは、出力制御部314は、選択済みの領域に対応する振動音を請求項に出力するようにしてもよい。
Also, on the
また、S77で振動領域が選択された際に、図8(b)に示すように、出力制御部314は、振動音を出力させる時間の複数の選択肢(選択メニュー)を表示部304に表示してもよい。ここで、ユーザが入力部303を介して当該複数の選択肢のうちのいずれかの選択操作を行った場合に、出力制御部314は、当該選択された選択肢に対応する時間の間、振動音を出力し、当該時間が経過した後、振動音の出力を停止するようにしてもよい。
Further, when the vibration region is selected in S77, as shown in FIG. 8B, the
また、本実施形態では、ネットワークカメラ1の音生成部215は、ホワイトノイズにデジタルフィルタを適用することで振動音を生成したが、振動音の生成手法はこれに限定されない。例えば、音生成部215は、複数のデジタル音声パターンをあらかじめ作成、記憶しておき、属性情報に応じてデジタル音声パターンを選択することで振動音を生成してもよい。
Furthermore, in the present embodiment, the
また、本実施形態では、音生成部215は、検知された振動と同じ周波数特性を有する振動音を生成したが、例えば、振動音の周波数が1.9KHzの場合に、周波数を2.0KHzに設定するなど、簡略化処理を施してもよく、その場合も同様の効果を有する。
Further, in the present embodiment, the
また、本実施形態では、クライアント装置2において、表示部304と発音部305を別個に構成したが、表示部304と発音部305とが一体になるように構成されてもよい。
また、発音部305は、音に替えて/加えて、振動を発生するように構成されてもよい。この場合、表示部304と発音部305が、一体化された1つのデバイスとして、タッチパネル様の薄膜デバイスを有し、発音部305は、表示部304に対してユーザにより選択された被写体に対応する振動音による振動を物理的に発生するように構成されてもよい。
Further, in the present embodiment, the
Further, the
[第2実施形態]
次に、ネットワークカメラが複数台の場合の実施形態を第2実施形態として説明する。以下、第1実施形態と異なる点について説明し、共通の特徴については説明を省略する。
図1(b)に、本実施形態による画像処理システムの構成の概略図を示す。本画像処理システムは、ネットワークカメラ1、4とクライアント装置2で構成され、ネットワークカメラ1、4とクライアント装置2はネットワーク3で接続可能に構成されている。
[Second embodiment]
Next, an embodiment in which a plurality of network cameras are used will be described as a second embodiment. Differences from the first embodiment will be described below, and descriptions of common features will be omitted.
FIG. 1B shows a schematic diagram of the configuration of the image processing system according to this embodiment. This image processing system is composed of
本実施形態では、ネットワークカメラ1、4とクライアント装置2の構成は、第1実施形態でそれぞれ図2と図3を参照して説明した通りであり、ここでは説明を省略する。
本実施形態では、ネットワークカメラ1、4は、各カメラを識別するために異なる識別番号(ID)が付されている。図9に示すように、ネットワークカメラ1はID1、ネットワークカメラ4はID2であるとする。
In the present embodiment, the configurations of the
In this embodiment, the
次に、本実施形態の処理の流れについて説明する。ネットワークカメラ1、4はそれぞれ、第1実施形態で説明した図6に示す処理を実行する。図9に、本実施形態によるクライアント装置2により実行される例示的な処理のフローチャートを示す。なお、図7と共通の処理については、同じ参照符号を付し、説明を省略する。
Next, the flow of processing according to this embodiment will be described. The
クライアント装置2の通信制御部311が初期画面データを受信し、表示制御部314が当該データを基に、表示部304に初期画面を表示した後(S71)、クライアント装置2のユーザによる所定の操作により、通信制御部311は、設定完了通知をネットワークカメラ1、4に送信する(S91)。さらに、出力制御部314は、ネットワークカメラ1、4から配信される2つの撮影画像の表示部304における画像配置を決定する(S91)。
After the
図10に、本実施形態によるクライアント装置に表示される画面の一例を示す。図10の例では、表示部304の画面の左上を基準として、ネットワークカメラの識別番号順(カメラごと)に、画像が配置されている。すなわち、左側にネットワークカメラ1(=ID1)による撮影画像、右側にネットワークカメラ4(=ID4)による撮影画像が表示されている。また、ネットワークカメラ1、4の識別番号(ID1、ID2)も表示されている。
FIG. 10 shows an example of a screen displayed on the client device according to this embodiment. In the example of FIG. 10, the images are arranged in the order of network camera identification numbers (for each camera) with the upper left corner of the screen of the
続いて、通信制御部311は、ネットワークカメラ1、4から撮影画像(および外部音)を受信し、表示制御部314は、S91で決定した画像配置に従い、2つの撮影画像を統合して1つの広域画像を生成して表示部304に表示する(S92)。
広域画像が表示部304に表示されている状態で、ネットワークカメラ1、4により被写体の振動が検知されると、通信制御部311は、ネットワークカメラ1、4により生成された当該振動の属性情報と振動音の情報を受信する(S74でYes)。当該情報は、カメラの識別番号や検知アドレス(領域情報)に対応付けて、記憶管理される。続いて、表示情報生成部313は表示情報を生成し(S75)、表示制御部314は、S91で決定した画像配置に従い、表示部304に表示されている広域画像上に、生成された当該表示情報を表示する(S93)。図10では、ネットワークカメラ1、4による撮影画像上に、属性情報により生成されたテキスト情報と、振動している部分の領域を示す図形(振動領域)等が表示されている。
Subsequently, the
When the
クライアント装置2のユーザが、入力部303を介して表示部304に表示されているいずれかの振動領域を選択すると(S77でYes)、出力制御部314は、当該選択された振動領域とS91で決定した画像配置とから、ネットワークカメラの識別番号を特定する。そして、出力制御部314は、当該振動領域とカメラの識別番号に対応する振動音を発音部305から出力する(S94)。
When the user of the
以上のようにして、複数のネットワークカメラによる撮影画像で構成された広域画像において、振動検知された部分についての領域情報といった情報が表示され、ユーザが振動領域を選択することに応じて、当該振動領域に対応する振動音が出力される。 As described above, in a wide-area image composed of images captured by a plurality of network cameras, information such as area information about a portion where vibration has been detected is displayed. A vibration sound corresponding to the region is output.
なお、本実施形態では、クライアント装置2の出力制御部314は、広域画像に対する各ネットワークカメラによる撮影画像の配置を、カメラの識別番号の数字順に割り当てたが、ランダムに決定してもよい。また、出力制御部314は、ユーザによる入力部303を介した操作に応じて、配置を決定してもよい。
また、本実施形態では、ネットワークカメラの台数が2台の例を説明したが、ネットワークカメラの台数が3台以上であっても、同様の説明を適用可能である。また、その際に、出力制御部314は、カメラ台数分の画像を合成して、広域画像を生成し、表示部304に表示することができる。
In this embodiment, the
Also, in this embodiment, an example in which the number of network cameras is two has been described, but the same description can be applied even if the number of network cameras is three or more. Also, at that time, the
このように、以上に説明した実施形態によれば、被写体の振動の特徴をユーザが視覚的及び聴覚的に容易に理解することが可能となり、被写体としての任意の装置で生じた振動の分析や評価をより定量的に行うことが可能となる。 As described above, according to the embodiments described above, the user can easily understand the characteristics of the vibration of the subject visually and aurally, and can analyze the vibration generated in any device as the subject. Evaluation can be made more quantitatively.
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Further, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device executes the program. It can also be realized by a process of reading and executing. It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
1;4:ネットワークカメラ、2:クライアント装置、3:ネットワーク 1; 4: network camera, 2: client device, 3: network
Claims (17)
前記撮影画像に前記領域情報により示される前記領域を重畳して表示部に表示する表示制御手段と、
ユーザによる前記表示部に対する操作を受け付ける受付手段と、
前記受付手段により前記領域に対する選択操作が受け付けられた場合に、前記振動音の情報に基づき、前記振動音を発音部から出力させる音制御手段と、
を有することを特徴とする情報処理装置。 Acquisition means for acquiring, from an imaging device, a photographed image of a subject, region information indicating a region of a portion of the subject in which vibration occurred, and vibration sound information representing a sound corresponding to the vibration of the portion;
display control means for superimposing the area indicated by the area information on the captured image and displaying the area on a display unit;
receiving means for receiving an operation by a user on the display unit;
sound control means for outputting the vibrating sound from a sound generating unit based on the information of the vibrating sound when the selecting operation for the region is received by the accepting means;
An information processing device comprising:
前記音制御手段は、前記振動音を前記発音部から出力させていないときは、前記外部音の情報に基づき、前記外部音を前記発音部から出力させることを特徴とする請求項1に記載の情報処理装置。 The acquisition means further acquires information on the external sound of the imaging device from the imaging device,
2. The sound control means according to claim 1, wherein when the vibrating sound is not output from the sound generator, the sound controller causes the sound generator to output the external sound based on the information of the external sound. Information processing equipment.
前記表示制御手段は、前記撮影画像に前記周波数の情報を重畳して前記表示部に表示することを特徴とする請求項1または2に記載の情報処理装置。 The acquisition means further acquires information on the vibration frequency of the portion from the imaging device,
3. The information processing apparatus according to claim 1, wherein the display control means superimposes the information on the frequency on the photographed image and displays it on the display unit.
前記受付手段により、前記複数の選択肢のうちのいずれかの選択操作が受け付けられた場合に、前記音制御手段は、当該選択された選択肢に対応する時間の間、前記振動音を前記発音部から出力させることを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。 The display control means displays a plurality of options for a time for outputting the vibration sound on the display unit in response to the user selecting the region on the captured image,
When the selection operation of one of the plurality of options is accepted by the acceptance means, the sound control means outputs the vibrating sound from the sound generator for a time period corresponding to the selected option. 6. The information processing apparatus according to any one of claims 1 to 5, wherein the information is output.
前記表示制御手段は、前記撮影画像に、前記領域と、前記別の領域情報により示される前記別の領域とを重畳して前記表示部に表示し、
前記音制御手段により前記振動音が前記発音部から出力されている状態で、前記受付手段により前記別の領域に対する選択操作が受け付けられた場合に、前記音制御手段は、前記振動音の出力を停止し、前記別の振動音の情報に基づく前記別の振動音を前記発音部から出力させることを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。 The acquiring means acquires other area information indicating an area of the part other than the part in which the subject vibrates, and information of another vibration sound representing a sound corresponding to the vibration of the different part. death,
The display control means superimposes the region and the another region indicated by the another region information on the captured image and displays the superimposed image on the display unit;
In a state in which the vibrating sound is being output from the sound generating unit by the sound controlling means, when the receiving means receives a selection operation for the different area, the sound controlling means stops outputting the vibrating sound. 7. The information processing apparatus according to any one of claims 1 to 6, wherein the sound generating unit stops and outputs the different vibration sound based on the information of the different vibration sound.
前記表示制御手段は、複数の前記撮像装置ごとに、前記撮影画像に前記領域情報により示される前記領域を重畳して前記表示部に表示することを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。 The obtaining means obtains from each of the plurality of imaging devices a photographed image of a subject, area information indicating an area of a portion of the subject where vibration occurs, and vibration sound information indicating a sound corresponding to the vibration of the portion. and are obtained,
9. The display controller according to any one of claims 1 to 8, wherein the display control unit superimposes the area indicated by the area information on the captured image for each of the plurality of imaging devices and displays the superimposed area on the display unit. The information processing device according to the item.
前記被写体における振動を検知する検知手段と、
前記検知手段により振動が検知された前記被写体における部分の領域を示す領域情報と、前記振動の特性を示す属性情報とを導出する導出手段と、
前記属性情報に基づいて、前記振動に応じた音を表す振動音を生成する生成手段と、
前記撮影画像、前記領域情報、および前記振動音の情報を他の装置へ送信する送信手段と、
を有することを特徴とする撮像装置。 a photographing means for photographing a subject and generating a photographed image of the subject;
a detection means for detecting vibration in the subject;
Derivation means for deriving area information indicating the area of the part of the subject where the vibration is detected by the detection means, and attribute information indicating characteristics of the vibration;
generating means for generating a vibration sound representing a sound corresponding to the vibration based on the attribute information;
a transmitting means for transmitting the captured image, the area information, and the vibration sound information to another device;
An imaging device characterized by comprising:
前記設定部は前記属性情報に基づいて、前記振動の周波数特性となるように前記デジタルフィルタの周波数特性を設定し、
前記デジタルフィルタは、ホワイトノイズをフィルタリングすることに前記周波数特性でフィルタリングして前記振動音を生成することを特徴とする請求項10または11に記載の撮像装置。 The generation means is composed of a white noise generation unit, a digital filter, and a setting unit,
The setting unit sets the frequency characteristic of the digital filter so as to have the frequency characteristic of the vibration based on the attribute information,
12. The imaging apparatus according to claim 10, wherein the digital filter filters white noise with the frequency characteristics to generate the vibration sound.
前記撮影画像に前記領域情報により示される前記領域を重畳して表示部に表示する表示制御工程と、
ユーザによる前記表示部に表示された前記領域に対する選択操作が受け付けられた場合に、前記振動音の情報に基づき、前記振動音を発音部から出力させる音制御工程と、
を有することを特徴とする制御方法。 A control method for an information processing device having a display unit and a sound generation unit, wherein an imaging device outputs a photographed image of a subject, area information indicating an area of a portion of the subject in which vibration occurs, and information corresponding to the vibration of the portion. an obtaining step of obtaining information about the vibration sound representing the sound;
a display control step of superimposing the area indicated by the area information on the captured image and displaying it on a display unit;
a sound control step of outputting the vibrating sound from the sound generating unit based on the information of the vibrating sound when a user's selection operation on the region displayed on the display unit is accepted;
A control method characterized by having
前記被写体における振動を検知する検知工程と、
前記検知手段により振動が検知された前記被写体における部分の領域を示す領域情報と、前記振動の特性を示す属性情報とを導出する導出工程と、
前記属性情報に基づいて、前記振動に応じた音を表す振動音を生成する生成工程と、
前記撮影画像、前記領域情報、および前記振動音の情報を他の装置へ送信する送信工程と、
を有することを特徴とする制御方法。 A control method for an imaging device having imaging means for imaging a subject and generating a captured image of the subject, comprising:
a detection step of detecting vibration in the subject;
a derivation step of deriving area information indicating the area of the part of the subject where the vibration is detected by the detection means, and attribute information indicating characteristics of the vibration;
a generating step of generating a vibration sound representing a sound corresponding to the vibration based on the attribute information;
a transmission step of transmitting the captured image, the area information, and the vibration sound information to another device;
A control method characterized by having
前記撮像装置は、
被写体を撮影して当該被写体の撮影画像を生成する撮影手段と、
前記被写体における振動を検知する検知手段と、
前記検知手段により振動が検知された前記被写体における部分の領域を示す領域情報と、前記振動の特性を示す属性情報とを導出する導出手段と、
前記属性情報に基づいて、前記振動に応じた音を表す振動音を生成する生成手段と、
前記撮影画像、前記領域情報、および前記振動音の情報を他の装置へ送信する送信手段と、
を有し、
前記情報処理装置は、
前記撮像装置から、前記撮影画像と、前記領域情報と、前記振動音の情報とを取得する取得手段と、
前記撮影画像に前記領域情報により示される前記領域を重畳して表示部に表示する表示制御手段と、
ユーザによる前記表示部に対する操作を受け付ける受付手段と、
前記受付手段により前記領域に対する選択操作が受け付けられた場合に、前記振動音の情報に基づき、前記振動音を発音部から出力させる音制御手段と、
を有することを特徴とする画像処理システム。 An image processing system having an imaging device and an information processing device,
The imaging device is
a photographing means for photographing a subject and generating a photographed image of the subject;
a detection means for detecting vibration in the subject;
Derivation means for deriving area information indicating the area of the part of the subject where the vibration is detected by the detection means, and attribute information indicating characteristics of the vibration;
generating means for generating a vibration sound representing a sound corresponding to the vibration based on the attribute information;
a transmitting means for transmitting the captured image, the area information, and the vibration sound information to another device;
has
The information processing device is
Acquisition means for acquiring the captured image, the area information, and the vibration sound information from the imaging device;
display control means for superimposing the area indicated by the area information on the captured image and displaying the area on a display unit;
receiving means for receiving an operation by a user on the display unit;
sound control means for outputting the vibrating sound from a sound generating unit based on the information of the vibrating sound when the selecting operation for the region is received by the accepting means;
An image processing system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021180751A JP2023069116A (en) | 2021-11-05 | 2021-11-05 | Information processing apparatus, imaging apparatus, control method thereof, image processing system and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021180751A JP2023069116A (en) | 2021-11-05 | 2021-11-05 | Information processing apparatus, imaging apparatus, control method thereof, image processing system and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023069116A true JP2023069116A (en) | 2023-05-18 |
Family
ID=86327500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021180751A Pending JP2023069116A (en) | 2021-11-05 | 2021-11-05 | Information processing apparatus, imaging apparatus, control method thereof, image processing system and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023069116A (en) |
-
2021
- 2021-11-05 JP JP2021180751A patent/JP2023069116A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN204480228U (en) | motion sensing and imaging device | |
US9386298B2 (en) | Three-dimensional image sensors | |
CN101510958B (en) | Image processing apparatus, image processing method and imaging apparatus | |
CN110798790B (en) | Microphone abnormality detection method, device and storage medium | |
CN108495032B (en) | Image processing method, image processing device, storage medium and electronic equipment | |
CN108319875B (en) | Sensor support system, terminal, sensor, and sensor support method | |
US8988662B1 (en) | Time-of-flight calculations using a shared light source | |
CN110224870B (en) | Interface monitoring method and device, computing equipment and storage medium | |
KR20190004809A (en) | Digital cameras with audio, visual, and motion analysis capabilities | |
CN111982305A (en) | Temperature measuring method, device and computer storage medium | |
US20140359437A1 (en) | Method, device, and system for providing sensory information and sense | |
CN111724412A (en) | Method and device for determining motion trail and computer storage medium | |
JP2021503665A (en) | Methods and devices for generating environmental models and storage media | |
CN113473074B (en) | Detection method, electronic equipment, detection equipment and storage medium | |
US8890953B1 (en) | Optical-based scene detection and audio extraction | |
KR102038181B1 (en) | Synchronization of imaging | |
US9261974B2 (en) | Apparatus and method for processing sensory effect of image data | |
JP2005328236A (en) | Video monitoring method, device, and program | |
JP2023069116A (en) | Information processing apparatus, imaging apparatus, control method thereof, image processing system and program | |
CN108600623B (en) | Refocusing display method and terminal device | |
KR101155610B1 (en) | Apparatus for displaying sound source location and method thereof | |
CN109218620B (en) | Photographing method and device based on ambient brightness, storage medium and mobile terminal | |
CN110062224A (en) | A kind of system improving intelligent camera application | |
CN112312032B (en) | Method and device for shooting by using off-screen camera, storage medium and mobile terminal | |
KR100766995B1 (en) | 3 dimension camera module device |