JP6628853B2 - Audio-video tracking device - Google Patents

Audio-video tracking device Download PDF

Info

Publication number
JP6628853B2
JP6628853B2 JP2018190818A JP2018190818A JP6628853B2 JP 6628853 B2 JP6628853 B2 JP 6628853B2 JP 2018190818 A JP2018190818 A JP 2018190818A JP 2018190818 A JP2018190818 A JP 2018190818A JP 6628853 B2 JP6628853 B2 JP 6628853B2
Authority
JP
Japan
Prior art keywords
unit
video
user
signal
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018190818A
Other languages
Japanese (ja)
Other versions
JP2019046482A (en
Inventor
翔一郎 齊藤
翔一郎 齊藤
尚 植松
尚 植松
一成 森内
一成 森内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018190818A priority Critical patent/JP6628853B2/en
Publication of JP2019046482A publication Critical patent/JP2019046482A/en
Application granted granted Critical
Publication of JP6628853B2 publication Critical patent/JP6628853B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、音声コマンド入力による操作が可能な音声映像入出力装置である。   The present invention is an audio / video input / output device that can be operated by inputting an audio command.

近年、困難な作業や熟練していない作業を行う工場作業員などに対し、音声や映像などのマルチメディア技術や情報通信技術を駆使して作業効率を上げるニーズが高まっている。しかしながら、作業に必要な用具と別にノートパソコンやタブレット端末などの情報通信機器を持ち歩くことは作業員にとって大きな負担となる。また、そのような機器ではキーボード操作や画面操作が主であるが、作業員は両手を自由に使える環境にあるとは限らず、直観的な操作性が不足していることが多い。そのため、音声や映像と連携して作業を行おうとしても、作業者の意図した作業を行うことが難しいという課題がある。また、そのような環境では騒音が大きいことが多く、コミュニケーションが円滑に行えない場合が多いという課題もある。   2. Description of the Related Art In recent years, there has been an increasing need for factory workers and the like who perform difficult or unskilled work to increase work efficiency by making full use of multimedia technology such as audio and video and information communication technology. However, carrying information communication devices such as a notebook computer and a tablet terminal separately from tools required for the work puts a heavy burden on workers. In such devices, keyboard operation and screen operation are mainly performed, but an operator is not always in an environment where both hands can be freely used, and in many cases, intuitive operability is lacking. For this reason, there is a problem that it is difficult to perform the work intended by the worker even when trying to work in cooperation with audio and video. In such an environment, there is also a problem that noise is often loud and communication cannot be performed smoothly in many cases.

上述のようなニーズに対して、必要な情報を現実の視野に重畳して表示する眼鏡型ウェラブルデバイスが開発されている。例えば、非特許文献1、2などに記載されたGoogle Glass(登録商標)がある。Google Glassは、音声によるコマンド入力(例えば、「OK glass.」と発話するなど。詳しくは、非特許文献1参照。)と、ゼスチャーによるコマンド入力(例えば、指のタッチや本体の傾きの状態など。詳しくは、非特許文献2参照。)を利用して操作することが可能になっている。   Eyeglass-type wearable devices have been developed that display necessary information in a manner superimposed on a real field of view in response to the needs described above. For example, there is Google Glass (registered trademark) described in Non-Patent Documents 1 and 2. Google Glass uses command input by voice (for example, uttering “OK glass.” For details, refer to Non-Patent Document 1) and command input using gestures (for example, touching a finger or tilting the main body) For details, see Non-Patent Document 2.).

Google, Inc.、“Google Glass - Help - Voice actions”、[online]、[平成27年4月3日検索]、インターネット<URL:https://support.google.com/glass/answer/3079305?hl=en>Google, Inc., “Google Glass-Help-Voice actions”, [online], [Search April 3, 2015], Internet <URL: https://support.google.com/glass/answer/3079305? hl = en> Google, Inc.、“Google Glass - Help - Glass gestures”、[online]、[平成27年4月3日検索]、インターネット<URL:https://support.google.com/glass/answer/3064184?hl=en>Google, Inc., “Google Glass-Help-Glass gestures”, [online], [Search April 3, 2015], Internet <URL: https://support.google.com/glass/answer/3064184? hl = en>

しかしながら、従来の眼鏡型ウェラブルデバイスでは高騒音環境下での利用を想定しておらず、例えば工場内など周囲の騒音が大きい環境では音声が雑音に埋もれてしまい、音声によるコマンド入力が誤りやすい。また、工場内での作業者は分厚い手袋をして作業を行うことが多く、従来の眼鏡型ウェラブルデバイスが備えるようなタッチパッドでは静電式、圧電式にかかわらず細かな操作をすることが難しい。また、工場内ではヘルメットのような頭部への装着物が必要となる場合も多く、これらの装着物と物理的に干渉し、正規の着用方法ができない場合もある。さらに、落下事故を防ぐために落下防止ストラップなどを装着する必要もあり、装着準備に手間がかかる。   However, conventional eyeglass-type wearable devices are not intended for use in a high-noise environment. For example, in a loud environment such as in a factory, voice is buried in noise, and command input by voice is apt to be erroneous. . Workers in factories often wear thick gloves, and touchpads that are equipped with conventional eyeglass-type wearable devices require detailed operations regardless of whether they are electrostatic or piezoelectric. Is difficult. In addition, in a factory, there is often a need for a headwear such as a helmet, and there is a case where physical interference with these wears and a proper wearing method cannot be performed. Further, it is necessary to wear a fall prevention strap or the like in order to prevent a fall accident, and it takes time to prepare for wearing.

この発明の目的は、高騒音環境やタッチ操作が困難な利用状況であっても円滑な操作を可能とする音声映像入出力装置を提供することである。   An object of the present invention is to provide an audio-video input / output device that enables smooth operation even in a high-noise environment or a use situation where touch operation is difficult.

上記の課題を解決するために、この発明の音声映像入出力装置は、利用者の音声を含む周囲の音を収音する複数の収音部と、利用者の視野に対応する領域を撮影する撮影部と、利用者の視野に入る位置に画面が配置された映像表示部と、回転操作に応じて回転方向および回転角度を示すダイヤル操作信号を出力するダイヤル操作部と、ダイヤル操作部の表面において回転軸の位置に配置され押下状態を示すボタン操作信号を出力するボタン操作部と、収音部を用いて取得した音響信号を音声認識して音声認識結果を生成する音声認識部と、撮影部を用いて映像信号を取得する映像取得部と、映像信号を用いて生成した出力映像信号を映像表示部へ出力する映像生成部と、ダイヤル操作信号、ボタン操作信号、および音声認識結果に基づいて、映像取得部、音声認識部、および映像生成部の機能を制御する制御信号を生成する機能制御部と、を含む。   In order to solve the above-described problems, an audio-video input / output device according to the present invention captures a plurality of sound collection units that collect surrounding sounds including a user's voice and an area corresponding to the user's field of view. A photographing unit, a video display unit in which a screen is arranged at a position within a user's field of view, a dial operation unit that outputs a dial operation signal indicating a rotation direction and a rotation angle according to a rotation operation, and a surface of the dial operation unit A button operation unit that is arranged at the position of the rotation axis and outputs a button operation signal indicating a pressed state, a voice recognition unit that generates a voice recognition result by voice-recognizing an acoustic signal acquired using the sound collection unit, A video acquisition unit that acquires a video signal using the video signal unit, a video generation unit that outputs an output video signal generated using the video signal to the video display unit, and a dial operation signal, a button operation signal, and a voice recognition result. hand, Image acquisition unit includes a voice recognition unit, and a function control unit for generating a control signal for controlling the function of the image generating unit.

この発明の音声映像入出力装置は、複数の収音部から収音した音響信号を用いて音声認識するため、高騒音環境であっても音声コマンド入力が安定的に動作する。また、ダイヤルとボタンによる物理的な操作が可能であるため、タッチ操作が困難な利用状況でも操作が容易である。したがって、高騒音環境やタッチ操作が困難な利用状況であっても円滑な操作が可能である。   Since the audio / video input / output device of the present invention performs audio recognition using acoustic signals collected from a plurality of sound collection units, voice command input stably operates even in a high noise environment. In addition, since physical operation using dials and buttons is possible, operation is easy even in usage situations where touch operation is difficult. Therefore, smooth operation is possible even in a high-noise environment or a use situation where touch operation is difficult.

図1は、第一実施形態に係る音声映像入出力装置の機能構成を例示する図である。FIG. 1 is a diagram illustrating a functional configuration of the audio-video input / output device according to the first embodiment. 図2は、第一実施形態に係る音声映像入出力装置の機能構成を例示する図である。FIG. 2 is a diagram illustrating a functional configuration of the audio-video input / output device according to the first embodiment. 図3は、環境設定機能の利用イメージを例示する図である。FIG. 3 is a diagram illustrating a usage image of the environment setting function. 図4は、音量設定機能の利用イメージを例示する図である。FIG. 4 is a diagram illustrating a usage image of the volume setting function. 図5は、映像ズーム機能の利用イメージを例示する図である。FIG. 5 is a diagram illustrating a usage image of the video zoom function. 図6は、映像追跡機能の利用イメージを例示する図である。FIG. 6 is a diagram illustrating a usage image of the video tracking function. 図7は、第二実施形態に係る音声映像入出力装置の機能構成を例示する図である。FIG. 7 is a diagram illustrating a functional configuration of the audio-video input / output device according to the second embodiment. 図8は、第二実施形態に係る音声映像入出力装置の機能構成を例示する図である。FIG. 8 is a diagram illustrating a functional configuration of the audio / video input / output device according to the second embodiment. 図9は、音声ズーム機能の利用イメージを例示する図である。FIG. 9 is a diagram illustrating a usage image of the audio zoom function. 図10は、音声追跡機能の利用イメージを例示する図である。FIG. 10 is a diagram illustrating a usage image of the voice tracking function.

以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail. In the drawings, components having the same function are denoted by the same reference numerals, and redundant description is omitted.

[第一実施形態]
この発明の第一実施形態は、例えば工場内のような高騒音の作業現場において、利用者が頭部に装着して利用することを想定したヘルメット一体型の音声映像入出力装置である。本形態の音声映像入出力装置は、図1に例示するように、n(≧2)個の収音部M1,…,Mn、放音部S、撮影部V、映像表示部G、ダイヤル操作部D、ボタン操作部B、および通信記録部Cを含む。
[First Embodiment]
The first embodiment of the present invention is a helmet-integrated audio / video input / output device that is assumed to be worn on the head and used by a user in a high noise work site such as in a factory. As illustrated in FIG. 1, the audio-video input / output device according to the present embodiment includes n (≧ 2) sound collecting units M 1 ,..., M n , a sound emitting unit S, a photographing unit V, a video display unit G, It includes a dial operation unit D, a button operation unit B, and a communication recording unit C.

収音部M1,…,Mnは、利用者が装着した際に利用者の周囲の音を収音するマイクロホンである。図1の例では、1個の収音部M1が利用者の口元に配置され、n-1個の収音部M2,…,Mnが後頭部に水平に配列される構成を示したが、利用者の発話を含む周囲の音を収音可能であればどのような配置でもよい。 The sound pickup units M 1 ,..., M n are microphones that pick up sounds around the user when worn by the user. In the example of FIG. 1, one sound collecting unit M 1 is disposed on the mouth of the user, n-1 pieces of sound pickup unit M 2, ..., M n showed configured to be horizontally arranged in back of the head However, any arrangement may be used as long as surrounding sounds including the utterance of the user can be collected.

放音部Sは、利用者が装着した際に利用者の耳に対応する位置に配置されたヘッドホンである。ヘッドホンは一般的に両耳に対して用意されるものであるが、本形態の放音部Sは、少なくとも片方の耳に対して用意されていればよく、通常どおり両耳に対して用意されていてもよい。   The sound emitting unit S is a headphone arranged at a position corresponding to the user's ear when worn by the user. Headphones are generally prepared for both ears, but the sound emitting section S of this embodiment only needs to be prepared for at least one ear, and is normally prepared for both ears. May be.

撮影部Vは、利用者が装着した際に利用者の視野に対応する領域に画角が設定され、利用者の視野に対応する領域を撮影するビデオカメラである。図1の例では、利用者の額の位置に配置される構成を示したが、利用者の視野に対応する領域が撮影可能であればどのような位置に配置されてもよい。ただし、撮影部Vは、利用者の視野を遮らない位置に配置されることが望ましい。   The imaging unit V is a video camera that sets an angle of view in an area corresponding to the user's field of view when worn by the user, and captures an area corresponding to the user's field of view. In the example of FIG. 1, the configuration in which the image is arranged at the position of the user's forehead is shown. However, the image may be arranged at any position as long as an area corresponding to the user's visual field can be photographed. However, it is desirable that the photographing unit V is arranged at a position that does not obstruct the visual field of the user.

映像表示部Gは、利用者が装着した際に利用者の視野に入る位置に画面が配置された透過スクリーンを用いた小型ディスプレイである。映像表示部Gは透過型であるため、映像出力がない状態では利用者の視界を遮ることがなく、映像出力がある状態では利用者から見て前方の光景に対して映像が重畳して視認される。ここでは工場内などの作業現場における利用を想定しているため、粉塵等の飛来物から利用者の目を守る効果もある。映像表示部Gは、利用者の視野の範囲外に退避させることが可能な可動式となっている。例えば、正確な色彩を確認するなどで肉眼による確認が必要な場合には利便性が高い。退避させた際には、撮影部Vの画角に入らない位置に収納されることが望ましい。   The image display unit G is a small-sized display using a transmissive screen in which a screen is arranged at a position within a user's visual field when worn by the user. Since the image display unit G is a transmission type, it does not obstruct the user's field of view when there is no image output, and when there is an image output, the image is superimposed on the scene in front of the user and visually recognized. Is done. Here, since it is assumed to be used at a work site such as in a factory, there is also an effect of protecting a user's eyes from flying substances such as dust. The image display unit G is a movable type that can be retracted outside the range of the user's field of view. For example, when it is necessary to confirm with the naked eye such as confirming an accurate color, the convenience is high. It is desirable that when retracted, it be stored in a position that does not enter the angle of view of the photographing unit V.

ダイヤル操作部Dは、放音部Sの表面のうち利用者が装着した際に利用者の耳と反対側になる面に配置され、利用者の耳の位置を中心軸として回転自在な大型ダイヤルである。ダイヤル操作部Dは、円形のダイヤルの側面に複数の凸凹が形成されており、例えば利用者が厚い手袋などを装着している状況であっても指先で容易に操作が可能となるように形成される。ダイヤル操作部Dは、回転操作が行われた際に操作された回転方向および回転角度を示すダイヤル操作信号dを出力する。ダイヤル操作部Dの位置は必ずしも放音部Sの表面でなくともよく、利用者が操作可能な位置であればどのように配置してもよい。   The dial operating unit D is arranged on a surface of the sound emitting unit S that is opposite to the user's ear when worn by the user, and is rotatable about the position of the user's ear as a central axis. It is. The dial operation part D has a plurality of irregularities formed on the side surface of the circular dial, and is formed so that, for example, even when the user is wearing thick gloves, the operation can be easily performed with a fingertip. Is done. The dial operation unit D outputs a dial operation signal d indicating a rotation direction and a rotation angle operated when the rotation operation is performed. The position of the dial operation unit D does not necessarily have to be on the surface of the sound emitting unit S, and may be arranged in any manner as long as the position can be operated by the user.

ボタン操作部Bは、ダイヤル操作部Dの表面のうち回転軸の位置に配置され、回転ダイヤルの中心軸の方向へ押下可能なボタンである。ボタン操作部Bは、キャップ部分が無押下状態でもダイヤル操作部Dの表面からわずかにくぼんだ位置になるように設定することで、意図しないボタン押下により誤動作を起こすことを防止できる。ボタン操作部Bは、押下操作が行われた際に押下状態を示すボタン操作信号bを出力する。   The button operation unit B is a button that is disposed at the position of the rotation axis on the surface of the dial operation unit D and that can be pressed in the direction of the center axis of the rotation dial. By setting the button operation unit B so that it is slightly depressed from the surface of the dial operation unit D even when the cap is not pressed, it is possible to prevent malfunction due to unintended button press. The button operation unit B outputs a button operation signal b indicating a pressed state when a pressing operation is performed.

通信記録部Cは、遠隔にいる通信相手と無線もしくは有線の通信経路を確立し、音声信号および映像信号の送受信を行う。また、送受信を行った音声信号および映像信号や、収音部M1,…,Mnを用いて取得した音声信号および撮影部Vを用いて取得した映像信号を記録媒体等に記録する。 The communication recording unit C establishes a wireless or wired communication path with a remote communication partner, and transmits and receives an audio signal and a video signal. In addition, an audio signal and a video signal transmitted and received, an audio signal acquired by using the sound pickup units M 1 ,..., M n and a video signal acquired by using the imaging unit V are recorded on a recording medium or the like.

図2を参照して、第一実施形態の音声映像入出力装置の動作を説明する。本形態の音声映像入出力装置は、収音部M1,…,Mn、放音部S、撮影部V、映像表示部G、ダイヤル操作部D、ボタン操作部B、および通信記録部Cに加えて、入力音声強調部1、音声認識部2、機能制御部3、音声生成部4、映像取得部5、および映像生成部6を含む。通信記録部Cは、図2に示すように、音声出力部C1、音声入力部C2、映像出力部C3、および映像入力部C4を含む。 With reference to FIG. 2, the operation of the audiovisual input / output device of the first embodiment will be described. Audiovisual output device of the present embodiment, the sound collection unit M 1, ..., M n, sound emitting section S, imaging unit V, the video display unit G, the dial operation unit D, the button operations part B, and the communication record unit C In addition to the above, an input voice emphasis unit 1, a voice recognition unit 2, a function control unit 3, a voice generation unit 4, a video acquisition unit 5, and a video generation unit 6 are included. As shown in FIG. 2, the communication recording unit C includes an audio output unit C1, an audio input unit C2, a video output unit C3, and a video input unit C4.

入力音声強調部1は、収音部M1,…,Mnがそれぞれ収音した音響信号x1,…,xnに対して目的音強調処理を行い、音響信号x1,…,xnに含まれる音声が強調された音声強調信号aoを出力する。音声強調信号aoは音声認識部2、音声生成部4、および音声出力部C1へ送られる。利用者の口元にある収音部M1が収音した音響信号x1には利用者の音声と環境雑音が含まれており、利用者の音声が届きにくい位置に配置された収音部M2,…,Mnがそれぞれ収音した音響信号x2,…,xnには環境雑音のみが含まれていることが期待できる。したがって、音響信号x1において音響信号x2,…,xnに含まれる環境雑音を抑圧することで、利用者の音声を強調した音響信号を得ることができる。目的音強調処理は上記の方法に限定されず、公知のどのような方法を適用してもよい。例えば、下記参考文献1に記載の音響信号強調技術を利用することができる。
〔参考文献1〕特開2013−179388号公報
Input speech enhancement unit 1, the sound collection unit M 1, ..., acoustic signals x 1 M n is picked up, respectively, ..., performs target sound enhancement process on x n, the acoustic signals x 1, ..., x n and it outputs the audio enhancement signal a o speech is emphasized contained. The voice emphasis signal ao is sent to the voice recognition unit 2, the voice generation unit 4, and the voice output unit C1. The acoustic signals x 1 to the sound collection unit M 1 in the mouth of the user picked up includes a voice and environmental noise of the user, sound pickup unit M arranged in hard to reach locations the user's voice 2, ..., acoustic signals x 2 M n is picked up, respectively, ..., the x n can be expected to contain only the environmental noise. Therefore, by suppressing the environmental noise included in the audio signals x 2 ,..., X n in the audio signal x 1 , an audio signal emphasizing the user's voice can be obtained. The target sound emphasis processing is not limited to the above method, and any known method may be applied. For example, an acoustic signal enhancement technique described in Reference Document 1 below can be used.
[Reference Document 1] JP 2013-179388 A

音声認識部2は、音声強調信号aoに対して音声認識を行い、音声認識結果opを出力する。音声認識処理は公知のどのような方法を適用してもよい。音声認識結果opは機能制御部3へ送られる。音声認識部2は音声認識処理を自ら実行するものでなくてもよく、遠隔に設置された音声認識装置に対して音声強調信号aoを送信し、その音声認識装置から返信される音声認識結果を音声認識結果opとして出力するものであってもよい。このとき、音声認識装置との通信は、通信記録部Cを用いて行えばよい。 Speech recognition unit 2 performs speech recognition on the speech enhancement signals a o, and outputs the voice recognition results op. For the voice recognition processing, any known method may be applied. The voice recognition result op is sent to the function control unit 3. The voice recognition unit 2 does not need to execute the voice recognition process itself, but transmits the voice emphasis signal ao to a remotely installed voice recognition device, and returns a voice recognition result returned from the voice recognition device. May be output as the voice recognition result op. At this time, communication with the voice recognition device may be performed using the communication recording unit C.

機能制御部3は、ダイヤル操作部Dからのダイヤル操作信号d、ボタン操作部Bからのボタン操作信号b、および音声認識部2からの音声認識結果opに基づいて、音声映像入出力装置の機能を制御するための制御信号c1,…,c5を生成する。制御信号の内容は、利用者が映像表示部Gの表示に従ってダイヤル操作、ボタン操作、および音声コマンド入力により選択した内容により定まる。個別の機能に対する操作例は後述するが、ダイヤル操作、ボタン操作、および音声コマンド入力をどのように組み合わせて操作インターフェースを構成するかは任意である。例えば、基本的な操作として、音声コマンド入力により機能の呼び出しを行い、ダイヤル操作により選択肢の選択を行い、ボタン操作により選択を確定する流れが考えられる。また、音声コマンド入力により選択肢の指定から確定までを一括で行うことも可能である。制御信号は制御対象とする構成部に応じて個別に生成される。例えば、制御信号c1は入力音声強調部1に対する制御を行う信号である。制御信号c2は音声生成部4に対する制御を行う信号である。制御信号c3は映像取得部5に対する制御を行う信号である。制御信号c4は映像生成部6に対する制御を行う信号である。制御信号c5は音声認識部2に対する制御を行う信号である。 Based on the dial operation signal d from the dial operation unit D, the button operation signal b from the button operation unit B, and the voice recognition result op from the voice recognition unit 2, the function control unit 3 control signals c 1 for controlling, ..., to produce a c 5. The content of the control signal is determined by the content selected by the user through dial operation, button operation, and voice command input according to the display on the video display unit G. Although an operation example for an individual function will be described later, how to combine the dial operation, the button operation, and the voice command input to configure the operation interface is arbitrary. For example, as a basic operation, a flow in which a function is called by inputting a voice command, an option is selected by a dial operation, and the selection is confirmed by a button operation may be considered. Further, it is also possible to collectively perform the process from designation of an option to determination by inputting a voice command. The control signals are individually generated according to the components to be controlled. For example, the control signal c 1 is a signal for controlling the input voice emphasizing unit 1. The control signal c 2 is a signal for controlling the sound generator 4. The control signal c 3 is a signal for controlling the video acquisition unit 5. The control signal c 4 is a signal for controlling the video generator 6. Control signal c 5 is a signal for controlling for the speech recognition unit 2.

音声出力部C1は、入力音声強調部1の出力する音声強調信号aoを遠隔の通信相手へ向けて送信する。もしくは音声強調信号aoを図示していない記録媒体に記憶する。 The audio output unit C1 transmits the audio enhancement signal ao output from the input audio enhancement unit 1 to a remote communication partner. Alternatively, the voice enhancement signal ao is stored in a recording medium (not shown).

音声入力部C2は、遠隔の通信相手から遠隔音声信号aiを受信する。受信した遠隔音声信号aiは音声生成部4へ送られる。遠隔音声信号aiは、例えば、遠隔の通信相手が利用者に対して行うべき作業内容を指示する音声などである。 The voice input unit C2 receives a remote voice signal ai from a remote communication partner. The received remote audio signal a i is sent to the audio generation unit 4. The remote voice signal ai is, for example, a voice that instructs a user to perform a task to be performed by a remote communication partner.

音声生成部4は、入力音声強調部1の出力する音声強調信号aoと、音声入力部C2の出力する遠隔音声信号aiがあれば遠隔音声信号aiとを用いて出力音響信号asを生成し、その出力音響信号asを放音部Sへ出力する。音声強調信号aoは、例えば、高騒音環境で利用しており自分の話す声も自分で聞き取りづらい場合などに、利用者の音声をフィードバックするために利用される。また、あらかじめ録音した音声を通信記録部Cなどに記憶しておき、その音声を再生することで遠隔音声信号aiとして利用してもよい。 Sound generation unit 4, speech enhancement signal outputs of the input speech enhancement unit 1 a o and the output to the remote audio signal a i if there is a remote audio signal a i and the output sound signal a s using a speech input unit C2 , and outputs the output sound signal a s to the sound emitting section S. The voice emphasis signal ao is used to feed back the voice of the user, for example, when the voice is used in a high-noise environment and it is difficult to hear the user's own voice. Alternatively, the voice recorded in advance may be stored in the communication recording unit C or the like, and the voice may be reproduced and used as the remote voice signal ai .

映像取得部5は、撮影部Vを用いて撮影した映像信号voを取得する。取得した映像信号voは映像出力部C3へ送られる。 The video acquisition unit 5 acquires a video signal v o captured using the imaging unit V. The obtained video signal v o is sent to the video output unit C3.

映像出力部C3は、映像取得部5の出力する映像信号voを遠隔の通信相手へ向けて送信する。もしくは映像信号voを図示していない記録媒体に記憶する。 The video output unit C3 transmits the video signal vo output from the video acquisition unit 5 to a remote communication partner. Alternatively, the video signal vo is stored in a recording medium (not shown).

映像入力部C4は、遠隔の通信相手から遠隔映像信号viを受信する。受信した遠隔映像信号viは映像生成部6へ送られる。遠隔映像信号viは、例えば、利用者が行うべき作業において必要とされる参考情報などである。 Image input unit C4 receives remote video signals v i from a remote communication partner. Received remote video signal v i is sent to the image generation unit 6. Remote video signal v i is, for example, reference information required in the work to be performed by the user.

映像生成部6は、映像取得部5の出力する映像信号voと、映像入力部C4が出力する遠隔映像信号viがあれば遠隔映像信号viとを用いて出力映像信号vsを生成し、その出力映像信号vsを映像表示部Gへ出力する。 Image generating unit 6, generates a video signal v o output from the image capturing section 5, an output video signal v s using the remote video signal v i If the remote video signal v i output from the image input unit C4 and outputs the output video signal v s to the video display unit G.

図3は、本形態の音声映像入出力装置において環境設定を行う際の利用イメージである。まず、利用者は音声コマンド入力により「環境」と入力する。機能制御部3は「環境」という音声認識結果opに基づいて、環境設定機能を呼び出すための制御信号c4を映像生成部6へ送る。映像生成部6は現在の環境設定を映像表示部Gの透過スクリーンに表示する。図3の例では、現在の環境設定は「建設現場」であり、その他の設定候補として「トンネル」や「サーバ室」などが表示される。これらの選択肢とそれに紐づく動作パラメータはあらかじめ設定しておく。利用者がダイヤル操作部Dを回転させると、ダイヤル操作信号dが機能制御部3へ入力され、環境設定候補を変更するための制御信号c4が映像生成部6へ送られる。ダイヤル操作により所望の環境設定候補を選択した後にボタン操作部Bを押下すると、ボタン操作信号bが機能制御部3へ入力され、環境設定の変更を確定するための制御信号c1およびc5が入力音声強調部1および音声認識部2へ送られる。入力音声強調部1および音声認識部2は制御信号c1およびc5に従って動作パラメータを変更する。目的音強調処理や音声認識処理は環境により最適な動作パラメータが異なることが一般的であるため、利用環境を正しく設定することでより精度の高い処理結果が得られることが期待できる。 FIG. 3 is an image used when setting the environment in the audio-video input / output device of the present embodiment. First, the user inputs "environment" by voice command input. The function control unit 3 sends a control signal c 4 for calling the environment setting function to the video generation unit 6 based on the voice recognition result op “environment”. The image generation unit 6 displays the current environment setting on the transmission screen of the image display unit G. In the example of FIG. 3, the current environment setting is “construction site”, and “tunnel”, “server room”, and the like are displayed as other setting candidates. These options and the operation parameters associated with them are set in advance. When the user rotates the dial operation unit D, the dial operation signal d is input to the function control unit 3, and the control signal c 4 for changing the environment setting candidate is sent to the video generation unit 6. And presses the button operation unit B after selecting the desired configuration candidate by dial operation, button operation signal b is input to the function control unit 3, the control signals c 1 and c 5 for confirming the change of configuration It is sent to the input voice emphasis unit 1 and the voice recognition unit 2. Input speech enhancement unit 1 and the speech recognition unit 2 changes the operating parameter in accordance with the control signals c 1 and c 5. In the target sound emphasizing process and the voice recognition process, it is general that optimal operation parameters differ depending on the environment. Therefore, it is expected that a more accurate processing result can be obtained by correctly setting the use environment.

図4は、本形態の音声映像入出力装置において音量設定を行う際の利用イメージである。まず、利用者は音声コマンド入力により「音量」と入力する。機能制御部3は「音量」という音声認識結果opに基づいて、音量設定機能を呼び出すための制御信号c4を映像生成部6へ送る。映像生成部6は現在の音量設定を映像表示部Gの透過スクリーンに表示する。図4の例では、現在の音量設定は「50」である。利用者がダイヤル操作部Dを回転させると、ダイヤル操作信号dが機能制御部3へ入力され、音量設定を変更するための制御信号c2が音声生成部4へ、音量表示を変更するための制御信号c4が映像生成部6へ送られる。音声生成部4は制御信号c2に従って放音部Sへ出力する出力音響信号asの音量を上下させる。映像生成部6は制御信号c4に従って音量表示を上下させる。 FIG. 4 is an image of use when setting the volume in the audio / video input / output device of the present embodiment. First, the user inputs "volume" by voice command input. The function control unit 3 sends a control signal c 4 for calling the volume setting function to the video generation unit 6 based on the voice recognition result op of “volume”. The image generation unit 6 displays the current volume setting on the transmission screen of the image display unit G. In the example of FIG. 4, the current volume setting is “50”. When the user rotates the dial operation unit D, a dial operation signal d is input to the function control unit 3, and a control signal c 2 for changing the volume setting is sent to the voice generation unit 4 for changing the volume display. The control signal c 4 is sent to the video generator 6. Sound generation unit 4 to lower the volume of the output sound signal a s to be output to the sound emitting unit S according to the control signal c 2. Image generation unit 6 to lower the volume display in accordance with the control signal c 4.

図5は、本形態の音声映像入出力装置において映像ズームを行う際の利用イメージである。まず、利用者は音声コマンド入力により「映像ズーム」と入力する。機能制御部3は「映像ズーム」という音声認識結果opに基づいて、映像ズーム機能を呼び出すための制御信号c4を映像生成部6へ送る。映像生成部6は撮影部Vが現在撮影している映像を映像表示部Gの透過スクリーンに表示する。利用者がダイヤル操作部Dを回転させると、ダイヤル操作信号dが機能制御部3へ入力され、映像ズームの倍率を変更するための制御信号c3が映像取得部5へ送られる。映像取得部5は撮影部Vの倍率を変化させて映像信号voを取得する。ハンズフリーで映像撮影をするときには頭上等に取り付けられたカメラ単体では正確に被写体が撮影者にわからないという課題があり、また撮影部Vを直接触るような操作も行いづらい。上述のような操作により映像ズームを行うことが可能であれば、映像範囲の確認や映像のズーム操作をスムーズに行うことが可能である。 FIG. 5 is an image used when performing video zoom in the audio / video input / output device of the present embodiment. First, the user inputs "video zoom" by voice command input. The function control unit 3 sends a control signal c 4 for calling the video zoom function to the video generation unit 6 based on the audio recognition result op “video zoom”. The video generation unit 6 displays the video currently captured by the capturing unit V on the transmission screen of the video display unit G. When the user rotates the dial operation unit D, a dial operation signal d is input to the function control unit 3, and a control signal c 3 for changing the magnification of the image zoom is sent to the image acquisition unit 5. The video acquisition unit 5 acquires the video signal vo by changing the magnification of the imaging unit V. There is a problem that when photographing an image in a hands-free manner, the subject alone cannot be accurately recognized by a photographer with a single camera mounted overhead or the like, and it is difficult to perform an operation of directly touching the photographing unit V. If the image zoom can be performed by the above-described operation, it is possible to smoothly check the image range and smoothly perform the image zoom operation.

図6は、本形態の音声映像入出力装置において映像追跡を行う際の利用イメージである。まず、利用者は音声コマンド入力により「映像追跡」と入力する。機能制御部3は「映像追跡」という音声認識結果opに基づいて、映像追跡機能を呼び出すための制御信号c4を映像生成部6へ送る。映像生成部6は撮影部Vが現在撮影している映像において映像中の追跡対象候補をハイライトさせながら映像表示部Gの透過スクリーンに表示する。図6の例では、3個の物体が追跡対象候補として表示されており、透過スクリーン左上に位置する物体が追跡対象候補としてハイライト表示されている。ここで利用者がダイヤル操作部Dを回転させると、ダイヤル操作信号dが機能制御部3へ入力され、追跡対象候補を切り替えるための制御信号c4が映像生成部6へ送られる。利用者がダイヤル操作により所望の追跡対象候補を選択し、その状態でボタン操作部Bを押下すると、ボタン操作信号bが機能制御部3へ入力され、追跡対象を決定するための制御信号c3が映像取得部5へ送られる。映像取得部5は、制御信号c3に従って決定した追跡対象の映像追跡を開始する。以降、追跡対象が撮影部Vの画角に存在する限り、その追跡対象を中心とした映像信号voが撮影される。映像追跡と映像ズームを組み合わせることにより、視界内の任意の物体をズームしながら追跡することが可能である。この場合、撮影部Vはパン・チルト・ズーム機能に対応している必要がある。利用者がダイヤル操作を行うことが困難な状況を想定して音声コマンド入力による追跡対象の選択も可能である。利用者が「右」「左」などを音声コマンド入力することで追跡対象候補を切り替えたり、画面上の座標を直接音声コマンド入力することにより追跡対象候補を選択したりする方法が考えられる。音声コマンド入力による追跡対象の選択を行うことで完全にハンズフリーでの操作が可能となる。 FIG. 6 is an image used when performing video tracking in the audio / video input / output device of the present embodiment. First, the user inputs "video tracking" by voice command input. The function control unit 3 sends a control signal c 4 for calling the video tracking function to the video generation unit 6 based on the voice recognition result op of “video tracking”. The image generation unit 6 displays on the transmission screen of the image display unit G while highlighting the tracking target candidate in the image in the image currently captured by the imaging unit V. In the example of FIG. 6, three objects are displayed as tracking target candidates, and an object located at the upper left of the transmissive screen is highlighted as a tracking target candidate. Here, when the user rotates the dial operation unit D, a dial operation signal d is input to the function control unit 3, and a control signal c 4 for switching the tracking target candidate is sent to the video generation unit 6. When the user selects a desired tracking target candidate by a dial operation and presses the button operation unit B in that state, a button operation signal b is input to the function control unit 3 and a control signal c 3 for determining the tracking target is set. Is sent to the video acquisition unit 5. Video acquisition unit 5 starts video tracking of the tracking target determined in accordance with the control signal c 3. Thereafter, as long as the tracking target exists at the angle of view of the imaging unit V, the video signal vo centering on the tracking target is captured. By combining the video tracking and the video zoom, it is possible to track any object in the field of view while zooming. In this case, the photographing unit V needs to support the pan / tilt / zoom functions. Assuming a situation where it is difficult for the user to perform a dial operation, a tracking target can be selected by voice command input. A method is conceivable in which the user switches the tracking target candidate by inputting a voice command such as “right” or “left”, or selects the tracking target candidate by inputting a voice command directly on the screen. Selecting a tracking target by inputting a voice command enables completely hands-free operation.

[第二実施形態]
第二実施形態の音声映像入出力装置は、図7に例示するように、n(≧2)個の収音部M1,…,Mn、放音部S、撮影部V、映像表示部G、ダイヤル操作部D、ボタン操作部B、および通信記録部Cを第一実施形態と同様に含み、さらにm-n個(m≧4)の前方収音部Mn+1,…,Mmを含む。また、本形態の音声映像入出力装置は、図8に例示するように、第一実施形態の音声映像入出力装置の各構成部に加えて、目的音強調部7をさらに含む。
[Second embodiment]
As illustrated in FIG. 7, the audio-video input / output device of the second embodiment includes n (≧ 2) sound collecting units M 1 ,..., M n , a sound emitting unit S, a photographing unit V, and a video display unit. G, dial operation unit D, the button operations part B, and includes a communication recording portion C as in the first embodiment, the front sound pickup unit M n + 1 of the further mn number (m ≧ 4), ..., a M m Including. In addition, as illustrated in FIG. 8, the audio-video input / output device of the present embodiment further includes a target sound emphasizing unit 7 in addition to the components of the audio-video input / output device of the first embodiment.

前方収音部Mn+1,…,Mmは、利用者が装着した際に利用者の視野に対応する方向から到来する音を収音するマイクロホンである。図7では、前方収音部Mn+1,…,Mmが前頭部の撮影部V近傍に水平に配列される例を示したが、利用者の視野に対応する方向から到来する音を収音可能であればどのような配置でもよい。 The front sound pickup units M n + 1 ,..., M m are microphones that pick up sound coming from a direction corresponding to the user's field of view when worn by the user. FIG. 7 shows an example in which the front sound pickup units M n + 1 ,..., M m are arranged horizontally near the imaging unit V in the forehead, but the sound arriving from the direction corresponding to the user's visual field is shown. Any arrangement may be used as long as sound can be collected.

目的音強調部7は、前方収音部Mn+1,…,Mmがそれぞれ収音した前方音響信号xn+1,…,xmに対して目的音強調処理を行い、特定の音が強調された目的音強調信号ao2を出力する。目的音強調信号ao2は音声生成部4および音声出力部C1へ送られる。強調すべき音の特定は、利用者が音声コマンド入力、ダイヤル操作、およびボタン操作を用いて行う。具体的な特定の操作は後述する。目的音強調処理は公知のどのような方法を適用してもよく、例えば上記参考文献1に記載の音響信号強調技術を利用することができる。 Target sound enhancement unit 7, the front sound pickup unit M n + 1, ..., front audio signal x n + 1 M m is picked up, respectively, ..., performs target sound enhancement process on x m, specific sound Output the target sound emphasizing signal ao2 in which. The target sound emphasis signal ao2 is sent to the sound generation unit 4 and the sound output unit C1. The sound to be emphasized is specified by the user using voice command input, dial operation, and button operation. Specific specific operations will be described later. For the target sound emphasis processing, any known method may be applied. For example, the sound signal emphasis technique described in the above-mentioned Reference 1 can be used.

図9は、本形態の音声映像入出力装置において音声ズームを行う際の利用イメージである。音声ズームとは、特定の音源から到来する音を集中的に収音する機能である。まず、利用者は音声コマンド入力により「音声ズーム」と入力する。機能制御部3は「音声ズーム」という音声認識結果opに基づいて、音声ズーム機能を呼び出すための制御信号c4を映像生成部6へ送る。映像生成部6は現在の音声ズームの設定(中心位置と倍率)を映像表示部Gの透過スクリーンに表示する。図9の例では、太線の円の中心がズーム位置を示し、円の半径がズーム倍率の大きさを示している。利用者はダイヤル操作とボタン操作により音声ズームの設定を変更する。まずダイヤル操作部Dを回転させると透過スクリーン上でズーム位置の横座標が移動する。所望の位置でボタン操作部Bを押下すると横座標が確定する。次にダイヤル操作部Dを回転させると透過スクリーン上でズーム位置の縦座標が移動する。所望の位置でボタン操作部Bを押下すると縦座標が確定する。その後ダイヤル操作部Dを回転させるとズームの倍率が変化する。最後にボタン操作部Bを押下すると、音声ズーム設定の変更を確定するための制御信号制御信号c1が目的音強調部7へ送られる。目的音強調部7は特定された方向から到来する音を指定の倍率で強調した目的音強調信号ao2を出力する。音声ズームは工事現場もしくは災害現場などで、装着者の視点からの映像と音声を記録する用途が考えられる。特に、騒音下で遠距離の人物や物体の音を選択的に聞き分ける際に、透過スクリーンと連動して音声ズーム設定が行えることにより、直観的かつ効率的に操作をすることができる。上述のような操作方法は、装着者の目の位置と前方収音部Mn+1,…,Mmの位置関係が近くかつ一定であるというヘルメット一体型の装置であるがゆえに実現できるものである。 FIG. 9 is an image used when performing audio zoom in the audio / video input / output device of the present embodiment. The audio zoom is a function for collecting sound coming from a specific sound source in a concentrated manner. First, the user inputs "voice zoom" by voice command input. The function control unit 3 sends a control signal c 4 for calling the voice zoom function to the video generation unit 6 based on the voice recognition result op “voice zoom”. The video generation unit 6 displays the current audio zoom setting (center position and magnification) on the transmission screen of the video display unit G. In the example of FIG. 9, the center of the thick circle indicates the zoom position, and the radius of the circle indicates the magnitude of the zoom magnification. The user changes the audio zoom setting by dialing and button operation. First, when the dial operation unit D is rotated, the abscissa of the zoom position moves on the transmission screen. When the button operation unit B is pressed at a desired position, the abscissa is determined. Next, when the dial operation unit D is rotated, the ordinate of the zoom position moves on the transmission screen. When the button operation unit B is pressed at a desired position, the ordinate is determined. Thereafter, when the dial operation unit D is rotated, the zoom magnification changes. Finally pressing the button operation unit B, the control signal control signal c 1 for determining the change of the audio zoom setting is sent to the target sound is emphasized section 7. The target sound emphasis unit 7 outputs a target sound emphasis signal ao2 in which a sound coming from the specified direction is emphasized at a specified magnification. Audio zoom can be used to record video and audio from the wearer's point of view at construction sites or disaster sites. In particular, when the sound of a person or an object at a long distance is selectively distinguished under noise, the audio zoom setting can be performed in conjunction with the transmission screen, so that the operation can be performed intuitively and efficiently. Those instructions as described above, the wearer's eye position and a forward sound pickup unit M n + 1, ..., can be realized because it is a helmet integrated device that the position relation of M m is close and constant It is.

図10は、本形態の音声映像入出力装置において音声追跡を行う際の利用イメージである。まず、利用者は音声コマンド入力により「音声追跡」と入力する。機能制御部3は「音声追跡」という音声認識結果opに基づいて、音声追跡機能を呼び出すための制御信号c4を映像生成部6へ送る。映像生成部6は撮影部Vが現在撮影している映像において映像中の追跡対象候補をハイライトさせながら映像表示部Gの透過スクリーンに表示する。図10の例では、3個の物体が追跡対象候補として表示されており、透過スクリーン左上に位置する物体が追跡対象候補としてハイライト表示されている。利用者がダイヤル操作部Dを回転させると、ダイヤル操作信号dが機能制御部3へ入力され、追跡対象候補を切り替えるための制御信号c4が映像生成部6へ送られる。利用者がダイヤル操作により所望の追跡対象候補を選択し、その状態でボタン操作部Bを押下すると、ボタン操作信号bが機能制御部3へ入力され、追跡対象を決定するための制御信号c1が目的音強調部7へ送られる。目的音強調部7は、制御信号c1に従って決定した追跡対象の音声追跡を開始する。以降、追跡対象が撮影部Vの画角に存在する限り、その追跡対象の方向から到来する音を強調した目的音強調信号ao2が出力される。音声追跡と音声ズームを組み合わせることにより、音声強調の倍率を指定することも可能である。利用者がダイヤル操作を行うことが困難な状況を想定して音声コマンド入力による追跡対象の選択も可能である。利用者が「右」「左」などを音声コマンド入力することで追跡対象候補を切り替えたり、画面上の座標を直接音声コマンド入力することにより追跡対象候補を選択したりする方法が考えられる。音声コマンド入力による追跡対象の選択を行うことで完全にハンズフリーでの操作が可能となる。 FIG. 10 is an image used when performing audio tracking in the audio-video input / output device of the present embodiment. First, the user inputs "voice tracking" by voice command input. The function control unit 3 sends a control signal c 4 for calling the voice tracking function to the video generation unit 6 based on the voice recognition result op “voice tracking”. The image generation unit 6 displays on the transmission screen of the image display unit G while highlighting the tracking target candidate in the image in the image currently captured by the imaging unit V. In the example of FIG. 10, three objects are displayed as tracking target candidates, and an object located at the upper left of the transmissive screen is highlighted as a tracking target candidate. When the user rotates the dial operation unit D, a dial operation signal d is input to the function control unit 3, and a control signal c 4 for switching the tracking target candidate is sent to the video generation unit 6. When the user selects a desired tracking target candidate by a dial operation and presses the button operation unit B in that state, a button operation signal b is input to the function control unit 3 and a control signal c 1 for determining the tracking target. Is sent to the target sound emphasizing unit 7. Target sound enhancement unit 7 starts the tracked audio track determined in accordance with the control signal c 1. Thereafter, as long as the tracking target exists at the angle of view of the imaging unit V, the target sound emphasis signal ao2 that emphasizes the sound coming from the direction of the tracking target is output. By combining the voice tracking and the voice zoom, it is also possible to specify the magnification of voice emphasis. Assuming a situation where it is difficult for the user to perform a dial operation, a tracking target can be selected by voice command input. A method is conceivable in which the user switches the tracking target candidate by inputting a voice command such as “right” or “left”, or selects the tracking target candidate by inputting a voice command directly on the screen. By selecting a tracking target by inputting a voice command, a completely hands-free operation becomes possible.

[第三実施形態]
第一実施形態および第二実施形態において、音声生成部4が外部雑音抑圧機能を備えるように構成してもよい。この場合、音声生成部4は、既存の収音部、前方収音部、もしくは専用の収音部を用いて放音部S周辺の環境雑音を取得し、その環境雑音を抑圧する信号を生成して出力音響信号asに加算することで環境雑音を抑圧する。このように構成することにより、騒音下で利用する場合に、放音部Sから出力される出力音響信号asが利用者にとってより聞き取りやすくなる効果がある。外部雑音抑圧処理は、公知のどのような方法を適用してもよく、例えば下記参考文献2に記載された雑音抑圧技術を用いることができる。
〔参考文献2〕特開平7−303135号公報
[Third embodiment]
In the first embodiment and the second embodiment, the sound generation unit 4 may be configured to have an external noise suppression function. In this case, the sound generation unit 4 obtains environmental noise around the sound emitting unit S using an existing sound collection unit, a front sound collection unit, or a dedicated sound collection unit, and generates a signal for suppressing the environmental noise. suppressing environmental noise by adding the output sound signal a s to. With such a configuration, when utilized in noisy, there is an effect that the output acoustic signal a s outputted from the sound emitting portion S is easily heard more for the user. For the external noise suppression processing, any known method may be applied, and for example, a noise suppression technique described in Reference Document 2 below can be used.
[Reference Document 2] JP-A-7-303135

この発明の音声映像入出力装置のポイントは以下のとおりである。一点目は、一体型ヘルメットに目的音強調用の複数のマイクロホンを設置し、装着者の発話や周囲の音を容易に集音できるようにした点である。二点目は、装着されたカメラと複数のマイクロホンをコントロールする直観的なインターフェースとして透過スクリーンと、音声コマンド入力やダイヤル操作、ボタン操作の機能を備え、映像と音声のコントロールを直観的かつ効率的に行えるようにした点である。   The points of the audio / video input / output device of the present invention are as follows. The first point is that a plurality of microphones for emphasizing the target sound are installed on the integrated helmet so that the wearer's utterance and surrounding sounds can be easily collected. The second feature is a transparent screen as an intuitive interface for controlling the mounted camera and multiple microphones, as well as voice command input, dial operation, and button operation functions, making video and audio control intuitive and efficient. This is the point that can be done.

この発明の音声映像入出力装置は、目的音強調機能を有しているため、高騒音環境下でも装着者の音声が明瞭に収音できる。その結果、装着者の意図を装置に伝える手段として音声コマンド入力を安定的に用いることができる。また、ダイヤルと透過スクリーンを具備したヘルメット一体型の装置とすることにより、マイクやカメラの撮影・収音について方向や強調率・倍率といったパラメータを直観的に操作することができるようになる。さらに、一体型とすることにより、装着者は両手をフリーにしながら、通信相手と現場の動画を共有しつつ、遠隔から指示を受けるなどの作業が可能となる。特に、高騒音の場所や工事現場など危険な場所で遠隔の指示者とやり取りをしながら、もしくは電子データを確認しながら作業を行う必要があるようなケースで、この発明の音声映像入出力装置を用いることで安全かつ正確、効率的に作業を行うことが可能となる。   Since the audio-video input / output device of the present invention has the target sound emphasizing function, the voice of the wearer can be collected clearly even in a high-noise environment. As a result, the voice command input can be used stably as a means for communicating the intention of the wearer to the device. In addition, by using a helmet-integrated device equipped with a dial and a transmissive screen, parameters such as direction, emphasis rate, and magnification can be intuitively operated for photographing and sound pickup by a microphone and a camera. Furthermore, by using the integrated type, the wearer can perform work such as receiving instructions from a remote place while sharing moving images of the site with a communication partner while keeping both hands free. In particular, in a case where it is necessary to work while communicating with a remote instructor in a dangerous place such as a high noise place or a construction site, or while confirming electronic data, the audio / video input / output device of the present invention is used. It is possible to work safely, accurately, and efficiently by using.

この発明は上述の実施形態に限定されるものではなく、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。上記実施形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。   The present invention is not limited to the above embodiment, and it goes without saying that changes can be made as appropriate without departing from the spirit of the present invention. The various processes described in the above embodiment may be performed not only in chronological order according to the order described, but also in parallel or individually according to the processing capability of the device that executes the process or as necessary.

[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
[Program, recording medium]
When the various processing functions in each device described in the above embodiment are implemented by a computer, the processing content of the function that each device should have is described by a program. By executing this program on a computer, various processing functions of the above-described devices are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。   A program describing this processing content can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The distribution of the program is performed by, for example, selling, transferring, lending, or the like, a portable recording medium such as a DVD or a CD-ROM on which the program is recorded. Further, the program may be stored in a storage device of a server computer, and the program may be distributed by transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. Then, when executing the process, the computer reads the program stored in its own recording medium and executes the process according to the read program. Further, as another execution form of the program, the computer may directly read the program from the portable recording medium and execute processing according to the program, and further, the program may be transferred from the server computer to the computer. Each time, the processing according to the received program may be sequentially executed. A configuration in which the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by executing instructions and obtaining results without transferring a program from the server computer to the computer. It may be. It should be noted that the program in the present embodiment includes information used for processing by the computer and which is similar to the program (data that is not a direct command to the computer but has characteristics that define the processing of the computer).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   In this embodiment, the present apparatus is configured by executing a predetermined program on a computer. However, at least a part of the processing may be realized by hardware.

M 収音部
S 放音部
V 撮影部
G 映像表示部
C 通信記録部
D ダイヤル操作部
B ボタン操作部
1 入力音声強調部
2 音声認識部
3 機能制御部
4 音声生成部
5 映像取得部
6 映像生成部
7 目的音強調部
C1 音声出力部
C2 音声入力部
C3 映像出力部
C4 映像入力部
M sound collection unit S sound emission unit V shooting unit G video display unit C communication recording unit D dial operation unit B button operation unit 1 input voice enhancement unit 2 voice recognition unit 3 function control unit 4 voice generation unit 5 video acquisition unit 6 video Generation unit 7 Target sound enhancement unit C1 Audio output unit C2 Audio input unit C3 Video output unit C4 Video input unit

Claims (2)

利用者の音声と環境雑音とを含む周囲の音を収音する複数の収音部と、
上記利用者の視野に対応する領域を撮影する撮影部と、
上記利用者の視野に入る位置に画面が配置された映像表示部と、
回転操作に応じて回転方向および回転角度を示すダイヤル操作信号を出力するダイヤル操作部と、
上記ダイヤル操作部の表面において回転軸の位置に配置され押下状態を示すボタン操作信号を出力するボタン操作部と、
上記収音部を用いて取得した音響信号を音声認識して音声認識結果を生成する音声認識部と、
上記撮影部を用いて映像信号を取得する映像取得部と、
上記映像信号を用いて生成した出力映像信号を上記映像表示部へ出力する映像生成部と、
上記ダイヤル操作信号、上記ボタン操作信号、および上記音声認識結果に基づいて、上記映像取得部、上記音声認識部、および上記映像生成部の機能を制御する制御信号を生成する機能制御部と、を含み、
上記複数の収音部は、
上記利用者の音声と上記環境雑音とを収音するために上記利用者の口元に配置された第一マイクロホンと、上記環境雑音のみを収音するために上記利用者の音声が届きにくい位置に配置された第二マイクロホンと、を含み、
上記ダイヤル操作部と上記ボタン操作部とを交互に操作することで、上記映像表示部に表示された映像のうち音声ズームの対象とする座標および範囲を変更可能とし、さらに、
上記機能制御部は、上記音声認識結果が音声追跡機能を呼び出すためのものであった場合、
上記表示部に前記映像信号に含まれる複数の追跡対象候補をハイライト表示し、
上記利用者の操作に基づく上記ダイヤル操作信号と上記ボタン操作信号若しくは上記利用者が発した音声コマンドに基づき上記追跡対象候補の選択を切り替え、選択された追跡対象候補を追跡対象とし、
上記追跡対象が上記撮影部の画角に存在する限り、上記追跡対象として選択された方向から到来する音を、音声ズームの対象とし続ける
音声映像入出力装置。
A plurality of sound collecting units for collecting surrounding sounds including a user's voice and environmental noise;
A photographing unit for photographing an area corresponding to the user's field of view,
An image display unit in which a screen is arranged at a position within the field of view of the user,
A dial operation unit that outputs a dial operation signal indicating a rotation direction and a rotation angle according to the rotation operation,
A button operation unit that is arranged at the position of the rotation axis on the surface of the dial operation unit and outputs a button operation signal indicating a pressed state,
A voice recognition unit that generates a voice recognition result by performing voice recognition on an acoustic signal obtained using the sound collection unit;
An image acquisition unit that acquires an image signal using the imaging unit,
A video generation unit that outputs an output video signal generated using the video signal to the video display unit,
Based on the dial operation signal, the button operation signal, and the voice recognition result, the video acquisition unit, the voice recognition unit, and a function control unit that generates a control signal that controls the function of the video generation unit, Including
The plurality of sound pickup units,
A first microphone placed at the mouth of the user to pick up the voice of the user and the environmental noise, and a position where the voice of the user is difficult to reach to pick up only the environmental noise And a second microphone arranged,
By alternately operating the dial operation unit and the button operation unit, it is possible to change the coordinates and range to be subjected to audio zoom among the images displayed on the image display unit,
The function control unit, when the voice recognition result is for calling a voice tracking function,
Highlighting a plurality of tracking target candidates included in the video signal on the display unit,
Switching the selection of the tracking target candidate based on the dial operation signal and the button operation signal based on the operation of the user or the voice command issued by the user, and the selected tracking target candidate as a tracking target,
An audio-video input / output device that continues to make sound arriving from a direction selected as the tracking target as an audio zoom target, as long as the tracking target exists at the angle of view of the imaging unit.
請求項1に記載の音声映像入出力装置であって、
上記第二マイクロホンは、上記利用者を中心として上記利用者の視野に対応する方向と反対方向に配置され、
上記複数の収音部は、上記利用者の視野に対応する方向から到来する音を収音するために上記撮影部の近傍に配置された第三マイクロホンをさらに含む、
音声映像入出力装置。
The audio-video input / output device according to claim 1,
The second microphone is arranged in a direction opposite to a direction corresponding to the visual field of the user with the user as a center,
The plurality of sound collection units further include a third microphone arranged near the imaging unit to collect sound coming from a direction corresponding to the user's field of view,
Audio / video input / output device.
JP2018190818A 2018-10-09 2018-10-09 Audio-video tracking device Active JP6628853B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018190818A JP6628853B2 (en) 2018-10-09 2018-10-09 Audio-video tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018190818A JP6628853B2 (en) 2018-10-09 2018-10-09 Audio-video tracking device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015088098A Division JP2016206960A (en) 2015-04-23 2015-04-23 Voice video input/output device

Publications (2)

Publication Number Publication Date
JP2019046482A JP2019046482A (en) 2019-03-22
JP6628853B2 true JP6628853B2 (en) 2020-01-15

Family

ID=65814522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018190818A Active JP6628853B2 (en) 2018-10-09 2018-10-09 Audio-video tracking device

Country Status (1)

Country Link
JP (1) JP6628853B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111696564B (en) * 2020-06-05 2023-08-18 北京搜狗科技发展有限公司 Voice processing method, device and medium
CN114040145B (en) * 2021-11-20 2022-10-21 深圳市音络科技有限公司 Video conference portrait display method, system, terminal and storage medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303574A (en) * 2004-04-09 2005-10-27 Toshiba Corp Voice recognition headset
JP4634156B2 (en) * 2005-01-07 2011-02-16 パナソニック株式会社 Voice dialogue method and voice dialogue apparatus
JP2007034942A (en) * 2005-07-29 2007-02-08 Kobe Steel Ltd Information processor and program therefor
JP2009239349A (en) * 2008-03-25 2009-10-15 Yamaha Corp Photographing apparatus
JP4864132B2 (en) * 2009-11-25 2012-02-01 中国電力株式会社 Terminal for meter reading and method for preventing erroneous meter reading
JP2012029209A (en) * 2010-07-27 2012-02-09 Hitachi Ltd Audio processing system
US9819843B2 (en) * 2012-09-20 2017-11-14 Zeriscope Inc. Head-mounted systems and methods for providing inspection, evaluation or assessment of an event or location

Also Published As

Publication number Publication date
JP2019046482A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
EP3163426B1 (en) System and method of controlling the same
US10372322B2 (en) Mobile terminal and method for controlling the same
US10217475B2 (en) Headset and method for controlling same
EP3048804B1 (en) Headphones with integral image display
CN105874408B (en) Gesture interactive wearable spatial audio system
EP3168727B1 (en) Mobile terminal and method for controlling the same
US7559026B2 (en) Video conferencing system having focus control
US9874998B2 (en) Mobile terminal and controlling method thereof
US20150054730A1 (en) Wristband type information processing apparatus and storage medium
KR20150133056A (en) Mobile terminal and control method for the mobile terminal
KR20190008610A (en) Mobile terminal and Control Method for the Same
KR20160133414A (en) Information processing device, control method, and program
JP6628853B2 (en) Audio-video tracking device
US10225650B2 (en) Directivity control system, directivity control device, abnormal sound detection system provided with either thereof and directivity control method
EP2950503A1 (en) Communication system, transfer control device, communication method, and computer program product
CN108574904B (en) Audio acquisition device, audio acquisition system, and audio acquisition method
JP5929698B2 (en) Communication system and program
US20200169660A1 (en) Mobile terminal and control method therefor
KR20160023212A (en) Glass type mobile terminal and method for controlling the same
KR20160070529A (en) Wearable device
EP3595361B1 (en) Use of local link to support transmission of spatial audio in a virtual environment
US20210405686A1 (en) Information processing device and method for control thereof
JP2016206960A (en) Voice video input/output device
US10993064B2 (en) Apparatus and associated methods for presentation of audio content
WO2019138682A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191203

R150 Certificate of patent or registration of utility model

Ref document number: 6628853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150