JP2019046482A - Voice video tracking device - Google Patents

Voice video tracking device Download PDF

Info

Publication number
JP2019046482A
JP2019046482A JP2018190818A JP2018190818A JP2019046482A JP 2019046482 A JP2019046482 A JP 2019046482A JP 2018190818 A JP2018190818 A JP 2018190818A JP 2018190818 A JP2018190818 A JP 2018190818A JP 2019046482 A JP2019046482 A JP 2019046482A
Authority
JP
Japan
Prior art keywords
unit
video
user
voice
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018190818A
Other languages
Japanese (ja)
Other versions
JP6628853B2 (en
Inventor
翔一郎 齊藤
Shoichiro Saito
翔一郎 齊藤
尚 植松
Hisashi Uematsu
尚 植松
一成 森内
Kazunari Moriuchi
一成 森内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018190818A priority Critical patent/JP6628853B2/en
Publication of JP2019046482A publication Critical patent/JP2019046482A/en
Application granted granted Critical
Publication of JP6628853B2 publication Critical patent/JP6628853B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To allow a smooth operation even in high noise environment or in a use state in which a touch operation cannot be easily performed.SOLUTION: A voice recognition part 2 performs voice recognition to an acoustic signal obtained by acquiring sound in the surrounding containing voice of a user by using a sound acquisition part M, and creates voice recognition result. A video acquisition part 5 acquires a video signal obtained by imaging an area corresponding to a visual field of the user by using an imaging part V. A voice creation part 4 outputs an output acoustic signal to a sound release part S. A video creation part 6 outputs an output video signal created by using the video signal to a video display part G. A function control part 3 creates a control signal for controlling functions of the video acquisition part 5, the voice recognition part 2, the voice creation part 4, and the video creation part 6 on the basis of a dial operation signal from a dial operation part D, a button operation signal from a button operation part B, and the voice recognition result.SELECTED DRAWING: Figure 2

Description

この発明は、音声コマンド入力による操作が可能な音声映像入出力装置である。   The present invention is an audio / video input / output device that can be operated by an audio command input.

近年、困難な作業や熟練していない作業を行う工場作業員などに対し、音声や映像などのマルチメディア技術や情報通信技術を駆使して作業効率を上げるニーズが高まっている。しかしながら、作業に必要な用具と別にノートパソコンやタブレット端末などの情報通信機器を持ち歩くことは作業員にとって大きな負担となる。また、そのような機器ではキーボード操作や画面操作が主であるが、作業員は両手を自由に使える環境にあるとは限らず、直観的な操作性が不足していることが多い。そのため、音声や映像と連携して作業を行おうとしても、作業者の意図した作業を行うことが難しいという課題がある。また、そのような環境では騒音が大きいことが多く、コミュニケーションが円滑に行えない場合が多いという課題もある。   BACKGROUND In recent years, there is a growing need for factory workers who perform difficult work and unskilled work to increase work efficiency by making full use of multimedia technology such as audio and video and information communication technology. However, carrying information communication devices such as a laptop computer and a tablet terminal separately from the tools necessary for the work poses a heavy burden on workers. In addition, although such devices mainly use keyboard operations and screen operations, workers are not always in an environment in which both hands can be freely used, and intuitive operation is often lacking. Therefore, there is a problem that it is difficult to perform the work intended by the worker, even when trying to work in cooperation with audio and video. In addition, in such an environment, there are also problems that noise is often high and communication can not be performed smoothly in many cases.

上述のようなニーズに対して、必要な情報を現実の視野に重畳して表示する眼鏡型ウェラブルデバイスが開発されている。例えば、非特許文献1、2などに記載されたGoogle Glass(登録商標)がある。Google Glassは、音声によるコマンド入力(例えば、「OK glass.」と発話するなど。詳しくは、非特許文献1参照。)と、ゼスチャーによるコマンド入力(例えば、指のタッチや本体の傾きの状態など。詳しくは、非特許文献2参照。)を利用して操作することが可能になっている。   In response to the needs as described above, a spectacles-type wearable device has been developed which displays necessary information superimposed on a real view. For example, there is Google Glass (registered trademark) described in Non-Patent Documents 1 and 2. Google Glass inputs voice commands (for example, utters "OK glass." Etc. For details, refer to Non-Patent Document 1.) and commands for gestures (for example, finger touch, body tilt state, etc.) For details, refer to Non-Patent Document 2.).

Google, Inc.、“Google Glass - Help - Voice actions”、[online]、[平成27年4月3日検索]、インターネット<URL:https://support.google.com/glass/answer/3079305?hl=en>Google, Inc., "Google Glass-Help-Voice actions", [online], [April 3, 2015 search], Internet <URL: https://support.google.com/glass/answer/3079305? hl = en> Google, Inc.、“Google Glass - Help - Glass gestures”、[online]、[平成27年4月3日検索]、インターネット<URL:https://support.google.com/glass/answer/3064184?hl=en>Google, Inc., "Google Glass-Help-Glass gestures", [online], [April 3, 2015 search], Internet <URL: https://support.google.com/glass/answer/3064184? hl = en>

しかしながら、従来の眼鏡型ウェラブルデバイスでは高騒音環境下での利用を想定しておらず、例えば工場内など周囲の騒音が大きい環境では音声が雑音に埋もれてしまい、音声によるコマンド入力が誤りやすい。また、工場内での作業者は分厚い手袋をして作業を行うことが多く、従来の眼鏡型ウェラブルデバイスが備えるようなタッチパッドでは静電式、圧電式にかかわらず細かな操作をすることが難しい。また、工場内ではヘルメットのような頭部への装着物が必要となる場合も多く、これらの装着物と物理的に干渉し、正規の着用方法ができない場合もある。さらに、落下事故を防ぐために落下防止ストラップなどを装着する必要もあり、装着準備に手間がかかる。   However, conventional glasses-type wearable devices are not supposed to be used in high-noise environments. For example, in an environment such as a factory where the ambient noise is large, voice is buried in noise and command input by voice is likely to be erroneous . In addition, workers in the factory often work with thick gloves, and perform detailed operations regardless of electrostatic and piezoelectric types with touch pads that conventional glasses-type wearable devices have. Is difficult. In addition, in many cases, it is necessary in the factory to wear a helmet-like head, which physically interferes with these wearings and may not be able to wear properly. Furthermore, it is necessary to attach a fall prevention strap etc. in order to prevent a fall accident, and installation preparation takes time.

この発明の目的は、高騒音環境やタッチ操作が困難な利用状況であっても円滑な操作を可能とする音声映像入出力装置を提供することである。   An object of the present invention is to provide an audio / video input / output device which enables smooth operation even in a high noise environment or a use situation where touch operation is difficult.

上記の課題を解決するために、この発明の音声映像入出力装置は、利用者の音声を含む周囲の音を収音する複数の収音部と、利用者の視野に対応する領域を撮影する撮影部と、利用者の視野に入る位置に画面が配置された映像表示部と、回転操作に応じて回転方向および回転角度を示すダイヤル操作信号を出力するダイヤル操作部と、ダイヤル操作部の表面において回転軸の位置に配置され押下状態を示すボタン操作信号を出力するボタン操作部と、収音部を用いて取得した音響信号を音声認識して音声認識結果を生成する音声認識部と、撮影部を用いて映像信号を取得する映像取得部と、映像信号を用いて生成した出力映像信号を映像表示部へ出力する映像生成部と、ダイヤル操作信号、ボタン操作信号、および音声認識結果に基づいて、映像取得部、音声認識部、および映像生成部の機能を制御する制御信号を生成する機能制御部と、を含む。   In order to solve the above-described problems, the audio / video input / output device of the present invention captures a plurality of sound collection units that collect surrounding sounds including the user's voice and an area corresponding to the user's field of view A photographing unit, a video display unit in which a screen is disposed at a position where the user enters the field of view, a dial operation unit that outputs a dial operation signal indicating a rotation direction and a rotation angle according to a rotation operation; A button operation unit arranged at the position of the rotation axis and outputting a button operation signal indicating a pressed state, a voice recognition unit for voice recognition of an acoustic signal acquired using the sound collection unit, and generation of a voice recognition result; And a video generation unit for outputting an output video signal generated using the video signal to the video display unit, a dial operation signal, a button operation signal, and a voice recognition result. , Image acquisition unit includes a voice recognition unit, and a function control unit for generating a control signal for controlling the function of the image generating unit.

この発明の音声映像入出力装置は、複数の収音部から収音した音響信号を用いて音声認識するため、高騒音環境であっても音声コマンド入力が安定的に動作する。また、ダイヤルとボタンによる物理的な操作が可能であるため、タッチ操作が困難な利用状況でも操作が容易である。したがって、高騒音環境やタッチ操作が困難な利用状況であっても円滑な操作が可能である。   According to the audio / video input / output apparatus of the present invention, since voice recognition is performed using acoustic signals collected from a plurality of sound collection units, the voice command input operates stably even in a high noise environment. Moreover, since physical operation is possible by the dial and the button, the operation is easy even in a use situation where touch operation is difficult. Therefore, smooth operation is possible even in a high noise environment or a use situation where touch operation is difficult.

図1は、第一実施形態に係る音声映像入出力装置の機能構成を例示する図である。FIG. 1 is a diagram illustrating the functional configuration of an audio / video input / output device according to the first embodiment. 図2は、第一実施形態に係る音声映像入出力装置の機能構成を例示する図である。FIG. 2 is a diagram illustrating the functional configuration of the audio / video input / output device according to the first embodiment. 図3は、環境設定機能の利用イメージを例示する図である。FIG. 3 is a diagram illustrating an image of using the environment setting function. 図4は、音量設定機能の利用イメージを例示する図である。FIG. 4 is a diagram illustrating an application image of the volume setting function. 図5は、映像ズーム機能の利用イメージを例示する図である。FIG. 5 is a diagram illustrating an application image of the image zoom function. 図6は、映像追跡機能の利用イメージを例示する図である。FIG. 6 is a view exemplifying an application image of the video tracking function. 図7は、第二実施形態に係る音声映像入出力装置の機能構成を例示する図である。FIG. 7 is a diagram illustrating the functional configuration of the audio / video input / output device according to the second embodiment. 図8は、第二実施形態に係る音声映像入出力装置の機能構成を例示する図である。FIG. 8 is a diagram illustrating the functional configuration of the audio / video input / output device according to the second embodiment. 図9は、音声ズーム機能の利用イメージを例示する図である。FIG. 9 is a diagram illustrating an application image of the audio zoom function. 図10は、音声追跡機能の利用イメージを例示する図である。FIG. 10 is a diagram illustrating an application image of the voice tracking function.

以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail. In the drawings, components having the same functions are denoted by the same reference numerals and redundant description will be omitted.

[第一実施形態]
この発明の第一実施形態は、例えば工場内のような高騒音の作業現場において、利用者が頭部に装着して利用することを想定したヘルメット一体型の音声映像入出力装置である。本形態の音声映像入出力装置は、図1に例示するように、n(≧2)個の収音部M1,…,Mn、放音部S、撮影部V、映像表示部G、ダイヤル操作部D、ボタン操作部B、および通信記録部Cを含む。
First Embodiment
The first embodiment of the present invention is a helmet integrated type audio / video input / output device assumed to be worn by a user on the head and used in a high noise work site such as in a factory. In the audio / video input / output apparatus of this embodiment, n (例 示 2) sound collection units M 1 ,..., M n , a sound emission unit S, a photographing unit V, an image display unit G, as illustrated in FIG. The dial operation unit D, the button operation unit B, and the communication recording unit C are included.

収音部M1,…,Mnは、利用者が装着した際に利用者の周囲の音を収音するマイクロホンである。図1の例では、1個の収音部M1が利用者の口元に配置され、n-1個の収音部M2,…,Mnが後頭部に水平に配列される構成を示したが、利用者の発話を含む周囲の音を収音可能であればどのような配置でもよい。 The sound collection units M 1 ,..., M n are microphones that collect sounds around the user when the user wears the microphones. In the example of FIG. 1, one sound collecting unit M 1 is disposed on the mouth of the user, n-1 pieces of sound pickup unit M 2, ..., M n showed configured to be horizontally arranged in back of the head However, any arrangement is acceptable as long as it can pick up surrounding sounds including the user's speech.

放音部Sは、利用者が装着した際に利用者の耳に対応する位置に配置されたヘッドホンである。ヘッドホンは一般的に両耳に対して用意されるものであるが、本形態の放音部Sは、少なくとも片方の耳に対して用意されていればよく、通常どおり両耳に対して用意されていてもよい。   The sound emitting unit S is a headphone disposed at a position corresponding to the user's ear when worn by the user. Headphones are generally prepared for both ears, but the sound emitting section S of this embodiment may be prepared for at least one ear, and is normally prepared for both ears as usual. It may be

撮影部Vは、利用者が装着した際に利用者の視野に対応する領域に画角が設定され、利用者の視野に対応する領域を撮影するビデオカメラである。図1の例では、利用者の額の位置に配置される構成を示したが、利用者の視野に対応する領域が撮影可能であればどのような位置に配置されてもよい。ただし、撮影部Vは、利用者の視野を遮らない位置に配置されることが望ましい。   The photographing unit V is a video camera in which an angle of view is set in an area corresponding to the field of view of the user when the user wears the camera, and the area corresponding to the field of view of the user is photographed. Although the example of FIG. 1 shows the configuration of being arranged at the position of the user's forehead, the area corresponding to the field of view of the user may be arranged at any position as long as it can be photographed. However, it is desirable that the imaging unit V be disposed at a position that does not obstruct the user's visual field.

映像表示部Gは、利用者が装着した際に利用者の視野に入る位置に画面が配置された透過スクリーンを用いた小型ディスプレイである。映像表示部Gは透過型であるため、映像出力がない状態では利用者の視界を遮ることがなく、映像出力がある状態では利用者から見て前方の光景に対して映像が重畳して視認される。ここでは工場内などの作業現場における利用を想定しているため、粉塵等の飛来物から利用者の目を守る効果もある。映像表示部Gは、利用者の視野の範囲外に退避させることが可能な可動式となっている。例えば、正確な色彩を確認するなどで肉眼による確認が必要な場合には利便性が高い。退避させた際には、撮影部Vの画角に入らない位置に収納されることが望ましい。   The image display unit G is a small-sized display using a transmissive screen in which a screen is disposed at a position where the user's view comes into view when worn by the user. Since the video display unit G is of a transmissive type, it does not block the user's field of vision when there is no video output, and when there is a video output, the video is superimposed on the scene in front of the user as viewed from the user Be done. Here, since it assumes use at the work site such as in the factory, it also has the effect of protecting the user's eyes from flying objects such as dust. The image display unit G is movable and can be retracted out of the range of the field of view of the user. For example, convenience is high when confirmation with the naked eye is necessary to confirm an accurate color or the like. When being retracted, it is desirable that the storage unit be stored at a position that does not enter the angle of view of the imaging unit V.

ダイヤル操作部Dは、放音部Sの表面のうち利用者が装着した際に利用者の耳と反対側になる面に配置され、利用者の耳の位置を中心軸として回転自在な大型ダイヤルである。ダイヤル操作部Dは、円形のダイヤルの側面に複数の凸凹が形成されており、例えば利用者が厚い手袋などを装着している状況であっても指先で容易に操作が可能となるように形成される。ダイヤル操作部Dは、回転操作が行われた際に操作された回転方向および回転角度を示すダイヤル操作信号dを出力する。ダイヤル操作部Dの位置は必ずしも放音部Sの表面でなくともよく、利用者が操作可能な位置であればどのように配置してもよい。   The dial operation unit D is disposed on the surface of the sound emission unit S opposite to the user's ear when worn by the user, and is a large-sized dial rotatable about the position of the user's ear as a central axis It is. The dial operation unit D is formed such that a plurality of irregularities are formed on the side surface of the circular dial, and for example, the user can easily operate with a fingertip even in a situation where thick gloves and the like are worn. Be done. The dial operation unit D outputs a dial operation signal d indicating the rotation direction and the rotation angle operated when the rotation operation is performed. The position of the dial operation unit D does not necessarily have to be on the surface of the sound output unit S, and may be arranged in any way as long as the user can operate it.

ボタン操作部Bは、ダイヤル操作部Dの表面のうち回転軸の位置に配置され、回転ダイヤルの中心軸の方向へ押下可能なボタンである。ボタン操作部Bは、キャップ部分が無押下状態でもダイヤル操作部Dの表面からわずかにくぼんだ位置になるように設定することで、意図しないボタン押下により誤動作を起こすことを防止できる。ボタン操作部Bは、押下操作が行われた際に押下状態を示すボタン操作信号bを出力する。   The button operation unit B is a button that is disposed on the surface of the dial operation unit D at the position of the rotation axis and can be pressed in the direction of the central axis of the rotation dial. By setting the button operation unit B to be a position slightly recessed from the surface of the dial operation unit D even when the cap portion is not pressed, it is possible to prevent an erroneous operation due to an unintended button depression. The button operation unit B outputs a button operation signal b indicating a pressed state when the pressing operation is performed.

通信記録部Cは、遠隔にいる通信相手と無線もしくは有線の通信経路を確立し、音声信号および映像信号の送受信を行う。また、送受信を行った音声信号および映像信号や、収音部M1,…,Mnを用いて取得した音声信号および撮影部Vを用いて取得した映像信号を記録媒体等に記録する。 The communication recording unit C establishes a wireless or wired communication path with a remote communication party, and transmits and receives audio and video signals. Further, the audio signal and the video signal which have been transmitted and received, the audio signal acquired using the sound collection units M 1 ,..., Mn and the video signal acquired using the imaging unit V are recorded in a recording medium or the like.

図2を参照して、第一実施形態の音声映像入出力装置の動作を説明する。本形態の音声映像入出力装置は、収音部M1,…,Mn、放音部S、撮影部V、映像表示部G、ダイヤル操作部D、ボタン操作部B、および通信記録部Cに加えて、入力音声強調部1、音声認識部2、機能制御部3、音声生成部4、映像取得部5、および映像生成部6を含む。通信記録部Cは、図2に示すように、音声出力部C1、音声入力部C2、映像出力部C3、および映像入力部C4を含む。 The operation of the audio / video input / output device of the first embodiment will be described with reference to FIG. Audiovisual output device of the present embodiment, the sound collection unit M 1, ..., M n, sound emitting section S, imaging unit V, the video display unit G, the dial operation unit D, the button operations part B, and the communication record unit C And a voice recognition unit 2, a function control unit 3, a voice generation unit 4, a video acquisition unit 5, and a video generation unit 6. As shown in FIG. 2, the communication recording unit C includes an audio output unit C1, an audio input unit C2, a video output unit C3, and a video input unit C4.

入力音声強調部1は、収音部M1,…,Mnがそれぞれ収音した音響信号x1,…,xnに対して目的音強調処理を行い、音響信号x1,…,xnに含まれる音声が強調された音声強調信号aoを出力する。音声強調信号aoは音声認識部2、音声生成部4、および音声出力部C1へ送られる。利用者の口元にある収音部M1が収音した音響信号x1には利用者の音声と環境雑音が含まれており、利用者の音声が届きにくい位置に配置された収音部M2,…,Mnがそれぞれ収音した音響信号x2,…,xnには環境雑音のみが含まれていることが期待できる。したがって、音響信号x1において音響信号x2,…,xnに含まれる環境雑音を抑圧することで、利用者の音声を強調した音響信号を得ることができる。目的音強調処理は上記の方法に限定されず、公知のどのような方法を適用してもよい。例えば、下記参考文献1に記載の音響信号強調技術を利用することができる。
〔参考文献1〕特開2013−179388号公報
Input speech enhancement unit 1, the sound collection unit M 1, ..., acoustic signals x 1 M n is picked up, respectively, ..., performs target sound enhancement process on x n, the acoustic signals x 1, ..., x n and it outputs the audio enhancement signal a o speech is emphasized contained. The speech enhancement signal ao is sent to the speech recognition unit 2, speech generation unit 4, and speech output unit C1. The acoustic signals x 1 to the sound collection unit M 1 in the mouth of the user picked up includes a voice and environmental noise of the user, sound pickup unit M arranged in hard to reach locations the user's voice 2, ..., acoustic signals x 2 M n is picked up, respectively, ..., the x n can be expected to contain only the environmental noise. Therefore, by suppressing environmental noise included in the acoustic signals x 2 ,..., X n in the acoustic signal x 1 , an acoustic signal in which the user's voice is emphasized can be obtained. The target sound enhancement process is not limited to the above method, and any known method may be applied. For example, the acoustic signal enhancement technology described in the following reference 1 can be used.
[Reference 1] JP-A-2013-179388

音声認識部2は、音声強調信号aoに対して音声認識を行い、音声認識結果opを出力する。音声認識処理は公知のどのような方法を適用してもよい。音声認識結果opは機能制御部3へ送られる。音声認識部2は音声認識処理を自ら実行するものでなくてもよく、遠隔に設置された音声認識装置に対して音声強調信号aoを送信し、その音声認識装置から返信される音声認識結果を音声認識結果opとして出力するものであってもよい。このとき、音声認識装置との通信は、通信記録部Cを用いて行えばよい。 Speech recognition unit 2 performs speech recognition on the speech enhancement signals a o, and outputs the voice recognition results op. Any known method may be applied to the speech recognition process. The speech recognition result op is sent to the function control unit 3. The speech recognition unit 2 does not have to execute the speech recognition process itself, and transmits the speech enhancement signal ao to the speech recognition device installed remotely, and the speech recognition result returned from the speech recognition device May be output as the speech recognition result op. At this time, communication with the voice recognition device may be performed using the communication recording unit C.

機能制御部3は、ダイヤル操作部Dからのダイヤル操作信号d、ボタン操作部Bからのボタン操作信号b、および音声認識部2からの音声認識結果opに基づいて、音声映像入出力装置の機能を制御するための制御信号c1,…,c5を生成する。制御信号の内容は、利用者が映像表示部Gの表示に従ってダイヤル操作、ボタン操作、および音声コマンド入力により選択した内容により定まる。個別の機能に対する操作例は後述するが、ダイヤル操作、ボタン操作、および音声コマンド入力をどのように組み合わせて操作インターフェースを構成するかは任意である。例えば、基本的な操作として、音声コマンド入力により機能の呼び出しを行い、ダイヤル操作により選択肢の選択を行い、ボタン操作により選択を確定する流れが考えられる。また、音声コマンド入力により選択肢の指定から確定までを一括で行うことも可能である。制御信号は制御対象とする構成部に応じて個別に生成される。例えば、制御信号c1は入力音声強調部1に対する制御を行う信号である。制御信号c2は音声生成部4に対する制御を行う信号である。制御信号c3は映像取得部5に対する制御を行う信号である。制御信号c4は映像生成部6に対する制御を行う信号である。制御信号c5は音声認識部2に対する制御を行う信号である。 Based on the dial operation signal d from the dial operation unit D, the button operation signal b from the button operation unit B, and the speech recognition result op from the speech recognition unit 2, the function control unit 3 functions as an audio / video input / output device. Control signals c 1 ,..., C 5 are generated. The content of the control signal is determined by the content selected by the user through dial operation, button operation, and voice command input according to the display on the video display unit G. Although an operation example for individual functions will be described later, how to combine the dial operation, the button operation, and the voice command input to configure the operation interface is optional. For example, as a basic operation, it is conceivable to call a function by voice command input, select an option by dial operation, and confirm the selection by button operation. Moreover, it is also possible to perform from specification of an option to determination collectively by voice command input. The control signal is individually generated in accordance with the component to be controlled. For example, the control signal c 1 is a signal for controlling for the input speech enhancement unit 1. The control signal c 2 is a signal that controls the sound generation unit 4. Control signal c 3 is a signal for controlling for the video acquisition unit 5. Control signal c 4 is a signal for controlling for the image generator 6. Control signal c 5 is a signal for controlling for the speech recognition unit 2.

音声出力部C1は、入力音声強調部1の出力する音声強調信号aoを遠隔の通信相手へ向けて送信する。もしくは音声強調信号aoを図示していない記録媒体に記憶する。 The voice output unit C1 transmits the voice emphasis signal ao output from the input voice emphasis unit 1 to the remote communication counterpart. Alternatively, the voice emphasis signal ao is stored in a recording medium (not shown).

音声入力部C2は、遠隔の通信相手から遠隔音声信号aiを受信する。受信した遠隔音声信号aiは音声生成部4へ送られる。遠隔音声信号aiは、例えば、遠隔の通信相手が利用者に対して行うべき作業内容を指示する音声などである。 The voice input unit C2 receives a remote voice signal ai from a remote communication party. The received remote voice signal ai is sent to the voice generation unit 4. The remote voice signal ai is, for example, a voice for instructing the user of the work to be performed by the remote communication party.

音声生成部4は、入力音声強調部1の出力する音声強調信号aoと、音声入力部C2の出力する遠隔音声信号aiがあれば遠隔音声信号aiとを用いて出力音響信号asを生成し、その出力音響信号asを放音部Sへ出力する。音声強調信号aoは、例えば、高騒音環境で利用しており自分の話す声も自分で聞き取りづらい場合などに、利用者の音声をフィードバックするために利用される。また、あらかじめ録音した音声を通信記録部Cなどに記憶しておき、その音声を再生することで遠隔音声信号aiとして利用してもよい。 Sound generation unit 4, speech enhancement signal outputs of the input speech enhancement unit 1 a o and the output to the remote audio signal a i if there is a remote audio signal a i and the output sound signal a s using a speech input unit C2 , and outputs the output sound signal a s to the sound emitting section S. The voice emphasis signal ao is used to feed back the voice of the user, for example, in a high noise environment and when it is difficult for the user's own voice to be heard. Also, the voice recorded in advance may be stored in the communication recording unit C or the like, and may be used as the remote voice signal ai by reproducing the voice.

映像取得部5は、撮影部Vを用いて撮影した映像信号voを取得する。取得した映像信号voは映像出力部C3へ送られる。 The video acquisition unit 5 acquires a video signal vo captured using the imaging unit V. The acquired video signal vo is sent to the video output unit C3.

映像出力部C3は、映像取得部5の出力する映像信号voを遠隔の通信相手へ向けて送信する。もしくは映像信号voを図示していない記録媒体に記憶する。 The video output unit C3 transmits the video signal vo output from the video acquisition unit 5 to the remote communication counterpart. Alternatively, the video signal vo is stored in a recording medium (not shown).

映像入力部C4は、遠隔の通信相手から遠隔映像信号viを受信する。受信した遠隔映像信号viは映像生成部6へ送られる。遠隔映像信号viは、例えば、利用者が行うべき作業において必要とされる参考情報などである。 The video input unit C4 receives a remote video signal v i from a remote communication party. The received remote video signal v i is sent to the video generation unit 6. The remote video signal v i is, for example, reference information or the like required for the operation to be performed by the user.

映像生成部6は、映像取得部5の出力する映像信号voと、映像入力部C4が出力する遠隔映像信号viがあれば遠隔映像信号viとを用いて出力映像信号vsを生成し、その出力映像信号vsを映像表示部Gへ出力する。 Image generating unit 6, generates a video signal v o output from the image capturing section 5, an output video signal v s using the remote video signal v i If the remote video signal v i output from the image input unit C4 The output video signal v s is output to the video display unit G.

図3は、本形態の音声映像入出力装置において環境設定を行う際の利用イメージである。まず、利用者は音声コマンド入力により「環境」と入力する。機能制御部3は「環境」という音声認識結果opに基づいて、環境設定機能を呼び出すための制御信号c4を映像生成部6へ送る。映像生成部6は現在の環境設定を映像表示部Gの透過スクリーンに表示する。図3の例では、現在の環境設定は「建設現場」であり、その他の設定候補として「トンネル」や「サーバ室」などが表示される。これらの選択肢とそれに紐づく動作パラメータはあらかじめ設定しておく。利用者がダイヤル操作部Dを回転させると、ダイヤル操作信号dが機能制御部3へ入力され、環境設定候補を変更するための制御信号c4が映像生成部6へ送られる。ダイヤル操作により所望の環境設定候補を選択した後にボタン操作部Bを押下すると、ボタン操作信号bが機能制御部3へ入力され、環境設定の変更を確定するための制御信号c1およびc5が入力音声強調部1および音声認識部2へ送られる。入力音声強調部1および音声認識部2は制御信号c1およびc5に従って動作パラメータを変更する。目的音強調処理や音声認識処理は環境により最適な動作パラメータが異なることが一般的であるため、利用環境を正しく設定することでより精度の高い処理結果が得られることが期待できる。 FIG. 3 shows a usage image when performing environment setting in the audio / video input / output device of this embodiment. First, the user inputs "environment" by voice command input. The function control unit 3 sends a control signal c 4 for calling the environment setting function to the video generation unit 6 based on the voice recognition result op of “environment”. The video generation unit 6 displays the current environment setting on the transparent screen of the video display unit G. In the example of FIG. 3, the current environment setting is “construction site”, and “tunnel”, “server room”, etc. are displayed as other setting candidates. These options and the operation parameters associated with them are set in advance. When the user rotates the dial operation unit D, the dial operation signal d is input to the function control unit 3, and the control signal c 4 for changing the environment setting candidate is sent to the video generation unit 6. And presses the button operation unit B after selecting the desired configuration candidate by dial operation, button operation signal b is input to the function control unit 3, the control signals c 1 and c 5 for confirming the change of configuration It is sent to the input speech emphasizing unit 1 and the speech recognition unit 2. The input speech emphasizing unit 1 and the speech recognition unit 2 change the operation parameters in accordance with the control signals c 1 and c 5 . As the target sound emphasizing process and the speech recognition process generally have different optimum operating parameters depending on the environment, it is expected that more accurate processing results can be obtained by setting the usage environment correctly.

図4は、本形態の音声映像入出力装置において音量設定を行う際の利用イメージである。まず、利用者は音声コマンド入力により「音量」と入力する。機能制御部3は「音量」という音声認識結果opに基づいて、音量設定機能を呼び出すための制御信号c4を映像生成部6へ送る。映像生成部6は現在の音量設定を映像表示部Gの透過スクリーンに表示する。図4の例では、現在の音量設定は「50」である。利用者がダイヤル操作部Dを回転させると、ダイヤル操作信号dが機能制御部3へ入力され、音量設定を変更するための制御信号c2が音声生成部4へ、音量表示を変更するための制御信号c4が映像生成部6へ送られる。音声生成部4は制御信号c2に従って放音部Sへ出力する出力音響信号asの音量を上下させる。映像生成部6は制御信号c4に従って音量表示を上下させる。 FIG. 4 shows a use image when performing volume setting in the audio / video input / output device of this embodiment. First, the user inputs "volume" by voice command input. The function control unit 3 sends a control signal c 4 for calling a volume setting function to the video generation unit 6 based on the voice recognition result op of “volume”. The image generation unit 6 displays the current volume setting on the transparent screen of the image display unit G. In the example of FIG. 4, the current volume setting is “50”. When the user rotates the dial operation unit D, dialing signal d is input to the function control unit 3, the control signal c 2 for changing the volume setting to the sound generating unit 4, for changing the volume display The control signal c 4 is sent to the video generation unit 6. Sound generation unit 4 to lower the volume of the output sound signal a s to be output to the sound emitting unit S according to the control signal c 2. Image generation unit 6 to lower the volume display in accordance with the control signal c 4.

図5は、本形態の音声映像入出力装置において映像ズームを行う際の利用イメージである。まず、利用者は音声コマンド入力により「映像ズーム」と入力する。機能制御部3は「映像ズーム」という音声認識結果opに基づいて、映像ズーム機能を呼び出すための制御信号c4を映像生成部6へ送る。映像生成部6は撮影部Vが現在撮影している映像を映像表示部Gの透過スクリーンに表示する。利用者がダイヤル操作部Dを回転させると、ダイヤル操作信号dが機能制御部3へ入力され、映像ズームの倍率を変更するための制御信号c3が映像取得部5へ送られる。映像取得部5は撮影部Vの倍率を変化させて映像信号voを取得する。ハンズフリーで映像撮影をするときには頭上等に取り付けられたカメラ単体では正確に被写体が撮影者にわからないという課題があり、また撮影部Vを直接触るような操作も行いづらい。上述のような操作により映像ズームを行うことが可能であれば、映像範囲の確認や映像のズーム操作をスムーズに行うことが可能である。 FIG. 5 shows a usage image when performing video zoom in the audio / video input / output device of this embodiment. First, the user inputs "image zoom" by inputting a voice command. The function control unit 3 sends a control signal c 4 for calling the video zoom function to the video generation unit 6 based on the voice recognition result op of “video zoom”. The video generation unit 6 displays the video currently captured by the imaging unit V on the transmissive screen of the video display unit G. When the user rotates the dial operation unit D, the dial operation signal d is input to the function control unit 3, and the control signal c 3 for changing the magnification of the video zoom is sent to the video acquisition unit 5. The video acquisition unit 5 changes the magnification of the imaging unit V to acquire a video signal vo . There is a problem that a camera alone attached to an overhead person or the like does not know the subject accurately when photographing an image with hands-free operation, and it is difficult to perform an operation such as directly touching the photographing unit V. If it is possible to perform video zoom by the above-described operation, it is possible to smoothly perform video range confirmation and video zoom operation.

図6は、本形態の音声映像入出力装置において映像追跡を行う際の利用イメージである。まず、利用者は音声コマンド入力により「映像追跡」と入力する。機能制御部3は「映像追跡」という音声認識結果opに基づいて、映像追跡機能を呼び出すための制御信号c4を映像生成部6へ送る。映像生成部6は撮影部Vが現在撮影している映像において映像中の追跡対象候補をハイライトさせながら映像表示部Gの透過スクリーンに表示する。図6の例では、3個の物体が追跡対象候補として表示されており、透過スクリーン左上に位置する物体が追跡対象候補としてハイライト表示されている。ここで利用者がダイヤル操作部Dを回転させると、ダイヤル操作信号dが機能制御部3へ入力され、追跡対象候補を切り替えるための制御信号c4が映像生成部6へ送られる。利用者がダイヤル操作により所望の追跡対象候補を選択し、その状態でボタン操作部Bを押下すると、ボタン操作信号bが機能制御部3へ入力され、追跡対象を決定するための制御信号c3が映像取得部5へ送られる。映像取得部5は、制御信号c3に従って決定した追跡対象の映像追跡を開始する。以降、追跡対象が撮影部Vの画角に存在する限り、その追跡対象を中心とした映像信号voが撮影される。映像追跡と映像ズームを組み合わせることにより、視界内の任意の物体をズームしながら追跡することが可能である。この場合、撮影部Vはパン・チルト・ズーム機能に対応している必要がある。利用者がダイヤル操作を行うことが困難な状況を想定して音声コマンド入力による追跡対象の選択も可能である。利用者が「右」「左」などを音声コマンド入力することで追跡対象候補を切り替えたり、画面上の座標を直接音声コマンド入力することにより追跡対象候補を選択したりする方法が考えられる。音声コマンド入力による追跡対象の選択を行うことで完全にハンズフリーでの操作が可能となる。 FIG. 6 shows a usage image when performing video tracking in the audio / video input / output device of this embodiment. First, the user inputs "image tracking" by voice command input. The function control unit 3 sends a control signal c 4 for calling a video tracking function to the video generation unit 6 based on the voice recognition result op of “video tracking”. The video generation unit 6 displays the tracking target candidate in the video in the video currently captured by the imaging unit V on the transparent screen of the video display unit G while highlighting it. In the example of FIG. 6, three objects are displayed as tracking target candidates, and an object located at the upper left of the transparent screen is highlighted as a tracking target candidate. Here, when the user rotates the dial operation unit D, the dial operation signal d is input to the function control unit 3, and the control signal c 4 for switching the tracking target candidate is sent to the video generation unit 6. When the user selects a desired tracking target candidate by dial operation and presses the button operation unit B in that state, the button operation signal b is input to the function control unit 3 and the control signal c 3 for determining the tracking target Are sent to the image acquisition unit 5. Video acquisition unit 5 starts video tracking of the tracking target determined in accordance with the control signal c 3. Thereafter, as long as the tracking target is present at the angle of view of the imaging unit V, the video signal vo centered on the tracking target is captured. By combining video tracking and video zooming, it is possible to zoom and track any object within the field of view. In this case, the imaging unit V needs to be compatible with the pan-tilt-zoom function. It is also possible to select a tracking target by voice command input in a situation where it is difficult for the user to dial. The user may switch the tracking target candidate by inputting a voice command "right", "left" or the like, or may select the tracking target candidate by directly inputting a voice command on the screen. By selecting the tracking target by voice command input, a completely hands-free operation becomes possible.

[第二実施形態]
第二実施形態の音声映像入出力装置は、図7に例示するように、n(≧2)個の収音部M1,…,Mn、放音部S、撮影部V、映像表示部G、ダイヤル操作部D、ボタン操作部B、および通信記録部Cを第一実施形態と同様に含み、さらにm-n個(m≧4)の前方収音部Mn+1,…,Mmを含む。また、本形態の音声映像入出力装置は、図8に例示するように、第一実施形態の音声映像入出力装置の各構成部に加えて、目的音強調部7をさらに含む。
Second Embodiment
The audio / video input / output device of the second embodiment has n (≧ 2) sound collection units M 1 ,..., M n , a sound emission unit S, a photographing unit V, an image display unit as illustrated in FIG. G, dial operation unit D, the button operations part B, and includes a communication recording portion C as in the first embodiment, the front sound pickup unit M n + 1 of the further mn number (m ≧ 4), ..., a M m Including. Further, as illustrated in FIG. 8, the audio / video input / output device of the present embodiment further includes a target sound emphasis unit 7 in addition to each component of the audio / video input / output device of the first embodiment.

前方収音部Mn+1,…,Mmは、利用者が装着した際に利用者の視野に対応する方向から到来する音を収音するマイクロホンである。図7では、前方収音部Mn+1,…,Mmが前頭部の撮影部V近傍に水平に配列される例を示したが、利用者の視野に対応する方向から到来する音を収音可能であればどのような配置でもよい。 Front sound pickup unit M n + 1, ..., M m is a microphone for picking up sound by the user comes from a direction corresponding to the field of view of the user when worn. In Figure 7, the front sound pickup unit M n + 1, ..., an example is shown in which M m is horizontally arranged in photographing the vicinity V of the forehead, sound arriving from a direction corresponding to the field of view of the user Any arrangement is acceptable as long as it can pick up sound.

目的音強調部7は、前方収音部Mn+1,…,Mmがそれぞれ収音した前方音響信号xn+1,…,xmに対して目的音強調処理を行い、特定の音が強調された目的音強調信号ao2を出力する。目的音強調信号ao2は音声生成部4および音声出力部C1へ送られる。強調すべき音の特定は、利用者が音声コマンド入力、ダイヤル操作、およびボタン操作を用いて行う。具体的な特定の操作は後述する。目的音強調処理は公知のどのような方法を適用してもよく、例えば上記参考文献1に記載の音響信号強調技術を利用することができる。 Target sound enhancement unit 7, the front sound pickup unit M n + 1, ..., front audio signal x n + 1 M m is picked up, respectively, ..., it performs target sound enhancement process on x m, specific sound The target sound emphasizing signal a o2 is output. The target sound emphasis signal ao2 is sent to the voice generation unit 4 and the voice output unit C1. The identification of the sound to be emphasized is performed by the user using voice command input, dial operation and button operation. Specific specific operations will be described later. The target sound emphasis processing may apply any method known in the art, and for example, the acoustic signal emphasis technology described in the above-mentioned reference 1 can be used.

図9は、本形態の音声映像入出力装置において音声ズームを行う際の利用イメージである。音声ズームとは、特定の音源から到来する音を集中的に収音する機能である。まず、利用者は音声コマンド入力により「音声ズーム」と入力する。機能制御部3は「音声ズーム」という音声認識結果opに基づいて、音声ズーム機能を呼び出すための制御信号c4を映像生成部6へ送る。映像生成部6は現在の音声ズームの設定(中心位置と倍率)を映像表示部Gの透過スクリーンに表示する。図9の例では、太線の円の中心がズーム位置を示し、円の半径がズーム倍率の大きさを示している。利用者はダイヤル操作とボタン操作により音声ズームの設定を変更する。まずダイヤル操作部Dを回転させると透過スクリーン上でズーム位置の横座標が移動する。所望の位置でボタン操作部Bを押下すると横座標が確定する。次にダイヤル操作部Dを回転させると透過スクリーン上でズーム位置の縦座標が移動する。所望の位置でボタン操作部Bを押下すると縦座標が確定する。その後ダイヤル操作部Dを回転させるとズームの倍率が変化する。最後にボタン操作部Bを押下すると、音声ズーム設定の変更を確定するための制御信号制御信号c1が目的音強調部7へ送られる。目的音強調部7は特定された方向から到来する音を指定の倍率で強調した目的音強調信号ao2を出力する。音声ズームは工事現場もしくは災害現場などで、装着者の視点からの映像と音声を記録する用途が考えられる。特に、騒音下で遠距離の人物や物体の音を選択的に聞き分ける際に、透過スクリーンと連動して音声ズーム設定が行えることにより、直観的かつ効率的に操作をすることができる。上述のような操作方法は、装着者の目の位置と前方収音部Mn+1,…,Mmの位置関係が近くかつ一定であるというヘルメット一体型の装置であるがゆえに実現できるものである。 FIG. 9 shows a usage image when performing audio zoom in the audio / video input / output device of this embodiment. The audio zoom is a function to intensively collect sounds coming from a specific sound source. First, the user inputs "voice zoom" by voice command input. The function control unit 3 sends a control signal c 4 for calling the voice zoom function to the video generation unit 6 based on the voice recognition result op of “voice zoom”. The image generation unit 6 displays the current setting of the audio zoom (center position and magnification) on the transparent screen of the image display unit G. In the example of FIG. 9, the center of the thick circle indicates the zoom position, and the radius of the circle indicates the zoom magnification. The user changes the audio zoom setting by dial operation and button operation. First, when the dial operation unit D is rotated, the horizontal coordinate of the zoom position moves on the transparent screen. When the button operation unit B is pressed at a desired position, the abscissa is determined. Next, when the dial operation unit D is rotated, the vertical coordinate of the zoom position moves on the transparent screen. When the button operation unit B is pressed at a desired position, the ordinate is determined. Thereafter, when the dial operation unit D is rotated, the zoom magnification changes. Finally, when the button operation unit B is pressed, the control signal control signal c 1 for determining the change of the audio zoom setting is sent to the target sound emphasis unit 7. The target sound emphasizing unit 7 outputs a target sound emphasizing signal ao2 in which a sound coming from a specified direction is emphasized at a specified magnification. The audio zoom is considered to be used for recording video and audio from the viewpoint of the wearer at a construction site or a disaster site. In particular, when selectively recognizing the sound of a person or object at a long distance under noise, the sound zoom setting can be performed in conjunction with the transmissive screen, so that intuitive and efficient operation can be performed. Those instructions as described above, the wearer's eye position and a forward sound pickup unit M n + 1, ..., can be realized because it is a helmet integrated device that the position relation of M m is close and constant It is.

図10は、本形態の音声映像入出力装置において音声追跡を行う際の利用イメージである。まず、利用者は音声コマンド入力により「音声追跡」と入力する。機能制御部3は「音声追跡」という音声認識結果opに基づいて、音声追跡機能を呼び出すための制御信号c4を映像生成部6へ送る。映像生成部6は撮影部Vが現在撮影している映像において映像中の追跡対象候補をハイライトさせながら映像表示部Gの透過スクリーンに表示する。図10の例では、3個の物体が追跡対象候補として表示されており、透過スクリーン左上に位置する物体が追跡対象候補としてハイライト表示されている。利用者がダイヤル操作部Dを回転させると、ダイヤル操作信号dが機能制御部3へ入力され、追跡対象候補を切り替えるための制御信号c4が映像生成部6へ送られる。利用者がダイヤル操作により所望の追跡対象候補を選択し、その状態でボタン操作部Bを押下すると、ボタン操作信号bが機能制御部3へ入力され、追跡対象を決定するための制御信号c1が目的音強調部7へ送られる。目的音強調部7は、制御信号c1に従って決定した追跡対象の音声追跡を開始する。以降、追跡対象が撮影部Vの画角に存在する限り、その追跡対象の方向から到来する音を強調した目的音強調信号ao2が出力される。音声追跡と音声ズームを組み合わせることにより、音声強調の倍率を指定することも可能である。利用者がダイヤル操作を行うことが困難な状況を想定して音声コマンド入力による追跡対象の選択も可能である。利用者が「右」「左」などを音声コマンド入力することで追跡対象候補を切り替えたり、画面上の座標を直接音声コマンド入力することにより追跡対象候補を選択したりする方法が考えられる。音声コマンド入力による追跡対象の選択を行うことで完全にハンズフリーでの操作が可能となる。 FIG. 10 shows a usage image when performing audio tracking in the audio / video input / output device of this embodiment. First, the user inputs "voice tracking" by voice command input. The function control unit 3 sends a control signal c 4 for calling the voice tracking function to the video generation unit 6 based on the voice recognition result op of “voice tracking”. The video generation unit 6 displays the tracking target candidate in the video in the video currently captured by the imaging unit V on the transparent screen of the video display unit G while highlighting it. In the example of FIG. 10, three objects are displayed as tracking target candidates, and an object located at the upper left of the transmissive screen is highlighted as a tracking target candidate. When the user rotates the dial operation unit D, the dial operation signal d is input to the function control unit 3, and the control signal c 4 for switching the tracking target candidate is sent to the video generation unit 6. When the user selects a desired tracking target candidate by dial operation and presses button operation unit B in that state, button operation signal b is input to function control unit 3 and control signal c 1 for determining the tracking target. Are sent to the target sound emphasis unit 7. Target sound enhancement unit 7 starts the tracked audio track determined in accordance with the control signal c 1. Thereafter, as long as the tracking target is present at the angle of view of the imaging unit V, the target sound emphasis signal ao2 in which the sound coming from the direction of the tracking target is emphasized is output. It is also possible to specify the magnification of speech enhancement by combining speech tracking and speech zoom. It is also possible to select a tracking target by voice command input in a situation where it is difficult for the user to dial. The user may switch the tracking target candidate by inputting a voice command "right", "left" or the like, or may select the tracking target candidate by directly inputting a voice command on the screen. By selecting the tracking target by voice command input, a completely hands-free operation becomes possible.

[第三実施形態]
第一実施形態および第二実施形態において、音声生成部4が外部雑音抑圧機能を備えるように構成してもよい。この場合、音声生成部4は、既存の収音部、前方収音部、もしくは専用の収音部を用いて放音部S周辺の環境雑音を取得し、その環境雑音を抑圧する信号を生成して出力音響信号asに加算することで環境雑音を抑圧する。このように構成することにより、騒音下で利用する場合に、放音部Sから出力される出力音響信号asが利用者にとってより聞き取りやすくなる効果がある。外部雑音抑圧処理は、公知のどのような方法を適用してもよく、例えば下記参考文献2に記載された雑音抑圧技術を用いることができる。
〔参考文献2〕特開平7−303135号公報
Third Embodiment
In the first embodiment and the second embodiment, the voice generation unit 4 may be configured to have an external noise suppression function. In this case, the sound generation unit 4 acquires environmental noise around the sound emission unit S using an existing sound collection unit, a front sound collection unit, or a dedicated sound collection unit, and generates a signal for suppressing the environmental noise. Then, environmental noise is suppressed by adding to the output acoustic signal a s . With such a configuration, when utilized in noisy, there is an effect that the output acoustic signal a s outputted from the sound emitting portion S is easily heard more for the user. As the external noise suppression processing, any known method may be applied, and for example, the noise suppression technology described in the following reference 2 can be used.
[Reference 2] Japanese Patent Application Laid-Open No. 7-303135

この発明の音声映像入出力装置のポイントは以下のとおりである。一点目は、一体型ヘルメットに目的音強調用の複数のマイクロホンを設置し、装着者の発話や周囲の音を容易に集音できるようにした点である。二点目は、装着されたカメラと複数のマイクロホンをコントロールする直観的なインターフェースとして透過スクリーンと、音声コマンド入力やダイヤル操作、ボタン操作の機能を備え、映像と音声のコントロールを直観的かつ効率的に行えるようにした点である。   The points of the audio / video input / output device of the present invention are as follows. The first point is that a plurality of microphones for emphasizing target sound are installed in the integrated helmet so that the user's speech and surrounding sounds can be easily collected. The second point is an intuitive interface for controlling the camera and multiple microphones equipped with a transparent screen, voice command input, dial operation, button operation functions, and intuitive and efficient control of video and audio The point is that it is possible to

この発明の音声映像入出力装置は、目的音強調機能を有しているため、高騒音環境下でも装着者の音声が明瞭に収音できる。その結果、装着者の意図を装置に伝える手段として音声コマンド入力を安定的に用いることができる。また、ダイヤルと透過スクリーンを具備したヘルメット一体型の装置とすることにより、マイクやカメラの撮影・収音について方向や強調率・倍率といったパラメータを直観的に操作することができるようになる。さらに、一体型とすることにより、装着者は両手をフリーにしながら、通信相手と現場の動画を共有しつつ、遠隔から指示を受けるなどの作業が可能となる。特に、高騒音の場所や工事現場など危険な場所で遠隔の指示者とやり取りをしながら、もしくは電子データを確認しながら作業を行う必要があるようなケースで、この発明の音声映像入出力装置を用いることで安全かつ正確、効率的に作業を行うことが可能となる。   Since the audio / video input / output device of the present invention has the target sound emphasis function, the audio of the wearer can be collected clearly even in a high noise environment. As a result, voice command input can be stably used as means for conveying the wearer's intention to the device. In addition, by adopting a helmet integrated type device equipped with a dial and a transparent screen, it becomes possible to intuitively operate parameters such as direction, emphasis ratio and magnification for photographing and sound collection by a microphone or a camera. Furthermore, the integrated type allows the wearer to perform work such as receiving instructions remotely while sharing moving images of the site with the other party while keeping both hands free. In particular, in cases where it is necessary to work while communicating with a remote instructor at a dangerous place such as a high noise place or a construction site, or checking electronic data, the audio / video input / output device of the present invention It is possible to work safely, accurately and efficiently by using.

この発明は上述の実施形態に限定されるものではなく、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。上記実施形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。   The present invention is not limited to the above-described embodiment, and it is needless to say that changes can be made as appropriate without departing from the spirit of the present invention. The various processes described in the above embodiment are not only executed chronologically according to the order described, but may be executed in parallel or individually depending on the processing capability of the apparatus executing the process or the necessity.

[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
[Program, recording medium]
When various processing functions in each device described in the above embodiments are implemented by a computer, the processing content of the function that each device should have is described by a program. By executing this program on a computer, various processing functions in each of the above-described devices are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。   The program describing the processing content can be recorded in a computer readable recording medium. As the computer readable recording medium, any medium such as a magnetic recording device, an optical disc, a magneto-optical recording medium, a semiconductor memory, etc. may be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   Further, the distribution of this program is carried out, for example, by selling, transferring, lending, etc. a portable recording medium such as a DVD, a CD-ROM, etc. in which the program is recorded. Furthermore, this program may be stored in a storage device of a server computer, and the program may be distributed by transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   For example, a computer that executes such a program first temporarily stores a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. Then, at the time of execution of the process, the computer reads the program stored in its own recording medium and executes the process according to the read program. Further, as another execution form of this program, the computer may read the program directly from the portable recording medium and execute processing according to the program, and further, the program is transferred from the server computer to this computer Each time, processing according to the received program may be executed sequentially. In addition, a configuration in which the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes processing functions only by executing instructions and acquiring results from the server computer without transferring the program to the computer It may be Note that the program in the present embodiment includes information provided for processing by a computer that conforms to the program (such as data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   Further, in this embodiment, although the present apparatus is configured by executing a predetermined program on a computer, at least a part of the processing contents may be realized as hardware.

M 収音部
S 放音部
V 撮影部
G 映像表示部
C 通信記録部
D ダイヤル操作部
B ボタン操作部
1 入力音声強調部
2 音声認識部
3 機能制御部
4 音声生成部
5 映像取得部
6 映像生成部
7 目的音強調部
C1 音声出力部
C2 音声入力部
C3 映像出力部
C4 映像入力部
M sound pickup unit S sound emission unit V photographing unit G video display unit C communication recording unit D dial operation unit B button operation unit 1 input speech emphasizing unit 2 speech recognition unit 3 function control unit 4 speech generation unit 5 image acquisition unit 6 image Generation unit 7 Target sound emphasis unit C1 Audio output unit C2 Audio input unit C3 Video output unit C4 Video input unit

Claims (2)

利用者の音声と環境雑音とを含む周囲の音を収音する複数の収音部と、
上記利用者の視野に対応する領域を撮影する撮影部と、
上記利用者の視野に入る位置に画面が配置された映像表示部と、
回転操作に応じて回転方向および回転角度を示すダイヤル操作信号を出力するダイヤル操作部と、
上記ダイヤル操作部の表面において回転軸の位置に配置され押下状態を示すボタン操作信号を出力するボタン操作部と、
上記収音部を用いて取得した音響信号を音声認識して音声認識結果を生成する音声認識部と、
上記撮影部を用いて映像信号を取得する映像取得部と、
上記映像信号を用いて生成した出力映像信号を上記映像表示部へ出力する映像生成部と、
上記ダイヤル操作信号、上記ボタン操作信号、および上記音声認識結果に基づいて、上記映像取得部、上記音声認識部、および上記映像生成部の機能を制御する制御信号を生成する機能制御部と、を含み、
上記複数の収音部は、
上記利用者の音声と上記環境雑音とを収音するために上記利用者の口元に配置された第一マイクロホンと、上記環境雑音のみを収音するために上記利用者の音声が届きにくい位置に配置された第二マイクロホンと、を含み、
上記ダイヤル操作部と上記ボタン操作部とを交互に操作することで、上記映像表示部に表示された映像のうち音声ズームの対象とする座標および範囲を変更可能とし、さらに、
上記機能制御部は、上記音声認識結果が音声追跡機能を呼び出すためのものであった場合、
上記表示部に前記映像信号に含まれる複数の追跡対象候補をハイライト表示し、
上記利用者の操作に基づく上記ダイヤル操作信号と上記ボタン操作信号若しくは上記利用者が発した音声コマンドに基づき上記追跡対象候補の選択を切り替え、選択された追跡対象候補を追跡対象とし、
上記追跡対象が上記撮影部の画角に存在する限り、上記追跡対象として選択された方向から到来する音を、音声ズームの対象とし続ける
音声映像入出力装置。
A plurality of sound pickup units for picking up ambient sounds including the user's voice and environmental noise;
An imaging unit for imaging an area corresponding to the field of view of the user;
A video display unit in which a screen is disposed at a position where the user's view comes into view;
A dial operation unit that outputs a dial operation signal indicating a rotation direction and a rotation angle according to the rotation operation;
A button operation unit disposed at the position of the rotation axis on the surface of the dial operation unit and outputting a button operation signal indicating a pressed state;
A voice recognition unit that generates voice recognition results by performing voice recognition on an acoustic signal acquired using the above-described sound collection unit;
A video acquisition unit that acquires a video signal using the imaging unit;
A video generation unit that outputs an output video signal generated using the video signal to the video display unit;
A function control unit that generates control signals for controlling the functions of the video acquisition unit, the speech recognition unit, and the video generation unit based on the dial operation signal, the button operation signal, and the speech recognition result; Including
The multiple sound pickup units are
A first microphone placed at the mouth of the user to pick up the voice of the user and the environmental noise, and a position where the voice of the user does not easily reach to pick up only the environmental noise And a second microphone disposed;
By alternately operating the dial operation unit and the button operation unit, it is possible to change the coordinates and the range to be subjected to audio zoom in the image displayed on the image display unit, and further
If the voice recognition result is to call a voice tracking function, the function control unit may:
Highlighting a plurality of tracking target candidates included in the video signal on the display unit;
The selection of the tracking target candidate is switched based on the dial operation signal based on the user's operation and the button operation signal or the voice command issued by the user, and the selected tracking target candidate is set as the tracking target.
As long as the tracking target is present at the angle of view of the imaging unit, the audio / video input / output device continues to make sound coming from the direction selected as the tracking target as a target of audio zoom.
請求項1に記載の音声映像入出力装置であって、
上記第二マイクロホンは、上記利用者を中心として上記利用者の視野に対応する方向と反対方向に配置され、
上記複数の収音部は、上記利用者の視野に対応する方向から到来する音を収音するために上記撮影部の近傍に配置された第三マイクロホンをさらに含む、
音声映像入出力装置。
An audio / video input / output device according to claim 1, wherein
The second microphone is disposed in a direction opposite to the direction corresponding to the field of view of the user with the user at the center,
The plurality of sound pickup units further include a third microphone disposed in the vicinity of the photographing unit to pick up sound coming from a direction corresponding to the field of view of the user;
Audio / video input / output device.
JP2018190818A 2018-10-09 2018-10-09 Audio-video tracking device Active JP6628853B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018190818A JP6628853B2 (en) 2018-10-09 2018-10-09 Audio-video tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018190818A JP6628853B2 (en) 2018-10-09 2018-10-09 Audio-video tracking device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015088098A Division JP2016206960A (en) 2015-04-23 2015-04-23 Voice video input/output device

Publications (2)

Publication Number Publication Date
JP2019046482A true JP2019046482A (en) 2019-03-22
JP6628853B2 JP6628853B2 (en) 2020-01-15

Family

ID=65814522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018190818A Active JP6628853B2 (en) 2018-10-09 2018-10-09 Audio-video tracking device

Country Status (1)

Country Link
JP (1) JP6628853B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111696564A (en) * 2020-06-05 2020-09-22 北京搜狗科技发展有限公司 Voice processing method, apparatus and medium
CN114040145A (en) * 2021-11-20 2022-02-11 深圳市音络科技有限公司 Video conference portrait display method, system, terminal and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303574A (en) * 2004-04-09 2005-10-27 Toshiba Corp Voice recognition headset
JP2006189730A (en) * 2005-01-07 2006-07-20 Matsushita Electric Ind Co Ltd Speech interactive method and speech interactive device
JP2007034942A (en) * 2005-07-29 2007-02-08 Kobe Steel Ltd Information processor and program therefor
JP2009239349A (en) * 2008-03-25 2009-10-15 Yamaha Corp Photographing apparatus
JP2011113179A (en) * 2009-11-25 2011-06-09 Chugoku Electric Power Co Inc:The Meter-reading terminal and erroneous meter reading prevention method
JP2012029209A (en) * 2010-07-27 2012-02-09 Hitachi Ltd Audio processing system
WO2014047402A1 (en) * 2012-09-20 2014-03-27 MUSC Foundation for Research and Development Head-mounted systems and methods for providing inspection, evaluation or assessment of an event or location

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303574A (en) * 2004-04-09 2005-10-27 Toshiba Corp Voice recognition headset
JP2006189730A (en) * 2005-01-07 2006-07-20 Matsushita Electric Ind Co Ltd Speech interactive method and speech interactive device
JP2007034942A (en) * 2005-07-29 2007-02-08 Kobe Steel Ltd Information processor and program therefor
JP2009239349A (en) * 2008-03-25 2009-10-15 Yamaha Corp Photographing apparatus
JP2011113179A (en) * 2009-11-25 2011-06-09 Chugoku Electric Power Co Inc:The Meter-reading terminal and erroneous meter reading prevention method
JP2012029209A (en) * 2010-07-27 2012-02-09 Hitachi Ltd Audio processing system
WO2014047402A1 (en) * 2012-09-20 2014-03-27 MUSC Foundation for Research and Development Head-mounted systems and methods for providing inspection, evaluation or assessment of an event or location

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111696564A (en) * 2020-06-05 2020-09-22 北京搜狗科技发展有限公司 Voice processing method, apparatus and medium
CN111696564B (en) * 2020-06-05 2023-08-18 北京搜狗科技发展有限公司 Voice processing method, device and medium
CN114040145A (en) * 2021-11-20 2022-02-11 深圳市音络科技有限公司 Video conference portrait display method, system, terminal and storage medium
CN114040145B (en) * 2021-11-20 2022-10-21 深圳市音络科技有限公司 Video conference portrait display method, system, terminal and storage medium

Also Published As

Publication number Publication date
JP6628853B2 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
US10318028B2 (en) Control device and storage medium
EP3163426B1 (en) System and method of controlling the same
US10217475B2 (en) Headset and method for controlling same
US11170580B2 (en) Information processing device, information processing method, and recording medium
CN105259654B (en) Spectacle terminal and its control method
US10757335B2 (en) Mobile terminal
KR20150133056A (en) Mobile terminal and control method for the mobile terminal
KR20180040409A (en) Mobile terminal and method for controlling the same
CN109104662A (en) Instruction executing method, operation response method, terminal and ear speaker device
US10225650B2 (en) Directivity control system, directivity control device, abnormal sound detection system provided with either thereof and directivity control method
KR20150131837A (en) Mobile terminal and control method for the mobile terminal
EP3617851A1 (en) Information processing device, information processing method, and recording medium
EP2950503A1 (en) Communication system, transfer control device, communication method, and computer program product
KR20160125674A (en) Mobile terminal and method for controlling the same
JP6628853B2 (en) Audio-video tracking device
JP2012175136A (en) Camera system and control method of the same
JP5929698B2 (en) Communication system and program
KR20170055867A (en) Mobile terminal and method for controlling the same
KR20160070529A (en) Wearable device
KR20160019279A (en) Mobile terminal and method for controlling the same
KR20160001229A (en) Mobile terminal and method for controlling the same
CN111415421A (en) Virtual object control method and device, storage medium and augmented reality equipment
JP6308842B2 (en) Display system and program
KR20160149066A (en) Mobile terminal and method for controlling the same
US20210405686A1 (en) Information processing device and method for control thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191203

R150 Certificate of patent or registration of utility model

Ref document number: 6628853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150