JP2024018748A - Information processing device, program, information processing method, and information processing system - Google Patents

Information processing device, program, information processing method, and information processing system Download PDF

Info

Publication number
JP2024018748A
JP2024018748A JP2022122279A JP2022122279A JP2024018748A JP 2024018748 A JP2024018748 A JP 2024018748A JP 2022122279 A JP2022122279 A JP 2022122279A JP 2022122279 A JP2022122279 A JP 2022122279A JP 2024018748 A JP2024018748 A JP 2024018748A
Authority
JP
Japan
Prior art keywords
sound
information processing
processing
unit
sound signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022122279A
Other languages
Japanese (ja)
Inventor
光太郎 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2022122279A priority Critical patent/JP2024018748A/en
Priority to PCT/JP2023/018143 priority patent/WO2024024219A1/en
Publication of JP2024018748A publication Critical patent/JP2024018748A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/02Circuits for transducers, loudspeakers or microphones for preventing acoustic reaction, i.e. acoustic oscillatory feedback

Abstract

Figure 2024018748000001

【課題】利用者の利便性をさらに向上させる情報処理装置、プログラム、情報処理方法、及び情報処理システムを提供する。
【解決手段】マイクアレイを2つ備える収音装置と、情報処理装置と、を含む情報処理システムにおいて、情報処理装置で動作する音処理アプリケーション231は、収音装置との接続状態を検出する検出部として機能するデバイス検出部241と、デバイス検出部241により前記情報処理装置との接続が検出された収音装置により得られた音信号を処理する処理部として機能する音処理部243と、仮想の音出力デバイスとして機能し、音処理部243による処理後の音信号である処理後音信号が入力される仮想スピーカ部251と、を備える。
【選択図】図3

Figure 2024018748000001

The present invention provides an information processing device, a program, an information processing method, and an information processing system that further improve user convenience.
In an information processing system including a sound collection device including two microphone arrays and an information processing device, a sound processing application 231 running on the information processing device detects a connection state with the sound collection device. a device detection unit 241 functioning as a virtual The virtual speaker section 251 functions as a sound output device and receives a processed sound signal that is a sound signal processed by the sound processing section 243.
[Selection diagram] Figure 3

Description

本発明は、情報処理装置、プログラム、情報処理方法、及び情報処理システムに関する。 The present invention relates to an information processing device, a program, an information processing method, and an information processing system.

近年、技術の進歩により、PC(Personal Computer)、スマートフォン、またはスマートウォッチなど、一般ユーザが入手および利用可能な情報処理装置が多様化している。これらの種々の情報処理装置は、センサまたはマイク等の収音装置を備え、ユーザの音声またはその他の音を取得して利用することも一般的になってきている。さらに、上記情報処理装置では、収音装置により収音される音の強調に関わる処理が行われる。 In recent years, due to advances in technology, information processing devices such as PCs (Personal Computers), smartphones, and smart watches that can be obtained and used by general users have diversified. It has become common for these various information processing devices to be equipped with a sound collection device such as a sensor or a microphone, and to acquire and utilize the user's voice or other sounds. Furthermore, the information processing device performs processing related to emphasizing the sound picked up by the sound pickup device.

例えば、特許文献1および特許文献2には、雑音源からの音を低減しながら、ある特定の音源からの音を強調して取得する技術が開示されている。 For example, Patent Document 1 and Patent Document 2 disclose techniques for emphasizing and acquiring sound from a certain sound source while reducing sound from a noise source.

特開平4-021000号公報Japanese Unexamined Patent Publication No. 4-021000 国際公開第2004/034734号International Publication No. 2004/034734

しかし、情報処理装置の利用者の利便性をさらに向上させることが可能な技術が提供されることが望まれる。 However, it is desired to provide a technology that can further improve convenience for users of information processing devices.

そこで、情報処理装置の利用者の利便性をさらに向上させることが可能な技術を提供する。 Therefore, a technique is provided that can further improve convenience for users of information processing devices.

上記課題を解決するために、本発明のある観点によれば、情報処理装置であって、収音装置との接続状態を検出する検出部と、前記検出部により前記情報処理装置との接続が検出された収音装置により得られた音信号を処理する処理部と、仮想の音出力デバイスとして機能し、前記処理部による処理後の音信号である処理後音信号が入力される仮想スピーカ部と、を備える、情報処理装置が提供される。 In order to solve the above problems, according to one aspect of the present invention, an information processing device includes a detection unit that detects a connection state with a sound collection device, and a detection unit that detects a connection state with the information processing device by the detection unit. a processing unit that processes the sound signal obtained by the detected sound collection device; and a virtual speaker unit that functions as a virtual sound output device and receives a processed sound signal that is the sound signal processed by the processing unit. An information processing device is provided.

前記情報処理装置は、前記検出部および前記処理部を有する音処理アプリケーションと、前記仮想スピーカ部、および仮想の音入力デバイスとして機能し、前記仮想スピーカ部から出力される前記処理後音信号が入力される仮想マイク部を有する仮想ツールと、を備え、前記音処理アプリケーションからの前記処理後音信号の出力先には、前記音処理アプリケーションの提供者により、前記仮想ツールが事前に設定されていてもよい。 The information processing device functions as a sound processing application including the detection unit and the processing unit, the virtual speaker unit, and a virtual sound input device, and receives the processed sound signal output from the virtual speaker unit as an input. a virtual tool having a virtual microphone section, the virtual tool is set in advance by a provider of the sound processing application as an output destination of the processed sound signal from the sound processing application. Good too.

前記仮想マイク部は、前記情報処理装置により認識される名称として、前記音処理アプリケーションに対応する名称を有してもよい。 The virtual microphone unit may have a name corresponding to the sound processing application as a name recognized by the information processing device.

前記検出部は、接続が検出された前記収音装置のハードウェア識別情報を取得し、前記ハードウェア識別情報が記憶部に保持されている対象デバイス識別情報と一致するか否かを照合し、前記処理部は、前記ハードウェア識別情報が前記対象デバイス識別情報と一致した場合、前記収音装置により得られた音信号の処理を開始し、前記ハードウェア識別情報が前記対象デバイス識別情報と一致しなかった場合、前記音信号の処理を実行せず、前記音信号を前記仮想スピーカ部へ出力してもよい。 The detection unit acquires hardware identification information of the sound collection device whose connection has been detected, and checks whether the hardware identification information matches target device identification information held in a storage unit, The processing unit starts processing the sound signal obtained by the sound collection device when the hardware identification information matches the target device identification information, and when the hardware identification information matches the target device identification information. If not, the sound signal may be output to the virtual speaker section without executing the processing of the sound signal.

前記処理部は、前記検出部により、接続が検出されていた前記収音装置の接続が解除されたことが検出されると、前記収音装置により得られる音信号の処理を停止してもよい。 The processing unit may stop processing the sound signal obtained by the sound collection device when the detection unit detects that the connection of the sound collection device whose connection has been detected has been released. .

表示部に表示される通知および画面を生成する画面生成部と、前記表示部への表示を制御する表示制御部をさらに備え、前記画面生成部は、前記検出部により前記収音装置の接続が検出されると、前記処理部による前記音信号の処理の対象デバイスが検出された旨の通知を生成し、前記表示制御部は、前記通知を前記表示部に表示させてもよい。 The screen generation unit further includes a screen generation unit that generates notifications and screens to be displayed on the display unit, and a display control unit that controls display on the display unit, and the screen generation unit is configured to detect the connection of the sound collection device by the detection unit. When detected, a notification may be generated to the effect that a target device for processing the sound signal by the processing unit has been detected, and the display control unit may display the notification on the display unit.

前記画面生成部は、前記検出部により前記収音装置の接続が解除されたことが検出されると、前記処理部による前記音信号の処理の対象デバイスの接続が解除された旨の通知を生成し、前記表示制御部は、前記通知を前記表示部に表示させてもよい。 When the detection unit detects that the sound collection device is disconnected, the screen generation unit generates a notification that the connection of the target device for processing the sound signal by the processing unit is disconnected. However, the display control section may display the notification on the display section.

ユーザによるパラメータの変更操作に応じて、前記処理部による前記音信号の処理に係るパラメータを設定するパラメータ設定部、をさらに備え、前記画面生成部は、前記ユーザによる前記パラメータの変更操作を受け付けるパラメータ設定画面を生成し、前記表示制御部は、前記表示部に前記パラメータ設定画面を表示させてもよい。 The screen generator further includes a parameter setting unit configured to set a parameter related to the processing of the sound signal by the processing unit in response to a parameter change operation by the user, and the screen generation unit is configured to set a parameter that accepts the parameter change operation by the user. A setting screen may be generated, and the display control section may display the parameter setting screen on the display section.

前記処理部は、前記収音装置により得られる前記音信号に対し、目的エリアの音の成分を強調するための音信号の処理である、エリア収音処理を行ってもよい。 The processing unit may perform area sound collection processing, which is sound signal processing for emphasizing sound components in a target area, on the sound signal obtained by the sound collection device.

前記処理部は、前記収音装置により得られる前記音信号に対し、前記目的エリアの音の成分以外の周囲音の成分を弱める処理を行うことにより、前記エリア収音処理を行ってもよい。 The processing unit may perform the area sound collection process by performing processing on the sound signal obtained by the sound collection device to weaken ambient sound components other than sound components in the target area.

前記処理部は、前記収音装置により得られる前記音信号に対し、前記目的エリアの音の成分を増幅する処理を行うことにより、前記エリア収音処理を行ってもよい。 The processing unit may perform the area sound collection process by performing processing on the sound signal obtained by the sound collection device to amplify a sound component in the target area.

前記処理後音信号の出力先は、前記処理後音信号を利用する利用アプリケーションであってもよい。 The output destination of the processed sound signal may be a usage application that uses the processed sound signal.

前記利用アプリケーションは、前記処理後音信号の発生源の状態異常を前記処理後音信号に基づいて機械学習により検知する状態検知アプリケーションであってもよい。 The usage application may be a state detection application that detects a state abnormality of a source of the processed sound signal by machine learning based on the processed sound signal.

また、上記課題を解決するために本発明の別の観点によれば、コンピュータを、情報処理装置と収音装置との接続状態を検出する検出部と、前記検出部により前記情報処理装置との接続が検出された収音装置により得られた音信号を処理する処理部と、仮想の音出力デバイスとして機能し、前記処理部による処理後の音信号である処理後音信号が入力される仮想スピーカ部と、して機能させるための、プログラムが提供される。 According to another aspect of the present invention to solve the above problems, the computer includes a detection section that detects a connection state between an information processing device and a sound collection device; A processing unit that processes the sound signal obtained by the sound collection device whose connection has been detected, and a virtual device that functions as a virtual sound output device and receives a processed sound signal that is the sound signal processed by the processing unit. A program is provided to make it function as a speaker section.

また、上記課題を解決するために本発明の別の観点によれば、情報処理装置と収音装置との接続状態を検出することと、前記情報処理装置との接続が検出された収音装置により得られた音信号を処理することと、仮想の音出力デバイスとして機能する仮想スピーカ部に処理後の音信号である処理後音信号を入力することと、を含む、コンピュータにより実行される情報処理方法が提供される。 According to another aspect of the present invention, in order to solve the above problems, a connection state between an information processing device and a sound collection device is detected, and a sound collection device whose connection with the information processing device is detected is provided. and inputting the processed sound signal, which is the processed sound signal, to a virtual speaker unit functioning as a virtual sound output device. A processing method is provided.

また、上記課題を解決するために本発明の別の観点によれば、収音装置と、情報処理装置と前記収音装置との接続状態を検出する検出部と、前記検出部により前記情報処理装置との接続が検出された収音装置により得られた音信号を処理する処理部と、仮想の音出力デバイスとして機能し、前記処理部による処理後の音信号である処理後音信号が入力される仮想スピーカ部と、を含む、情報処理システムが提供される。 According to another aspect of the present invention, in order to solve the above problems, a sound collection device, a detection unit that detects a connection state between an information processing device and the sound collection device, and a detection unit configured to perform the information processing by the detection unit. A processing unit that processes the sound signal obtained by the sound collection device whose connection with the device has been detected, and a processed sound signal that functions as a virtual sound output device and receives the processed sound signal that is the sound signal processed by the processing unit. An information processing system is provided, including a virtual speaker section that is configured to perform a virtual speaker section.

本発明による情報処理システムの概要および機能構成例を説明するための説明図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an explanatory diagram for explaining an overview and functional configuration example of an information processing system according to the present invention. 本実施形態による情報処理装置20の機能構成例を説明するブロック図である。FIG. 2 is a block diagram illustrating an example of the functional configuration of an information processing device 20 according to the present embodiment. 本実施形態による音処理アプリケーション231の機能構成例を説明するためのブロック図である。FIG. 2 is a block diagram for explaining an example of a functional configuration of a sound processing application 231 according to the present embodiment. 画面生成部247により生成されるパラメータ設定画面の一例を説明するための説明図である。3 is an explanatory diagram for explaining an example of a parameter setting screen generated by a screen generation unit 247. FIG. 画面生成部247により生成されるパラメータ設定画面の他の一例を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining another example of a parameter setting screen generated by the screen generation unit 247. 画面生成部247により生成されるパラメータ設定画面の他の一例を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining another example of a parameter setting screen generated by the screen generation unit 247. 会議アプリケーション233において仮想マイク部253が音入力元デバイスとして選択される選択画面の一例を示す説明図である。12 is an explanatory diagram showing an example of a selection screen in which the virtual microphone unit 253 is selected as a sound input source device in the conference application 233. FIG. 本実施形態による情報処理システムの動作処理例を説明するためのフローチャート図である。FIG. 2 is a flowchart diagram for explaining an example of operational processing of the information processing system according to the present embodiment. 本発明の一実施形態による情報処理装置20のハードウェア構成例を示す図である。1 is a diagram showing an example of a hardware configuration of an information processing device 20 according to an embodiment of the present invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configurations are designated by the same reference numerals and redundant explanation will be omitted.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字またはアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。 Further, in this specification and the drawings, a plurality of components having substantially the same functional configuration may be distinguished by using different numbers or alphabets after the same reference numeral. However, if there is no particular need to distinguish each of the plurality of components having substantially the same functional configuration, only the same reference numerals are given to each of the plurality of components.

<1.本発明の一実施形態による情報処理システムの概要>
本発明は、情報処理装置の利用者の利便性をさらに向上させることが可能な技術に関する。より詳細には、本発明によれば、情報処理装置の利用者が、当該情報処理装置に接続された収音装置を用いて所望の音を当該情報処理装置に入力し、他の装置へ送信させる際の、利用者の利便性を向上させることが出来る。より具体的には、本発明は、例えばヘッドセットに付属しているマイクから利用者の音声を収音して得られた音信号に利用者の音声をより強調するための処理を行って、処理後の音信号をリモート会議システムの相手先に送信するような場合に適用可能である。
<1. Overview of information processing system according to an embodiment of the present invention>
The present invention relates to a technology that can further improve convenience for users of information processing devices. More specifically, according to the present invention, a user of an information processing device inputs desired sound into the information processing device using a sound pickup device connected to the information processing device, and transmits the sound to another device. It is possible to improve the convenience for users when doing so. More specifically, the present invention performs processing to further emphasize the user's voice on a sound signal obtained by collecting the user's voice from a microphone attached to a headset, for example. This method is applicable to cases where a processed sound signal is sent to the other end of a remote conference system.

図1は、本発明による情報処理システムの概要および機能構成例を説明するための説明図である。図1に示したように、本実施形態による情報処理システムは、収音装置10および情報処理装置20を含む。収音装置10と情報処理装置20とは、有線により接続されている。なお、収音装置10および情報処理装置20は、無線接続により通信可能に構成されていてもよい。 FIG. 1 is an explanatory diagram for explaining an overview and functional configuration example of an information processing system according to the present invention. As shown in FIG. 1, the information processing system according to this embodiment includes a sound collection device 10 and an information processing device 20. The sound collection device 10 and the information processing device 20 are connected by wire. Note that the sound collection device 10 and the information processing device 20 may be configured to be able to communicate via wireless connection.

(収音装置10)
収音装置10は、マイクアレイ110を2つ備える収音装置である。マイクアレイ110は、それぞれ、少なくとも2以上のマイク(マイクロフォン)を備える2ch(Channel)以上のマイクアレイである。各マイクは、一般的な無指向性のマイクであってよい。マイクアレイ110Aおよびマイクアレイ110Bは、各々が2以上のマイクを有することで、収音範囲の指向性を備えることが出来る。
(Sound collection device 10)
The sound collection device 10 is a sound collection device including two microphone arrays 110. The microphone array 110 is a microphone array of 2 channels (channels) or more each including at least two or more microphones. Each microphone may be a general omnidirectional microphone. The microphone array 110A and the microphone array 110B each have two or more microphones, so that they can have directivity in the sound collection range.

また、マイクアレイ110Aおよびマイクアレイ110Bは、各々の収音範囲が重なるエリアに、収音装置10に音の入力を行う音源(例えば、情報処理装置20の利用者の顔面や口)が含まれるような位置に配置される。このように、マイクアレイ110Aおよびマイクアレイ110Bの収音範囲が重なるエリアを、以下、目的エリアとも称する。 Furthermore, in the microphone array 110A and the microphone array 110B, a sound source (for example, the face or mouth of the user of the information processing device 20) that inputs sound to the sound collection device 10 is included in an area where the sound collection ranges of the microphone arrays 110A and 110B overlap. placed in such a position. In this way, the area where the sound collection ranges of microphone array 110A and microphone array 110B overlap is hereinafter also referred to as a target area.

なお、マイクアレイ110Aおよびマイクアレイ110Bの位置は、収音装置10に音の入力を行う音源の位置に対して目的エリアが生じる位置関係に配置されていればよく、特に限定されるものではない。例えば、収音装置10に音の入力を行う音源の位置を包含する目的エリアに対して、マイクアレイ110Aおよびマイクアレイ110Bの指向性が交差するように配置してもよい。例えば、目的エリアを挟んで、マイクアレイ110Aおよびマイクアレイ110Bが対向するように配置してもよい。 Note that the positions of the microphone array 110A and the microphone array 110B are not particularly limited as long as they are placed in a positional relationship that creates a target area with respect to the position of the sound source that inputs sound to the sound collection device 10. . For example, the microphone array 110A and the microphone array 110B may be arranged so that their directivity intersects with respect to a target area that includes the position of a sound source that inputs sound to the sound collection device 10. For example, microphone array 110A and microphone array 110B may be arranged to face each other with the target area in between.

収音装置10は、例えば、2のマイクアレイを備えるヘッドセットにより実現されてもよい。または、収音装置10は、2以上のマイクアレイを含んで構成されるステレオスピーカ、キーボード、ネックスピーカ、または、モニターの上部に内蔵された指向性スピーカ等であってもよい。または、収音装置10は、マイクアレイ110単体を2以上組み合わせたものであってもよい。 The sound collection device 10 may be realized by, for example, a headset including two microphone arrays. Alternatively, the sound collection device 10 may be a stereo speaker including two or more microphone arrays, a keyboard, a neck speaker, a directional speaker built into the upper part of a monitor, or the like. Alternatively, the sound collection device 10 may be a combination of two or more individual microphone arrays 110.

収音装置10は、図1に図示しないユーザの音声、および、収音可能な範囲内で発生するその他の音を収音する機能を有する。収音装置10は、収音した音の信号(音信号)を、情報処理装置20へ出力する。 The sound collection device 10 has a function of collecting a user's voice (not shown in FIG. 1) and other sounds occurring within a sound collection range. The sound collection device 10 outputs a collected sound signal (sound signal) to the information processing device 20 .

(情報処理装置20)
情報処理装置20は、収音装置10により得られる音信号に音処理を行う情報処理装置である。情報処理装置20は、例えば、PC(Personal Computer)により実現される。または、情報処理装置20は、サーバ(Server)、PDA(Personal Digital Assistant)、デジタルカメラ、オーディオプレーヤ、固定電話機、携帯電話機・スマートフォン、スマートウォッチ、タブレット端末、プリンタ、スキャナ、複合機、自動販売機、自動券売機、キオスク端末、現金処理機、ATM(Automated/Automatic Teller Machine)(Cash Machine)、測定機器、計測機器、医療機器、カーナビ(Automotive Navigation System)、自動車、アマチュア局用無線機、放送局用無線機、業務用無線機(例えば総務省令電波法施行規則第3条第1項(業務の分類及び定義)で示される業務用の情報伝達のための無線機器)、ゲーム機、テレビ、エアコン、空気清浄機、冷蔵庫、または電子レンジ等により実現されてもよい。
(Information processing device 20)
The information processing device 20 is an information processing device that performs sound processing on the sound signal obtained by the sound collection device 10. The information processing device 20 is realized by, for example, a PC (Personal Computer). Alternatively, the information processing device 20 may be a server, a PDA (Personal Digital Assistant), a digital camera, an audio player, a landline telephone, a mobile phone/smartphone, a smart watch, a tablet terminal, a printer, a scanner, a multifunction device, or a vending machine. , automatic ticket vending machine, kiosk terminal, cash processing machine, ATM (Automated/Automatic Teller Machine) (Cash Machine), measuring equipment, measuring equipment, medical equipment, car navigation system (Automotive Navigation System), automobile, radio equipment for amateur stations, broadcasting Office radios, commercial radios (e.g. radio equipment for transmitting information for commercial use as specified in Article 3, Paragraph 1 (Classification and Definition of Business) of the Radio Law Enforcement Regulations of the Ministry of Internal Affairs and Communications), game consoles, televisions, It may be realized by an air conditioner, an air purifier, a refrigerator, a microwave oven, or the like.

情報処理装置20は、収音装置10により得られる音信号に音処理を行う、音処理アプリケーションとしての機能を有する。音処理アプリケーションは、例えば次のような機能を含む。 The information processing device 20 has a function as a sound processing application that performs sound processing on the sound signal obtained by the sound collection device 10. The sound processing application includes, for example, the following functions.

第一の機能として、情報処理装置20は、収音装置10により得られる音信号に、目的エリアの音を強調する、または、目的エリア以外の周囲音を弱める処理を行う。 As a first function, the information processing device 20 performs processing on the sound signal obtained by the sound collection device 10 to emphasize sounds in the target area or to weaken ambient sounds outside the target area.

より詳細には、目的エリアの音成分は、マイクアレイ110Aおよびマイクアレイ110Bの収音範囲が重なっているエリアの音成分である。従って、マイクアレイ110Aおよびマイクアレイ110Bのそれぞれにより得られる各音信号には、目的エリアの音成分が、同時(同位相)に、同じ大きさ(同強度)で含まれ得る。情報処理装置20は、このことを利用して、マイクアレイ110Aおよびマイクアレイ110Bにより得られる音信号を周波数領域で分析し、目的エリアの音成分を抽出する。情報処理装置20は、抽出された目的エリアの音成分について、当該音成分を強調する、または、目的エリアの音成分以外の音成分を弱める処理を行うことが出来る。 More specifically, the sound component in the target area is the sound component in the area where the sound collection ranges of microphone array 110A and microphone array 110B overlap. Therefore, each sound signal obtained by each of the microphone array 110A and the microphone array 110B can contain the sound components of the target area simultaneously (in the same phase) and with the same magnitude (the same intensity). Using this fact, the information processing device 20 analyzes the sound signals obtained by the microphone array 110A and the microphone array 110B in the frequency domain, and extracts the sound component of the target area. The information processing device 20 can perform a process of emphasizing the extracted sound components of the target area or weakening sound components other than the sound components of the target area.

また、情報処理装置20は、上述の様に、それぞれ2以上のマイクを備える2のマイクアレイ110を用いる方法で目的エリアの音成分を抽出することにより、収音装置10側からみて目的エリアの後方に妨害音が発生していても、目的エリアの音のみを抽出することが出来る。 In addition, as described above, the information processing device 20 extracts the sound components of the target area by a method using two microphone arrays 110 each having two or more microphones, thereby detecting the target area as seen from the sound collection device 10 side. It is possible to extract only the sounds in the target area even if there is disturbing sound behind the device.

また、第二の機能として、情報処理装置20は、上記音処理を行う対象となる音信号が取得され得る収音装置を、対象デバイスとして識別する機能を有する。情報処理装置20は、対象デバイスと情報処理装置20との接続状態を検出する。さらに、情報処理装置20は、対象デバイスが接続されると、当該対象デバイスにより得られる音信号に上記処理を自動で開始する。これにより、情報処理装置20の利用者が手動で上記処理の開始操作を行う手間が省かれ、利用者の利便性が向上する。 Furthermore, as a second function, the information processing device 20 has a function of identifying, as a target device, a sound collection device from which a sound signal to be subjected to the above-mentioned sound processing can be acquired. The information processing device 20 detects the connection state between the target device and the information processing device 20. Further, when the target device is connected, the information processing apparatus 20 automatically starts the above-mentioned processing on the sound signal obtained by the target device. This saves the user of the information processing device 20 the trouble of manually starting the process, improving convenience for the user.

また、第三の機能として、情報処理装置20は、上記処理を行った後の音信号が、情報処理装置20上で動作するリモート会議システム等の会議アプリケーションに入力されるための、仮想スピーカおよび仮想マイクの機能を有する。仮想スピーカは、情報処理装置20で仮想の音出力デバイスとして機能する。仮想スピーカには、上記処理後の音信号が入力される。また、仮想スピーカに入力された音信号は、情報処理装置20で仮想の音入力デバイスとして機能する仮想マイクに入力される。本発明において、仮想スピーカおよび仮想マイクを、併せて仮想ツールとも称する。 In addition, as a third function, the information processing device 20 has a virtual speaker and a Has virtual microphone function. The virtual speaker functions as a virtual sound output device in the information processing device 20. The sound signal after the above processing is input to the virtual speaker. Furthermore, the sound signal input to the virtual speaker is input to a virtual microphone that functions as a virtual sound input device in the information processing apparatus 20. In the present invention, a virtual speaker and a virtual microphone are also collectively referred to as a virtual tool.

さらに、音処理アプリケーションからの処理後の音信号の出力先には、当該音処理アプリケーションの提供者により、上記仮想ツールが事前に設定されている。 Further, the virtual tool is set in advance at the output destination of the processed sound signal from the sound processing application by the provider of the sound processing application.

情報処理装置20の利用者は、情報処理装置20上で会議アプリケーションに上記処理後の音信号を入力させたいときに、音入力デバイスとして上記仮想マイクを選択することが出来る。さらに、本発明による上記仮想マイクの、利用者に提示される名称には、上記音の処理を行う音処理アプリケーションに対応する名称が設定される。従って、情報処理装置20の利用者は、音入力デバイスに選択し得るデバイスのうち、どの入力デバイスを用いるかを、容易に認識し得る。 When the user of the information processing device 20 wants to input the processed sound signal to the conference application on the information processing device 20, the user can select the virtual microphone as the sound input device. Further, the name of the virtual microphone according to the present invention presented to the user is set to a name corresponding to a sound processing application that processes the sound. Therefore, the user of the information processing device 20 can easily recognize which input device to use among the devices that can be selected as the sound input device.

以上、図1を参照して、本実施形態による情報処理システムの概要を説明した。続いて、図2および図3を参照して、本実施形態による情報処理装置20の機能構成例を説明する。 The outline of the information processing system according to this embodiment has been described above with reference to FIG. Next, an example of the functional configuration of the information processing device 20 according to this embodiment will be described with reference to FIGS. 2 and 3.

<2.機能構成例>
<2-1.情報処理装置20>
図2は、本実施形態による情報処理装置20の機能構成例を説明するブロック図である。図2に示したように、情報処理装置20は、通信部210、記憶部220、制御部230、操作表示部270、および、音出力部280を有する。
<2. Functional configuration example>
<2-1. Information processing device 20>
FIG. 2 is a block diagram illustrating an example of the functional configuration of the information processing device 20 according to this embodiment. As shown in FIG. 2, the information processing device 20 includes a communication section 210, a storage section 220, a control section 230, an operation display section 270, and a sound output section 280.

(通信部210)
通信部210は、制御部230の制御に従って、外部装置との間で各種通信を行う機能を有する。例えば、通信部210は、収音装置10により得られ、制御部230により処理が行われた後の音信号を、当該音信号が入力される会議アプリケーションでの通話相手先の情報処理端末へ送信してもよい。
(Communication department 210)
The communication unit 210 has a function of performing various communications with external devices under the control of the control unit 230. For example, the communication unit 210 transmits the sound signal obtained by the sound collection device 10 and processed by the control unit 230 to the information processing terminal of the other party in the conference application to which the sound signal is input. You may.

(記憶部220)
記憶部220は、ソフトウェアおよび各種データを保持する。例えば、記憶部220は、OS(Operating System)や後述する音処理アプリケーションのプログラムを保持する。また、記憶部220は、音処理アプリケーションによる音の処理の対象となる対象デバイスの、対象デバイス識別情報を保持する。
(Storage unit 220)
Storage unit 220 holds software and various data. For example, the storage unit 220 holds an OS (Operating System) and a sound processing application program to be described later. Furthermore, the storage unit 220 holds target device identification information of a target device whose sound is to be processed by the sound processing application.

また、記憶部220は、後述するエリア収音処理に関連するパラメータの設定値を記憶する。例えば、パラメータの設定値が記述された設定ファイル(例えば、ini形式ファイル)が、記憶部220に保持されていてもよい。 Furthermore, the storage unit 220 stores setting values of parameters related to area sound collection processing, which will be described later. For example, a configuration file (for example, an ini format file) in which parameter setting values are described may be held in the storage unit 220.

(制御部230)
制御部230は、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)などの演算装置を含み、ROM(Read Only Memory)により記憶されているプログラムがRAM(Random Access Memory)に展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータにより読み取り可能な記録媒体も提供され得る。あるいは、これらのブロックは、専用のハードウェアにより構成されてもよいし、複数のハードウェアの組合せにより実現されてもよい。
(Control unit 230)
The control unit 230 includes an arithmetic unit such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and stores programs stored in a ROM (Read Only Memory) in a RAM (Random Access Memory). ) and executed This function can be realized by At this time, a computer-readable recording medium on which the program is recorded may also be provided. Alternatively, these blocks may be configured by dedicated hardware or may be realized by a combination of multiple pieces of hardware.

演算装置による演算に必要なデータは、記憶部220によって適宜記憶される。記憶部220は、RAM、ハードディスクドライブまたはフラッシュメモリなどのメモリによって構成されてよい。 Data necessary for calculation by the calculation device is appropriately stored in the storage unit 220. The storage unit 220 may be configured with a memory such as a RAM, a hard disk drive, or a flash memory.

このような制御部230は、情報処理装置20の動作全般を制御する。例えば、制御部230は、通信部210を制御して、処理後の音信号を外部装置へ送信させる。 Such a control unit 230 controls the overall operation of the information processing device 20. For example, the control unit 230 controls the communication unit 210 to transmit the processed sound signal to an external device.

また、制御部230は、音処理アプリケーション231、会議アプリケーション233、および、表示制御部235としての機能を有する。音処理アプリケーション231が有する本体部240、および仮想ツール部250の機能の詳細は、後に図3を参照して詳細に説明する。 Further, the control unit 230 has functions as a sound processing application 231, a conference application 233, and a display control unit 235. The functions of the main body section 240 and the virtual tool section 250 included in the sound processing application 231 will be explained in detail later with reference to FIG. 3.

会議アプリケーション233は、情報処理装置20の利用者が、外部装置を用いている他の利用者とネットワークを介して音および映像により対話または情報の共有を行うことを可能とするアプリケーションである。会議アプリケーション233は、音入力部260としての機能を有する。音入力部260には、利用者または会議アプリケーション233の初期設定により選択される音出力デバイスから出力される音信号が入力される。会議アプリケーション233は、特定の会議アプリケーションに限定されない。会議アプリケーション233は、既知の会議アプリケーションであってよい。 The conference application 233 is an application that allows a user of the information processing device 20 to interact or share information with other users using external devices via a network using audio and video. The conference application 233 has a function as a sound input section 260. A sound signal output from a sound output device selected by the user or by the initial settings of the conference application 233 is input to the sound input unit 260 . Conference application 233 is not limited to a specific conference application. Conference application 233 may be a known conference application.

表示制御部235は、操作表示部270に各種画面を表示させる制御を行う機能を有する。 The display control unit 235 has a function of controlling the operation display unit 270 to display various screens.

(操作表示部270)
操作表示部270は、情報処理装置20の利用者による各種操作を受け付けることが可能な操作部としての機能を有する。例えば、情報処理装置20の利用者は、操作表示部270を操作することにより、リモート会議システムアプリケーションに入力される音の入力元デバイスの選択操作を行ってもよい。
(Operation display section 270)
The operation display section 270 has a function as an operation section that can accept various operations by the user of the information processing device 20. For example, the user of the information processing device 20 may operate the operation display unit 270 to select an input source device for sound input to the remote conference system application.

また、操作表示部270は、表示制御部235の制御に従って、各種画面を表示する表示部としての機能を有する。 Further, the operation display section 270 has a function as a display section that displays various screens under the control of the display control section 235.

操作表示部270の操作部としての機能は、例えば、タッチパネルまたはキーボードにより実現され得る。また、表示部としての機能は、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)、OLED(Organic Light Emitting Diode)装置により実現され得る。なお、表示部としての機能および操作部としての機能は分離して構成されてもよい。 The function of the operation display section 270 as an operation section can be realized by, for example, a touch panel or a keyboard. Further, the function as a display unit can be realized by a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD), or an OLED (Organic Light Emitting Diode) device. Note that the function as a display section and the function as an operation section may be configured separately.

(音出力部280)
音出力部280は、制御部230の制御に従って、音を出力する機能を有する。音出力部280は、例えば、スピーカおよびヘッドフォンなどの音出力装置により実現される。音出力部280は、音声データ等に含まれる音信号を音に変換して出力する。
(Sound output section 280)
The sound output unit 280 has a function of outputting sound under the control of the control unit 230. The sound output unit 280 is realized by, for example, a sound output device such as a speaker and headphones. The sound output unit 280 converts a sound signal included in audio data or the like into sound and outputs the sound.

以上、図2を参照して、本実施形態による情報処理装置20の機能構成例を説明した。続いて、図3を参照して、上述した音処理アプリケーション231の有する機能を詳細に説明する。 The functional configuration example of the information processing device 20 according to this embodiment has been described above with reference to FIG. 2. Next, with reference to FIG. 3, the functions of the above-mentioned sound processing application 231 will be explained in detail.

図3は、本実施形態による音処理アプリケーション231の機能構成例を説明するためのブロック図である。図3に示したように、音処理アプリケーション231は、本体部240、および、仮想ツール部250としての機能を有する。本体部240、および、仮想ツール部250は、同一のインストーラによって一体的に情報処理装置20にインストールされる。 FIG. 3 is a block diagram for explaining an example of the functional configuration of the sound processing application 231 according to this embodiment. As shown in FIG. 3, the sound processing application 231 has functions as a main body section 240 and a virtual tool section 250. The main body section 240 and the virtual tool section 250 are integrally installed in the information processing apparatus 20 by the same installer.

音処理アプリケーション231は、例えば、情報処理装置20の起動時に自動で立ち上がり、バックグランドアプリとして常駐していてもよい。音処理アプリケーション231は、後述する対象デバイスである収音装置10の接続が検出されるまで、バックグランドで待機していてもよい。このとき、音処理アプリケーション231は、待機状態では音信号の処理を行わない。また、情報処理装置20の利用者が操作表示部270を操作することにより、手動で音処理アプリケーション231を起動することできてもよい。例えば、情報処理装置20の利用者は、音処理アプリケーション231の実行ファイル(例えばexeファイル)を直接実行することにより、音処理アプリケーション231を起動してもよい。 The sound processing application 231 may, for example, automatically start up when the information processing device 20 is started up and reside as a background application. The sound processing application 231 may wait in the background until the connection of the sound collection device 10, which is a target device to be described later, is detected. At this time, the sound processing application 231 does not process sound signals in the standby state. Further, the user of the information processing device 20 may be able to manually start the sound processing application 231 by operating the operation display unit 270. For example, the user of the information processing device 20 may start the sound processing application 231 by directly executing an executable file (for example, an exe file) of the sound processing application 231.

また、音処理アプリケーション231は、情報処理装置20の電源が落とされた場合には、自動的に終了してもよい。また、情報処理装置20の利用者が操作表示部270を操作することにより、手動で音処理アプリケーション231を終了させることが出来てもよい。例えば、情報処理装置20の利用者が、一般的なPCのデスクトップ画面の右下等に表示されるタスクトレイ等からメニューを開き、音処理アプリケーション231の終了を選択することが出来てもよい。 Further, the sound processing application 231 may be automatically terminated when the information processing device 20 is powered off. Furthermore, the user of the information processing device 20 may be able to manually terminate the sound processing application 231 by operating the operation display unit 270. For example, the user of the information processing device 20 may be able to open a menu from a task tray or the like displayed at the bottom right of the desktop screen of a typical PC and select to terminate the sound processing application 231.

(本体部240)
本体部240は、収音装置10により得られ、情報処理装置20に出力される音信号を処理する機能を有する。このような本体部240の機能は、より詳細には、デバイス検出部241、音処理部243、パラメータ設定部245、および、画面生成部247としての機能により実現される。
(Main body part 240)
The main body section 240 has a function of processing sound signals obtained by the sound collection device 10 and output to the information processing device 20. More specifically, the functions of the main body section 240 are realized by functions as a device detection section 241, a sound processing section 243, a parameter setting section 245, and a screen generation section 247.

デバイス検出部241は、情報処理装置20と収音装置10との接続状態を検出する機能を有する。デバイス検出部241は、情報処理装置20の検出部の一例である。 The device detection unit 241 has a function of detecting the connection state between the information processing device 20 and the sound collection device 10. The device detection unit 241 is an example of a detection unit of the information processing device 20.

デバイス検出部241は、情報処理装置20との接続が検出された収音装置10を一意に識別可能とする、収音装置10のハードウェア識別情報を取得する。さらに、デバイス検出部241は、取得されたハードウェア識別情報が、記憶部220に保持されている対象デバイス識別情報と一致するか否かを照合する。これにより、デバイス検出部241は、情報処理装置20と接続が検出された収音装置10が、対象デバイスであるか否かを検出することが出来る。なお、記憶部220に保持される対象デバイス識別情報は複数あってよい。 The device detection unit 241 acquires hardware identification information of the sound collection device 10 that allows the sound collection device 10 whose connection with the information processing device 20 has been detected to be uniquely identified. Further, the device detection unit 241 checks whether the acquired hardware identification information matches the target device identification information held in the storage unit 220. Thereby, the device detection unit 241 can detect whether the sound collection device 10 whose connection to the information processing device 20 has been detected is the target device. Note that there may be a plurality of pieces of target device identification information held in the storage unit 220.

音処理部243は、収音装置10により得られる音信号を処理する機能を有する。より詳細には、音処理部243は、収音装置10により得られる音信号に対し、目的エリアの音の成分を強調するための音信号の処理である、エリア収音処理を行う。このような音処理部243は、情報処理装置20の処理部の一例である。 The sound processing unit 243 has a function of processing sound signals obtained by the sound collection device 10. More specifically, the sound processing unit 243 performs area sound collection processing on the sound signal obtained by the sound collection device 10, which is sound signal processing for emphasizing sound components in the target area. Such a sound processing section 243 is an example of a processing section of the information processing device 20.

音処理部243は、デバイス検出部241による上記照合の結果、情報処理装置20との接続が検出された収音装置10のハードウェア識別情報が対象デバイス識別情報と一致した場合、収音装置10により得られた音信号の処理を自動的に開始する。また、音処理部243は、上記ハードウェア識別情報が対象デバイス識別情報と一致しなかった場合、収音装置10により得られる音信号の処理を実行せずに、当該音信号を後述する仮想スピーカ部251へ出力する。このように、情報処理装置20に音処理部243による音信号の処理の対象デバイスが接続されると、音処理部243による音信号の処理が自動的に開始される。また、情報処理装置20と対象デバイスとの接続が解除されると、音処理部243による音信号の処理が自動的に停止される。 If the hardware identification information of the sound collection device 10 detected to be connected to the information processing device 20 matches the target device identification information as a result of the above verification by the device detection unit 241, the sound processing unit 243 detects the sound collection device 10. automatically starts processing the sound signal obtained by. In addition, if the hardware identification information does not match the target device identification information, the sound processing unit 243 does not process the sound signal obtained by the sound collection device 10, and transmits the sound signal to a virtual speaker (described later). It is output to section 251. In this way, when a device whose sound signals are to be processed by the sound processing section 243 is connected to the information processing apparatus 20, processing of the sound signals by the sound processing section 243 is automatically started. Moreover, when the connection between the information processing apparatus 20 and the target device is released, the processing of the sound signal by the sound processing unit 243 is automatically stopped.

また、音処理部243は、エリア収音処理として、次のような処理を行ってもよい。例えば、音処理部243は、収音装置10により得られる音信号に対し、目的エリアの音の成分以外の周囲音の成分を弱める処理を行うことにより、エリア収音処理を行ってもよい。 Further, the sound processing unit 243 may perform the following processing as area sound collection processing. For example, the sound processing unit 243 may perform area sound collection processing on the sound signal obtained by the sound collection device 10 by performing processing to weaken ambient sound components other than the sound components of the target area.

または、音処理部243は、収音装置10により得られる音信号に対し、目的エリアの音の成分を増幅する処理を行うことにより、エリア収音処理を行ってもよい。 Alternatively, the sound processing unit 243 may perform area sound collection processing by performing processing on the sound signal obtained by the sound collection device 10 to amplify sound components in the target area.

さらに、音処理部243は、収音装置10により得られる音信号に対し、目的エリアの音の成分以外の周囲音の成分を弱める処理と、目的エリアの音の成分を増幅する処理と、の両方の処理を行うことにより、エリア収音処理を行ってもよい。 Furthermore, the sound processing unit 243 performs processing on the sound signal obtained by the sound collection device 10 to weaken ambient sound components other than the sound components in the target area, and processing to amplify the sound components in the target area. Area sound collection processing may be performed by performing both processing.

これにより、例えば収音装置10により収音される音信号のうち、収音装置10に向かって発話している利用者の音声が強調され、利用者の音声以外の雑音が相対的に弱められ得る。 As a result, for example, among the sound signals collected by the sound collection device 10, the voice of the user speaking toward the sound collection device 10 is emphasized, and noise other than the user's voice is relatively weakened. obtain.

パラメータ設定部245は、情報処理装置20の利用者によるパラメータの変更操作に応じて、音処理部243による音信号の処理に係るパラメータを設定する機能を有する。 The parameter setting unit 245 has a function of setting parameters related to sound signal processing by the sound processing unit 243 in response to a parameter changing operation by a user of the information processing device 20.

より詳細には、パラメータ設定部245は、記憶部220に記憶されているパラメータの設定ファイルを読み込む機能を有する。設定ファイルは、例えばini形式のファイルであってもよい。また、記憶部220には、パラメータの設定値が互いに異なる複数パターンの設定ファイルが記憶されていてもよい。 More specifically, the parameter setting section 245 has a function of reading a parameter setting file stored in the storage section 220. The configuration file may be, for example, an ini format file. Furthermore, the storage unit 220 may store setting files having a plurality of patterns in which parameter setting values are different from each other.

パラメータ設定部245は、記憶部220を参照して読み込んだ上記設定ファイルに基づいて、パラメータを設定する。また、パラメータ設定部245は、読み込んだ上記設定ファイルに基づく各パラメータの値を調整してもよく、調整後の値でパラメータを設定してもよい。さらに、パラメータ設定部245は、調整後の各パラメータの値を、新たなパターンの設定ファイルとして記憶部220に記憶させてもよい。音処理部243は、パラメータ設定部245により設定されたパラメータに基づいて、エリア収音処理を行う。 The parameter setting section 245 sets parameters based on the above-mentioned setting file read with reference to the storage section 220. Further, the parameter setting unit 245 may adjust the value of each parameter based on the read configuration file, or may set the parameter with the adjusted value. Further, the parameter setting section 245 may cause the storage section 220 to store the adjusted values of each parameter as a new pattern setting file. The sound processing section 243 performs area sound collection processing based on the parameters set by the parameter setting section 245.

画面生成部247は、情報処理装置20の利用者によるパラメータの変更操作を受け付けるパラメータ設定画面を生成する機能を有する。画面生成部247により生成されるパラメータ設定画面は、表示制御部235の制御に従って、操作表示部270に表示される。 The screen generation unit 247 has a function of generating a parameter setting screen that accepts a parameter change operation by a user of the information processing device 20. The parameter setting screen generated by the screen generation section 247 is displayed on the operation display section 270 under the control of the display control section 235.

ここで、図4~図6を参照して、画面生成部247により生成されるパラメータ設定画面と、情報処理装置20の利用者による変更操作が可能なパラメータについて説明する。 Here, the parameter setting screen generated by the screen generation unit 247 and the parameters that can be changed by the user of the information processing device 20 will be described with reference to FIGS. 4 to 6.

図4は、画面生成部247により生成されるパラメータ設定画面の一例を説明するための説明図である。図4に示したように、画面生成部247は、例えば「設定パネル」等の名称で、利用者による各種パラメータの変更操作を受け付けることが可能なGUI(Graphical User Interface)を生成してもよい。 FIG. 4 is an explanatory diagram for explaining an example of a parameter setting screen generated by the screen generation unit 247. As shown in FIG. 4, the screen generation unit 247 may generate a GUI (Graphical User Interface) with a name such as "Settings Panel", which can accept the user's operations to change various parameters. .

図4に示した例では、画面生成部247により生成されるパラメータ設定画面(設定パネル)は、マイクゲイン(例えば設定範囲0~50、単位dB)、および、周囲音取り込みの度合い(例えば0~100の範囲)を変更可能なパラメータとして含む。また、図4に示したように、上記パラメータ設定画面は、音処理部243によるエリア収音処理における、目的エリア音の強調度合い、および、周囲音が弱められる度合いのいずれかまたは両方を調節することが可能な、効き具合のパラメータ(例えば、0~20の21段階)を含んでいてもよい。 In the example shown in FIG. 4, the parameter setting screen (setting panel) generated by the screen generation unit 247 includes the microphone gain (for example, setting range 0 to 50, unit dB) and the degree of ambient sound capture (for example, 0 to 50). 100 range) as changeable parameters. Further, as shown in FIG. 4, the parameter setting screen adjusts either or both of the degree of emphasis of target area sound and the degree of attenuation of ambient sound in area sound collection processing by the sound processing unit 243. It may also include parameters for effectiveness (for example, 21 levels from 0 to 20).

さらに、図4に示したように、画面生成部247により生成されるパラメータ設定画面は、押下操作により各パラメータの値を所定の初期値に設定することが可能な、デフォルト値ボタンを含んでいてもよい。所定の初期値は、音処理アプリケーション231の提供者により予め設定された値であってもよい。または、所定の初期値は、ユーザによる変更操作により更新されてもよい。または、所定の初期値は、自動的に更新されてもよい。例えば、所定の初期値は、ユーザによる変更操作履歴を学習データとして機械学習した学習モデルに基づいて自動的に更新されてもよい。 Furthermore, as shown in FIG. 4, the parameter setting screen generated by the screen generation unit 247 includes a default value button that can be pressed to set the value of each parameter to a predetermined initial value. Good too. The predetermined initial value may be a value set in advance by the provider of the sound processing application 231. Alternatively, the predetermined initial value may be updated by a change operation by the user. Alternatively, the predetermined initial value may be automatically updated. For example, the predetermined initial value may be automatically updated based on a learning model that is machine-learned using a user's change operation history as learning data.

図5は、画面生成部247により生成されるパラメータ設定画面の他の一例を説明するための説明図である。図5に示したように、画面生成部247は、例えば「詳細設定」等の名称で、利用者による、より詳細な各種パラメータの変更操作を受け付けることが可能なGUIを生成してもよい。 FIG. 5 is an explanatory diagram for explaining another example of the parameter setting screen generated by the screen generation unit 247. As shown in FIG. 5, the screen generation unit 247 may generate a GUI that can accept more detailed operations for changing various parameters by the user, with a name such as "detailed settings", for example.

図5に示した例では、画面生成部247により生成されるパラメータ設定画面は、収音装置10のマイクアレイを構成するマイクに関連するパラメータとして、MIC_INTERVAL(マイク間隔、mm単位)、MIC_GAIN_12(収音装置10のch1およびch2のマイクゲイン比)、および、MIC_GAIN_34(収音装置10のch3およびch4のマイクゲイン比)を含む。 In the example shown in FIG. 5, the parameter setting screen generated by the screen generation unit 247 includes MIC_INTERVAL (microphone interval, in mm), MIC_GAIN_12 (interval MIC_GAIN_34 (mic gain ratio of ch1 and ch2 of the sound device 10) and MIC_GAIN_34 (microphone gain ratio of ch3 and ch4 of the sound pickup device 10).

また、図5に示した例では、画面生成部247により生成されるパラメータ設定画面は、収音装置10により得られる音のゲイン調整に関連するパラメータとして、INPUT_GAIN(入力ゲイン、単位dB)、および、OUTPUT_GAIN(出力ゲイン、単位dB)を含む。 In the example shown in FIG. 5, the parameter setting screen generated by the screen generation unit 247 includes INPUT_GAIN (input gain, unit dB) and , OUTPUT_GAIN (output gain, unit dB).

図6は、画面生成部247により生成されるパラメータ設定画面の他の一例を説明するための説明図である。図6に示した例では、画面生成部247により生成されるパラメータ設定画面は、エリア収音エラー時の出力音の設定のラジオボタンを含む。エリア収音エラー時の出力音の設定は、音処理部243によるエリア収音処理でエラーが発生した場合に、音処理アプリケーション231から出力される音を指定することが可能な設定である。エリア収音エラー時の出力音の設定において、スルーが選択された場合には、音処理部243は、収音装置10により得られる音信号を、未処理のまま出力してもよい。または、無音が選択された場合には、音処理部243は、音信号の出力を行わなくてもよい。 FIG. 6 is an explanatory diagram for explaining another example of the parameter setting screen generated by the screen generation unit 247. In the example shown in FIG. 6, the parameter setting screen generated by the screen generation unit 247 includes a radio button for setting the output sound when an area sound collection error occurs. The setting of the output sound when an area sound collection error occurs is a setting that allows specifying the sound to be output from the sound processing application 231 when an error occurs in the area sound collection processing by the sound processing unit 243. When through is selected in setting the output sound when an area sound collection error occurs, the sound processing unit 243 may output the sound signal obtained by the sound collection device 10 without being processed. Alternatively, if silence is selected, the sound processing unit 243 does not need to output a sound signal.

以上、図4~図6を参照して、画面生成部247により生成されるパラメータ設定画面の例と、各パラメータを説明した。 The example of the parameter setting screen generated by the screen generation unit 247 and each parameter have been described above with reference to FIGS. 4 to 6.

なお、パラメータは、上記で図4~図6を参照して説明したパラメータの他にも、音処理部243によるエリア収音処理に用い得る他のパラメータを含んでいてよい。 In addition to the parameters described above with reference to FIGS. 4 to 6, the parameters may include other parameters that can be used for area sound collection processing by the sound processing unit 243.

図3に戻って、音処理アプリケーション231の機能構成例の説明を続ける。図3に示したように、音処理アプリケーション231は、仮想ツール部250の機能をさらに有する。仮想ツール部250は、より詳細には、仮想スピーカ部251および仮想マイク部253の機能により構成される。 Returning to FIG. 3, the description of the functional configuration example of the sound processing application 231 will be continued. As shown in FIG. 3, the sound processing application 231 further has the functions of the virtual tool section 250. More specifically, the virtual tool section 250 is configured by the functions of a virtual speaker section 251 and a virtual microphone section 253.

仮想スピーカ部251は、情報処理装置20上で、仮想の音出力デバイスとして機能する。例えば、仮想スピーカ部251は、情報処理装置20上で動作する各種アプリケーションによって、音出力デバイスとして認識され得る。仮想スピーカ部251には、音処理部243による処理後の音信号が入力される。 The virtual speaker unit 251 functions as a virtual sound output device on the information processing device 20. For example, the virtual speaker unit 251 can be recognized as a sound output device by various applications running on the information processing device 20. A sound signal processed by the sound processing section 243 is input to the virtual speaker section 251 .

仮想マイク部253は、情報処理装置20上で、仮想の音入力デバイスとして機能する。例えば、仮想マイク部253は、情報処理装置20上で動作する各種アプリケーションによって、音入力デバイスとして認識され得る。仮想マイク部253には、仮想スピーカ部251から出力される音信号が入力される。これにより、情報処理装置20の利用者は、情報処理装置20上で動作する各種アプリケーションにおいて、仮想マイク部253を、音の入力元のデバイスとして選択することが出来る。例えば、情報処理装置20の利用者は、会議アプリケーション233の音入力部260へ入力される音信号に、仮想マイク部253から出力される音信号を指定することが出来る。 The virtual microphone unit 253 functions as a virtual sound input device on the information processing device 20. For example, the virtual microphone unit 253 can be recognized as a sound input device by various applications running on the information processing device 20. A sound signal output from the virtual speaker section 251 is input to the virtual microphone section 253 . Thereby, the user of the information processing device 20 can select the virtual microphone unit 253 as a sound input source device in various applications running on the information processing device 20. For example, the user of the information processing device 20 can specify the sound signal output from the virtual microphone section 253 as the sound signal input to the sound input section 260 of the conference application 233.

また、仮想マイク部253は、情報処理装置20により認識される名称として、音処理アプリケーション231に対応する名称を有する。 Further, the virtual microphone unit 253 has a name that corresponds to the sound processing application 231 as a name recognized by the information processing device 20.

図7は、会議アプリケーション233において仮想マイク部253が音入力元デバイスとして選択される選択画面の一例を示す説明図である。図7の会議アプリ画面D1は、操作表示部270に表示される会議アプリケーション233の画面の一例である。図7に示したように、会議アプリ画面D1は、一般的な会議アプリケーションと同様に、情報処理装置20が備えるカメラ(図示せず)により取得される情報処理装置20の利用者の映像と、通話相手の映像を含む。また、図7に示したように、会議アプリ画面D1は、音入力デバイス指定欄SB1、および、カーソルC1を含む。 FIG. 7 is an explanatory diagram showing an example of a selection screen in which the virtual microphone unit 253 is selected as a sound input source device in the conference application 233. The conference application screen D1 in FIG. 7 is an example of a screen of the conference application 233 displayed on the operation display section 270. As shown in FIG. 7, the conference application screen D1, like a general conference application, displays an image of the user of the information processing device 20 acquired by a camera (not shown) included in the information processing device 20, Contains video of the other party. Further, as shown in FIG. 7, the conference application screen D1 includes a sound input device specification field SB1 and a cursor C1.

図7に示したように、会議アプリケーション233の画面上で、情報処理装置20の利用者は、操作表示部270を操作してカーソルC1を動かすことにより、音入力デバイス指定欄SB1において、会議アプリケーション233に入力される音入力元デバイスを設定することが出来る。 As shown in FIG. 7, on the screen of the conference application 233, the user of the information processing device 20 operates the operation display unit 270 to move the cursor C1 to select the conference application in the sound input device specification field SB1. 233 can be set.

また、音処理アプリケーション231は、仮想スピーカ部251によって2以上の仮想の音出力デバイスとして機能してもよい。この時、2以上の音出力デバイスには同一の音声出力がなされてもよく、また、一方が一定の遅延を伴って音声出力がなされてもよい。本機能を有することで、一方の音出力が接続されるソフトウェアが遅延を伴う場合でも、適切に音声処理を行うことができる。例えば、一つの仮想スピーカを会議アプリケーション233の音入力元デバイスと設定し、もう一方を録音アプリケーションの音入力元デバイスに設定することができる。 Further, the sound processing application 231 may function as two or more virtual sound output devices using the virtual speaker section 251. At this time, the same sound may be output to two or more sound output devices, or one may output sound with a certain delay. By having this function, even if the software connected to one of the audio outputs involves a delay, audio processing can be performed appropriately. For example, one virtual speaker can be set as the sound input source device for the conference application 233, and the other virtual speaker can be set as the sound input source device for the recording application.

また、図7に示したように、音処理アプリケーション231には、情報処理装置20により認識される仮想マイク部253の名称として、「音処理アプリマイク」という名称が表示されていることが理解される。図7に示した例は、情報処理装置20の利用者が操作表示部270を操作することにより、複数ある音入力デバイスの中から音処理アプリマイクが音入力元に選択された結果、音入力デバイス指定欄SB1に「音処理アプリマイク」という名称が表示されている状態の画面例である。以上、図7を参照して、会議アプリケーション233において仮想マイク部253が音入力元デバイスとして選択される選択画面の一例を説明した。 Furthermore, as shown in FIG. 7, it is understood that the name "sound processing application microphone" is displayed in the sound processing application 231 as the name of the virtual microphone section 253 recognized by the information processing device 20. Ru. In the example shown in FIG. 7, the user of the information processing device 20 operates the operation display unit 270 to select the sound processing application microphone as the sound input source from among the plurality of sound input devices. This is an example of a screen in which the name "sound processing application microphone" is displayed in the device specification field SB1. An example of the selection screen in which the virtual microphone unit 253 is selected as a sound input source device in the conference application 233 has been described above with reference to FIG. 7 .

以上、図2および図3を参照して、本実施形態による情報処理装置20の機能構成例を説明した。続いて、図8を参照して、本実施形態による情報処理システムの動作処理例を説明する。 The functional configuration example of the information processing device 20 according to the present embodiment has been described above with reference to FIGS. 2 and 3. Next, an example of the operation processing of the information processing system according to this embodiment will be described with reference to FIG.

<3.動作処理例>
図8は、本実施形態による情報処理システムの動作処理例を説明するためのフローチャート図である。まず、情報処理装置20のデバイス検出部241が、情報処理装置20と収音装置10との接続状態を検出する。さらに、デバイス検出部241は、対応デバイスが情報処理装置20に接続されているかを検出する。
<3. Operation processing example>
FIG. 8 is a flowchart diagram for explaining an example of operational processing of the information processing system according to this embodiment. First, the device detection unit 241 of the information processing device 20 detects the connection state between the information processing device 20 and the sound collection device 10. Further, the device detection unit 241 detects whether a compatible device is connected to the information processing apparatus 20.

対応デバイスと情報処理装置20との接続が検出されていない場合(S101/NO)、音処理部243は、収音装置10により得られる音信号への処理を行わない。このとき、画面生成部247は、対応デバイスの接続が解除された旨と、音処理部243による音信号の処理が停止した旨の通知を生成する。表示制御部235は、生成された上記通知を、操作表示部270に表示させる(S117)。 If the connection between the compatible device and the information processing device 20 is not detected (S101/NO), the sound processing unit 243 does not process the sound signal obtained by the sound collection device 10. At this time, the screen generation unit 247 generates a notification to the effect that the connection of the compatible device has been canceled and to the effect that the sound signal processing by the sound processing unit 243 has stopped. The display control unit 235 displays the generated notification on the operation display unit 270 (S117).

対応デバイスと情報処理装置20との接続が検出されている場合(S101/YES)、画面生成部247は、対応デバイスの接続が検出された旨と、音処理部243による音信号の処理が開始した旨の通知を生成する。表示制御部235は、生成された上記通知を、操作表示部270に表示させる(S103)。 If the connection between the compatible device and the information processing apparatus 20 is detected (S101/YES), the screen generation unit 247 displays a message indicating that the connection of the compatible device has been detected, and the sound processing unit 243 starts processing the sound signal. Generates a notification to that effect. The display control unit 235 displays the generated notification on the operation display unit 270 (S103).

次いで、パラメータ設定部245が、パラメータの設定処理を行う(S105)。このとき、パラメータ設定部245は、予め設定された初期値によりパラメータを設定する。 Next, the parameter setting unit 245 performs parameter setting processing (S105). At this time, the parameter setting unit 245 sets the parameters using preset initial values.

続いて、音処理部243が、対象デバイスである収音装置10により得られる音信号の処理を行う(S107)。音処理部243による処理後の音信号は、仮想スピーカ部251に入力される(S109)。また、仮想スピーカ部251は、入力された処理後の音信号を仮想マイク部253に出力し、処理後の音信号を仮想マイク部に入力する(S111)。 Subsequently, the sound processing unit 243 processes the sound signal obtained by the sound collection device 10, which is the target device (S107). The sound signal processed by the sound processing section 243 is input to the virtual speaker section 251 (S109). Further, the virtual speaker unit 251 outputs the input processed sound signal to the virtual microphone unit 253, and inputs the processed sound signal to the virtual microphone unit (S111).

次いで、パラメータ設定部245は、情報処理装置20の利用者により、パラメータ設定画面において、パラメータの変更操作が行われたか否かを認識する(S113)。 Next, the parameter setting unit 245 recognizes whether the user of the information processing device 20 performs a parameter changing operation on the parameter setting screen (S113).

パラメータの変更操作が行われた場合(S113/YES)、S105~S111の処理が繰り返される。これにより、パラメータの変更操作が行われると、変更されたパラメータが即時に音処理部243による音信号の処理に反映され得る。 If a parameter changing operation is performed (S113/YES), the processes of S105 to S111 are repeated. Thereby, when a parameter changing operation is performed, the changed parameter can be immediately reflected in the sound signal processing by the sound processing unit 243.

パラメータの変更操作が行われていない場合(S113/NO)、S101~S113、S117の処理が繰り返される。このように、本実施形態による情報処理システムは、対応デバイスの接続が検出されると、当該対応デバイスの接続の解除が検出されるまで、当該対応デバイスにより収音される音信号の処理と、仮想スピーカおよび仮想マイクへの処理後の音信号の出力を繰り返す。 If the parameter changing operation is not performed (S113/NO), the processes of S101 to S113 and S117 are repeated. In this way, the information processing system according to the present embodiment, when the connection of the compatible device is detected, processes the sound signal collected by the compatible device until the disconnection of the compatible device is detected. Repeat output of the processed sound signal to the virtual speaker and virtual microphone.

以上、図8を参照して、本実施形態による情報処理システムの動作処理例を説明した。 The operational processing example of the information processing system according to this embodiment has been described above with reference to FIG.

<4.ハードウェア構成例>
以上、本発明の一実施形態を説明した。上述した、情報処理装置20による、情報処理装置20と収音装置10との接続状態の検出、当該収音装置10が対象デバイスであるか否かの照合、対象デバイスにより得られる音信号へのエリア収音処理、および、処理後の音信号の仮想スピーカおよび仮想マイクへの出力の処理は、ソフトウェアと、情報処理装置20のハードウェアとの協働により実現される。以下では、本発明の実施形態による情報処理装置20のハードウェア構成例について説明する。
<4. Hardware configuration example>
An embodiment of the present invention has been described above. As described above, the information processing device 20 detects the connection state between the information processing device 20 and the sound collection device 10, verifies whether the sound collection device 10 is the target device, and performs the following operations on the sound signal obtained by the target device. The area sound collection processing and the processing of outputting the processed sound signal to the virtual speaker and the virtual microphone are realized by cooperation between software and the hardware of the information processing device 20. An example of the hardware configuration of the information processing device 20 according to an embodiment of the present invention will be described below.

なお、以下に説明する情報処理装置20のハードウェア構成例は、情報処理装置20のハードウェア構成の一例に過ぎない。したがって、情報処理装置20のハードウェア構成は、以下に説明する情報処理装置20のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。 Note that the hardware configuration example of the information processing device 20 described below is only an example of the hardware configuration of the information processing device 20. Therefore, with respect to the hardware configuration of the information processing device 20, unnecessary configurations may be deleted from the hardware configuration of the information processing device 20 described below, or new configurations may be added.

図9は、本発明の一実施形態による情報処理装置20のハードウェア構成例を示す図である。情報処理装置20は、CPU1001と、ROM1002と、RAM1003と、内部バス1004と、入出力インターフェース1010と、表示装置1011と、入力装置1012と、音声出力部1013と、記憶装置1014と、ドライブ1015と、ネットワークインターフェース1016と、外部インターフェース1017と、を備えることができる。 FIG. 9 is a diagram showing an example of the hardware configuration of the information processing device 20 according to an embodiment of the present invention. The information processing device 20 includes a CPU 1001, a ROM 1002, a RAM 1003, an internal bus 1004, an input/output interface 1010, a display device 1011, an input device 1012, an audio output unit 1013, a storage device 1014, and a drive 1015. , a network interface 1016, and an external interface 1017.

CPU1001は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置20内の動作全般を制御する。CPU1001が後述するROM1002、RAM1003およびソフトウェアと協働することにより、例えば、制御部230の機能が実現され得る。 The CPU 1001 functions as an arithmetic processing device and a control device, and controls overall operations within the information processing device 20 according to various programs. For example, the functions of the control unit 230 can be realized by the CPU 1001 working together with a ROM 1002, a RAM 1003, and software, which will be described later.

ROM1002は、CPU1001が使用するプログラムおよび演算パラメータ等を記憶する。RAM1003は、CPU1001の実行において使用するプログラム、およびその実行において適宜変化するパラメータ等を一時記憶する。 The ROM 1002 stores programs used by the CPU 1001, calculation parameters, and the like. The RAM 1003 temporarily stores programs used in the execution of the CPU 1001 and parameters that change as appropriate during the execution.

CPU1001、ROM1002、RAM1003は、内部バス1004によって相互に接続され、さらに入出力インターフェース1010を介して後述する表示装置1011、入力装置1012、音声出力部1013、記憶装置1014、ドライブ1015、ネットワークインターフェース1016および外部インターフェース1017と接続される。 The CPU 1001, ROM 1002, and RAM 1003 are interconnected by an internal bus 1004, and are further connected to a display device 1011, an input device 1012, an audio output unit 1013, a storage device 1014, a drive 1015, a network interface 1016, and It is connected to external interface 1017.

表示装置1011は、例えば、CRTディスプレイ装置、液晶ディスプレイ(LCD)、OLED装置などの表示装置であり、映像データを映像に変換して出力する。また、入力装置1012は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチおよび制御回路などから構成され得る。また、音声出力部1013は、スピーカおよびヘッドフォンなどの音声出力装置であり、音声データなどを音声に変換して出力する。 The display device 1011 is, for example, a display device such as a CRT display device, a liquid crystal display (LCD), or an OLED device, and converts video data into video and outputs the video. Further, the input device 1012 may include a mouse, a keyboard, a touch panel, a button, a microphone, a sensor, a switch, a control circuit, and the like. Furthermore, the audio output unit 1013 is an audio output device such as a speaker or headphones, and converts audio data into audio and outputs the audio.

記憶装置1014は、本実施形態による記憶部220の一例として構成されたデータ記憶用の装置である。記憶装置1014は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでいてもよい。記憶装置1014は、例えば、HDD(Hard Disk Drive)またはSSD(Solid State Drive)、あるいは同等の機能を有するメモリ等で構成される。この記憶装置1014は、ストレージを駆動し、CPU1001が実行するプログラムまたは各種データを記憶する。 The storage device 1014 is a data storage device configured as an example of the storage unit 220 according to this embodiment. The storage device 1014 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 1014 is configured with, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a memory having an equivalent function. This storage device 1014 drives storage and stores programs executed by the CPU 1001 or various data.

ドライブ1015は、記憶媒体用リーダライタであり、情報処理装置20に内蔵、または外付けされる。ドライブ1015は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記憶媒体に記憶されている情報を読み出して、RAM1003に出力する。また、ドライブ1015は、リムーバブル記憶媒体に情報を書き込むことも可能である。 The drive 1015 is a reader/writer for a storage medium, and is built into the information processing device 20 or attached externally. The drive 1015 reads information stored in a removable storage medium such as an attached magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs it to the RAM 1003. Drive 1015 can also write information to removable storage media.

ネットワークインターフェース1016は、例えば、インターネットなどの通信網に接続するためのデバイス等で構成された通信インターフェースである。また、ネットワークインターフェース1016は、無線LAN(Local Area Network)対応通信装置であってもよいし、有線LANによる通信を行うワイヤー通信装置であってもよい。 The network interface 1016 is, for example, a communication interface configured with a device for connecting to a communication network such as the Internet. Further, the network interface 1016 may be a communication device compatible with a wireless LAN (Local Area Network), or may be a wire communication device that performs communication via a wired LAN.

外部インターフェース1017は、例えばUSB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート、RS-232Cポートまたは光オーディオ端子などのような外部接続機器を接続するための接続ポートで構成された接続インターフェースである。なお、外部インターフェース1017は、BluetoothやIrDA(Infrared Data Association)などの近距離無線通信に対応し、無線通信により外部接続機器を接続する接続ポートであってもよい。 The external interface 1017 includes a connection port for connecting an external connection device, such as a USB (Universal Serial Bus) port, an IEEE1394 port, a SCSI (Small Computer System Interface) port, an RS-232C port, or an optical audio terminal. connection interface. Note that the external interface 1017 may be a connection port that supports short-range wireless communication such as Bluetooth or IrDA (Infrared Data Association) and connects an externally connected device via wireless communication.

<5.補足>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明の技術的範囲はかかる例に限定されない。本発明の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<5. Supplement>
Although preferred embodiments of the present invention have been described above in detail with reference to the accompanying drawings, the technical scope of the present invention is not limited to such examples. It is clear that a person with ordinary knowledge in the technical field of the present invention can come up with various changes or modifications within the scope of the technical idea described in the claims. It is understood that these also naturally fall within the technical scope of the present invention.

例えば、上記実施形態では、情報処理装置20の音処理アプリケーション231が正常に動作する場合の情報処理装置20の動作例のみについて説明を行った。しかし、本発明は係る例に限定されない。例えば、音処理アプリケーション231の実行中に何らかのエラーが生じた場合には、情報処理装置20は、次のようなエラーの通知を生成し、操作表示部270に表示させる動作を行ってもよい。 For example, in the embodiment described above, only an example of the operation of the information processing device 20 when the sound processing application 231 of the information processing device 20 operates normally has been described. However, the present invention is not limited to such an example. For example, if an error occurs during execution of the sound processing application 231, the information processing device 20 may generate the following error notification and display it on the operation display unit 270.

例えば、情報処理装置20は、デバイスエラーの通知を操作表示部270に表示させてもよい。デバイスエラーは、例えば、音処理アプリケーション231が実行されているにも関わらず、音処理部243によるエリア収音処理が開始されないエラーであってもよい。この場合、情報処理装置20の画面生成部247は、「エリア収音マイクが検出されましたが、エリア収音処理を開始できませんでした。」という通知を生成してもよい。さらに、画面生成部247は、何らかの原因で音声デバイスの取得に問題が発生していることの通知と、一度対象デバイスを抜いて再度差し込む指示の通知と、それでも問題が解決しない場合には情報処理装置20を再起動する指示の通知を生成してもよい。 For example, the information processing apparatus 20 may display a device error notification on the operation display unit 270. The device error may be, for example, an error in which area sound collection processing by the sound processing unit 243 is not started even though the sound processing application 231 is being executed. In this case, the screen generation unit 247 of the information processing device 20 may generate a notification saying "An area sound collection microphone was detected, but the area sound collection process could not be started." Furthermore, the screen generation unit 247 sends a notification that a problem has occurred in acquiring the audio device for some reason, a notification of an instruction to unplug the target device and plug it in again, and if the problem is still not resolved, information processing A notification of instructions to restart the device 20 may be generated.

また、デバイスエラーは、情報処理装置20に、音処理アプリケーション231がインストールされていないことであってもよい。この場合、画面生成部247は、「音処理アプリケーション231がインストールされていないと、エリア収音処理は開始できません」という通知を生成してもよい。さらに、画面生成部247は、エリア収音処理が開始されない場合は、音処理アプリケーション231がインストールされていないことの通知と、マニュアルに従ってインストール作業を行う指示の通知とを生成してもよい。 Further, the device error may be that the sound processing application 231 is not installed on the information processing device 20. In this case, the screen generation unit 247 may generate a notification that "area sound collection processing cannot be started unless the sound processing application 231 is installed." Furthermore, if the area sound collection process is not started, the screen generation unit 247 may generate a notification that the sound processing application 231 is not installed and a notification of an instruction to perform the installation work according to the manual.

また、情報処理装置20は、システムエラーの通知を操作表示部270に表示させてもよい。システムエラーは、デバイス検出部241により対象デバイスが検出されたが、エリア収音処理を開始できなかったことであってもよい。この場合、画面生成部247は、「エリア収音マイクを検出しましたが、開始できませんでした」等の通知を生成してもよい。また、画面生成部247は、エリア収音処理が開始されない場合、何らかの原因で入力デバイスの取得に問題が発生していることの通知と、一度対応デバイスを情報処理装置20から抜き、再度差し込む指示の通知と、それでも問題が解決しない場合は情報処理装置20を再起動する指示の通知と、を生成してもよい。 Further, the information processing device 20 may display a system error notification on the operation display unit 270. The system error may be that the device detection unit 241 detected the target device but could not start area sound collection processing. In this case, the screen generation unit 247 may generate a notification such as "An area sound collection microphone was detected, but the process could not be started." In addition, if the area sound collection process does not start, the screen generation unit 247 notifies you that a problem has occurred in acquiring the input device for some reason, and also provides an instruction to remove the compatible device from the information processing apparatus 20 and then insert it again. and, if the problem is still not resolved, a notification of an instruction to restart the information processing device 20.

また、情報処理装置20は、収音装置10による無音の連続検出のエラーの通知を操作表示部270に表示させてもよい。この場合、画面生成部247は、「エリア収音マイクは接続されていますが、音声は途絶えています」という通知を生成してもよい。また、画面生成部247は、「エリア収音マイクは接続されていますが、音声は途絶えています」という通知が出ている場合は、対応デバイスから無音が連続して入力されていることの通知と、収音装置10と情報処理装置20の本体基盤の配線とが確実に接続されているかの確認を促す通知を生成してもよい。また、操作表示部270は、このようなエラーの通知を一度表示した後は、一度対象デバイスが情報処理装置20から抜かれるまで、当該エラーの通知を再び表示しないようにしてもよい。 Further, the information processing device 20 may cause the operation display unit 270 to display a notification of an error in continuous detection of silence by the sound collection device 10. In this case, the screen generation unit 247 may generate a notification saying "The area sound collection microphone is connected, but the audio is interrupted." In addition, if a notification saying "The area sound collection microphone is connected, but the audio is interrupted" is displayed, the screen generation unit 247 generates a notification that silence is being continuously input from the compatible device. Then, a notification prompting the user to confirm whether the sound collection device 10 and the wiring of the main body base of the information processing device 20 are securely connected may be generated. Further, after displaying such an error notification once, the operation display unit 270 may not display the error notification again until the target device is once removed from the information processing apparatus 20.

また、音処理アプリケーション231はハウリング検出機能を有してもよく、収音装置10によるハウリング検出のエラーの通知を操作表示部270に表示させてもよい。この場合、画面生成部247は、「ハウリングが発生しています」という通知を生成してもよい。また、制御部230はハウリングが検知されて一定時間、仮想マイク部253の出力を無音に設定してもよい。 Further, the sound processing application 231 may have a howling detection function, and may display a notification of an error in howling detection by the sound collection device 10 on the operation display unit 270. In this case, the screen generation unit 247 may generate a notification that "howling is occurring." Further, the control unit 230 may set the output of the virtual microphone unit 253 to be silent for a certain period of time after howling is detected.

また、本実施形態による収音装置10、および情報処理装置20の動作の処理におけるステップは、必ずしも説明図として記載された順序に沿って時系列に処理する必要はない。例えば、収音装置10および情報処理装置20の動作の処理における各ステップは、説明図として記載した順序と異なる順序で処理されてもよく、並列的に処理されてもよい。 Further, the steps in the processing of the operations of the sound collection device 10 and the information processing device 20 according to the present embodiment do not necessarily need to be processed in chronological order in the order described as the explanatory diagram. For example, each step in processing the operations of the sound collection device 10 and the information processing device 20 may be processed in a different order from the order described as the explanatory diagram, or may be processed in parallel.

また、上述した収音装置10および情報処理装置20に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、本実施形態による情報処理システムの機能を発揮させるための1以上のコンピュータプログラムも作成可能である。また、当該1以上のコンピュータプログラムを記憶させたコンピュータにより読み取り可能な記憶媒体も提供される。 Furthermore, it is also possible to create one or more computer programs for causing the hardware such as the CPU, ROM, and RAM built in the above-mentioned sound collection device 10 and information processing device 20 to exhibit the functions of the information processing system according to this embodiment. It is. Also provided is a computer readable storage medium storing the one or more computer programs.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本発明に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Further, the effects described in this specification are merely explanatory or illustrative, and are not limiting. In other words, the technology according to the present invention can have other effects that are obvious to those skilled in the art from the description of this specification, in addition to or in place of the above effects.

<6.その他>
<6.1.音処理アプリケーションの形成1>
上記では、情報処理装置20の起動時に、制御部230が記憶部220に保持される音処理アプリケーションのプログラム(インストーラによってインストールされた本体部240および仮想ツール部250)を実行することでエリア収音処理が行える音処理アプリケーション231が形成されることを説明した。ここで、仮想ツール部250は、OSとデバイス(例えば収音装置10等)との間で相互のやりとりを可能にするドライバー(Driver)のプログラムであってもよい。
<6. Others>
<6.1. Formation of sound processing application 1>
In the above, when the information processing device 20 is started, the control unit 230 executes the sound processing application program (main unit 240 and virtual tool unit 250 installed by the installer) stored in the storage unit 220 to collect area sound. It has been explained that the sound processing application 231 that can perform processing is formed. Here, the virtual tool unit 250 may be a driver program that enables mutual exchange between the OS and a device (for example, the sound collection device 10, etc.).

例えば、情報処理装置20の起動時に、情報処理装置20のOSにおけるサービス制御プログラムまたはオーディオ管理プログラム等のシステムプログラムにより仮想ツール部250がディスパッチされ(ドライバーである仮想ツール部250に基づきハードウェアを表すデバイスオブジェクトを生成し、デバイスを初期化しアプリケーションからデバイス名を使用できるようにし、アプリケーションからのデバイスに対する要求を処理できる状態とし)、そして本体部240がローディングされ実行されることで、音処理アプリケーション231が形成される。 For example, when the information processing device 20 is started, the virtual tool unit 250 is dispatched by a system program such as a service control program or an audio management program in the OS of the information processing device 20 (the hardware is represented based on the virtual tool unit 250 which is a driver). The sound processing application 231 generates a device object, initializes the device, makes the device name available to the application, and puts it in a state where it can process requests for the device from the application).Then, the main unit 240 is loaded and executed. is formed.

この場合、本体部240は実行可能ファイル(Executable File)のプログラム(例えば「WinMain()」関数をエントリーポイントとするプログラム)として構成されてもよく、仮想ツール部250は他のプログラムから呼び出されるドライバーのプログラム(例えば「DriverEntry()」関数をエントリーポイントとするプログラム)として構成されてもよい。 In this case, the main unit 240 may be configured as an executable file program (for example, a program whose entry point is the “WinMain()” function), and the virtual tool unit 250 may be configured as a driver called from another program. (for example, a program whose entry point is the "DriverEntry()" function).

また、情報処理装置20のOSのファイルシステムにおいて、本体部240は例えばファイル名「Hontai.exe」などのように実行可能ファイルをあらわす拡張子「.exe」が付与されたプログラムとして構成されてもよく、仮想ツール部250は例えばファイル名「KasouTool.sys」などのようにドライバーをあらわす拡張子「.sysy」が付与されたプログラムとして構成されてもよい。 Furthermore, in the file system of the OS of the information processing device 20, the main unit 240 may be configured as a program with an extension ".exe" indicating an executable file, such as the file name "Hontai.exe". Often, the virtual tool unit 250 may be configured as a program with an extension ".sysy" representing a driver, such as a file name "KasouTool.sys".

なお、サービス制御プログラムやオーディオ管理プログラム等のシステムプログラムは、情報処理装置20のOSのファイルシステムの所定の領域において、ドライバーである仮想ツール部250のプログラムを探し(例えば仮想ツール部250のファイル名およびプログラム中の「DriverEntry()」関数を検索し)、ディスパッチしてもよい。ここで、仮想ツール部250は、インストーラによって、OSのファイルシステムの所定の領域(例えば「%SystemRoot%¥System32¥Drivers」)に配置されるようにインストールされてもよい。 Note that system programs such as the service control program and the audio management program search for the program of the virtual tool section 250, which is a driver, in a predetermined area of the file system of the OS of the information processing device 20 (for example, the file name of the virtual tool section 250 is searched for). and the "DriverEntry()" function in the program) and dispatch. Here, the virtual tool unit 250 may be installed by an installer so as to be placed in a predetermined area of the OS file system (for example, "%SystemRoot%\System32\Drivers").

なお、仮想ツール部250がドライバーのプログラムである場合、情報処理装置20の利用者が手動で音処理アプリケーション231を終了すると、本体部240が終了し、仮想ツール部250は終了しないようにしてもよい。つまり、仮想ツール部250による音処理アプリケーション231が維持されるようにしてもよい。 Note that if the virtual tool section 250 is a driver program, when the user of the information processing device 20 manually terminates the sound processing application 231, the main body section 240 will terminate, even if the virtual tool section 250 is not terminated. good. In other words, the sound processing application 231 by the virtual tool unit 250 may be maintained.

<6.2.音処理アプリケーションの形成2>
上記では、情報処理装置20の起動時に、制御部230が記憶部220に保持される音処理アプリケーションのプログラム(インストーラによってインストールされた本体部240および仮想ツール部250)を実行することでエリア収音処理が行える音処理アプリケーション231が形成されることを説明した。しかし、対象デバイスである収音装置10の接続が検出されると、音処理アプリケーション231が形成されるようにしてもよい。
<6.2. Formation of sound processing application 2>
In the above, when the information processing device 20 is started, the control unit 230 executes the sound processing application program (main unit 240 and virtual tool unit 250 installed by the installer) stored in the storage unit 220 to collect area sound. It has been explained that the sound processing application 231 that can perform processing is formed. However, the sound processing application 231 may be created when the connection of the sound collection device 10, which is the target device, is detected.

<6.2.1.音処理部243の活性化>
例えば、情報処理装置20の起動時に、音処理部243を含まない本体部240と仮想ツール部250とがローディングされ実行されることで、音処理部243を含まない本体部240による音処理アプリケーション231が形成される。この状態で、音処理部243を含まない本体部240による音処理アプリケーション231は、本体部240の有するデバイス検出部241、パラメータ設定部245および画面生成部247の機能を発揮することができる。その後、情報処理装置20と収音装置10とが接続され、音処理部243を含まない本体部240による音処理アプリケーション231により対象デバイスである収音装置10の接続が検出されると、本体部240により音処理部243がローディングされて実行され、音処理部243を含む本体部240および仮想ツール部250による音処理アプリケーション231が形成される。この状態で、本体部240および仮想ツール部250による音処理アプリケーション231は、本体部240の有するデバイス検出部241、音処理部243、パラメータ設定部245および画面生成部247の機能に加え、仮想ツール部250の有する仮想スピーカ部251および仮想マイク部253の機能を発揮することができる。つまり、対象デバイスである収音装置10の接続が検出されると、エリア収音処理の機能(第一の機能)を有する音処理アプリケーション231が形成される。
<6.2.1. Activation of sound processing unit 243>
For example, when the information processing device 20 is started, the main unit 240 that does not include the sound processing unit 243 and the virtual tool unit 250 are loaded and executed, so that the sound processing application 231 by the main unit 240 that does not include the sound processing unit 243 is formed. In this state, the sound processing application 231 by the main body section 240 that does not include the sound processing section 243 can perform the functions of the device detection section 241, parameter setting section 245, and screen generation section 247 of the main body section 240. After that, the information processing device 20 and the sound collection device 10 are connected, and when the sound processing application 231 by the main body 240 that does not include the sound processing section 243 detects the connection of the sound collection device 10, which is the target device, the main body 240, the sound processing section 243 is loaded and executed, and a sound processing application 231 is formed by the main body section 240 including the sound processing section 243 and the virtual tool section 250. In this state, the sound processing application 231 by the main body section 240 and the virtual tool section 250 has the functions of the device detection section 241, sound processing section 243, parameter setting section 245, and screen generation section 247 of the main body section 240, as well as the functions of the virtual tool section 240 and the virtual tool section 250. The functions of the virtual speaker section 251 and the virtual microphone section 253 of the section 250 can be exhibited. That is, when the connection of the sound collection device 10, which is the target device, is detected, the sound processing application 231 having the area sound collection processing function (first function) is formed.

この場合、本体部240は実行可能ファイルのプログラム(例えば「WinMain()」関数をエントリーポイントとするプログラム)として構成されてもよく、音処理部243は他のプログラムから呼び出されるライブラリ(Dynamic Linking Library)のプログラム(例えば「DllEntryPoint()」関数をエントリーポイントとするプログラム)として構成されてもよい。 In this case, the main unit 240 may be configured as an executable file program (for example, a program whose entry point is the “WinMain()” function), and the sound processing unit 243 may be configured as a library called from other programs (Dynamic Linking Library). ) (for example, a program whose entry point is the "DllEntryPoint( )" function).

また、情報処理装置20のOSのファイルシステムにおいて、本体部240は例えばファイル名「Hontai.exe」などのように実行可能ファイルをあらわす拡張子「.exe」が付与されたプログラムとして構成されてもよく、音処理部243は例えばファイル名「OtoSyori.dll」などのようにライブラリをあらわす拡張子「.dll」が付与されたプログラムとして構成されてもよい。 Furthermore, in the file system of the OS of the information processing device 20, the main unit 240 may be configured as a program with an extension ".exe" indicating an executable file, such as a file name "Hontai.exe". Often, the sound processing unit 243 may be configured as a program with an extension ".dll" indicating a library, such as a file name "OtoSyori.dll".

なお、本体部240は、ライブラリである音処理部243のプログラムを動的に呼び出すための呼び出し関数(例えば「LoadLibrary()」関数)を含み、デバイス検出部241において対象デバイスである収音装置10の接続が検出されると、ライブラリである音処理部243のプログラムの名称を指定し呼び出し関数を実行(例えば情報処理装置20のOSのファイルシステム上におけるファイル名「OtoSyori.dll」をパラメータとする関数「LoadLibrary(“OtoSyori.dll”)」を実行)することでライブラリである音処理部243のプログラムをローディングし実行してもよい。 Note that the main body section 240 includes a calling function (for example, "LoadLibrary()" function) for dynamically calling a program of the sound processing section 243 that is a library, and the device detecting section 241 detects the sound collecting device 10 that is a target device. When a connection is detected, the program name of the sound processing unit 243, which is a library, is specified and the call function is executed (for example, the file name "OtoSyori.dll" on the file system of the OS of the information processing device 20 is used as a parameter). The program of the sound processing unit 243, which is a library, may be loaded and executed by executing the function "LoadLibrary("OtoSyori.dll")".

<6.2.2.仮想ツール部250の活性化>
例えば、情報処理装置20の起動時に、本体部240がローディングされ実行されることで、本体部240による音処理アプリケーション231が形成される。この状態で、本体部240による音処理アプリケーション231は、本体部240の有するデバイス検出部241、音処理部243、パラメータ設定部245および画面生成部247の機能を発揮することができる。その後、情報処理装置20と収音装置10とが接続され、本体部240による音処理アプリケーション231により対象デバイスである収音装置10の接続が検出されると、本体部240により仮想ツール部250がローディングされ実行され、本体部240および仮想ツール部250による音処理アプリケーション231が形成される。この状態で、本体部240および仮想ツール部250による音処理アプリケーション231は、本体部240の有するデバイス検出部241、音処理部243、パラメータ設定部245および画面生成部247の機能に加え、仮想ツール部250の有する仮想スピーカ部251および仮想マイク部253の機能を発揮することができる。つまり、対象デバイスである収音装置10の接続が検出されると、仮想スピーカおよび仮想マイクの機能(第三の機能)を有する音処理アプリケーション231が形成される。
<6.2.2. Activation of virtual tool section 250>
For example, when the information processing device 20 is started, the main body section 240 is loaded and executed, thereby forming the sound processing application 231 by the main body section 240. In this state, the sound processing application 231 by the main body section 240 can perform the functions of the device detection section 241, the sound processing section 243, the parameter setting section 245, and the screen generation section 247 included in the main body section 240. After that, the information processing device 20 and the sound collection device 10 are connected, and when the sound processing application 231 of the main body section 240 detects the connection of the sound collection device 10, which is the target device, the virtual tool section 250 is activated by the main body section 240. The program is loaded and executed, and a sound processing application 231 is formed by the main body section 240 and the virtual tool section 250. In this state, the sound processing application 231 by the main body section 240 and the virtual tool section 250 has the functions of the device detection section 241, sound processing section 243, parameter setting section 245, and screen generation section 247 of the main body section 240, as well as the functions of the virtual tool section 240 and the virtual tool section 250. The functions of the virtual speaker section 251 and the virtual microphone section 253 of the section 250 can be exhibited. That is, when the connection of the sound collection device 10, which is the target device, is detected, the sound processing application 231 having the functions of a virtual speaker and a virtual microphone (third function) is formed.

この場合、本体部240は実行可能ファイルのプログラム(例えば「WinMain()」関数をエントリーポイントとするプログラム)として構成されてもよく、仮想ツール部250は他のプログラムから呼び出されるライブラリのプログラム(例えば「DllEntryPoint()」関数をエントリーポイントとするプログラム)として構成されてもよい。 In this case, the main unit 240 may be configured as an executable file program (for example, a program whose entry point is the “WinMain()” function), and the virtual tool unit 250 may be configured as a library program called from another program (for example, It may be configured as a program whose entry point is the "DllEntryPoint( )" function.

また、情報処理装置20のOSのファイルシステムにおいて、本体部240は例えばファイル名「Hontai.exe」などのように実行可能ファイルをあらわす拡張子「.exe」が付与されたプログラムとして構成されてもよく、仮想ツール部250は例えばファイル名「KasouTool.dll」などのようにライブラリをあらわす拡張子「.dll」が付与されたプログラムとして構成されてもよい。 Furthermore, in the file system of the OS of the information processing device 20, the main unit 240 may be configured as a program with an extension ".exe" indicating an executable file, such as the file name "Hontai.exe". Often, the virtual tool unit 250 may be configured as a program with an extension ".dll" indicating a library, such as a file name "KasouTool.dll".

なお、本体部240は、ライブラリである仮想ツール部250のプログラムを動的に呼び出すための呼び出し関数(例えば「LoadLibrary()」関数)を含み、デバイス検出部241において対象デバイスである収音装置10の接続が検出されると、ライブラリである仮想ツール部250のプログラムの名称を指定し呼び出し関数を実行(例えば情報処理装置20のOSのファイルシステム上におけるファイル名「KasouTool.dll」をパラメータとする関数「LoadLibrary(“KasouTool.dll”)」を実行)することでライブラリである仮想ツール部250のプログラムをローディングし実行してもよい。 Note that the main body section 240 includes a calling function (for example, "LoadLibrary()" function) for dynamically calling a program of the virtual tool section 250 that is a library, and the device detecting section 241 detects the sound collection device 10 that is a target device. When a connection is detected, the program name of the virtual tool unit 250, which is a library, is specified and the call function is executed (for example, the file name "KasouTool.dll" on the file system of the OS of the information processing device 20 is used as a parameter). The program of the virtual tool section 250, which is a library, may be loaded and executed by executing the function "LoadLibrary("KasouTool.dll")".

<6.2.3.音処理部243と仮想ツール部250との活性化>
例えば、情報処理装置20の起動時に、音処理部243を含まない本体部240がローディングされ実行されることで、音処理部243を含まない本体部240による音処理アプリケーション231が形成される。この状態で、音処理部243を含まない本体部240による音処理アプリケーション231は、本体部240の有するデバイス検出部241、パラメータ設定部245および画面生成部247の機能を発揮することができる。その後、情報処理装置20と収音装置10とが接続され、音処理部243を含まない本体部240による音処理アプリケーション231により対象デバイスである収音装置10の接続が検出されると、本体部240により音処理部243と仮想ツール部250とがローディングされ実行され、音処理部243を含む本体部240および仮想ツール部250による音処理アプリケーション231が形成される。この状態で、本体部240および仮想ツール部250による音処理アプリケーション231は、本体部240の有するデバイス検出部241、音処理部243、パラメータ設定部245および画面生成部247の機能に加え、仮想ツール部250の有する仮想スピーカ部251および仮想マイク部253の機能を発揮することができる。つまり、対象デバイスである収音装置10の接続が検出されると、エリア収音処理の機能(第一の機能)、仮想スピーカおよび仮想マイクの機能(第三の機能)を有する音処理アプリケーション231が形成される。
<6.2.3. Activation of sound processing unit 243 and virtual tool unit 250>
For example, when the information processing device 20 is started, the main body section 240 that does not include the sound processing section 243 is loaded and executed, thereby forming the sound processing application 231 by the main body section 240 that does not include the sound processing section 243. In this state, the sound processing application 231 by the main body section 240 that does not include the sound processing section 243 can perform the functions of the device detection section 241, parameter setting section 245, and screen generation section 247 of the main body section 240. Thereafter, when the information processing device 20 and the sound collection device 10 are connected, and the sound processing application 231 by the main body 240 that does not include the sound processing section 243 detects the connection of the sound collection device 10, which is the target device, the main body 240, the sound processing section 243 and the virtual tool section 250 are loaded and executed, and a sound processing application 231 is formed by the main body section 240 including the sound processing section 243 and the virtual tool section 250. In this state, the sound processing application 231 by the main body section 240 and the virtual tool section 250 has the functions of the device detection section 241, sound processing section 243, parameter setting section 245, and screen generation section 247 of the main body section 240, as well as the functions of the virtual tool section 240 and the virtual tool section 250. The functions of the virtual speaker section 251 and the virtual microphone section 253 of the section 250 can be exhibited. That is, when the connection of the sound collection device 10, which is the target device, is detected, the sound processing application 231 having the function of area sound collection processing (first function), the function of virtual speaker and virtual microphone (third function) is formed.

この場合、本体部240は実行可能ファイルのプログラム(例えば「WinMain()」関数をエントリーポイントとするプログラム)として構成されてもよく、音処理部243と仮想ツール部250とは他のプログラムから呼び出されるライブラリのプログラム(例えば「DllEntryPoint()」関数をエントリーポイントとするプログラム)として構成されてもよい。 In this case, the main unit 240 may be configured as an executable file program (for example, a program whose entry point is the “WinMain()” function), and the sound processing unit 243 and the virtual tool unit 250 may be configured as The program may be configured as a library program (for example, a program whose entry point is the "DllEntryPoint()" function).

また、情報処理装置20のOSのファイルシステムにおいて、本体部240は例えばファイル名「Hontai.exe」などのように実行可能ファイルをあらわす拡張子「.exe」が付与されたプログラムとして構成されてもよく、音処理部243は例えばファイル名「OtoSyori.dll」などのようにライブラリをあらわす拡張子「.dll」が付与されたプログラムとして構成されてもよく、仮想ツール部250は例えばファイル名「KasouTool.dll」などのようにライブラリをあらわす拡張子「.dll」が付与されたプログラムとして構成されてもよい。 Furthermore, in the file system of the OS of the information processing device 20, the main unit 240 may be configured as a program with an extension ".exe" indicating an executable file, such as the file name "Hontai.exe". Often, the sound processing section 243 may be configured as a program with an extension ".dll" representing a library, such as the file name "OtoSyori.dll", and the virtual tool section 250 may be configured as a program with the file name "KasouTool", for example. The program may be configured as a program with an extension ".dll" indicating a library, such as ".dll".

なお、本体部240は、ライブラリである音処理部243と仮想ツール部250とのプログラムを動的に呼び出すための呼び出し関数(例えば「LoadLibrary()」関数)を含み、デバイス検出部241において対象デバイスである収音装置10の接続が検出されると、ライブラリである音処理部243のプログラムの名称を指定し呼び出し関数を実行(例えば情報処理装置20のOSのファイルシステム上におけるファイル名「OtoSyori.dll」をパラメータとする関数「LoadLibrary(“OtoSyori.dll”)」を実行)し、仮想ツール部250のプログラムの名称を指定し呼び出し関数を実行(例えば情報処理装置20のOSのファイルシステム上におけるファイル名「KasouTool.dll」をパラメータとする関数「LoadLibrary(“KasouTool.dll”)」を実行)することでライブラリである音処理部243と仮想ツール部250とのプログラムをローディングし実行してもよい。 The main unit 240 includes a calling function (for example, a “LoadLibrary()” function) for dynamically calling programs of the sound processing unit 243 and the virtual tool unit 250, which are libraries, and the device detecting unit 241 detects the target device. When the connection of the sound collection device 10 is detected, the name of the program of the sound processing unit 243, which is a library, is specified and the calling function is executed (for example, the file name "OtoSyori. Execute the function "LoadLibrary ("OtoSyori.dll")" with "OtoSyori.dll" as a parameter), specify the name of the program of the virtual tool unit 250, and execute the calling function (for example, By executing the function "LoadLibrary ("KasouTool.dll")" with the file name "KasouTool.dll" as a parameter, the programs of the sound processing section 243 and virtual tool section 250, which are libraries, are loaded and executed. good.

<6.2.4.その他>
また、本体部240は、例えば情報処理装置20のOSによって、起動時にロードされる、あるいは、前記収音装置10の接続が検知された際に自動的にロードされるドライバー上で実現されてもよい。
<6.2.4. Others>
Further, the main body section 240 may be implemented on a driver that is loaded by the OS of the information processing device 20 at startup, or automatically loaded when connection of the sound collection device 10 is detected, for example. good.

<6.3.ハードウェア識別情報の取得>
上記では、情報処理装置20において、外部インターフェース1017に接続され検出された収音装置10を一意に識別可能とする、収音装置10のハードウェア識別情報が取得されることを説明した。ここで、収音装置10のハードウェア識別情報の取得に際し、デバイス検出部241が、収音装置10のハードウェア識別情報を能動的に取得してもよいし受動的に取得してもよい。
<6.3. Obtaining hardware identification information>
In the above, it has been explained that the information processing device 20 acquires the hardware identification information of the sound collection device 10 that allows the detected sound collection device 10 connected to the external interface 1017 to be uniquely identified. Here, when acquiring the hardware identification information of the sound collection device 10, the device detection unit 241 may acquire the hardware identification information of the sound collection device 10 actively or passively.

<6.3.1.能動的なハードウェア識別情報の取得>
能動的に収音装置10のハードウェア識別情報が取得される場合、デバイス検出部241は、OSが保持する管理情報を参照し、参照した管理情報に含まれる収音装置10のハードウェア識別情報を取得する。
<6.3.1. Actively obtaining hardware identification information>
When the hardware identification information of the sound collection device 10 is actively acquired, the device detection unit 241 refers to the management information held by the OS, and detects the hardware identification information of the sound collection device 10 included in the referenced management information. get.

この場合、デバイス検出部241は、管理情報にアクセスするインターフェースおよび管理情報を参照する際に用いるキーワードを有している。このキーワードは収音装置10のハードウェア識別情報に係る検索用文字である。 In this case, the device detection unit 241 has an interface for accessing the management information and a keyword used when referring to the management information. This keyword is a search character related to the hardware identification information of the sound collection device 10.

ここで、このキーワードは、EUC(Extended Unix Code)-JPP(日本拡張ユニックスコード)やシフトJIS等のそれぞれの文字コードに対応する形式を有している。キーワードは、情報処理装置20のOSが対応する文字コードと同形式の文字コードにより管理情報を参照することができるようになっている。すなわち、デバイス検出部241は、情報処理装置20のOSがシフトJISの文字コードに対応するとき、シフトJISの文字コードの形式のキーワードを用いて管理情報を参照する。 Here, this keyword has a format corresponding to each character code such as EUC (Extended Unix Code)-JPP (Japan Extended Unix Code) and Shift JIS. The keyword allows management information to be referred to using a character code in the same format as the character code supported by the OS of the information processing device 20. That is, when the OS of the information processing apparatus 20 supports the Shift JIS character code, the device detection unit 241 refers to the management information using a keyword in the Shift JIS character code format.

ここで、管理情報は、OSが保持しているレジストリ、初期設定ファイル、システム設定ファイル等であり、OS、プログラムの状態および設定情報を管理する情報である。例えば、情報処理装置20に新たなハードウェアが追加されると、管理情報に追加された新たなハードウェアのハードウェア識別情報が追加される。 Here, the management information is a registry, an initial setting file, a system setting file, etc. held by the OS, and is information for managing the status and setting information of the OS and programs. For example, when new hardware is added to the information processing device 20, the hardware identification information of the added new hardware is added to the management information.

<6.3.2.受動的なハードウェア識別情報の取得>
受動的に収音装置10のハードウェア識別情報が取得される場合、デバイス検出部241は、OSから送出されるメッセージに基づき、収音装置10のハードウェア識別情報を取得する。
<6.3.2. Passive hardware identification information >
When the hardware identification information of the sound collection device 10 is passively acquired, the device detection unit 241 acquires the hardware identification information of the sound collection device 10 based on a message sent from the OS.

この場合、デバイス検出部241は、OSから送出されるメッセージを受けるインターフェースを有している。 In this case, the device detection unit 241 has an interface that receives messages sent from the OS.

ここで、OSから送出されるメッセージは、情報処理装置20において新たなハードウェアが追加された時に送出されるイベントドリブンのメッセージである。例えば、情報処理装置20において新たなハードウェアとして収音装置10が追加されると、情報処理装置20のOSは、収音装置10のハードウェア識別情報を含むメッセージを送出する。 Here, the message sent from the OS is an event-driven message sent when new hardware is added to the information processing device 20. For example, when the sound collection device 10 is added as new hardware to the information processing device 20, the OS of the information processing device 20 sends a message containing hardware identification information of the sound collection device 10.

<6.3.3.ハードウェア識別情報の例>
デバイス検出部241が取得するハードウェア識別情報は、例えば、収音装置10に係わるベンダーID(VID:Vendor ID)、プロダクトID(PID:Product ID)、シリアル番号(Serial Number)、それらを組み合わせたものであってもよい。
<6.3.3. Example of hardware identification information>
The hardware identification information acquired by the device detection unit 241 includes, for example, a vendor ID (VID), a product ID (PID), a serial number (Serial Number), and a combination of these related to the sound collection device 10. It may be something.

ここで、例えば、ベンダーIDはデバイスのメーカーに対して割り振られたIDであって、プロダクトIDはメーカーにより製品に対して割り当てられIDであって、シリアル番号はメーカーにより製品に対して割り当てられた通し番号である。 Here, for example, the vendor ID is an ID assigned to a device manufacturer, the product ID is an ID assigned to a product by the manufacturer, and the serial number is an ID assigned to a product by the manufacturer. It is a serial number.

<6.4.対象デバイスの検出>
上記では、デバイス検出部241が、情報処理装置20との接続が検出された収音装置10を一意に識別可能とする、収音装置10のハードウェア識別情報を取得し、取得したハードウェア識別情報に基づき対象デバイスであるか否かを検出することを説明した。しかし、収音装置10のハードウェア識別情報(例えばベンダーID、プロダクトID、シリアル番号、それらの組み合わせ)以外の対象デバイスに係わる情報に基づき対象デバイスであるか否かを検出してもよい。
<6.4. Detecting target devices>
In the above, the device detection unit 241 acquires hardware identification information of the sound collection device 10 that makes it possible to uniquely identify the sound collection device 10 whose connection with the information processing device 20 has been detected, and acquires the acquired hardware identification information. It has been explained that whether or not the device is a target device is detected based on the information. However, it is also possible to detect whether the target device is the target device based on information related to the target device other than the hardware identification information of the sound collection device 10 (for example, vendor ID, product ID, serial number, or a combination thereof).

例えば、収音装置10のデバイス名に基づき対象デバイスであるか否かを検出する場合、記憶部220が対象デバイス名を記憶しており、デバイス検出部241は、情報処理装置20との接続が検出された収音装置10を一意に識別可能とする、収音装置10のデバイス名を取得する。そして、デバイス検出部241は、取得したデバイス名が、記憶部220に保持されている対象デバイス名と一致するか否かを照合する。これにより、デバイス検出部241は、収音装置10のデバイス名により、情報処理装置20と接続が検出された収音装置10が、対象デバイスであるか否かを検出する。なお、記憶部220に保持される対象デバイス名は複数あってよい。 For example, when detecting whether the sound collection device 10 is a target device based on the device name, the storage unit 220 stores the target device name, and the device detection unit 241 detects whether the device is connected to the information processing device 20 or not. The device name of the sound collection device 10 that allows the detected sound collection device 10 to be uniquely identified is acquired. Then, the device detection unit 241 checks whether the acquired device name matches the target device name held in the storage unit 220. Thereby, the device detection unit 241 detects whether or not the sound collection device 10 whose connection to the information processing device 20 has been detected is the target device, based on the device name of the sound collection device 10 . Note that there may be a plurality of target device names held in the storage unit 220.

例えば、収音装置10のデバイス名とハードウェア識別情報とに基づき対象デバイスであるか否かを検出する場合、記憶部220がハードウェア識別情報と対象デバイス名とを対に記憶しており、デバイス検出部241は、情報処理装置20との接続が検出された収音装置10を一意に識別可能とする、収音装置10のデバイス名とハードウェア識別情報とを取得する。そして、デバイス検出部241は、取得したデバイス名とハードウェア識別情報とが、記憶部220に保持されているデバイス名およびハードウェア識別情報と一致するか否かを照合する。これにより、デバイス検出部241は、収音装置10のデバイス名とハードウェア識別情報とにより、情報処理装置20と接続が検出された収音装置10が、対象デバイスであるか否かを検出する。なお、記憶部220に保持されるハードウェア識別情報と対象デバイス名とは複数あってよい。 For example, when detecting whether the sound collection device 10 is a target device based on the device name and hardware identification information, the storage unit 220 stores the hardware identification information and the target device name as a pair; The device detection unit 241 acquires the device name and hardware identification information of the sound collection device 10 that allows the sound collection device 10 whose connection with the information processing device 20 has been detected to be uniquely identified. Then, the device detection unit 241 checks whether the acquired device name and hardware identification information match the device name and hardware identification information held in the storage unit 220. Thereby, the device detection unit 241 detects whether or not the sound collection device 10 whose connection to the information processing device 20 has been detected is the target device, based on the device name and hardware identification information of the sound collection device 10. . Note that there may be a plurality of hardware identification information and target device names held in the storage unit 220.

この場合、デバイス検出部241は、取得したデバイス名とハードウェア識別情報との照合に際し、デバイス名から照合してもよいしハードウェア識別情報から照合してもよい。また、デバイス名から照合し、記憶部220に保持される対象デバイス名と一致しない時点でハードウェア識別情報の照合を行わないようにしてもよい。 In this case, when comparing the acquired device name and hardware identification information, the device detection unit 241 may perform the comparison based on the device name or the hardware identification information. Alternatively, the hardware identification information may be checked based on the device name, and the hardware identification information may not be checked at the time it does not match the target device name held in the storage unit 220.

なお、収音装置10のデバイス名は、上述のとおり、OSが保持する管理情報やOSから送出されるメッセージに基づき取得されてもよい。 Note that, as described above, the device name of the sound collection device 10 may be acquired based on management information held by the OS or a message sent from the OS.

<6.5.シンクライアントシステムでのエリア収音処理された音信号の利用>
上記では、スタンドアローンで起動し動作することが可能な情報処理装置20において、音処理アプリケーションのプログラムがインストールされることにより、情報処理装置20が音処理アプリケーションによる機能(第一の機能、第二の機能、第三の機能)を発揮することについて説明した。つまり、上記では、情報処理装置20がファットクライアント型の装置であった。しかし、情報処理装置20は、シンクライアント型の装置であってもよい。
<6.5. Use of sound signals processed by area sound collection in thin client systems>
In the above description, in the information processing device 20 that can be started and operated standalone, the program of the sound processing application is installed, so that the information processing device 20 can perform the functions (the first function, the second function) by the sound processing application. The third function) was explained. That is, in the above description, the information processing device 20 is a fat client type device. However, the information processing device 20 may be a thin client type device.

<6.5.1.ダウンロード方式(ネットブート方式)のシンクライアント>
例えば、情報処理装置20がダウンロード方式のシンクライアントに対応する装置である場合、情報処理装置20は、ネットワーク上に配されたダウンロード方式のシンクライアントに対応するサーバから、端末向けOSおよび端末向けOS上で実行可能な種々のプログラムをダウンロードし実行する。なお、音処理アプリケーションのプログラム(本体部240および仮想ツール部250)は、端末向けOS上で実行可能な種々のプログラムに含まれる。
<6.5.1. Download method (net boot method) thin client>
For example, if the information processing device 20 is a device compatible with a download-based thin client, the information processing device 20 receives a terminal OS and a terminal OS from a server that supports the download-based thin client arranged on the network. Download and run various programs that can be run on the computer. Note that the sound processing application program (main unit 240 and virtual tool unit 250) is included in various programs executable on the terminal OS.

この場合、情報処理装置20は、ネットワーク上に配されたダウンロード方式のシンクライアントに対応するサーバに対しネットワークを介してダウンロードの要求をする、ダウンロード方式シンクライアント機能部を有する。また、ネットワーク上に配されたダウンロード方式のシンクライアントに対応するサーバは、情報処理装置20のダウンロードの要求に対し、ネットワークを介して端末向けOSおよび端末向けOS上で実行可能な種々のプログラムを配信する、ダウンロード方式シンクライアントサーバ機能部を有する。ダウンロード方式シンクライアント機能部とダウンロード方式シンクライアントサーバ機能部とのやりとりにより、要求やダウンロードが実現される。 In this case, the information processing device 20 has a download type thin client function unit that requests download via the network to a server corresponding to the download type thin client arranged on the network. In addition, in response to a download request from the information processing device 20, a server arranged on the network that supports the download-type thin client downloads the terminal OS and various programs executable on the terminal OS via the network. It has a download-type thin client server function unit for distribution. Requests and downloads are realized through interaction between the download method thin client function section and the download method thin client server function section.

ここで、例えば、ダウンロード方式シンクライアント機能部とダウンロード方式シンクライアントサーバ機能部とはPXE(Preboot eXecution Environment)に対応する機能部であってもよく、ダウンロード方式シンクライアント機能部は、PXEに準拠し、ダウンロード方式シンクライアントサーバ機能部から、NBP(Network Bootstrap Program)のパス名を取得し、パス名に基づいてNBP(OSイメージを取得して起動するためのプログラム)をダウンロードし、NBPを実行することでOSイメージ(端末向けOSおよび端末向けOS上で実行可能な種々のプログラムを含むイメージファイル)をダウンロードし、OSイメージ実行することで情報処理装置20を起動する。なお、ダウンロード方式シンクライアント機能部は、TFTP(Trivial File Transfer Protocol)の通信プロトコルに基づきNBPを取得し、NBPを実行することでHTTP(Hypertext Transfer Protocol)やHTTPS(Hypertext Transfer Protocol Secure)やFTP(File Transfer Protocol)やNFS(Network File System)などの通信プロトコルに基づきOSイメージを取得する。 Here, for example, the download method thin client function section and the download method thin client server function section may be function sections compatible with PXE (Preboot eXecution Environment), and the download method thin client function section is compliant with PXE. , download method Obtains the path name of NBP (Network Bootstrap Program) from the thin client server function section, downloads NBP (a program for obtaining and starting an OS image) based on the path name, and executes NBP. This downloads an OS image (an image file containing a terminal OS and various programs executable on the terminal OS), and starts the information processing device 20 by executing the OS image. Note that the download method thin client function unit acquires NBP based on the TFTP (Trivial File Transfer Protocol) communication protocol, and executes the NBP to transfer to HTTP (Hypertext Transfer Protocol) or HTTPS (Hypertext Transfer Protocol). r Protocol Secure) and FTP ( The OS image is acquired based on a communication protocol such as File Transfer Protocol (NFS) or Network File System (NFS).

そして、ダウンロード方式のシンクライアントに対応する情報処理装置20は、端末向けOSおよび端末向けOS上で実行可能な種々のプログラムをダウンロードすると、端末向けOSを実行すると共に、種々のプログラムに含まれる音処理アプリケーションのプログラム(本体部240および仮想ツール部250)を実行する。こうすることで、音処理アプリケーションが起動され、情報処理装置20上に音処理アプリケーション231が形成される。 When the information processing device 20 compatible with the download-based thin client downloads the terminal OS and various programs executable on the terminal OS, it executes the terminal OS and also downloads the sound included in the various programs. The processing application program (main unit 240 and virtual tool unit 250) is executed. By doing so, the sound processing application is activated, and the sound processing application 231 is formed on the information processing device 20.

このようにすることで、ダウンロード方式のシンクライアントである情報処理装置20において、音処理アプリケーションによる機能(第一の機能、第二の機能、第三の機能)を発揮することができる。 By doing so, the information processing device 20, which is a download type thin client, can perform the functions (first function, second function, and third function) by the sound processing application.

なお、ダウンロード方式のシンクライアントである情報処理装置20おける音処理アプリケーションの形成は、上述のとおり、対象デバイスである収音装置10の接続が検出されると音処理アプリケーション231が形成されるものであってもよい。 Note that the sound processing application 231 is formed in the information processing device 20, which is a download-based thin client, as described above, when the connection of the sound collection device 10, which is the target device, is detected. There may be.

<6.5.2.画面転送方式のシンクライアント>
例えば、情報処理装置20が画面転送方式のシンクライアントに対応する装置である場合、情報処理装置20とネットワーク上に配された画面転送方式のシンクライアントに対応するサーバとがやりとりし、サーバのメモリ上で端末向けOSおよび端末向けOS上で実行可能な種々のプログラムが実行され、実行結果が情報処理装置20に表示される。なお、音処理アプリケーションのプログラム(本体部240および仮想ツール部250)は、端末向けOS上で実行可能な種々のプログラムに含まれる。
<6.5.2. Screen transfer method thin client>
For example, if the information processing device 20 is a device that supports a thin client using the screen transfer method, the information processing device 20 and a server that supports the thin client using the screen transfer method arranged on the network communicate with each other, and the server's memory The terminal OS and various programs executable on the terminal OS are executed, and the execution results are displayed on the information processing device 20. Note that the sound processing application program (main unit 240 and virtual tool unit 250) is included in various programs executable on the terminal OS.

この場合、情報処理装置20は、ネットワーク上に配された画面転送方式のシンクライアントに対応するサーバに対しネットワークを介して制御を要求し、制御の結果を受ける画面転送方式シンクライアント機能部を有する。また、ネットワーク上に配された画面転送方式のシンクライアントに対応するサーバは、情報処理装置20の制御の要求に対し、メモリ上で端末向けOSおよび端末向けOS上で実行可能な種々のプログラムを実行し、実行結果(制御の結果)を情報処理装置20に与える画面転送方式シンクライアントサーバ機能部を有する。画面転送方式シンクライアント機能部と画面転送方式シンクライアントサーバ機能部とのやりとりにより、制御の要求や制御の結果のやりとりが実現される。 In this case, the information processing device 20 has a screen transfer type thin client function unit that requests control via the network from a server corresponding to a screen transfer type thin client arranged on the network and receives the control result. . In addition, in response to a control request from the information processing device 20, a server that supports a screen transfer type thin client arranged on the network runs an OS for the terminal and various programs executable on the OS for the terminal in its memory. It has a screen transfer type thin client server function unit that executes the execution and provides the execution result (control result) to the information processing device 20. The exchange of control requests and control results is realized by the interaction between the screen transfer method thin client function section and the screen transfer method thin client server function section.

ここで、例えば、画面転送方式シンクライアント機能部と画面転送方式シンクライアントサーバ機能部とはRDP(Remote Desktop Protocol)に対応する機能部であってもよい。画面転送方式シンクライアント機能部は、RDPに準拠し、情報処理装置20におけるキーボード操作やマウス操作や音声入力などを、制御の要求として画面転送方式シンクライアントサーバ機能部に転送する。画面転送方式シンクライアントサーバ機能部は、RDPに準拠し、情報処理装置20におけるキーボード操作やマウス操作や音声入力などを、制御の要求として画面転送方式シンクライアント機能部から受け、サーバのメモリ上で実行される端末向けOSおよび端末向けOS上で実行される種々のプログラムの制御に反映させる。 Here, for example, the screen transfer method thin client function section and the screen transfer method thin client server function section may be function sections compatible with RDP (Remote Desktop Protocol). The screen transfer type thin client function unit complies with RDP and transfers keyboard operations, mouse operations, voice inputs, etc. in the information processing device 20 to the screen transfer type thin client server function unit as control requests. The screen transfer method thin client server function section complies with RDP and receives keyboard operations, mouse operations, voice input, etc. on the information processing device 20 as control requests from the screen transfer method thin client function section, and stores them in the memory of the server. It is reflected in the control of the terminal OS to be executed and various programs executed on the terminal OS.

そして、画面転送方式のシンクライアントに対応する情報処理装置20は、画面転送方式のシンクライアントに対応するサーバに対し端末向けOSおよび端末向けOS上で実行可能な種々のプログラムの起動の制御を要求すると、画面転送方式のシンクライアントに対応するサーバが、端末向けOSを実行すると共に、種々のプログラムに含まれる音処理アプリケーションのプログラム(本体部240および仮想ツール部250)を実行する。こうすることで、画面転送方式のシンクライアントに対応するサーバにおいて音処理アプリケーションが起動され、情報処理装置20上で音処理アプリケーション231が利用可能となる。 The information processing device 20 that supports the screen transfer type thin client requests the server that supports the screen transfer type thin client to control the startup of the terminal OS and various programs executable on the terminal OS. Then, the server corresponding to the screen transfer type thin client executes the OS for the terminal and also executes the sound processing application program (main unit 240 and virtual tool unit 250) included in various programs. By doing so, the sound processing application is started on the server that supports the screen transfer type thin client, and the sound processing application 231 becomes available on the information processing device 20.

このようにすることで、画面転送方式のシンクライアントである情報処理装置20において、音処理アプリケーションによる機能(第一の機能、第二の機能、第三の機能)を利用することができる。 By doing so, the functions (first function, second function, and third function) provided by the sound processing application can be used in the information processing device 20, which is a thin client using the screen transfer method.

なお、画面転送方式のシンクライアントである情報処理装置20おける音処理アプリケーションの形成(画面転送方式のシンクライアントに対応するサーバにおける音処理アプリケーションの形成)は、上述のとおり、対象デバイスである収音装置10の接続が検出されると音処理アプリケーション231が形成されるものであってもよい。 Note that the formation of a sound processing application in the information processing apparatus 20, which is a thin client of the screen transfer method (formation of a sound processing application in the server corresponding to the thin client of the screen transfer method), is performed on the sound processing device 20, which is the target device, as described above. The sound processing application 231 may be created when the connection of the device 10 is detected.

<6.6.収音装置10と情報処理装置20との接続>
上記では、収音装置10と情報処理装置20とが、有線接続や無線接続により通信可能に構成されることについて説明した。しかし、収音装置10と情報処理装置20との接続は、各種仮想化ソフトウェアによって提供されるパススルー機能によって実現されてよい。より具体的には、USBパススルー機能やPCIeパススルー機能によって、収音装置10と情報処理装置20の接続の一部が、ソフトウェア的に実行されてもよい。
<6.6. Connection between sound collection device 10 and information processing device 20>
In the above, it has been described that the sound collection device 10 and the information processing device 20 are configured to be able to communicate through a wired connection or a wireless connection. However, the connection between the sound collection device 10 and the information processing device 20 may be realized by a pass-through function provided by various virtualization software. More specifically, part of the connection between the sound collection device 10 and the information processing device 20 may be performed in software using a USB pass-through function or a PCIe pass-through function.

<6.7.エリア収音処理された音信号を利用するアプリケーションの例>
上記では、収音装置10により収音される音信号が、情報処理装置20上で、エリア収音処理されると共に会議アプリケーション233に受け渡されることで、収音装置10に向かって発話している利用者の音声が強調され、利用者の音声以外の雑音が相対的に弱められ得ることについて説明した。しかし、エリア収音処理された音信号を利用するアプリケーション(利用アプリケーション)は、例えば、通話、録音、音声配信、音声認識、状態検知、測定・計測などのアプリケーションであってもよい。
<6.7. Example of an application that uses sound signals subjected to area sound collection processing>
In the above, the sound signal collected by the sound collection device 10 is subjected to area sound collection processing on the information processing device 20 and is passed to the conference application 233, so that the sound signal is uttered toward the sound collection device 10. It has been explained that the user's voice can be emphasized and noise other than the user's voice can be relatively weakened. However, the application (utilization application) that uses the sound signal subjected to area sound collection processing may be, for example, an application such as a telephone call, recording, voice distribution, voice recognition, state detection, measurement/measurement, or the like.

例えば、通話アプリケーションがエリア収音処理された音信号を利用する場合、通話アプリケーションにおいて、仮想マイク部253が音の入力元のデバイスとして指定される。そして、収音装置10により得られる音信号に対しエリア収音処理が適用されると共に、エリア収音処理された音信号が通話アプリケーションに入力され、ネットワークを介して通話先の相手にエリア収音処理された音信号を伝える(例えば音信号をG.711やG.723やG.729やG.729aなどの方式の音声コーデックで圧縮符号化(エンコード)し伝送する)ことができる。 For example, when a phone call application uses a sound signal subjected to area sound collection processing, the virtual microphone unit 253 is designated as the device from which the sound is input in the phone call application. Then, area sound collection processing is applied to the sound signal obtained by the sound collection device 10, and the sound signal subjected to the area sound collection processing is input to the call application, and the area sound collection is sent to the other party via the network. A processed sound signal can be transmitted (for example, a sound signal can be compressed and encoded using an audio codec such as G.711, G.723, G.729, or G.729a, and then transmitted).

例えば、録音アプリケーションがエリア収音処理された音信号を利用する場合、録音アプリケーションにおいて、仮想マイク部253が音の入力元のデバイスとして指定される。そして、収音装置10により得られる音信号に対しエリア収音処理が適用されると共に、エリア収音処理された音信号が録音アプリケーションに入力され、エリア収音処理された音信号を録音(例えば音信号をMP3(MPEG-1 Audio Layer-3)やWAV(RIFF waveform Audio Format)やWMA(Windows Media Audio)やAAC(Advanced Audio Coding)やAC3(Audio Code number 3)やFLAC(Free Lossless Audio Codec)などの形式のファイルとして保存)することができる。 For example, when a recording application uses a sound signal subjected to area sound collection processing, the virtual microphone unit 253 is designated as a sound input source device in the recording application. Then, area sound collection processing is applied to the sound signal obtained by the sound collection device 10, and the sound signal subjected to area sound collection processing is input to a recording application, and the sound signal subjected to area sound collection processing is recorded (e.g. Audio signals can be converted into MP3 (MPEG-1 Audio Layer-3), WAV (RIFF waveform Audio Format), WMA (Windows Media Audio), AAC (Advanced Audio Coding), or AC3 (Audio Code number 3) and FLAC (Free Lossless Audio Codec ) can be saved as a file in a format such as ).

例えば、音声配信アプリケーションがエリア収音処理された音信号を利用する場合、音声配信アプリケーションにおいて、仮想マイク部253が音の入力元のデバイスとして指定される。そして、収音装置10により得られる音信号に対しエリア収音処理が適用されると共に、エリア収音処理された音信号が音声配信アプリケーションに入力され、エリア収音処理された音信号を音声配信(例えば音信号をMP3やWAVやWMAやAACやAC3やFLACなどの形式のファイルとしてネットワーク上のサーバにアップロードしネットワーク上のサーバから配信)することができる。 For example, when the audio distribution application uses a sound signal subjected to area sound collection processing, the virtual microphone unit 253 is designated as the device from which the sound is input in the audio distribution application. Then, area sound collection processing is applied to the sound signal obtained by the sound collection device 10, and the sound signal subjected to area sound collection processing is input to an audio distribution application, and the sound signal subjected to area sound collection processing is audio distributed. (For example, a sound signal can be uploaded to a server on a network as a file in an MP3, WAV, WMA, AAC, AC3, FLAC, etc. format and distributed from the server on the network).

例えば、音声認識アプリケーションがエリア収音処理された音信号を利用する場合、音声認識アプリケーションにおいて、仮想マイク部253が音の入力元のデバイスとして指定される。そして、収音装置10により得られる音信号に対しエリア収音処理が適用されると共に、エリア収音処理された音信号が音声認識アプリケーションに入力され、エリア収音処理された音信号に基づき音声認識することができる。なお、音声認識の手法として、例えば、エリア収音処理された音信号を入力として音声認識結果を出力する確率モデルである隠れマルコフモデルが用いられてもよい。また、音声認識の手法は隠れマルコフモデルに限らず、例えば、ディープラーニング、人工ニューラルネットワーク、ランダムフォレスト、勾配ブースティング等の機械学習手法が用いられてもよい。 For example, when a voice recognition application uses a sound signal subjected to area sound collection processing, the virtual microphone unit 253 is designated as a sound input source device in the voice recognition application. Then, area sound collection processing is applied to the sound signal obtained by the sound collection device 10, and the sound signal subjected to area sound collection processing is inputted to a speech recognition application, and audio is generated based on the sound signal subjected to area sound collection processing. can be recognized. Note that as a method of speech recognition, for example, a hidden Markov model, which is a probabilistic model that receives a sound signal subjected to area sound collection processing as input and outputs a speech recognition result, may be used. Furthermore, the speech recognition method is not limited to the hidden Markov model, and machine learning methods such as deep learning, artificial neural networks, random forests, and gradient boosting may also be used.

例えば、状態検知アプリケーションがエリア収音処理された音信号を利用する場合、状態検知アプリケーションにおいて、仮想マイク部253が音の入力元のデバイスとして指定される。そして、収音装置10により得られる音信号に対しエリア収音処理が適用されると共に、エリア収音処理された音信号が状態検知アプリケーションに入力され、状態検知アプリケーションは、正常な音信号を学習データとして機械学習させた学習モデルにエリア収音処理された音信号を入力し、エリア収音処理された音信号が異常音であるか否かの判定結果又はエリア収音処理された音信号が異常音である確率を学習モデルが出力することで、エリア収音処理された音信号の発生源の状態異常を検知することができる。なお、機械学習の手法としては、ディープラーニング、人工ニューラルネットワーク、ランダムフォレスト、勾配ブースティング等が挙げられるが、これらに限定はされない。また、エリア収音処理された音信号の発生源としては、機械の動作音、製品の動作音、車両の走行音、動物の足音、動物の声音、動物の心音、動物の呼吸音等が挙げられるが、これらに限定はされない。 For example, when the state detection application uses a sound signal subjected to area sound collection processing, the virtual microphone unit 253 is designated as the device from which the sound is input in the state detection application. Then, area sound collection processing is applied to the sound signal obtained by the sound collection device 10, and the sound signal subjected to the area sound collection processing is input to the state detection application, and the state detection application learns the normal sound signal. Input the sound signal that has undergone area sound collection processing into a learning model that has been subjected to machine learning as data, and determine whether the sound signal that has undergone area sound collection processing is an abnormal sound or the sound signal that has undergone area sound collection processing. By outputting the probability that the sound is an abnormal sound, the learning model makes it possible to detect an abnormal state of the source of the sound signal subjected to area sound collection processing. Note that machine learning methods include, but are not limited to, deep learning, artificial neural networks, random forests, gradient boosting, and the like. In addition, the sources of sound signals subjected to area sound collection processing include machine operating sounds, product operating sounds, vehicle running sounds, animal footsteps, animal voices, animal heart sounds, and animal breathing sounds. However, it is not limited to these.

例えば、魚群探知機アプリケーションがエリア収音処理された音信号を利用する場合、魚群探知機アプリケーションにおいて、仮想マイク部253が音の入力元のデバイスとして指定される。そして、収音装置10により得られる音信号に対しエリア収音処理が適用されると共に、エリア収音処理された音信号が魚群探知機アプリケーションに入力され、エリア収音処理された音信号から魚群探知(例えば、送波器から出力した超音波が魚群などに反射した音信号をエリア収音し、音信号をデジタル信号に変換、解析してエコーグラム画像を作成)をすることができる。 For example, when the fish finder application uses a sound signal subjected to area sound collection processing, the virtual microphone unit 253 is designated as the device from which the sound is input in the fish finder application. Then, area sound collection processing is applied to the sound signal obtained by the sound collection device 10, and the sound signal subjected to the area sound collection processing is inputted to the fish finder application, and the sound signal subjected to the area sound collection processing is used to detect fish schools. Detection (for example, collecting the sound signals from the ultrasonic waves output from the transmitter reflected by schools of fish, converting the sound signals into digital signals, analyzing them, and creating an echogram image) is possible.

例えば、密漁を検知するような水中異常検知アプリケーションがエリア収音処理された音信号を利用する場合、水中異常検知アプリケーションにおいて、仮想マイク部253が音の入力元のデバイスとして指定される。そして、収音装置10により得られる音信号に対しエリア収音処理が適用されると共に、エリア収音処理された音信号が水中異常検知アプリケーションに入力され、エリア収音処理された音信号から水中異常検知(例えば、音信号から、船舶のスクリュー音や、ダイバーがボンベから空気を吸引する際に空気がレギュレータ(調整噐・調節器)を通過する音に関わる、異常な周波数を有する音を検知)することができる。 For example, when an underwater anomaly detection application that detects poaching uses a sound signal subjected to area sound collection processing, the virtual microphone unit 253 is designated as a sound input source device in the underwater anomaly detection application. Then, area sound collection processing is applied to the sound signal obtained by the sound collection device 10, and the sound signal subjected to area sound collection processing is input to an underwater abnormality detection application, and the sound signal subjected to area sound collection processing is Anomaly detection (for example, detecting sounds with abnormal frequencies from sound signals, such as the sound of a ship's propeller or the sound of air passing through a regulator when a diver draws air from a cylinder) )can do.

例えば、音可視化アプリケーションがエリア収音処理された音信号を利用する場合、音可視化アプリケーションにおいて、仮想マイク部253が音の入力元のデバイスとして指定される。そして、収音装置10により得られる音信号に対しエリア収音処理が適用されると共に、エリア収音処理された音信号が音可視化アプリケーションに入力され、エリア収音処理された音信号から音圧分布を取得してカラーマップ化(音の発生源から収音装置10まで位相差情報から音圧を測定・計測しヒートマップ化)することができる。 For example, when a sound visualization application uses a sound signal subjected to area sound collection processing, the virtual microphone unit 253 is designated as a sound input source device in the sound visualization application. Then, area sound collection processing is applied to the sound signal obtained by the sound collection device 10, and the sound signal subjected to the area sound collection processing is input to a sound visualization application, and the sound pressure is calculated from the sound signal subjected to the area sound collection processing. The distribution can be acquired and converted into a color map (the sound pressure is measured from the phase difference information from the sound source to the sound collection device 10 and converted into a heat map).

10 収音装置
110 マイクアレイ
20 情報処理装置
210 通信部
220 記憶部
230 制御部
231 音処理アプリケーション
233 会議アプリケーション
235 表示制御部
240 本体部
241 デバイス検出部
243 音処理部
245 パラメータ設定部
247 画面生成部
250 仮想ツール部
251 仮想スピーカ部
253 仮想マイク部
260 音入力部
270 操作表示部
280 音出力部
10 sound collection device 110 microphone array 20 information processing device 210 communication unit 220 storage unit 230 control unit 231 sound processing application 233 conference application 235 display control unit 240 main unit 241 device detection unit 243 sound processing unit 245 parameter setting unit 247 screen generation unit 250 Virtual tool section 251 Virtual speaker section 253 Virtual microphone section 260 Sound input section 270 Operation display section 280 Sound output section

Claims (16)

情報処理装置であって、
収音装置との接続状態を検出する検出部と、
前記検出部により前記情報処理装置との接続が検出された収音装置により得られた音信号を処理する処理部と、
仮想の音出力デバイスとして機能し、前記処理部による処理後の音信号である処理後音信号が入力される仮想スピーカ部と、
を備える、情報処理装置。
An information processing device,
a detection unit that detects a connection state with the sound collection device;
a processing unit that processes a sound signal obtained by a sound collection device whose connection with the information processing device has been detected by the detection unit;
a virtual speaker section that functions as a virtual sound output device and receives a processed sound signal that is a sound signal processed by the processing section;
An information processing device comprising:
前記情報処理装置は、
前記検出部および前記処理部を有する音処理アプリケーションと、
前記仮想スピーカ部、および仮想の音入力デバイスとして機能し、前記仮想スピーカ部から出力される前記処理後音信号が入力される仮想マイク部を有する仮想ツールと、
を備え、
前記音処理アプリケーションからの前記処理後音信号の出力先には、前記音処理アプリケーションの提供者により、前記仮想ツールが事前に設定されている、請求項1に記載の情報処理装置。
The information processing device includes:
a sound processing application including the detection unit and the processing unit;
a virtual tool having the virtual speaker section and a virtual microphone section that functions as a virtual sound input device and into which the processed sound signal output from the virtual speaker section is input;
Equipped with
The information processing apparatus according to claim 1, wherein the virtual tool is set in advance by a provider of the sound processing application to an output destination of the processed sound signal from the sound processing application.
前記仮想マイク部は、前記情報処理装置により認識される名称として、前記音処理アプリケーションに対応する名称を有する、請求項2に記載の情報処理装置。 The information processing device according to claim 2, wherein the virtual microphone unit has a name corresponding to the sound processing application as a name recognized by the information processing device. 前記検出部は、
接続が検出された前記収音装置のハードウェア識別情報を取得し、
前記ハードウェア識別情報が記憶部に保持されている対象デバイス識別情報と一致するか否かを照合し、
前記処理部は、前記ハードウェア識別情報が前記対象デバイス識別情報と一致した場合、前記収音装置により得られた音信号の処理を開始し、
前記ハードウェア識別情報が前記対象デバイス識別情報と一致しなかった場合、前記音信号の処理を実行せず、前記音信号を前記仮想スピーカ部へ出力する、
請求項3に記載の情報処理装置。
The detection unit includes:
obtaining hardware identification information of the sound collection device with which connection has been detected;
Verifying whether the hardware identification information matches target device identification information held in a storage unit;
The processing unit starts processing the sound signal obtained by the sound collection device when the hardware identification information matches the target device identification information,
If the hardware identification information does not match the target device identification information, the sound signal is not processed and the sound signal is output to the virtual speaker section.
The information processing device according to claim 3.
前記処理部は、
前記検出部により、接続が検出されていた前記収音装置の接続が解除されたことが検出されると、前記収音装置により得られる音信号の処理を停止する、
請求項4に記載の情報処理装置。
The processing unit includes:
When the detection unit detects that the connection of the sound collection device whose connection has been detected has been released, processing of the sound signal obtained by the sound collection device is stopped;
The information processing device according to claim 4.
表示部に表示される通知および画面を生成する画面生成部と、
前記表示部への表示を制御する表示制御部をさらに備え、
前記画面生成部は、前記検出部により前記収音装置の接続が検出されると、前記処理部による前記音信号の処理の対象デバイスが検出された旨の通知を生成し、
前記表示制御部は、前記通知を前記表示部に表示させる、
請求項5に記載の情報処理装置。
a screen generation unit that generates notifications and screens displayed on the display unit;
further comprising a display control unit that controls display on the display unit,
When the detection unit detects the connection of the sound collection device, the screen generation unit generates a notification that a device for processing the sound signal by the processing unit has been detected,
The display control unit displays the notification on the display unit,
The information processing device according to claim 5.
前記画面生成部は、前記検出部により前記収音装置の接続が解除されたことが検出されると、前記処理部による前記音信号の処理の対象デバイスの接続が解除された旨の通知を生成し、
前記表示制御部は、前記通知を前記表示部に表示させる、
請求項6に記載の情報処理装置。
When the detection unit detects that the sound collection device is disconnected, the screen generation unit generates a notification that the connection of the target device for processing the sound signal by the processing unit is disconnected. death,
The display control unit displays the notification on the display unit,
The information processing device according to claim 6.
ユーザによるパラメータの変更操作に応じて、前記処理部による前記音信号の処理に係るパラメータを設定するパラメータ設定部、をさらに備え、
前記画面生成部は、前記ユーザによる前記パラメータの変更操作を受け付けるパラメータ設定画面を生成し、
前記表示制御部は、前記表示部に前記パラメータ設定画面を表示させる、
請求項7に記載の情報処理装置。
further comprising a parameter setting unit that sets parameters related to processing of the sound signal by the processing unit in response to a parameter change operation by a user;
The screen generation unit generates a parameter setting screen that accepts an operation to change the parameter by the user,
the display control section causes the display section to display the parameter setting screen;
The information processing device according to claim 7.
前記処理部は、
前記収音装置により得られる前記音信号に対し、目的エリアの音の成分を強調するための音信号の処理である、エリア収音処理を行う、請求項8に記載の情報処理装置。
The processing unit includes:
9. The information processing apparatus according to claim 8, wherein the sound signal obtained by the sound collection device is subjected to area sound collection processing, which is sound signal processing for emphasizing sound components in a target area.
前記処理部は、
前記収音装置により得られる前記音信号に対し、前記目的エリアの音の成分以外の周囲音の成分を弱める処理を行うことにより、前記エリア収音処理を行う、
請求項9に記載の情報処理装置。
The processing unit includes:
performing the area sound collection processing by performing processing on the sound signal obtained by the sound collection device to weaken ambient sound components other than the sound components of the target area;
The information processing device according to claim 9.
前記処理部は、
前記収音装置により得られる前記音信号に対し、前記目的エリアの音の成分を増幅する処理を行うことにより、前記エリア収音処理を行う、
請求項9または10に記載の情報処理装置。
The processing unit includes:
performing the area sound collection processing by performing processing to amplify the sound component of the target area on the sound signal obtained by the sound collection device;
The information processing device according to claim 9 or 10.
前記処理後音信号の出力先は、前記処理後音信号を利用する利用アプリケーションである、請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the output destination of the processed sound signal is a usage application that uses the processed sound signal. 前記利用アプリケーションは、前記処理後音信号の発生源の状態異常を前記処理後音信号に基づいて機械学習により検知する状態検知アプリケーションである、請求項12に記載の情報処理装置。 The information processing apparatus according to claim 12, wherein the usage application is a state detection application that detects a state abnormality of a source of the processed sound signal by machine learning based on the processed sound signal. コンピュータを、
情報処理装置と収音装置との接続状態を検出する検出部と、
前記検出部により前記情報処理装置との接続が検出された収音装置により得られた音信号を処理する処理部と、
仮想の音出力デバイスとして機能し、前記処理部による処理後の音信号である処理後音信号が入力される仮想スピーカ部と、
して機能させるための、プログラム。
computer,
a detection unit that detects a connection state between the information processing device and the sound collection device;
a processing unit that processes a sound signal obtained by a sound collection device whose connection with the information processing device has been detected by the detection unit;
a virtual speaker section that functions as a virtual sound output device and receives a processed sound signal that is a sound signal processed by the processing section;
A program to make it work.
情報処理装置と収音装置との接続状態を検出することと、
前記情報処理装置との接続が検出された収音装置により得られた音信号を処理することと、
仮想の音出力デバイスとして機能する仮想スピーカ部に処理後の音信号である処理後音信号を入力することと、
を含む、コンピュータにより実行される情報処理方法。
detecting the connection state between the information processing device and the sound collection device;
processing a sound signal obtained by a sound collection device whose connection with the information processing device has been detected;
Inputting a processed sound signal, which is a processed sound signal, into a virtual speaker unit functioning as a virtual sound output device;
An information processing method performed by a computer, including:
収音装置と、
情報処理装置と前記収音装置との接続状態を検出する検出部と、
前記検出部により前記情報処理装置との接続が検出された収音装置により得られた音信号を処理する処理部と、
仮想の音出力デバイスとして機能し、前記処理部による処理後の音信号である処理後音信号が入力される仮想スピーカ部と、
を含む、情報処理システム。
a sound collection device;
a detection unit that detects a connection state between the information processing device and the sound collection device;
a processing unit that processes a sound signal obtained by a sound collection device whose connection with the information processing device has been detected by the detection unit;
a virtual speaker section that functions as a virtual sound output device and receives a processed sound signal that is a sound signal processed by the processing section;
information processing systems, including
JP2022122279A 2022-07-29 2022-07-29 Information processing device, program, information processing method, and information processing system Pending JP2024018748A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022122279A JP2024018748A (en) 2022-07-29 2022-07-29 Information processing device, program, information processing method, and information processing system
PCT/JP2023/018143 WO2024024219A1 (en) 2022-07-29 2023-05-15 Information processing device, program, information processing method, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022122279A JP2024018748A (en) 2022-07-29 2022-07-29 Information processing device, program, information processing method, and information processing system

Publications (1)

Publication Number Publication Date
JP2024018748A true JP2024018748A (en) 2024-02-08

Family

ID=89706001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022122279A Pending JP2024018748A (en) 2022-07-29 2022-07-29 Information processing device, program, information processing method, and information processing system

Country Status (2)

Country Link
JP (1) JP2024018748A (en)
WO (1) WO2024024219A1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7881460B2 (en) * 2005-11-17 2011-02-01 Microsoft Corporation Configuration of echo cancellation

Also Published As

Publication number Publication date
WO2024024219A1 (en) 2024-02-01

Similar Documents

Publication Publication Date Title
US11670302B2 (en) Voice processing method and electronic device supporting the same
US11435980B2 (en) System for processing user utterance and controlling method thereof
JP6752870B2 (en) Methods and systems for controlling artificial intelligence devices using multiple wake words
US10353495B2 (en) Personalized operation of a mobile device using sensor signatures
KR20190100512A (en) Electronic device and method for communicating with chatbot
JP2018190413A (en) Method and system for processing user command to adjust and provide operation of device and content provision range by grasping presentation method of user speech
US20210142796A1 (en) Information processing apparatus, information processing method, and program
US20140316783A1 (en) Vocal keyword training from text
KR102657519B1 (en) Electronic device for providing graphic data based on voice and operating method thereof
US9766852B2 (en) Non-audio notification of audible events
US11537360B2 (en) System for processing user utterance and control method of same
KR102508863B1 (en) A electronic apparatus and a server for processing received data from the apparatus
US20150310878A1 (en) Method and apparatus for determining emotion information from user voice
US11972761B2 (en) Electronic device for sharing user-specific voice command and method for controlling same
CN111640429B (en) Method for providing voice recognition service and electronic device for the same
US11915700B2 (en) Device for processing user voice input
US9772815B1 (en) Personalized operation of a mobile device using acoustic and non-acoustic information
KR20200025226A (en) Electronic apparatus and thereof control method
US20200152181A1 (en) Electronic device for processing user utterance
KR20190068133A (en) Electronic device and method for speech recognition
CN110945455A (en) Electronic device for processing user utterance for controlling external electronic device and control method thereof
US10976997B2 (en) Electronic device outputting hints in an offline state for providing service according to user context
WO2016206647A1 (en) System for controlling machine apparatus to generate action
KR20190113130A (en) The apparatus for processing user voice input
WO2024024219A1 (en) Information processing device, program, information processing method, and information processing system