JP2018148254A - Interface unit - Google Patents

Interface unit Download PDF

Info

Publication number
JP2018148254A
JP2018148254A JP2017037939A JP2017037939A JP2018148254A JP 2018148254 A JP2018148254 A JP 2018148254A JP 2017037939 A JP2017037939 A JP 2017037939A JP 2017037939 A JP2017037939 A JP 2017037939A JP 2018148254 A JP2018148254 A JP 2018148254A
Authority
JP
Japan
Prior art keywords
unit
speaker
target person
voice
room
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017037939A
Other languages
Japanese (ja)
Other versions
JP6901871B2 (en
Inventor
井上 博之
Hiroyuki Inoue
博之 井上
泰史 菅野
Yasushi Sugano
泰史 菅野
昌太 高田
Shota Takada
昌太 高田
星司 小畠
Seiji Kobatake
星司 小畠
靖揮 三木
Yasuteru Miki
靖揮 三木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiwa House Industry Co Ltd
Original Assignee
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiwa House Industry Co Ltd filed Critical Daiwa House Industry Co Ltd
Priority to JP2017037939A priority Critical patent/JP6901871B2/en
Publication of JP2018148254A publication Critical patent/JP2018148254A/en
Application granted granted Critical
Publication of JP6901871B2 publication Critical patent/JP6901871B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an interface unit capable of simplifying setting of an azimuth and distance to a target person.SOLUTION: An interface unit comprises a device unit 100 having: a human detection sensor 110 for detecting that a target person is in a room; a microphone 120 for inputting a voice of the target person; and a loudspeaker 130 that outputs a voice to the target person. The human detection sensor 110, the microphone 120, and the loudspeaker 130 are provided at positions mutually close enough to regard an azimuth and distance to the target person to be the same.SELECTED DRAWING: Figure 3

Description

本発明は、室内に設けられるインターフェースユニットの技術に関する。   The present invention relates to a technology of an interface unit provided in a room.

従来、室内に設けられるインターフェースユニットの技術は公知となっている。例えば、特許文献1に記載の如くである。   Conventionally, the technology of an interface unit provided in a room has been publicly known. For example, as described in Patent Document 1.

特許文献1には、各会議室に配置された会議端末を含むテレビ会議システムが記載されている。前記テレビ会議システムにおいては、カメラ、マイクアレイ、ディスプレイ及びスピーカが前記会議端末と通信可能に接続されている。   Patent Document 1 describes a video conference system including a conference terminal arranged in each conference room. In the video conference system, a camera, a microphone array, a display, and a speaker are communicably connected to the conference terminal.

しかしながら、特許文献1に記載の技術においては、カメラ、マイクアレイ、ディスプレイ及びスピーカ等の各機器が別々に設けられているため、各機器ごとに対象者に対する方位や距離を設定する必要があった。   However, in the technique described in Patent Document 1, since each device such as a camera, a microphone array, a display, and a speaker is provided separately, it is necessary to set the azimuth and distance to the subject for each device. .

特開2012−186551号公報JP 2012-186551 A

本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、対象者に対する方位及び距離の設定を簡略化することができるインターフェースユニットを提供するものである。   The present invention has been made in view of the situation as described above, and a problem to be solved is to provide an interface unit that can simplify the setting of the azimuth and distance with respect to the subject.

本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。   The problem to be solved by the present invention is as described above. Next, means for solving the problem will be described.

即ち、請求項1においては、室内に対象者がいることを検知する人検知部、対象者の音声を入力する音声入力部、及び対象者に音声を出力する音声出力部を有するデバイスユニットを具備し、前記人検知部、前記音声入力部及び前記音声出力部は、対象者に対する方位及び距離を同視できる程度に互いに近接させた位置に設けられているものである。   That is, in claim 1, a device unit including a human detection unit that detects that a target person is present in the room, a voice input unit that inputs a voice of the target person, and a voice output unit that outputs voice to the target person is provided. And the said person detection part, the said audio | voice input part, and the said audio | voice output part are provided in the position mutually brought close to the extent which can see the azimuth | direction and distance with respect to a subject.

請求項2においては、前記デバイスユニットを制御する制御部を具備し、前記制御部は、前記人検知部の検知結果を含む分析情報に基づいて、対象者の位置情報を取得し、前記位置情報に基づいて、前記音声出力部が出力する音声の向き及び/又は音量を制御するものである。   In Claim 2, it has a control part which controls the device unit, and the control part acquires a subject's position information based on analysis information including a detection result of the person detection part, and the position information Based on the above, the direction and / or volume of the sound output by the sound output unit is controlled.

請求項3においては、前記分析情報は、前記音声入力部に入力された音声の情報を含むものであるものである。   According to a third aspect of the present invention, the analysis information includes information on a voice input to the voice input unit.

請求項4においては、前記音声出力部は、互いに異なる範囲に音声を出力する複数の指向性スピーカを具備し、前記制御部は、前記位置情報に基づいて、前記複数の指向性スピーカの中から音声を出力させる指向性スピーカを選択するものである。   According to a fourth aspect of the present invention, the sound output unit includes a plurality of directional speakers that output sound in different ranges, and the control unit is configured to select from the plurality of directional speakers based on the position information. A directional speaker for outputting sound is selected.

請求項5においては、前記制御部は、前記人検知部が室内に対象者がいることを検知しないときには、前記音声出力部をオフにするものである。   According to a fifth aspect of the present invention, the control unit turns off the sound output unit when the human detection unit does not detect that the target person is present in the room.

請求項6においては、前記制御部は、前記人検知部が室内に対象者がいることを検知しないとき、且つ、前記音声入力部に音声が所定時間入力されないときには、前記音声出力部をオフにするものである。   According to a sixth aspect of the present invention, the control unit turns off the audio output unit when the human detection unit does not detect the presence of a target person in the room and when no audio is input to the audio input unit for a predetermined time. To do.

請求項7においては、前記人検知部の検知結果のデータを蓄積するデータ蓄積部を具備し、前記制御部は、前記データ蓄積部に蓄積された前記データに基づいて対象者の不在予想時刻を算出し、前記不在予想時刻の間は前記音声出力部をオフにするものである。   According to a seventh aspect of the present invention, a data storage unit that stores data of detection results of the human detection unit is provided, and the control unit calculates an expected absence time of the subject based on the data stored in the data storage unit. The voice output unit is calculated and turned off during the estimated absence time.

請求項8においては、前記デバイスユニットは、同じ室内に設けられた第一のデバイスユニット及び第二のデバイスユニットを含み、前記制御部は、前記第一のデバイスユニット又は前記第二のデバイスユニットの前記人検知部が室内に対象者がいることを検知した場合、前記第一のデバイスユニット又は前記第二のデバイスユニットのいずれか一方の前記音声出力部をオフにすると共に前記音声入力部をオンにし、前記第一のデバイスユニット又は前記第二のデバイスユニットのいずれか他方の前記音声出力部をオンにすると共に前記音声入力部をオフにするものである。   In Claim 8, The said device unit contains the 1st device unit and the 2nd device unit which were provided in the same room, The said control part of said 1st device unit or said 2nd device unit When the human detection unit detects that there is a target person in the room, the voice output unit of either the first device unit or the second device unit is turned off and the voice input unit is turned on. And turning on the sound output unit of the other of the first device unit and the second device unit and turning off the sound input unit.

請求項9においては、前記デバイスユニットは、前記室内に設けられた他の設備と一体化されているものである。   According to a ninth aspect of the present invention, the device unit is integrated with other equipment provided in the room.

本発明の効果として、以下に示すような効果を奏する。   As effects of the present invention, the following effects can be obtained.

請求項1においては、対象者に対する方位及び距離の設定を簡略化することができる。   In Claim 1, the setting of the azimuth | direction and distance with respect to a subject can be simplified.

請求項2においては、対象者に適切に音声を出力することができる。   In Claim 2, a sound can be appropriately output to the subject.

請求項3においては、位置情報の精度を向上させることができる。   In the third aspect, the accuracy of the position information can be improved.

請求項4においては、対象者に適切に音声を出力することができる。   In Claim 4, a sound can be appropriately output to a subject.

請求項5においては、省エネルギー化を図ることができる。   In Claim 5, energy saving can be achieved.

請求項6においては、省エネルギー化を図ることができる。   In Claim 6, energy saving can be achieved.

請求項7においては、省エネルギー化を図ることができる。   In claim 7, energy saving can be achieved.

請求項8においては、音声出力部から出力された音声が、同じデバイスユニットの音声入力部に入力されてしまうのを抑制することができる。   In Claim 8, it can suppress that the audio | voice output from the audio | voice output part is input into the audio | voice input part of the same device unit.

請求項9においては、省スペース化を図ることができる。   In claim 9, space saving can be achieved.

本発明の一実施形態に係るインターフェースユニットの構成を示す図。The figure which shows the structure of the interface unit which concerns on one Embodiment of this invention. (a)本発明の一実施形態に係るデバイスユニットが設置された状態を示す概略平面図。(b)その概略側面断面図。(A) The schematic plan view which shows the state in which the device unit which concerns on one Embodiment of this invention was installed. (B) Its schematic side sectional view. 本発明の一実施形態に係るデバイスユニットを示す前方斜視図。The front perspective view showing the device unit concerning one embodiment of the present invention. スピーカから音声が出力されるまでの概略フローを示す図。The figure which shows the schematic flow until an audio | voice is output from a speaker. 本発明の第二実施形態に係るインターフェースユニットの構成を示す図。The figure which shows the structure of the interface unit which concerns on 2nd embodiment of this invention. 本発明の第三実施形態に係るインターフェースユニットの構成を示す図。The figure which shows the structure of the interface unit which concerns on 3rd embodiment of this invention. 本発明の第三実施形態に係るデバイスユニットが設置された状態を示す概略平面図。The schematic plan view which shows the state in which the device unit which concerns on 3rd embodiment of this invention was installed. 本発明の第四実施形態に係るインターフェースユニットの構成を示す図。The figure which shows the structure of the interface unit which concerns on 4th embodiment of this invention. 対象者の在室の有無の判定基準を示す図。The figure which shows the criteria of the presence or absence of a subject's presence in a room. 対象者の在室予想時刻を示す図。The figure which shows a subject's expected occupancy time. 本発明の第五実施形態に係るデバイスユニットが設置された状態を示す概略平面図。The schematic plan view which shows the state in which the device unit which concerns on 5th embodiment of this invention was installed. 第五実施形態の電源管理のフローを示す図。The figure which shows the flow of the power management of 5th embodiment.

以下の説明においては、図中に記した矢印に従って、上下方向、左右方向及び前後方向をそれぞれ定義する。   In the following description, the up-down direction, the left-right direction, and the front-rear direction are defined according to the arrows shown in the figure.

まず、図1を用いて、本発明の一実施形態に係るインターフェースユニット1の構成の概要について説明する。   First, the outline of the configuration of the interface unit 1 according to an embodiment of the present invention will be described with reference to FIG.

インターフェースユニット1は、建物の部屋R(図2参照)の室内にいる人(以下、対象者という)と音声のやりとりを行うものである。インターフェースユニット1は、種々の用途に用いることができ、例えば会議システムに用いることができる。インターフェースユニット1は、デバイスユニット100、データ収集ユニット300及びデータ分析ユニット400を具備する。   The interface unit 1 exchanges audio with a person (hereinafter referred to as a target person) in a room R (see FIG. 2) of a building. The interface unit 1 can be used for various applications, for example, a conference system. The interface unit 1 includes a device unit 100, a data collection unit 300, and a data analysis unit 400.

デバイスユニット100は、建物の室内に設けられた機器のユニットである。デバイスユニット100は、例えば他のデバイスユニット100と接続されることで、互いの間で通話が可能となる。デバイスユニット100は、人感センサ110、マイクロフォン120、スピーカ130及び照明スイッチ140を具備する。   The device unit 100 is a unit of equipment provided in a room of a building. For example, the device unit 100 is connected to another device unit 100 to enable a call between them. The device unit 100 includes a human sensor 110, a microphone 120, a speaker 130, and a lighting switch 140.

人感センサ110は、室内に対象者がいることを検知するものである。人感センサ110としては、例えば焦電型赤外線センサが使用される。人感センサ110は、室内に対象者がいることを検知した場合、その旨を示す人検知情報を後述するデータ収集ユニット300に送信する。   The human sensor 110 detects the presence of a target person in the room. As the human sensor 110, for example, a pyroelectric infrared sensor is used. When the human sensor 110 detects that the target person is present in the room, the human sensor 110 transmits human detection information indicating that to the data collection unit 300 described later.

マイクロフォン120は、室内で生じた音が入力されるものである。マイクロフォン120は、対象者の音声を取得する(音声が入力される)ことができる。マイクロフォン120は、対象者の音声を取得した場合、この音声の情報(音声情報)を後述するデータ収集ユニット300に送信する。   The microphone 120 receives sound generated in the room. The microphone 120 can acquire the voice of the target person (the voice is input). When the microphone 120 acquires the voice of the target person, the microphone 120 transmits the voice information (voice information) to the data collection unit 300 described later.

スピーカ130は、対象者に音声を出力するものである。スピーカ130は、他のデバイスユニット100のマイクロフォン120に入力された音声や、後述するスピーカ制御部420に予め記録された音声を出力することができる。   The speaker 130 outputs sound to the target person. The speaker 130 can output a sound input to the microphone 120 of another device unit 100 or a sound recorded in advance in a speaker control unit 420 described later.

照明スイッチ140は、室内の照明器具のオン/オフを切り替えるものである。   The lighting switch 140 switches on / off of the indoor lighting fixture.

データ収集ユニット300は、データを収集及び蓄積するものである。データ収集ユニット300は、人検知情報蓄積部310及び音声情報蓄積部320を具備する。   The data collection unit 300 collects and accumulates data. The data collection unit 300 includes a human detection information storage unit 310 and a voice information storage unit 320.

人検知情報蓄積部310は、人感センサ110が取得したデータを蓄積するものである。人検知情報蓄積部310には、人感センサ110の検知結果が順次蓄積される。   The human detection information accumulation unit 310 accumulates data acquired by the human sensor 110. In the human detection information storage unit 310, detection results of the human sensor 110 are sequentially stored.

音声情報蓄積部320は、マイクロフォン120が取得したデータを蓄積するものである。音声情報蓄積部320には、マイクロフォン120に入力された音声の情報(音声情報)が順次蓄積される。   The audio information accumulation unit 320 accumulates data acquired by the microphone 120. The voice information storage unit 320 sequentially stores voice information (voice information) input to the microphone 120.

データ分析ユニット400は、デバイスユニット100の制御等を行うものである。データ分析ユニット400は、分析部410及びスピーカ制御部420を具備する。   The data analysis unit 400 controls the device unit 100 and the like. The data analysis unit 400 includes an analysis unit 410 and a speaker control unit 420.

分析部410は、データ収集ユニット300のデータを分析することで、対象者の位置情報を取得するものである。具体的には、分析部410は、人検知情報蓄積部310に蓄積された人検知情報、及び音声情報蓄積部320に蓄積された音声情報に基づいて、対象者の位置情報を取得する。分析部410は、デバイスユニット100の位置を基準として、対象者の位置情報を座標化させる。   The analysis unit 410 acquires the position information of the target person by analyzing the data of the data collection unit 300. Specifically, the analysis unit 410 acquires the position information of the target person based on the human detection information stored in the human detection information storage unit 310 and the voice information stored in the voice information storage unit 320. The analysis unit 410 coordinates the position information of the subject with the position of the device unit 100 as a reference.

スピーカ制御部420は、スピーカ130を制御するものである。スピーカ制御部420は、予め出力用の音声データを格納しており、当該音声データを用いて、スピーカ130に音声を出力させることができる。また、スピーカ制御部420は、スピーカ130が出力する音声の大きさ(音量)を調整することができる。   The speaker control unit 420 controls the speaker 130. The speaker control unit 420 stores sound data for output in advance, and can output sound to the speaker 130 using the sound data. In addition, the speaker control unit 420 can adjust the volume (volume) of the sound output from the speaker 130.

このように構成されたデバイスユニット100においては、図2(a)に示すように、人感センサ110、マイクロフォン120、スピーカ130及び照明スイッチ140は、一体的に(1つのデバイスとして)構成される。そして、人感センサ110、マイクロフォン120、スピーカ130及び照明スイッチ140は、対象者に対する方位及び距離を同視できる程度に互いに近接させた位置に設けられている。なお、デバイスユニット100は、実際には非常に小型の機器であり、図2(a)においては、デバイスユニット100を実際よりも相対的に大きく誇張して図示している。   In the device unit 100 configured as described above, as shown in FIG. 2A, the human sensor 110, the microphone 120, the speaker 130, and the illumination switch 140 are configured integrally (as one device). . The human sensor 110, the microphone 120, the speaker 130, and the illumination switch 140 are provided at positions that are close to each other to such an extent that the azimuth and distance with respect to the subject can be viewed. Note that the device unit 100 is actually a very small device, and in FIG. 2A, the device unit 100 is illustrated as being exaggerated relatively larger than actual.

図2(b)に示すように、デバイスユニット100は、部屋Rの壁部に設置される。デバイスユニット100は、マイクロフォン120及びスピーカ130の床Fからの高さhが1100〜1200mm程度となる位置に設けられる。   As shown in FIG. 2B, the device unit 100 is installed on the wall portion of the room R. The device unit 100 is provided at a position where the height h of the microphone 120 and the speaker 130 from the floor F is about 1100 to 1200 mm.

図3に示すように、デバイスユニット100は、部屋Rの壁部に埋め込まれたスイッチボックス11内に格納されている。照明スイッチ140は、スイッチボックス11内において、図示せぬ電気配線を介して商用電源と照明器具とに接続されている。スイッチボックス11の前面は、人感センサ110、マイクロフォン120、スピーカ130及び照明スイッチ140のための開口部を有するスイッチカバー12によって覆われている。   As shown in FIG. 3, the device unit 100 is stored in a switch box 11 embedded in the wall portion of the room R. The lighting switch 140 is connected to a commercial power source and a lighting fixture via an electric wiring (not shown) in the switch box 11. The front surface of the switch box 11 is covered with a switch cover 12 having openings for the human sensor 110, the microphone 120, the speaker 130, and the illumination switch 140.

次に、図1及び図4を用いて、室内の対象者に音声を出力する制御について説明する。   Next, with reference to FIGS. 1 and 4, control for outputting sound to a target person in the room will be described.

人感センサ110が室内に対象者がいることを検知すると、室内に対象者がいることを示す検知結果(人検知情報)がデータ収集ユニット300に送信され、人検知情報蓄積部310に蓄積される。   When the human sensor 110 detects that the target person is present in the room, a detection result (person detection information) indicating that the target person is present in the room is transmitted to the data collection unit 300 and stored in the human detection information storage unit 310. The

また、マイクロフォン120には、対象者が発した音声が入力される。マイクロフォン120に入力された音声情報は、データ収集ユニット300に送信され、音声情報蓄積部320に蓄積される。   In addition, the microphone 120 receives a voice uttered by the subject. The voice information input to the microphone 120 is transmitted to the data collection unit 300 and stored in the voice information storage unit 320.

図4に示すように、分析部410は、人感センサ110の人検知情報に基づいて、対象者の方位及び距離を推定する。また、分析部410は、マイクロフォン120に入力された音声情報に基づいて、対象者の方位を推定する。そして、分析部410は、人検知情報に基づいて推定された対象者の方位及び距離、及び音声情報に基づいて推定された対象者の方位に基づいて、対象者の位置情報をデバイスユニット100を基準として座標化する。   As illustrated in FIG. 4, the analysis unit 410 estimates the orientation and distance of the target person based on the human detection information of the human sensor 110. Further, the analysis unit 410 estimates the orientation of the target person based on the voice information input to the microphone 120. Then, the analysis unit 410 determines the position information of the target person on the device unit 100 based on the direction and distance of the target person estimated based on the person detection information and the direction of the target person estimated based on the voice information. Coordinate as a reference.

スピーカ制御部420は、分析部410によって取得された位置情報に基づいて、スピーカ130が出力する音声の大きさ(音量)を調整する。具体的には、スピーカ制御部420は、所定の基準に基づいて、スピーカ130と対象者との間の距離が遠ければ音量を大きくし、スピーカ130と対象者との間の距離が近ければ音量を小さくする。また、スピーカ制御部420は、所定の基準に基づいて、スピーカ130の音声出力方向に対する対象者の方位のずれが大きければ音量を大きくし、スピーカ130の音声出力方向に対する対象者の方位のずれが小さければ音量を小さくする。   The speaker control unit 420 adjusts the volume (volume) of the sound output from the speaker 130 based on the position information acquired by the analysis unit 410. Specifically, the speaker control unit 420 increases the volume if the distance between the speaker 130 and the target person is long, and increases the volume if the distance between the speaker 130 and the target person is short, based on a predetermined criterion. Make it smaller. In addition, the speaker control unit 420 increases the volume if the deviation of the orientation of the subject with respect to the audio output direction of the speaker 130 is large based on a predetermined criterion, and the deviation of the orientation of the subject with respect to the audio output direction of the speaker 130. If it is small, turn down the volume.

これにより、対象者は適切な音量で音声を聞くことができる。したがって、対象者に不快感を与えないようにすることができる。   As a result, the subject can hear the sound at an appropriate volume. Therefore, it is possible to prevent the subject from feeling uncomfortable.

ここで、デバイスユニット100においては、人感センサ110、マイクロフォン120及びスピーカ130は、対象者に対する方位及び距離を同視できる程度に互いに近接させた位置に設けられている。よって、人感センサ110に対する対象者の方位及び距離、マイクロフォン120に対する対象者の方位及び距離、スピーカ130に対する対象者の方位及び距離を共通化することができる。   Here, in the device unit 100, the human sensor 110, the microphone 120, and the speaker 130 are provided at positions that are close to each other to such an extent that the azimuth and distance with respect to the subject can be viewed. Therefore, the orientation and distance of the subject with respect to the human sensor 110, the orientation and distance of the subject with respect to the microphone 120, and the orientation and distance of the subject with respect to the speaker 130 can be made common.

具体的には、人感センサ110及びマイクロフォン120と対象者との距離と、スピーカ130と対象者との距離とは略同じとなる。このため、スピーカ制御部420がスピーカ130と対象者との間の位置情報(方位及び距離)に基づいて音量を制御するに際し、人感センサ110及びマイクロフォン120と対象者との方位及び距離をそのまま用いることができる。つまり、人感センサ110及びマイクロフォン120と対象者との方位及び距離を、スピーカ130と対象者との方位及び距離に換算する(設定し直す)手間を省略することができる。さらに、対象者に精度良く最適な音声を届けることができる。   Specifically, the distance between the human sensor 110 and the microphone 120 and the target person and the distance between the speaker 130 and the target person are substantially the same. For this reason, when the speaker control unit 420 controls the sound volume based on the position information (azimuth and distance) between the speaker 130 and the subject, the orientation and distance between the human sensor 110 and the microphone 120 and the subject are used as they are. Can be used. That is, the trouble of converting (resetting) the azimuth and distance between the human sensor 110 and the microphone 120 and the subject to the azimuth and distance between the speaker 130 and the subject can be omitted. Furthermore, it is possible to deliver the optimal voice to the target person with high accuracy.

また、デバイスユニット100は、部屋Rの壁部に設けられたスイッチボックス11内に格納されているので、室内の空間を有効利用することができ、さらに意匠性を向上させることができる。また、デバイスユニット100は、照明スイッチ140が格納されたスイッチボックス11内に当該照明スイッチ140と一体的に形成されているので、電源配線の共有化を図ることができる。よって、配線の削減や施工の手間の低減を図ることができる。このように、本実施形態のデバイスユニット100は、意匠性、コスト性及び施工性を向上させることができる。   Moreover, since the device unit 100 is stored in the switch box 11 provided in the wall part of the room R, the indoor space can be used effectively and the design can be further improved. Moreover, since the device unit 100 is integrally formed with the lighting switch 140 in the switch box 11 in which the lighting switch 140 is stored, the power supply wiring can be shared. Therefore, it is possible to reduce wiring and labor of construction. Thus, the device unit 100 of this embodiment can improve the designability, cost, and workability.

また、マイクロフォン120は、床Fからの高さhが1100〜1200mm程度の位置に設けられている(図2(b)参照)ことで、音声を適切に取得することができる。また、スピーカ130が床Fからの高さhが1100〜1200mm程度の位置に設けられていることで、対象者がスピーカ130から出力される音声を確認し易くすることができる。   Moreover, the microphone 120 is appropriately provided with a sound when the height h from the floor F is provided at a position of about 1100 to 1200 mm (see FIG. 2B). In addition, since the speaker 130 is provided at a position where the height h from the floor F is about 1100 to 1200 mm, the target person can easily confirm the sound output from the speaker 130.

以上の如く、本実施形態に係るインターフェースユニット1は、室内に対象者がいることを検知する人感センサ110(人検知部)、対象者の音声を入力するマイクロフォン120(音声入力部)、及び対象者に音声を出力するスピーカ130(音声出力部)を有するデバイスユニット100を具備し、前記人感センサ110、前記マイクロフォン120及び前記スピーカ130は、対象者に対する方位及び距離を同視できる程度に互いに近接させた位置に設けられているものである。
このように構成することにより、対象者に対する方位及び距離の設定を簡略化することができる。
As described above, the interface unit 1 according to the present embodiment includes the human sensor 110 (person detection unit) that detects the presence of the subject in the room, the microphone 120 (speech input unit) that inputs the subject's voice, and The device unit 100 includes a speaker 130 (sound output unit) that outputs sound to the target person, and the human sensor 110, the microphone 120, and the speaker 130 are mutually connected to such an extent that the direction and distance to the target can be viewed with each other. It is provided at a close position.
By comprising in this way, the setting of the azimuth | direction and distance with respect to a subject can be simplified.

また、本実施形態に係るインターフェースユニット1は、前記デバイスユニット100を制御するデータ分析ユニット400(制御部)を具備し、前記データ分析ユニット400は、前記人感センサ110の検知結果を含む分析情報に基づいて、対象者の位置情報を取得し、前記位置情報に基づいて、前記スピーカ130が出力する音声の音量を制御するものである。
このように構成することにより、対象者に適切に音声を出力することができる。
The interface unit 1 according to the present embodiment includes a data analysis unit 400 (control unit) that controls the device unit 100, and the data analysis unit 400 includes analysis information including a detection result of the human sensor 110. The position information of the target person is acquired based on the position information, and the volume of the sound output from the speaker 130 is controlled based on the position information.
By comprising in this way, an audio | voice can be output appropriately to an object person.

また、前記分析情報は、前記マイクロフォン120に入力された音声の情報を含むものである。
このように構成することにより、位置情報の精度を向上させることができる。
Further, the analysis information includes information on the voice input to the microphone 120.
By comprising in this way, the precision of position information can be improved.

また、前記デバイスユニット100は、前記室内に設けられた照明スイッチ140(他の設備)と一体化されているものである。
このように構成することにより、省スペース化を図ることができる。
The device unit 100 is integrated with a lighting switch 140 (other equipment) provided in the room.
With this configuration, space can be saved.

なお、本実施形態に係る人感センサ110は、人検知部の実施の一形態である。
また、本実施形態に係るマイクロフォン120は、音声入力部の実施の一形態である。
また、本実施形態に係るスピーカ130は、音声出力部の実施の一形態である。
The human sensor 110 according to the present embodiment is an embodiment of the human detection unit.
In addition, the microphone 120 according to the present embodiment is an embodiment of a voice input unit.
The speaker 130 according to the present embodiment is an embodiment of an audio output unit.

以上、本発明の一実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。   As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said structure, A various change is possible within the range of the invention described in the claim.

例えば、本実施形態においては、人感センサ110、マイクロフォン120及びスピーカ130は、一体的に(1つのデバイスとして)形成されるものとしたが、対象者に対する方位及び距離を同視できる程度に互いに近接させた位置であれば、1つのデバイスとして形成されていなくてもよい。具体的には、部屋Rの壁部に複数のボックスが形成され、人感センサ110、マイクロフォン120及びスピーカ130がそれぞれ各ボックスに格納されるものであってもよい。   For example, in the present embodiment, the human sensor 110, the microphone 120, and the speaker 130 are integrally formed (as one device), but close to each other to the extent that the azimuth and distance with respect to the subject can be viewed. If it is the position made to be, it does not need to be formed as one device. Specifically, a plurality of boxes may be formed on the wall portion of the room R, and the human sensor 110, the microphone 120, and the speaker 130 may be stored in each box.

また、本実施形態においては、人感センサ110として焦電型赤外線センサが用いられるものとしたが、深度センサを用いるものであってもよく、焦電型赤外線センサと深度センサとを併用するものであってもよい。   In this embodiment, a pyroelectric infrared sensor is used as the human sensor 110. However, a depth sensor may be used, and a pyroelectric infrared sensor and a depth sensor are used in combination. It may be.

また、本実施形態においては、分析部410は、人感センサ110による人検知情報と、マイクロフォン120による音声情報とに基づいて対象者の位置情報を取得するものとしたが、人感センサ110による人検知情報のみを用いて対象者の位置情報を取得するものであってもよい。   In the present embodiment, the analysis unit 410 acquires the position information of the target person based on the human detection information by the human sensor 110 and the voice information by the microphone 120. The position information of the target person may be acquired using only the human detection information.

次に、図5を用いて、本発明の第二実施形態に係るインターフェースユニット2の構成の概要について説明する。   Next, the outline of the configuration of the interface unit 2 according to the second embodiment of the present invention will be described with reference to FIG.

第二実施形態に係るインターフェースユニット2が、第一実施形態に係るインターフェースユニット1と異なる主な点は、デバイスユニット100に代えてデバイスユニット600を具備する点である。よって以下では、第二実施形態に係るインターフェースユニット2のうち第一実施形態に係るインターフェースユニット1と同一の構成については、同一の符号を付して説明を省略する。   The main difference between the interface unit 2 according to the second embodiment and the interface unit 1 according to the first embodiment is that a device unit 600 is provided instead of the device unit 100. Therefore, below, about the same structure as the interface unit 1 which concerns on 1st embodiment among the interface units 2 which concern on 2nd embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

デバイスユニット600は、建物の室内に設けられた機器のユニットである。デバイスユニット600は、部屋Rの壁部に設置される。デバイスユニット600は、人感センサ110、マイクロフォン120、指向性スピーカ630及び照明スイッチ140を具備する。人感センサ110、マイクロフォン120及び照明スイッチ140については、第一実施形態と同様であるので、説明を省略する。   The device unit 600 is a device unit provided in a room of a building. The device unit 600 is installed on the wall of the room R. The device unit 600 includes a human sensor 110, a microphone 120, a directional speaker 630, and a lighting switch 140. Since the human sensor 110, the microphone 120, and the illumination switch 140 are the same as those in the first embodiment, description thereof is omitted.

指向性スピーカ630は、対象者に音声を出力するものである。指向性スピーカ630は、所定の方向の所定の範囲にのみ音声を出力するように構成されている。指向性スピーカ630は、首振り機構を有し、音声の出力方向を任意に調整可能に構成されている。これにより、指向性スピーカ630は、室内の概ね全範囲に音声を届けることができる。指向性スピーカ630は、スピーカ制御部420によって首振りを実行される。指向性スピーカ630は、他のデバイスユニット100のマイクロフォン120に入力された音声や、スピーカ制御部420に予め記録された音声を出力することができる。   The directional speaker 630 outputs sound to the target person. The directional speaker 630 is configured to output sound only in a predetermined range in a predetermined direction. The directional speaker 630 has a swing mechanism and is configured to be able to arbitrarily adjust the sound output direction. Thereby, the directional speaker 630 can deliver sound to almost the entire range in the room. The directional speaker 630 is swung by the speaker control unit 420. The directional speaker 630 can output a sound input to the microphone 120 of another device unit 100 or a sound recorded in advance in the speaker control unit 420.

スピーカ制御部420は、分析部410によって取得された位置情報に基づいて、指向性スピーカ630の向きを調整する。具体的には、スピーカ制御部420は、対象者の位置に追従するように指向性スピーカ630の向きを調整する。   The speaker control unit 420 adjusts the direction of the directional speaker 630 based on the position information acquired by the analysis unit 410. Specifically, the speaker control unit 420 adjusts the direction of the directional speaker 630 so as to follow the position of the subject.

これにより、指向性スピーカ630から出力される音声を、対象者に適切に届けることができる。また、対象者が室内を移動しても、指向性スピーカ630が対象者に追従するので、音声を対象者に適切に届けることができる。   Thereby, the sound output from the directional speaker 630 can be appropriately delivered to the subject. Moreover, even if the subject moves inside the room, the directional speaker 630 follows the subject, so that the sound can be appropriately delivered to the subject.

ここで、スピーカ制御部420が指向性スピーカ630と対象者との間の位置情報(方位)に基づいて音声出力方向を制御するに際し、人感センサ110及びマイクロフォン120と対象者との方位をそのまま用いることができる。つまり、人感センサ110及びマイクロフォン120と対象者との方位を、指向性スピーカ630と対象者との方位に換算する(設定し直す)手間を省略することができる。さらに、対象者に精度良く最適な音声を届けることができる。   Here, when the speaker control unit 420 controls the sound output direction based on the positional information (orientation) between the directional speaker 630 and the subject, the orientations of the human sensor 110 and the microphone 120 and the subject are maintained as they are. Can be used. That is, it is possible to save the trouble of converting (resetting) the orientations of the human sensor 110, the microphone 120, and the subject into the orientations of the directional speaker 630 and the subject. Furthermore, it is possible to deliver the optimal voice to the target person with high accuracy.

以上の如く、第二実施形態に係るインターフェースユニット2は、前記デバイスユニット100を制御するデータ分析ユニット400(制御部)を具備し、前記データ分析ユニット400は、前記人感センサ110の検知結果を含む分析情報に基づいて、対象者の位置情報を取得し、前記位置情報に基づいて、前記スピーカ130が出力する音声の向きを制御するものである。
このように構成することにより、対象者に適切に音声を出力することができる。
As described above, the interface unit 2 according to the second embodiment includes the data analysis unit 400 (control unit) that controls the device unit 100, and the data analysis unit 400 displays the detection result of the human sensor 110. The position information of the subject is acquired based on the included analysis information, and the direction of the sound output from the speaker 130 is controlled based on the position information.
By comprising in this way, an audio | voice can be output appropriately to an object person.

以上、本発明の第二実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。   The second embodiment of the present invention has been described above, but the present invention is not limited to the above-described configuration, and various modifications can be made within the scope of the invention described in the claims.

例えば、データ分析ユニット400は、対象者の人物を特定する機能を備えていてもよい。そして、部屋Rに複数の人がいる場合は、指向性スピーカ630が特定の対象者に追従するように向きを調整するようにしてもよい。これにより、室内にいる他の人(音声を聞く必要がない人)に音声を届け難くすることができるので、当該他の人に不快感を与えないようにすることができる。   For example, the data analysis unit 400 may have a function of specifying the person of the target person. When there are a plurality of people in the room R, the direction may be adjusted so that the directional speaker 630 follows a specific target person. As a result, it is possible to make it difficult to deliver the sound to another person in the room (a person who does not need to listen to the sound), so that the other person can be prevented from feeling uncomfortable.

なお、第一実施形態と第二実施形態とを組み合せて、スピーカ130が出力する音声の向き及び音量の両方を制御するものとすることもできる。   The first embodiment and the second embodiment may be combined to control both the direction and volume of the sound output from the speaker 130.

次に、図6及び図7を用いて、本発明の第三実施形態に係るインターフェースユニット3の構成の概要について説明する。なお、図7において三角形で示す範囲は、指向性スピーカ730の音声の出力範囲を示している。   Next, the outline of the configuration of the interface unit 3 according to the third embodiment of the present invention will be described with reference to FIGS. 6 and 7. Note that a range indicated by a triangle in FIG. 7 indicates an audio output range of the directional speaker 730.

第三実施形態に係るインターフェースユニット3が、第一実施形態に係るインターフェースユニット1と異なる主な点は、デバイスユニット100に代えてデバイスユニット700を具備する点である。よって以下では、第三実施形態に係るインターフェースユニット3のうち第一実施形態に係るインターフェースユニット1と同一の構成については、同一の符号を付して説明を省略する。なお、図7においては、デバイスユニット700の構成要素のうち指向性スピーカ730以外の構成要素は図示を省略している。   The main difference between the interface unit 3 according to the third embodiment and the interface unit 1 according to the first embodiment is that a device unit 700 is provided instead of the device unit 100. Therefore, below, about the same structure as the interface unit 1 which concerns on 1st embodiment among the interface units 3 which concern on 3rd embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted. In FIG. 7, components other than the directional speaker 730 among the components of the device unit 700 are not shown.

デバイスユニット700は、建物の室内に設けられた機器のユニットである。デバイスユニット700は、部屋Rの壁部に設置される。デバイスユニット700は、人感センサ110、マイクロフォン120、指向性スピーカ730及び照明スイッチ140を具備する。人感センサ110、マイクロフォン120及び照明スイッチ140については、第一実施形態と同様であるので、説明を省略する。   The device unit 700 is a unit of equipment provided in a room of a building. The device unit 700 is installed on the wall portion of the room R. The device unit 700 includes a human sensor 110, a microphone 120, a directional speaker 730, and a lighting switch 140. Since the human sensor 110, the microphone 120, and the illumination switch 140 are the same as those in the first embodiment, description thereof is omitted.

指向性スピーカ730は、対象者に音声を出力するものである。指向性スピーカ730は、所定の方向の所定の範囲にのみ音声を出力するように構成されている。指向性スピーカ730は、他のデバイスユニット100のマイクロフォン120に入力された音声や、スピーカ制御部420に予め記録された音声を出力することができる。指向性スピーカ730は、第一指向性スピーカ730a、第二指向性スピーカ730b及び第三指向性スピーカ730cを含んでいる。   The directional speaker 730 outputs sound to the target person. The directional speaker 730 is configured to output sound only in a predetermined range in a predetermined direction. The directional speaker 730 can output a sound input to the microphone 120 of another device unit 100 or a sound recorded in advance in the speaker control unit 420. The directional speaker 730 includes a first directional speaker 730a, a second directional speaker 730b, and a third directional speaker 730c.

図7に示すように、第一指向性スピーカ730a、第二指向性スピーカ730b及び第三指向性スピーカ730cは、互いに一直線上に並ぶように設けられている。第一指向性スピーカ730a、第二指向性スピーカ730b及び第三指向性スピーカ730cは、互いに異なる出力範囲となるように設けられており、各出力範囲は一部が重複していてもよく、全く重複していなくてもよい。第一指向性スピーカ730a、第二指向性スピーカ730b及び第三指向性スピーカ730cの出力範囲によって、室内の空間の大部分がカバーされている。   As shown in FIG. 7, the first directional speaker 730a, the second directional speaker 730b, and the third directional speaker 730c are provided so as to be aligned with each other. The first directional speaker 730a, the second directional speaker 730b, and the third directional speaker 730c are provided so as to have different output ranges from each other, and each output range may partially overlap. It does not have to overlap. Most of the indoor space is covered by the output ranges of the first directional speaker 730a, the second directional speaker 730b, and the third directional speaker 730c.

スピーカ制御部420は、分析部410によって取得された位置情報に基づいて、音声を出力する指向性スピーカ730を選択する。具体的には、スピーカ制御部420は、第一指向性スピーカ730a、第二指向性スピーカ730b又は第三指向性スピーカ730cのうち、出力範囲が対象者を含む指向性スピーカ730を選択し、音声を出力させる。図7においては、スピーカ制御部420は、第二指向性スピーカ730bから音声を出力させる。   The speaker control unit 420 selects the directional speaker 730 that outputs sound based on the position information acquired by the analysis unit 410. Specifically, the speaker control unit 420 selects the directional speaker 730 whose output range includes the target person from the first directional speaker 730a, the second directional speaker 730b, or the third directional speaker 730c, and performs the audio. Is output. In FIG. 7, the speaker control unit 420 outputs sound from the second directional speaker 730b.

これにより、指向性スピーカ730から出力される音声を、対象者に適切に届けることができる。   Thereby, the sound output from the directional speaker 730 can be appropriately delivered to the subject.

以上の如く、第三実施形態に係るインターフェースユニット3は、指向性スピーカ730(音声出力部)は、互いに異なる範囲に音声を出力する複数の指向性スピーカ730a、730b、730cを具備し、前記データ分析ユニット400(制御部)は、前記位置情報に基づいて、前記複数の指向性スピーカ730a、730b、730cの中から音声を出力させる指向性スピーカ730を選択するものである。
このように構成することにより、対象者に適切に音声を出力することができる。
As described above, in the interface unit 3 according to the third embodiment, the directional speaker 730 (audio output unit) includes a plurality of directional speakers 730a, 730b, and 730c that output audio in different ranges, and the data The analysis unit 400 (control unit) selects a directional speaker 730 that outputs sound from the plurality of directional speakers 730a, 730b, and 730c based on the position information.
By comprising in this way, an audio | voice can be output appropriately to an object person.

次に、図8を用いて、本発明の第四実施形態に係るインターフェースユニット4の構成の概要について説明する。   Next, the outline of the configuration of the interface unit 4 according to the fourth embodiment of the present invention will be described with reference to FIG.

第四実施形態に係るインターフェースユニット4が、第一実施形態に係るインターフェースユニット1と異なる主な点は、スイッチユニット200及び電源管理ユニット500を具備する点である。よって以下では、第四実施形態に係るインターフェースユニット4のうち第一実施形態に係るインターフェースユニット1と同一の構成については、同一の符号を付して説明を省略する。   The interface unit 4 according to the fourth embodiment is different from the interface unit 1 according to the first embodiment in that a switch unit 200 and a power management unit 500 are provided. Therefore, below, about the same structure as the interface unit 1 which concerns on 1st embodiment among the interface units 4 which concern on 4th embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

スイッチユニット200は、デバイスユニット100への商用電源Sの電力の供給を切り替えるものである。スイッチユニット200は、商用電源Sと、人感センサ110、マイクロフォン120、スピーカ130及び照明スイッチ140それぞれとを接続するスイッチ回路を有している。スイッチユニット200は、第一リレー210、第二リレー220、第三リレー230及び第四リレー240を具備する。   The switch unit 200 switches the supply of power from the commercial power source S to the device unit 100. The switch unit 200 includes a switch circuit that connects the commercial power source S to the human sensor 110, the microphone 120, the speaker 130, and the illumination switch 140. The switch unit 200 includes a first relay 210, a second relay 220, a third relay 230, and a fourth relay 240.

第一リレー210は、商用電源Sと人感センサ110との接続及び接続の解除(開閉状態の切り替え)を行うものである。第一リレー210は、商用電源Sと人感センサ110との間に配置される。第一リレー210が閉状態となると、商用電源Sと人感センサ110との接続が行われる。一方、第一リレー210が開状態となると、商用電源Sと人感センサ110との接続の解除が行われる。   The first relay 210 connects and disconnects the commercial power source S and the human sensor 110 (switches between open and closed states). The first relay 210 is disposed between the commercial power source S and the human sensor 110. When the first relay 210 is closed, the commercial power source S and the human sensor 110 are connected. On the other hand, when the first relay 210 is opened, the connection between the commercial power source S and the human sensor 110 is released.

第二リレー220は、商用電源Sとマイクロフォン120との接続及び接続の解除(開閉状態の切り替え)を行うものである。第二リレー220は、商用電源Sとマイクロフォン120との間に配置される。第二リレー220が閉状態となると、商用電源Sとマイクロフォン120との接続が行われる。一方、第二リレー220が開状態となると、商用電源Sとマイクロフォン120との接続の解除が行われる。   The second relay 220 connects and disconnects the commercial power source S and the microphone 120 (switches between open and closed states). The second relay 220 is disposed between the commercial power source S and the microphone 120. When the second relay 220 is closed, the commercial power source S and the microphone 120 are connected. On the other hand, when the second relay 220 is opened, the connection between the commercial power source S and the microphone 120 is released.

第三リレー230は、商用電源Sとスピーカ130との接続及び接続の解除(開閉状態の切り替え)を行うものである。第三リレー230は、商用電源Sとスピーカ130との間に配置される。第三リレー230が閉状態となると、商用電源Sとスピーカ130との接続が行われる。一方、第三リレー230が開状態となると、商用電源Sとスピーカ130との接続の解除が行われる。   The third relay 230 connects and disconnects the commercial power source S and the speaker 130 (switches between open and closed states). The third relay 230 is disposed between the commercial power source S and the speaker 130. When the third relay 230 is closed, the commercial power source S and the speaker 130 are connected. On the other hand, when the third relay 230 is opened, the connection between the commercial power source S and the speaker 130 is released.

第四リレー240は、商用電源Sと照明スイッチ140との接続及び接続の解除(開閉状態の切り替え)を行うものである。第四リレー240は、商用電源Sと照明スイッチ140との間に配置される。第四リレー240が閉状態となると、商用電源Sと照明スイッチ140との接続が行われる。一方、第四リレー240が開状態となると、商用電源Sと照明スイッチ140との接続の解除が行われる。   The fourth relay 240 is for connecting the commercial power source S and the lighting switch 140 and releasing the connection (switching the open / close state). The fourth relay 240 is disposed between the commercial power source S and the lighting switch 140. When the fourth relay 240 is closed, the commercial power source S and the lighting switch 140 are connected. On the other hand, when the fourth relay 240 is opened, the connection between the commercial power source S and the lighting switch 140 is released.

電源管理ユニット500は、デバイスユニット100への電源の供給を制御(管理)するものである。また、電源管理ユニット500は、デバイスユニット100以外の各IOT家電の電源供給を制御する。電源管理ユニット500は、スイッチ制御部510を具備する。   The power management unit 500 controls (manages) power supply to the device unit 100. Further, the power management unit 500 controls the power supply of each IOT home appliance other than the device unit 100. The power management unit 500 includes a switch control unit 510.

スイッチ制御部510は、スイッチユニット200を制御(管理)するものである。具体的には、スイッチ制御部510は、第一リレー210、第二リレー220、第三リレー230及び第四リレー240の開閉を制御する。   The switch control unit 510 controls (manages) the switch unit 200. Specifically, the switch control unit 510 controls opening and closing of the first relay 210, the second relay 220, the third relay 230, and the fourth relay 240.

分析部410は、人感センサ110の検知結果に基づいて、現在室内に対象者がいるか否かの判定を行う。そして、電源管理ユニット500は、分析部410の判定結果に基づいて、スイッチユニット200を制御する。具体的には、電源管理ユニット500は、判定結果が現在室内に対象者がいることを示す場合は、第一リレー210、第二リレー220、第三リレー230及び第四リレー240を閉じる(閉じたままとする)。一方、電源管理ユニット500は、判定結果が現在室内に対象者が不在であることを示す場合は、第二リレー220、第三リレー230及び第四リレー240を開く。   Based on the detection result of the human sensor 110, the analysis unit 410 determines whether or not the target person is currently in the room. Then, the power management unit 500 controls the switch unit 200 based on the determination result of the analysis unit 410. Specifically, the power management unit 500 closes (closes) the first relay 210, the second relay 220, the third relay 230, and the fourth relay 240 when the determination result indicates that the subject is currently in the room. Leave). On the other hand, the power management unit 500 opens the second relay 220, the third relay 230, and the fourth relay 240 when the determination result indicates that the target person is not currently in the room.

このように制御することで、室内に対象者が不在である場合には、マイクロフォン120、スピーカ130及び照明スイッチ140をオフにすることができる。これにより、マイクロフォン120、スピーカ130及び照明スイッチ140の待機電力を低減することができ、ひいては省エネルギー化を図ることができる。   By controlling in this way, the microphone 120, the speaker 130, and the illumination switch 140 can be turned off when the subject is absent in the room. Thereby, the standby power of the microphone 120, the speaker 130, and the illumination switch 140 can be reduced, and as a result, energy saving can be achieved.

以上の如く、第四実施形態に係るインターフェースユニット4は、電源管理ユニット500(制御部)は、前記人感センサ110が室内に対象者がいることを検知しないときには、前記スピーカ130をオフにするものである。
このように構成することにより、省エネルギー化を図ることができる。
As described above, in the interface unit 4 according to the fourth embodiment, the power management unit 500 (control unit) turns off the speaker 130 when the human sensor 110 does not detect the presence of a target person in the room. Is.
With this configuration, energy saving can be achieved.

なお、本実施形態に係る電源管理ユニット500は、制御部の実施の一形態である。   The power management unit 500 according to this embodiment is an embodiment of a control unit.

以上、本発明の第四実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。   Although the fourth embodiment of the present invention has been described above, the present invention is not limited to the above-described configuration, and various modifications can be made within the scope of the invention described in the claims.

例えば、第四実施形態においては、スイッチ制御部510(電源管理ユニット500)は、人感センサ110が室内に対象者がいることを検知しないときには、マイクロフォン120、スピーカ130及び照明スイッチ140をオフにするものものとしたが、スピーカ130のみをオフにするものであってもよく、スピーカ130及び照明スイッチ140をオフにするものであってもよい。   For example, in the fourth embodiment, the switch control unit 510 (power management unit 500) turns off the microphone 120, the speaker 130, and the illumination switch 140 when the human sensor 110 does not detect the presence of the subject in the room. However, only the speaker 130 may be turned off, or the speaker 130 and the illumination switch 140 may be turned off.

また、人感センサ110の検出結果にかかわらず、利用目的に応じて、スイッチ制御部510によって、人感センサ110、マイクロフォン120及びスピーカ130のうち不要なものをオフにすることもできる。   Regardless of the detection result of the human sensor 110, unnecessary switches among the human sensor 110, the microphone 120, and the speaker 130 can be turned off by the switch control unit 510 according to the purpose of use.

また、第四実施形態においては、スイッチ制御部510は、人感センサ110が室内に対象者がいることを検知しないときに、マイクロフォン120、スピーカ130及び照明スイッチ140(スピーカ130等)をオフにするものものとしたが、スピーカ130等をオフにする条件はこれに限定されるものではない。スイッチ制御部510は、マイクロフォン120の音声取得の有無も考慮して、スピーカ130等をオフにするものであってもよい。   In the fourth embodiment, the switch control unit 510 turns off the microphone 120, the speaker 130, and the illumination switch 140 (speaker 130, etc.) when the human sensor 110 does not detect the presence of the subject in the room. However, the condition for turning off the speaker 130 and the like is not limited to this. The switch control unit 510 may be configured to turn off the speaker 130 or the like in consideration of whether or not the microphone 120 has acquired sound.

具体的には、スイッチ制御部510は、人感センサ110が室内に対象者がいることを検知しないとき、且つ、マイクロフォン120が音声(対象者の声、いびき、体動音、物音等)を所定時間取得しないとき(すなわち、図9において×印で示す場合)に、スピーカ130等をオフにする。具体的には、スイッチ制御部510は、音声情報蓄積部320に蓄積された音声情報に基づいて、所定時間(現在及び現在から所定の時間遡った期間)、室内に対象者が不在であるか否かを判定する。そして、スイッチ制御部510は、人感センサ110が室内に対象者がいることを検知しないとき、且つ、マイクロフォン120が音声を所定時間取得しないときに、スピーカ130等をオフにする。   Specifically, when the human sensor 110 does not detect the presence of the target person in the room, the switch control unit 510 and the microphone 120 output the voice (the target person's voice, snoring, body motion sound, physical sound, etc.). When the predetermined time is not acquired (that is, when indicated by a cross in FIG. 9), the speaker 130 and the like are turned off. Specifically, the switch control unit 510 determines whether the target person is absent in the room for a predetermined period of time (current and a period that is a predetermined period after the current period) based on the audio information stored in the audio information storage unit 320. Determine whether or not. Then, the switch control unit 510 turns off the speaker 130 and the like when the human sensor 110 does not detect the presence of the target person in the room and when the microphone 120 does not acquire sound for a predetermined time.

また、スイッチ制御部510は、人感センサ110が室内に対象者がいることを検知したとき、又は、マイクロフォン120が音声(対象者の声、いびき、体動音、物音等)を所定時間取得したとき(すなわち、図9において◎印及び○印で示す場合)には、スピーカ130等をオンにする(オンのままとする)。   In addition, the switch control unit 510 acquires the voice (speech voice, snoring, body motion sound, physical sound, etc.) for a predetermined time when the human sensor 110 detects that the target person is present in the room or the microphone 120 When this occurs (that is, in the case indicated by ◎ and ○ in FIG. 9), the speaker 130 and the like are turned on (keep on).

このように人感センサ110及びマイクロフォン120の両方によって、室内に対象者がいるか否かを判定するので、判定の精度を高めることができる。これにより、実際には室内に対象者がいる場合に、誤ってスピーカ130等をオフしてしまうのを抑制することができる。   Thus, since it is determined by both the human sensor 110 and the microphone 120 whether there is a subject in the room, the accuracy of the determination can be improved. Accordingly, it is possible to prevent the speaker 130 and the like from being turned off accidentally when the target person is actually in the room.

以上の如く、第四実施形態の別例において、前記電源管理ユニット500は、前記人感センサ110が室内に対象者がいることを検知しないとき、且つ、前記マイクロフォン120に音声が所定時間入力されないときには、前記スピーカ130をオフにするものである。
このように構成することにより、省エネルギー化を図ることができる。
As described above, in another example of the fourth embodiment, when the human sensor 110 does not detect that there is a subject in the room, the power management unit 500 does not input sound into the microphone 120 for a predetermined time. Sometimes, the speaker 130 is turned off.
With this configuration, energy saving can be achieved.

以上、本発明の第四実施形態の別例を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。   As mentioned above, although the example of 4th embodiment of this invention was demonstrated, this invention is not limited to the said structure, A various change is possible within the range of the invention described in the claim. .

例えば、スイッチ制御部510は、人感センサ110が室内に対象者がいることを検知したとき、且つ、マイクロフォン120が音声を所定時間取得したとき(図9に◎印で示す場合)のみ、スピーカ130等をオンにする(オンのままとする)ものとすることもできる。   For example, the switch control unit 510 is a speaker only when the human sensor 110 detects that there is a subject in the room and when the microphone 120 has acquired sound for a predetermined time (indicated by ◎ in FIG. 9). 130 or the like may be turned on (leave on).

また、デバイスユニット100が人検知部として三軸加速度センサを具備し、当該三軸加速度センサの情報(人の移動や行動、機器の稼動による振動等)から対象者がいるか否かを判定するものであってもよい。   Further, the device unit 100 includes a triaxial acceleration sensor as a human detection unit, and determines whether or not there is a target person based on information (such as movement of a person, behavior, vibration due to operation of a device, etc.) of the triaxial acceleration sensor. It may be.

また、人検知部としてHEMS(ホーム エネルギー マネジメント システム)を用い、HEMSの電力情報(家電機器の消費電力)から対象者がいるか否かを判定し、不在判定時にはデバイスユニット100のスピーカ130等をオフするものであってもよい。   In addition, HEMS (Home Energy Management System) is used as a human detection unit, and it is determined whether or not there is a target person based on HEMS power information (power consumption of home appliances). When the absence is determined, the speaker 130 of the device unit 100 is turned off. You may do.

また、人検知部として電気鍵を用い、電気鍵の情報(開錠/施錠)から建物内に誰かいるのか/誰もいないのかを判定し、不在判定時にはデバイスユニット100のスピーカ130等をオフするものであってもよい。   In addition, an electric key is used as a human detection unit, and it is determined from the information (unlocked / locked) of the electric key whether someone is in the building / nobody is present, and when the absence is determined, the speaker 130 of the device unit 100 is turned off. It may be a thing.

また、スイッチ制御部510がスピーカ130等をオフにする条件はこれに限定されるものではない。例えば、スイッチ制御部510は、対象者が室内に不在であると予想される時刻(不在予想時刻)においては、スピーカ130等をオフにするものであってもよい。   Further, the condition for the switch control unit 510 to turn off the speaker 130 and the like is not limited to this. For example, the switch control unit 510 may turn off the speaker 130 or the like at a time when the target person is expected to be absent from the room (presence of absence).

具体的には、分析部410は、人検知情報蓄積部310に蓄積された人検知情報を分析し、室内の対象者の有無のデータを時系列に統計化することで、室内の不在予想時刻(時間)を算出する。   Specifically, the analysis unit 410 analyzes the human detection information stored in the human detection information storage unit 310, and statistically analyzes the data on the presence / absence of the target person in the room in time series, thereby predicting the absence time in the room. (Time) is calculated.

例えば、図10に示すように、リビング、ダイニング、キッチン及び寝室の各部屋について、人検知情報蓄積部310に蓄積された人検知情報に基づいて、在室の確率が所定の値以上である時刻(図10に示すグラフにおいて四角形で示す時刻)を在室予想時刻とし、在室の確率が所定の値未満である時刻(図10に示すグラフにおいて四角形で示す時刻以外の時刻)を不在予想時刻とする。   For example, as shown in FIG. 10, for each room of a living room, a dining room, a kitchen, and a bedroom, based on the person detection information stored in the person detection information storage unit 310, the time at which the probability of staying in the room is a predetermined value or more. (Time indicated by a rectangle in the graph shown in FIG. 10) is the expected occupancy time, and a time when the probability of occupancy is less than a predetermined value (time other than the time indicated by the rectangle in the graph shown in FIG. 10) And

スイッチ制御部510は、分析部410が算出した不在予想時刻を参照し、不在予想時刻の間はスピーカ130等をオフにする。また、不在予想時刻の間に、人感センサ110(及びマイクロフォン120)が室内に人がいることを検知した場合には、この検知結果を優先させて、スピーカ130等をオンに戻す。   The switch control unit 510 refers to the estimated absence time calculated by the analysis unit 410 and turns off the speaker 130 and the like during the estimated absence time. In addition, when the presence sensor 110 (and the microphone 120) detects that there is a person in the room during the expected absence time, the detection result is prioritized and the speaker 130 and the like are turned back on.

このように、人検知情報蓄積部310に蓄積されたデータを利用してスピーカ130等のオン/オフを制御することができる。これにより、スピーカ130等の待機電力を低減することができ、ひいては省エネルギー化を図ることができる。   Thus, on / off of the speaker 130 and the like can be controlled using the data stored in the human detection information storage unit 310. Thereby, the standby power of the speaker 130 or the like can be reduced, and as a result, energy saving can be achieved.

以上の如く、第四実施形態の別例に係るインターフェースユニット4は、前記人感センサ110の検知結果のデータを蓄積するデータ収集ユニット300(データ蓄積部)を具備し、前記データ分析ユニット400及び前記電源管理ユニット500(制御部)は、前記人検知情報蓄積部310に蓄積された前記データに基づいて対象者の不在予想時刻を算出し、前記不在予想時刻の間は前記スピーカ130をオフにするものである。
このように構成することにより、省エネルギー化を図ることができる。
As described above, the interface unit 4 according to another example of the fourth embodiment includes the data collection unit 300 (data storage unit) that stores data of the detection result of the human sensor 110, and includes the data analysis unit 400, The power management unit 500 (control unit) calculates an expected absence time of the subject based on the data stored in the human detection information storage unit 310, and turns off the speaker 130 during the estimated absence time. To do.
With this configuration, energy saving can be achieved.

次に、図11及び図12を用いて、本発明の第五実施形態に係るインターフェースユニット4の制御について説明する。   Next, control of the interface unit 4 according to the fifth embodiment of the present invention will be described with reference to FIGS. 11 and 12.

図11に示すように、室内の左半部を占める空間Aには、人感センサ110a、マイクロフォン120a及びスピーカ130aを具備するデバイスユニット100aが設けられている。一方、室内の右半部を占める空間Bには、人感センサ110b、マイクロフォン120b及びスピーカ130bを具備するデバイスユニット100bが設けられている。デバイスユニット100a及びデバイスユニット100bの構成は、第四実施形態で説明したものと同じである。また、デバイスユニット100a及びデバイスユニット100bは、同一のインターフェースユニット1に含まれるものである。すなわち、1つのデータ収集ユニット300及びデータ分析ユニット400によって、デバイスユニット100a及びデバイスユニット100bに対して制御等が行われる。以下では、空間Aに対象者がおり、空間Bに対象者がいないことを前提として説明を行う。   As shown in FIG. 11, a device unit 100a including a human sensor 110a, a microphone 120a, and a speaker 130a is provided in a space A that occupies the left half of the room. On the other hand, in the space B occupying the right half of the room, a device unit 100b including a human sensor 110b, a microphone 120b, and a speaker 130b is provided. The configurations of the device unit 100a and the device unit 100b are the same as those described in the fourth embodiment. The device unit 100a and the device unit 100b are included in the same interface unit 1. In other words, the device unit 100a and the device unit 100b are controlled by one data collection unit 300 and data analysis unit 400. In the following description, it is assumed that there is a target person in space A and no target person in space B.

図12は、第五実施形態の電源管理のフローを示す図である。図12に示すように、ステップS11において、分析部410は、人感センサ110a・110bの人検知情報に基づいて、空間A及び空間Bの対象者の有無を判定する。   FIG. 12 is a diagram illustrating a flow of power management according to the fifth embodiment. As shown in FIG. 12, in step S11, the analysis unit 410 determines the presence / absence of a target person in the space A and the space B based on the human detection information of the human sensors 110a and 110b.

ステップS12において、スイッチ制御部510は、対象者がいない空間Bのスピーカ130bをオフにし、対象者がいる空間Aのスピーカ130aをオンにする。具体的には、スイッチ制御部510は、空間Bのデバイスユニット100bの第三リレー230を開くと共に、空間Aのデバイスユニット100aの第三リレー230を閉じる。   In step S12, the switch control unit 510 turns off the speaker 130b in the space B where the subject is not present and turns on the speaker 130a in the space A where the subject is located. Specifically, the switch control unit 510 opens the third relay 230 of the device unit 100b in the space B and closes the third relay 230 of the device unit 100a in the space A.

ステップS13において、スイッチ制御部510は、対象者がいない空間Bのマイクロフォン120bをオンにし、対象者がいる空間Aのマイクロフォン120aをオフにする。具体的には、スイッチ制御部510は、空間Bのデバイスユニット100bの第二リレー220を閉じると共に、空間Aのデバイスユニット100aの第二リレー220を開く。   In step S13, the switch control unit 510 turns on the microphone 120b in the space B where the subject is not present, and turns off the microphone 120a in the space A where the subject is located. Specifically, the switch control unit 510 closes the second relay 220 of the device unit 100b in the space B and opens the second relay 220 of the device unit 100a in the space A.

ステップS14において、スピーカ制御部420は、空間Aのスピーカ130aから音声を出力する。   In step S14, the speaker control unit 420 outputs sound from the speaker 130a in the space A.

ステップS15において、対象者が発語した場合は、空間Bのマイクロフォン120bから音声を取得する。   In step S15, when the subject speaks, sound is acquired from the microphone 120b in the space B.

このように、本実施形態においては、対象者に近いスピーカ130aから音声を出力させて、スピーカ130aに近接して設けられたマイクロフォン120aではなく、スピーカ130aから離れて設けられたマイクロフォン120bによって対象者の音声を取得する。これにより、スピーカ130aから出力された音声を、同じデバイスユニット100のマイクロフォン120aが取得してしまうこと(音のショートサーキット)を抑制することができる。   As described above, in the present embodiment, the target person is not the microphone 120a provided in the vicinity of the speaker 130a by outputting sound from the speaker 130a close to the target person, but the microphone 120b provided away from the speaker 130a. Get the voice. Thereby, it is possible to suppress the sound output from the speaker 130a from being acquired by the microphone 120a of the same device unit 100 (sound short circuit).

以上の如く、第五実施形態においては、前記デバイスユニット100は、同じ室内に設けられたデバイスユニット100a(第一のデバイスユニット)及びデバイスユニット100b(第二のデバイスユニット)を含み、前記電源管理ユニット500は、前記デバイスユニット100aの人感センサ110a又は前記デバイスユニット100bの人感センサ110bが室内に対象者がいることを検知した場合、前記デバイスユニット100bの前記スピーカ130bをオフにすると共に前記マイクロフォン120bをオンにし、デバイスユニット100aの前記スピーカ130aをオンにすると共に前記マイクロフォン120aをオフにするものである。
このように構成することにより、スピーカ130から出力された音声が、同じデバイスユニット100のマイクロフォン120に入力されてしまうのを抑制することができる。
As described above, in the fifth embodiment, the device unit 100 includes the device unit 100a (first device unit) and the device unit 100b (second device unit) provided in the same room, and the power management. When the human sensor 110a of the device unit 100a or the human sensor 110b of the device unit 100b detects that there is a target person, the unit 500 turns off the speaker 130b of the device unit 100b and The microphone 120b is turned on, the speaker 130a of the device unit 100a is turned on, and the microphone 120a is turned off.
With this configuration, it is possible to suppress the sound output from the speaker 130 from being input to the microphone 120 of the same device unit 100.

なお、本実施形態に係るデバイスユニット100aは、第一のデバイスユニットの実施の一形態である。
また、本実施形態に係るデバイスユニット100bは、第二のデバイスユニットの実施の一形態である。
The device unit 100a according to the present embodiment is an embodiment of the first device unit.
The device unit 100b according to this embodiment is an embodiment of the second device unit.

以上、本発明の第五実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。   Although the fifth embodiment of the present invention has been described above, the present invention is not limited to the above-described configuration, and various modifications can be made within the scope of the invention described in the claims.

例えば、第五実施形態においては、スピーカ130bをオフにすると共にマイクロフォン120bをオンにし、スピーカ130aをオンにすると共にマイクロフォン120aをオフにするものとしたが、スピーカ130bをオンにすると共にマイクロフォン120bをオフにし、スピーカ130aをオフにすると共にマイクロフォン120aをオンにするものであってもよい。   For example, in the fifth embodiment, the speaker 130b is turned off and the microphone 120b is turned on, and the speaker 130a is turned on and the microphone 120a is turned off. However, the speaker 130b is turned on and the microphone 120b is turned on. It may be turned off, the speaker 130a is turned off, and the microphone 120a is turned on.

1 インターフェースユニット
100 デバイスユニット
110 人感センサ
120 マイクロフォン
130 スピーカ
200 スイッチユニット
300 データ収集ユニット
400 データ分析ユニット
500 電源管理ユニット
DESCRIPTION OF SYMBOLS 1 Interface unit 100 Device unit 110 Human sensor 120 Microphone 130 Speaker 200 Switch unit 300 Data collection unit 400 Data analysis unit 500 Power management unit

Claims (9)

室内に対象者がいることを検知する人検知部、対象者の音声を入力する音声入力部、及び対象者に音声を出力する音声出力部を有するデバイスユニットを具備し、
前記人検知部、前記音声入力部及び前記音声出力部は、
対象者に対する方位及び距離を同視できる程度に互いに近接させた位置に設けられている、
インターフェースユニット。
Comprising a device unit having a human detection unit for detecting that the target person is present in the room, a voice input unit for inputting the target person's voice, and a voice output unit for outputting voice to the target person
The human detection unit, the voice input unit, and the voice output unit are:
It is provided at a position that is close to each other so that the orientation and distance to the subject can be seen together,
Interface unit.
前記デバイスユニットを制御する制御部を具備し、
前記制御部は、
前記人検知部の検知結果を含む分析情報に基づいて、対象者の位置情報を取得し、
前記位置情報に基づいて、前記音声出力部が出力する音声の向き及び/又は音量を制御する、
請求項1に記載のインターフェースユニット。
A control unit for controlling the device unit;
The controller is
Based on the analysis information including the detection result of the human detection unit, obtain the position information of the target person,
Based on the position information, the direction and / or volume of the sound output by the sound output unit is controlled.
The interface unit according to claim 1.
前記分析情報は、
前記音声入力部に入力された音声の情報を含むものである、
請求項2に記載のインターフェースユニット。
The analysis information is
Including information of the voice input to the voice input unit,
The interface unit according to claim 2.
前記音声出力部は、
互いに異なる範囲に音声を出力する複数の指向性スピーカを具備し、
前記制御部は、
前記位置情報に基づいて、前記複数の指向性スピーカの中から音声を出力させる指向性スピーカを選択する、
請求項2又は請求項3に記載のインターフェースユニット。
The audio output unit
A plurality of directional speakers that output sound in different ranges,
The controller is
Based on the position information, a directional speaker that outputs sound is selected from the plurality of directional speakers.
The interface unit according to claim 2 or claim 3.
前記制御部は、
前記人検知部が室内に対象者がいることを検知しないときには、前記音声出力部をオフにする、
請求項2から請求項4までのいずれか一項に記載のインターフェースユニット。
The controller is
When the human detection unit does not detect that the target person is in the room, the voice output unit is turned off.
The interface unit according to any one of claims 2 to 4.
前記制御部は、
前記人検知部が室内に対象者がいることを検知しないとき、且つ、前記音声入力部に音声が所定時間入力されないときには、前記音声出力部をオフにする、
請求項2から請求項4までのいずれか一項に記載のインターフェースユニット。
The controller is
When the human detection unit does not detect that the target person is present in the room and when no voice is input to the voice input unit for a predetermined time, the voice output unit is turned off;
The interface unit according to any one of claims 2 to 4.
前記人検知部の検知結果のデータを蓄積するデータ蓄積部を具備し、
前記制御部は、
前記データ蓄積部に蓄積された前記データに基づいて対象者の不在予想時刻を算出し、前記不在予想時刻の間は前記音声出力部をオフにする、
請求項2から請求項4までのいずれか一項に記載のインターフェースユニット。
A data storage unit for storing data of detection results of the human detection unit;
The controller is
Calculating a predicted absence time of the subject based on the data stored in the data storage unit, and turning off the voice output unit during the predicted absence time;
The interface unit according to any one of claims 2 to 4.
前記デバイスユニットは、
同じ室内に設けられた第一のデバイスユニット及び第二のデバイスユニットを含み、
前記制御部は、
前記第一のデバイスユニット又は前記第二のデバイスユニットの前記人検知部が室内に対象者がいることを検知した場合、前記第一のデバイスユニット又は前記第二のデバイスユニットのいずれか一方の前記音声出力部をオフにすると共に前記音声入力部をオンにし、前記第一のデバイスユニット又は前記第二のデバイスユニットのいずれか他方の前記音声出力部をオンにすると共に前記音声入力部をオフにする、
請求項2から請求項7までのいずれか一項に記載のインターフェースユニット。
The device unit is
Including a first device unit and a second device unit provided in the same room,
The controller is
When the person detection unit of the first device unit or the second device unit detects that there is a target person in the room, either the first device unit or the second device unit Turn off the sound output unit and turn on the sound input unit, turn on the other sound output unit of the first device unit or the second device unit and turn off the sound input unit To
The interface unit according to any one of claims 2 to 7.
前記デバイスユニットは、
前記室内に設けられた他の設備と一体化されている、
請求項1から請求項8までのいずれか一項に記載のインターフェースユニット。
The device unit is
Integrated with other equipment provided in the room,
The interface unit according to any one of claims 1 to 8.
JP2017037939A 2017-03-01 2017-03-01 Interface unit Active JP6901871B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017037939A JP6901871B2 (en) 2017-03-01 2017-03-01 Interface unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017037939A JP6901871B2 (en) 2017-03-01 2017-03-01 Interface unit

Publications (2)

Publication Number Publication Date
JP2018148254A true JP2018148254A (en) 2018-09-20
JP6901871B2 JP6901871B2 (en) 2021-07-14

Family

ID=63592398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017037939A Active JP6901871B2 (en) 2017-03-01 2017-03-01 Interface unit

Country Status (1)

Country Link
JP (1) JP6901871B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020174776A1 (en) * 2019-02-25 2020-09-03 ソニーセミコンダクタソリューションズ株式会社 Audio signal processing device
JPWO2020194915A1 (en) * 2019-03-28 2020-10-01
WO2020241845A1 (en) * 2019-05-29 2020-12-03 Asahi Kasei Kabushiki Kaisha Sound reproducing apparatus having multiple directional speakers and sound reproducing method
US12008288B2 (en) 2019-02-25 2024-06-11 Sony Semiconductor Solutions Corporation Audio signal processing device based on orientation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005159446A (en) * 2003-11-20 2005-06-16 Mitsubishi Electric Engineering Co Ltd Directional acoustic system
JP2005182357A (en) * 2003-12-18 2005-07-07 Matsushita Electric Ind Co Ltd Dialog system
JP2005303931A (en) * 2004-04-15 2005-10-27 Aiphone Co Ltd Hands-free interphone device
JP2006245693A (en) * 2005-02-28 2006-09-14 Toshiba Corp Telephone set
JP2007228385A (en) * 2006-02-24 2007-09-06 Funai Electric Co Ltd Television receiver
US20160118036A1 (en) * 2014-10-23 2016-04-28 Elwha Llc Systems and methods for positioning a user of a hands-free intercommunication system
WO2016157662A1 (en) * 2015-03-31 2016-10-06 ソニー株式会社 Information processing device, control method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005159446A (en) * 2003-11-20 2005-06-16 Mitsubishi Electric Engineering Co Ltd Directional acoustic system
JP2005182357A (en) * 2003-12-18 2005-07-07 Matsushita Electric Ind Co Ltd Dialog system
JP2005303931A (en) * 2004-04-15 2005-10-27 Aiphone Co Ltd Hands-free interphone device
JP2006245693A (en) * 2005-02-28 2006-09-14 Toshiba Corp Telephone set
JP2007228385A (en) * 2006-02-24 2007-09-06 Funai Electric Co Ltd Television receiver
US20160118036A1 (en) * 2014-10-23 2016-04-28 Elwha Llc Systems and methods for positioning a user of a hands-free intercommunication system
WO2016157662A1 (en) * 2015-03-31 2016-10-06 ソニー株式会社 Information processing device, control method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020174776A1 (en) * 2019-02-25 2020-09-03 ソニーセミコンダクタソリューションズ株式会社 Audio signal processing device
US12008288B2 (en) 2019-02-25 2024-06-11 Sony Semiconductor Solutions Corporation Audio signal processing device based on orientation
JPWO2020194915A1 (en) * 2019-03-28 2020-10-01
JP7369181B2 (en) 2019-03-28 2023-10-25 株式会社Nttドコモ Control data generation device, user device and information processing system
WO2020241845A1 (en) * 2019-05-29 2020-12-03 Asahi Kasei Kabushiki Kaisha Sound reproducing apparatus having multiple directional speakers and sound reproducing method
US10999677B2 (en) 2019-05-29 2021-05-04 Asahi Kasei Kabushiki Kaisha Sound reproducing apparatus having multiple directional speakers and sound reproducing method
JP2022534958A (en) * 2019-05-29 2022-08-04 旭化成株式会社 Audio playback device having multiple directional speakers, and audio playback method
JP7425090B2 (en) 2019-05-29 2024-01-30 旭化成株式会社 Audio reproduction device having multiple directional speakers and audio reproduction method

Also Published As

Publication number Publication date
JP6901871B2 (en) 2021-07-14

Similar Documents

Publication Publication Date Title
JP7295473B2 (en) Equipment control system
US10733988B2 (en) Lighting and sound system
JP6660808B2 (en) Audio output control device, electronic device, and control method for audio output control device
JP2018148254A (en) Interface unit
JP2021525979A (en) Doorbell communication and electrical systems
JP2019517964A (en) Preset elevator call
JP2005529421A (en) Movable unit and method for controlling movable unit
CN105291093A (en) Domestic robot system
JP2006318173A (en) Security robot
WO2019220729A1 (en) Information processing device, information processing method, and storage medium
JP2008252884A (en) Optical switch used as communication device
WO2022014274A1 (en) Notification control device, notification control method, and notification system
KR101642467B1 (en) Fire alarm apparatus
CN112073912B (en) Function control method, function control device, and storage medium
JP2015203504A (en) Indoor equipment of air conditioner
JP2012056755A (en) Broadcasting device
JP2016212739A (en) Watching system
JP2011198699A (en) Illumination equipment control system
JP2008102670A (en) Evacuation guiding system for multiple dwelling house
JP4305337B2 (en) Water heater
JP2018148255A (en) system
KR101238043B1 (en) Mike system
JP2005136525A (en) Interphone system
CN109672842A (en) Intelligent door real time bidirectional visual-speaking system
JP2017152973A (en) Collective housing intercom system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210618

R150 Certificate of patent or registration of utility model

Ref document number: 6901871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150