JP6840560B2 - Terminal equipment, programs, communication systems and analyzers - Google Patents

Terminal equipment, programs, communication systems and analyzers Download PDF

Info

Publication number
JP6840560B2
JP6840560B2 JP2017025095A JP2017025095A JP6840560B2 JP 6840560 B2 JP6840560 B2 JP 6840560B2 JP 2017025095 A JP2017025095 A JP 2017025095A JP 2017025095 A JP2017025095 A JP 2017025095A JP 6840560 B2 JP6840560 B2 JP 6840560B2
Authority
JP
Japan
Prior art keywords
terminal device
unit
sensor
user
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017025095A
Other languages
Japanese (ja)
Other versions
JP2018133661A (en
Inventor
景一 福井
景一 福井
謙一郎 松村
謙一郎 松村
修義 上山
修義 上山
英利 江原
英利 江原
由紀子 中村
由紀子 中村
岳郎 兵藤
岳郎 兵藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2017025095A priority Critical patent/JP6840560B2/en
Publication of JP2018133661A publication Critical patent/JP2018133661A/en
Application granted granted Critical
Publication of JP6840560B2 publication Critical patent/JP6840560B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、端末装置、プログラム、通信システムおよび解析装置に関する。 The present invention relates to terminal devices, programs, communication systems and analysis devices.

特許文献1(特開2002−31470号公報)には、通信端末同士が通信を行い、ユーザの移動やユーザの通信端末への接触に応じて、通信相手の通信端末がLEDの発光や、光ファイバの駆動を行う通信システムが開示されている。このシステムによれば、通信相手の状況を間接的に知ることができ、通信相手とのつながりを実感できる。 In Patent Document 1 (Japanese Unexamined Patent Publication No. 2002-31470), communication terminals communicate with each other, and the communication terminal of the communication partner emits an LED or emits light in response to the movement of the user or the contact with the communication terminal of the user. A communication system that drives a fiber is disclosed. According to this system, the situation of the communication partner can be indirectly known, and the connection with the communication partner can be realized.

特開2002−31470号公報Japanese Unexamined Patent Publication No. 2002-31470

通信端末が設置された場所に複数人が住んでいる場合、通信端末は、近くを移動した者や接触した者を検知する。しかしながら、特許文献1のシステムでは、複数人のうちの誰が通信端末の近くを移動し、誰が通信端末に触れたのかを知ることができず、どのような相手とつながっているのかを実感することができない。 When a plurality of people live in the place where the communication terminal is installed, the communication terminal detects a person who has moved nearby or a person who has come into contact with the communication terminal. However, in the system of Patent Document 1, it is not possible to know who among a plurality of people moves near the communication terminal and who touches the communication terminal, and it is possible to realize what kind of partner is connected. I can't.

本発明は、どのような相手とつながっているかを知ることができる技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of knowing what kind of partner is connected.

本発明は、少なくとも、変形、発光、音の出力のいずれかを行う動作部、センサ、提供される情報に応じて前記動作部を動作させる制御部を備える第1の端末装置の前記センサの出力に基づいて、前記第1の端末装置の周囲にいるユーザを特定する特定部と、前記特定部が特定したユーザに応じた情報を、前記動作部、センサ、及び前記制御部を備える第2の端末装置へ提供する提供部であって、前記第1の端末装置の前記センサの出力と前記第2の端末装置の前記センサの出力とを比較し、当該第1の端末装置の前記センサの出力と当該第2の端末装置の前記センサの出力とが予め定められた範囲にある場合には、当該第1の端末装置及び当該第2の端末装置において同じ動作を行うための制御情報を、当該第1の端末装置及び当該第2の端末装置に提供する提供部とを備える解析装置を提供する。 The present invention is the output of the sensor of a first terminal device comprising at least an operating unit that performs any of deformation, light emission, and sound output, a sensor, and a control unit that operates the operating unit according to provided information. A second unit including the operation unit, the sensor, and the control unit, which provides information according to the user specified by the specific unit and the specific unit that identifies the user around the first terminal device. A provider that provides to the terminal device, which compares the output of the sensor of the first terminal device with the output of the sensor of the second terminal device, and compares the output of the sensor of the first terminal device. And when the output of the sensor of the second terminal device is within a predetermined range, the control information for performing the same operation in the first terminal device and the second terminal device is provided. Provided is an analysis device including a first terminal device and a providing unit provided to the second terminal device .

本発明は、少なくとも、変形、発光、音の出力のいずれかを行う動作部と、センサと、提供される情報に応じて前記動作部を動作させる制御部と、前記センサの出力に基づいて、自装置の周囲にいるユーザを特定する特定部と、前記特定部が特定したユーザに応じた情報を通信先の端末装置へ提供する提供部とを備え、前記センサは、周囲の音を検知し、前記制御部は、前記センサがテレビ又はラジオの音を検知した場合、前記動作部の動作を停止させる端末装置を提供する。 The present invention is based on at least an operating unit that performs any of deformation, light emission, and sound output, a sensor, a control unit that operates the operating unit according to provided information, and an output of the sensor. The sensor includes a specific unit that identifies a user around the own device and a providing unit that provides information according to the user specified by the specific unit to the terminal device of the communication destination, and the sensor detects the surrounding sound. The control unit provides a terminal device that stops the operation of the operation unit when the sensor detects the sound of a television or a radio.

本発明は、少なくとも、変形、発光、音の出力のいずれかを行う動作部、センサ、提供される情報に応じて前記動作部を動作させる制御部、前記センサの出力に基づいて、自装置の周囲にいるユーザを特定する特定部、及び、前記特定部が特定したユーザに応じた情報を通信先の端末装置へ提供する提供部を備える第1の端末装置の前記センサの出力と、前記動作部、センサ、前記制御部、前記特定部、及び、前記提供部を備える第2の端末装置の前記センサの出力とを比較し、当該第1の端末装置の前記センサの出力と当該第2の端末装置の前記センサの出力とが予め定められた範囲にある場合には、当該第1の端末装置及び当該第2の端末装置において同じ動作を行う通信システムを提供する。The present invention is based on at least an operation unit that performs any of deformation, light emission, and sound output, a sensor, a control unit that operates the operation unit according to provided information, and an output of the sensor. The output of the sensor of the first terminal device including a specific unit that identifies a user in the vicinity and a providing unit that provides information according to the user specified by the specific unit to the terminal device of the communication destination, and the operation. The output of the sensor of the second terminal device including the unit, the sensor, the control unit, the specific unit, and the providing unit is compared, and the output of the sensor of the first terminal device is compared with the output of the second terminal device. When the output of the sensor of the terminal device is within a predetermined range, a communication system that performs the same operation in the first terminal device and the second terminal device is provided.

本発明は、コンピュータを、少なくとも、変形、発光、音の出力のいずれかを行う動作部、センサ、提供される情報に応じて前記動作部を動作させる制御部を備える第1の端末装置の前記センサの出力に基づいて、前記第1の端末装置の周囲にいるユーザを特定する特定部と、前記特定部が特定したユーザに応じた情報を、前記動作部、センサ、及び前記制御部を備える第2の端末装置へ提供する提供部であって、前記第1の端末装置の前記センサの出力と前記第2の端末装置の前記センサの出力とを比較し、当該第1の端末装置の前記センサの出力と当該第2の端末装置の前記センサの出力とが予め定められた範囲にある場合には、当該第1の端末装置及び当該第2の端末装置において同じ動作を行うための制御情報を、当該第1の端末装置及び当該第2の端末装置に提供する提供部ととして機能させるためのプログラムを提供する。The present invention relates to the first terminal device comprising a computer at least an operating unit that deforms, emits light, or outputs sound, a sensor, and a control unit that operates the operating unit in response to provided information. The operation unit, the sensor, and the control unit are provided with a specific unit that identifies a user around the first terminal device based on the output of the sensor, and information according to the user specified by the specific unit. It is a providing unit that provides to the second terminal device, compares the output of the sensor of the first terminal device with the output of the sensor of the second terminal device, and compares the output of the sensor of the first terminal device with the output of the first terminal device. When the output of the sensor and the output of the sensor of the second terminal device are within a predetermined range, control information for performing the same operation in the first terminal device and the second terminal device. To provide a program for functioning as a providing unit provided to the first terminal device and the second terminal device.

本発明は、センサを備えるコンピュータを、少なくとも、変形、発光、音の出力のいずれかを行う動作部と、提供される情報に応じて前記動作部を動作させる制御部と、前記センサの出力に基づいて、自装置の周囲にいるユーザを特定する特定部と、前記特定部が特定したユーザに応じた情報を通信先の端末装置へ提供する提供部として機能させ、前記センサは、周囲の音を検知し、前記制御部は、前記センサがテレビ又はラジオの音を検知した場合、前記動作部の動作を停止させるプログラムを提供する。The present invention uses a computer including a sensor as an operation unit that at least deforms, emits light, or outputs sound, a control unit that operates the operation unit according to provided information, and an output of the sensor. Based on this, the sensor functions as a specific unit that identifies a user around the own device and a provider that provides information according to the user specified by the specific unit to the terminal device of the communication destination, and the sensor uses the ambient sound. The control unit provides a program for stopping the operation of the operation unit when the sensor detects the sound of a television or radio.

本発明によれば、どのような相手とつながっているかを知ることができる。 According to the present invention, it is possible to know what kind of partner is connected.

本発明の一実施形態に係る通信システム1に含まれる装置を示した図。The figure which showed the apparatus included in the communication system 1 which concerns on one Embodiment of this invention. 端末装置10のハードウェア構成を示した図。The figure which showed the hardware configuration of the terminal apparatus 10. 端末装置10の機能ブロック図。The functional block diagram of the terminal apparatus 10. 解析装置20のハードウェア構成を示した図。The figure which showed the hardware configuration of the analysis apparatus 20. 解析装置20の機能ブロック図。The functional block diagram of the analysis apparatus 20. 実施形態の動作の一例を説明するためのシーケンス図。The sequence diagram for demonstrating an example of the operation of Embodiment. 実施形態の動作の一例を説明するためのシーケンス図。The sequence diagram for demonstrating an example of the operation of Embodiment.

[全体構成]
図1は、本発明の一実施形態に係る通信システム1に含まれる装置を示した図である。通信網2は、インターネットや固定電話網、音声通信やデータ通信などの通信サービスを提供する移動体通信網などを含む。通信網2には、端末装置10A、10Bが有線または無線によって接続される。
[overall structure]
FIG. 1 is a diagram showing an apparatus included in the communication system 1 according to the embodiment of the present invention. The communication network 2 includes the Internet, a fixed telephone network, a mobile communication network that provides communication services such as voice communication and data communication, and the like. Terminal devices 10A and 10B are connected to the communication network 2 by wire or wirelessly.

端末装置10A、10Bは、中空な5角柱の形状をした通信端末である。端末装置10Aと端末装置10Bは、離れた場所にいるユーザ同士がコミュニケーションをとるときに使用される。例えば、端末装置10Aは、単身赴任の夫が住む家に配置され、端末装置10Bは、端末装置10Aのユーザの妻と子供が住む家に配置される。 The terminal devices 10A and 10B are communication terminals in the shape of a hollow pentagonal prism. The terminal device 10A and the terminal device 10B are used when users at remote locations communicate with each other. For example, the terminal device 10A is placed in the house where the husband who is assigned to work alone lives, and the terminal device 10B is placed in the house where the wife and children of the user of the terminal device 10A live.

端末装置10Aと端末装置10Bは、同じ構成であるため、以下、各々を区別する必要がない場合は、端末装置10と称する。通信網2に接続される端末装置10の数は、図1に示した数に限定されるものではなく、図1に示した数以上の装置を接続することもできる。端末装置10の筐体は、例えば白色のシリコンなどの変形可能な素材となっている。端末装置10は、筐体を変形させるアクチュエータを筐体内部に備えており、アクチュエータの変形に応じて変形する。なお、端末装置10は、図示した形状に限定されるものではなく、他の形状であってもよい。端末装置10Aと端末装置10Bは、通信網2を介して通信を行い、音声通信やデータ通信を行う。また、端末装置10は、通信網2を介して解析装置20と通信を行う。 Since the terminal device 10A and the terminal device 10B have the same configuration, they are hereinafter referred to as the terminal device 10 when it is not necessary to distinguish them from each other. The number of terminal devices 10 connected to the communication network 2 is not limited to the number shown in FIG. 1, and more devices than the number shown in FIG. 1 can be connected. The housing of the terminal device 10 is made of a deformable material such as white silicon. The terminal device 10 includes an actuator that deforms the housing inside the housing, and deforms according to the deformation of the actuator. The terminal device 10 is not limited to the shape shown in the figure, and may have another shape. The terminal device 10A and the terminal device 10B communicate with each other via the communication network 2, and perform voice communication and data communication. Further, the terminal device 10 communicates with the analysis device 20 via the communication network 2.

解析装置20は、端末装置10の周囲にいるユーザを特定する機能を有する装置である。解析装置20は、互いに通信を行う端末装置10Aと端末装置10Bの一方から送られる情報を解析し、端末装置10の周囲にいるユーザを特定する。解析装置20は、特定したユーザを表す情報を他方の端末装置10へ送信する。 The analysis device 20 is a device having a function of identifying a user around the terminal device 10. The analysis device 20 analyzes the information sent from one of the terminal device 10A and the terminal device 10B that communicate with each other, and identifies the users around the terminal device 10. The analysis device 20 transmits information representing the specified user to the other terminal device 10.

(端末装置10の構成)
図2は、端末装置10のハードウェア構成の一例を示した図である。なお、端末装置10A、10Bのハードウェア構成は同じであるが、以下、端末装置10A、10Bの各部を区別する必要がある場合、説明の便宜上、端末装置10A、10Bの符号の末尾のアルファベットを各部の符号の末尾に付加して説明を行い、各部を区別する必要がない場合、符号の末尾へのアルファベットの付加を省略して説明を行う。例えば、端末装置10Aの各部を端末装置10Bの各部と区別する場合、端末装置10Aの各部の符号の末尾には「A」を付ける。
(Configuration of terminal device 10)
FIG. 2 is a diagram showing an example of the hardware configuration of the terminal device 10. Although the hardware configurations of the terminal devices 10A and 10B are the same, hereinafter, when it is necessary to distinguish each part of the terminal devices 10A and 10B, for convenience of explanation, the alphabet at the end of the code of the terminal devices 10A and 10B is used. The explanation will be given by adding to the end of the code of each part, and if it is not necessary to distinguish each part, the explanation will be given by omitting the addition of the alphabet to the end of the code. For example, when distinguishing each part of the terminal device 10A from each part of the terminal device 10B, "A" is added to the end of the code of each part of the terminal device 10A.

通信部105は、無線または有線で通信網2に接続され、通信網2を介して通信を行う通信インターフェースとして機能する。通信部105は、通信網2を介して音声通信やデータ通信を行う。また、通信部105は、Bluetooth(登録商標)や無線LANの通信などの近距離無線通信機能を有する。 The communication unit 105 is wirelessly or wiredly connected to the communication network 2 and functions as a communication interface for communicating via the communication network 2. The communication unit 105 performs voice communication and data communication via the communication network 2. In addition, the communication unit 105 has a short-range wireless communication function such as Bluetooth (registered trademark) or wireless LAN communication.

発光部103は、LED(Light Emitting Diode)を有しており、制御部101からの信号に応じて点灯する。発光部103は、筐体内部に設けられている。アクチュエータ104は、通電により変形する形状記憶合金を有する。アクチュエータ104は、端末装置10の筐体内部に設けられており、制御部101からの通電に応じて変形する。アクチュエータ104が変形することにより、端末装置10の筐体が変形する。 The light emitting unit 103 has an LED (Light Emitting Diode) and lights up in response to a signal from the control unit 101. The light emitting unit 103 is provided inside the housing. The actuator 104 has a shape memory alloy that is deformed by energization. The actuator 104 is provided inside the housing of the terminal device 10 and deforms in response to energization from the control unit 101. The deformation of the actuator 104 deforms the housing of the terminal device 10.

音声処理部107は、マイクロフォンとスピーカを有している。音声処理部107は、端末装置10が音声通話を行う場合、通話相手の音声に係るデジタル信号が通信部105から供給されると、供給されたデジタル信号をアナログ信号に変換する。このアナログ信号は、スピーカへ供給され、スピーカからは、通話相手の音声が出力される。また、音声処理部107は、マイクロフォンに入力された音声をデジタル信号に変換し、このデジタル信号を通信部105へ供給する。このデジタル信号は、通信部105から通信網2へ送信され、通話相手の端末装置10へ送信される。発光部103、アクチュエータ104、音声処理部107の各々は、本発明に係る動作部の一例である。 The voice processing unit 107 has a microphone and a speaker. When the terminal device 10 makes a voice call, the voice processing unit 107 converts the supplied digital signal into an analog signal when the digital signal related to the voice of the other party is supplied from the communication unit 105. This analog signal is supplied to the speaker, and the voice of the other party is output from the speaker. Further, the voice processing unit 107 converts the voice input to the microphone into a digital signal, and supplies the digital signal to the communication unit 105. This digital signal is transmitted from the communication unit 105 to the communication network 2 and transmitted to the terminal device 10 of the other party. Each of the light emitting unit 103, the actuator 104, and the voice processing unit 107 is an example of the operating unit according to the present invention.

センサ部108は、各種センサを備える。本実施形態においては、センサ部108は、音センサ、振動センサ、温度センサ、照度センサおよび人感センサを有する。音センサは、音や音声を検知し、検知した音や音声を表す信号を制御部101へ出力する。振動センサは、端末装置10の振動を検知し、検知した振動を表す信号を制御部101へ出力する。人感センサは、人間の存在を検知する。人感センサは、人間を検知すると、人間を検知したことを表す信号を制御部101へ出力する。温度センサは、端末装置10の周囲の温度を検知し、検知した温度を表す信号を制御部101へ出力する。照度センサは、端末装置10の周囲の照度を検知し、検知した照度を表す信号を制御部101へ出力する。 The sensor unit 108 includes various sensors. In the present embodiment, the sensor unit 108 includes a sound sensor, a vibration sensor, a temperature sensor, an illuminance sensor, and a motion sensor. The sound sensor detects a sound or a voice, and outputs a signal representing the detected sound or the voice to the control unit 101. The vibration sensor detects the vibration of the terminal device 10 and outputs a signal representing the detected vibration to the control unit 101. The motion sensor detects the presence of a human being. When the motion sensor detects a human, it outputs a signal indicating that the human has been detected to the control unit 101. The temperature sensor detects the ambient temperature of the terminal device 10 and outputs a signal indicating the detected temperature to the control unit 101. The illuminance sensor detects the illuminance around the terminal device 10 and outputs a signal representing the detected illuminance to the control unit 101.

記憶部102は、不揮発性メモリを有しており、制御部101が実行するプログラムを記憶している。また、記憶部102は、発光部103およびアクチュエータ104を制御するための制御情報を記憶する。制御情報は、通信相手となる端末装置10のユーザに対応付けて記憶する。例えば、記憶部102Aは、端末装置10Bのユーザとなる妻を表すユーザ識別子に対応付けて第1の制御情報を記憶し、端末装置10Bのユーザとなる子供を表すユーザ識別子に対応付けて第2の制御情報を記憶する。また、記憶部102Aは、妻を表すユーザ識別子と子供を表すユーザ識別子の組に対応付けて第3の制御情報を記憶する。 The storage unit 102 has a non-volatile memory and stores a program executed by the control unit 101. Further, the storage unit 102 stores control information for controlling the light emitting unit 103 and the actuator 104. The control information is stored in association with the user of the terminal device 10 as the communication partner. For example, the storage unit 102A stores the first control information in association with the user identifier representing the wife who is the user of the terminal device 10B, and is associated with the user identifier representing the child who is the user of the terminal device 10B. Stores the control information of. Further, the storage unit 102A stores the third control information in association with the pair of the user identifier representing the wife and the user identifier representing the child.

第1の制御情報は、アクチュエータ104を第1の周期で所定期間伸縮させ、発光部103をピンク色で第1の周期で点滅させることを表す情報である。第2の制御情報は、アクチュエータ104を第1の周期とは異なる第2の周期で所定期間伸縮させ、発光部103をオレンジ色で第2の周期で点滅させることを表す情報である。第3の制御情報は、アクチュエータ104を第1の周期および第2の周期とは異なる第3の周期で所定期間伸縮させ、発光部103を緑色で第3の周期で点滅させることを表す情報である。 The first control information is information indicating that the actuator 104 is expanded and contracted for a predetermined period in the first cycle, and the light emitting unit 103 is blinked in pink in the first cycle. The second control information is information indicating that the actuator 104 is expanded and contracted for a predetermined period in a second cycle different from the first cycle, and the light emitting unit 103 is blinked in orange in the second cycle. The third control information is information indicating that the actuator 104 is expanded and contracted for a predetermined period in a third cycle different from the first cycle and the second cycle, and the light emitting unit 103 is blinked in green in the third cycle. is there.

記憶部102Bは、端末装置10Aのユーザとなる夫を表すユーザ識別子に対応付けて第4の制御情報を記憶する。第4の制御情報は、アクチュエータ104を第4の周期で所定期間伸縮させ、発光部103を青色で第4の周期で点滅させることを表す情報である。なお、第1の制御情報から第4の制御情報は、予め定められた周期だけでなく、予め定められた特定のパターンまたはリズムでアクチュエータの伸縮および発光部103の点滅を制御する情報であってもよい。 The storage unit 102B stores the fourth control information in association with the user identifier representing the husband who is the user of the terminal device 10A. The fourth control information is information indicating that the actuator 104 is expanded and contracted for a predetermined period in the fourth cycle, and the light emitting unit 103 is blinked in blue in the fourth cycle. The first to fourth control information is information that controls the expansion and contraction of the actuator and the blinking of the light emitting unit 103 not only in a predetermined period but also in a predetermined specific pattern or rhythm. May be good.

また、記憶部102は、通信相手となる端末装置10の装置識別子を記憶する。本実施形態の場合、端末装置10Aと端末装置10Bが通信を行うため、記憶部102Aは、通信相手となる装置の装置識別子として端末装置10Bの装置識別子を記憶し、記憶部102Bは、通信相手となる装置の装置識別子として端末装置10Bの装置識別子を記憶する。 Further, the storage unit 102 stores the device identifier of the terminal device 10 which is the communication partner. In the case of the present embodiment, since the terminal device 10A and the terminal device 10B communicate with each other, the storage unit 102A stores the device identifier of the terminal device 10B as the device identifier of the device to be the communication partner, and the storage unit 102B is the communication partner. The device identifier of the terminal device 10B is stored as the device identifier of the device.

制御部101は、CPU(Central Processing Unit)、RAM(Random Access Memory)およびメモリを有している。端末装置10において実現する機能は、CPU、RAMなどのハードウェア上に、記憶部102に記憶されているプログラム(ソフトウェア)を読み込ませることで、CPUが演算を行い、通信部105による通信や、RAMおよび記憶部102におけるデータの読み出しおよび/または書き込みを制御することで実現される。 The control unit 101 has a CPU (Central Processing Unit), a RAM (Random Access Memory), and a memory. The function realized in the terminal device 10 is that the CPU performs calculations by loading the program (software) stored in the storage unit 102 on the hardware such as the CPU and RAM, and the communication unit 105 communicates with the terminal device 10. This is achieved by controlling the reading and / or writing of data in the RAM and the storage unit 102.

図3は、制御部101が記憶部102に記憶されているプログラムを実行することにより実現する機能のうち、本発明に係る機能の構成を示した機能ブロック図である。取得部1002は、解析装置20または他の端末装置10から送信される情報を取得する。検知部1004は、他の端末装置10から送信されたメッセージを取得し、取得したメッセージに応じて周囲の状態をセンサで検知する。取得部1002は、本発明に係る検知部の一例である。要求部1005は、ユーザの予め定められた操作を前記センサの検知結果に基づいて特定した場合、周囲の状態を要求するメッセージを、送信部1001を介して送信する。要求部1005は、本発明に係る要求部の一例である。送信部1001は、センサ部108が出力した信号や、センサ部108が出力した信号に基づいて生成された情報を解析装置20または他の端末装置10へ送信する。また、送信部1001は、検知部1004が特定した状態を表す情報を、他の端末装置10へ送信する。また、送信部1001は、要求部1005から供給されるメッセージを他の端末装置10へ送信する。動作制御部1003は、取得部1002が取得した情報に基づいて、発光部103、アクチュエータ104を制御する。また、動作制御部1003は、取得部1002が取得した情報に基づいて記憶部102から制御情報を取得し、取得した制御情報に基づいて発光部103、アクチュエータ104を制御する。 FIG. 3 is a functional block diagram showing a configuration of a function according to the present invention among the functions realized by the control unit 101 executing a program stored in the storage unit 102. The acquisition unit 1002 acquires information transmitted from the analysis device 20 or another terminal device 10. The detection unit 1004 acquires a message transmitted from another terminal device 10, and detects the surrounding state with a sensor according to the acquired message. The acquisition unit 1002 is an example of a detection unit according to the present invention. When the request unit 1005 specifies a predetermined operation of the user based on the detection result of the sensor, the request unit 1005 transmits a message requesting the surrounding state via the transmission unit 1001. The request unit 1005 is an example of the request unit according to the present invention. The transmission unit 1001 transmits the signal output by the sensor unit 108 and the information generated based on the signal output by the sensor unit 108 to the analysis device 20 or another terminal device 10. Further, the transmission unit 1001 transmits information representing the state specified by the detection unit 1004 to the other terminal device 10. Further, the transmission unit 1001 transmits a message supplied from the request unit 1005 to another terminal device 10. The operation control unit 1003 controls the light emitting unit 103 and the actuator 104 based on the information acquired by the acquisition unit 1002. Further, the motion control unit 1003 acquires control information from the storage unit 102 based on the information acquired by the acquisition unit 1002, and controls the light emitting unit 103 and the actuator 104 based on the acquired control information.

(解析装置20の構成)
図4は、解析装置20のハードウェア構成を示した図である。通信部205は、有線または無線で通信網2に接続されており、通信網2を介してデータ通信を行う通信インターフェースとして機能する。通信部205は、通信網2を介して端末装置10と通信を行う。
(Structure of analysis device 20)
FIG. 4 is a diagram showing a hardware configuration of the analysis device 20. The communication unit 205 is connected to the communication network 2 by wire or wirelessly, and functions as a communication interface for performing data communication via the communication network 2. The communication unit 205 communicates with the terminal device 10 via the communication network 2.

記憶部202は、ハードディスク装置を有しており、オペレーティングシステムのプログラムや、アプリケーションプログラムなどを記憶している。本実施形態においては、記憶部202は、互いに通信を行う一方の端末装置10から送られるデータ、情報、信号を解析して端末装置10の周囲にいるユーザを特定する機能や、特定したユーザを表すデータを他方の端末装置10へ送信する機能などを実現するアプリケーションプログラムを記憶している。 The storage unit 202 has a hard disk device, and stores operating system programs, application programs, and the like. In the present embodiment, the storage unit 202 has a function of analyzing data, information, and signals sent from one of the terminal devices 10 communicating with each other to identify a user around the terminal device 10, and a specified user. It stores an application program that realizes a function of transmitting the represented data to the other terminal device 10.

また、記憶部202は、端末装置10を識別する装置識別子、端末装置10の予め定められたユーザを識別するユーザ識別子、端末装置10の予め定められたユーザの声紋を表す声紋データを対応付けて記憶する。具体的には、記憶部202は、端末装置10Aの装置識別子、端末装置10Aのユーザである夫を識別するユーザ識別子および端末装置10Aのユーザである夫の声紋データを対応付けて記憶する。また、記憶部202は、端末装置10Bの装置識別子、端末装置10Bのユーザである妻のユーザ識別子および妻の声紋データと対応付けて記憶し、端末装置10Bの装置識別子、端末装置10Bのユーザである子供のユーザ識別子および子供の声紋データと対応付けて記憶する。 Further, the storage unit 202 associates a device identifier that identifies the terminal device 10, a user identifier that identifies a predetermined user of the terminal device 10, and voiceprint data that represents a predetermined user's voiceprint of the terminal device 10. Remember. Specifically, the storage unit 202 stores the device identifier of the terminal device 10A, the user identifier that identifies the husband who is the user of the terminal device 10A, and the voice print data of the husband who is the user of the terminal device 10A in association with each other. Further, the storage unit 202 stores the device identifier of the terminal device 10B, the user identifier of the wife who is the user of the terminal device 10B, and the voice print data of the wife in association with each other, and is a device identifier of the terminal device 10B and a user of the terminal device 10B. It is stored in association with the user identifier of a certain child and the voice print data of the child.

また、記憶部202は、互いに通信を行う端末装置10の装置識別子を対応付けて記憶する。本実施形態の場合、端末装置10Aと端末装置10Bが通信を行うため、記憶部202には、端末装置10Aの装置識別子と端末装置10Bの装置識別子が対応付けて記憶される。 Further, the storage unit 202 stores the device identifiers of the terminal devices 10 that communicate with each other in association with each other. In the case of the present embodiment, since the terminal device 10A and the terminal device 10B communicate with each other, the device identifier of the terminal device 10A and the device identifier of the terminal device 10B are stored in association with each other in the storage unit 202.

制御部201は、CPU、ブートローダを記憶したROMおよびRAMを有している。CPUが記憶部202に記憶されているオペレーティングシステムのプログラムを実行すると、アプリケーションプログラムを実行することが可能となる。CPUがアプリケーションプログラムを実行すると、解析装置20は、互いに通信を行う一方の端末装置10から送られる情報を解析して端末装置10の周囲にいるユーザを特定し、特定したユーザを表すデータを他方の端末装置10へ送信する。 The control unit 201 has a ROM and a RAM that store a CPU and a boot loader. When the CPU executes the operating system program stored in the storage unit 202, the application program can be executed. When the CPU executes an application program, the analysis device 20 analyzes information sent from one terminal device 10 that communicates with each other to identify a user around the terminal device 10, and outputs data representing the specified user to the other. It is transmitted to the terminal device 10 of.

図5は、解析装置20において実現する機能のうち、本発明に係る機能の構成を示したブロック図である。特定部2001は、端末装置10から送られる情報を取得し、取得した情報に基づいて、送られた情報を送信した端末装置10の周囲にいるユーザを特定する。ユーザを特定するとは、個人を特定することだけでなく、人数、性別、属性を特定することも含む。提供部2002は、特定部2001が特定したユーザに応じた情報を、端末装置10へ提供する。 FIG. 5 is a block diagram showing the configuration of the functions according to the present invention among the functions realized by the analysis device 20. The identification unit 2001 acquires the information sent from the terminal device 10, and identifies the users around the terminal device 10 that has transmitted the transmitted information based on the acquired information. Identifying a user includes not only identifying an individual but also identifying the number of people, gender, and attributes. The providing unit 2002 provides the terminal device 10 with information according to the user specified by the specific unit 2001.

(動作例)
次に本実施形態の動作例について説明する。妻が端末装置10Bに近づくと、センサ部108Bの人感センサは人間を検知したことを表す信号を制御部101Bへ出力する。制御部101Bは、人感センサから出力された信号を取得すると、端末装置10Bの装置識別子と、端末装置10Bの周囲にユーザがいることを表す情報を、通信部105Bを制御して端末装置10Aへ送信する(図6:ステップS1)。
(Operation example)
Next, an operation example of this embodiment will be described. When the wife approaches the terminal device 10B, the motion sensor of the sensor unit 108B outputs a signal indicating that a human has been detected to the control unit 101B. When the control unit 101B acquires the signal output from the motion sensor, the control unit 101B controls the communication unit 105B to obtain the device identifier of the terminal device 10B and the information indicating that the user is around the terminal device 10B, and the terminal device 10A. (Fig. 6: Step S1).

通信部105Aは、ステップS1で端末装置10Bから送信された情報を取得する。制御部101Aは、装置識別子と、端末装置10Bの周囲にユーザがいることを表す情報を取得すると、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子であるか判定する(ステップS2)。具体的には、制御部101Aは、記憶部102Aにおいて通信相手の装置識別子として記憶されている装置識別子と、取得した装置識別子を比較する。制御部101Aは、記憶部102Aにおいて通信相手の装置識別子として記憶されている装置識別子と、取得した装置識別子が一致した場合、発光部103Aを制御する(ステップS3)。ここで制御部101Aは、例えば、発光部103Aの白色のLEDを点灯させる。これにより、端末装置10Aの筐体は白色で発光し、端末装置10Aのユーザは、端末装置10Bの近くに妻または子供がいることがわかる。 The communication unit 105A acquires the information transmitted from the terminal device 10B in step S1. When the control unit 101A acquires the device identifier and the information indicating that the user is around the terminal device 10B, the control unit 101A determines whether the acquired device identifier is the device identifier of the terminal device 10 of the communication partner determined in advance ( Step S2). Specifically, the control unit 101A compares the device identifier stored as the device identifier of the communication partner in the storage unit 102A with the acquired device identifier. The control unit 101A controls the light emitting unit 103A when the device identifier stored as the device identifier of the communication partner in the storage unit 102A and the acquired device identifier match (step S3). Here, the control unit 101A turns on, for example, the white LED of the light emitting unit 103A. As a result, the housing of the terminal device 10A emits light in white, and the user of the terminal device 10A knows that his wife or child is near the terminal device 10B.

次に妻の声をセンサ部108Bの音センサが検知すると(ステップS4)、音センサは、検知した声を表す信号を制御部101Bへ出力する。制御部101Bは、音センサから出力された信号を取得すると、取得した情報をデジタル化した音声情報を生成する。制御部101Bは、端末装置10Bの装置識別子と、生成した音声情報を解析装置20へ送信する(ステップS5)。 Next, when the sound sensor of the sensor unit 108B detects the voice of the wife (step S4), the sound sensor outputs a signal representing the detected voice to the control unit 101B. When the control unit 101B acquires the signal output from the sound sensor, the control unit 101B generates voice information obtained by digitizing the acquired information. The control unit 101B transmits the device identifier of the terminal device 10B and the generated voice information to the analysis device 20 (step S5).

通信部205は、ステップS5で端末装置10Bから送信された装置識別子と音声情報を取得する。制御部201は、通信部205が取得した装置識別子に対応付けて記憶されている声紋データを取得する。通信部205が取得した端末装置10Bの装置識別子には、端末装置10Bのユーザである妻の声紋データと子供の声紋データが対応付けられているため、制御部201は、妻の声紋データと子供の声紋データを記憶部202から取得する(ステップS6)。 The communication unit 205 acquires the device identifier and voice information transmitted from the terminal device 10B in step S5. The control unit 201 acquires voiceprint data stored in association with the device identifier acquired by the communication unit 205. Since the device identifier of the terminal device 10B acquired by the communication unit 205 is associated with the voiceprint data of the wife who is the user of the terminal device 10B and the voiceprint data of the child, the control unit 201 has the voiceprint data of the wife and the child. Voiceprint data is acquired from the storage unit 202 (step S6).

次に制御部201は、取得した音声情報に対応するユーザを特定する(ステップS7)。具体的には、制御部201は、通信部205が取得した音声情報が表す音声の声紋を解析し、解析で得られた声紋と、記憶部202から取得した声紋データとを比較する。ここで解析により得られる声紋は、妻の声紋であり、解析により得られた声紋は、妻の声紋データが表す声紋と一致するため、制御部201は、取得した音声情報に対応するユーザ、即ち、端末装置10Bの周囲にいるユーザ(端末装置10Aのユーザの通信相手)は妻であると特定する。次に制御部201は、解析により得られた声紋と一致した声紋データに対応付けて記憶されている妻のユーザ識別子を記憶部202から取得する。 Next, the control unit 201 identifies a user corresponding to the acquired voice information (step S7). Specifically, the control unit 201 analyzes the voiceprint of the voice represented by the voice information acquired by the communication unit 205, and compares the voiceprint obtained by the analysis with the voiceprint data acquired from the storage unit 202. The voiceprint obtained by the analysis here is the voiceprint of the wife, and the voiceprint obtained by the analysis matches the voiceprint represented by the voiceprint data of the wife. Therefore, the control unit 201 is the user corresponding to the acquired voice information, that is, , The user around the terminal device 10B (the communication partner of the user of the terminal device 10A) is identified as a wife. Next, the control unit 201 acquires the user identifier of the wife stored in association with the voiceprint data that matches the voiceprint obtained by the analysis from the storage unit 202.

制御部201は、通信部205が取得した装置識別子と、記憶部202から取得した妻のユーザ識別子の組を、通信部205を制御して送信する(ステップS8)。ここで、制御部201は、記憶部202においては、通信部205が取得した端末装置10Bの装置識別子に対応付けて端末装置10Aの装置識別子が記憶されているため、装置識別子およびユーザ識別子の送信先を端末装置10Aとする。 The control unit 201 controls the communication unit 205 to transmit a set of the device identifier acquired by the communication unit 205 and the user identifier of the wife acquired from the storage unit 202 (step S8). Here, since the control unit 201 stores the device identifier of the terminal device 10A in association with the device identifier of the terminal device 10B acquired by the communication unit 205 in the storage unit 202, the device identifier and the user identifier are transmitted. The destination is the terminal device 10A.

通信部105Aは、ステップS8で解析装置20から送信された装置識別子およびユーザ識別子を取得する。制御部101Aは、ステップS2と同様に、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子であるか判定する(ステップS9)。 The communication unit 105A acquires the device identifier and the user identifier transmitted from the analysis device 20 in step S8. Similar to step S2, the control unit 101A determines whether the acquired device identifier is the device identifier of the terminal device 10 of the communication partner determined in advance (step S9).

取得した端末装置10Bの装置識別子は、記憶部102Aに記憶されているため、制御部101Aは、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子であると判定する。制御部101Aは、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子である場合、取得したユーザ識別子に対応付けて記憶されている制御情報を記憶部102Aから取得する(ステップS10)。ここで取得したユーザ識別子は妻のユーザ識別子であるため、制御部101Aは、記憶部102Aにおいて妻のユーザ識別子に対応付けて記憶されている第1の制御情報を取得する。 Since the acquired device identifier of the terminal device 10B is stored in the storage unit 102A, the control unit 101A determines that the acquired device identifier is a device identifier of the terminal device 10 of the communication partner determined in advance. When the acquired device identifier is the device identifier of the terminal device 10 of the communication partner determined in advance, the control unit 101A acquires the control information stored in association with the acquired user identifier from the storage unit 102A (step). S10). Since the user identifier acquired here is the user identifier of the wife, the control unit 101A acquires the first control information stored in association with the user identifier of the wife in the storage unit 102A.

制御部101Aは、第1の制御情報を取得すると、第1の制御情報に基づいて発光部103Aとアクチュエータ104Aを制御する(ステップS11)。ここで、制御部101Aは、第1の周期でピンク色に点滅するように発光部103Aを制御し、第1の周期で伸縮するようにアクチュエータ104Aを制御する。アクチュエータ104Aが第1の周期で伸縮するため、端末装置10Aの筐体が第1の周期で伸縮する。端末装置10Aのユーザである夫は、端末装置10Aが第1の周期でピンク色に点滅し、第1の周期で伸縮することにより、端末装置10Bの近くに妻がいることがわかる。 When the control unit 101A acquires the first control information, the control unit 101A controls the light emitting unit 103A and the actuator 104A based on the first control information (step S11). Here, the control unit 101A controls the light emitting unit 103A so as to blink pink in the first cycle, and controls the actuator 104A so as to expand and contract in the first cycle. Since the actuator 104A expands and contracts in the first cycle, the housing of the terminal device 10A expands and contracts in the first cycle. The husband, who is a user of the terminal device 10A, knows that his wife is near the terminal device 10B by blinking the terminal device 10A in pink in the first cycle and expanding and contracting in the first cycle.

次に、妻と子供が端末装置10Bの近くで会話をしたときの動作例について説明する。妻と子供が会話を行うと、妻の声と子供の声をセンサ部108Bの音センサが検知する(ステップS21)。音センサは、検知した音声を表す信号を制御部101Bへ出力する。制御部101Bは、音センサから出力された信号を取得すると、妻の声の音声情報と子供の声の音声情報を生成する。制御部101Bは、端末装置10Bの装置識別子と、生成した音声情報を解析装置20へ送信する(ステップS22)。 Next, an operation example when the wife and the child have a conversation near the terminal device 10B will be described. When the wife and the child have a conversation, the sound sensor of the sensor unit 108B detects the voice of the wife and the voice of the child (step S21). The sound sensor outputs a signal representing the detected voice to the control unit 101B. When the control unit 101B acquires the signal output from the sound sensor, the control unit 101B generates the voice information of the wife's voice and the voice information of the child's voice. The control unit 101B transmits the device identifier of the terminal device 10B and the generated voice information to the analysis device 20 (step S22).

通信部205は、ステップS22で端末装置10Bから送信された装置識別子と音声情報を取得する。制御部201は、通信部205が取得した装置識別子に対応付けて記憶されている声紋データを取得する。通信部205が取得した端末装置10Bの装置識別子には、端末装置10Bのユーザである妻の声紋データと子供の声紋データが対応付けられているため、制御部201は、妻の声紋データと子供の声紋データを記憶部202から取得する(ステップS23)。 The communication unit 205 acquires the device identifier and voice information transmitted from the terminal device 10B in step S22. The control unit 201 acquires voiceprint data stored in association with the device identifier acquired by the communication unit 205. Since the device identifier of the terminal device 10B acquired by the communication unit 205 is associated with the voiceprint data of the wife who is the user of the terminal device 10B and the voiceprint data of the child, the control unit 201 has the voiceprint data of the wife and the child. Voiceprint data is acquired from the storage unit 202 (step S23).

次に制御部201は、取得した音声情報に対応するユーザを特定する(ステップS24)。ここで制御部201は、通信部205が取得した音声情報が表す音声の声紋を解析し、解析で得られた声紋と、記憶部202から取得した声紋データとを比較する。ここで解析により得られる声紋は、妻の声紋と子供の声紋であり、解析により得られた妻の声紋は、妻の声紋データが表す声紋と一致し、解析により得られた子供の声紋は、子供の声紋データが表す声紋と一致するため、制御部201は、取得した音声情報に対応するユーザ、即ち、端末装置10Bの周囲にいるユーザ(端末装置10Aのユーザの通信相手)は、妻と子供であると特定する。次に制御部201は、解析により得られた声紋と一致した声紋データに対応付けて記憶されている妻のユーザ識別子と子供のユーザ識別子を記憶部202から取得する。 Next, the control unit 201 identifies a user corresponding to the acquired voice information (step S24). Here, the control unit 201 analyzes the voiceprint of the voice represented by the voice information acquired by the communication unit 205, and compares the voiceprint obtained by the analysis with the voiceprint data acquired from the storage unit 202. The voiceprints obtained by the analysis here are the wife's voiceprint and the child's voiceprint, the wife's voiceprint obtained by the analysis matches the voiceprint represented by the wife's voiceprint data, and the child's voiceprint obtained by the analysis is Since the control unit 201 matches the voiceprint represented by the child's voiceprint data, the control unit 201 sets the user corresponding to the acquired voice information, that is, the user around the terminal device 10B (the communication partner of the user of the terminal device 10A) with his wife. Identify as a child. Next, the control unit 201 acquires the user identifier of the wife and the user identifier of the child stored in association with the voiceprint data matching the voiceprint obtained by the analysis from the storage unit 202.

制御部201は、通信部205が取得した装置識別子、記憶部202から取得した妻のユーザ識別子および記憶部202から取得した子供のユーザ識別子を、通信部205を制御して送信する(ステップS25)。ここで、記憶部202においては、通信部205が取得した端末装置10Bの装置識別子に対応付けて端末装置10Aの装置識別子が記憶されているため、制御部201は、装置識別子およびユーザ識別子の送信先を端末装置10Aとする。 The control unit 201 controls the communication unit 205 to transmit the device identifier acquired by the communication unit 205, the wife user identifier acquired from the storage unit 202, and the child user identifier acquired from the storage unit 202 (step S25). .. Here, since the storage unit 202 stores the device identifier of the terminal device 10A in association with the device identifier of the terminal device 10B acquired by the communication unit 205, the control unit 201 transmits the device identifier and the user identifier. The destination is the terminal device 10A.

通信部105Aは、ステップS25で解析装置20から送信された装置識別子およびユーザ識別子を取得する。制御部101Aは、ステップS2と同様に、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子であるか判定する(ステップS26)。 The communication unit 105A acquires the device identifier and the user identifier transmitted from the analysis device 20 in step S25. Similar to step S2, the control unit 101A determines whether the acquired device identifier is the device identifier of the terminal device 10 of the communication partner determined in advance (step S26).

取得した端末装置10Bの装置識別子は、記憶部102Aに記憶されているため、制御部101Aは、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子であると判定する。制御部101Aは、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子である場合、取得したユーザ識別子に対応付けて記憶されている制御情報を記憶部102Aから取得する(ステップS27)。ここで取得したユーザ識別子は、妻のユーザ識別子と子供のユーザ識別子の組であるため、制御部101Aは、記憶部102Aにおいて妻のユーザ識別子と子供のユーザ識別子の組に対応付けて記憶されている第3の制御情報を取得する。 Since the acquired device identifier of the terminal device 10B is stored in the storage unit 102A, the control unit 101A determines that the acquired device identifier is a device identifier of the terminal device 10 of the communication partner determined in advance. When the acquired device identifier is the device identifier of the terminal device 10 of the communication partner determined in advance, the control unit 101A acquires the control information stored in association with the acquired user identifier from the storage unit 102A (step). S27). Since the user identifier acquired here is a pair of a wife's user identifier and a child's user identifier, the control unit 101A is stored in the storage unit 102A in association with the pair of the wife's user identifier and the child's user identifier. Acquires the third control information.

制御部101Aは、第3の制御情報を取得すると、第3の制御情報に基づいて発光部103Aとアクチュエータ104Aを制御する(ステップS28)。ここで、制御部101Aは、第3の周期で緑色に点滅するように発光部103Aを制御し、第3の周期で伸縮するようにアクチュエータ104Aを制御する。アクチュエータ104Aが第3の周期で伸縮するため、端末装置10Aの筐体が第3の周期で伸縮する。端末装置10Aのユーザである夫は、端末装置10Aが第3の周期で緑色に点滅し、第3の周期で伸縮することにより、端末装置10Bの近くに妻と子供がいることがわかる。 When the control unit 101A acquires the third control information, the control unit 101A controls the light emitting unit 103A and the actuator 104A based on the third control information (step S28). Here, the control unit 101A controls the light emitting unit 103A so as to blink green in the third cycle, and controls the actuator 104A so as to expand and contract in the third cycle. Since the actuator 104A expands and contracts in the third cycle, the housing of the terminal device 10A expands and contracts in the third cycle. The husband, who is a user of the terminal device 10A, knows that the terminal device 10A blinks green in the third cycle and expands and contracts in the third cycle, so that the wife and the child are near the terminal device 10B.

なお、端末装置10Aにユーザである夫が近づいた場合は、端末装置10Aの装置識別子と、端末装置10Aの周囲にユーザがいることを表す情報が端末装置10Aから端末装置10Bへ送信され、端末装置10Bは、発光部103Bの白色のLEDを点灯させる。これにより、端末装置10Bのユーザは、端末装置10Aの人間がいることがわかる。 When the husband who is the user approaches the terminal device 10A, the device identifier of the terminal device 10A and the information indicating that the user is around the terminal device 10A are transmitted from the terminal device 10A to the terminal device 10B, and the terminal. The device 10B turns on the white LED of the light emitting unit 103B. From this, it can be seen that the user of the terminal device 10B has a human being of the terminal device 10A.

また、端末装置10Aの近くで夫が声を発すると、端末装置10Aの装置識別子と夫の音声情報が解析装置20へ送られる。解析装置20は、端末装置10Aから送られた音声情報を解析して夫の声紋を特定し、夫の声紋データに対応付けられている夫のユーザ識別子を取得する。解析装置20は、端末装置10Aの装置識別子と、夫の声紋データに対応付けられている夫のユーザ識別子を端末装置10Bへ送信する。端末装置10Bは、夫のユーザ識別子に対応付けて記憶されている第4の制御情報に基づいて発光部103Bとアクチュエータ104Bを制御する。これにより、発光部103Bが青色で第4の周期で点滅し、筐体が第4の周期で伸縮するため、端末装置10Bのユーザは、端末装置10Aの近くに夫がいることがわかる。 Further, when the husband speaks near the terminal device 10A, the device identifier of the terminal device 10A and the voice information of the husband are sent to the analysis device 20. The analysis device 20 analyzes the voice information sent from the terminal device 10A to identify the husband's voiceprint, and acquires the husband's user identifier associated with the husband's voiceprint data. The analysis device 20 transmits the device identifier of the terminal device 10A and the user identifier of the husband associated with the voiceprint data of the husband to the terminal device 10B. The terminal device 10B controls the light emitting unit 103B and the actuator 104B based on the fourth control information stored in association with the user identifier of the husband. As a result, the light emitting unit 103B blinks in blue in the fourth cycle, and the housing expands and contracts in the fourth cycle. Therefore, the user of the terminal device 10B knows that the husband is near the terminal device 10A.

また、端末装置10Bの近くで子供が声を発すると、端末装置10Bの装置識別子と子供の音声情報が解析装置20へ送られる。解析装置20は、端末装置10Bから送られた音声情報を解析して子供の声紋を特定し、子供の声紋データに対応付けられている子供のユーザ識別子を取得する。解析装置20は、端末装置10Bの装置識別子と、子供の声紋データに対応付けられている子供のユーザ識別子を端末装置10Aへ送信する。端末装置10Aは、子供のユーザ識別子に対応付けて記憶されている第2の制御情報に基づいて発光部103Aとアクチュエータ104Aを制御する。これにより、発光部103Aがオレンジ色で第2の周期で点滅し、筐体が第2の周期で伸縮するため、端末装置10Aのユーザは、端末装置10Bの近くに子供がいることがわかる。 Further, when the child speaks near the terminal device 10B, the device identifier of the terminal device 10B and the voice information of the child are sent to the analysis device 20. The analysis device 20 analyzes the voice information sent from the terminal device 10B to identify the child's voiceprint, and acquires the child's user identifier associated with the child's voiceprint data. The analysis device 20 transmits the device identifier of the terminal device 10B and the child user identifier associated with the child's voiceprint data to the terminal device 10A. The terminal device 10A controls the light emitting unit 103A and the actuator 104A based on the second control information stored in association with the child user identifier. As a result, the light emitting unit 103A is orange and blinks in the second cycle, and the housing expands and contracts in the second cycle. Therefore, the user of the terminal device 10A knows that the child is near the terminal device 10B.

以上説明したように、本実施形態によれば、コミュニケーションの相手の通信端末の周囲に誰がいるかがわかるため、どのような相手とつながっているかを知ることができる。 As described above, according to the present embodiment, since it is possible to know who is around the communication terminal of the communication partner, it is possible to know what kind of partner is connected.

[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した実施形態および以下の変形例は、各々を組み合わせてもよい。
[Modification example]
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and can be implemented in various other embodiments. For example, the present invention may be carried out by modifying the above-described embodiment as follows. The above-described embodiment and the following modifications may be combined with each other.

本発明においては、解析装置20は、端末装置10か送られた音声情報が表す音声の意味を解析し、解析結果を表す意味情報を通信相手の端末装置10へ送信し、意味情報を受信した端末装置10は、送信された意味情報に応じた動作を行う構成であってもよい。
例えば、端末装置10Aの近くで夫が「ただいま」と言った場合、端末装置10Aの装置識別子と夫の音声情報が解析装置20へ送られる。解析装置20は、端末装置10Aから送られた音声情報を解析して夫の声紋を特定し、夫の声紋データに対応付けられている夫のユーザ識別子を取得する。また、解析装置20は、音声情報が表す音声を解析し、音声の意味が帰宅時の挨拶であることを特定する。解析装置20は、端末装置10Aの装置識別子、夫の声紋データに対応付けられている夫のユーザ識別子、および帰宅時の挨拶を表す意味情報を端末装置10Bへ送信する。端末装置10Bは、夫のユーザ識別子に対応付けて記憶されている制御情報のうち、帰宅時の挨拶を表す意味情報に対応付けられている制御情報を記憶部102Bから取得する。端末装置10Bは、取得した制御情報に基づいて発光部103Bとアクチュエータ104Bを制御する。これにより、発光部103Bが制御情報に応じた色および周期で点滅し、筐体が制御情報に応じた周期で伸縮するため、端末装置10Bのユーザは、夫が帰宅したことがわかる。
In the present invention, the analysis device 20 analyzes the meaning of the voice represented by the voice information sent from the terminal device 10, transmits the meaning information representing the analysis result to the terminal device 10 of the communication partner, and receives the meaning information. The terminal device 10 may be configured to perform an operation according to the transmitted semantic information.
For example, when the husband says "I'm home" near the terminal device 10A, the device identifier of the terminal device 10A and the voice information of the husband are sent to the analysis device 20. The analysis device 20 analyzes the voice information sent from the terminal device 10A to identify the husband's voiceprint, and acquires the husband's user identifier associated with the husband's voiceprint data. Further, the analysis device 20 analyzes the voice represented by the voice information and identifies that the meaning of the voice is a greeting when returning home. The analysis device 20 transmits the device identifier of the terminal device 10A, the user identifier of the husband associated with the voice print data of the husband, and the semantic information representing the greeting at the time of returning home to the terminal device 10B. The terminal device 10B acquires from the storage unit 102B the control information associated with the semantic information representing the greeting at the time of returning home, among the control information stored in association with the user identifier of the husband. The terminal device 10B controls the light emitting unit 103B and the actuator 104B based on the acquired control information. As a result, the light emitting unit 103B blinks in a color and cycle according to the control information, and the housing expands and contracts in a cycle corresponding to the control information, so that the user of the terminal device 10B knows that the husband has returned home.

上述した実施形態においては、端末装置10から解析装置20へ音声情報を送信し、解析装置20は、送信された音声情報に基づいてユーザの声紋を解析しているが、ユーザの声紋を解析する構成は、実施形態の構成に限定されるものではない。例えば、端末装置10がユーザの音声の声紋を解析し、解析により得られた声紋を表す声紋データを解析装置20へ送信する構成としてもよい。この構成においては、解析装置20は、端末装置10から送信された声紋データと、予め記憶している声紋データとを比較し、端末装置10の周囲にいるユーザを特定する。 In the above-described embodiment, voice information is transmitted from the terminal device 10 to the analysis device 20, and the analysis device 20 analyzes the user's voiceprint based on the transmitted voice information, but analyzes the user's voiceprint. The configuration is not limited to the configuration of the embodiment. For example, the terminal device 10 may analyze the voiceprint of the user's voice and transmit the voiceprint data representing the voiceprint obtained by the analysis to the analysis device 20. In this configuration, the analysis device 20 compares the voiceprint data transmitted from the terminal device 10 with the voiceprint data stored in advance, and identifies the user around the terminal device 10.

上述した実施形態においては、制御部201は、声紋を用いてユーザを特定しているが、ユーザを特定するための情報は、声紋に限定されるものではなく、他の情報であってもよい。例えば、周知の音声認識技術を用い、声紋データに替えてユーザの音声の特徴量を用いてユーザを特定するようにしてもよい。この構成においては、特徴量を端末装置10で解析してもよく、また、特徴量を解析装置20で解析してもよい。 In the above-described embodiment, the control unit 201 identifies the user by using the voiceprint, but the information for identifying the user is not limited to the voiceprint and may be other information. .. For example, a well-known voice recognition technique may be used to identify the user by using the feature amount of the user's voice instead of the voiceprint data. In this configuration, the feature amount may be analyzed by the terminal device 10, or the feature amount may be analyzed by the analysis device 20.

端末装置10は、予め定められたユーザの音声以外の音声を検知した場合、通信相手の端末装置10から送られる情報や解析装置20から送られる情報を受信しても発光部103やアクチュエータ104を制御しないようにしてもよい。例えば、端末装置10Aは、音センサが、ユーザである夫の音声とは異なるテレビの音声やラジオの音声を検知している場合、ステップS1で送られた情報を取得しても、ステップS3の動作を行わない。また、端末装置10Aは、TVの音声やラジオの音声を検知している場合、ステップS8で送られた情報を取得しても、発光部103とアクチュエータ104の制御を行わない。検知した音声が夫の音声であるか否かの判断については、夫の声紋データを記憶部102Aに記憶させ、検知した音声を解析して得た声紋と、記憶されている声紋データが表す音声とが一致するか否かにより判断してもよい。本変形例によれば、端末装置10Aのユーザである夫がテレビを見ている場合には、発光部103やアクチュエータ104の制御が行われず、端末装置10Aが発光や伸縮を行わないため、夫はテレビ、ラジオの視聴を妨げられることがない。 When the terminal device 10 detects a voice other than the predetermined user's voice, the light emitting unit 103 and the actuator 104 are used even if the terminal device 10 receives the information sent from the terminal device 10 of the communication partner or the information sent from the analysis device 20. It may not be controlled. For example, when the sound sensor detects the sound of the television or the sound of the radio different from the sound of the husband who is the user, the terminal device 10A may acquire the information sent in step S1 but in step S3. Does not work. Further, when the terminal device 10A detects the sound of the TV or the sound of the radio, the terminal device 10A does not control the light emitting unit 103 and the actuator 104 even if the information sent in step S8 is acquired. Regarding the determination of whether or not the detected voice is the voice of the husband, the voiceprint data of the husband is stored in the storage unit 102A, the voiceprint obtained by analyzing the detected voice, and the voice represented by the stored voiceprint data. It may be judged by whether or not they match. According to this modification, when the husband who is the user of the terminal device 10A is watching TV, the light emitting unit 103 and the actuator 104 are not controlled, and the terminal device 10A does not emit light or expand / contract. Will not interfere with watching TV or radio.

本発明においては、端末装置10は、予め定められたユーザの音声以外の音声を検知した場合、検知した音声を表すデータを解析装置20へ送信してもよい。また、この構成の場合、解析装置20は、端末装置10Aから送信されたデータが表す音声と、端末装置10Bから送信されたデータが表す音声とが一致した場合、端末装置10Aおよび端末装置10Bへ、互いに接続するように指示するメッセージを送信し、当該メッセージを受信した端末装置10Aと端末装置10Bが接続するようにしてもよい。この構成によれば、例えば、端末装置10Aが設置してある部屋と端末装置10Bが設置してある部屋で同じテレビ番組を視聴していた場合や同じラジオ番組を視聴していた場合、自動的に端末装置10Aと端末装置10Bが接続する。 In the present invention, when the terminal device 10 detects a voice other than the predetermined user voice, the terminal device 10 may transmit data representing the detected voice to the analysis device 20. Further, in the case of this configuration, when the voice represented by the data transmitted from the terminal device 10A and the voice represented by the data transmitted from the terminal device 10B match, the analysis device 20 goes to the terminal device 10A and the terminal device 10B. , A message instructing them to connect to each other may be transmitted, and the terminal device 10A and the terminal device 10B receiving the message may be connected to each other. According to this configuration, for example, when the same TV program is being watched or the same radio program is being watched in the room where the terminal device 10A is installed and the room where the terminal device 10B is installed, the operation is automatically performed. The terminal device 10A and the terminal device 10B are connected to the terminal device 10A.

本発明においては、夫の住居に複数の端末装置10を設置してもよく、妻と子供の住居に複数の端末装置10を設置してもよい。例えば、夫の住居の玄関に端末装置10Cを設置し、夫の住居のリビングに端末装置10Aを設置する。端末装置10Cの人感センサが人間を検知した場合、端末装置10Cの装置識別子と、端末装置10Cの周囲にユーザがいることを表す情報が端末装置10Cから端末装置10Bへ送信される。端末装置10Bは、端末装置10Cの装置識別子と、ユーザが端末装置10Cの周囲にいることを表す情報を取得すると、黄色で発光するように発光部103Bを制御する。また、夫が玄関からリビングへ移動し、端末装置10Aの人感センサが人間を検知した場合、端末装置10Aの装置識別子と、端末装置10Aの周囲にユーザがいることを表す情報が端末装置10Aから端末装置10Bへ送信される。端末装置10Bは、端末装置10Aの装置識別子と、ユーザが端末装置10Aの周囲にいることを表す情報を取得すると、白色で発光するように発光部103Bを制御する。本変形例によれば、妻と子供側においては、夫がどこにいるかを知ることができる。 In the present invention, a plurality of terminal devices 10 may be installed in the residence of the husband, or a plurality of terminal devices 10 may be installed in the residence of the wife and the child. For example, the terminal device 10C is installed at the entrance of the husband's residence, and the terminal device 10A is installed in the living room of the husband's residence. When the motion sensor of the terminal device 10C detects a human, the device identifier of the terminal device 10C and information indicating that there is a user around the terminal device 10C are transmitted from the terminal device 10C to the terminal device 10B. When the terminal device 10B acquires the device identifier of the terminal device 10C and the information indicating that the user is around the terminal device 10C, the terminal device 10B controls the light emitting unit 103B so as to emit light in yellow. Further, when the husband moves from the entrance to the living room and the motion sensor of the terminal device 10A detects a human, the device identifier of the terminal device 10A and the information indicating that the user is around the terminal device 10A are the terminal device 10A. Is transmitted to the terminal device 10B. When the terminal device 10B acquires the device identifier of the terminal device 10A and the information indicating that the user is around the terminal device 10A, the terminal device 10B controls the light emitting unit 103B so as to emit light in white. According to this variant, the wife and the child can know where the husband is.

本発明においては、端末装置10Aの周囲の状態と端末装置10Bの周囲の状態が同様である場合、端末装置10Aと端末装置10Bが特定の動作を行う構成であってもよい。例えば、端末装置10Aと端末装置10Bは、音センサが出力した信号から生成した音声情報を解析装置20へ送信する。解析装置20は、端末装置10Aから送られた音声情報が表す音の音量と、端末装置10Bから送られた音声情報が表す音の音量とを比較する。解析装置20は、一方の端末装置10から送られた音声情報が表す音の音量が他方の端末装置10から送られた音声情報が表す音の音量から予め定められた範囲内にある場合、予め定められた制御情報を端末装置10Aと端末装置10Bへ送信する。端末装置10Aと端末装置10Bは、解析装置20から送られた制御情報に基づいて発光部103とアクチュエータ104を制御する。端末装置10Aと端末装置10Bは、解析装置20から送られた同じ制御情報に基づいて動作するため、発光部103Aと発光部103Bの動作は同じ動作となり、アクチュエータ104Aとアクチュエータ104Bの動作は同じ動作となる。本変形例によれば、端末装置10Aの周囲と端末装置10Bの周囲とが同様の音量である、即ち、端末装置10Aの周囲と端末装置10Bの周囲とが同様の状態であると同じ動作となる。本変形例によれば、端末装置10Aの周囲と端末装置10Bの周囲とが同様の状態であると端末装置10Aと端末装置10Bが特定の動作を行うため、ユーザは、コミュニケーションをとる相手の周囲の状態が、自身の周囲の状態と同様であることを知ることができる。 In the present invention, when the surrounding state of the terminal device 10A and the surrounding state of the terminal device 10B are similar, the terminal device 10A and the terminal device 10B may be configured to perform a specific operation. For example, the terminal device 10A and the terminal device 10B transmit the voice information generated from the signal output by the sound sensor to the analysis device 20. The analysis device 20 compares the volume of the sound represented by the voice information sent from the terminal device 10A with the volume of the sound represented by the voice information sent from the terminal device 10B. When the volume of the sound represented by the voice information sent from one terminal device 10 is within a predetermined range from the volume of the sound represented by the voice information sent from the other terminal device 10, the analysis device 20 is in advance. The defined control information is transmitted to the terminal device 10A and the terminal device 10B. The terminal device 10A and the terminal device 10B control the light emitting unit 103 and the actuator 104 based on the control information sent from the analysis device 20. Since the terminal device 10A and the terminal device 10B operate based on the same control information sent from the analysis device 20, the operation of the light emitting unit 103A and the light emitting unit 103B are the same, and the operations of the actuator 104A and the actuator 104B are the same. It becomes. According to this modification, the same operation is performed when the surroundings of the terminal device 10A and the surroundings of the terminal device 10B have the same volume, that is, the surroundings of the terminal device 10A and the surroundings of the terminal device 10B are in the same state. Become. According to this modification, if the surroundings of the terminal device 10A and the surroundings of the terminal device 10B are in the same state, the terminal device 10A and the terminal device 10B perform a specific operation, so that the user is around the other party with whom the user communicates. You can know that the state of is similar to the state around you.

なお、周囲の状態が同様であるとは音量が同様であることに限定されるものではない。例えば、端末装置10は、照度センサが出力する信号に基づいて、照度センサが検知した照度を表す情報を解析装置20へ送信する。解析装置20は、端末装置10Aから送られた情報が表す照度と、端末装置10Bから送られた情報が表す照度とを比較する。解析装置20は、一方の端末装置10から送られた情報が表す照度が他方の端末装置10から送られた情報が表す照度から予め定められた範囲内にある場合、予め定められた制御情報を端末装置10Aと端末装置10Bへ送信する。本変形例によれば、端末装置10Aの周囲と端末装置10Bの周囲とが同様の照度である場合、即ち、端末装置10Aの周囲と端末装置10Bの周囲とが同様の状態である場合、端末装置10Aの動作と端末装置10Bの動作が同じ動作となる。 It should be noted that the fact that the surrounding conditions are the same is not limited to the fact that the volume is the same. For example, the terminal device 10 transmits information representing the illuminance detected by the illuminance sensor to the analysis device 20 based on the signal output by the illuminance sensor. The analysis device 20 compares the illuminance represented by the information sent from the terminal device 10A with the illuminance represented by the information sent from the terminal device 10B. When the illuminance represented by the information sent from one terminal device 10 is within a predetermined range from the illuminance represented by the information sent from the other terminal device 10, the analysis device 20 obtains predetermined control information. Transmission is performed to the terminal device 10A and the terminal device 10B. According to this modification, when the periphery of the terminal device 10A and the periphery of the terminal device 10B have the same illuminance, that is, when the periphery of the terminal device 10A and the periphery of the terminal device 10B are in the same state, the terminal The operation of the device 10A and the operation of the terminal device 10B are the same.

本発明においては、ユーザが予め定められた動作を行った場合、予め定められた動作を行ったユーザの周囲にある端末装置10は、通信相手となる端末装置10から装置の周囲の状況を表す情報を取得し、取得した情報に応じた動作を行う構成としてもよい。例えば、端末装置10Aは、センサ部108Aの音センサから出力された信号が表す音がノックの音である場合、温度を要求するメッセージを端末装置10Bへ送信する。端末装置10Bは、端末装置10Aから送られたメッセージを取得すると、温度センサが検知した温度を表す温度情報を端末装置10Aへ送信する。温度情報は、本発明に係る状態情報の一例である。端末装置10Aは、端末装置10Bから送られた温度情報を取得し、取得した温度情報に応じて発光部103Aを制御する。例えば、取得した温度情報が10℃未満である場合、発光部103が所定期間において青色で点滅するように制御し、取得した温度情報が10℃以上20℃未満である場合、発光部103が所定期間において緑色で点滅するように制御し、取得した温度情報が20℃以上である場合、発光部103が所定期間においてオレンジ色で点滅するように制御する。本変形例によれば、ユーザは、コミュニケーションをとる相手の部屋の状況を知ることができる。なお、端末装置10から装置の周囲の状況を表す情報は、温度に限定されるものではなく、音量、照度など他の情報であってもよい。 In the present invention, when the user performs a predetermined operation, the terminal device 10 around the user who has performed the predetermined operation represents the situation around the device from the terminal device 10 as the communication partner. The configuration may be such that information is acquired and an operation is performed according to the acquired information. For example, when the sound represented by the signal output from the sound sensor of the sensor unit 108A is the knocking sound, the terminal device 10A transmits a message requesting the temperature to the terminal device 10B. When the terminal device 10B acquires the message sent from the terminal device 10A, the terminal device 10B transmits the temperature information indicating the temperature detected by the temperature sensor to the terminal device 10A. The temperature information is an example of the state information according to the present invention. The terminal device 10A acquires the temperature information sent from the terminal device 10B, and controls the light emitting unit 103A according to the acquired temperature information. For example, when the acquired temperature information is less than 10 ° C., the light emitting unit 103 is controlled to blink in blue in a predetermined period, and when the acquired temperature information is 10 ° C. or more and less than 20 ° C., the light emitting unit 103 is predetermined. It is controlled to blink in green during the period, and when the acquired temperature information is 20 ° C. or higher, the light emitting unit 103 is controlled to blink in orange in a predetermined period. According to this modification, the user can know the situation of the room of the other party with whom he / she communicates. The information from the terminal device 10 indicating the surrounding situation of the device is not limited to the temperature, and may be other information such as volume and illuminance.

本発明においては、記憶部202において、装置識別子に対応付けて、当該装置識別子が表す端末装置10のユーザのプロファイルを記憶するようにしてもよい。例えば、記憶部202において、端末装置10Aの装置識別子に対応付けて、照度の閾値を含むプロファイルを記憶させる。端末装置10Aは、装置識別子と、照度センサが検知した照度を表す情報を解析装置20へ送信する。解析装置20は、端末装置10Aから送られた装置識別子に対応付けられているプロファイルに含まれる照度と、端末装置10Aから送られた情報が表す照度とを比較する。解析装置20は、端末装置10Aから送られた情報が表す照度が、プロファイルに含まれている照度から予め定められた照度以下である場合、解析装置20から端末装置10Aへの装置識別子およびユーザ識別子の送信を行わない。この構成によれば、例えば、就寝して端末装置10Aが設置されている部屋の明るさが所定の照度以下(例えば夜に照明をつけていないときの照度以下)である場合、解析装置20から端末装置10Aへ装置識別子およびユーザ識別子の送信が行われないため、端末装置10Bの周囲で妻や子供が音声を発しても、端末装置10Aが動作しないこととなる。なお、記憶部102Aにプロファイルを記憶し、照度センサが検知した照度がプロファイルに含まれている照度以下である場合、装置識別子と、ユーザが端末装置10Bの周囲にいることを表す情報が端末装置10Bから端末装置10Aへ送られても、制御部101Aは、発光部103Aおよびアクチュエータ104Aを制御しない構成としてもよい。 In the present invention, the storage unit 202 may store the user profile of the terminal device 10 represented by the device identifier in association with the device identifier. For example, in the storage unit 202, a profile including a threshold value of illuminance is stored in association with the device identifier of the terminal device 10A. The terminal device 10A transmits the device identifier and information representing the illuminance detected by the illuminance sensor to the analysis device 20. The analysis device 20 compares the illuminance included in the profile associated with the device identifier sent from the terminal device 10A with the illuminance represented by the information sent from the terminal device 10A. When the illuminance represented by the information sent from the terminal device 10A is equal to or less than a predetermined illuminance from the illuminance included in the profile, the analysis device 20 has a device identifier and a user identifier from the analysis device 20 to the terminal device 10A. Do not send. According to this configuration, for example, when the brightness of the room in which the terminal device 10A is installed is less than or equal to a predetermined illuminance (for example, less than or equal to the illuminance when the terminal device 10A is not turned on at night), the analysis device 20 is used. Since the device identifier and the user identifier are not transmitted to the terminal device 10A, the terminal device 10A does not operate even if a wife or a child emits a voice around the terminal device 10B. When the profile is stored in the storage unit 102A and the illuminance detected by the illuminance sensor is equal to or less than the illuminance included in the profile, the device identifier and information indicating that the user is around the terminal device 10B are stored in the terminal device. Even if it is sent from the 10B to the terminal device 10A, the control unit 101A may be configured not to control the light emitting unit 103A and the actuator 104A.

本発明においては、端末装置10は、ユーザの睡眠を検知し、ユーザの睡眠を検知した場合、消費電力を抑えるスリープモードへ移行するようにしてもよい。例えば、端末装置10は、予め定められた期間、音センサが音を検知しなかった場合、ユーザがねむりに入ったと判断し、スリープモードへ移行してもよい。端末装置10は、スリープモードへ移行した場合、例えば、通信部105への電力供給を遮断して消費電力を抑える。端末装置10は、スリープモードの状態で音センサが音を検知した場合、スリープモードを解除して通信部105への電力供給を再開する。本変形例によれば、端末装置10の消費電力を抑えることができる。 In the present invention, the terminal device 10 may detect the sleep of the user, and when the sleep of the user is detected, may shift to the sleep mode in which the power consumption is suppressed. For example, if the sound sensor does not detect sound for a predetermined period of time, the terminal device 10 may determine that the user has entered sleep and shift to the sleep mode. When the terminal device 10 shifts to the sleep mode, for example, the power supply to the communication unit 105 is cut off to suppress the power consumption. When the sound sensor detects a sound in the sleep mode, the terminal device 10 releases the sleep mode and restarts the power supply to the communication unit 105. According to this modification, the power consumption of the terminal device 10 can be suppressed.

本発明においては、端末装置10は、撮像素子を備え、ユーザを撮影する構成であってもよい。また、端末装置10が撮像素子を備える構成にあっては、ユーザ識別子に対応付けてユーザの顔の画像(顔画像)を記憶部202に記憶させるようにしてもよい。本変形例においては、例えば、端末装置10Bは、人間の顔を撮影すると、端末装置10Bの装置識別子と、撮影された人間の顔画像を解析装置20へ送信する。制御部201は、端末装置10Bから送信された装置識別子に対応付けて記憶されている顔画像を取得する。通信部205が取得した端末装置10Bの装置識別子には、端末装置10Bのユーザである妻の顔画像と子供の顔画像が対応付けられているため、制御部201は、妻の顔画像と子供の顔画像を記憶部202から取得する。 In the present invention, the terminal device 10 may be provided with an image sensor and may be configured to photograph a user. Further, in the configuration in which the terminal device 10 includes an image pickup element, the storage unit 202 may store an image (face image) of the user's face in association with the user identifier. In this modification, for example, when the terminal device 10B captures a human face, the device identifier of the terminal device 10B and the captured human face image are transmitted to the analysis device 20. The control unit 201 acquires a face image stored in association with the device identifier transmitted from the terminal device 10B. Since the device identifier of the terminal device 10B acquired by the communication unit 205 is associated with the face image of the wife who is the user of the terminal device 10B and the face image of the child, the control unit 201 has the face image of the wife and the child. The face image of the above is acquired from the storage unit 202.

制御部201は、取得した顔画像に対応するユーザを特定する。具体的には、制御部201は、通信部205が取得した顔画像と、記憶部202から取得した顔画像とを比較する。例えば、取得した顔画像が、予め記憶されている妻の顔画像と一致した場合、取得した顔画像に対応するユーザ、即ち、端末装置10Bの周囲にいるユーザ(端末装置10Aのユーザの通信相手)は妻であると特定する。次に制御部201は、取得した顔画像と一致した顔画像に対応付けて記憶されている妻のユーザ識別子を記憶部202から取得する。制御部201は、通信部205が取得した装置識別子と、記憶部202から取得した妻のユーザ識別子の組を、通信部205を制御して送信する。端末装置10Aは、解析装置20から送信された妻のユーザ識別子に対応付けて記憶されている第1の制御情報に基づいて発光部103Aとアクチュエータ104Aを制御する。これにより、発光部103Aがピンク色で第1の周期で点滅し、筐体が第1の周期で伸縮するため、端末装置10Aのユーザは、端末装置10Bの近くに妻がいることがわかる。 The control unit 201 identifies the user corresponding to the acquired face image. Specifically, the control unit 201 compares the face image acquired by the communication unit 205 with the face image acquired from the storage unit 202. For example, when the acquired face image matches the face image of the wife stored in advance, the user corresponding to the acquired face image, that is, the user around the terminal device 10B (the communication partner of the user of the terminal device 10A). ) Is identified as a wife. Next, the control unit 201 acquires the user identifier of the wife stored in association with the face image matching the acquired face image from the storage unit 202. The control unit 201 controls the communication unit 205 to transmit a set of the device identifier acquired by the communication unit 205 and the user identifier of the wife acquired from the storage unit 202. The terminal device 10A controls the light emitting unit 103A and the actuator 104A based on the first control information stored in association with the wife's user identifier transmitted from the analysis device 20. As a result, the light emitting unit 103A is pink and blinks in the first cycle, and the housing expands and contracts in the first cycle. Therefore, the user of the terminal device 10A knows that his wife is near the terminal device 10B.

本発明においては、端末装置10に近距離無線通信でアクセスした装置に基づいて、端末装置10の周囲にいるユーザを特定するようにしてもよい。例えば、端末装置10Bにおいて、妻のスマートフォンおよび子供のスマートフォンをBluetoothの通信によってペアリングさせる。端末装置10Bは、ペアリング済みの妻のスマートフォンをBluetoothの通信によって検知した場合、装置識別子と妻のユーザ識別子を端末装置10Aへ送信する。端末装置10Aは、端末装置10Bから送られたユーザ識別子に対応付けて記憶されている第1の制御情報に基づいて、発光部103Aとアクチュエータ104Aを制御する。これにより、発光部103Aがピンク色で第1の周期で点滅し、筐体が第1の周期で伸縮するため、端末装置10Aのユーザは、端末装置10Bの近くに妻がいることがわかる。 In the present invention, the user around the terminal device 10 may be specified based on the device that has accessed the terminal device 10 by short-range wireless communication. For example, in the terminal device 10B, the wife's smartphone and the child's smartphone are paired by Bluetooth communication. When the paired wife's smartphone is detected by Bluetooth communication, the terminal device 10B transmits the device identifier and the wife's user identifier to the terminal device 10A. The terminal device 10A controls the light emitting unit 103A and the actuator 104A based on the first control information stored in association with the user identifier sent from the terminal device 10B. As a result, the light emitting unit 103A is pink and blinks in the first cycle, and the housing expands and contracts in the first cycle. Therefore, the user of the terminal device 10A knows that his wife is near the terminal device 10B.

本発明においては、発光部103が点滅するときの色を通信相手の性別に応じた色としてもよい。例えば、解析装置20において、ユーザ識別子に対応付けて性別を表す性別データを記憶し、ステップS8でユーザ識別子を解析装置20から端末装置10へ送信する際に、送信するユーザ識別子に対応付けて記憶されている性別データも端末装置10へ送信する。性別データを取得した端末装置10は、性別が男性を表す場合には寒色で点滅し、性別が女性を表す場合には暖色で点滅してもよい。 In the present invention, the color when the light emitting unit 103 blinks may be a color according to the gender of the communication partner. For example, in the analysis device 20, gender data representing the gender is stored in association with the user identifier, and when the user identifier is transmitted from the analysis device 20 to the terminal device 10 in step S8, the user identifier is stored in association with the transmitted user identifier. The gender data is also transmitted to the terminal device 10. The terminal device 10 that has acquired the gender data may blink in cool colors when the gender represents a man, and may blink in a warm color when the gender represents a woman.

本発明においては、発光部103が点滅するときの色を通信相手の年齢に応じた色としてもよい。例えば、解析装置20において、ユーザ識別子に対応付けて年齢を表す年齢データを記憶し、ステップS8でユーザ識別子を解析装置20から端末装置10へ送信する際に、送信するユーザ識別子に対応付けて記憶されている年齢データも端末装置10へ送信する。年齢データを取得した端末装置10は、予め年齢毎に設定されている色で点滅してもよい。 In the present invention, the color when the light emitting unit 103 blinks may be a color according to the age of the communication partner. For example, in the analysis device 20, age data representing the age is stored in association with the user identifier, and when the user identifier is transmitted from the analysis device 20 to the terminal device 10 in step S8, it is stored in association with the user identifier to be transmitted. The age data is also transmitted to the terminal device 10. The terminal device 10 that has acquired the age data may blink in a color preset for each age.

本発明においては、解析装置20は、音声情報を解析して複数の声紋を特定した場合、特定した声紋の数を表す情報を端末装置10へ送信し、端末装置10は、解析装置20から送信された数を表す情報に応じて発光部103、アクチュエータ104を制御してもよい。この変形例によれば、例えば、端末装置10Bの周囲にいる人の人数に応じて端末装置10Aが動作し、端末装置10Aのユーザは、端末装置10Bの周囲にいる人の人数を知ることができる。 In the present invention, when the analysis device 20 analyzes voice information and identifies a plurality of voiceprints, the analysis device 20 transmits information representing the number of the specified voiceprints to the terminal device 10, and the terminal device 10 transmits from the analysis device 20. The light emitting unit 103 and the actuator 104 may be controlled according to the information representing the number of the lights. According to this modification, for example, the terminal device 10A operates according to the number of people around the terminal device 10B, and the user of the terminal device 10A knows the number of people around the terminal device 10B. it can.

上述した実施形態においては、端末装置10は、制御情報に基づいて発光部103とアクチュエータ104を制御しているが、音声処理部107を制御し、制御情報に含まれている周期に基づいて所定の音をスピーカから出力するようにしてもよい。 In the above-described embodiment, the terminal device 10 controls the light emitting unit 103 and the actuator 104 based on the control information, but controls the voice processing unit 107 and determines a predetermined value based on the cycle included in the control information. The sound of may be output from the speaker.

上述した実施形態においては、センサ部108の音センサで音声を検知しているが、音声処理部107のマイクロフォンで音声を検知してもよい。 In the above-described embodiment, the sound sensor of the sensor unit 108 detects the voice, but the microphone of the voice processing unit 107 may detect the voice.

上述した機能ブロック(構成部)は、ハードウェアおよび/またはソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的および/または論理的に結合した1つの装置により実現されてもよいし、物理的および/または論理的に分離した2つ以上の装置を直接的および/または間接的に(例えば、有線および/または無線)で接続し、これら複数の装置により実現されてもよい。例えば、本発明の一実施形態における端末装置10は、本発明の処理を行うコンピュータとして機能してもよい。なお、本明細書においては、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。端末装置10のハードウェア構成は、各装置を1つまたは複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 The functional blocks (components) described above are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one physically and / or logically coupled device, or directly and / or indirectly by two or more physically and / or logically separated devices. (For example, wired and / or wireless) may be connected and realized by these plurality of devices. For example, the terminal device 10 in one embodiment of the present invention may function as a computer that performs the processing of the present invention. In addition, in this specification, the word "device" can be read as a circuit, a device, a unit and the like. The hardware configuration of the terminal device 10 may be configured to include one or more of each device, or may be configured not to include some of the devices.

また、制御部101は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、記憶部102および/または通信部105からRAMに読み出し、これらに従って各種の処理を実行する。また、制御部201は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、記憶部202および/または通信部205からRAMに読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、制御部101は、RAMに格納され、CPUで動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよく、制御部201は、RAMに格納され、CPUで動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのCPUで実行される旨を説明してきたが、2以上のプロセッサCPUにより同時または逐次に実行されてもよい。制御部101は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 Further, the control unit 101 reads a program (program code), a software module, and data from the storage unit 102 and / or the communication unit 105 into the RAM, and executes various processes according to these. Further, the control unit 201 reads a program (program code), a software module, and data from the storage unit 202 and / or the communication unit 205 into the RAM, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above-described embodiment is used. For example, the control unit 101 may be realized by a control program stored in the RAM and operated by the CPU, or may be realized in the same manner for other functional blocks. The control unit 201 is stored in the RAM and may be realized by the CPU. It may be realized by a control program that operates in, and may be realized in the same manner for other functional blocks. Although it has been described that the various processes described above are executed by one CPU, they may be executed simultaneously or sequentially by two or more processor CPUs. The control unit 101 may be mounted on one or more chips. The program may be transmitted from the network via a telecommunication line.

RAMは、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。RAMは、本発明の一実施形態に係る機能を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The RAM may be referred to as a register, a cache, a main memory (main storage device), or the like. The RAM can store a program (program code), a software module, or the like that can be executed to perform the function according to the embodiment of the present invention.

また、端末装置10、解析装置20は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部または全てが実現されてもよい。例えば、制御部101は、これらのハードウェアの少なくとも1つで実装されてもよい。 Further, the terminal device 10 and the analysis device 20 are hardware such as a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). It may be configured to include hardware, and a part or all of each functional block may be realized by the hardware. For example, the control unit 101 may be implemented by at least one of these hardware.

記憶部102、記憶部202は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。記憶部102、記憶部202は、補助記憶装置と呼ばれてもよい。 The storage unit 102 and the storage unit 202 are computer-readable recording media, and are, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, or an optical magnetic disk (for example, a compact disk or a digital versatile disk). It may consist of at least one such as a disc, a Blu-ray® disc), a smart card, a flash memory (eg, a card, a stick, a key drive), a floppy® disc, a magnetic strip, and the like. The storage unit 102 and the storage unit 202 may be referred to as an auxiliary storage device.

制御部101、制御部201が備えるメモリは、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。 The memory included in the control unit 101 and the control unit 201 is a computer-readable recording medium, and is, for example, a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), or a RAM (Random Access Memory). ) And the like.

通信部105、通信部205は、有線および/または無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。 The communication unit 105 and the communication unit 205 are hardware (transmission / reception devices) for performing communication between computers via a wired and / or wireless network, and are also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like. ..

端末装置10の各部は、情報を通信するためのバスで接続されていてもよい。バスは、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。 Each part of the terminal device 10 may be connected by a bus for communicating information. The bus may consist of a single bus or different buses between the devices.

本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステムおよび/またはこれらに基づいて拡張された次世代システムに適用されてもよい。 Each aspect / embodiment described herein includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA. (Registered Trademarks), GSM (Registered Trademarks), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), It may be applied to Bluetooth®, other systems that utilize suitable systems and / or next-generation systems that are extended based on them.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The order of the processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in the present specification may be changed as long as there is no contradiction. For example, the methods described herein present elements of various steps in an exemplary order, and are not limited to the particular order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by 1 bit (0 or 1), by a boolean value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).

プログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Programs are instructions, instruction sets, codes, code segments, program codes, programs, subprograms, software modules, whether called software, firmware, middleware, microcode, hardware description languages, or other names. , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, features, etc. should be broadly interpreted.

また、プログラム、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペアおよびデジタル加入者回線(DSL)などの有線技術および/または赤外線、無線およびマイクロ波などの無線技術を使用してウェブサイト、サーバ、または他のリモートソースから送信される場合、これらの有線技術および/または無線技術は、伝送媒体の定義内に含まれる。 Further, programs, instructions and the like may be transmitted and received via a transmission medium. For example, the software uses wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to websites, servers, or other When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、またはこれらの任意の組み合わせによって表されてもよい。なお、本明細書で説明した用語および/または本明細書の理解に必要な用語については、同一のまたは類似する意味を有する用語と置き換えてもよい。例えば、信号はメッセージであってもよい。 The information, signals, etc. described herein may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of. The terms described herein and / or the terms necessary for understanding the present specification may be replaced with terms having the same or similar meanings. For example, the signal may be a message.

本明細書で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" as used herein are used interchangeably.

また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであってもよい。上述したパラメータに使用する名称はいかなる点においても限定的なものではない。 Further, the information, parameters, etc. described in the present specification may be represented by an absolute value, a relative value from a predetermined value, or another corresponding information. .. For example, the radio resource may be indexed. The names used for the above parameters are not limited in any way.

端末装置10は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語で呼ばれる場合もある。 The terminal device 10 may be a subscriber station, a mobile unit, a subscriber unit, a wireless unit, a remote unit, a mobile device, a wireless device, a wireless communication device, a remote device, a mobile subscriber station, an access terminal, a mobile terminal, etc. It may also be referred to as a wireless terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable term.

本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)したことを「判断」「決定」したとみなすことなどを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)したことを「判断」「決定」したとみなすことなどを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などしたことを「判断」「決定」したとみなすことを含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなすことを含み得る。 The terms "determining" and "determining" as used herein may include a wide variety of actions. “Judgment” and “decision” are, for example, judgment (judging), calculation (calculating), calculation (computing), processing (processing), derivation (deriving), investigating (investigating), and searching (looking up) (for example, a table). , Searching in a database or another data structure), ascertaining can be considered as a "judgment" or "decision". Also, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. (Accessing) (for example, accessing data in memory) may be regarded as "judgment" or "decision". In addition, "judgment" and "decision" mean that "resolving", "selecting", "choosing", "establishing", "comparing", etc. are regarded as "judgment" and "decision". Can include. That is, "judgment" and "decision" may include considering some action as "judgment" and "decision".

「接続された(connected)」、「結合された(coupled)」という用語、またはこれらのあらゆる変形は、2またはそれ以上の要素間の直接的または間接的なあらゆる接続または結合を意味し、互いに「接続」または「結合」された2つの要素間に1またはそれ以上の中間要素が存在することを含むことができる。要素間の結合または接続は、物理的なものであっても、論理的なものであっても、あるいはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1またはそれ以上の電線、ケーブルおよび/またはプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域および光(可視および不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」または「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or connection between two or more elements, and each other. It can include the presence of one or more intermediate elements between two "connected" or "combined" elements. The connection or connection between the elements may be physical, logical, or a combination thereof. As used herein, the two elements are by using one or more wires, cables and / or printed electrical connections, and, as some non-limiting and non-comprehensive examples, radio frequencies. By using electromagnetic energies such as electromagnetic energies with wavelengths in the region, microwave region and light (both visible and invisible) regions, they can be considered to be "connected" or "coupled" to each other.

本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 The phrase "based on" as used herein does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".

本明細書で使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using designations such as "first", "second" as used herein does not generally limit the quantity or order of those elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Thus, references to the first and second elements do not mean that only two elements can be adopted there, or that the first element must somehow precede the second element.

「含む(including)」、「含んでいる(comprising)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 As long as "inclusion," "comprising," and variations thereof are used herein or in the claims, these terms are as comprehensive as the term "comprising." Intended to be targeted. Furthermore, the term "or" as used herein or in the claims is intended not to be an exclusive OR.

本開示の全体において、例えば、英語でのa, an, およびtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。 Throughout this disclosure, if articles are added by translation, for example, a, an, and the in English, unless the context clearly indicates that these articles are not. It shall include more than one.

本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect / embodiment described in the present specification may be used alone, in combination, or switched with execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit one, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨および範囲を逸脱することなく修正および変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。 Although the present invention has been described in detail above, it is clear to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modifications and modifications without departing from the spirit and scope of the invention as defined by the claims. Therefore, the description of the present specification is for the purpose of exemplification and does not have any limiting meaning to the present invention.

1…通信システム、2…通信網、10、10A、10B…端末装置、20…解析装置、101…制御部、102…記憶部、103…発光部、104…アクチュエータ、105…通信部、107…音声処理部、108…センサ部、201…制御部、202…記憶部、205…通信部、1001…送信部、1002…取得部、1003…動作制御部、1004…検知部、1005…要求部、2001…特定部、2002…提供部。 1 ... Communication system, 2 ... Communication network, 10, 10A, 10B ... Terminal device, 20 ... Analysis device, 101 ... Control unit, 102 ... Storage unit, 103 ... Light emitting unit, 104 ... Actuator, 105 ... Communication unit, 107 ... Voice processing unit, 108 ... sensor unit, 201 ... control unit, 202 ... storage unit, 205 ... communication unit, 1001 ... transmission unit, 1002 ... acquisition unit, 1003 ... motion control unit, 1004 ... detection unit, 1005 ... request unit, 2001 ... Specific department, 2002 ... Providing department.

Claims (5)

なくとも、変形、発光、音の出力のいずれかを行う動作部、センサ、提供される情報に応じて前記動作部を動作させる制御部を備える第1の端末装置の前記センサの出力に基づいて、前記第1の端末装置の周囲にいるユーザを特定する特定部と、
前記特定部が特定したユーザに応じた情報を、前記動作部、センサ、及び前記制御部を備える第2の端末装置へ提供する提供部であって、前記第1の端末装置の前記センサの出力と前記第2の端末装置の前記センサの出力とを比較し、当該第1の端末装置の前記センサの出力と当該第2の端末装置の前記センサの出力とが予め定められた範囲にある場合には、当該第1の端末装置及び当該第2の端末装置において同じ動作を行うための制御情報を、当該第1の端末装置及び当該第2の端末装置に提供する提供部と
を備える解析装置。
Even without low, based deformation, the light emitting operation unit which performs one of the outputs of the sound sensor, the output of the sensor of the first terminal device comprising a control unit for operating the operation unit in accordance with the information provided The specific unit that identifies the user around the first terminal device, and
A provider that provides information according to a user specified by the specific unit to a second terminal device including the operation unit, a sensor, and the control unit, and is an output of the sensor of the first terminal device. And the output of the sensor of the second terminal device are compared, and the output of the sensor of the first terminal device and the output of the sensor of the second terminal device are within a predetermined range. Is an analysis device including a providing unit that provides control information for performing the same operation in the first terminal device and the second terminal device to the first terminal device and the second terminal device. ..
なくとも、変形、発光、音の出力のいずれかを行う動作部と、
センサと、
提供される情報に応じて前記動作部を動作させる制御部と、
前記センサの出力に基づいて、自装置の周囲にいるユーザを特定する特定部と、
前記特定部が特定したユーザに応じた情報を通信先の端末装置へ提供する提供部
とを備え、
前記センサは、周囲の音を検知し、
前記制御部は、前記センサがテレビ又はラジオの音を検知した場合、前記動作部の動作を停止させる端末装置。
Even without small, deformation, emission, and operation unit for performing one of the outputs of the sound,
With the sensor
A control unit that operates the operation unit according to the provided information,
Based on the output of the sensor, a specific part that identifies the user around the own device and
It is provided with a providing unit that provides information according to the user specified by the specific unit to the terminal device of the communication destination.
The sensor detects ambient sound and
The control unit is a terminal device that stops the operation of the operation unit when the sensor detects the sound of a television or radio.
なくとも、変形、発光、音の出力のいずれかを行う動作部、センサ、提供される情報に応じて前記動作部を動作させる制御部、前記センサの出力に基づいて、自装置の周囲にいるユーザを特定する特定部、及び、前記特定部が特定したユーザに応じた情報を通信先の端末装置へ提供する提供部を備える第1の端末装置の前記センサの出力と、前記動作部、センサ、前記制御部、前記特定部、及び、前記提供部を備える第2の端末装置の前記センサの出力とを比較し、
当該第1の端末装置の前記センサの出力と当該第2の端末装置の前記センサの出力とが予め定められた範囲にある場合には、当該第1の端末装置及び当該第2の端末装置において同じ動作を行う
通信システム。
Even without small, deformation, emission, operation unit which performs one of the outputs of the sound sensor, the control unit for operating the operation unit in accordance with the information provided on the basis of the output of the sensor, the periphery of its own device The output of the sensor of the first terminal device including the specific unit that identifies the user and the providing unit that provides the information corresponding to the user specified by the specific unit to the terminal device of the communication destination, and the operation unit. The output of the sensor of the sensor, the control unit, the specific unit, and the second terminal device including the providing unit is compared with the output of the sensor.
When the output of the sensor of the first terminal device and the output of the sensor of the second terminal device are within a predetermined range, the first terminal device and the second terminal device A communication system that performs the same operation.
ンピュータを、
少なくとも、変形、発光、音の出力のいずれかを行う動作部、センサ、提供される情報に応じて前記動作部を動作させる制御部を備える第1の端末装置の前記センサの出力に基づいて、前記第1の端末装置の周囲にいるユーザを特定する特定部と、
前記特定部が特定したユーザに応じた情報を、前記動作部、センサ、及び前記制御部を備える第2の端末装置へ提供する提供部であって、前記第1の端末装置の前記センサの出力と前記第2の端末装置の前記センサの出力とを比較し、当該第1の端末装置の前記センサの出力と当該第2の端末装置の前記センサの出力とが予め定められた範囲にある場合には、当該第1の端末装置及び当該第2の端末装置において同じ動作を行うための制御情報を、当該第1の端末装置及び当該第2の端末装置に提供する提供部と
として機能させるためのプログラム。
The computer,
Based on at least the output of the sensor of the first terminal device comprising a motion unit that performs any of deformation, light emission, and sound output, a sensor, and a control unit that operates the motion unit according to the provided information. A specific unit that identifies a user around the first terminal device, and
A provider that provides information according to a user specified by the specific unit to a second terminal device including the operation unit, a sensor, and the control unit, and is an output of the sensor of the first terminal device. And the output of the sensor of the second terminal device are compared, and the output of the sensor of the first terminal device and the output of the sensor of the second terminal device are within a predetermined range. In order to function as a providing unit that provides the first terminal device and the second terminal device with control information for performing the same operation in the first terminal device and the second terminal device. Program.
ンサを備えるコンピュータを、
少なくとも、変形、発光、音の出力のいずれかを行う動作部と、
提供される情報に応じて前記動作部を動作させる制御部と、
前記センサの出力に基づいて、自装置の周囲にいるユーザを特定する特定部と、
前記特定部が特定したユーザに応じた情報を通信先の端末装置へ提供する提供部
として機能させ、
前記センサは、周囲の音を検知し、
前記制御部は、前記センサがテレビ又はラジオの音を検知した場合、前記動作部の動作を停止させるプログラム。
A computer equipped with a sensor,
At least a moving part that transforms, emits light, or outputs sound,
A control unit that operates the operation unit according to the provided information,
Based on the output of the sensor, a specific part that identifies the user around the own device and
It functions as a providing unit that provides information according to the user specified by the specific unit to the terminal device of the communication destination.
The sensor detects ambient sound and
The control unit is a program that stops the operation of the operation unit when the sensor detects the sound of a television or radio.
JP2017025095A 2017-02-14 2017-02-14 Terminal equipment, programs, communication systems and analyzers Active JP6840560B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017025095A JP6840560B2 (en) 2017-02-14 2017-02-14 Terminal equipment, programs, communication systems and analyzers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017025095A JP6840560B2 (en) 2017-02-14 2017-02-14 Terminal equipment, programs, communication systems and analyzers

Publications (2)

Publication Number Publication Date
JP2018133661A JP2018133661A (en) 2018-08-23
JP6840560B2 true JP6840560B2 (en) 2021-03-10

Family

ID=63249019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017025095A Active JP6840560B2 (en) 2017-02-14 2017-02-14 Terminal equipment, programs, communication systems and analyzers

Country Status (1)

Country Link
JP (1) JP6840560B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389978B (en) * 2018-11-05 2020-11-03 珠海格力电器股份有限公司 Voice recognition method and device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287731A (en) * 1998-06-30 2008-11-27 Masanobu Kujirada Device for supporting encounter, contact or communication
JP2002314707A (en) * 2001-04-18 2002-10-25 Nippon Telegr & Teleph Corp <Ntt> Communication terminal, communication method and communication system for conveying sense of connection
JP3868236B2 (en) * 2001-04-18 2007-01-17 日本電信電話株式会社 Attendance information transmission device and presence information transmission method
JP2006262411A (en) * 2005-03-18 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> Audio/video communication system
JP2007272906A (en) * 2006-09-10 2007-10-18 Columbus No Tamagotachi:Kk Device for acquiring/transmitting/outputting presence information

Also Published As

Publication number Publication date
JP2018133661A (en) 2018-08-23

Similar Documents

Publication Publication Date Title
EP3082327B1 (en) Method for controlling sound output and an electronic device thereof
US10044708B2 (en) Method and apparatus for controlling authentication state of electronic device
US10250327B2 (en) Illumination system and control method thereof
US9602969B2 (en) Method and electronic device for recognizing area
US10380417B2 (en) Method and apparatus for recognizing iris
US10003944B2 (en) Electronic device and method for providing emergency video call service
US10756980B2 (en) Electronic device including light emitting device and operating method thereof
KR102390979B1 (en) Electronic Device Capable of controlling IoT device to corresponding to the state of External Electronic Device and Electronic Device Operating Method
KR102207233B1 (en) Electronic Device Controlling Radiation Power and Method for the Same
KR102135579B1 (en) Apparatus and method for network connection
US9900921B2 (en) Communication control method, electronic device, and storage medium
US20210192924A1 (en) Sensing device for sensing open-or-closed state of door and method for controlling the same
US20170230472A1 (en) Server apparatus and transmission system
KR20160003450A (en) Method and apparatus for sharing data of electronic device
KR20160014357A (en) Electronic device and method for transceiving data
US20150379322A1 (en) Method and apparatus for communication using fingerprint input
US20180205568A1 (en) Method and device for searching for and controlling controllees in smart home system
KR102236203B1 (en) Method for providing service and an electronic device thereof
KR102200825B1 (en) Method for delivering a policy information in order to offload between different radio communication systems and electronic device implementing the same
JP6840560B2 (en) Terminal equipment, programs, communication systems and analyzers
KR102131626B1 (en) Media data synchronization method and device
EP3342180B1 (en) Method of detecting external devices and electronic device for processing same
US9804814B2 (en) Electronic device and method of interconnecting the same
EP3296848A1 (en) Electronic device and method for providing graphic user interface therefor
US20150280933A1 (en) Electronic device and connection method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210217

R150 Certificate of patent or registration of utility model

Ref document number: 6840560

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250