JP6840560B2 - Terminal equipment, programs, communication systems and analyzers - Google Patents
Terminal equipment, programs, communication systems and analyzers Download PDFInfo
- Publication number
- JP6840560B2 JP6840560B2 JP2017025095A JP2017025095A JP6840560B2 JP 6840560 B2 JP6840560 B2 JP 6840560B2 JP 2017025095 A JP2017025095 A JP 2017025095A JP 2017025095 A JP2017025095 A JP 2017025095A JP 6840560 B2 JP6840560 B2 JP 6840560B2
- Authority
- JP
- Japan
- Prior art keywords
- terminal device
- unit
- sensor
- user
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 title claims description 119
- 238000004458 analytical method Methods 0.000 claims description 73
- 230000006870 function Effects 0.000 claims description 16
- 230000033001 locomotion Effects 0.000 claims description 12
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000000034 method Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 229910001285 shape-memory alloy Inorganic materials 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
Description
本発明は、端末装置、プログラム、通信システムおよび解析装置に関する。 The present invention relates to terminal devices, programs, communication systems and analysis devices.
特許文献1(特開2002−31470号公報)には、通信端末同士が通信を行い、ユーザの移動やユーザの通信端末への接触に応じて、通信相手の通信端末がLEDの発光や、光ファイバの駆動を行う通信システムが開示されている。このシステムによれば、通信相手の状況を間接的に知ることができ、通信相手とのつながりを実感できる。 In Patent Document 1 (Japanese Unexamined Patent Publication No. 2002-31470), communication terminals communicate with each other, and the communication terminal of the communication partner emits an LED or emits light in response to the movement of the user or the contact with the communication terminal of the user. A communication system that drives a fiber is disclosed. According to this system, the situation of the communication partner can be indirectly known, and the connection with the communication partner can be realized.
通信端末が設置された場所に複数人が住んでいる場合、通信端末は、近くを移動した者や接触した者を検知する。しかしながら、特許文献1のシステムでは、複数人のうちの誰が通信端末の近くを移動し、誰が通信端末に触れたのかを知ることができず、どのような相手とつながっているのかを実感することができない。
When a plurality of people live in the place where the communication terminal is installed, the communication terminal detects a person who has moved nearby or a person who has come into contact with the communication terminal. However, in the system of
本発明は、どのような相手とつながっているかを知ることができる技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of knowing what kind of partner is connected.
本発明は、少なくとも、変形、発光、音の出力のいずれかを行う動作部、センサ、提供される情報に応じて前記動作部を動作させる制御部を備える第1の端末装置の前記センサの出力に基づいて、前記第1の端末装置の周囲にいるユーザを特定する特定部と、前記特定部が特定したユーザに応じた情報を、前記動作部、センサ、及び前記制御部を備える第2の端末装置へ提供する提供部であって、前記第1の端末装置の前記センサの出力と前記第2の端末装置の前記センサの出力とを比較し、当該第1の端末装置の前記センサの出力と当該第2の端末装置の前記センサの出力とが予め定められた範囲にある場合には、当該第1の端末装置及び当該第2の端末装置において同じ動作を行うための制御情報を、当該第1の端末装置及び当該第2の端末装置に提供する提供部とを備える解析装置を提供する。 The present invention is the output of the sensor of a first terminal device comprising at least an operating unit that performs any of deformation, light emission, and sound output, a sensor, and a control unit that operates the operating unit according to provided information. A second unit including the operation unit, the sensor, and the control unit, which provides information according to the user specified by the specific unit and the specific unit that identifies the user around the first terminal device. A provider that provides to the terminal device, which compares the output of the sensor of the first terminal device with the output of the sensor of the second terminal device, and compares the output of the sensor of the first terminal device. And when the output of the sensor of the second terminal device is within a predetermined range, the control information for performing the same operation in the first terminal device and the second terminal device is provided. Provided is an analysis device including a first terminal device and a providing unit provided to the second terminal device .
本発明は、少なくとも、変形、発光、音の出力のいずれかを行う動作部と、センサと、提供される情報に応じて前記動作部を動作させる制御部と、前記センサの出力に基づいて、自装置の周囲にいるユーザを特定する特定部と、前記特定部が特定したユーザに応じた情報を通信先の端末装置へ提供する提供部とを備え、前記センサは、周囲の音を検知し、前記制御部は、前記センサがテレビ又はラジオの音を検知した場合、前記動作部の動作を停止させる端末装置を提供する。 The present invention is based on at least an operating unit that performs any of deformation, light emission, and sound output, a sensor, a control unit that operates the operating unit according to provided information, and an output of the sensor. The sensor includes a specific unit that identifies a user around the own device and a providing unit that provides information according to the user specified by the specific unit to the terminal device of the communication destination, and the sensor detects the surrounding sound. The control unit provides a terminal device that stops the operation of the operation unit when the sensor detects the sound of a television or a radio.
本発明は、少なくとも、変形、発光、音の出力のいずれかを行う動作部、センサ、提供される情報に応じて前記動作部を動作させる制御部、前記センサの出力に基づいて、自装置の周囲にいるユーザを特定する特定部、及び、前記特定部が特定したユーザに応じた情報を通信先の端末装置へ提供する提供部を備える第1の端末装置の前記センサの出力と、前記動作部、センサ、前記制御部、前記特定部、及び、前記提供部を備える第2の端末装置の前記センサの出力とを比較し、当該第1の端末装置の前記センサの出力と当該第2の端末装置の前記センサの出力とが予め定められた範囲にある場合には、当該第1の端末装置及び当該第2の端末装置において同じ動作を行う通信システムを提供する。The present invention is based on at least an operation unit that performs any of deformation, light emission, and sound output, a sensor, a control unit that operates the operation unit according to provided information, and an output of the sensor. The output of the sensor of the first terminal device including a specific unit that identifies a user in the vicinity and a providing unit that provides information according to the user specified by the specific unit to the terminal device of the communication destination, and the operation. The output of the sensor of the second terminal device including the unit, the sensor, the control unit, the specific unit, and the providing unit is compared, and the output of the sensor of the first terminal device is compared with the output of the second terminal device. When the output of the sensor of the terminal device is within a predetermined range, a communication system that performs the same operation in the first terminal device and the second terminal device is provided.
本発明は、コンピュータを、少なくとも、変形、発光、音の出力のいずれかを行う動作部、センサ、提供される情報に応じて前記動作部を動作させる制御部を備える第1の端末装置の前記センサの出力に基づいて、前記第1の端末装置の周囲にいるユーザを特定する特定部と、前記特定部が特定したユーザに応じた情報を、前記動作部、センサ、及び前記制御部を備える第2の端末装置へ提供する提供部であって、前記第1の端末装置の前記センサの出力と前記第2の端末装置の前記センサの出力とを比較し、当該第1の端末装置の前記センサの出力と当該第2の端末装置の前記センサの出力とが予め定められた範囲にある場合には、当該第1の端末装置及び当該第2の端末装置において同じ動作を行うための制御情報を、当該第1の端末装置及び当該第2の端末装置に提供する提供部ととして機能させるためのプログラムを提供する。The present invention relates to the first terminal device comprising a computer at least an operating unit that deforms, emits light, or outputs sound, a sensor, and a control unit that operates the operating unit in response to provided information. The operation unit, the sensor, and the control unit are provided with a specific unit that identifies a user around the first terminal device based on the output of the sensor, and information according to the user specified by the specific unit. It is a providing unit that provides to the second terminal device, compares the output of the sensor of the first terminal device with the output of the sensor of the second terminal device, and compares the output of the sensor of the first terminal device with the output of the first terminal device. When the output of the sensor and the output of the sensor of the second terminal device are within a predetermined range, control information for performing the same operation in the first terminal device and the second terminal device. To provide a program for functioning as a providing unit provided to the first terminal device and the second terminal device.
本発明は、センサを備えるコンピュータを、少なくとも、変形、発光、音の出力のいずれかを行う動作部と、提供される情報に応じて前記動作部を動作させる制御部と、前記センサの出力に基づいて、自装置の周囲にいるユーザを特定する特定部と、前記特定部が特定したユーザに応じた情報を通信先の端末装置へ提供する提供部として機能させ、前記センサは、周囲の音を検知し、前記制御部は、前記センサがテレビ又はラジオの音を検知した場合、前記動作部の動作を停止させるプログラムを提供する。The present invention uses a computer including a sensor as an operation unit that at least deforms, emits light, or outputs sound, a control unit that operates the operation unit according to provided information, and an output of the sensor. Based on this, the sensor functions as a specific unit that identifies a user around the own device and a provider that provides information according to the user specified by the specific unit to the terminal device of the communication destination, and the sensor uses the ambient sound. The control unit provides a program for stopping the operation of the operation unit when the sensor detects the sound of a television or radio.
本発明によれば、どのような相手とつながっているかを知ることができる。 According to the present invention, it is possible to know what kind of partner is connected.
[全体構成]
図1は、本発明の一実施形態に係る通信システム1に含まれる装置を示した図である。通信網2は、インターネットや固定電話網、音声通信やデータ通信などの通信サービスを提供する移動体通信網などを含む。通信網2には、端末装置10A、10Bが有線または無線によって接続される。
[overall structure]
FIG. 1 is a diagram showing an apparatus included in the
端末装置10A、10Bは、中空な5角柱の形状をした通信端末である。端末装置10Aと端末装置10Bは、離れた場所にいるユーザ同士がコミュニケーションをとるときに使用される。例えば、端末装置10Aは、単身赴任の夫が住む家に配置され、端末装置10Bは、端末装置10Aのユーザの妻と子供が住む家に配置される。
The
端末装置10Aと端末装置10Bは、同じ構成であるため、以下、各々を区別する必要がない場合は、端末装置10と称する。通信網2に接続される端末装置10の数は、図1に示した数に限定されるものではなく、図1に示した数以上の装置を接続することもできる。端末装置10の筐体は、例えば白色のシリコンなどの変形可能な素材となっている。端末装置10は、筐体を変形させるアクチュエータを筐体内部に備えており、アクチュエータの変形に応じて変形する。なお、端末装置10は、図示した形状に限定されるものではなく、他の形状であってもよい。端末装置10Aと端末装置10Bは、通信網2を介して通信を行い、音声通信やデータ通信を行う。また、端末装置10は、通信網2を介して解析装置20と通信を行う。
Since the
解析装置20は、端末装置10の周囲にいるユーザを特定する機能を有する装置である。解析装置20は、互いに通信を行う端末装置10Aと端末装置10Bの一方から送られる情報を解析し、端末装置10の周囲にいるユーザを特定する。解析装置20は、特定したユーザを表す情報を他方の端末装置10へ送信する。
The
(端末装置10の構成)
図2は、端末装置10のハードウェア構成の一例を示した図である。なお、端末装置10A、10Bのハードウェア構成は同じであるが、以下、端末装置10A、10Bの各部を区別する必要がある場合、説明の便宜上、端末装置10A、10Bの符号の末尾のアルファベットを各部の符号の末尾に付加して説明を行い、各部を区別する必要がない場合、符号の末尾へのアルファベットの付加を省略して説明を行う。例えば、端末装置10Aの各部を端末装置10Bの各部と区別する場合、端末装置10Aの各部の符号の末尾には「A」を付ける。
(Configuration of terminal device 10)
FIG. 2 is a diagram showing an example of the hardware configuration of the
通信部105は、無線または有線で通信網2に接続され、通信網2を介して通信を行う通信インターフェースとして機能する。通信部105は、通信網2を介して音声通信やデータ通信を行う。また、通信部105は、Bluetooth(登録商標)や無線LANの通信などの近距離無線通信機能を有する。
The
発光部103は、LED(Light Emitting Diode)を有しており、制御部101からの信号に応じて点灯する。発光部103は、筐体内部に設けられている。アクチュエータ104は、通電により変形する形状記憶合金を有する。アクチュエータ104は、端末装置10の筐体内部に設けられており、制御部101からの通電に応じて変形する。アクチュエータ104が変形することにより、端末装置10の筐体が変形する。
The
音声処理部107は、マイクロフォンとスピーカを有している。音声処理部107は、端末装置10が音声通話を行う場合、通話相手の音声に係るデジタル信号が通信部105から供給されると、供給されたデジタル信号をアナログ信号に変換する。このアナログ信号は、スピーカへ供給され、スピーカからは、通話相手の音声が出力される。また、音声処理部107は、マイクロフォンに入力された音声をデジタル信号に変換し、このデジタル信号を通信部105へ供給する。このデジタル信号は、通信部105から通信網2へ送信され、通話相手の端末装置10へ送信される。発光部103、アクチュエータ104、音声処理部107の各々は、本発明に係る動作部の一例である。
The
センサ部108は、各種センサを備える。本実施形態においては、センサ部108は、音センサ、振動センサ、温度センサ、照度センサおよび人感センサを有する。音センサは、音や音声を検知し、検知した音や音声を表す信号を制御部101へ出力する。振動センサは、端末装置10の振動を検知し、検知した振動を表す信号を制御部101へ出力する。人感センサは、人間の存在を検知する。人感センサは、人間を検知すると、人間を検知したことを表す信号を制御部101へ出力する。温度センサは、端末装置10の周囲の温度を検知し、検知した温度を表す信号を制御部101へ出力する。照度センサは、端末装置10の周囲の照度を検知し、検知した照度を表す信号を制御部101へ出力する。
The
記憶部102は、不揮発性メモリを有しており、制御部101が実行するプログラムを記憶している。また、記憶部102は、発光部103およびアクチュエータ104を制御するための制御情報を記憶する。制御情報は、通信相手となる端末装置10のユーザに対応付けて記憶する。例えば、記憶部102Aは、端末装置10Bのユーザとなる妻を表すユーザ識別子に対応付けて第1の制御情報を記憶し、端末装置10Bのユーザとなる子供を表すユーザ識別子に対応付けて第2の制御情報を記憶する。また、記憶部102Aは、妻を表すユーザ識別子と子供を表すユーザ識別子の組に対応付けて第3の制御情報を記憶する。
The
第1の制御情報は、アクチュエータ104を第1の周期で所定期間伸縮させ、発光部103をピンク色で第1の周期で点滅させることを表す情報である。第2の制御情報は、アクチュエータ104を第1の周期とは異なる第2の周期で所定期間伸縮させ、発光部103をオレンジ色で第2の周期で点滅させることを表す情報である。第3の制御情報は、アクチュエータ104を第1の周期および第2の周期とは異なる第3の周期で所定期間伸縮させ、発光部103を緑色で第3の周期で点滅させることを表す情報である。
The first control information is information indicating that the
記憶部102Bは、端末装置10Aのユーザとなる夫を表すユーザ識別子に対応付けて第4の制御情報を記憶する。第4の制御情報は、アクチュエータ104を第4の周期で所定期間伸縮させ、発光部103を青色で第4の周期で点滅させることを表す情報である。なお、第1の制御情報から第4の制御情報は、予め定められた周期だけでなく、予め定められた特定のパターンまたはリズムでアクチュエータの伸縮および発光部103の点滅を制御する情報であってもよい。
The storage unit 102B stores the fourth control information in association with the user identifier representing the husband who is the user of the
また、記憶部102は、通信相手となる端末装置10の装置識別子を記憶する。本実施形態の場合、端末装置10Aと端末装置10Bが通信を行うため、記憶部102Aは、通信相手となる装置の装置識別子として端末装置10Bの装置識別子を記憶し、記憶部102Bは、通信相手となる装置の装置識別子として端末装置10Bの装置識別子を記憶する。
Further, the
制御部101は、CPU(Central Processing Unit)、RAM(Random Access Memory)およびメモリを有している。端末装置10において実現する機能は、CPU、RAMなどのハードウェア上に、記憶部102に記憶されているプログラム(ソフトウェア)を読み込ませることで、CPUが演算を行い、通信部105による通信や、RAMおよび記憶部102におけるデータの読み出しおよび/または書き込みを制御することで実現される。
The
図3は、制御部101が記憶部102に記憶されているプログラムを実行することにより実現する機能のうち、本発明に係る機能の構成を示した機能ブロック図である。取得部1002は、解析装置20または他の端末装置10から送信される情報を取得する。検知部1004は、他の端末装置10から送信されたメッセージを取得し、取得したメッセージに応じて周囲の状態をセンサで検知する。取得部1002は、本発明に係る検知部の一例である。要求部1005は、ユーザの予め定められた操作を前記センサの検知結果に基づいて特定した場合、周囲の状態を要求するメッセージを、送信部1001を介して送信する。要求部1005は、本発明に係る要求部の一例である。送信部1001は、センサ部108が出力した信号や、センサ部108が出力した信号に基づいて生成された情報を解析装置20または他の端末装置10へ送信する。また、送信部1001は、検知部1004が特定した状態を表す情報を、他の端末装置10へ送信する。また、送信部1001は、要求部1005から供給されるメッセージを他の端末装置10へ送信する。動作制御部1003は、取得部1002が取得した情報に基づいて、発光部103、アクチュエータ104を制御する。また、動作制御部1003は、取得部1002が取得した情報に基づいて記憶部102から制御情報を取得し、取得した制御情報に基づいて発光部103、アクチュエータ104を制御する。
FIG. 3 is a functional block diagram showing a configuration of a function according to the present invention among the functions realized by the
(解析装置20の構成)
図4は、解析装置20のハードウェア構成を示した図である。通信部205は、有線または無線で通信網2に接続されており、通信網2を介してデータ通信を行う通信インターフェースとして機能する。通信部205は、通信網2を介して端末装置10と通信を行う。
(Structure of analysis device 20)
FIG. 4 is a diagram showing a hardware configuration of the
記憶部202は、ハードディスク装置を有しており、オペレーティングシステムのプログラムや、アプリケーションプログラムなどを記憶している。本実施形態においては、記憶部202は、互いに通信を行う一方の端末装置10から送られるデータ、情報、信号を解析して端末装置10の周囲にいるユーザを特定する機能や、特定したユーザを表すデータを他方の端末装置10へ送信する機能などを実現するアプリケーションプログラムを記憶している。
The
また、記憶部202は、端末装置10を識別する装置識別子、端末装置10の予め定められたユーザを識別するユーザ識別子、端末装置10の予め定められたユーザの声紋を表す声紋データを対応付けて記憶する。具体的には、記憶部202は、端末装置10Aの装置識別子、端末装置10Aのユーザである夫を識別するユーザ識別子および端末装置10Aのユーザである夫の声紋データを対応付けて記憶する。また、記憶部202は、端末装置10Bの装置識別子、端末装置10Bのユーザである妻のユーザ識別子および妻の声紋データと対応付けて記憶し、端末装置10Bの装置識別子、端末装置10Bのユーザである子供のユーザ識別子および子供の声紋データと対応付けて記憶する。
Further, the
また、記憶部202は、互いに通信を行う端末装置10の装置識別子を対応付けて記憶する。本実施形態の場合、端末装置10Aと端末装置10Bが通信を行うため、記憶部202には、端末装置10Aの装置識別子と端末装置10Bの装置識別子が対応付けて記憶される。
Further, the
制御部201は、CPU、ブートローダを記憶したROMおよびRAMを有している。CPUが記憶部202に記憶されているオペレーティングシステムのプログラムを実行すると、アプリケーションプログラムを実行することが可能となる。CPUがアプリケーションプログラムを実行すると、解析装置20は、互いに通信を行う一方の端末装置10から送られる情報を解析して端末装置10の周囲にいるユーザを特定し、特定したユーザを表すデータを他方の端末装置10へ送信する。
The
図5は、解析装置20において実現する機能のうち、本発明に係る機能の構成を示したブロック図である。特定部2001は、端末装置10から送られる情報を取得し、取得した情報に基づいて、送られた情報を送信した端末装置10の周囲にいるユーザを特定する。ユーザを特定するとは、個人を特定することだけでなく、人数、性別、属性を特定することも含む。提供部2002は、特定部2001が特定したユーザに応じた情報を、端末装置10へ提供する。
FIG. 5 is a block diagram showing the configuration of the functions according to the present invention among the functions realized by the
(動作例)
次に本実施形態の動作例について説明する。妻が端末装置10Bに近づくと、センサ部108Bの人感センサは人間を検知したことを表す信号を制御部101Bへ出力する。制御部101Bは、人感センサから出力された信号を取得すると、端末装置10Bの装置識別子と、端末装置10Bの周囲にユーザがいることを表す情報を、通信部105Bを制御して端末装置10Aへ送信する(図6:ステップS1)。
(Operation example)
Next, an operation example of this embodiment will be described. When the wife approaches the
通信部105Aは、ステップS1で端末装置10Bから送信された情報を取得する。制御部101Aは、装置識別子と、端末装置10Bの周囲にユーザがいることを表す情報を取得すると、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子であるか判定する(ステップS2)。具体的には、制御部101Aは、記憶部102Aにおいて通信相手の装置識別子として記憶されている装置識別子と、取得した装置識別子を比較する。制御部101Aは、記憶部102Aにおいて通信相手の装置識別子として記憶されている装置識別子と、取得した装置識別子が一致した場合、発光部103Aを制御する(ステップS3)。ここで制御部101Aは、例えば、発光部103Aの白色のLEDを点灯させる。これにより、端末装置10Aの筐体は白色で発光し、端末装置10Aのユーザは、端末装置10Bの近くに妻または子供がいることがわかる。
The communication unit 105A acquires the information transmitted from the
次に妻の声をセンサ部108Bの音センサが検知すると(ステップS4)、音センサは、検知した声を表す信号を制御部101Bへ出力する。制御部101Bは、音センサから出力された信号を取得すると、取得した情報をデジタル化した音声情報を生成する。制御部101Bは、端末装置10Bの装置識別子と、生成した音声情報を解析装置20へ送信する(ステップS5)。
Next, when the sound sensor of the sensor unit 108B detects the voice of the wife (step S4), the sound sensor outputs a signal representing the detected voice to the control unit 101B. When the control unit 101B acquires the signal output from the sound sensor, the control unit 101B generates voice information obtained by digitizing the acquired information. The control unit 101B transmits the device identifier of the
通信部205は、ステップS5で端末装置10Bから送信された装置識別子と音声情報を取得する。制御部201は、通信部205が取得した装置識別子に対応付けて記憶されている声紋データを取得する。通信部205が取得した端末装置10Bの装置識別子には、端末装置10Bのユーザである妻の声紋データと子供の声紋データが対応付けられているため、制御部201は、妻の声紋データと子供の声紋データを記憶部202から取得する(ステップS6)。
The
次に制御部201は、取得した音声情報に対応するユーザを特定する(ステップS7)。具体的には、制御部201は、通信部205が取得した音声情報が表す音声の声紋を解析し、解析で得られた声紋と、記憶部202から取得した声紋データとを比較する。ここで解析により得られる声紋は、妻の声紋であり、解析により得られた声紋は、妻の声紋データが表す声紋と一致するため、制御部201は、取得した音声情報に対応するユーザ、即ち、端末装置10Bの周囲にいるユーザ(端末装置10Aのユーザの通信相手)は妻であると特定する。次に制御部201は、解析により得られた声紋と一致した声紋データに対応付けて記憶されている妻のユーザ識別子を記憶部202から取得する。
Next, the
制御部201は、通信部205が取得した装置識別子と、記憶部202から取得した妻のユーザ識別子の組を、通信部205を制御して送信する(ステップS8)。ここで、制御部201は、記憶部202においては、通信部205が取得した端末装置10Bの装置識別子に対応付けて端末装置10Aの装置識別子が記憶されているため、装置識別子およびユーザ識別子の送信先を端末装置10Aとする。
The
通信部105Aは、ステップS8で解析装置20から送信された装置識別子およびユーザ識別子を取得する。制御部101Aは、ステップS2と同様に、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子であるか判定する(ステップS9)。
The communication unit 105A acquires the device identifier and the user identifier transmitted from the
取得した端末装置10Bの装置識別子は、記憶部102Aに記憶されているため、制御部101Aは、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子であると判定する。制御部101Aは、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子である場合、取得したユーザ識別子に対応付けて記憶されている制御情報を記憶部102Aから取得する(ステップS10)。ここで取得したユーザ識別子は妻のユーザ識別子であるため、制御部101Aは、記憶部102Aにおいて妻のユーザ識別子に対応付けて記憶されている第1の制御情報を取得する。
Since the acquired device identifier of the
制御部101Aは、第1の制御情報を取得すると、第1の制御情報に基づいて発光部103Aとアクチュエータ104Aを制御する(ステップS11)。ここで、制御部101Aは、第1の周期でピンク色に点滅するように発光部103Aを制御し、第1の周期で伸縮するようにアクチュエータ104Aを制御する。アクチュエータ104Aが第1の周期で伸縮するため、端末装置10Aの筐体が第1の周期で伸縮する。端末装置10Aのユーザである夫は、端末装置10Aが第1の周期でピンク色に点滅し、第1の周期で伸縮することにより、端末装置10Bの近くに妻がいることがわかる。
When the control unit 101A acquires the first control information, the control unit 101A controls the light emitting unit 103A and the actuator 104A based on the first control information (step S11). Here, the control unit 101A controls the light emitting unit 103A so as to blink pink in the first cycle, and controls the actuator 104A so as to expand and contract in the first cycle. Since the actuator 104A expands and contracts in the first cycle, the housing of the
次に、妻と子供が端末装置10Bの近くで会話をしたときの動作例について説明する。妻と子供が会話を行うと、妻の声と子供の声をセンサ部108Bの音センサが検知する(ステップS21)。音センサは、検知した音声を表す信号を制御部101Bへ出力する。制御部101Bは、音センサから出力された信号を取得すると、妻の声の音声情報と子供の声の音声情報を生成する。制御部101Bは、端末装置10Bの装置識別子と、生成した音声情報を解析装置20へ送信する(ステップS22)。
Next, an operation example when the wife and the child have a conversation near the
通信部205は、ステップS22で端末装置10Bから送信された装置識別子と音声情報を取得する。制御部201は、通信部205が取得した装置識別子に対応付けて記憶されている声紋データを取得する。通信部205が取得した端末装置10Bの装置識別子には、端末装置10Bのユーザである妻の声紋データと子供の声紋データが対応付けられているため、制御部201は、妻の声紋データと子供の声紋データを記憶部202から取得する(ステップS23)。
The
次に制御部201は、取得した音声情報に対応するユーザを特定する(ステップS24)。ここで制御部201は、通信部205が取得した音声情報が表す音声の声紋を解析し、解析で得られた声紋と、記憶部202から取得した声紋データとを比較する。ここで解析により得られる声紋は、妻の声紋と子供の声紋であり、解析により得られた妻の声紋は、妻の声紋データが表す声紋と一致し、解析により得られた子供の声紋は、子供の声紋データが表す声紋と一致するため、制御部201は、取得した音声情報に対応するユーザ、即ち、端末装置10Bの周囲にいるユーザ(端末装置10Aのユーザの通信相手)は、妻と子供であると特定する。次に制御部201は、解析により得られた声紋と一致した声紋データに対応付けて記憶されている妻のユーザ識別子と子供のユーザ識別子を記憶部202から取得する。
Next, the
制御部201は、通信部205が取得した装置識別子、記憶部202から取得した妻のユーザ識別子および記憶部202から取得した子供のユーザ識別子を、通信部205を制御して送信する(ステップS25)。ここで、記憶部202においては、通信部205が取得した端末装置10Bの装置識別子に対応付けて端末装置10Aの装置識別子が記憶されているため、制御部201は、装置識別子およびユーザ識別子の送信先を端末装置10Aとする。
The
通信部105Aは、ステップS25で解析装置20から送信された装置識別子およびユーザ識別子を取得する。制御部101Aは、ステップS2と同様に、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子であるか判定する(ステップS26)。
The communication unit 105A acquires the device identifier and the user identifier transmitted from the
取得した端末装置10Bの装置識別子は、記憶部102Aに記憶されているため、制御部101Aは、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子であると判定する。制御部101Aは、取得した装置識別子が予め定められた通信相手の端末装置10の装置識別子である場合、取得したユーザ識別子に対応付けて記憶されている制御情報を記憶部102Aから取得する(ステップS27)。ここで取得したユーザ識別子は、妻のユーザ識別子と子供のユーザ識別子の組であるため、制御部101Aは、記憶部102Aにおいて妻のユーザ識別子と子供のユーザ識別子の組に対応付けて記憶されている第3の制御情報を取得する。
Since the acquired device identifier of the
制御部101Aは、第3の制御情報を取得すると、第3の制御情報に基づいて発光部103Aとアクチュエータ104Aを制御する(ステップS28)。ここで、制御部101Aは、第3の周期で緑色に点滅するように発光部103Aを制御し、第3の周期で伸縮するようにアクチュエータ104Aを制御する。アクチュエータ104Aが第3の周期で伸縮するため、端末装置10Aの筐体が第3の周期で伸縮する。端末装置10Aのユーザである夫は、端末装置10Aが第3の周期で緑色に点滅し、第3の周期で伸縮することにより、端末装置10Bの近くに妻と子供がいることがわかる。
When the control unit 101A acquires the third control information, the control unit 101A controls the light emitting unit 103A and the actuator 104A based on the third control information (step S28). Here, the control unit 101A controls the light emitting unit 103A so as to blink green in the third cycle, and controls the actuator 104A so as to expand and contract in the third cycle. Since the actuator 104A expands and contracts in the third cycle, the housing of the
なお、端末装置10Aにユーザである夫が近づいた場合は、端末装置10Aの装置識別子と、端末装置10Aの周囲にユーザがいることを表す情報が端末装置10Aから端末装置10Bへ送信され、端末装置10Bは、発光部103Bの白色のLEDを点灯させる。これにより、端末装置10Bのユーザは、端末装置10Aの人間がいることがわかる。
When the husband who is the user approaches the
また、端末装置10Aの近くで夫が声を発すると、端末装置10Aの装置識別子と夫の音声情報が解析装置20へ送られる。解析装置20は、端末装置10Aから送られた音声情報を解析して夫の声紋を特定し、夫の声紋データに対応付けられている夫のユーザ識別子を取得する。解析装置20は、端末装置10Aの装置識別子と、夫の声紋データに対応付けられている夫のユーザ識別子を端末装置10Bへ送信する。端末装置10Bは、夫のユーザ識別子に対応付けて記憶されている第4の制御情報に基づいて発光部103Bとアクチュエータ104Bを制御する。これにより、発光部103Bが青色で第4の周期で点滅し、筐体が第4の周期で伸縮するため、端末装置10Bのユーザは、端末装置10Aの近くに夫がいることがわかる。
Further, when the husband speaks near the
また、端末装置10Bの近くで子供が声を発すると、端末装置10Bの装置識別子と子供の音声情報が解析装置20へ送られる。解析装置20は、端末装置10Bから送られた音声情報を解析して子供の声紋を特定し、子供の声紋データに対応付けられている子供のユーザ識別子を取得する。解析装置20は、端末装置10Bの装置識別子と、子供の声紋データに対応付けられている子供のユーザ識別子を端末装置10Aへ送信する。端末装置10Aは、子供のユーザ識別子に対応付けて記憶されている第2の制御情報に基づいて発光部103Aとアクチュエータ104Aを制御する。これにより、発光部103Aがオレンジ色で第2の周期で点滅し、筐体が第2の周期で伸縮するため、端末装置10Aのユーザは、端末装置10Bの近くに子供がいることがわかる。
Further, when the child speaks near the
以上説明したように、本実施形態によれば、コミュニケーションの相手の通信端末の周囲に誰がいるかがわかるため、どのような相手とつながっているかを知ることができる。 As described above, according to the present embodiment, since it is possible to know who is around the communication terminal of the communication partner, it is possible to know what kind of partner is connected.
[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した実施形態および以下の変形例は、各々を組み合わせてもよい。
[Modification example]
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and can be implemented in various other embodiments. For example, the present invention may be carried out by modifying the above-described embodiment as follows. The above-described embodiment and the following modifications may be combined with each other.
本発明においては、解析装置20は、端末装置10か送られた音声情報が表す音声の意味を解析し、解析結果を表す意味情報を通信相手の端末装置10へ送信し、意味情報を受信した端末装置10は、送信された意味情報に応じた動作を行う構成であってもよい。
例えば、端末装置10Aの近くで夫が「ただいま」と言った場合、端末装置10Aの装置識別子と夫の音声情報が解析装置20へ送られる。解析装置20は、端末装置10Aから送られた音声情報を解析して夫の声紋を特定し、夫の声紋データに対応付けられている夫のユーザ識別子を取得する。また、解析装置20は、音声情報が表す音声を解析し、音声の意味が帰宅時の挨拶であることを特定する。解析装置20は、端末装置10Aの装置識別子、夫の声紋データに対応付けられている夫のユーザ識別子、および帰宅時の挨拶を表す意味情報を端末装置10Bへ送信する。端末装置10Bは、夫のユーザ識別子に対応付けて記憶されている制御情報のうち、帰宅時の挨拶を表す意味情報に対応付けられている制御情報を記憶部102Bから取得する。端末装置10Bは、取得した制御情報に基づいて発光部103Bとアクチュエータ104Bを制御する。これにより、発光部103Bが制御情報に応じた色および周期で点滅し、筐体が制御情報に応じた周期で伸縮するため、端末装置10Bのユーザは、夫が帰宅したことがわかる。
In the present invention, the
For example, when the husband says "I'm home" near the
上述した実施形態においては、端末装置10から解析装置20へ音声情報を送信し、解析装置20は、送信された音声情報に基づいてユーザの声紋を解析しているが、ユーザの声紋を解析する構成は、実施形態の構成に限定されるものではない。例えば、端末装置10がユーザの音声の声紋を解析し、解析により得られた声紋を表す声紋データを解析装置20へ送信する構成としてもよい。この構成においては、解析装置20は、端末装置10から送信された声紋データと、予め記憶している声紋データとを比較し、端末装置10の周囲にいるユーザを特定する。
In the above-described embodiment, voice information is transmitted from the
上述した実施形態においては、制御部201は、声紋を用いてユーザを特定しているが、ユーザを特定するための情報は、声紋に限定されるものではなく、他の情報であってもよい。例えば、周知の音声認識技術を用い、声紋データに替えてユーザの音声の特徴量を用いてユーザを特定するようにしてもよい。この構成においては、特徴量を端末装置10で解析してもよく、また、特徴量を解析装置20で解析してもよい。
In the above-described embodiment, the
端末装置10は、予め定められたユーザの音声以外の音声を検知した場合、通信相手の端末装置10から送られる情報や解析装置20から送られる情報を受信しても発光部103やアクチュエータ104を制御しないようにしてもよい。例えば、端末装置10Aは、音センサが、ユーザである夫の音声とは異なるテレビの音声やラジオの音声を検知している場合、ステップS1で送られた情報を取得しても、ステップS3の動作を行わない。また、端末装置10Aは、TVの音声やラジオの音声を検知している場合、ステップS8で送られた情報を取得しても、発光部103とアクチュエータ104の制御を行わない。検知した音声が夫の音声であるか否かの判断については、夫の声紋データを記憶部102Aに記憶させ、検知した音声を解析して得た声紋と、記憶されている声紋データが表す音声とが一致するか否かにより判断してもよい。本変形例によれば、端末装置10Aのユーザである夫がテレビを見ている場合には、発光部103やアクチュエータ104の制御が行われず、端末装置10Aが発光や伸縮を行わないため、夫はテレビ、ラジオの視聴を妨げられることがない。
When the
本発明においては、端末装置10は、予め定められたユーザの音声以外の音声を検知した場合、検知した音声を表すデータを解析装置20へ送信してもよい。また、この構成の場合、解析装置20は、端末装置10Aから送信されたデータが表す音声と、端末装置10Bから送信されたデータが表す音声とが一致した場合、端末装置10Aおよび端末装置10Bへ、互いに接続するように指示するメッセージを送信し、当該メッセージを受信した端末装置10Aと端末装置10Bが接続するようにしてもよい。この構成によれば、例えば、端末装置10Aが設置してある部屋と端末装置10Bが設置してある部屋で同じテレビ番組を視聴していた場合や同じラジオ番組を視聴していた場合、自動的に端末装置10Aと端末装置10Bが接続する。
In the present invention, when the
本発明においては、夫の住居に複数の端末装置10を設置してもよく、妻と子供の住居に複数の端末装置10を設置してもよい。例えば、夫の住居の玄関に端末装置10Cを設置し、夫の住居のリビングに端末装置10Aを設置する。端末装置10Cの人感センサが人間を検知した場合、端末装置10Cの装置識別子と、端末装置10Cの周囲にユーザがいることを表す情報が端末装置10Cから端末装置10Bへ送信される。端末装置10Bは、端末装置10Cの装置識別子と、ユーザが端末装置10Cの周囲にいることを表す情報を取得すると、黄色で発光するように発光部103Bを制御する。また、夫が玄関からリビングへ移動し、端末装置10Aの人感センサが人間を検知した場合、端末装置10Aの装置識別子と、端末装置10Aの周囲にユーザがいることを表す情報が端末装置10Aから端末装置10Bへ送信される。端末装置10Bは、端末装置10Aの装置識別子と、ユーザが端末装置10Aの周囲にいることを表す情報を取得すると、白色で発光するように発光部103Bを制御する。本変形例によれば、妻と子供側においては、夫がどこにいるかを知ることができる。
In the present invention, a plurality of
本発明においては、端末装置10Aの周囲の状態と端末装置10Bの周囲の状態が同様である場合、端末装置10Aと端末装置10Bが特定の動作を行う構成であってもよい。例えば、端末装置10Aと端末装置10Bは、音センサが出力した信号から生成した音声情報を解析装置20へ送信する。解析装置20は、端末装置10Aから送られた音声情報が表す音の音量と、端末装置10Bから送られた音声情報が表す音の音量とを比較する。解析装置20は、一方の端末装置10から送られた音声情報が表す音の音量が他方の端末装置10から送られた音声情報が表す音の音量から予め定められた範囲内にある場合、予め定められた制御情報を端末装置10Aと端末装置10Bへ送信する。端末装置10Aと端末装置10Bは、解析装置20から送られた制御情報に基づいて発光部103とアクチュエータ104を制御する。端末装置10Aと端末装置10Bは、解析装置20から送られた同じ制御情報に基づいて動作するため、発光部103Aと発光部103Bの動作は同じ動作となり、アクチュエータ104Aとアクチュエータ104Bの動作は同じ動作となる。本変形例によれば、端末装置10Aの周囲と端末装置10Bの周囲とが同様の音量である、即ち、端末装置10Aの周囲と端末装置10Bの周囲とが同様の状態であると同じ動作となる。本変形例によれば、端末装置10Aの周囲と端末装置10Bの周囲とが同様の状態であると端末装置10Aと端末装置10Bが特定の動作を行うため、ユーザは、コミュニケーションをとる相手の周囲の状態が、自身の周囲の状態と同様であることを知ることができる。
In the present invention, when the surrounding state of the
なお、周囲の状態が同様であるとは音量が同様であることに限定されるものではない。例えば、端末装置10は、照度センサが出力する信号に基づいて、照度センサが検知した照度を表す情報を解析装置20へ送信する。解析装置20は、端末装置10Aから送られた情報が表す照度と、端末装置10Bから送られた情報が表す照度とを比較する。解析装置20は、一方の端末装置10から送られた情報が表す照度が他方の端末装置10から送られた情報が表す照度から予め定められた範囲内にある場合、予め定められた制御情報を端末装置10Aと端末装置10Bへ送信する。本変形例によれば、端末装置10Aの周囲と端末装置10Bの周囲とが同様の照度である場合、即ち、端末装置10Aの周囲と端末装置10Bの周囲とが同様の状態である場合、端末装置10Aの動作と端末装置10Bの動作が同じ動作となる。
It should be noted that the fact that the surrounding conditions are the same is not limited to the fact that the volume is the same. For example, the
本発明においては、ユーザが予め定められた動作を行った場合、予め定められた動作を行ったユーザの周囲にある端末装置10は、通信相手となる端末装置10から装置の周囲の状況を表す情報を取得し、取得した情報に応じた動作を行う構成としてもよい。例えば、端末装置10Aは、センサ部108Aの音センサから出力された信号が表す音がノックの音である場合、温度を要求するメッセージを端末装置10Bへ送信する。端末装置10Bは、端末装置10Aから送られたメッセージを取得すると、温度センサが検知した温度を表す温度情報を端末装置10Aへ送信する。温度情報は、本発明に係る状態情報の一例である。端末装置10Aは、端末装置10Bから送られた温度情報を取得し、取得した温度情報に応じて発光部103Aを制御する。例えば、取得した温度情報が10℃未満である場合、発光部103が所定期間において青色で点滅するように制御し、取得した温度情報が10℃以上20℃未満である場合、発光部103が所定期間において緑色で点滅するように制御し、取得した温度情報が20℃以上である場合、発光部103が所定期間においてオレンジ色で点滅するように制御する。本変形例によれば、ユーザは、コミュニケーションをとる相手の部屋の状況を知ることができる。なお、端末装置10から装置の周囲の状況を表す情報は、温度に限定されるものではなく、音量、照度など他の情報であってもよい。
In the present invention, when the user performs a predetermined operation, the
本発明においては、記憶部202において、装置識別子に対応付けて、当該装置識別子が表す端末装置10のユーザのプロファイルを記憶するようにしてもよい。例えば、記憶部202において、端末装置10Aの装置識別子に対応付けて、照度の閾値を含むプロファイルを記憶させる。端末装置10Aは、装置識別子と、照度センサが検知した照度を表す情報を解析装置20へ送信する。解析装置20は、端末装置10Aから送られた装置識別子に対応付けられているプロファイルに含まれる照度と、端末装置10Aから送られた情報が表す照度とを比較する。解析装置20は、端末装置10Aから送られた情報が表す照度が、プロファイルに含まれている照度から予め定められた照度以下である場合、解析装置20から端末装置10Aへの装置識別子およびユーザ識別子の送信を行わない。この構成によれば、例えば、就寝して端末装置10Aが設置されている部屋の明るさが所定の照度以下(例えば夜に照明をつけていないときの照度以下)である場合、解析装置20から端末装置10Aへ装置識別子およびユーザ識別子の送信が行われないため、端末装置10Bの周囲で妻や子供が音声を発しても、端末装置10Aが動作しないこととなる。なお、記憶部102Aにプロファイルを記憶し、照度センサが検知した照度がプロファイルに含まれている照度以下である場合、装置識別子と、ユーザが端末装置10Bの周囲にいることを表す情報が端末装置10Bから端末装置10Aへ送られても、制御部101Aは、発光部103Aおよびアクチュエータ104Aを制御しない構成としてもよい。
In the present invention, the
本発明においては、端末装置10は、ユーザの睡眠を検知し、ユーザの睡眠を検知した場合、消費電力を抑えるスリープモードへ移行するようにしてもよい。例えば、端末装置10は、予め定められた期間、音センサが音を検知しなかった場合、ユーザがねむりに入ったと判断し、スリープモードへ移行してもよい。端末装置10は、スリープモードへ移行した場合、例えば、通信部105への電力供給を遮断して消費電力を抑える。端末装置10は、スリープモードの状態で音センサが音を検知した場合、スリープモードを解除して通信部105への電力供給を再開する。本変形例によれば、端末装置10の消費電力を抑えることができる。
In the present invention, the
本発明においては、端末装置10は、撮像素子を備え、ユーザを撮影する構成であってもよい。また、端末装置10が撮像素子を備える構成にあっては、ユーザ識別子に対応付けてユーザの顔の画像(顔画像)を記憶部202に記憶させるようにしてもよい。本変形例においては、例えば、端末装置10Bは、人間の顔を撮影すると、端末装置10Bの装置識別子と、撮影された人間の顔画像を解析装置20へ送信する。制御部201は、端末装置10Bから送信された装置識別子に対応付けて記憶されている顔画像を取得する。通信部205が取得した端末装置10Bの装置識別子には、端末装置10Bのユーザである妻の顔画像と子供の顔画像が対応付けられているため、制御部201は、妻の顔画像と子供の顔画像を記憶部202から取得する。
In the present invention, the
制御部201は、取得した顔画像に対応するユーザを特定する。具体的には、制御部201は、通信部205が取得した顔画像と、記憶部202から取得した顔画像とを比較する。例えば、取得した顔画像が、予め記憶されている妻の顔画像と一致した場合、取得した顔画像に対応するユーザ、即ち、端末装置10Bの周囲にいるユーザ(端末装置10Aのユーザの通信相手)は妻であると特定する。次に制御部201は、取得した顔画像と一致した顔画像に対応付けて記憶されている妻のユーザ識別子を記憶部202から取得する。制御部201は、通信部205が取得した装置識別子と、記憶部202から取得した妻のユーザ識別子の組を、通信部205を制御して送信する。端末装置10Aは、解析装置20から送信された妻のユーザ識別子に対応付けて記憶されている第1の制御情報に基づいて発光部103Aとアクチュエータ104Aを制御する。これにより、発光部103Aがピンク色で第1の周期で点滅し、筐体が第1の周期で伸縮するため、端末装置10Aのユーザは、端末装置10Bの近くに妻がいることがわかる。
The
本発明においては、端末装置10に近距離無線通信でアクセスした装置に基づいて、端末装置10の周囲にいるユーザを特定するようにしてもよい。例えば、端末装置10Bにおいて、妻のスマートフォンおよび子供のスマートフォンをBluetoothの通信によってペアリングさせる。端末装置10Bは、ペアリング済みの妻のスマートフォンをBluetoothの通信によって検知した場合、装置識別子と妻のユーザ識別子を端末装置10Aへ送信する。端末装置10Aは、端末装置10Bから送られたユーザ識別子に対応付けて記憶されている第1の制御情報に基づいて、発光部103Aとアクチュエータ104Aを制御する。これにより、発光部103Aがピンク色で第1の周期で点滅し、筐体が第1の周期で伸縮するため、端末装置10Aのユーザは、端末装置10Bの近くに妻がいることがわかる。
In the present invention, the user around the
本発明においては、発光部103が点滅するときの色を通信相手の性別に応じた色としてもよい。例えば、解析装置20において、ユーザ識別子に対応付けて性別を表す性別データを記憶し、ステップS8でユーザ識別子を解析装置20から端末装置10へ送信する際に、送信するユーザ識別子に対応付けて記憶されている性別データも端末装置10へ送信する。性別データを取得した端末装置10は、性別が男性を表す場合には寒色で点滅し、性別が女性を表す場合には暖色で点滅してもよい。
In the present invention, the color when the
本発明においては、発光部103が点滅するときの色を通信相手の年齢に応じた色としてもよい。例えば、解析装置20において、ユーザ識別子に対応付けて年齢を表す年齢データを記憶し、ステップS8でユーザ識別子を解析装置20から端末装置10へ送信する際に、送信するユーザ識別子に対応付けて記憶されている年齢データも端末装置10へ送信する。年齢データを取得した端末装置10は、予め年齢毎に設定されている色で点滅してもよい。
In the present invention, the color when the
本発明においては、解析装置20は、音声情報を解析して複数の声紋を特定した場合、特定した声紋の数を表す情報を端末装置10へ送信し、端末装置10は、解析装置20から送信された数を表す情報に応じて発光部103、アクチュエータ104を制御してもよい。この変形例によれば、例えば、端末装置10Bの周囲にいる人の人数に応じて端末装置10Aが動作し、端末装置10Aのユーザは、端末装置10Bの周囲にいる人の人数を知ることができる。
In the present invention, when the
上述した実施形態においては、端末装置10は、制御情報に基づいて発光部103とアクチュエータ104を制御しているが、音声処理部107を制御し、制御情報に含まれている周期に基づいて所定の音をスピーカから出力するようにしてもよい。
In the above-described embodiment, the
上述した実施形態においては、センサ部108の音センサで音声を検知しているが、音声処理部107のマイクロフォンで音声を検知してもよい。
In the above-described embodiment, the sound sensor of the
上述した機能ブロック(構成部)は、ハードウェアおよび/またはソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的および/または論理的に結合した1つの装置により実現されてもよいし、物理的および/または論理的に分離した2つ以上の装置を直接的および/または間接的に(例えば、有線および/または無線)で接続し、これら複数の装置により実現されてもよい。例えば、本発明の一実施形態における端末装置10は、本発明の処理を行うコンピュータとして機能してもよい。なお、本明細書においては、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。端末装置10のハードウェア構成は、各装置を1つまたは複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
The functional blocks (components) described above are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one physically and / or logically coupled device, or directly and / or indirectly by two or more physically and / or logically separated devices. (For example, wired and / or wireless) may be connected and realized by these plurality of devices. For example, the
また、制御部101は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、記憶部102および/または通信部105からRAMに読み出し、これらに従って各種の処理を実行する。また、制御部201は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、記憶部202および/または通信部205からRAMに読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、制御部101は、RAMに格納され、CPUで動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよく、制御部201は、RAMに格納され、CPUで動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのCPUで実行される旨を説明してきたが、2以上のプロセッサCPUにより同時または逐次に実行されてもよい。制御部101は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
Further, the
RAMは、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。RAMは、本発明の一実施形態に係る機能を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The RAM may be referred to as a register, a cache, a main memory (main storage device), or the like. The RAM can store a program (program code), a software module, or the like that can be executed to perform the function according to the embodiment of the present invention.
また、端末装置10、解析装置20は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部または全てが実現されてもよい。例えば、制御部101は、これらのハードウェアの少なくとも1つで実装されてもよい。
Further, the
記憶部102、記憶部202は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。記憶部102、記憶部202は、補助記憶装置と呼ばれてもよい。
The
制御部101、制御部201が備えるメモリは、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。
The memory included in the
通信部105、通信部205は、有線および/または無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
The
端末装置10の各部は、情報を通信するためのバスで接続されていてもよい。バスは、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。
Each part of the
本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステムおよび/またはこれらに基づいて拡張された次世代システムに適用されてもよい。 Each aspect / embodiment described herein includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA. (Registered Trademarks), GSM (Registered Trademarks), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), It may be applied to Bluetooth®, other systems that utilize suitable systems and / or next-generation systems that are extended based on them.
本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The order of the processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in the present specification may be changed as long as there is no contradiction. For example, the methods described herein present elements of various steps in an exemplary order, and are not limited to the particular order presented.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by 1 bit (0 or 1), by a boolean value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).
プログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Programs are instructions, instruction sets, codes, code segments, program codes, programs, subprograms, software modules, whether called software, firmware, middleware, microcode, hardware description languages, or other names. , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, features, etc. should be broadly interpreted.
また、プログラム、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペアおよびデジタル加入者回線(DSL)などの有線技術および/または赤外線、無線およびマイクロ波などの無線技術を使用してウェブサイト、サーバ、または他のリモートソースから送信される場合、これらの有線技術および/または無線技術は、伝送媒体の定義内に含まれる。 Further, programs, instructions and the like may be transmitted and received via a transmission medium. For example, the software uses wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to websites, servers, or other When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.
本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、またはこれらの任意の組み合わせによって表されてもよい。なお、本明細書で説明した用語および/または本明細書の理解に必要な用語については、同一のまたは類似する意味を有する用語と置き換えてもよい。例えば、信号はメッセージであってもよい。 The information, signals, etc. described herein may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of. The terms described herein and / or the terms necessary for understanding the present specification may be replaced with terms having the same or similar meanings. For example, the signal may be a message.
本明細書で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" as used herein are used interchangeably.
また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであってもよい。上述したパラメータに使用する名称はいかなる点においても限定的なものではない。 Further, the information, parameters, etc. described in the present specification may be represented by an absolute value, a relative value from a predetermined value, or another corresponding information. .. For example, the radio resource may be indexed. The names used for the above parameters are not limited in any way.
端末装置10は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語で呼ばれる場合もある。
The
本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)したことを「判断」「決定」したとみなすことなどを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)したことを「判断」「決定」したとみなすことなどを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などしたことを「判断」「決定」したとみなすことを含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなすことを含み得る。 The terms "determining" and "determining" as used herein may include a wide variety of actions. “Judgment” and “decision” are, for example, judgment (judging), calculation (calculating), calculation (computing), processing (processing), derivation (deriving), investigating (investigating), and searching (looking up) (for example, a table). , Searching in a database or another data structure), ascertaining can be considered as a "judgment" or "decision". Also, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. (Accessing) (for example, accessing data in memory) may be regarded as "judgment" or "decision". In addition, "judgment" and "decision" mean that "resolving", "selecting", "choosing", "establishing", "comparing", etc. are regarded as "judgment" and "decision". Can include. That is, "judgment" and "decision" may include considering some action as "judgment" and "decision".
「接続された(connected)」、「結合された(coupled)」という用語、またはこれらのあらゆる変形は、2またはそれ以上の要素間の直接的または間接的なあらゆる接続または結合を意味し、互いに「接続」または「結合」された2つの要素間に1またはそれ以上の中間要素が存在することを含むことができる。要素間の結合または接続は、物理的なものであっても、論理的なものであっても、あるいはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1またはそれ以上の電線、ケーブルおよび/またはプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域および光(可視および不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」または「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or connection between two or more elements, and each other. It can include the presence of one or more intermediate elements between two "connected" or "combined" elements. The connection or connection between the elements may be physical, logical, or a combination thereof. As used herein, the two elements are by using one or more wires, cables and / or printed electrical connections, and, as some non-limiting and non-comprehensive examples, radio frequencies. By using electromagnetic energies such as electromagnetic energies with wavelengths in the region, microwave region and light (both visible and invisible) regions, they can be considered to be "connected" or "coupled" to each other.
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 The phrase "based on" as used herein does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".
本明細書で使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using designations such as "first", "second" as used herein does not generally limit the quantity or order of those elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Thus, references to the first and second elements do not mean that only two elements can be adopted there, or that the first element must somehow precede the second element.
「含む(including)」、「含んでいる(comprising)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 As long as "inclusion," "comprising," and variations thereof are used herein or in the claims, these terms are as comprehensive as the term "comprising." Intended to be targeted. Furthermore, the term "or" as used herein or in the claims is intended not to be an exclusive OR.
本開示の全体において、例えば、英語でのa, an, およびtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。 Throughout this disclosure, if articles are added by translation, for example, a, an, and the in English, unless the context clearly indicates that these articles are not. It shall include more than one.
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect / embodiment described in the present specification may be used alone, in combination, or switched with execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit one, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.
以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨および範囲を逸脱することなく修正および変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。 Although the present invention has been described in detail above, it is clear to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modifications and modifications without departing from the spirit and scope of the invention as defined by the claims. Therefore, the description of the present specification is for the purpose of exemplification and does not have any limiting meaning to the present invention.
1…通信システム、2…通信網、10、10A、10B…端末装置、20…解析装置、101…制御部、102…記憶部、103…発光部、104…アクチュエータ、105…通信部、107…音声処理部、108…センサ部、201…制御部、202…記憶部、205…通信部、1001…送信部、1002…取得部、1003…動作制御部、1004…検知部、1005…要求部、2001…特定部、2002…提供部。 1 ... Communication system, 2 ... Communication network, 10, 10A, 10B ... Terminal device, 20 ... Analysis device, 101 ... Control unit, 102 ... Storage unit, 103 ... Light emitting unit, 104 ... Actuator, 105 ... Communication unit, 107 ... Voice processing unit, 108 ... sensor unit, 201 ... control unit, 202 ... storage unit, 205 ... communication unit, 1001 ... transmission unit, 1002 ... acquisition unit, 1003 ... motion control unit, 1004 ... detection unit, 1005 ... request unit, 2001 ... Specific department, 2002 ... Providing department.
Claims (5)
前記特定部が特定したユーザに応じた情報を、前記動作部、センサ、及び前記制御部を備える第2の端末装置へ提供する提供部であって、前記第1の端末装置の前記センサの出力と前記第2の端末装置の前記センサの出力とを比較し、当該第1の端末装置の前記センサの出力と当該第2の端末装置の前記センサの出力とが予め定められた範囲にある場合には、当該第1の端末装置及び当該第2の端末装置において同じ動作を行うための制御情報を、当該第1の端末装置及び当該第2の端末装置に提供する提供部と
を備える解析装置。 Even without low, based deformation, the light emitting operation unit which performs one of the outputs of the sound sensor, the output of the sensor of the first terminal device comprising a control unit for operating the operation unit in accordance with the information provided The specific unit that identifies the user around the first terminal device, and
A provider that provides information according to a user specified by the specific unit to a second terminal device including the operation unit, a sensor, and the control unit, and is an output of the sensor of the first terminal device. And the output of the sensor of the second terminal device are compared, and the output of the sensor of the first terminal device and the output of the sensor of the second terminal device are within a predetermined range. Is an analysis device including a providing unit that provides control information for performing the same operation in the first terminal device and the second terminal device to the first terminal device and the second terminal device. ..
センサと、
提供される情報に応じて前記動作部を動作させる制御部と、
前記センサの出力に基づいて、自装置の周囲にいるユーザを特定する特定部と、
前記特定部が特定したユーザに応じた情報を通信先の端末装置へ提供する提供部
とを備え、
前記センサは、周囲の音を検知し、
前記制御部は、前記センサがテレビ又はラジオの音を検知した場合、前記動作部の動作を停止させる端末装置。 Even without small, deformation, emission, and operation unit for performing one of the outputs of the sound,
With the sensor
A control unit that operates the operation unit according to the provided information,
Based on the output of the sensor, a specific part that identifies the user around the own device and
It is provided with a providing unit that provides information according to the user specified by the specific unit to the terminal device of the communication destination.
The sensor detects ambient sound and
The control unit is a terminal device that stops the operation of the operation unit when the sensor detects the sound of a television or radio.
当該第1の端末装置の前記センサの出力と当該第2の端末装置の前記センサの出力とが予め定められた範囲にある場合には、当該第1の端末装置及び当該第2の端末装置において同じ動作を行う
通信システム。 Even without small, deformation, emission, operation unit which performs one of the outputs of the sound sensor, the control unit for operating the operation unit in accordance with the information provided on the basis of the output of the sensor, the periphery of its own device The output of the sensor of the first terminal device including the specific unit that identifies the user and the providing unit that provides the information corresponding to the user specified by the specific unit to the terminal device of the communication destination, and the operation unit. The output of the sensor of the sensor, the control unit, the specific unit, and the second terminal device including the providing unit is compared with the output of the sensor.
When the output of the sensor of the first terminal device and the output of the sensor of the second terminal device are within a predetermined range, the first terminal device and the second terminal device A communication system that performs the same operation.
少なくとも、変形、発光、音の出力のいずれかを行う動作部、センサ、提供される情報に応じて前記動作部を動作させる制御部を備える第1の端末装置の前記センサの出力に基づいて、前記第1の端末装置の周囲にいるユーザを特定する特定部と、
前記特定部が特定したユーザに応じた情報を、前記動作部、センサ、及び前記制御部を備える第2の端末装置へ提供する提供部であって、前記第1の端末装置の前記センサの出力と前記第2の端末装置の前記センサの出力とを比較し、当該第1の端末装置の前記センサの出力と当該第2の端末装置の前記センサの出力とが予め定められた範囲にある場合には、当該第1の端末装置及び当該第2の端末装置において同じ動作を行うための制御情報を、当該第1の端末装置及び当該第2の端末装置に提供する提供部と
として機能させるためのプログラム。 The computer,
Based on at least the output of the sensor of the first terminal device comprising a motion unit that performs any of deformation, light emission, and sound output, a sensor, and a control unit that operates the motion unit according to the provided information. A specific unit that identifies a user around the first terminal device, and
A provider that provides information according to a user specified by the specific unit to a second terminal device including the operation unit, a sensor, and the control unit, and is an output of the sensor of the first terminal device. And the output of the sensor of the second terminal device are compared, and the output of the sensor of the first terminal device and the output of the sensor of the second terminal device are within a predetermined range. In order to function as a providing unit that provides the first terminal device and the second terminal device with control information for performing the same operation in the first terminal device and the second terminal device. Program.
少なくとも、変形、発光、音の出力のいずれかを行う動作部と、
提供される情報に応じて前記動作部を動作させる制御部と、
前記センサの出力に基づいて、自装置の周囲にいるユーザを特定する特定部と、
前記特定部が特定したユーザに応じた情報を通信先の端末装置へ提供する提供部
として機能させ、
前記センサは、周囲の音を検知し、
前記制御部は、前記センサがテレビ又はラジオの音を検知した場合、前記動作部の動作を停止させるプログラム。 A computer equipped with a sensor,
At least a moving part that transforms, emits light, or outputs sound,
A control unit that operates the operation unit according to the provided information,
Based on the output of the sensor, a specific part that identifies the user around the own device and
It functions as a providing unit that provides information according to the user specified by the specific unit to the terminal device of the communication destination.
The sensor detects ambient sound and
The control unit is a program that stops the operation of the operation unit when the sensor detects the sound of a television or radio.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017025095A JP6840560B2 (en) | 2017-02-14 | 2017-02-14 | Terminal equipment, programs, communication systems and analyzers |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017025095A JP6840560B2 (en) | 2017-02-14 | 2017-02-14 | Terminal equipment, programs, communication systems and analyzers |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018133661A JP2018133661A (en) | 2018-08-23 |
JP6840560B2 true JP6840560B2 (en) | 2021-03-10 |
Family
ID=63249019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017025095A Active JP6840560B2 (en) | 2017-02-14 | 2017-02-14 | Terminal equipment, programs, communication systems and analyzers |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6840560B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109389978B (en) * | 2018-11-05 | 2020-11-03 | 珠海格力电器股份有限公司 | Voice recognition method and device |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008287731A (en) * | 1998-06-30 | 2008-11-27 | Masanobu Kujirada | Device for supporting encounter, contact or communication |
JP2002314707A (en) * | 2001-04-18 | 2002-10-25 | Nippon Telegr & Teleph Corp <Ntt> | Communication terminal, communication method and communication system for conveying sense of connection |
JP3868236B2 (en) * | 2001-04-18 | 2007-01-17 | 日本電信電話株式会社 | Attendance information transmission device and presence information transmission method |
JP2006262411A (en) * | 2005-03-18 | 2006-09-28 | Nippon Telegr & Teleph Corp <Ntt> | Audio/video communication system |
JP2007272906A (en) * | 2006-09-10 | 2007-10-18 | Columbus No Tamagotachi:Kk | Device for acquiring/transmitting/outputting presence information |
-
2017
- 2017-02-14 JP JP2017025095A patent/JP6840560B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018133661A (en) | 2018-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3082327B1 (en) | Method for controlling sound output and an electronic device thereof | |
US10044708B2 (en) | Method and apparatus for controlling authentication state of electronic device | |
US10250327B2 (en) | Illumination system and control method thereof | |
US9602969B2 (en) | Method and electronic device for recognizing area | |
US10380417B2 (en) | Method and apparatus for recognizing iris | |
US10003944B2 (en) | Electronic device and method for providing emergency video call service | |
US10756980B2 (en) | Electronic device including light emitting device and operating method thereof | |
KR102390979B1 (en) | Electronic Device Capable of controlling IoT device to corresponding to the state of External Electronic Device and Electronic Device Operating Method | |
KR102207233B1 (en) | Electronic Device Controlling Radiation Power and Method for the Same | |
KR102135579B1 (en) | Apparatus and method for network connection | |
US9900921B2 (en) | Communication control method, electronic device, and storage medium | |
US20210192924A1 (en) | Sensing device for sensing open-or-closed state of door and method for controlling the same | |
US20170230472A1 (en) | Server apparatus and transmission system | |
KR20160003450A (en) | Method and apparatus for sharing data of electronic device | |
KR20160014357A (en) | Electronic device and method for transceiving data | |
US20150379322A1 (en) | Method and apparatus for communication using fingerprint input | |
US20180205568A1 (en) | Method and device for searching for and controlling controllees in smart home system | |
KR102236203B1 (en) | Method for providing service and an electronic device thereof | |
KR102200825B1 (en) | Method for delivering a policy information in order to offload between different radio communication systems and electronic device implementing the same | |
JP6840560B2 (en) | Terminal equipment, programs, communication systems and analyzers | |
KR102131626B1 (en) | Media data synchronization method and device | |
EP3342180B1 (en) | Method of detecting external devices and electronic device for processing same | |
US9804814B2 (en) | Electronic device and method of interconnecting the same | |
EP3296848A1 (en) | Electronic device and method for providing graphic user interface therefor | |
US20150280933A1 (en) | Electronic device and connection method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191002 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6840560 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |