JP2013077969A - Information processing apparatus, information processing method, program, and information processing system - Google Patents

Information processing apparatus, information processing method, program, and information processing system Download PDF

Info

Publication number
JP2013077969A
JP2013077969A JP2011216471A JP2011216471A JP2013077969A JP 2013077969 A JP2013077969 A JP 2013077969A JP 2011216471 A JP2011216471 A JP 2011216471A JP 2011216471 A JP2011216471 A JP 2011216471A JP 2013077969 A JP2013077969 A JP 2013077969A
Authority
JP
Japan
Prior art keywords
information
identification information
unit
call
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011216471A
Other languages
Japanese (ja)
Other versions
JP5862168B2 (en
Inventor
Yusuke Suzuki
雄介 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2011216471A priority Critical patent/JP5862168B2/en
Publication of JP2013077969A publication Critical patent/JP2013077969A/en
Application granted granted Critical
Publication of JP5862168B2 publication Critical patent/JP5862168B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable an apparatus carried by a user to perform suitable calling operation.SOLUTION: An information processing apparatus comprises: a determination unit for determining calling operation corresponding to inputted information from a sensor; and a controller which controls the calling operation performed when a telephone call, an e-mail, an instant message or the like incomes to the device provided with the sensor, using the result of the determination by the determination unit. The information processing apparatus performs calling operation corresponding to identification information identified from the inputted information, using an identification model learned previously.

Description

本発明は、情報処理装置、情報処理方法、プログラムおよび情報処理システムに関する。   The present invention relates to an information processing apparatus, an information processing method, a program, and an information processing system.

近年、固定電話端末、携帯電話端末、PC(Personal Computer)のような様々な通信装置が広く普及している。これらの通信装置は、電話、電子メール、インスタントメッセージ等の着信に応じて呼出動作を行う。当該呼出動作は、例えば、着信音の発生、振動(バイブレーション)、画面上の表示の変更等である。   In recent years, various communication devices such as fixed telephone terminals, mobile telephone terminals, and PCs (Personal Computers) have become widespread. These communication devices perform call operations in response to incoming calls such as telephone calls, electronic mails, and instant messages. The call operation includes, for example, generation of a ring tone, vibration (vibration), a change in display on the screen, and the like.

さらに、通信装置には呼出動作を設定する機能が通常備えられているため、利用者は、自身の状況に応じて適切な呼出動作を選択することができる。一例として、携帯電話端末の利用者は、通話できる状況であれば、着信音の発生を呼出動作として選択し、通話できない状況であれば、画面上の表示の変更を呼出動作として選択することができる。   Furthermore, since the communication device is usually provided with a function for setting a call operation, the user can select an appropriate call operation according to his / her own situation. As an example, a user of a mobile phone terminal can select the generation of a ringtone as a call operation if the call can be made, and can select a change in display on the screen as the call operation if the call cannot be made. it can.

また、利用者による操作なしに呼出動作を自動的に選択して設定する技術も存在する。例えば、特許文献1では、スクリーンセーバーの起動の有無、すなわちPCの不操作時間が所定の時間を超えるか否かに基づき、PC上で動作するソフトフォンの呼出動作を切り替える技術が開示されている。   There is also a technique for automatically selecting and setting a call operation without any user operation. For example, Patent Document 1 discloses a technique for switching a call operation of a softphone operating on a PC based on whether or not a screen saver is activated, that is, whether or not a PC non-operation time exceeds a predetermined time.

特開2009−135739号公報JP 2009-135739 A

しかし、上記特許文献1の技術では、基本的に、通信装置がある場所に固定され、かつ当該場所に利用者がいる場合には当該通信装置を操作する、ということが前提となっている。すなわち、例えば携帯電話端末のように、利用者によって携行され、必要に応じて利用者により操作される通信装置では、当該技術が適用されたとしても、利用者の状況に応じた適切な呼出動作を自動的に選択できない。一例として、利用者は、会議中には通話することができないが、休憩中には通話することができる。しかし、利用者が会議中である場合と利用者が休憩中である場合とで、携帯電話端末の不操作時間の長さには違いが生じない場合もある。よって、不操作時間に着目する上記技術では、会議中には、画面上の表示の変更を呼出動作として自動的に選択し、休憩中には、着信音の発生を呼出動作として自動的に選択することもできない。   However, the technique disclosed in Patent Document 1 is based on the premise that the communication device is basically fixed to a location and the communication device is operated when a user is present at the location. That is, for example, in a communication device carried by a user and operated by the user as necessary, such as a mobile phone terminal, even if the technology is applied, an appropriate call operation according to the situation of the user Cannot be selected automatically. As an example, the user cannot talk during a conference, but can talk during a break. However, there may be no difference in the length of non-operation time of the mobile phone terminal between when the user is in a meeting and when the user is resting. Therefore, in the above technology that focuses on the non-operation time, the change of display on the screen is automatically selected as a call operation during a conference, and the occurrence of a ring tone is automatically selected as a call operation during a break. I can't do that either.

そこで、本発明は、利用者によって携行される装置が適切な呼出動作を行うことを可能にする、情報処理装置、情報処理方法、プログラムおよび情報処理システムを提供しようとするものである。   Therefore, the present invention is intended to provide an information processing apparatus, an information processing method, a program, and an information processing system that enable an apparatus carried by a user to perform an appropriate calling operation.

本発明によれば、センサからの入力情報に対応する呼出動作を判定する判定部と、上記判定部による判定結果を用いて、上記センサを備える装置における着信時の呼出動作を制御する制御部と、を備える情報処理装置が提供される。   According to the present invention, a determination unit that determines a call operation corresponding to input information from a sensor, and a control unit that controls a call operation at the time of an incoming call in a device including the sensor, using a determination result by the determination unit. Are provided.

上記判定部は、予め学習された識別モデルを用いて上記入力情報から識別される識別情報に対応する呼出動作を判定してもよい。   The determination unit may determine a call operation corresponding to the identification information identified from the input information using a previously learned identification model.

上記識別情報と、当該識別情報に対応する呼出動作を行う場合の予測応答パターンとを対応して記憶する記憶部と、上記センサからの第1の入力情報から第1の識別情報が識別される場合に、当該第1の識別情報に対応する呼出動作の結果観測される応答パターンと、上記第1の識別情報に対応して記憶される第1の予測応答パターンとが一致するか否かを検出する検出部と、をさらに備えてもよい。   The first identification information is identified from the storage unit that stores the identification information and the predicted response pattern in the case of performing a call operation corresponding to the identification information, and the first input information from the sensor. In this case, whether or not the response pattern observed as a result of the call operation corresponding to the first identification information matches the first predicted response pattern stored corresponding to the first identification information. And a detecting unit for detecting.

観測される上記応答パターンと上記第1の予測応答パターンとの不一致が検出された場合に、上記第1の入力情報と、観測された上記応答パターンに該当する第2の予測応答パターンに対応して記憶される第2の識別情報との組合せを、上記識別モデルの再学習用データとして取得する取得部、をさらに備えてもよい。   When a mismatch between the observed response pattern and the first predicted response pattern is detected, the first input information corresponds to the second predicted response pattern corresponding to the observed response pattern. An acquisition unit that acquires the combination with the second identification information stored as the re-learning data of the identification model.

上記第1の識別情報が識別された場合に、観測された上記応答パターンと上記第1の予測応答パターンとの不一致が検出された回数を、上記第1の識別情報についての不一致回数としてカウントするカウント部をさらに備え、上記取得部は、上記不一致回数が所定の回数に到達する場合に、上記第1の入力情報と上記第2の識別情報との組合せを上記再学習用データとして取得してもよい。   When the first identification information is identified, the number of mismatches detected between the observed response pattern and the first predicted response pattern is counted as the number of mismatches for the first identification information. A counter unit, and the acquisition unit acquires a combination of the first input information and the second identification information as the relearning data when the number of mismatches reaches a predetermined number. Also good.

上記記憶部は、上記不一致回数が所定の回数に到達するまで、各検出についての上記第1の入力情報と観測された上記応答パターンとを記憶し、上記取得部は、上記所定の回数分の上記第1の入力情報と上記第2の識別情報との組合せを上記再学習用データとして取得してもよい。   The storage unit stores the first input information and the observed response pattern for each detection until the number of mismatches reaches a predetermined number, and the acquisition unit stores the predetermined number of times. A combination of the first input information and the second identification information may be acquired as the relearning data.

上記記憶部は、上記識別情報と、当該識別情報が識別される場合における上記装置の利用者の予測割込み拒否度とを対応して記憶し、上記検出部は、上記第1の識別情報が識別される場合に、上記装置の利用者の推定される割込み拒否度と、上記第1の識別情報に対応して記憶される第1の予測割込み拒否度とが一致するか否かを検出してもよい。   The storage unit stores the identification information and a predicted interrupt refusal degree of the user of the device when the identification information is identified, and the detection unit identifies the first identification information. And detecting whether or not the estimated interrupt refusal level of the user of the device matches the first predicted interrupt refusal level stored in correspondence with the first identification information. Also good.

観測される上記応答パターンと上記第1の予測応答パターンとの不一致が検出され、かつ推定される上記割込み拒否度と上記第1の予測割込み拒否度との一致が検出された場合に、上記第1の入力情報と、観測された上記応答パターンに該当する第2の予測応答パターンに対応して記憶される第2の識別情報との組合せを、上記識別モデルの再学習用データとして取得する取得部、をさらに備えてもよい。   When a mismatch between the observed response pattern and the first predicted response pattern is detected, and when a match between the estimated interrupt rejection and the first predicted interrupt rejection is detected, the first Acquiring a combination of the input information of 1 and the second identification information stored in correspondence with the second predicted response pattern corresponding to the observed response pattern as relearning data for the identification model May be further provided.

推定される上記割込み拒否度は、上記装置に関連付けられる所定の機器の使用状況から推定されてもよい。   The estimated interrupt refusal degree may be estimated from a usage state of a predetermined device associated with the device.

上記応答パターンは、選択される応答手段または呼出動作の開始時点から応答までの時間を含んでもよい。   The response pattern may include the time from the start of the selected response means or call operation to the response.

上記応答手段は、上記着信が通話のための着信である場合に、通話、通話拒否、保留、または留守番電話への録音を含んでもよい。   The response means may include a call, a call rejection, a hold, or a recording to an answering machine when the incoming call is an incoming call.

上記判定部は、上記入力情報と上記装置の利用者の推定される割込み拒否度とに対応する呼出動作を判定してもよい。   The determination unit may determine a call operation corresponding to the input information and an interrupt rejection level estimated by a user of the device.

上記センサは、当該センサに近接する物質の種類に応じた入力情報を取得し、上記識別情報は、物質の種類に対応する情報であってもよい。   The sensor may acquire input information corresponding to the type of substance in proximity to the sensor, and the identification information may be information corresponding to the type of substance.

上記呼出動作は、着信音の発生、振動、または画面上の表示の変更を含んでもよい。   The call operation may include ringtone generation, vibration, or display change on the screen.

また、本発明によれば、センサからの入力情報に対応する呼出動作を判定するステップと、上記判定部による判定結果を用いて、上記センサを備える装置における着信時の呼出動作を制御するステップと、を含む情報処理方法が提供される。   According to the present invention, a step of determining a call operation corresponding to input information from a sensor, a step of controlling a call operation at the time of an incoming call in a device including the sensor, using a determination result by the determination unit, , An information processing method is provided.

また、本発明によれば、コンピュータを、センサからの入力情報に対応する呼出動作を判定する判定部と、上記判定部による判定結果を用いて、上記センサを備える装置における着信時の呼出動作を制御する制御部と、として機能させるためのプログラムが提供される。   Further, according to the present invention, the computer performs a call operation at the time of an incoming call in a device including the sensor, using a determination unit that determines a call operation corresponding to input information from the sensor, and a determination result by the determination unit. A control unit for controlling and a program for functioning as a control unit are provided.

また、本発明によれば、情報処理装置および関連機器を含む情報処理システムであって、上記情報処理装置は、予め学習された識別モデルを用いてセンサからの入力情報から識別される識別情報に対応する呼出動作を判定する判定部と、上記判定部による判定結果を用いて、上記センサを備える装置における着信時の呼出動作を制御する制御部と、上記識別情報と、当該識別情報に対応する呼出動作を行う場合の予測応答パターンとを対応して記憶する記憶部と、上記センサからの第1の入力情報から第1の識別情報が識別される場合に、当該第1の識別情報に対応する呼出動作の結果観測される応答パターンと、上記第1の識別情報に対応して記憶される第1の予測応答パターンとが一致するか否かを検出する検出部と、を備え、上記関連機器は、上記装置の利用者の割込み拒否度を推定し、上記記憶部は、上記識別情報と、当該識別情報が識別される場合における上記装置の利用者の予測割込み拒否度とを対応して記憶し、上記検出部は、上記第1の識別情報が識別される場合に、上記装置の利用者の推定される割込み拒否度と、上記第1の識別情報に対応して記憶される第1の予測割込み拒否度とが一致するか否かを検出する、情報処理システムが提供される。   In addition, according to the present invention, there is provided an information processing system including an information processing device and related equipment, wherein the information processing device uses identification information learned in advance to identify information identified from input information from a sensor. A determination unit that determines a corresponding call operation, a control unit that controls a call operation at the time of an incoming call in a device including the sensor, using the determination result by the determination unit, the identification information, and the identification information Corresponding to the first identification information when the first identification information is identified from the storage unit that stores the predicted response pattern in the case of performing the call operation correspondingly and the first input information from the sensor A detection unit that detects whether or not a response pattern observed as a result of the paging operation matches a first predicted response pattern stored corresponding to the first identification information. The device estimates the interrupt rejection level of the user of the device, and the storage unit corresponds to the identification information and the predicted interrupt rejection level of the user of the device when the identification information is identified. And when the first identification information is identified, the detection unit stores the interrupt rejection estimated by the user of the device and the first identification information stored in correspondence with the first identification information. An information processing system is provided for detecting whether or not the predicted interrupt rejection level matches.

以上説明したように本発明に係る情報処理装置、情報処理方法、プログラムおよび情報処理システムによれば、利用者によって携行される装置が適切な呼出動作を行うことが可能となる。   As described above, according to the information processing apparatus, the information processing method, the program, and the information processing system according to the present invention, an apparatus carried by a user can perform an appropriate call operation.

本実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。It is explanatory drawing which shows an example of a schematic structure of the information processing system which concerns on this embodiment. 第1の実施形態に係る着信側の利用者端末の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the user terminal by the side of the incoming call which concerns on 1st Embodiment. 第1の実施形態に係る記憶部に記憶される参照テーブルの一例を説明する説明図である。It is explanatory drawing explaining an example of the reference table memorize | stored in the memory | storage part which concerns on 1st Embodiment. 第1の実施形態に係る発信側の利用者端末の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the user terminal of the transmission side which concerns on 1st Embodiment. 第1の実施形態に係るにおける情報処理の概略的な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the schematic flow of the information processing in 1st Embodiment. 第2の実施形態に係る着信側の利用者端末の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the user terminal by the side of the incoming call which concerns on 2nd Embodiment. 第2の実施形態に係る記憶部に記憶される参照テーブルの一例を説明する説明図である。It is explanatory drawing explaining an example of the reference table memorize | stored in the memory | storage part which concerns on 2nd Embodiment. 第2の実施形態に係るにおける情報処理の概略的な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the schematic flow of the information processing in 2nd Embodiment. 第3の実施形態に係る着信側の利用者端末の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the user terminal by the side of the incoming call which concerns on 3rd Embodiment. 第3の実施形態に係る記憶部に記憶される参照テーブルの一例を説明する説明図である。It is explanatory drawing explaining an example of the reference table memorize | stored in the memory | storage part which concerns on 3rd Embodiment. 第3の実施形態に係るにおける情報処理の概略的な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the schematic flow of the information processing in 3rd Embodiment.

以下に添付の図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

以下では、<1.情報処理システムの概略的な構成>、<2.第1の実施形態>、<3.第2の実施形態>、<4.第3の実施形態>という順序で本発明の実施形態を説明する。   In the following, <1. Schematic configuration of information processing system>, <2. First Embodiment>, <3. Second Embodiment>, <4. Third Embodiment> Embodiments of the present invention will be described in the order of “third embodiment>.

<1.情報処理システムの概略的な構成>
まず、図1を参照して、本発明の実施形態に係る情報処理システム1の概略的な構成について説明する。図1は、本実施形態に係る情報処理システム1の概略的な構成の一例を示す説明図である。図1を参照すると、情報処理システム1は、着信側の利用者端末100(以下、着信端末100)、発信側の利用者端末200(以下、発信端末200)および関連機器300を含む。本実施形態において、着信端末100は情報処理装置の一例である。
<1. Schematic configuration of information processing system>
First, a schematic configuration of an information processing system 1 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is an explanatory diagram illustrating an example of a schematic configuration of an information processing system 1 according to the present embodiment. Referring to FIG. 1, the information processing system 1 includes an incoming user terminal 100 (hereinafter called incoming terminal 100), an outgoing user terminal 200 (hereinafter called outgoing terminal 200), and a related device 300. In the present embodiment, the receiving terminal 100 is an example of an information processing apparatus.

(着信端末100および発信端末200)
着信端末100は、利用者10により利用される通信装置であり、発信端末200は、利用者20により利用される通信装置である。着信端末100および発信端末200は、例えば、スマートフォンまたは他の携帯電話端末である。着信端末100および発信端末200は、ネットワーク30を介して互いに通信することができる。当該ネットワーク30は、いずれかの方式の無線通信ネットワークを含み、着信端末100および発信端末200は、当該方式の無線通信機能を有する。当該方式は、例えば、IEEE802.11a/b/g/n等の無線LAN(Local Area Network)方式であってもよく、または、WCDMA(Wide-band Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、LTE(Long Term Evolution)、PHS(Personal Handy-phone System)等のセルラー方式であってもよい。
(Incoming terminal 100 and outgoing terminal 200)
The incoming terminal 100 is a communication device used by the user 10, and the outgoing terminal 200 is a communication device used by the user 20. Incoming terminal 100 and outgoing terminal 200 are, for example, a smartphone or another mobile phone terminal. Incoming terminal 100 and outgoing terminal 200 can communicate with each other via network 30. The network 30 includes a wireless communication network of any method, and the receiving terminal 100 and the transmitting terminal 200 have the wireless communication function of the method. The method may be, for example, a wireless LAN (Local Area Network) method such as IEEE802.11a / b / g / n, or WCDMA (Wide-band Code Division Multiple Access), WiMAX (Worldwide Interoperability for Microwave). (Access), LTE (Long Term Evolution), PHS (Personal Handy-phone System) and other cellular systems.

また、発信端末200は、上記無線通信機能を用いて、電話、電子メール、インスタントメッセージ等を発信する。また、着信端末100は、上記無線通信機能を用いて、電話、電子メール、インスタントメッセージ等を着信する。そして、着信端末100は、着信に応じて、呼出動作を制御する。すなわち、着信端末100は、着信に応じて、例えば、着信音を発生させ、着信端末100を振動させ、着信端末100の画面上の表示を変更する。   Further, the transmission terminal 200 transmits a telephone call, an electronic mail, an instant message, and the like using the wireless communication function. In addition, the receiving terminal 100 receives calls, e-mails, instant messages, and the like using the wireless communication function. Then, the receiving terminal 100 controls the calling operation according to the incoming call. That is, the incoming terminal 100 generates, for example, a ringing tone, vibrates the incoming terminal 100, and changes the display on the screen of the incoming terminal 100 in response to an incoming call.

また、着信端末100は、利用者10により様々な場所に携行される。図1を参照すると、ケースAでは、利用者10は、事務所の自席で作業している。この場合に、着信端末100は、例えば、利用者10の自席の机に置かれている。また、ケースBでは、利用者10は、ある場所から別の場所へ移動している。この場合に、着信端末100は、例えば、利用者10の服のポケットの中にある。さらに、ケースCでは、利用者10は、会議室で会議に参加している。この場合に、着信端末100は、例えば、会議室にある机に置かれている。   The incoming call terminal 100 is carried by the user 10 to various places. Referring to FIG. 1, in case A, the user 10 is working at his / her own seat in the office. In this case, the receiving terminal 100 is placed, for example, on the desk of the user 10. In case B, the user 10 has moved from one place to another. In this case, the receiving terminal 100 is, for example, in the pocket of the clothes of the user 10. Further, in case C, the user 10 is participating in the conference in the conference room. In this case, the receiving terminal 100 is placed on a desk in a conference room, for example.

(関連機器300)
関連機器300は、利用者10により利用される機器である。関連機器300は、例えば、利用者10が利用するPC(Personal Computer)である。また、関連機器300は、着信端末100に関連付けられている。例えば、関連機器300に関する情報が、着信端末100に登録され、または、着信端末100に関する情報が、関連機器300に登録される。
(Related equipment 300)
The related device 300 is a device used by the user 10. The related device 300 is, for example, a PC (Personal Computer) used by the user 10. In addition, the related device 300 is associated with the receiving terminal 100. For example, information related to the related device 300 is registered in the receiving terminal 100, or information related to the receiving terminal 100 is registered in the related device 300.

また、関連機器300は、自装置が備える通信機能により、着信端末100と通信する。当該通信機能は、例えば、Bluetooth、ZigBee、IrDA等の近距離型無線通信方式の通信機能である。着信端末100は、関連機器300との通信において、自装置に登録された関連機器300に関する情報を参照し、または自装置を登録する関連機器300から自装置宛の情報を送信されることにより、関連機器300が自装置に関連付けられていることを知ることができる。   In addition, the related device 300 communicates with the receiving terminal 100 by a communication function provided in its own device. The communication function is, for example, a communication function of a short-range wireless communication system such as Bluetooth, ZigBee, or IrDA. In the communication with the related device 300, the receiving terminal 100 refers to information related to the related device 300 registered in the own device, or transmits information addressed to the own device from the related device 300 that registers the own device. It is possible to know that the related device 300 is associated with its own device.

以上、図1を参照して本発明の実施形態に係る情報処理システム1の構成の一例を説明したが、情報処理システム1の構成は上述した例に限られない。   The example of the configuration of the information processing system 1 according to the embodiment of the present invention has been described above with reference to FIG. 1, but the configuration of the information processing system 1 is not limited to the above-described example.

例えば、着信端末100は、スマートフォンまたは他の携帯電話端末に限られない。電話、電子メール、インスタントメッセージ等の着信に応じて呼出動作を行い、利用者により携行される任意の通信装置であってもよい。例えば、着信端末は、ノート型PC(Personal Computer)、携帯情報端末(Personal Digital Assistant)、電子書籍端末、ゲーム機器、音楽プレーヤ等であってもよい。   For example, the receiving terminal 100 is not limited to a smartphone or another mobile phone terminal. Any communication device that performs a call operation in response to an incoming call, e-mail, instant message or the like and is carried by a user may be used. For example, the receiving terminal may be a notebook PC (Personal Computer), a portable information terminal (Personal Digital Assistant), an electronic book terminal, a game machine, a music player, or the like.

また、発信端末200も、スマートフォンまたは他の携帯電話端末に限られない。電話、電子メール、インスタントメッセージ等の発信を行う任意の通信装置であってもよい。   Further, the transmission terminal 200 is not limited to a smartphone or another mobile phone terminal. It may be any communication device that transmits a telephone, electronic mail, instant message, or the like.

また、関連機器は、近距離型無線通信方式の通信機能の代わりに、無線LANのような近接型以外の方式の通信機能により、着信端末100と通信してもよい。   Further, the related device may communicate with the receiving terminal 100 by a communication function of a method other than the proximity type such as a wireless LAN instead of the communication function of the short-range wireless communication method.

本実施形態では、着信時の利用者10の状況に応じた適切な呼出動作を着信端末100が行う。以降、<2.第1の実施形態>、<3.第2の実施形態>および<4.第3の実施形態>において、その具体的な内容を説明する。   In the present embodiment, the receiving terminal 100 performs an appropriate call operation according to the situation of the user 10 at the time of the incoming call. Thereafter, <2. First Embodiment>, <3. Second Embodiment> and <4. In the third embodiment, the specific contents will be described.

<2.第1の実施形態>
まず、本発明の第1の実施形態を説明する。本発明の第1の実施形態によれば、着信端末100に備えられるセンサからの入力情報を利用して、着信時の利用者10の状況に応じた適切な呼出動作を着信端末100に行わせる。
<2. First Embodiment>
First, a first embodiment of the present invention will be described. According to the first embodiment of the present invention, using the input information from the sensor provided in the receiving terminal 100, the receiving terminal 100 is caused to perform an appropriate call operation according to the situation of the user 10 at the time of the incoming call. .

以下では、第1の実施形態を<2−1.着信側の利用者端末の構成>、<2−2.発信側の利用者端末の構成>、<2−3.処理の流れ>という順序で説明する。   In the following, the first embodiment is described in <2-1. Configuration of user terminal on receiving side>, <2-2. Configuration of user terminal on transmission side>, <2-3. The process will be described in the order of process flow>.

<2−1.着信側の利用者端末の構成>
図2および図3を参照して、第1の実施形態に係る着信端末100−1の構成について説明する。図2は、第1の実施形態に係る着信端末100−1の構成の一例を示すブロック図である。図2を参照すると、着信端末100−1は、センサ110、識別部120、記憶部130、呼出制御部140、通信部150、呼出出力部160、応答入力部170、音声処理部181、音声入力部183、音声出力部185および音声保存部187を備える。ここで、呼出制御部140は、判定部および制御部の一例である。
<2-1. Configuration of incoming user terminal>
With reference to FIG. 2 and FIG. 3, the configuration of the receiving terminal 100-1 according to the first embodiment will be described. FIG. 2 is a block diagram showing an example of the configuration of the receiving terminal 100-1 according to the first embodiment. Referring to FIG. 2, the receiving terminal 100-1 includes a sensor 110, an identification unit 120, a storage unit 130, a call control unit 140, a communication unit 150, a call output unit 160, a response input unit 170, a voice processing unit 181 and a voice input. A unit 183, an audio output unit 185, and an audio storage unit 187. Here, the call control unit 140 is an example of a determination unit and a control unit.

(センサ110)
センサ110は、着信端末100−1の環境に応じた入力情報を取得する。センサ110は、例えば、フォトレジスタ、光−周波数変換器(light-to-frequency converter)等の光学式センサである。センサ110は、1つのセンサのみに限られず、複数のセンサであってもよい。例えば、センサ110は、フォトレジスタおよび光−周波数変換器であってもよい。
(Sensor 110)
The sensor 110 acquires input information corresponding to the environment of the receiving terminal 100-1. The sensor 110 is, for example, an optical sensor such as a photoresistor or a light-to-frequency converter. The sensor 110 is not limited to only one sensor, and may be a plurality of sensors. For example, the sensor 110 may be a photoresistor and a light-frequency converter.

一例として、センサ110は、センサ110に近接する物質の種類に応じた入力情報を取得する。物質の種類によって光の反射特性が異なることを利用すると、センサ110は、上記のような光学式センサである場合に、物質の種類に応じた入力情報を取得できる。図1を参照すると、ケースAの「自席の机」、ケースBの「胸ポケット」、およびケースC「会議室の机」が、例えば、それぞれ「木」、「綿」および「ガラス」で作成されている。この場合に、着信端末100−1が「自席の机」にあれば、センサ110は「木」に応じた入力信号を取得し、着信端末100−1が「胸ポケット」にあれば、センサ110は「綿」に応じた入力信号を取得する。また、着信端末100−1が「会議室の机」にあれば、センサ110は「ガラス」に応じた入力信号を取得する。   As an example, the sensor 110 acquires input information corresponding to the type of substance that is close to the sensor 110. Using the fact that the light reflection characteristics differ depending on the type of substance, the sensor 110 can acquire input information according to the type of substance when the sensor 110 is an optical sensor as described above. Referring to FIG. 1, the “self-seat desk” of case A, the “chest pocket” of case B, and the “conference room desk” of case C are made of, for example, “wood”, “cotton”, and “glass”, respectively. Has been. In this case, if the receiving terminal 100-1 is in the “seat desk”, the sensor 110 acquires an input signal corresponding to “tree”, and if the receiving terminal 100-1 is in the “chest pocket”, the sensor 110 Acquires an input signal corresponding to “cotton”. Further, if the receiving terminal 100-1 is at the “conference room desk”, the sensor 110 acquires an input signal corresponding to “glass”.

なお、センサ110が光学式センサである場合に、センサ110に十分な光が届かない可能性を考慮して、センサ110の近傍に1つ以上の発光器が備えられてもよい。例えば、センサ110と併せて、1つ以上の発行ダイオード(以下、LED)が備えられてもよい。   When the sensor 110 is an optical sensor, one or more light emitters may be provided in the vicinity of the sensor 110 in consideration of the possibility that sufficient light does not reach the sensor 110. For example, in combination with the sensor 110, one or more emitting diodes (hereinafter referred to as LEDs) may be provided.

(識別部120)
識別部120は、予め学習された識別モデルを用いて、センサ110からの入力情報から識別情報を識別する。当該識別情報は、例えば、利用者10の状況を直接的または間接的に示す情報である。一例として、識別情報は、「自席の机」、「胸ポケット」、「会議室の机」等の、着信端末100−1の位置である。そして、これらの識別情報は、それぞれ「利用者10は自席にいる」、「利用者10は移動中である」、「利用者10は会議に参加している」ということを間接的に示す。
(Identification part 120)
The identification unit 120 identifies identification information from input information from the sensor 110 using an identification model learned in advance. The said identification information is information which shows the user's 10 condition directly or indirectly, for example. As an example, the identification information is the position of the receiving terminal 100-1 such as “the desk at the seat”, “the chest pocket”, “the desk in the conference room”, or the like. These pieces of identification information indirectly indicate that “user 10 is at his / her seat”, “user 10 is moving”, and “user 10 is participating in the conference”.

また、上記識別モデルは、センサ110からの未知の入力情報を、予め定められた識別情報の候補のうちの適切な候補に分類するためのモデルである。当該識別モデルは、センサ110からの入力情報と当該入力情報に対応する理想的な識別情報との組合せを教師データとして予め学習される。当該識別モデルは、SVM(Support Vector Machine)、ニューラルネットワーク等の任意の学習アルゴリズムにより学習される。   The identification model is a model for classifying unknown input information from the sensor 110 as an appropriate candidate among predetermined identification information candidates. In the identification model, a combination of input information from the sensor 110 and ideal identification information corresponding to the input information is learned in advance as teacher data. The identification model is learned by an arbitrary learning algorithm such as SVM (Support Vector Machine) or a neural network.

より具体的に、識別部120による識別手法の例を説明する。例えば、センサ110は、上記のように、センサ110に近接する物質の種類(「木」、「綿」および「ガラス」)に応じた入力情報を取得することができる。そこで、以下のような条件下で教師データ用の入力情報を取得し、当該入力情報と以下の理想的な識別情報との組合せである教師データを作成し、識別モデルを学習する。   More specifically, an example of the identification method by the identification unit 120 will be described. For example, as described above, the sensor 110 can acquire input information according to the types of substances (“wood”, “cotton”, and “glass”) that are close to the sensor 110. Thus, input data for teacher data is acquired under the following conditions, teacher data that is a combination of the input information and the following ideal identification information is created, and an identification model is learned.

Figure 2013077969
Figure 2013077969

上記教師データにより学習された識別モデルによれば、「木」に応じた入力情報は、識別情報の候補である「自席の机」に分類される。同様に、「綿」に応じた入力情報は「胸ポケット」に、「ガラス」に応じた入力情報は「会議室の机」に分類される。よって、識別モデルの学習後、例えば、着信端末100−1が自席の机にある場合に、センサ110は、「木」に応じた入力情報を取得し、識別部120は、当該入力情報が識別モデルにおいて「自席の机」に分類されることを確認できる。そのため、識別部120は、当該入力情報から「自席の机」を識別することができる。また、着信端末100−1が胸ポケットにある場合、または着信端末100−1が会議室の机にある場合にも、同様に、識別部120は、入力情報から「胸ポケット」または「会議室の机」を識別することができる。   According to the identification model learned from the teacher data, the input information corresponding to the “tree” is classified into the “personal desk” that is a candidate for the identification information. Similarly, input information corresponding to “cotton” is classified as “chest pocket”, and input information corresponding to “glass” is classified as “desk in conference room”. Therefore, after learning the identification model, for example, when the receiving terminal 100-1 is at a desk at his / her desk, the sensor 110 acquires input information corresponding to “tree”, and the identification unit 120 identifies the input information. It can be confirmed that the model is classified as “Self Desk”. Therefore, the identification unit 120 can identify “the desk at the seat” from the input information. Similarly, when the receiving terminal 100-1 is in the chest pocket or when the receiving terminal 100-1 is at the desk in the conference room, the identification unit 120 similarly determines the “chest pocket” or “conference room” from the input information. Can be identified.

このように、識別部120は、入力情報から、着信端末100−1の位置を識別できる。なお、光学式センサを用いた物質の種類の識別手法は、文献「Harrison, Chris and Hudson, Scott E. Lightweight Material Detection for Placement-Aware Mobile Computing. In Proceedings of the 21st Annual ACM Symposium on User Interface Software and Technology. UIST ’08.
ACM, New York, NY, 279-282.」において詳細に記載されている。
Thus, the identification unit 120 can identify the position of the receiving terminal 100-1 from the input information. The method of identifying the type of substance using an optical sensor is described in the document `` Harrison, Chris and Hudson, Scott E. Lightweight Material Detection for Placement-Aware Mobile Computing.In Proceedings of the 21st Annual ACM Symposium on User Interface Software and Technology. UIST '08.
ACM, New York, NY, 279-282.

以上のように、予め学習された識別モデルを用いた識別により、センサ110からの入力情報から、利用者10の状況を直接的または間接的に示す情報を得ることができる。   As described above, information that directly or indirectly indicates the situation of the user 10 can be obtained from input information from the sensor 110 by identification using a previously learned identification model.

(記憶部130)
記憶部130は、着信端末100−1において一時的にまたは恒久的に保持すべき情報を記憶する。より具体的には、記憶部130は、例えば、識別部120により識別される識別情報と、着信端末100−1による着信時の呼出動作を示す情報とを対応して記憶する。以下、この点について図3を参照してより具体的に説明する。
(Storage unit 130)
The storage unit 130 stores information that should be temporarily or permanently stored in the receiving terminal 100-1. More specifically, the storage unit 130 stores, for example, identification information identified by the identification unit 120 and information indicating a call operation at the time of an incoming call by the receiving terminal 100-1. Hereinafter, this point will be described more specifically with reference to FIG.

図3は、第1の実施形態に係る記憶部130に記憶される参照テーブル131の一例を説明する説明図である。図3を参照すると、参照テーブル131は、識別情報および呼出動作情報を対応して記憶する。識別情報は、識別部120により識別される識別情報である。図3の例では、当該識別情報は、「自席の机」、「胸ポケット」および「会議室の机」のうちのいずれかである。また、呼出動作情報は、着信端末100−1による着信時の呼出動作を示す情報である。図3の例では、呼出動作情報は、「着信音の発生」、「振動(バイブレーション)」、「画面上の表示の変更」のいずれかである。   FIG. 3 is an explanatory diagram illustrating an example of the reference table 131 stored in the storage unit 130 according to the first embodiment. Referring to FIG. 3, the reference table 131 stores identification information and call operation information correspondingly. The identification information is identification information identified by the identification unit 120. In the example of FIG. 3, the identification information is any one of “seat desk”, “chest pocket”, and “conference room desk”. The call operation information is information indicating a call operation at the time of an incoming call by the receiving terminal 100-1. In the example of FIG. 3, the call operation information is any one of “generation of ringtone”, “vibration”, and “change of display on the screen”.

上記参照テーブル131では、識別情報と呼出動作情報との対応関係によって、識別情報が識別された場合の適切な呼出動作が定められている。例えば、識別情報として「自席の机」が識別された場合の適切な呼出動作として、「着信音の発生」が定められている。
なぜならば、「着信端末100−1が自席の机にあれば、利用者10が自席にいるので、利用者10が通話可能な状態にあり、かつ着信音を発生させても迷惑はかからない」と考えられるからである。また、識別情報として「胸ポケット」が識別された場合の適切な呼出動作として、「振動(バイブレーション)」が定められている。なぜならば、「着信端末100−1が胸ポケットにあれば、利用者10が移動中であるので、利用者10が通話可能かは不明であり、かつ着信音の発生により迷惑がかかる可能性もある」と考えられるからである。また、識別情報として「会議室の机」が識別された場合の適切な呼出動作として、「画面上の表示の変更」が定められている。なぜならば、「着信端末100−1が会議室の机にあれば、利用者10は会議に参加しているので、利用者10が通話不能な状態にあり、かつ着信音の発生や振動により迷惑がかかる」と考えられるからである。
In the reference table 131, an appropriate call operation when the identification information is identified is determined by the correspondence between the identification information and the call operation information. For example, “occurrence of ringing tone” is defined as an appropriate call operation when “own desk” is identified as identification information.
This is because “if the receiving terminal 100-1 is at the desk at his / her desk, the user 10 is at his / her desk, so that the user 10 is in a state where he / she can talk, and even if a ringing tone is generated, there is no inconvenience”. It is possible. Further, “vibration” is defined as an appropriate calling operation when “chest pocket” is identified as identification information. This is because, if the receiving terminal 100-1 is in the breast pocket, the user 10 is moving, so it is unclear whether the user 10 can make a call, and there is a possibility that it may be inconvenienced by the occurrence of a ringtone. It is because it is thought that there is. Further, “change of display on screen” is defined as an appropriate call operation when “conference room desk” is identified as identification information. This is because “if the receiving terminal 100-1 is at a desk in the conference room, the user 10 is participating in the conference, so that the user 10 is in a state incapable of calling and annoying due to the occurrence of ringtone and vibration. This is because it is considered to take "

このように、識別情報と呼出動作情報との間の適切な対応関係を定めることで、正しい識別情報を取得できれば、着信時の利用者10の状況に応じた適切な呼出動作を判定することが可能になる。   In this way, by determining an appropriate correspondence between the identification information and the call operation information, if the correct identification information can be acquired, it is possible to determine an appropriate call operation according to the situation of the user 10 at the time of the incoming call. It becomes possible.

また、記憶部130は、例えば、識別部120により用いられる識別モデルを記憶する。さらに、記憶部130は、当該識別モデルの学習用の教師データも記憶してもよい。   In addition, the storage unit 130 stores an identification model used by the identification unit 120, for example. Furthermore, the storage unit 130 may also store teacher data for learning the identification model.

(呼出制御部140)
呼出制御部140は、センサ110からの入力情報に対応する呼出動作を判定する。換言すると、呼出制御部140は、予め学習された識別モデルを用いて上記入力情報から識別される識別情報に対応する呼出動作を判定する。より具体的には、呼出制御部140は、例えば、記憶部130の参照テーブル131を参照して、識別部120から取得した識別情報に対応する呼出動作情報を検索することにより、当該識別情報に対応する呼出動作を判定する。例えば、呼出制御部140は、「自席の机」という識別情報を取得すると、当該識別情報に対応する「着信音の発生」という呼出動作情報を検索する。そして、呼出制御部140は、識別情報に対応する呼出動作が「着信音の発生」であると判定する。
(Call control unit 140)
The call control unit 140 determines a call operation corresponding to the input information from the sensor 110. In other words, the call control unit 140 determines a call operation corresponding to the identification information identified from the input information using an identification model learned in advance. More specifically, the call control unit 140 searches the call operation information corresponding to the identification information acquired from the identification unit 120 with reference to the reference table 131 of the storage unit 130, for example, to obtain the identification information. The corresponding call operation is determined. For example, when the call control unit 140 acquires the identification information “desk of the seat”, the call control unit 140 searches for call operation information “generation of ringtone” corresponding to the identification information. Then, the call control unit 140 determines that the call operation corresponding to the identification information is “occurrence of ringing tone”.

また、呼出制御部140は、呼出動作の判定結果を用いて、センサ110を備える装置における着信時の呼出動作を制御する。すなわち、呼出制御部140は、上記判定結果を用いて、着信端末100−1の呼出動作を制御する。より具体的には、呼出制御部140は、例えば、判定された呼出動作を呼出出力部160に通知することにより、呼出出力部160に呼出動作を行わせる。   In addition, the call control unit 140 controls the call operation at the time of an incoming call in a device including the sensor 110 using the determination result of the call operation. That is, the call control unit 140 controls the call operation of the receiving terminal 100-1 using the determination result. More specifically, the call control unit 140 causes the call output unit 160 to perform a call operation by, for example, notifying the call output unit 160 of the determined call operation.

このような呼出動作の判定および制御により、センサからの入力情報または識別情報から、着信時の利用者10の状況に応じた適切な呼出動作を着信端末100−1に行わせることが可能になる。その結果、利用者10は、自身の状況に応じて着信端末100−1の呼出動作を選択する手間を省くことができる。また、利用者10が自身の状況に応じて呼出動作を選択し忘れることにより不適切な呼出動作が行われることを回避することができる。   By such determination and control of the calling operation, it is possible to cause the receiving terminal 100-1 to perform an appropriate calling operation according to the situation of the user 10 at the time of incoming call based on the input information or identification information from the sensor. . As a result, the user 10 can save the trouble of selecting the call operation of the receiving terminal 100-1 according to his / her situation. In addition, it is possible to prevent an inappropriate call operation from being performed when the user 10 forgets to select a call operation according to his / her situation.

なお、上記呼出動作は、例えば着信音の発生、振動、または画面上の表示の変更を含むが、これらに限定されず任意の呼出動作であってもよい。また、上記呼出動作は、着信音の発生と振動との組合せのように、複数の呼出動作の組合せであってもよい。   The calling operation includes, for example, generation of a ringing tone, vibration, or change of display on the screen, but is not limited thereto and may be any calling operation. Further, the call operation may be a combination of a plurality of call operations, such as a combination of ringtone generation and vibration.

(通信部150)
通信部150は、他の通信装置と通信する。より具体的には、通信部150は、例えば、ネットワーク30を介して発信端末200と通信する。
(Communication unit 150)
The communication unit 150 communicates with other communication devices. More specifically, the communication unit 150 communicates with the calling terminal 200 via the network 30, for example.

例えば、通信部150は、発信端末200からの電話、電子メール、インスタントメッセージ等を着信すると、着信があったことを呼出出力部160および応答入力部170に通知する。   For example, when the communication unit 150 receives a call, e-mail, instant message, or the like from the transmission terminal 200, the communication unit 150 notifies the call output unit 160 and the response input unit 170 that there is an incoming call.

また、通信部150は、着信があった場合に、応答入力部170からの着信への応答手段を通知されると、当該応答手段に応じた制御を行う。例えば、当該着信が通話のための着信である場合に、応答手段が「通話」であったとすると、通信部150は、発信端末200に応答信号を送信し、発信端末200とのセッションを確立する。また、応答手段が「通話拒否」であったとすると、通信部150は、通話拒否を通知する信号を発信端末200に送信する。また、応答手段が「保留」であったとすると、保留中であることを通知する信号を発信端末200に送信する。また、応答手段が「留守番電話」であったとすると、通信部150は、「通話」と同様の動作を行った上で、留守番電話メッセージの入力を通知する信号を発信端末200に送信する。また、通信部150は、受信する音声データを音声保存部187に出力するように音声処理部181に指示する。   Further, when the communication unit 150 is notified of a response means to the incoming call from the response input unit 170 when there is an incoming call, the communication unit 150 performs control according to the response means. For example, if the incoming call is an incoming call, and the response means is “call”, the communication unit 150 transmits a response signal to the calling terminal 200 and establishes a session with the calling terminal 200. . If the response means is “call rejection”, communication unit 150 transmits a signal notifying call rejection to calling terminal 200. If the response means is “pending”, a signal notifying that the response means is on hold is transmitted to the transmitting terminal 200. If the response means is “answer machine”, the communication unit 150 performs the same operation as “call”, and transmits a signal notifying the input of the answering machine message to the calling terminal 200. In addition, the communication unit 150 instructs the audio processing unit 181 to output the received audio data to the audio storage unit 187.

また、通信部150は、発信端末200へデータを送信し、発信端末200からデータを受信する。例えば、電話における音声データの送受信であれば、通信部150は、発信端末200から受信した音声データを音声処理部181へ出力し、音声処理部181により入力された音声データを発信端末200へ送信する。なお、通信部150は、必要に応じて、送信すべきデータをパケットに分解し、受信したパケットを組立てる。   Communication unit 150 transmits data to transmitting terminal 200 and receives data from transmitting terminal 200. For example, in the case of voice data transmission / reception in a telephone, the communication unit 150 outputs the voice data received from the calling terminal 200 to the voice processing unit 181 and transmits the voice data input by the voice processing unit 181 to the calling terminal 200. To do. Note that the communication unit 150 disassembles data to be transmitted into packets as necessary and assembles the received packets.

(呼出出力部160)
呼出出力部160は、着信端末100−1における着信時の呼出動作を行う。より具体的には、呼出出力部160は、着信があったことを通信部150から通知されると、呼出制御部140により判定された呼出動作を行う。呼出出力部160は、例えば、着信音を発生させ、着信端末100−1を振動させ、または着信端末100−1の画面上の表示を変更する。
(Call output unit 160)
The call output unit 160 performs a call operation when an incoming call is received at the receiving terminal 100-1. More specifically, the call output unit 160 performs the call operation determined by the call control unit 140 when notified from the communication unit 150 that there is an incoming call. For example, the call output unit 160 generates a ring tone, vibrates the incoming terminal 100-1, or changes the display on the screen of the incoming terminal 100-1.

(応答入力部170)
応答入力部170は、着信時に応答手段を選択する。より具体的には、応答入力部170は、例えば、着信端末100−1への着信があった場合に、利用者10の操作に応じて、複数の応答手段からいずれかの応答手段を選択する。そして、応答入力部170は、選択された応答手段を通信部150に通知する。上記応答手段は、例えば、着信が通話のための着信である場合に、通話、通話拒否、保留、または留守番電話への録音を含む。
(Response input unit 170)
The response input unit 170 selects a response means when receiving an incoming call. More specifically, for example, when there is an incoming call to the receiving terminal 100-1, the response input unit 170 selects one of the response means from the plurality of response means according to the operation of the user 10. . Then, the response input unit 170 notifies the communication unit 150 of the selected response means. The response means includes, for example, recording to a call, rejecting a call, holding, or answering machine when the incoming call is an incoming call.

(音声処理部181)
音声処理部181は、音声入力部183により入力される音声信号をアナログ/デジタル変換(A/D変換)し、必要に応じて符号化する。そして、音声処理部181は、処理後の音声データを通信部150に出力する。
(Audio processing unit 181)
The audio processing unit 181 performs analog / digital conversion (A / D conversion) on the audio signal input by the audio input unit 183 and encodes it as necessary. Then, the voice processing unit 181 outputs the processed voice data to the communication unit 150.

また、音声処理部181は、通信部150により入力された音声データを、必要に応じて復号し、音声データをデジタル/アナログ変換(D/A変換)する。そして、音声処理部181は、処理後の音声信号を音声出力部185に出力する。なお、音声処理部181は、通信部150による制御に応じて、通信部150から入力された音声データを音声保存部187に出力してもよい。   In addition, the voice processing unit 181 decodes the voice data input by the communication unit 150 as necessary, and performs digital / analog conversion (D / A conversion) on the voice data. Then, the audio processing unit 181 outputs the processed audio signal to the audio output unit 185. Note that the voice processing unit 181 may output the voice data input from the communication unit 150 to the voice storage unit 187 in accordance with control by the communication unit 150.

(音声入力部183)
音声入力部183は、利用者10により発せられた音声から音声信号を取得し、音声処理部181に出力する。音声入力部183は、例えば、マイクロフォンである。
(Voice input unit 183)
The voice input unit 183 acquires a voice signal from the voice uttered by the user 10 and outputs the voice signal to the voice processing unit 181. The voice input unit 183 is, for example, a microphone.

(音声出力部185)
音声出力部185は、音声処理部181により入力された音声信号から音声を再生する。音声出力部185は、例えば、スピーカ、イヤフォン、またはヘッドフォンである。
(Audio output unit 185)
The audio output unit 185 reproduces audio from the audio signal input by the audio processing unit 181. The audio output unit 185 is, for example, a speaker, an earphone, or a headphone.

(音声保存部187)
音声保存部187は、音声処理部181により入力された音声データを記憶する。
(Audio storage unit 187)
The voice storage unit 187 stores the voice data input by the voice processing unit 181.

<2−2.発信信側の利用者端末の構成>
次に、図4を参照して、第1の実施形態に係る発信端末200の構成について説明する。図4は、第1の実施形態に係る発信端末200の構成の一例を示すブロック図である。図4を参照すると、発信端末200は、音声入力部210、音声出力部220、音声処理部230、操作入力部240および通信部250を備える。
<2-2. Configuration of user terminal on outgoing side>
Next, the configuration of the transmission terminal 200 according to the first embodiment will be described with reference to FIG. FIG. 4 is a block diagram illustrating an example of the configuration of the transmission terminal 200 according to the first embodiment. Referring to FIG. 4, the transmission terminal 200 includes a voice input unit 210, a voice output unit 220, a voice processing unit 230, an operation input unit 240, and a communication unit 250.

(音声入力部210)
音声入力部210は、利用者20により発せられた音声から音声信号を取得し、音声処理部230に出力する。音声入力部183は、例えば、マイクロフォンである。
(Voice input unit 210)
The voice input unit 210 acquires a voice signal from the voice uttered by the user 20 and outputs it to the voice processing unit 230. The voice input unit 183 is, for example, a microphone.

(音声出力部220)
音声出力部220は、音声処理部230により入力された音声信号から音声を再生する。音声出力部220は、例えば、スピーカ、イヤフォン、またはヘッドフォンである。
(Audio output unit 220)
The audio output unit 220 reproduces audio from the audio signal input by the audio processing unit 230. The audio output unit 220 is, for example, a speaker, an earphone, or a headphone.

(音声処理部230)
音声処理部230は、音声入力部210により入力される音声信号をアナログ/デジタル変換(A/D変換)し、必要に応じて符号化する。そして、音声処理部230は、処理後の音声データを通信部250に出力する。
(Audio processor 230)
The audio processing unit 230 performs analog / digital conversion (A / D conversion) on the audio signal input from the audio input unit 210 and encodes it as necessary. Then, the voice processing unit 230 outputs the processed voice data to the communication unit 250.

また、音声処理部230は、通信部250により入力された音声データを、必要に応じて復号し、音声データをデジタル/アナログ変換(D/A変換)する。そして、音声処理部230は、処理後の音声信号を音声出力部220に出力する。   Also, the audio processing unit 230 decodes the audio data input by the communication unit 250 as necessary, and performs digital / analog conversion (D / A conversion) on the audio data. Then, the audio processing unit 230 outputs the processed audio signal to the audio output unit 220.

(操作入力部240)
操作入力部240は、利用者20の操作に応じた入力情報を取得する。より具体的には、操作入力部240は、例えば、利用者20の操作に応じて電話番号や利用者IDを発信先として取得し、当該電話番号や利用者IDを発信先とする発信を通信部250に依頼する。
(Operation input unit 240)
The operation input unit 240 acquires input information corresponding to the operation of the user 20. More specifically, for example, the operation input unit 240 acquires a telephone number or a user ID as a transmission destination in accordance with an operation of the user 20, and communicates a transmission using the telephone number or the user ID as a transmission destination. Request to the section 250.

(通信部250)
通信部250は、他の通信装置と通信する。より具体的には、通信部250は、例えば、ネットワーク30を介して着信端末100と通信する。なお、通信部250も、着信端末100−1の通信部150と同様に動作する。
(Communication unit 250)
The communication unit 250 communicates with other communication devices. More specifically, the communication unit 250 communicates with the receiving terminal 100 via the network 30, for example. The communication unit 250 operates in the same manner as the communication unit 150 of the receiving terminal 100-1.

<2−3.処理の流れ>
以下では、図5を参照して、第1の実施形態に係る情報処理の一例について説明する。図5は、第1の実施形態に係るにおける情報処理の概略的な流れの一例を示すフローチャートである。
<2-3. Process flow>
Hereinafter, an example of information processing according to the first embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of a schematic flow of information processing according to the first embodiment.

まず、ステップS401で、着信端末100−1の通信部150は、発信端末200からの電話、電子メール、インスタントメッセージ等を着信し、着信があったことを呼出出力部160および応答入力部170に通知する。   First, in step S401, the communication unit 150 of the receiving terminal 100-1 receives a call, e-mail, instant message or the like from the calling terminal 200, and notifies the call output unit 160 and the response input unit 170 that there has been an incoming call. Notice.

次に、ステップS403で、センサ110は、着信端末100−1の環境に応じた入力情報を取得する。次に、ステップS405で、識別部120は、予め学習された識別モデルを用いて、センサ110からの入力情報から識別情報を識別する。そして、ステップS407で、呼出制御部140は、センサ110からの入力情報に対応する呼出動作を判定する。   Next, in step S403, the sensor 110 acquires input information corresponding to the environment of the receiving terminal 100-1. Next, in step S405, the identification unit 120 identifies identification information from input information from the sensor 110 using an identification model learned in advance. In step S407, the call control unit 140 determines a call operation corresponding to the input information from the sensor 110.

次に、ステップS409で、呼出制御部140は、呼出動作の判定結果を用いて、着信端末100−1における着信時の呼出動作を制御する。そして、呼出出力部160は、着信端末100−1における着信時の呼出動作を行う。そして、処理は終了する。   Next, in step S409, the call control unit 140 controls the call operation at the time of incoming call at the receiving terminal 100-1 using the determination result of the call operation. Then, the call output unit 160 performs a call operation when an incoming call is received at the receiving terminal 100-1. Then, the process ends.

以上、第1の実施形態について説明したが、当該第1の実施形態によれば、着信端末100に備えられるセンサからの入力情報を利用して、着信時の利用者10の状況に応じた適切な呼出動作を着信端末100−1が行うことが可能になる。   As described above, the first embodiment has been described. According to the first embodiment, the input information from the sensor provided in the receiving terminal 100 is used to make an appropriate response according to the situation of the user 10 at the time of the incoming call. It is possible for the receiving terminal 100-1 to perform a simple call operation.

<3.第2の実施形態>
上記第1の実施形態では、センサ110からの入力情報を用いて、利用者10の状況に応じた呼出動作を選択した。しかし、センサ110は、ハードウェアの故障、汚れ等により恒常的に誤った値を出力する可能性がある。この場合に、センサからの入力情報から望ましくない識別情報(例えば、着信端末100−1の位置)が識別され、当該識別情報に応じた不適切な呼出動作が選択される。そこで、第2の実施形態では、着信端末110−2における呼出動作への利用者10の応答パターンを利用して、センサ110からの入力情報と識別情報との対応関係を検証し、当該対応関係が不適切である場合に、識別モデルの再学習を行う。
<3. Second Embodiment>
In the first embodiment, the call operation corresponding to the situation of the user 10 is selected using the input information from the sensor 110. However, the sensor 110 may output an erroneous value constantly due to hardware failure, contamination, or the like. In this case, undesirable identification information (for example, the position of the receiving terminal 100-1) is identified from the input information from the sensor, and an inappropriate call operation according to the identification information is selected. Therefore, in the second embodiment, the correspondence relationship between the input information from the sensor 110 and the identification information is verified using the response pattern of the user 10 to the call operation at the receiving terminal 110-2, and the correspondence relationship is verified. If is not appropriate, re-learning of the identification model is performed.

以下では、第2の実施形態を<3−1.着信側の利用者端末の構成>、<3−2.処理の流れ>という順序で説明する。   In the following, the second embodiment is described in <3-1. Configuration of called-side user terminal>, <3-2. The process will be described in the order of process flow>.

<3−1.着信側の利用者端末の構成>
図6および図7を参照して、第2の実施形態に係る着信端末100−2の構成について説明する。図6は、第2の実施形態に係る着信端末100−2の構成の一例を示すブロック図である。図6を参照すると、着信端末100−2は、センサ110、識別部120、記憶部133、呼出制御部140、通信部150、呼出出力部160、応答入力部173、音声処理部181、音声入力部183、音声出力部185、音声保存部187および検証学習部190を備える。ここで、検証学習部190は、検出部、取得部およびカウント部の一例である。
<3-1. Configuration of incoming user terminal>
With reference to FIG. 6 and FIG. 7, the structure of the receiving terminal 100-2 which concerns on 2nd Embodiment is demonstrated. FIG. 6 is a block diagram illustrating an example of the configuration of the receiving terminal 100-2 according to the second embodiment. Referring to FIG. 6, the receiving terminal 100-2 includes a sensor 110, an identification unit 120, a storage unit 133, a call control unit 140, a communication unit 150, a call output unit 160, a response input unit 173, a voice processing unit 181 and a voice input. A unit 183, a voice output unit 185, a voice storage unit 187, and a verification learning unit 190. Here, the verification learning unit 190 is an example of a detection unit, an acquisition unit, and a count unit.

ここで、記憶部133、応答入力部173および検証学習部190以外の構成要素については、第1の実施形態との間に差異はない。よって、ここでは、新たに備えられる検証学習部190と、第1の実施形態の記憶部130および応答入力部170から一部変更された記憶部133および応答入力部173の変更部分とを説明する。
る。
Here, constituent elements other than the storage unit 133, the response input unit 173, and the verification learning unit 190 are not different from those of the first embodiment. Therefore, here, the verification learning unit 190 newly provided, and the changed parts of the storage unit 133 and the response input unit 173 that are partly changed from the storage unit 130 and the response input unit 170 of the first embodiment will be described. .
The

(記憶部133)
記憶部133は、識別部120により識別される識別情報と、当該識別情報に対応する呼出動作を行う場合の予測応答パターンとを対応して記憶する。ここで、予測応答パターンは、例えば、選択すると予測される応答手段、または、呼出動作の開始時点から応答までの予測時間を含む。また、応答手段は、上記のとおり、例えば、着信が通話のための着信である場合に、通話、通話拒否、保留、または留守番電話への録音を含む。以下、記憶部133のより具体的な内容について、図7を参照してより具体的に説明する。
(Storage unit 133)
The storage unit 133 stores the identification information identified by the identification unit 120 and the predicted response pattern when performing a call operation corresponding to the identification information. Here, the predicted response pattern includes, for example, a response means that is predicted to be selected or a predicted time from the start of the call operation to the response. As described above, the response means includes, for example, a call, a call rejection, a hold, or a recording to an answering machine when the incoming call is an incoming call. Hereinafter, more specific contents of the storage unit 133 will be described more specifically with reference to FIG.

図7は、第2の実施形態に係る記憶部133に記憶される参照テーブル135の一例を説明する説明図である。図7を参照すると、参照テーブル135は、識別情報、呼出動作情報、予測応答手段、予測応答時間および不一致回数を対応して記憶する。ここで、識別情報および呼出動作情報は、図3で説明された参照テーブル131の識別情報および呼出動作情報と同じである。   FIG. 7 is an explanatory diagram illustrating an example of the reference table 135 stored in the storage unit 133 according to the second embodiment. Referring to FIG. 7, the reference table 135 stores identification information, call operation information, prediction response means, prediction response time, and number of mismatches correspondingly. Here, the identification information and the call operation information are the same as the identification information and the call operation information of the reference table 131 described in FIG.

ここで、予測応答手段は、呼出動作情報に示される呼出動作が行われる場合に選択すると予測される応答手段である。図3の例では、当該予測応答手段は、「通話」、「保留」および「応答なし」のうちのいずれかである。「応答なし」は、利用者10により応答手段が選択されないことを示す。   Here, the predicted response unit is a response unit that is predicted to be selected when the call operation indicated in the call operation information is performed. In the example of FIG. 3, the prediction response means is any one of “call”, “hold”, and “no response”. “No response” indicates that no response means is selected by the user 10.

また、予測応答時間は、呼出動作情報に示される呼出動作が行われる場合の呼出動作の開始時点から応答までの予測時間である。図7の例では、当該予測応答時間は、「短」、「中」および「−」のいずれかである。図7の例には記載されていないが、予測応答時間は、さらに「長」であってもよい。これらの「短」、「中」および「長」は、応答時間の長さの分類である。一例として、「短」は5秒未満を示し、「中」は5秒以上かつ20秒未満を示し、「長」は20秒以上を示してもよい。なお、「−」は、応答がなかったため応答時間もないことを示す。   The predicted response time is an estimated time from the start of the call operation to the response when the call operation indicated in the call operation information is performed. In the example of FIG. 7, the predicted response time is any one of “short”, “medium”, and “−”. Although not described in the example of FIG. 7, the predicted response time may be “long”. These “short”, “medium” and “long” are categories of response time length. As an example, “short” may indicate less than 5 seconds, “medium” may indicate 5 seconds or more and less than 20 seconds, and “long” may indicate 20 seconds or more. Note that “-” indicates that there is no response time because there is no response.

また、不一致回数は、ある識別情報が識別された場合に、実際に観測された応答手段または応答時間と、当該識別情報に対応する予測応答手段または予測応答時間との不一致が検出された回数である。当該不一致の検出については、検証学習部190に関連して後に説明する。   Further, the number of mismatches is the number of times when a mismatch between the actually observed response means or response time and the predicted response means or predicted response time corresponding to the identification information is detected when certain identification information is identified. is there. The detection of the mismatch will be described later in connection with the verification learning unit 190.

このように、識別情報と予測応答パターンとの対応関係を定めることで、実際の応答パターンと予測応答パターンとを比較することが可能になる。   Thus, by defining the correspondence between the identification information and the predicted response pattern, it is possible to compare the actual response pattern with the predicted response pattern.

(応答入力部173)
応答入力部173は、着信時の応答パターンを観測する。当該応答パターンは、例えば、選択される応答手段または呼出動作の開始時点から応答までの時間を含む。例えば、電話の着信があり、呼出出力部160が着信音を発生させる場合に、利用者10が10秒後に保留を選択すれば、応答入力部173は、応答手段として「保留」を観測し、応答時間として「10秒」を観測する。または、利用者10が応答しなければ、応答入力部173は、例えば、応答手段として「応答なし」を観測し、応答時間を観測しない。そして、応答入力部173は、観測した応答パターンを検証学習部190に出力する。
(Response input unit 173)
The response input unit 173 observes the response pattern at the time of incoming call. The response pattern includes, for example, the time from the start of the selected response means or call operation to the response. For example, when there is an incoming call and the call output unit 160 generates a ring tone, if the user 10 selects hold after 10 seconds, the response input unit 173 observes “hold” as a response means, “10 seconds” is observed as the response time. Alternatively, if the user 10 does not respond, the response input unit 173, for example, observes “no response” as a response means and does not observe the response time. Then, the response input unit 173 outputs the observed response pattern to the verification learning unit 190.

(検証学習部190)
検証学習部190は、センサ110からの第1の入力情報から第1の識別情報が識別される場合に、当該第1の識別情報に対応する呼出動作の結果観測される応答パターンと、上記第1の識別情報に対応して記憶される第1の予測応答パターンとが一致するか否かを検出する。図7を参照して具体例を説明すると、センサ110からの入力情報から、識別部120により「自席の机」が識別情報として識別されると、参照テーブル135に示されるとおり、呼出出力部160は着信音を発生させる。そして、応答入力部173は、例えば、応答手段として「通話」を観測し、応答時間として「3秒」を観測する。この場合に、検証学習部190は、観測された応答手段である「通話」および観測された応答時間である「3秒」と、識別情報「着信音の発生」に対応する予測応答手段である「通話」および予測応答時間である「短(5秒未満)」とを比較する。そして、検証学習部190は、観測された応答手段および応答時間と、予測応答手段および予測応答時間との一致を検出する。すなわち、センサ110の入力情報からの識別情報の識別が正しかったと判断される。
(Verification learning unit 190)
The verification learning unit 190, when the first identification information is identified from the first input information from the sensor 110, the response pattern observed as a result of the call operation corresponding to the first identification information, and the first It is detected whether or not the first predicted response pattern stored corresponding to one identification information matches. A specific example will be described with reference to FIG. 7. When “identification desk” is identified as identification information by the identification unit 120 from the input information from the sensor 110, as shown in the reference table 135, the call output unit 160. Generates a ringtone. And the response input part 173 observes "call" as a response means, for example, and observes "3 second" as a response time. In this case, the verification learning unit 190 is a predictive response unit corresponding to the observed response unit “call”, the observed response time “3 seconds”, and the identification information “occurrence of ringing tone”. A comparison is made between “call” and the predicted response time “short (less than 5 seconds)”. Then, the verification learning unit 190 detects a match between the observed response unit and response time and the predicted response unit and predicted response time. That is, it is determined that the identification information from the input information of the sensor 110 has been correctly identified.

図7を参照して別の具体例を説明する。上記具体例と同様に、センサ110からの入力情報から、識別部120により「自席の机」が識別情報として識別されると、参照テーブル135に示されるとおり、呼出出力部160は着信音を発生させる。ここで、応答入力部173は、例えば、応答手段として「保留」を観測し、応答時間として「10秒」を観測する。この場合に、検証学習部190は、観測された応答手段である「保留」および観測された応答時間である「10秒」と、識別情報「着信音の発生」に対応する予測応答手段である「通話」および予測応答時間である「短(5秒未満)」とを比較する。そして、検証学習部190は、観測された応答手段および応答時間と、予測応答手段および予測応答時間との不一致を検出する。すなわち、センサ110の入力情報からの識別情報の識別が正しくなかったと判断される。   Another specific example will be described with reference to FIG. As in the above specific example, when “identification desk” is identified as identification information by the identification unit 120 from the input information from the sensor 110, the call output unit 160 generates a ring tone as shown in the reference table 135. Let Here, for example, the response input unit 173 observes “pending” as a response means and “10 seconds” as a response time. In this case, the verification learning unit 190 is a predictive response unit corresponding to the observed response unit “pending”, the observed response time “10 seconds”, and the identification information “occurrence of ringing tone”. A comparison is made between “call” and the predicted response time “short (less than 5 seconds)”. Then, the verification learning unit 190 detects a mismatch between the observed response unit and response time and the predicted response unit and predicted response time. That is, it is determined that the identification information from the input information of the sensor 110 is not correctly identified.

このように実際に観測された応答パターンと予測応答パターンとが一致するか否かを検出することにより、識別情報と予測応答パターンとの適切な対応付けを前提として、センサ110の入力情報からの識別情報の識別の正しさを検証することができる。すなわち、センサ110のメンテナンスまたは識別モデルの再学習が必要であることを知ることができる。その結果、不適切な呼出動作が継続して選択されることを回避できる。   Thus, by detecting whether or not the actually observed response pattern matches the predicted response pattern, it is possible to obtain the appropriate correspondence between the identification information and the predicted response pattern from the input information of the sensor 110. The correctness of identification information can be verified. That is, it can be known that the maintenance of the sensor 110 or the relearning of the identification model is necessary. As a result, it is possible to avoid continuously selecting inappropriate call operations.

また、検証学習部190は、例えば、観測される上記応答パターンと上記第1の予測応答パターンとの不一致が検出された場合に、上記第1の入力情報と、観測された上記応答パターンに該当する第2の予測応答パターンに対応して記憶される第2の識別情報との組合せを、上記識別モデルの再学習用データとして取得する。図7を参照して具体例を説明する。例えば、上記のように、識別情報が「自席の机」である場合に、観測された応答手段および応答時間が「保留」および「10秒」であったとすると、応答手段および応答時間と、予測応答手段(通話)および予測応答時間(短(5秒未満))との不一致が検出される。この場合に、検証学習部190は、観測された応答手段である「保留」および応答時間である「10秒」の組合せに該当する予測応答手段および予測応答時間の組合せを、参照テーブル135から特定する。すなわち、検証学習部190は、予測応答時間および予測応答時間の組合せである「保留」および「中(5秒以上かつ20秒未満)」を特定する。次に、検証学習部190は、「保留」および「中(5秒以上かつ20秒未満)」の組合せに対応して、参照テーブル135に記憶される「胸ポケット」という識別情報を取得する。そして、検証学習部190は、この場合のセンサ110からの入力情報と、「胸ポケット」という識別情報との組合せを、識別モデルの再学習用の教師データとして取得する。   For example, when a mismatch between the observed response pattern and the first predicted response pattern is detected, the verification learning unit 190 corresponds to the first input information and the observed response pattern. A combination with the second identification information stored corresponding to the second predicted response pattern is acquired as relearning data for the identification model. A specific example will be described with reference to FIG. For example, as described above, when the identification information is “seat desk” and the observed response means and response time are “pending” and “10 seconds”, the response means and response time are predicted. A mismatch between the response means (call) and the predicted response time (short (less than 5 seconds)) is detected. In this case, the verification learning unit 190 identifies the combination of the predicted response means and the predicted response time corresponding to the combination of “pending” as the observed response means and “10 seconds” as the response time from the reference table 135. To do. That is, the verification learning unit 190 specifies “hold” and “medium (5 seconds or more and less than 20 seconds)” that are combinations of the predicted response time and the predicted response time. Next, the verification learning unit 190 acquires the identification information “chest pocket” stored in the reference table 135 corresponding to the combination of “pending” and “medium (more than 5 seconds and less than 20 seconds)”. Then, the verification learning unit 190 acquires the combination of the input information from the sensor 110 and the identification information “chest pocket” in this case as teacher data for re-learning the identification model.

このように、センサ110からの入力情報と、予測応答パターンから導かれる理想的な識別情報とを教師データとして取得することで、識別情報と予測応答パターンとの適切な対応付けを前提として、信頼性の高い教師データを自動的に取得し続けることができる。よって、当該教師データを用いて再度学習することで、より信頼性の高い識別モデルを得られる。   As described above, the input information from the sensor 110 and the ideal identification information derived from the predicted response pattern are acquired as teacher data, so that the appropriate correspondence between the identification information and the predicted response pattern is assumed. Highly accurate teacher data can be continuously acquired. Therefore, a more reliable identification model can be obtained by learning again using the teacher data.

また、検証学習部190は、例えば、上記第1の識別情報が識別された場合に、観測された上記応答パターンと上記第1の予測応答パターンとの不一致が検出された回数を、上記第1の識別情報についての不一致回数としてカウントする。そして、検証学習部190は、上記不一致回数が所定の回数に到達する場合に、上記第1の入力情報と上記第2の識別情報との組合せを上記再学習用データとして取得する。   Further, for example, when the first identification information is identified, the verification learning unit 190 indicates the number of times that a mismatch between the observed response pattern and the first predicted response pattern is detected. It is counted as the number of mismatches for the identification information. Then, the verification learning unit 190 acquires a combination of the first input information and the second identification information as the re-learning data when the number of mismatches reaches a predetermined number.

図7を参照して具体例を説明する。上記のように、識別情報が「自席の机」である場合に、応答手段および応答時間と、予測応答手段および予測応答時間との不一致が検出される。この場合に、検証学習部190は、参照テーブル135の不一致回数を1だけ増加させる。そして、検証学習部190は、例えば、当該不一致回数が5回に到達する場合に、不一致が検出された際のセンサ110からの入力情報と、予測応答手段および予測応答時間から導かれる理想的な識別情報(例えば、「胸ポケット」)との組合せを、再学習用の教師データとして取得する。   A specific example will be described with reference to FIG. As described above, when the identification information is “self-sitting desk”, a mismatch between the response means and the response time and the predicted response means and the predicted response time is detected. In this case, the verification learning unit 190 increases the number of mismatches in the reference table 135 by one. Then, for example, when the number of mismatches reaches five, the verification learning unit 190 is ideally derived from the input information from the sensor 110 when the mismatch is detected, the prediction response unit, and the prediction response time. A combination with identification information (for example, “chest pocket”) is acquired as teacher data for relearning.

このような不一致回数を設けることで、識別モデルの信頼性が本当に低い場合にのみ、再学習を行うことができる。すなわち、偶然に不一致が検出された場合に、不適切な再学習が行われることを回避できる。   By providing such a mismatch count, relearning can be performed only when the reliability of the identification model is really low. That is, it is possible to avoid inappropriate relearning when a mismatch is detected by chance.

また、検証学習部190は、上記不一致回数が所定の回数に到達するまで、各検出についての上記第1の入力情報と観測された上記応答パターンとを、記憶部133に記憶させる。そして、検証学習部190は、上記所定の回数分の上記第1の入力情報と上記第2の識別情報との組合せを上記再学習用データとして取得する。より具体的には、例えば、当該所定の回数が5回である場合に、検証学習部190は、不一致が検出される度に、センサ110からの入力情報および観測された応答パターンを記憶部133に記憶する。そして、不一致回数が5回に到達すると、5回分の入力情報および観測された応答パターンとから、5つの教師データを取得する。このように、不一致が検出される度に教師データを取得しない場合であっても、不一致回数に応じた教師データを得ることができる。なお、不一致回数は、不一致が検出された通算の回数であってもよい。または、不一致回数は、所定の時間若しくは所定の回数あたりに不一致が検出された回数、すなわち不一致回数の頻度であってもよい。   Further, the verification learning unit 190 causes the storage unit 133 to store the first input information and the observed response pattern for each detection until the number of mismatches reaches a predetermined number. Then, the verification learning unit 190 acquires a combination of the first input information and the second identification information for the predetermined number of times as the relearning data. More specifically, for example, when the predetermined number of times is 5, the verification learning unit 190 stores the input information and the observed response pattern from the sensor 110 each time a mismatch is detected. To remember. Then, when the number of mismatches reaches five, five teacher data are acquired from the input information for five times and the observed response pattern. In this way, even when teacher data is not acquired every time a mismatch is detected, teacher data corresponding to the number of mismatches can be obtained. Note that the number of mismatches may be the total number of times that mismatches have been detected. Alternatively, the number of mismatches may be the number of times a mismatch is detected for a predetermined time or a predetermined number of times, that is, the frequency of the number of mismatches.

また、検証学習部190は、取得した再学習用の教師データを用いて、識別モデルの再学習を行う。なお、検証学習部190は、教師データが得られる度に学習を行ってもよく、または所定の数の教師データを取得する度に、または所定の時間が経過する度に、再学習を行ってもよい。   In addition, the verification learning unit 190 re-learns the identification model using the acquired re-learning teacher data. Note that the verification learning unit 190 may perform learning whenever teacher data is obtained, or perform re-learning every time a predetermined number of teacher data is acquired or every time a predetermined time elapses. Also good.

<3−2.処理の流れ>
以下では、図8を参照して、第2の実施形態に係る情報処理の一例について説明する。図8は、第2の実施形態に係るにおける情報処理の概略的な流れの一例を示すフローチャートである。なお、ここでは、第1の実施形態に係る情報処理の一例と第2の実施形態に係る情報処理の一例との差分であるステップS411〜S423のみを説明する。
<3-2. Process flow>
Hereinafter, an example of information processing according to the second embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of a schematic flow of information processing according to the second embodiment. Here, only steps S411 to S423 that are differences between an example of information processing according to the first embodiment and an example of information processing according to the second embodiment will be described.

ステップS411で、応答入力部173は、応答時間の計測を開始する。そして、ステップS413で、応答入力部173は、着信時の応答パターンを観測する。   In step S411, the response input unit 173 starts measuring the response time. In step S413, the response input unit 173 observes the response pattern at the time of the incoming call.

次に、ステップS415で、検証学習部190は、観測された応答パターンと、識別された識別情報に対応して記憶される予測応答パターンとが一致するか否かを検出する。その結果、不一致が検出される場合には、処理はステップS417に進む。一方、一致が検出される場合には、処理は終了する。   Next, in step S415, the verification learning unit 190 detects whether or not the observed response pattern matches the predicted response pattern stored corresponding to the identified identification information. As a result, if a mismatch is detected, the process proceeds to step S417. On the other hand, if a match is detected, the process ends.

ステップS417で、検証学習部190は、識別された識別情報についての不一致回数を1だけ増加させる。そして、ステップS419で、検証学習部190は、不一致回数が所定の回数に到達したか否かを判定する。その結果、不一致回数が所定の回数に到達する場合に、処理はステップS421に進む。一方、不一致回数が所定の回数に到達しない場合に、処理は終了する。   In step S417, the verification learning unit 190 increases the number of mismatches for the identified identification information by one. In step S419, the verification learning unit 190 determines whether the number of mismatches has reached a predetermined number. As a result, when the number of mismatches reaches a predetermined number, the process proceeds to step S421. On the other hand, when the number of mismatches does not reach the predetermined number, the process ends.

ステップS421で、検証学習部190は、センサからの入力情報と、観測された応答パターンに該当する予測応答パターンに対応して記憶される識別情報との組合せを、再学習用の教師データとして取得する。   In step S421, the verification learning unit 190 acquires a combination of the input information from the sensor and the identification information stored corresponding to the predicted response pattern corresponding to the observed response pattern as teacher data for relearning. To do.

次に、ステップS423で、検証学習部190は、取得した再学習用の教師データを用いて、識別モデルの再学習を行う。そして、処理は終了する。   Next, in step S423, the verification learning unit 190 re-learns the identification model using the acquired re-learning teacher data. Then, the process ends.

以上、第2の実施形態について説明したが、当該第2の実施形態によれば、応答パターンを利用することで、センサ110の入力情報からの識別情報の識別の正しさを検証することができる。これにより、センサ110のメンテナンスまたは識別モデルの再学習が必要であることを知ることができる。さらに、教師データを自動的に取得し続けることができるので、当該教師データを用いて再度学習することで、より信頼性の高い識別モデルを得られる。   As mentioned above, although 2nd Embodiment was described, according to the said 2nd Embodiment, the correctness of the identification information identification from the input information of the sensor 110 is verifiable by utilizing a response pattern. . Thereby, it is possible to know that the maintenance of the sensor 110 or the relearning of the identification model is necessary. Furthermore, since teacher data can be continuously acquired automatically, a more reliable identification model can be obtained by learning again using the teacher data.

<4.第3の実施形態>
上記第2の実施形態では、識別モデルの検証および再学習用の教師データの取得のために、応答パターンを利用した。しかし、利用者10が突発的に忙しくなり、または利用者10が偶然にも着信に応答できることに起因して、観測された応答パターンと予測応答パターンとが異なることもある。その場合に、センサ110の入力情報からの識別情報の識別が正しいにも関わらず、識別の誤りとして再学習用の教師データが取得される。その結果、不適切な教師データを用いた再学習により、識別モデルの信頼性が損なわれる可能性がある。そこで、第3の実施形態では、推定される利用者10の割込み拒否度を関連機器300から取得し、応答パターンに加えて当該割込み拒否度を利用することにより、不適切な教師データを用いた再学習を回避する。
<4. Third Embodiment>
In the second embodiment, the response pattern is used for verification of the identification model and acquisition of teacher data for relearning. However, the observed response pattern may be different from the predicted response pattern because the user 10 suddenly becomes busy or the user 10 can respond to an incoming call accidentally. In this case, although the identification information is correctly identified from the input information of the sensor 110, the relearning teacher data is acquired as an identification error. As a result, the relearning using inappropriate teacher data may impair the reliability of the identification model. Therefore, in the third embodiment, inappropriate interrupt data is used by obtaining the estimated interrupt refusal level of the user 10 from the related device 300 and using the interrupt refusal level in addition to the response pattern. Avoid relearning.

以下では、第3の実施形態を<4−1.関連機器の構成>、<4−2.着信側の利用者端末の構成>、<4−3.処理の流れ>という順序で説明する。   In the following, the third embodiment is described in <4-1. Configuration of related equipment>, <4-2. Configuration of called-side user terminal>, <4-3. The process will be described in the order of process flow>.

<4−1.関連機器の構成>
関連機器300は、利用者10の割込み拒否度を推定する。当該割込み拒否度は、利用者10が作業中に割り込まれることをどの程度拒否したいかを示す情報である。当該割込み拒否度は、例えば、「小」、「中」または「大」のように、複数の段階により表される。
<4-1. Configuration of related equipment>
The related device 300 estimates the interrupt refusal degree of the user 10. The interrupt rejection degree is information indicating how much the user 10 wants to refuse to be interrupted during work. The interrupt rejection level is represented by a plurality of stages, such as “small”, “medium”, or “large”.

より具体的には、関連機器300は、例えば、関連機器300の使用状況から、利用者10の割込み拒否度を推定する。一例として、関連機器300は、キーボードの打鍵速度、マウスの操作量、ソフトウェアの切り替えのタイミング等から、割込み拒否度を推定する。例えば、キーボードの打鍵速度が速い場合、利用者10は作業に集中していると考えられる。すなわち、利用者10は割込みを拒否したいと考えられる。よって、この場合に、関連機器300は、割込み拒否度を「大」と推定する。また、ソフトウェアが切り替えられた直後であれば、利用者10はある作業から別の作業に切り替えたと考えられる。すなわち、利用者10は割込みを許容すると考えられる。よって、この場合に、関連機器300は、割込み拒否度を「小」と推定する。   More specifically, the related device 300 estimates the interrupt refusal degree of the user 10 from the usage status of the related device 300, for example. As an example, the related device 300 estimates the interrupt refusal degree from the keystroke speed of the keyboard, the amount of mouse operation, the timing of software switching, and the like. For example, when the keyboard keying speed is fast, it is considered that the user 10 is concentrated on the work. That is, the user 10 wants to refuse the interruption. Therefore, in this case, the related device 300 estimates the interrupt rejection level as “large”. Further, immediately after the software is switched, the user 10 is considered to have switched from one work to another. That is, the user 10 is considered to allow interruption. Therefore, in this case, the related device 300 estimates that the interrupt rejection level is “low”.

また、関連機器300は、例えば、利用者10の頭部運動の測定結果から、利用者10の割込み拒否度を推定してもよい。一例として、関連機器300は、利用者10の頭部をカメラにより撮影し、当該カメラの映像を解析することにより、頭部運動を測定することができる。   Moreover, the related apparatus 300 may estimate the interrupt refusal degree of the user 10 from the measurement result of the head movement of the user 10, for example. As an example, the related apparatus 300 can measure the head movement by photographing the head of the user 10 with a camera and analyzing the video of the camera.

なお、割込み拒否度の推定手法は、文献「HAIシンポジウム2010 3B−4 ユーザの割込み拒否度推定に基づくインタラクション仲介エージェント 田中貴紘 藤田欣也」においてより詳細に記載されている。   Note that the method for estimating the interrupt rejection level is described in more detail in the document “HAI Symposium 2010 3B-4 Interaction Mediation Agent Based on User Interrupt Rejection Level Estimation Takaaki Tanaka Junya Fujita”.

そして、関連機器300は、通信機能を用いて、推定される割込み拒否度を着信端末100に送信する。   Then, the related device 300 transmits the estimated interrupt rejection degree to the receiving terminal 100 using the communication function.

<4−2.着信側の利用者端末の構成>
図9および図10を参照して、第3の実施形態に係る着信端末100−3の構成について説明する。図9は、第3の実施形態に係る着信端末100−3の構成の一例を示すブロック図である。図9を参照すると、着信端末100−3は、センサ110、識別部120、記憶部137、呼出制御部140、通信部153、呼出出力部160、応答入力部173、音声処理部181、音声入力部183、音声出力部185、音声保存部187および検証学習部193を備える。
<4-2. Configuration of incoming user terminal>
With reference to FIG. 9 and FIG. 10, the configuration of the receiving terminal 100-3 according to the third embodiment will be described. FIG. 9 is a block diagram showing an example of the configuration of the receiving terminal 100-3 according to the third embodiment. Referring to FIG. 9, the receiving terminal 100-3 includes a sensor 110, an identification unit 120, a storage unit 137, a call control unit 140, a communication unit 153, a call output unit 160, a response input unit 173, a voice processing unit 181, and a voice input. A unit 183, a voice output unit 185, a voice storage unit 187, and a verification learning unit 193.

ここで、記憶部137、通信部153および検証学習部193以外の構成要素については、第2の実施形態との間に差異はない。よって、ここでは、第2の実施形態の記憶部133、通信部150および検証学習部190から一部変更された記憶部137、通信部153および検証学習部193の変更部分のみを説明する。
る。
Here, constituent elements other than the storage unit 137, the communication unit 153, and the verification learning unit 193 are not different from those of the second embodiment. Therefore, here, only the changed parts of the storage unit 137, the communication unit 153, and the verification learning unit 193 that are partially changed from the storage unit 133, the communication unit 150, and the verification learning unit 190 of the second embodiment will be described.
The

(記憶部137)
記憶部137は、識別部120により識別される識別情報と、当該識別情報が識別される場合における利用者10の予測割込み拒否度とを対応して記憶する。ここで、予測割込み拒否度は、例えば、関連機器300により推定されることが予測される割込み拒否度である。以下、記憶部137のより具体的な内容について、図10を参照してより具体的に説明する。
(Storage unit 137)
The storage unit 137 stores the identification information identified by the identification unit 120 and the predicted interrupt refusal degree of the user 10 when the identification information is identified. Here, the predicted interrupt rejection level is, for example, an interrupt rejection level predicted to be estimated by the related device 300. Hereinafter, more specific contents of the storage unit 137 will be described more specifically with reference to FIG.

図10は、第3の実施形態に係る記憶部137に記憶される参照テーブル139の一例を説明する説明図である。図10を参照すると、参照テーブル139は、識別情報、呼出動作情報、予測応答手段、予測応答時間、予測割込み拒否度および不一致回数を対応して記憶する。ここで、予測割込み拒否度を除く、識別情報、呼出動作情報、予測応答手段、予測応答時間および不一致回数は、図7で説明された参照テーブル135のものと同じである。   FIG. 10 is an explanatory diagram illustrating an example of the reference table 139 stored in the storage unit 137 according to the third embodiment. Referring to FIG. 10, the reference table 139 stores identification information, call operation information, predicted response means, predicted response time, predicted interrupt rejection level, and number of mismatches correspondingly. Here, the identification information, call operation information, prediction response means, predicted response time, and number of mismatches, excluding the predicted interrupt rejection level, are the same as those in the reference table 135 described in FIG.

ここで、予測割込み拒否度は、対応する識別情報が識別される場合に関連機器300により推定されることが予測される割込み拒否度である。図10の例では、予測割込み拒否度は、「小」、「中」および「大」のうちのいずれかである。   Here, the predicted interrupt rejection level is an interrupt rejection level predicted to be estimated by the related device 300 when the corresponding identification information is identified. In the example of FIG. 10, the predicted interrupt rejection level is one of “small”, “medium”, and “large”.

このように、識別情報と予測割込み拒否度との対応関係を定めることで、実際に推定される割込み拒否度と予測割込み拒否度とを比較することが可能になる。   Thus, by defining the correspondence between the identification information and the predicted interrupt rejection level, it is possible to compare the actually estimated interrupt rejection level with the predicted interrupt rejection level.

(通信部153)
通信部153は、利用者10の推定される割込み拒否度を関連機器300から受信し、検証学習部193に出力する。
(Communication unit 153)
The communication unit 153 receives the estimated interrupt refusal degree of the user 10 from the related device 300 and outputs it to the verification learning unit 193.

(検証学習部193)
検証学習部193は、センサ110からの上記第1の入力情報から上記第1の識別情報が識別される場合に、利用者10の推定される割込み拒否度と、上記第1の識別情報に対応して記憶される第1の予測割込み拒否度とが一致するか否かを検出する。図10を参照して具体例を説明すると、センサ110からの入力情報から、識別部120により「自席の机」が識別情報として識別されると、検証学習部193は、「自席の机」に対応する予測割込み拒否度として「小」を特定する。また、検証学習部193は、通信部153により、利用者10の推定される割込み拒否度として「大」を入力される。そして、検証学習部193は、利用者10の推定される割込み拒否度である「大」と、予測割込み拒否度である「小」との不一致を検出する。
(Verification learning unit 193)
When the first identification information is identified from the first input information from the sensor 110, the verification learning unit 193 corresponds to the interrupt rejection degree estimated by the user 10 and the first identification information. Then, it is detected whether or not the first predicted interrupt refusal degree stored in the memory matches. A specific example will be described with reference to FIG. 10. When the identification section 120 identifies “own desk” as identification information from the input information from the sensor 110, the verification learning section 193 changes to “own desk”. Specify “small” as the corresponding predicted interrupt rejection level. In addition, the verification learning unit 193 receives “large” as the interrupt refusal degree estimated by the user 10 by the communication unit 153. Then, the verification learning unit 193 detects a mismatch between “large” that is the estimated interrupt rejection level of the user 10 and “small” that is the predicted interrupt rejection level.

このように実際に推定される割込み拒否度と予測割込み拒否度とが一致するか否かを検出することにより、利用者10が突発的に忙しくなった、利用者10が偶然にも着信に応答できるようになった等、利用者10が例外的な状況にあったことを知ることができる。   Thus, by detecting whether or not the actually estimated interrupt refusal level matches the predicted interrupt refusal level, the user 10 suddenly becomes busy, and the user 10 responds to an incoming call accidentally. It is possible to know that the user 10 was in an exceptional situation such as being able to do so.

また、検証学習部193は、観測される上記応答パターンと上記第1の予測応答パターンとの不一致が検出され、かつ推定される上記割込み拒否度と上記第1の予測割込み拒否度との一致が検出された場合に、上記第1の入力情報と、観測された上記応答パターンに該当する第2の予測応答パターンに対応して記憶される第2の識別情報との組合せを、上記識別モデルの再学習用データとして取得する。すなわち、観測された応答パターンと予測応答パターンとの不一致が検出されても、推定される割込み拒否度と予測割込み拒否度とが不一致であれば、利用者10が例外的な状況にあったとして、検証学習部193は、再学習用の教師データを取得しない。   Further, the verification learning unit 193 detects a mismatch between the observed response pattern and the first predicted response pattern, and determines that the estimated interrupt refusal and the first predicted interrupt refusal match. When detected, a combination of the first input information and the second identification information stored corresponding to the second predicted response pattern corresponding to the observed response pattern is represented by the identification model. Acquired as re-learning data. That is, even if a mismatch between the observed response pattern and the predicted response pattern is detected, if the estimated interrupt rejection level and the predicted interrupt rejection level do not match, the user 10 is in an exceptional situation. The verification learning unit 193 does not acquire teacher data for relearning.

図10を参照して具体例を説明する。例えば、識別部120により識別された識別情報が、「自席机」であるとする。この場合に、予測応答手段および予測応答時間は、「通話」および「短(5秒未満)」であり、「予測割込み拒否度」は「小」である。ここで、例えば、観測された応答手段および予測応答時間が「保留」および「10秒」であったとすると、検証学習部193は、観測された応答手段および応答時間と予測応答手段および予測応答時間との不一致を検出する。さらに、関連機器300から受信した、利用者10の推定される割込み拒否度が「大」であったとすると、検証学習部193は、推定される割込み拒否度と予測割込み拒否度との不一致を検出する。すなわち、利用者10は例外的な状況にあったと考えられる。したがって、検証学習部193は、再学習用の教師データを取得しない。   A specific example will be described with reference to FIG. For example, it is assumed that the identification information identified by the identification unit 120 is “seat desk”. In this case, the predicted response means and the predicted response time are “call” and “short (less than 5 seconds)”, and the “predictive interrupt rejection” is “small”. Here, for example, if the observed response means and the predicted response time are “pending” and “10 seconds”, the verification learning unit 193 determines the observed response means and response time, the predicted response means, and the predicted response time. Inconsistency is detected. Furthermore, if the estimated interrupt rejection level of the user 10 received from the related device 300 is “large”, the verification learning unit 193 detects a mismatch between the estimated interrupt rejection level and the predicted interrupt rejection level. To do. That is, it is considered that the user 10 was in an exceptional situation. Therefore, the verification learning unit 193 does not acquire teacher data for relearning.

このように、割込み拒否度による検証も加えることにより、利用者10が例外的な状況にある場合が考慮されるため、センサ110の入力情報からの識別情報の識別が正しいにも関わらず教師データが取得されることを回避できる。その結果、識別モデルの再学習では適切な教師データが用いられるため、識別モデルの信頼性を維持することができる。   As described above, since the case where the user 10 is in an exceptional situation is considered by adding the verification based on the interrupt rejection level, the teacher data is correct although the identification information is correctly identified from the input information of the sensor 110. Can be avoided. As a result, since the appropriate teacher data is used in the relearning of the identification model, the reliability of the identification model can be maintained.

<4−3.処理の流れ>
以下では、図11を参照して、第3の実施形態に係る情報処理の一例について説明する。図11は、第3の実施形態に係るにおける情報処理の概略的な流れの一例を示すフローチャートである。なお、ここでは、第2の実施形態に係る情報処理の一例と第3の実施形態に係る情報処理の一例との差分であるステップS425およびS427のみを説明する。
<4-3. Process flow>
Hereinafter, an example of information processing according to the third embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating an example of a schematic flow of information processing according to the third embodiment. Here, only steps S425 and S427 which are differences between an example of information processing according to the second embodiment and an example of information processing according to the third embodiment will be described.

ステップS423では、通信部153は、利用者10の推定される割込み拒否度を関連機器300から受信し、検証学習部193に出力する。   In step S <b> 423, the communication unit 153 receives the estimated interrupt refusal level of the user 10 from the related device 300 and outputs it to the verification learning unit 193.

また、ステップS427では、検証学習部193は、推定される割込み拒否度と、識別された識別情報に対応して記憶される予測割込み拒否度とが一致するか否かを検出する。その結果、一致が検出される場合には、処理はステップS417に進む。一方、不一致が検出される場合には、処理は終了する。   In step S427, the verification learning unit 193 detects whether or not the estimated interrupt rejection level matches the predicted interrupt rejection level stored in correspondence with the identified identification information. As a result, if a match is detected, the process proceeds to step S417. On the other hand, if a mismatch is detected, the process ends.

以上、第3の実施形態について説明したが、当該第3の実施形態によれば、センサ110の入力情報からの識別情報の識別が正しいにも関わらず教師データが取得されることを回避できる。その結果、識別モデルの再学習では適切な教師データが用いられるため、識別モデルの信頼性を維持することができる。   Although the third embodiment has been described above, according to the third embodiment, it is possible to prevent the teacher data from being acquired even though the identification information is correctly identified from the input information of the sensor 110. As a result, since the appropriate teacher data is used in the relearning of the identification model, the reliability of the identification model can be maintained.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば、情報処理装置は、着信側の利用者端末でなくてもよい。情報処理装置は、着信側の利用者端末の呼出動作を制御する別の装置であってもよい。この場合に、情報処理装置は、呼出制御部(判定部、制御部)および記憶部を備え、必要に応じて、識別部または検証学習部(検出部、取得部、カウント部)も備えてもよい。一例として、情報処理装置は、例えば、PBX(Private Branch eXchange)であってもよい。   For example, the information processing apparatus may not be a user terminal on the receiving side. The information processing apparatus may be another apparatus that controls the calling operation of the receiving user terminal. In this case, the information processing apparatus includes a call control unit (determination unit, control unit) and a storage unit, and also includes an identification unit or a verification learning unit (detection unit, acquisition unit, count unit) as necessary. Good. As an example, the information processing apparatus may be, for example, a PBX (Private Branch eXchange).

また、呼出動作は、主として電話の着信時の呼出動作について説明されたが、当然のことながらこれに限定されない。呼出動作は、電子メール、インスタントメッセージ等の他の通信の呼出動作であってもよい。   In addition, the call operation has been described mainly with respect to the call operation when an incoming call is received, but the present invention is not limited to this. The call operation may be another communication call operation such as an electronic mail or an instant message.

また、入力情報を取得するセンサは、光学式センサに限られない。当該センサは、例えば、GPSセンサ、加速度センサ、ジャイロセンサ、地磁気センサ等の他のセンサであってもよい。例えば、GPSセンサが位置情報を入力情報として取得し、当該位置情報に応じて、着信側の利用者端末の呼出動作が制御されてもよい。また、上記センサは、着信側の利用者端末に内蔵されてもよく、または着信側の利用者端末に着脱可能であってもよい。   Moreover, the sensor which acquires input information is not restricted to an optical sensor. The sensor may be another sensor such as a GPS sensor, an acceleration sensor, a gyro sensor, or a geomagnetic sensor. For example, the GPS sensor may acquire the position information as input information, and the call operation of the incoming user terminal may be controlled according to the position information. The sensor may be built in the user terminal on the incoming side, or may be detachable from the user terminal on the incoming side.

また、識別情報は、着信側の利用者端末の位置に限られず、呼出動作に対応する任意の情報であってもよい。例えば、識別情報は、「A」、「B」「C」等、明示的な意味を有しない記号であってもよい。さらに、識別情報は、呼出動作を直接的に示す情報であってもよい。すなわち、センサからの入力情報と呼出動作情報との間に何らかの情報を介在させず、識別情報が呼出動作情報そのものであってもよい。逆に、識別情報と呼出動作情報との間に何らかの情報を介在させてもよい。   Further, the identification information is not limited to the position of the user terminal on the receiving side, and may be arbitrary information corresponding to the calling operation. For example, the identification information may be a symbol having no explicit meaning, such as “A”, “B”, and “C”. Further, the identification information may be information that directly indicates the call operation. That is, the identification information may be the call operation information itself without interposing any information between the input information from the sensor and the call operation information. Conversely, some information may be interposed between the identification information and the call operation information.

また、応答パターンによる検証および学習において、センサの入力情報からの識別情報の識別が高い信頼性を有するという前提で、応答パターンにより、識別情報と呼出情報との対応関係の正しさを検証してもよい。   Also, in the verification and learning by the response pattern, the correctness of the correspondence between the identification information and the call information is verified by the response pattern on the assumption that the identification information from the sensor input information has high reliability. Also good.

また、割込み拒否度は、関連機器により推定されずに、利用者端末または情報処理装置により推定されてもよい。この場合に、関連機器は、割込み拒否度の推定に用いる情報を、利用者端末または情報処理装置に送信してもよい。また、割込み拒否度を、応答パターンと同様に、センサの入力情報から識別情報の識別を検証するために利用するのではなく、識別情報と同様に、呼出動作を決定するために利用してもよい。すなわち、センサからの入力情報および利用者の推定される割込み拒否度に対応する呼出動作が判定されてもよい。   Further, the interrupt refusal degree may be estimated by the user terminal or the information processing apparatus without being estimated by the related device. In this case, the related device may transmit information used for estimating the interrupt rejection level to the user terminal or the information processing apparatus. Further, the interrupt rejection level is not used for verifying the identification information from the sensor input information like the response pattern, but can be used for determining the calling operation similarly to the identification information. Good. That is, the call operation corresponding to the input information from the sensor and the interrupt rejection degree estimated by the user may be determined.

また、情報処理システム1は、発信側の利用者端末の代わりに、電話、電子メール、インスタントメッセージ等を自動発信する通信装置を含んでもよい。   In addition, the information processing system 1 may include a communication device that automatically transmits a telephone, an electronic mail, an instant message, or the like, instead of the user terminal on the transmission side.

また、本明細書の情報処理における各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理する必要はない。例えば、情報処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。   Further, each step in the information processing of this specification does not necessarily have to be processed in time series in the order described in the flowchart. For example, each step in the information processing may be processed in an order different from the order described as the flowchart, or may be processed in parallel.

また、利用者端末または情報処理装置に内蔵されるCPU、ROMおよびRAM等のハードウェアを、上記利用者端末または情報処理装置の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させた記憶媒体も提供される。   It is also possible to create a computer program for causing hardware such as a CPU, ROM, and RAM incorporated in a user terminal or information processing apparatus to perform the same functions as each configuration of the user terminal or information processing apparatus. is there. A storage medium storing the computer program is also provided.

1 情報処理システム
10、20 利用者
30 ネットワーク
100 着信側の利用者端末(着信端末)
110 センサ
120 識別部
130、133、137 記憶部
140 呼出制御部
150、153 通信部
160 呼出出力部
170、173 応答入力部
181 音声処理部
183 音声入力部
185 音声出力部
187 音声保存部
190 検証学習部
200 発信側の利用者端末(発信端末)
300 関連機器
DESCRIPTION OF SYMBOLS 1 Information processing system 10, 20 User 30 Network 100 User terminal (receiving terminal) of incoming side
110 sensor 120 identification unit 130, 133, 137 storage unit 140 call control unit 150, 153 communication unit 160 call output unit 170, 173 response input unit 181 voice processing unit 183 voice input unit 185 voice output unit 187 voice storage unit 190 verification learning 200 User terminal on transmission side (transmission terminal)
300 Related equipment

Claims (17)

センサからの入力情報に対応する呼出動作を判定する判定部と、
前記判定部による判定結果を用いて、前記センサを備える装置における着信時の呼出動作を制御する制御部と、
を備える情報処理装置。
A determination unit for determining a call operation corresponding to input information from the sensor;
Using a determination result by the determination unit, a control unit that controls a call operation at the time of an incoming call in a device including the sensor;
An information processing apparatus comprising:
前記判定部は、予め学習された識別モデルを用いて前記入力情報から識別される識別情報に対応する呼出動作を判定する、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the determination unit determines a call operation corresponding to identification information identified from the input information using an identification model learned in advance. 前記識別情報と、当該識別情報に対応する呼出動作を行う場合の予測応答パターンとを対応して記憶する記憶部と、
前記センサからの第1の入力情報から第1の識別情報が識別される場合に、当該第1の識別情報に対応する呼出動作の結果観測される応答パターンと、前記第1の識別情報に対応して記憶される第1の予測応答パターンとが一致するか否かを検出する検出部と、
をさらに備える、請求項2に記載の情報処理装置。
A storage unit that stores the identification information and a predicted response pattern in a case where a call operation corresponding to the identification information is performed;
When the first identification information is identified from the first input information from the sensor, the response pattern observed as a result of the call operation corresponding to the first identification information and the first identification information A detection unit for detecting whether or not the first predicted response pattern stored as a match matches,
The information processing apparatus according to claim 2, further comprising:
観測される前記応答パターンと前記第1の予測応答パターンとの不一致が検出された場合に、前記第1の入力情報と、観測された前記応答パターンに該当する第2の予測応答パターンに対応して記憶される第2の識別情報との組合せを、前記識別モデルの再学習用データとして取得する取得部、をさらに備える、請求項3に記載の情報処理装置。   When a mismatch between the observed response pattern and the first predicted response pattern is detected, the first input information corresponds to the second predicted response pattern corresponding to the observed response pattern. The information processing apparatus according to claim 3, further comprising: an acquisition unit configured to acquire a combination with the second identification information stored as the re-learning data of the identification model. 前記第1の識別情報が識別された場合に、観測された前記応答パターンと前記第1の予測応答パターンとの不一致が検出された回数を、前記第1の識別情報についての不一致回数としてカウントするカウント部をさらに備え、
前記取得部は、前記不一致回数が所定の回数に到達する場合に、前記第1の入力情報と前記第2の識別情報との組合せを前記再学習用データとして取得する、
請求項4に記載の情報処理装置。
When the first identification information is identified, the number of times that the observed mismatch between the response pattern and the first predicted response pattern is detected is counted as the number of mismatches for the first identification information. It further includes a counting unit,
The acquisition unit acquires a combination of the first input information and the second identification information as the relearning data when the number of mismatches reaches a predetermined number.
The information processing apparatus according to claim 4.
前記記憶部は、前記不一致回数が所定の回数に到達するまで、各検出についての前記第1の入力情報と観測された前記応答パターンとを記憶し、
前記取得部は、前記所定の回数分の前記第1の入力情報と前記第2の識別情報との組合せを前記再学習用データとして取得する、
請求項5に記載の情報処理装置。
The storage unit stores the first input information and the observed response pattern for each detection until the number of mismatches reaches a predetermined number.
The acquisition unit acquires a combination of the first input information and the second identification information for the predetermined number of times as the relearning data.
The information processing apparatus according to claim 5.
前記記憶部は、前記識別情報と、当該識別情報が識別される場合における前記装置の利用者の予測割込み拒否度とを対応して記憶し、
前記検出部は、前記第1の識別情報が識別される場合に、前記装置の利用者の推定される割込み拒否度と、前記第1の識別情報に対応して記憶される第1の予測割込み拒否度とが一致するか否かを検出する、
請求項3から6のいずれか1項に記載の情報処理装置。
The storage unit stores the identification information and the predicted interrupt refusal degree of the user of the device when the identification information is identified, correspondingly,
When the first identification information is identified, the detection unit is configured to store a first predicted interrupt stored in correspondence with the estimated interrupt rejection level of the user of the device and the first identification information. Detect if the refusal level matches,
The information processing apparatus according to any one of claims 3 to 6.
観測される前記応答パターンと前記第1の予測応答パターンとの不一致が検出され、かつ推定される前記割込み拒否度と前記第1の予測割込み拒否度との一致が検出された場合に、前記第1の入力情報と、観測された前記応答パターンに該当する第2の予測応答パターンに対応して記憶される第2の識別情報との組合せを、前記識別モデルの再学習用データとして取得する取得部、をさらに備える、請求項7に記載の情報処理装置。   When a mismatch between the observed response pattern and the first predicted response pattern is detected and a match between the estimated interrupt refusal and the first predicted interrupt refusal is detected, the first Acquiring a combination of the input information of 1 and the second identification information stored in correspondence with the second predicted response pattern corresponding to the observed response pattern as relearning data for the identification model The information processing apparatus according to claim 7, further comprising a unit. 推定される前記割込み拒否度は、前記装置に関連付けられる所定の機器の使用状況から推定される、請求項7または8に記載の情報処理装置。   The information processing apparatus according to claim 7 or 8, wherein the estimated interrupt rejection level is estimated from a usage state of a predetermined device associated with the apparatus. 前記応答パターンは、選択される応答手段または呼出動作の開始時点から応答までの時間を含む、請求項3から9のいずれか1項に記載の情報処理装置。   The information processing apparatus according to any one of claims 3 to 9, wherein the response pattern includes a response means to be selected or a time from a start time of a call operation to a response. 前記応答手段は、前記着信が通話のための着信である場合に、通話、通話拒否、保留、または留守番電話への録音を含む、請求項10に記載の情報処理装置。   The information processing apparatus according to claim 10, wherein the response unit includes a call, a call rejection, a hold, or a recording to an answering machine when the incoming call is an incoming call for a call. 前記判定部は、前記入力情報と前記装置の利用者の推定される割込み拒否度とに対応する呼出動作を判定する、請求項1または2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the determination unit determines a call operation corresponding to the input information and an interrupt rejection level estimated by a user of the apparatus. 前記センサは、当該センサに近接する物質の種類に応じた入力情報を取得し、
前記識別情報は、物質の種類に対応する情報である、
請求項1から12のいずれか1項に記載の情報処理装置。
The sensor acquires input information corresponding to the type of substance in proximity to the sensor,
The identification information is information corresponding to the type of substance,
The information processing apparatus according to any one of claims 1 to 12.
前記呼出動作は、着信音の発生、振動、または画面上の表示の変更を含む、請求項1から13のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the calling operation includes generation of a ringing tone, vibration, or change of display on a screen. センサからの入力情報に対応する呼出動作を判定するステップと、
前記判定部による判定結果を用いて、前記センサを備える装置における着信時の呼出動作を制御するステップと、
を含む情報処理方法。
Determining a call operation corresponding to input information from the sensor;
Using the determination result by the determination unit, controlling a call operation at the time of an incoming call in a device including the sensor;
An information processing method including:
コンピュータを、
センサからの入力情報に対応する呼出動作を判定する判定部と、
前記判定部による判定結果を用いて、前記センサを備える装置における着信時の呼出動作を制御する制御部と、
として機能させるためのプログラム。
Computer
A determination unit for determining a call operation corresponding to input information from the sensor;
Using a determination result by the determination unit, a control unit that controls a call operation at the time of an incoming call in a device including the sensor;
Program to function as.
情報処理装置および関連機器を含む情報処理システムであって、
前記情報処理装置は、
予め学習された識別モデルを用いてセンサからの入力情報から識別される識別情報に対応する呼出動作を判定する判定部と、
前記判定部による判定結果を用いて、前記センサを備える装置における着信時の呼出動作を制御する制御部と、
前記識別情報と、当該識別情報に対応する呼出動作を行う場合の予測応答パターンとを対応して記憶する記憶部と、
前記センサからの第1の入力情報から第1の識別情報が識別される場合に、当該第1の識別情報に対応する呼出動作の結果観測される応答パターンと、前記第1の識別情報に対応して記憶される第1の予測応答パターンとが一致するか否かを検出する検出部と、
を備え、
前記関連機器は、前記装置の利用者の割込み拒否度を推定し、
前記記憶部は、前記識別情報と、当該識別情報が識別される場合における前記装置の利用者の予測割込み拒否度とを対応して記憶し、
前記検出部は、前記第1の識別情報が識別される場合に、前記装置の利用者の推定される割込み拒否度と、前記第1の識別情報に対応して記憶される第1の予測割込み拒否度とが一致するか否かを検出する、
情報処理システム。
An information processing system including an information processing device and related equipment,
The information processing apparatus includes:
A determination unit for determining a call operation corresponding to identification information identified from input information from a sensor using an identification model learned in advance;
Using a determination result by the determination unit, a control unit that controls a call operation at the time of an incoming call in a device including the sensor;
A storage unit that stores the identification information and a predicted response pattern in a case where a call operation corresponding to the identification information is performed;
When the first identification information is identified from the first input information from the sensor, the response pattern observed as a result of the call operation corresponding to the first identification information and the first identification information A detection unit for detecting whether or not the first predicted response pattern stored as a match matches,
With
The related equipment estimates the interrupt refusal of the user of the device,
The storage unit stores the identification information and the predicted interrupt refusal degree of the user of the device when the identification information is identified, correspondingly,
When the first identification information is identified, the detection unit is configured to store a first predicted interrupt stored in correspondence with the estimated interrupt rejection level of the user of the device and the first identification information. Detect if the refusal level matches,
Information processing system.
JP2011216471A 2011-09-30 2011-09-30 Information processing apparatus, information processing method, program, and information processing system Expired - Fee Related JP5862168B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011216471A JP5862168B2 (en) 2011-09-30 2011-09-30 Information processing apparatus, information processing method, program, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011216471A JP5862168B2 (en) 2011-09-30 2011-09-30 Information processing apparatus, information processing method, program, and information processing system

Publications (2)

Publication Number Publication Date
JP2013077969A true JP2013077969A (en) 2013-04-25
JP5862168B2 JP5862168B2 (en) 2016-02-16

Family

ID=48481135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011216471A Expired - Fee Related JP5862168B2 (en) 2011-09-30 2011-09-30 Information processing apparatus, information processing method, program, and information processing system

Country Status (1)

Country Link
JP (1) JP5862168B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014200978A (en) * 2013-04-03 2014-10-27 大日本印刷株式会社 Preform and plastic bottle
WO2014192181A1 (en) * 2013-05-31 2014-12-04 富士ゼロックス株式会社 Mobile terminal, mobile terminal status determination system, program, storage medium and mobile terminal status determination method
JP2018000229A (en) * 2016-06-27 2018-01-11 日本電信電話株式会社 Automated teacher data creation device, automated teacher data creation method, and automated teacher data creation program
JP2021032117A (en) * 2019-08-22 2021-03-01 トヨタ自動車株式会社 Misfire detection device, misfire detection system, and data analysis device
WO2021171647A1 (en) * 2020-02-27 2021-09-02 株式会社日立製作所 Operating state classification system, and operating state classification method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07240807A (en) * 1994-02-28 1995-09-12 Canon Inc Information processing unit
JPH10336281A (en) * 1997-06-04 1998-12-18 Uniden Corp Portable radio communication equipment
JP2002290508A (en) * 2001-03-26 2002-10-04 Toshiba Corp Mobile communication terminal device and method of controlling incoming call notification means therefor
JP2003319020A (en) * 2002-04-24 2003-11-07 Kyocera Corp Portable terminal
JP2009070071A (en) * 2007-09-12 2009-04-02 Toshiba Corp Learning process abnormality diagnostic device and operator's judgement estimation result collecting device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07240807A (en) * 1994-02-28 1995-09-12 Canon Inc Information processing unit
JPH10336281A (en) * 1997-06-04 1998-12-18 Uniden Corp Portable radio communication equipment
JP2002290508A (en) * 2001-03-26 2002-10-04 Toshiba Corp Mobile communication terminal device and method of controlling incoming call notification means therefor
JP2003319020A (en) * 2002-04-24 2003-11-07 Kyocera Corp Portable terminal
JP2009070071A (en) * 2007-09-12 2009-04-02 Toshiba Corp Learning process abnormality diagnostic device and operator's judgement estimation result collecting device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014200978A (en) * 2013-04-03 2014-10-27 大日本印刷株式会社 Preform and plastic bottle
WO2014192181A1 (en) * 2013-05-31 2014-12-04 富士ゼロックス株式会社 Mobile terminal, mobile terminal status determination system, program, storage medium and mobile terminal status determination method
JP2014236287A (en) * 2013-05-31 2014-12-15 富士ゼロックス株式会社 Portable terminal, portable terminal state determination system and program
US9989404B2 (en) 2013-05-31 2018-06-05 Fuji Xerox Co., Ltd. Portable terminal, portable-terminal condition determining system, storage medium, and portable-terminal condition determining method
JP2018000229A (en) * 2016-06-27 2018-01-11 日本電信電話株式会社 Automated teacher data creation device, automated teacher data creation method, and automated teacher data creation program
JP2021032117A (en) * 2019-08-22 2021-03-01 トヨタ自動車株式会社 Misfire detection device, misfire detection system, and data analysis device
WO2021171647A1 (en) * 2020-02-27 2021-09-02 株式会社日立製作所 Operating state classification system, and operating state classification method
JP2021135739A (en) * 2020-02-27 2021-09-13 株式会社日立製作所 Operational state classification system and method for classifying operational state

Also Published As

Publication number Publication date
JP5862168B2 (en) 2016-02-16

Similar Documents

Publication Publication Date Title
KR101920019B1 (en) Apparatus and method for processing a call service of mobile terminal
US10484536B2 (en) Methods and apparatus to associate voice messages with missed calls
US8451995B2 (en) User status management in a voice calling architecture
JP5862168B2 (en) Information processing apparatus, information processing method, program, and information processing system
US20100227602A1 (en) System and method for managing mobile phone ring tone profiles
US20120264403A1 (en) Communication control system and method thereof
WO2015085885A1 (en) Method and device for prompting messages
CN110572508B (en) Address book synchronization method and device, storage medium and electronic equipment
US20040248590A1 (en) Apparatus and method for presence-based call routing using computers
JP2023532247A (en) Incoming call control based on call setup
JP2012005010A (en) Information processing system, telephone set, information processing method, and information processing program
JP4170978B2 (en) Mobile device, server device, and transmission control method
US9301112B2 (en) Urgent call-back feature that locks-out non-urgent calls
US20200302308A1 (en) Automatic response system for wearables
TW201605222A (en) Call response method integrating social software and phone answering interface
JP2013201583A (en) Communication system and information processing terminal
KR20140052574A (en) Apparatus and method for transmitting intergrated message
TWI622285B (en) Multimedia communication processing method and computer program product thereof
US8068847B1 (en) Method and apparatus for notifying a user of separation from a mobile device
TWI577167B (en) Method and communication apparatus for displaying incoming call
JP2007195054A (en) Telephone communication system
US20210051228A1 (en) Telephone control system, telephone control method, and program
JP5327890B2 (en) Telephone system, telephone system control method and control program
CA2807788C (en) Method and apparatus pertaining to telephone number display formatting
JP2010022072A (en) Mobile communication system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151214

R150 Certificate of patent or registration of utility model

Ref document number: 5862168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees