JP2023180943A - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP2023180943A
JP2023180943A JP2022094635A JP2022094635A JP2023180943A JP 2023180943 A JP2023180943 A JP 2023180943A JP 2022094635 A JP2022094635 A JP 2022094635A JP 2022094635 A JP2022094635 A JP 2022094635A JP 2023180943 A JP2023180943 A JP 2023180943A
Authority
JP
Japan
Prior art keywords
evaluation
user
request
communication
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022094635A
Other languages
Japanese (ja)
Inventor
哲彦 矢尾
Tetsuhiko Yao
浩志 竹村
Hiroshi Takemura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022094635A priority Critical patent/JP2023180943A/en
Publication of JP2023180943A publication Critical patent/JP2023180943A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To confirm that there is a situation in which communication between a user of an electronic appliance and others is hindered by the uses of the electronic appliance.SOLUTION: Communication requests from others to users of electronic appliances are evaluated. A user response to the request is evaluated. Based on an evaluation result of the request and an evaluation result of the response, it is determined whether communication between the user and another person is being hindered by the use of the electronic appliance. When it is determined that the communication is being hindered, a notification that communication is being hindered is provided.SELECTED DRAWING: Figure 3

Description

本開示は、会話・コミュニケーションが電子機器の利用により阻害されている状態を検出する技術に関する。 The present disclosure relates to a technique for detecting a state in which conversation/communication is obstructed by the use of electronic devices.

スマートフォン、タブレット、ノート型PC、デスクトップ型PCなどの電子機器が普及し、提供サービスが拡大することにより、日常の様々なシーンで電子機器を利用する機会が増えている。 With the spread of electronic devices such as smartphones, tablets, notebook PCs, and desktop PCs, and the expansion of services provided, opportunities to use electronic devices in various everyday situations are increasing.

一方、家庭内において、特に養育者が電子機器を利用することによって、養育者と子供とのコミュニケーションを阻害し、例えば、愛着形成不全、親の真似を介した発達機会の喪失といった影響が指摘されている。そのため、色々な情報を用いてコミュニケーションなどを評価することが検討されている。 On the other hand, it has been pointed out that the use of electronic devices in the home, especially by caregivers, obstructs communication between caregivers and children, leading to effects such as poor attachment formation and loss of developmental opportunities through imitation of parents. ing. Therefore, evaluation of communication using various types of information is being considered.

この点、特許文献1は、画像内における対象人物とその周囲の人物の表情の明るさスコアを算出し、その差分を基に、例えば、虐待およびいじめなどの人物間の問題が生じる可能性を推定し、推定結果を通知する技術を開示する。 In this regard, Patent Document 1 calculates the brightness scores of the facial expressions of the target person and the people around him in the image, and based on the difference, calculates the possibility of problems between the people, such as abuse and bullying, for example. A technique for estimating and notifying the estimation results is disclosed.

特開2018-112831号公報JP2018-112831A

″赤ちゃんの泣き声から感情を分析「パパっと育児@赤ちゃん手帳」で提供開始″、[online]、株式会社PR TIMES、[令和4年5月25日検索]、インターネット〈URL:https://prtimes.jp/main/html/rd/p/000000006.000023831.html〉``Analyzing emotions from baby's cries, now available with ``Papatto Childcare@Baby Note'', [online], PR TIMES Co., Ltd., [Searched May 25, 2020], Internet <URL: https:/ /prtimes.jp/main/html/rd/p/000000006.000023831.html〉 ″声ダケノ感情認識テスト″、[online]、株式会社Empas、[令和4年5月25日検索]、インターネット〈URL:https://webempath.net/lp-jpn/〉``Koe Dakeno Emotion Recognition Test'', [online], Empas Co., Ltd., [searched on May 25, 2020], Internet <URL: https://webempath.net/lp-jpn/> 俵 直弘、″この声、何歳? 話者クラスタリングを用いた深層話者属性推定″、[online]、NTTコミュニケーション科学研究所、[令和4年5月25日検索]、インターネット〈URL:https://www.rd.ntt/cs/event/openhouse/2020/download/c_15.pdf〉Naohiro Tawara, “How old is this voice? Deep speaker attribute estimation using speaker clustering”, [online], NTT Communication Science Laboratories, [searched on May 25, 2020], Internet <URL: https //www.rd.ntt/cs/event/openhouse/2020/download/c_15.pdf〉 ″Speech-to-Text″、[online]、Google、[令和4年5月25日検索]、インターネット〈URL:https://cloud.google.com/speech-to-text?hl=ja〉``Speech-to-Text'', [online], Google, [searched on May 25, 2020], Internet <URL: https://cloud.google.com/speech-to-text?hl=ja> ″視線センシングで魅せる次世代UX「視線検出技術」″、[online]、株式会社スワローインキュベート、[令和4年5月25日検索]、インターネット〈URL:https://eyetrack.pas-ta.io/〉``Next generation UX ``Gaze detection technology'' that charms you with gaze sensing'', [online], Swallow Incubate Co., Ltd., [Searched on May 25, 2020], Internet <URL: https://eyetrack.pas-ta. io/〉 ″head-pose-estimationを用いて顔の向きを推定する″、[online]、アイタックソリューションズ株式会社、[令和4年5月25日検索]、インターネット〈URL:https://www.itd-blog.jp/entry/peep-prevention-1〉``Estimating facial orientation using head-pose-estimation'', [online], ITAC Solutions Co., Ltd., [searched on May 25, 2020], Internet <URL: https://www.itd- blog.jp/entry/peep-prevention-1〉 ″評価ボード・開発キット ToFカメラとは?~ToFカメラを使ってできること~″、[online]、東京エレクトロンデバイス株式会社、[令和4年5月25日検索]、インターネット〈URL:https://www.inrevium.com/pickup/tofcamera/〉``Evaluation Board/Development Kit What is ToF Camera? ~ What you can do with ToF Camera ~'', [online], Tokyo Electron Devices Co., Ltd., [Searched on May 25, 2020], Internet <URL: https:/ /www.inrevium.com/pickup/tofcamera/〉 ″AIによる奥行の推定″、[online]、株式会社ブリスウェル、[令和4年5月25日検索]、インターネット〈URL:https://tech.briswell.com/entry/2021/03/28/204127?utm_source=feed〉``Estimation of depth by AI'', [online], Briswell Co., Ltd., [Retrieved May 25, 2020], Internet <URL: https://tech.briswell.com/entry/2021/03/28 /204127?utm_source=feed〉

特許文献1の技術は、人物の表情を基に上述の問題が生じる可能性を検出している。 The technique disclosed in Patent Document 1 detects the possibility that the above problem will occur based on a person's facial expression.

一方、子供の養育者が電子機器を利用することにより当該養育者と当該子供とのコミュニケーションを阻害するシーンでは、養育者の表情の変化が必ずしも発生しない。そのため、特許文献1の技術を採用し、養育者および子供の画像を取得しても、取得した画像を基に、養育者が電子機器を利用することによる当該養育者と子供とのコミュニケーションの阻害状態を適切に検出することができなかった。このような課題は、例えば、子供が電子機器を利用するときの当該子供と養育者との間など、電子機器の利用者と他者との間で生じえた。 On the other hand, in a scene where a child's caregiver uses an electronic device to obstruct communication between the caregiver and the child, a change in the caregiver's facial expression does not necessarily occur. Therefore, even if the technology of Patent Document 1 is adopted and images of the caregiver and the child are acquired, based on the acquired images, communication between the caregiver and the child due to the caregiver's use of electronic devices is hindered. The condition could not be detected properly. Such problems may arise between the user of the electronic device and another person, such as between the child and the caregiver when the child uses the electronic device.

本開示の一態様に係る情報処理装置は、電子機器を利用する利用者に対する他者からのコミュニケーションの要求を評価する第1の評価手段と、前記要求に対する前記利用者の対応を評価する第2の評価手段と、前記第1の評価手段による第1の評価結果と、前記第2の評価手段による第2の評価結果とに基づき、前記利用者と前記他者とのコミュニケーションが、前記電子機器の利用により阻害されている状態であるかを判定する判定手段と、前記判定手段により前記コミュニケーションが阻害されている状態であると判定された場合に、前記コミュニケーションが阻害されている状態である旨を通知する通知手段と、を有することを特徴とする。 An information processing device according to an aspect of the present disclosure includes a first evaluation unit that evaluates a communication request from another person to a user who uses an electronic device, and a second evaluation unit that evaluates a response of the user to the request. , a first evaluation result by the first evaluation means, and a second evaluation result by the second evaluation means, the communication between the user and the other person is determined by the electronic device. a determining means for determining whether the communication is being obstructed by the use of the communication; and a determination means for determining whether the communication is being obstructed by the use of the communication; It is characterized by having a notification means for notifying.

本開示によれば、電子機器の利用者と他者とのコミュニケーションが、電子機器の利用により阻害されている状態であることを認識することができる。 According to the present disclosure, it is possible to recognize that communication between a user of an electronic device and another person is obstructed by the use of the electronic device.

検出システムのハードウェア構成例を示す図である。It is a diagram showing an example of the hardware configuration of a detection system. 検出システムの適用例を示す図である。It is a figure showing an example of application of a detection system. 検出システムの機能構成例を示す図である。FIG. 2 is a diagram showing an example of a functional configuration of a detection system. 検出システムが実行する処理の流れを示すフローチャートである。3 is a flowchart showing the flow of processing executed by the detection system. 要求評価部にて得た要求評価結果例を示す図である。It is a figure which shows the example of a request evaluation result obtained by the request evaluation part. 対応評価部にて得た対応評価結果例を示す図である。It is a figure which shows the example of a correspondence evaluation result obtained by the correspondence evaluation part. テクノフェレンスの検出処理(S403)の詳細な流れを示すフローチャートである。It is a flowchart showing the detailed flow of the technoference detection process (S403). 現時刻のテクノフェレンススコアが閾値THα以上と判定される例を示す図である。FIG. 7 is a diagram illustrating an example in which the technoference score at the current time is determined to be equal to or higher than the threshold value THα. 現時刻から過去Tn分のテクノフェレンススコア総和が閾値THβ以上と判定される例を示す図である。FIG. 7 is a diagram illustrating an example in which the sum of technoference scores for the past Tn minutes from the current time is determined to be greater than or equal to the threshold value THβ. テクノフェレンスの通知処理(S404)の詳細な流れを示すフローチャートである。12 is a flowchart showing a detailed flow of technoference notification processing (S404). 検出システムの適用例を示す図である。It is a figure showing an example of application of a detection system. 検出システムの機能構成例を示す図である。FIG. 2 is a diagram showing an example of a functional configuration of a detection system. 対応評価部にて得た対応評価結果例を示す図である。It is a figure which shows the example of a correspondence evaluation result obtained by the correspondence evaluation part. 検出システムの適用例を示す図である。It is a figure showing an example of application of a detection system. 検出システムの機能構成例を示す図である。FIG. 2 is a diagram showing an example of a functional configuration of a detection system. 要求評価部にて得た要求評価結果例を示す図である。It is a figure which shows the example of a request evaluation result obtained by the request evaluation part.

以下、添付図面を参照して本開示の技術の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本開示の技術を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本開示の技術の解決手段に必須のものとは限らない。同一の構成要素には同一の参照番号を付して、説明を省略する。 Hereinafter, embodiments of the technology of the present disclosure will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the technology of the present disclosure according to the claims, and all the combinations of features described in the embodiments are essential to the solution of the technology of the present disclosure. Not necessarily. Identical components are given the same reference numerals and explanations will be omitted.

<<実施形態1>>
図1は、本実施形態に係る検出システム100のハードウェア構成例を示す図である。検出システム100は、詳細につき後述するテクノフェレンスを検出する検出機能を有する。なお、テクノフェレンスの検出機能について、例えば、特定の日、特定の曜日、特定の時間などの特定の期間にて、有効または無効とする設定を行うことが可能であるとする。
<<Embodiment 1>>
FIG. 1 is a diagram showing an example of the hardware configuration of a detection system 100 according to the present embodiment. The detection system 100 has a detection function for detecting technoferences, which will be described in detail later. Note that the technoference detection function can be set to be enabled or disabled during a specific period such as a specific day, specific day of the week, or specific time, for example.

検出システム100は、CPU101、ROM102、RAM103、通信IF(インターフェース)104および入力/出力IF105を有し、各構成要素がバス106によりデータを送受信可能に接続されている。 The detection system 100 has a CPU 101, a ROM 102, a RAM 103, a communication IF (interface) 104, and an input/output IF 105, and each component is connected by a bus 106 so that data can be transmitted and received.

CPU(中央処理装置)101は、ROM102に格納されたプログラムやRAM103にロードしたプログラムに沿って検出システム100の動作制御を行う。ROM102は読み出し専用メモリであり、ブートプログラムやファームウェア、後述する処理を実現するための各種処理プログラム、各種データを格納している。RAM103は、CPU101にて処理を行うために一時的にプログラムやデータを格納しておくワークメモリであり、CPU101により各種処理プログラムやデータがロードされる。 A CPU (central processing unit) 101 controls the operation of the detection system 100 in accordance with programs stored in the ROM 102 and programs loaded into the RAM 103. The ROM 102 is a read-only memory, and stores a boot program, firmware, various processing programs for realizing the processing described later, and various data. The RAM 103 is a work memory that temporarily stores programs and data for processing by the CPU 101, and various processing programs and data are loaded by the CPU 101.

通信IF104は、ネットワークを介した外部装置(不図示)との通信制御を行うためのインターフェースであり、ネットワークを介して、データの送受信を行う。入力/出力IF105は、詳細につき後述する集音器311、表示器312および拡声器313などの、データの入出力を行う機器と接続するインターフェースである。 The communication IF 104 is an interface for controlling communication with an external device (not shown) via a network, and sends and receives data via the network. The input/output IF 105 is an interface that connects to devices that input and output data, such as a sound collector 311, a display 312, and a loudspeaker 313, which will be described in detail later.

<検出システムの適用例>
図2は、本実施形態に係る検出システムの適用例を示す図である。スマートフォン211を利用するデバイス利用者201と、スマートフォン211等の電子機器を利用しないデバイス非利用者202とが同じ部屋に居て、デバイス非利用者202がデバイス利用者201に対してコミュニケーションを要求する場面であるとする。なお、ここでは、検出システム100がスマートフォン211に適用されているとする。デバイス利用者(以下、利用者と称す)201およびデバイス非利用者(以下、非利用者と称す)202は、例えば、子供を養育する養育者および当該子供とするがこれに限定されず、子供および当該子供を養育する養育者としてもよい。また、デバイス利用者は養育者に限らず、保育者などでもよいし、それ以外の血縁関係にない第三者であってもよい。また、非利用者は子供でなくても、利用者とコミュニケーションをとりたい者であればよい。例えば、利用者の配偶者や兄弟姉妹でもよく、血縁関係にない第三者であってもよい。また、他者であってもよい。
<Application example of detection system>
FIG. 2 is a diagram showing an example of application of the detection system according to this embodiment. A device user 201 who uses a smartphone 211 and a device non-user 202 who does not use an electronic device such as the smartphone 211 are in the same room, and the device non-user 202 requests communication from the device user 201. Suppose that it is a scene. Note that here, it is assumed that the detection system 100 is applied to the smartphone 211. Device users (hereinafter referred to as users) 201 and non-device users (hereinafter referred to as non-users) 202 include, but are not limited to, caregivers of children and the children. and may also be a caregiver who brings up the child. Furthermore, the device user is not limited to a caregiver, but may also be a childcare worker or another unrelated third party. Further, the non-user does not have to be a child, but may be anyone who wants to communicate with the user. For example, the user may be the user's spouse, brother or sister, or a third party who is not related by blood. Alternatively, it may be someone else.

スマートフォン211は利用者201によって操作されるデバイス(電子機器)である。スマートフォン211は、利用者201がスマートフォン211を利用した状況(履歴)に関する情報を利用情報として取得する。また、スマートフォン211は、利用者201が発する音声、および、非利用者202が発する音声などの、スマートフォン211の周辺環境で生じた音声を、音声情報として取得する。なお、本実施形態では、検出システム100についてスマートフォン211への適用例を示したが、これに限定されない。検出システム100についてスマートフォン211以外の電子機器に適用しても構わない。 The smartphone 211 is a device (electronic device) operated by the user 201. The smartphone 211 acquires information regarding the status (history) of the usage of the smartphone 211 by the user 201 as usage information. Furthermore, the smartphone 211 acquires sounds generated in the surrounding environment of the smartphone 211, such as sounds emitted by the user 201 and sounds emitted by the non-user 202, as audio information. Note that in this embodiment, an example of application of the detection system 100 to the smartphone 211 has been shown, but the present invention is not limited to this. The detection system 100 may be applied to electronic devices other than the smartphone 211.

<検出システムの機能構成>
図3は、本実施形態に係る検出システム100の機能構成例を示す図である。検出システム100は、音声取得部301、要求評価部302、利用情報取得部303、対応評価部304を有する。検出システム100は、さらに、テクノフェレンス検出部(以下、TF検出部と称す)305、テクノフェレンス通知部(以下、TF通知部と称す)306を有する。検出システム100は、外部機器である集音器311、表示器312および拡声器313と接続する。なお、集音器311、表示器312および拡声器313は、検出システム100と接続する形態に限定されず、検出システム100の内部に含まれる形態であってもよい。
<Functional configuration of detection system>
FIG. 3 is a diagram showing an example of the functional configuration of the detection system 100 according to the present embodiment. The detection system 100 includes a voice acquisition section 301, a request evaluation section 302, a usage information acquisition section 303, and a correspondence evaluation section 304. The detection system 100 further includes a technoference detection unit (hereinafter referred to as TF detection unit) 305 and a technoference notification unit (hereinafter referred to as TF notification unit) 306. The detection system 100 is connected to external devices such as a sound collector 311, a display 312, and a loudspeaker 313. Note that the sound collector 311, the display 312, and the loudspeaker 313 are not limited to being connected to the detection system 100, but may be included inside the detection system 100.

音声取得部301は、検出システム100と接続される集音器311で収集した音声の情報を取得する。利用者201と非利用者202とが同じ部屋に居る場面であって、検出システム100を利用者201が利用するスマートフォン211に適用した場合、音声取得部301が取得する音声情報は、次に示す音声情報を含む。すなわち、音声取得部301が取得する音声情報は、利用者201が発する音声を示すデバイス利用者の音声情報を含む。または、音声取得部301が取得する音声情報は、非利用者202が発する音声を示すデバイス非利用者の音声情報を含む。または、音声取得部301が取得する音声情報は、デバイス利用者およびデバイス非利用者の両方の音声情報を含む。なお、音声取得部301が取得した音声情報は、要求評価部302および対応評価部304に送られる。 The audio acquisition unit 301 acquires audio information collected by the sound collector 311 connected to the detection system 100. When a user 201 and a non-user 202 are in the same room and the detection system 100 is applied to the smartphone 211 used by the user 201, the audio information acquired by the audio acquisition unit 301 is as follows. Contains audio information. That is, the audio information acquired by the audio acquisition unit 301 includes the device user's audio information indicating the audio uttered by the user 201. Alternatively, the voice information acquired by the voice acquisition unit 301 includes voice information of a device non-user indicating the voice uttered by the non-user 202. Alternatively, the audio information acquired by the audio acquisition unit 301 includes audio information of both device users and non-device users. Note that the audio information acquired by the audio acquisition unit 301 is sent to the request evaluation unit 302 and the response evaluation unit 304.

要求評価部302は、音声取得部301にて取得した音声情報(第1の音声情報)に基づき、非利用者202から利用者201へのコミュニケーション要求について詳細につき後述する要求評価項目を評価して要求評価値を求める。具体的には、先ず、利用者201の音声情報(第2の音声情報)と、非利用者202の音声情報(第3の音声情報)とは、予め登録されており、不図示の音声情報格納部に格納されているとする。続いて、予め登録された第2および第3の音声情報を用いて、第1の音声情報に第3の音声情報(非利用者202の音声情報)が含まれているか判定する。続いて、含まれているとの判定結果を得ると、第1の音声情報のうち、第3の音声情報が含まれる部分を解析する。この解析結果として、デバイス利用者への要求の有無、デバイス非利用者の感情(種別/強度)、デバイス非利用者の月齢/年齢に関する情報が得られる。得られた情報から対応する要求評価値が求められる。要求評価値の詳細については後述する。求められた要求評価値は、TF検出部305に送られる。 The request evaluation unit 302 evaluates the request evaluation items described in detail later regarding the communication request from the non-user 202 to the user 201 based on the voice information (first voice information) acquired by the voice acquisition unit 301. Find the required evaluation value. Specifically, first, the voice information of the user 201 (second voice information) and the voice information of the non-user 202 (third voice information) are registered in advance, and the voice information (not shown) Assume that it is stored in the storage section. Next, using the second and third voice information registered in advance, it is determined whether the first voice information includes third voice information (voice information of the non-user 202). Subsequently, when a determination result indicating that the third audio information is included is obtained, a portion of the first audio information that includes the third audio information is analyzed. As a result of this analysis, information regarding the presence or absence of a request to the device user, the emotion (type/intensity) of the non-device user, and the age/age of the non-device user is obtained. A corresponding request evaluation value is determined from the obtained information. Details of the required evaluation value will be described later. The obtained request evaluation value is sent to the TF detection unit 305.

利用情報取得部303は、スマートフォン211で生成された、電子機器(デバイス)の利用状況を示す利用情報を取得する。利用情報は、利用者201がスマートフォン211を使用しているか否かを示す情報を含む。なお、利用情報は、少なくともスマートフォン211の画面が点灯している状態であるとき、この状態をスマートフォン211が利用されている状態であることを示す情報として含む。利用情報取得部303が取得した利用情報は、対応評価部304に送られる。 The usage information acquisition unit 303 acquires usage information generated by the smartphone 211 and indicating the usage status of an electronic device (device). The usage information includes information indicating whether the user 201 is using the smartphone 211. Note that at least when the screen of the smartphone 211 is lit, the usage information includes this state as information indicating that the smartphone 211 is being used. The usage information acquired by the usage information acquisition unit 303 is sent to the correspondence evaluation unit 304.

対応評価部304は、音声取得部301にて取得した音声情報と、利用情報取得部303にて取得した利用情報とに基づき、非利用者202から利用者201へのコミュニケーション要求に対する対応について詳細につき後述する対応評価項目を評価する。そして、評価結果を基に対応評価値を求める。具体的には、非利用者202のコミュニケーションの要求に対応する応答であるか否かを判定する。非利用者202のコミュニケーションの要求に対して、所定時間以内に利用者201の音声情報が無いと、要求に対する応答なしと判定する。また、所定時間以内に利用者201の音声情報があっても、この利用者201の音声情報が、予め登録された応答情報と異なると、要求に対する応答なしと判定する。他方、予め登録された応答情報と同じであると、要求に対する応答ありと判定する。そして、応答なしとの判定結果が得られると、「不適切」の評価結果を得ることになる。他方、応答ありとの判定結果が得られると、「適切」の評価結果を得ることになる。そして、評価結果に対応した対応評価値が求められる。対応評価値の詳細については後述する。求められた対応評価値は、TF検出部305に送られる。 The response evaluation unit 304 determines the details of the response to the communication request from the non-user 202 to the user 201 based on the voice information acquired by the voice acquisition unit 301 and the usage information acquired by the usage information acquisition unit 303. Evaluate the corresponding evaluation items described below. Then, a corresponding evaluation value is determined based on the evaluation result. Specifically, it is determined whether the response corresponds to the communication request of the non-user 202. If there is no voice information from the user 201 within a predetermined time in response to a communication request from the non-user 202, it is determined that there is no response to the request. Further, even if there is voice information of the user 201 within a predetermined time, if this voice information of the user 201 differs from response information registered in advance, it is determined that there is no response to the request. On the other hand, if the response information is the same as the previously registered response information, it is determined that there is a response to the request. If a determination result of no response is obtained, an evaluation result of "inappropriate" is obtained. On the other hand, if a response is determined, an evaluation result of "appropriate" is obtained. Then, a corresponding evaluation value corresponding to the evaluation result is determined. Details of the correspondence evaluation value will be described later. The obtained correspondence evaluation value is sent to the TF detection unit 305.

TF検出部305は、要求評価値と対応評価結果とに基づき、利用者201と非利用者202とのコミュニケーションが、スマートフォン211(電子機器)の利用により阻害されている状態(以降、テクノフェレンス)を検出する。テクノフェレンスは、乳幼児などの子供を養育する養育者と、当該養育者により養育される子供とのコミュニケーションが、電子機器の利用により阻害されている状態であるとする。検出処理の詳細は後述する。なお、TF検出部305は、上述の検出処理による検出結果として、テクノフェレンスを検出する場合とテクノフェレンスを検出しない場合とがあることから、テクノフェレンスの有無を判定するともいえる。検出結果は、TF通知部306に送られる。 Based on the request evaluation value and the response evaluation result, the TF detection unit 305 detects a state in which communication between the user 201 and the non-user 202 is obstructed due to the use of the smartphone 211 (electronic device) (hereinafter referred to as technoference). ) is detected. Technoference refers to a state in which communication between a caregiver of a child, such as an infant, and the child being cared for by the caregiver is obstructed by the use of electronic devices. Details of the detection process will be described later. Note that the TF detection unit 305 can be said to determine the presence or absence of technoference, since there are cases in which technoference is detected and cases in which technoference is not detected as a result of the detection process described above. The detection result is sent to the TF notification unit 306.

TF通知部306は、TF検出部305にて検出したテクノフェレンスの検出結果を基に、テクノフェレンスの通知処理を実行する。テクノフェレンスの通知処理の詳細は後述する。テクノフェレンスの通知先は、表示器312および拡声器313の両方であるが、これに限定されない。テクノフェレンスの通知先は、表示器312のみであってもよいし、拡声器313のみであってもよいし、表示器312および拡声器313以外の機器であってもよい。 The TF notification unit 306 executes technoference notification processing based on the technoference detection result detected by the TF detection unit 305 . Details of the technoference notification process will be described later. The technoference notification destination is both the display 312 and the loudspeaker 313, but is not limited thereto. The technoference notification destination may be only the display 312, only the loudspeaker 313, or a device other than the display 312 and the loudspeaker 313.

<検出システムが実行する処理>
図4は、検出システムが実行する処理の流れを示すフローチャートである。CPU101は、ROM102に格納された図4に示すフローチャートを実現するプログラムを読み出して、RAM103をワークエリアとして使用して実行する。これによりCPU101は、図3に示す各機能構成としての役割を果たす。上述のテクノフェレンスの検出機能が有効に設定されているとする。なお、フローチャートの説明における記号「S」は、ステップを表すものとする。この点、以下のフローチャートの説明においても同様とする。
<Processing executed by the detection system>
FIG. 4 is a flowchart showing the flow of processing executed by the detection system. The CPU 101 reads a program that implements the flowchart shown in FIG. 4 stored in the ROM 102, and executes the program using the RAM 103 as a work area. Thereby, the CPU 101 plays a role as each functional configuration shown in FIG. Assume that the technoference detection function described above is enabled. Note that the symbol "S" in the explanation of the flowchart represents a step. This point also applies to the description of the flowcharts below.

S401では、要求評価部302は、音声取得部301にて取得した音声情報に基づき、非利用者202から利用者201へのコミュニケーションの要求を検出する。なお、デバイス利用者への要求の有無の検出に関し、上述したように予め登録された音声情報を用いてもよいし、上述の非特許文献1に記載の技術を用いてもよい。そして、要求評価部302は、要求の検出結果と、音声取得部301にて取得した音声情報とに基づき、要求について要求評価項目を評価して要求評価値を算出する。算出された要求評価値は、TF検出部305に送られる。 In S401, the request evaluation unit 302 detects a communication request from the non-user 202 to the user 201 based on the voice information acquired by the voice acquisition unit 301. Note that regarding the detection of the presence or absence of a request to the device user, voice information registered in advance as described above may be used, or the technique described in the above-mentioned Non-Patent Document 1 may be used. Then, the request evaluation unit 302 evaluates the request evaluation items for the request based on the detection result of the request and the audio information acquired by the audio acquisition unit 301, and calculates a request evaluation value. The calculated request evaluation value is sent to the TF detection unit 305.

S402では、対応評価部304は、音声取得部301にて取得した音声情報と、利用情報取得部303にて取得した利用情報とに基づき、非利用者202からのコミュニケーション要求に対する利用者201の対応評価値を算出する。すなわち、対応評価部304は、要求に対する利用者201の対応について対応評価項目を評価して対応評価値を算出する。算出された対応評価値は、TF検出部305に送られる。 In S402, the response evaluation unit 304 evaluates the response of the user 201 to the communication request from the non-user 202 based on the voice information acquired by the voice acquisition unit 301 and the usage information acquired by the usage information acquisition unit 303. Calculate the evaluation value. That is, the response evaluation unit 304 evaluates the response evaluation items regarding the response of the user 201 to the request, and calculates a response evaluation value. The calculated correspondence evaluation value is sent to the TF detection unit 305.

S403では、TF検出部305は、S401にて算出した要求評価値と、S402にて算出した対応評価値とに基づき、テクノフェレンスの検出処理を実行する。テクノフェレンスの検出処理の詳細は後述する。テクノフェレンスの検出結果は、TF通知部306に送られる。 In S403, the TF detection unit 305 executes technoference detection processing based on the request evaluation value calculated in S401 and the corresponding evaluation value calculated in S402. Details of the technoference detection process will be described later. The technoference detection results are sent to the TF notification unit 306.

S404では、TF通知部306は、テクノフェレンスの通知処理を実行する。テクノフェレンスの通知処理の詳細は後述する。なお、テクノフェレンスの通知処理を完了すると、図4に示すフローを終える。 In S404, the TF notification unit 306 executes technoference notification processing. Details of the technoference notification process will be described later. Note that when the technoference notification process is completed, the flow shown in FIG. 4 ends.

<要求評価結果>
図5は、要求評価部302にて算出した要求評価結果例を示す図である。要求評価結果500は、時刻501にて示される時刻毎に、デバイス利用者への要求有無に関する評価項目502の評価結果、要求時の感情(種別/強度)に関する評価項目503の評価結果、月齢/年齢に関する評価項目504の評価結果を有する。時刻501は、デバイス非利用者の音声情報を検出した際の時刻を表している。
<Requirements evaluation results>
FIG. 5 is a diagram showing an example of the request evaluation results calculated by the request evaluation section 302. The request evaluation result 500 includes, at each time indicated by a time 501, the evaluation result of the evaluation item 502 regarding the presence or absence of a request to the device user, the evaluation result of the evaluation item 503 regarding the emotion (type/intensity) at the time of the request, and the age/month/month. It has the evaluation results of the evaluation item 504 related to age. Time 501 represents the time when voice information of a non-device user was detected.

デバイス利用者への要求有無に関する評価項目502では、音声取得部301にて取得した音声情報に基づき、利用者201に対する非利用者202からのコミュニケーションの要求の有無に関する評価結果と、この評価結果に対応した評価値とを示している。デバイス利用者への要求の有無に関し、音声取得部301にて取得した音声情報が、例えば、「ねーねー」または「パパー」などの特定の音声情報を含むとの解析結果が得られると、要求ありと評価することになる。他方、音声取得部301にて取得した音声情報が、前記特定の情報を含まないとの解析結果が得られると、要求なしと評価することになる。なお、「要求あり」の評価結果に対応する評価値は5であり、「要求無し」の評価結果に対応する評価値は0であるとするが、これに限定されない。 The evaluation item 502 regarding the presence or absence of a request to the device user includes an evaluation result regarding the presence or absence of a communication request from the non-user 202 to the user 201 based on the voice information acquired by the voice acquisition unit 301, and the evaluation result regarding the presence or absence of a communication request from the non-user 202 to the user 201. The corresponding evaluation values are shown. Regarding the presence or absence of a request to the device user, if an analysis result is obtained that the voice information acquired by the voice acquisition unit 301 includes specific voice information such as "neeee" or "papa", the request is made to the device user. I would rate it as positive. On the other hand, if an analysis result is obtained that the audio information acquired by the audio acquisition unit 301 does not include the specific information, it will be evaluated that there is no request. Note that the evaluation value corresponding to the evaluation result of "required" is 5, and the evaluation value corresponding to the evaluation result of "no request" is 0, but the present invention is not limited to this.

要求時の感情(種別/強度)に関する評価項目503では、非利用者202が利用者201に対してコミュニケーションを要求したときの感情(種別/強度)に関する評価結果と、この評価結果に対応した評価値を示している。要求時の感情(種別/強度)の評価に関し、例えば、非特許文献2に記載の技術など公知の技術を用いることが可能である。感情の種別として、例えば、哀しみ、怒り、無しなどを検出する。また、感情の強度として、中、小を検出する。これら検出結果に基づき、感情(種別/強度)に関し、利用者201に対する非利用者202のコミュニケーションの要求について、哀しみ、怒り、無しの何れの感情であり、中、小の何れの感情の強度であるかを評価することになる。なお、感情/強度に関し、「哀/小」および「怒/小」の評価結果に対応する評価値は1とし、「哀/中」および「怒/中」の評価結果に対応する評価値は2とし、「無し」の評価結果に対応する評価値は0とするが、これに限定されない。 The evaluation item 503 regarding the emotion (type/intensity) at the time of request includes the evaluation result regarding the emotion (type/intensity) when the non-user 202 requests communication from the user 201, and the evaluation corresponding to this evaluation result. It shows the value. Regarding the evaluation of the emotion (type/intensity) at the time of the request, it is possible to use a known technique such as the technique described in Non-Patent Document 2, for example. As the type of emotion, for example, sadness, anger, nothing, etc. are detected. Additionally, medium and small levels of emotional intensity are detected. Based on these detection results, regarding the emotion (type/intensity), regarding the communication request of the non-user 202 to the user 201, it is possible to determine whether the emotion is sadness, anger, or none, and whether the emotion intensity is medium or low. We will evaluate whether there is. Regarding emotion/intensity, the evaluation value corresponding to the evaluation result of "sad/small" and "angry/small" is 1, and the evaluation value corresponding to the evaluation result of "sad/medium" and "angry/medium" is 1. 2, and the evaluation value corresponding to the evaluation result of "none" is set to 0, but the evaluation value is not limited to this.

月齢/年齢に関する評価項目504では、音声取得部301にて取得した音声情報に基づき、非利用者202の月齢/年齢に関する評価結果と、この評価結果に対応する評価値とを示している。月齢/年齢の評価に関し、音声情報を解析して推定した年齢または事前に登録された年齢と、個人情報と照合する形態でもよい。なお、月齢/年齢の評価に関し、例えば、非特許文献3に記載の技術などの公知の技術を用いることが可能である。なお、月齢/年齢に関し、「6ヶ月以下」の評価結果に対応する評価値は3とし、「6ヶ月~12ヶ月」の評価結果に対応する評価値は2とし、「12ヶ月~24ヶ月」の評価結果に対応する評価値は1とするが、これに限定されない。 The evaluation item 504 regarding age/age shows the evaluation result regarding the age/age of the non-user 202 based on the audio information acquired by the audio acquisition unit 301, and the evaluation value corresponding to this evaluation result. Regarding the age/age evaluation, an age estimated by analyzing audio information or a pre-registered age may be compared with personal information. Note that regarding the evaluation of age/age, for example, it is possible to use a known technique such as the technique described in Non-Patent Document 3. Regarding age/age, the evaluation value corresponding to the evaluation result of "6 months or less" is 3, the evaluation value corresponding to the evaluation result of "6 months to 12 months" is 2, and the evaluation value corresponding to the evaluation result of "12 months to 24 months" The evaluation value corresponding to the evaluation result is 1, but is not limited to this.

なお、上述の要求評価結果500について、時刻501の「t0」において、評価項目502では「有(5)」を、評価項目503では「哀/小(1)」を、評価項目504では「24ヶ月(1)」を示している。 Regarding the above-mentioned request evaluation result 500, at time 501 "t0", evaluation item 502 is set as "Yes (5)", evaluation item 503 is set as "Sad/Slight (1)", and evaluation item 504 is set as "24". Month (1)" is shown.

<対応評価結果>
図6は、対応評価部304にて算出した対応評価結果例を示す図である。対応評価結果600は、時刻601にて示される時刻毎に、デバイス利用有無に関する評価項目602の評価結果、対応時の発言内容に関する評価項目603の評価結果を有する。なお、時刻601は、要求評価結果500の時刻501にて示される時刻と同じ時刻を示している。
<Results of response evaluation>
FIG. 6 is a diagram showing an example of a correspondence evaluation result calculated by the correspondence evaluation unit 304. The response evaluation result 600 includes, for each time indicated by a time 601, an evaluation result of an evaluation item 602 regarding whether or not a device is used, and an evaluation result of an evaluation item 603 regarding the contents of comments during response. Note that the time 601 indicates the same time as the time 501 of the request evaluation result 500.

デバイス利用有無に関する評価項目602では、音声情報と利用情報に基づき、非利用者202からのコミュニケーション要求時における利用者201によるスマートフォン211の利用の有無に関する評価結果と、この評価結果に対応した評価値を示している。スマートフォン211の利用の有無に関し、利用情報が、スマートフォン211を利用していることを示す情報を含むとの解析結果が得られると、デバイス利用ありと評価することになる。他方、利用情報が、スマートフォン211を利用していないことを示す情報を含むとの解析結果が得られると、デバイス利用なしと評価することになる。なお、「デバイス利用あり」の評価結果に対応する評価値は3であり、「デバイス利用なし」の評価結果に対応する評価値は0であるとするが、これに限定されない。 The evaluation item 602 regarding whether or not the device is used includes an evaluation result regarding whether or not the user 201 uses the smartphone 211 at the time of a communication request from the non-user 202, based on voice information and usage information, and an evaluation value corresponding to this evaluation result. It shows. Regarding whether or not the smartphone 211 is being used, if an analysis result is obtained that the usage information includes information indicating that the smartphone 211 is being used, it is determined that the device is being used. On the other hand, if an analysis result is obtained that the usage information includes information indicating that the smartphone 211 is not used, it will be evaluated that the device is not used. Note that the evaluation value corresponding to the evaluation result of "device usage" is 3, and the evaluation value corresponding to the evaluation result of "device usage not being used" is 0, but the present invention is not limited to this.

対応時の発言内容に関する評価項目603では、非利用者202からのコミュニケーション要求に対する利用者201による対応時の発言内容に関する評価結果と、この評価結果に対応した評価値とを示している。発言内容の評価に関し、利用者201および非利用者202の音声をテキスト化したものを利用し、非利用者202の要求に対応する応答であるかを判断する。なお、音声のテキスト化に関し、例えば、非特許文献4に記載の技術など公知の技術を用いることが可能である。対応時の発言内容に関し、音声取得部301にて取得した音声情報にて、要求後の所定時間以内に、応答なしとの解析結果が得られると、不適切と評価することになる。他方、音声取得部301にて取得した音声情報にて、要求後の所定時間以内に、応答ありとの解析結果が得られると、適切と評価することになる。なお、「適切」の評価結果に対応する評価値は0であり、「不適切」の評価結果に対応する評価値は2であるとするが、これに限定されない。 The evaluation item 603 regarding the content of comments made during response shows the evaluation results regarding the content of comments made by the user 201 when responding to a communication request from the non-user 202, and the evaluation value corresponding to this evaluation result. Regarding the evaluation of the content of the statement, it is determined whether the response corresponds to the request of the non-user 202 by using the voice of the user 201 and the non-user 202 converted into text. Note that for converting speech into text, it is possible to use a known technique such as the technique described in Non-Patent Document 4, for example. Regarding the content of the statement made during response, if the voice information acquired by the voice acquisition unit 301 indicates that there is no response within a predetermined time after the request, the response will be evaluated as inappropriate. On the other hand, if an analysis result of the voice information acquired by the voice acquisition unit 301 indicates that there is a response within a predetermined time after the request, the request will be evaluated as appropriate. Note that the evaluation value corresponding to the evaluation result of "appropriate" is 0, and the evaluation value corresponding to the evaluation result of "inappropriate" is 2, but the present invention is not limited to this.

なお、上述の対応評価結果600について、時刻601の「t0」において、評価項目602では「有(3)」を、評価項目603では「不適切(2)」を示している。 Regarding the above-mentioned response evaluation result 600, at time 601 "t0", evaluation item 602 shows "Yes (3)" and evaluation item 603 shows "Inappropriate (2)".

<テクノフェレンスの検出処理>
図7は、テクノフェレンス(以下、TFと称す)の検出処理(S403)の詳細な流れを示すフローチャートである。
<Technoference detection processing>
FIG. 7 is a flowchart showing the detailed flow of the technoference (hereinafter referred to as TF) detection process (S403).

S701では、TF検出部305は、現時刻のTFスコアおよび一定時刻Tn分のTFスコア総和を算出する。現時刻のTFスコアは、要求評価部302による評価結果と、対応評価部304による評価結果とに基づき算出される。本実施形態では、例えば各評価部の評価結果を数値に変換し、評価部内で数値を足し合わせ、評価部間で数値を掛け合わせる。そして、求められた数値に対して、デバイス利用者へのコミュニケーション要求有無の評価項目502の評価結果が有の場合を1とし、無の場合を0とした値をさらに掛け合わせることでTFスコアを算出する。ここで、要求評価部302による評価結果について、図5に示す要求評価結果500を例にして説明する。評価項目502の評価結果「有」を5に変換し、評価項目503の評価結果「哀/小」を1に変換し、評価項目504の評価結果「24カ月」を1に変換する。そして、5と1と1とを足し合わせ、要求評価部302の要求評価値として7を算出する。対応評価部304による評価結果について、図6に示す対応評価結果600を例にして説明する。評価項目602の評価結果「有」を3に変換し、評価項目603の評価結果「不適切」を2に変換する。そして、3と2とを足し合わせ、対応評価部304の対応評価値として5を算出する。そして、要求評価値の7と対応評価値の5とを掛け合わせて35を算出する。デバイス利用者への要求有無の評価項目502の評価結果が「有」であることから、35に1を掛け合わせた35をTFスコアとして算出する。なお、デバイス利用者への要求有無の評価項目502の評価結果が「無」である場合には、35に0を掛け合わせた0をTFスコアとして算出する。 In S701, the TF detection unit 305 calculates the TF score at the current time and the total TF score for a certain time Tn. The TF score at the current time is calculated based on the evaluation result by the request evaluation unit 302 and the evaluation result by the correspondence evaluation unit 304. In this embodiment, for example, the evaluation results of each evaluation section are converted into numerical values, the numerical values are added together within the evaluation sections, and the numerical values are multiplied between the evaluation sections. Then, the obtained value is further multiplied by a value where the evaluation result of the evaluation item 502 regarding the presence or absence of a communication request to the device user is set as 1 if it is present, and 0 if it is not. calculate. Here, the evaluation result by the request evaluation unit 302 will be explained using the request evaluation result 500 shown in FIG. 5 as an example. The evaluation result "Yes" of the evaluation item 502 is converted to 5, the evaluation result "Sad/Slight" of the evaluation item 503 is converted to 1, and the evaluation result of evaluation item 504 "24 months" is converted to 1. Then, 5, 1, and 1 are added together to calculate 7 as the request evaluation value of the request evaluation unit 302. The evaluation result by the correspondence evaluation unit 304 will be explained using the correspondence evaluation result 600 shown in FIG. 6 as an example. The evaluation result "Yes" for the evaluation item 602 is converted to 3, and the evaluation result "Inappropriate" for the evaluation item 603 is converted to 2. Then, 3 and 2 are added together to calculate 5 as the correspondence evaluation value of the correspondence evaluation unit 304. Then, 35 is calculated by multiplying the request evaluation value of 7 and the corresponding evaluation value of 5. Since the evaluation result of the evaluation item 502 regarding the presence or absence of a request to the device user is "Yes", 35 is calculated by multiplying 35 by 1 as the TF score. Note that if the evaluation result of the evaluation item 502 regarding the presence or absence of a request to the device user is "no", 0, which is 35 multiplied by 0, is calculated as the TF score.

また、一定時刻Tn分のTFスコア総和は、過去から現時刻までのn個分のTFスコアを足し合わせた値となる。例えば、一定時刻Tnが3であり、現時刻がT4である場合、一定時刻T3分のTFスコア総和は、時刻T2のTFスコアと時刻T3のTFスコアと時刻T4のTFスコアとを足し合わせた値となる。 Further, the total TF score for a certain time Tn is the sum of n TF scores from the past to the current time. For example, if the constant time Tn is 3 and the current time is T4 , the sum of the TF scores for the constant time T3 is the TF score at time T2 , the TF score at time T3 , and the TF score at time T4 . The value is the sum of

S702では、TF検出部305は、現時刻のTFスコアが閾値THα以上であるかを判定する。現時刻のTFスコアが閾値THα以上でないとの判定結果を得た場合(S702のNO)、処理がS703に移行される。他方、現時刻のTFスコアが閾値THα以上であるとの判定結果を得た場合(S702のYES)、処理がS704に移行される。 In S702, the TF detection unit 305 determines whether the TF score at the current time is greater than or equal to the threshold THα. If the determination result is that the TF score at the current time is not equal to or greater than the threshold THα (NO in S702), the process moves to S703. On the other hand, if the determination result is that the TF score at the current time is greater than or equal to the threshold THα (YES in S702), the process moves to S704.

S703では、TF検出部305は、一定時刻Tn分のTFスコア総和が閾値THβ以上であるか判定する。すなわち、TF検出部305は、現時刻から過去Tn分のTFスコア総和が閾値THβ以上であるか判定する。現時刻から過去Tn分のTFスコア総和が閾値THβ以上でないとの判定結果を得た場合(S703のNO)、処理がS705に移行される。他方、現時刻から過去Tn分のTFスコア総和が閾値THβ以上であるとの判定結果を得た場合(S703のYES)、処理がS704に移行される。 In S703, the TF detection unit 305 determines whether the total TF score for a certain time Tn is equal to or greater than a threshold value THβ. That is, the TF detection unit 305 determines whether the sum of the TF scores over the past Tn from the current time is greater than or equal to the threshold THβ. If a determination result is obtained that the sum of TF scores over the past Tn from the current time is not equal to or greater than the threshold THβ (NO in S703), the process moves to S705. On the other hand, if a determination result is obtained that the sum of TF scores over the past Tn from the current time is equal to or greater than the threshold THβ (YES in S703), the process moves to S704.

S704では、TF検出部305は、TFを検出したことを確定することになる。S705では、TF検出部305は、TFを検出していないことを確定することになる。なお、S704の処理またはS705の処理が完了すると、図7に示すフローを終える。 In S704, the TF detection unit 305 determines that a TF has been detected. In S705, the TF detection unit 305 determines that no TF has been detected. Note that when the processing in S704 or S705 is completed, the flow shown in FIG. 7 ends.

<TFスコアによるテクノフェレンスの検出>
図8は、現時刻のTFスコアが閾値THα以上と判定される例を示す図である。図8の例では、閾値THαを40とし、一定時刻Tnを3とする。なお、時刻801は時刻501に、評価項目802は評価項目502に、評価項目803は評価項目503に、評価項目804は評価項目504にそれぞれ対応する。また、評価項目811は評価項目602に、評価項目812は評価項目603にそれぞれ対応する。
<Detection of technoference using TF score>
FIG. 8 is a diagram showing an example in which the TF score at the current time is determined to be greater than or equal to the threshold value THα. In the example of FIG. 8, the threshold value THα is set to 40, and the fixed time Tn is set to 3. Note that the time 801 corresponds to the time 501, the evaluation item 802 corresponds to the evaluation item 502, the evaluation item 803 corresponds to the evaluation item 503, and the evaluation item 804 corresponds to the evaluation item 504. Further, the evaluation item 811 corresponds to the evaluation item 602, and the evaluation item 812 corresponds to the evaluation item 603, respectively.

t0の時刻801では、評価項目802の評価結果(評価値)が無(0)であることから、現時刻t0のTFスコア821は0である。現時刻t0のTFスコア821が0であることから、現時刻t0のTFスコア総和822は0である。 At the time 801 of t0, the evaluation result (evaluation value) of the evaluation item 802 is null (0), so the TF score 821 at the current time t0 is 0. Since the TF score 821 at the current time t0 is 0, the TF score sum 822 at the current time t0 is 0.

t1の時刻801では、評価項目802の評価結果(評価値)が有(5)であり、評価項目803の評価結果(評価値)が無(0)であり、評価項目804の評価結果(評価値)が24ヶ月(1)である。そのため、要求評価値は、5+0+1の6となる。評価項目811の評価結果(評価値)が有(3)であり、評価項目812の評価結果(評価値)が適切(0)である。そのため、対応評価値は、3+0の3となる。そして、現時刻t1でのTFスコア821は、現時刻t1の要求評価値の6と現時刻t1の対応評価値の3とを掛け合わせて得た値に対し、現時刻t1にて評価項目802の評価結果が有の場合の1を掛け合わせた18となる。t1分のTFスコア総和822は、t0のTFスコア821の0と、t1のTFスコア821の18とを足し合わせた18となる。 At time 801 of t1, the evaluation result (evaluation value) of evaluation item 802 is yes (5), the evaluation result (evaluation value) of evaluation item 803 is no (0), and the evaluation result (evaluation value) of evaluation item 804 is value) is 24 months (1). Therefore, the required evaluation value is 6 (5+0+1). The evaluation result (evaluation value) of evaluation item 811 is Yes (3), and the evaluation result (evaluation value) of evaluation item 812 is Appropriate (0). Therefore, the correspondence evaluation value is 3+0. The TF score 821 at the current time t1 is obtained by multiplying the requested evaluation value of 6 at the current time t1 by the corresponding evaluation value at the current time t1 of 3. The result is 18, which is multiplied by 1 when the evaluation result is yes. The total TF score 822 for t1 is 18, which is the sum of 0 of the TF score 821 of t0 and 18 of the TF score 821 of t1.

t2の時刻801では、評価項目802の評価結果(評価値)が有(5)であり、評価項目803の評価結果(評価値)が哀/小(1)であり、評価項目804の評価結果(評価値)が24ヶ月(1)である。そのため、要求評価値は、5+1+1の7となる。評価項目811の評価結果(評価値)が有(3)であり、評価項目812の評価結果(評価値)が不適切(2)である。そのため、対応評価値は、3+2の5となる。そして、現時刻t2でのTFスコア821は、現時刻t2の要求評価値の7と現時刻t2の対応評価値の5とを掛け合わせて得た値に対し、現時刻t2にて評価項目802の評価結果が有の場合の1を掛け合わせた35となる。t2分のTFスコア総和822は、t0のTFスコア821の0と、t1のTFスコア821の18と、t2のTFスコア821の35とを足し合わせた53となる。 At time 801 of t2, the evaluation result (evaluation value) of evaluation item 802 is yes (5), the evaluation result (evaluation value) of evaluation item 803 is sad/small (1), and the evaluation result of evaluation item 804 is (Evaluation value) is 24 months (1). Therefore, the required evaluation value is 7 (5+1+1). The evaluation result (evaluation value) of evaluation item 811 is yes (3), and the evaluation result (evaluation value) of evaluation item 812 is inappropriate (2). Therefore, the correspondence evaluation value is 5 (3+2). Then, the TF score 821 at the current time t2 is obtained by multiplying the requested evaluation value of 7 at the current time t2 by the corresponding evaluation value of 5 at the current time t2. The result is 35, which is multiplied by 1 when the evaluation result is yes. The total TF score 822 for t2 is 53, which is the sum of 0 of the TF score 821 of t0, 18 of the TF score 821 of t1, and 35 of the TF score 821 of t2.

t3の時刻801では、評価項目802の評価結果(評価値)が有(5)であり、評価項目803の評価結果(評価値)が哀/中(2)であり、評価項目804の評価結果(評価値)が24ヶ月(1)である。そのため、要求評価値は、5+2+1の8となる。評価項目811の評価結果(評価値)が有(3)であり、評価項目812の評価結果(評価値)が不適切(2)である。そのため、対応評価値は、3+2の5となる。そして、現時刻t3でのTFスコア821は、現時刻t3の要求評価値の8と現時刻t3の対応評価値の5とを掛け合わせて得た値に対し、現時刻t3にて評価項目802の評価結果が有の場合の1を掛け合わせた40となる。t3分のTFスコア総和822は、t1のTFスコア821の18と、t2のTFスコア821の35と、t3のTFスコア821の40とを足し合わせた93となる。 At time 801 of t3, the evaluation result (evaluation value) of evaluation item 802 is yes (5), the evaluation result (evaluation value) of evaluation item 803 is sad/medium (2), and the evaluation result of evaluation item 804 is (Evaluation value) is 24 months (1). Therefore, the required evaluation value is 8 (5+2+1). The evaluation result (evaluation value) of evaluation item 811 is yes (3), and the evaluation result (evaluation value) of evaluation item 812 is inappropriate (2). Therefore, the correspondence evaluation value is 5 (3+2). The TF score 821 at the current time t3 is the value obtained by multiplying the required evaluation value of 8 at the current time t3 by the corresponding evaluation value of 5 at the current time t3, and the evaluation item 802 at the current time t3. The result is 40, which is multiplied by 1 when the evaluation result is yes. The total TF score 822 for t3 is 93, which is the sum of 18 of the TF score 821 of t1, 35 of the TF score 821 of t2, and 40 of the TF score 821 of t3.

上述したように、時刻t3におけるTFスコア831は40であり、この数値が閾値THα以上であるため、TFの検出を確定し、S404にてTFの検出を通知することになる。 As described above, the TF score 831 at time t3 is 40, and since this value is greater than or equal to the threshold THα, the detection of TF is confirmed, and the detection of TF is notified in S404.

<Tn分のTFスコア総和によるテクノフェレンスの検出>
図9は現時刻から過去Tn分のTFスコア総和が閾値THβ以上と判定される例を示す図である。図9の例では、閾値THβを100とし、一定時刻Tnを3とする。なお、時刻901は時刻501に、評価項目902は評価項目502に、評価項目903は評価項目503に、評価項目904は評価項目504にそれぞれ対応する。また、評価項目911は評価項目602に、評価項目912は評価項目603にそれぞれ対応する。
<Detection of technoference by total TF score for Tn>
FIG. 9 is a diagram showing an example in which the sum of TF scores for the past Tn from the current time is determined to be greater than or equal to the threshold value THβ. In the example of FIG. 9, the threshold value THβ is set to 100, and the fixed time Tn is set to 3. Note that the time 901 corresponds to the time 501, the evaluation item 902 corresponds to the evaluation item 502, the evaluation item 903 corresponds to the evaluation item 503, and the evaluation item 904 corresponds to the evaluation item 504. Further, the evaluation item 911 corresponds to the evaluation item 602, and the evaluation item 912 corresponds to the evaluation item 603, respectively.

t0の時刻901では、評価項目902の評価結果(評価値)が無(0)であることから、現時刻t0のTFスコア921は0である。現時刻t0のTFスコア921が0であることから、現時刻t0のTFスコア総和922は0である。 At the time 901 of t0, the evaluation result (evaluation value) of the evaluation item 902 is null (0), so the TF score 921 at the current time t0 is 0. Since the TF score 921 at the current time t0 is 0, the TF score total 922 at the current time t0 is 0.

t1の時刻901では、評価項目902の評価結果(評価値)が有(5)であり、評価項目903の評価結果(評価値)が無(0)であり、評価項目904の評価結果(評価値)が24ヶ月(1)である。そのため、要求評価値は、5+0+1の6となる。評価項目911の評価結果(評価値)が有(3)であり、評価項目912の評価結果(評価値)が適切(0)である。そのため、対応評価値は、3+0の3となる。そして、現時刻t1でのTFスコア921は、現時刻t1の要求評価値の6と現時刻t1の対応評価値の3とを掛け合わせて得た値に対し、現時刻t1にて評価項目902の評価結果が有の場合の1を掛け合わせた18となる。t1分のTFスコア総和922は、t0のTFスコア921の0と、t1のTFスコア921の18と足し合わせた18となる。 At time 901 of t1, the evaluation result (evaluation value) of evaluation item 902 is Yes (5), the evaluation result (evaluation value) of evaluation item 903 is No (0), and the evaluation result (evaluation value) of evaluation item 904 is value) is 24 months (1). Therefore, the required evaluation value is 6 (5+0+1). The evaluation result (evaluation value) of evaluation item 911 is yes (3), and the evaluation result (evaluation value) of evaluation item 912 is appropriate (0). Therefore, the correspondence evaluation value is 3+0. The TF score 921 at the current time t1 is obtained by multiplying the required evaluation value of 6 at the current time t1 by the corresponding evaluation value at the current time t1 of 3. The result is 18, which is multiplied by 1 when the evaluation result is yes. The total TF score 922 for t1 is 18, which is the sum of 0 of the TF score 921 of t0 and 18 of the TF score 921 of t1.

t2の時刻901では、t1の時刻901のときと同じであり、要求評価値は5+0+1の6となり、対応評価値は3+0の3となる。そして、現時刻t2でのTFスコア921は、現時刻t2の要求評価値の6と現時刻t2の対応評価値の3とを掛け合わせて得た値に対し、現時刻t2にて評価項目902の評価結果が有の場合の1を掛け合わせた18となる。t2分のTFスコア総和922は、t0のTFスコア921の0と、t1のTFスコア921の18と、t2のTFスコア921の18と足し合わせた36となる。 At time 901 of t2, it is the same as at time 901 of t1, and the requested evaluation value is 6 (5+0+1), and the corresponding evaluation value is 3 (3+0). Then, the TF score 921 at the current time t2 is obtained by multiplying the required evaluation value of 6 at the current time t2 by the corresponding evaluation value at the current time t2 of 3. The result is 18, which is multiplied by 1 when the evaluation result is yes. The total TF score 922 for t2 is 36, which is the sum of 0 of the TF score 921 of t0, 18 of the TF score 921 of t1, and 18 of the TF score 921 of t2.

t3の時刻901では、評価項目902の評価結果(評価値)が有(5)であり、評価項目903の評価結果(評価値)が哀/小(1)であり、評価項目904の評価結果(評価値)が24ヶ月(1)である。そのため、要求評価値は、5+1+1の7となる。評価項目911の評価結果(評価値)が有(3)であり、評価項目912の評価結果(評価値)が不適切(2)である。そのため、対応評価値は、3+2の5となる。そして、現時刻t3でのTFスコア921は、現時刻t3の要求評価値の7と現時刻t3の対応評価値の5とを掛け合わせて得た値に対し、現時刻t3にて評価項目902の評価結果が有の場合の1を掛け合わせた35となる。t3分のTFスコア総和922は、t1のTFスコア921の18と、t2のTFスコア921の18と、t3のTFスコア921の35と足し合わせた71となる。 At time 901 of t3, the evaluation result (evaluation value) of evaluation item 902 is yes (5), the evaluation result (evaluation value) of evaluation item 903 is sad/small (1), and the evaluation result of evaluation item 904 is (Evaluation value) is 24 months (1). Therefore, the required evaluation value is 7 (5+1+1). The evaluation result (evaluation value) of evaluation item 911 is yes (3), and the evaluation result (evaluation value) of evaluation item 912 is inappropriate (2). Therefore, the correspondence evaluation value is 5 (3+2). The TF score 921 at the current time t3 is the value obtained by multiplying the required evaluation value of 7 at the current time t3 by the corresponding evaluation value of 5 at the current time t3. The result is 35, which is multiplied by 1 when the evaluation result is yes. The total TF score 922 for t3 is 71, which is the sum of 18 of the TF score 921 of t1, 18 of the TF score 921 of t2, and 35 of the TF score 921 of t3.

t4の時刻901では、評価項目902の評価結果(評価値)が有(5)であり、評価項目903の評価結果(評価値)が無(0)であり、評価項目904の評価結果(評価値)が24ヶ月(1)である。そのため、要求評価値は、5+0+1の6となる。評価項目911の評価結果(評価値)が有(3)であり、評価項目912の評価結果(評価値)が不適切(2)である。そのため、対応評価値は、3+2の5となる。そして、現時刻t3でのTFスコア921は、現時刻t4の要求評価値の6と現時刻t4の対応評価値の5とを掛け合わせて得た値に対し、現時刻t4にて評価項目902の評価結果が有の場合の1を掛け合わせた30となる。t3分のTFスコア総和922は、t2のTFスコア921の18と、t3のTFスコア921の35と、t4のTFスコア921の30と足し合わせた83となる。 At time 901 of t4, the evaluation result (evaluation value) of evaluation item 902 is Yes (5), the evaluation result (evaluation value) of evaluation item 903 is No (0), and the evaluation result (evaluation value) of evaluation item 904 is value) is 24 months (1). Therefore, the required evaluation value is 6 (5+0+1). The evaluation result (evaluation value) of evaluation item 911 is yes (3), and the evaluation result (evaluation value) of evaluation item 912 is inappropriate (2). Therefore, the correspondence evaluation value is 5 (3+2). The TF score 921 at the current time t3 is the value obtained by multiplying the requested evaluation value of 6 at the current time t4 by the corresponding evaluation value of 5 at the current time t4, and the evaluation item 902 at the current time t4. The result is 30, which is multiplied by 1 when the evaluation result is yes. The total TF score 922 for t3 is 83, which is the sum of 18 of the TF score 921 of t2, 35 of the TF score 921 of t3, and 30 of the TF score 921 of t4.

t5の時刻901では、t3の時刻901のときと同じであり、要求評価値は5+1+1の7となり、対応評価値は3+2の5となる。そして、現時刻t5でのTFスコア921は、現時刻t5の要求評価値の7と現時刻t5の対応評価値の5とを掛け合わせて得た値に対し、現時刻t5にて評価項目902の評価結果が有の場合の1を掛け合わせた35となる。t3分のTFスコア総和922は、t3のTFスコア921の35と、t4のTFスコア921の30と、t5のTFスコア921の35とを足し合わせた100となる。 At time 901 of t5, it is the same as at time 901 of t3, the request evaluation value is 7 (5+1+1), and the corresponding evaluation value is 5 (3+2). The TF score 921 at the current time t5 is the value obtained by multiplying the requested evaluation value of 7 at the current time t5 by the corresponding evaluation value of 5 at the current time t5, and the evaluation item 902 at the current time t5. The result is 35, which is multiplied by 1 when the evaluation result is yes. The total TF score 922 for t3 is 100, which is the sum of 35 of the TF score 921 of t3, 30 of the TF score 921 of t4, and 35 of the TF score 921 of t5.

上述したように、時刻t5におけるTFスコア総和931は100であり、この数値が閾値THβ以上であるため、TFの検出を確定し、S404にてTFの検出を通知することになる。 As described above, the total TF score 931 at time t5 is 100, and since this value is greater than or equal to the threshold THβ, the detection of TF is confirmed, and the detection of TF is notified in S404.

<TFの通知処理>
図10は、TFの通知処理(S404)の詳細な流れを示すフローチャートである。
<TF notification processing>
FIG. 10 is a flowchart showing the detailed flow of the TF notification process (S404).

S1001では、TF通知部306は、TF検出部305でTFを検出したか判定する。TFを検出したとの判定結果を得た場合(S1001のYES)、処理がS1002に移行される。他方、TFを検出していないとの判定結果を得た場合(S1001のNO)、図10に示すフローを終える。すなわち、TFの検出がないことから、TF通知部306は、デバイスへのメッセージの通知を実行せずにTFの通知処理を終える。 In S1001, the TF notification unit 306 determines whether the TF detection unit 305 has detected a TF. If the determination result is that a TF has been detected (YES in S1001), the process moves to S1002. On the other hand, if the determination result is that no TF has been detected (NO in S1001), the flow shown in FIG. 10 ends. That is, since no TF is detected, the TF notification unit 306 finishes the TF notification process without notifying the device of the message.

S1002では、TF通知部306は、TFの検出根拠が閾値THα以上であるか判定する。TFの検出根拠が閾値THα以上でないとの判定結果を得た場合(S1002のNO)、処理がS1005に移行される。他方、TFの検出が閾値THα以上であるとの判定結果を得た場合(S1002のYES)、処理がS1003に移行される。 In S1002, the TF notification unit 306 determines whether the basis for detecting a TF is greater than or equal to a threshold value THα. If a determination result is obtained that the basis for detecting TF is not equal to or greater than the threshold THα (NO in S1002), the process moves to S1005. On the other hand, if a determination result is obtained that the detection of TF is greater than or equal to the threshold THα (YES in S1002), the process moves to S1003.

S1003では、TF通知部306は、閾値THαを超過した回数が一定期間内で閾値THΓ以上であるか判定する。一定期間は、例えば12時間であるがこれに限定されない。閾値THΓは、例えば5であるが、これに限定されない。閾値THαを超過した回数が一定期間内で閾値THΓ以上でないとの判定結果を得た場合(S1003のNO)、処理がS1005に移行される。他方、閾値THαを超過した回数が一定期間内で閾値THΓ以上であるとの判定結果を得た場合(S1003のYES)、処理がS1004に移行される。 In S1003, the TF notification unit 306 determines whether the number of times the threshold value THα has been exceeded is equal to or greater than the threshold value THΓ within a certain period of time. The fixed period is, for example, 12 hours, but is not limited to this. The threshold value THΓ is, for example, 5, but is not limited thereto. If a determination result is obtained that the number of times the threshold value THα has been exceeded is not equal to or greater than the threshold value THΓ within a certain period of time (NO in S1003), the process moves to S1005. On the other hand, if a determination result is obtained that the number of times the threshold value THα has been exceeded is equal to or greater than the threshold value THΓ within a certain period (YES in S1003), the process moves to S1004.

S1004では、TF通知部306は、利用者201によるスマートフォン211の利用を制限する処理を実行する。この処理は、例えば、娯楽用のアプリケーションの実行など電話及びメール機能以外の機能を使用不可とする処理、各アプリケーションからの通知を個別でなく1時間に1回まとめての受信に変更するなどの通知頻度を削減する処理を含むが、これに限定されない。 In S1004, the TF notification unit 306 executes processing to restrict the use of the smartphone 211 by the user 201. This process includes, for example, disabling functions other than telephone and email functions such as running entertainment applications, or changing notifications from each application to be received once an hour instead of individually. This includes, but is not limited to, processing to reduce notification frequency.

S1005では、TF通知部306は、利用者201が利用するスマートフォン211に対し、現在テクノフェレンスが発生している可能性が高い旨のメッセージを通知する。 In S1005, the TF notification unit 306 notifies the smartphone 211 used by the user 201 of a message indicating that there is a high possibility that technoference is currently occurring.

以上説明した通り、本実施形態によれば、電子機器の利用者201に対する、非利用者202からのコミュニケーションの要求と、要求に対する利用者201の対応とを評価する。要求の評価結果および対応の評価結果に基づき利用者201と非利用者202とのコミュニケーションが、電子機器の利用によって阻害されている状態であるか判定する。そして、コミュニケーションが阻害されている状態であると判定された場合に、コミュニケーションが阻害されている状態である旨を通知する。このような通知を行うことで、利用者201と非利用者202とのコミュニケーションが、電子機器の利用により阻害されている状態であることを認識することができる。 As described above, according to the present embodiment, a communication request from a non-user 202 to a user 201 of an electronic device and a response of the user 201 to the request are evaluated. Based on the request evaluation result and response evaluation result, it is determined whether communication between the user 201 and the non-user 202 is being obstructed by the use of the electronic device. Then, if it is determined that communication is being inhibited, a notification is sent that communication is being inhibited. By providing such notification, it is possible to recognize that communication between the user 201 and the non-user 202 is being obstructed by the use of the electronic device.

<<実施形態2>>
本実施形態では、音声情報および利用情報に加え、利用者の顔画像に関する情報を取得し、取得した情報に基づき要求に対する利用者201の対応を評価することで、より高精度にTFの検出処理を実行する態様について説明する。
<<Embodiment 2>>
In this embodiment, in addition to voice information and usage information, information regarding the user's face image is acquired, and the response of the user 201 to the request is evaluated based on the acquired information, thereby achieving more accurate TF detection processing. The manner in which this is executed will be explained.

<検出システムの適用例>
図11は、本実施形態に係る検出システムの適用例を示す図である。スマートフォン211を利用する利用者201と、スマートフォン211等の電子機器を利用しない非利用者202とが同じ部屋に居て、非利用者202が利用者201に対してコミュニケーションを要求する場面であるとする。なお、ここでは、本実施形態の検出システムが、撮像を行う撮像装置1101を付帯したスマートフォン211に適用されているとする。なお、撮像装置1101は、例えば、スマートフォン211の操作パネル側にあるフロントカメラであるとする。
<Application example of detection system>
FIG. 11 is a diagram showing an application example of the detection system according to this embodiment. Suppose that a user 201 who uses a smartphone 211 and a non-user 202 who does not use an electronic device such as the smartphone 211 are in the same room, and the non-user 202 requests communication from the user 201. do. Note that here, it is assumed that the detection system of this embodiment is applied to a smartphone 211 that is equipped with an imaging device 1101 that performs imaging. Note that the imaging device 1101 is, for example, a front camera located on the operation panel side of the smartphone 211.

スマートフォン211は、利用者201によって操作されるデバイス(電子機器)である。スマートフォン211は、利用者201がスマートフォン211を利用した状況を示す利用情報と、スマートフォン211周囲の音声に関する音声情報と取得する。さらに、スマートフォン211は、撮像装置1101が利用者201を撮像して利用者201の顔画像(静止画または動画)を取得する。 The smartphone 211 is a device (electronic device) operated by the user 201. The smartphone 211 acquires usage information indicating how the user 201 used the smartphone 211 and audio information regarding sounds surrounding the smartphone 211 . Further, in the smartphone 211, the imaging device 1101 images the user 201 to obtain a facial image (still image or video) of the user 201.

<検出システムの機能構成>
図12は、本実施形態に係る検出システム1200の機能構成例を示す図である。本実施形態では、実施形態1の検出システム100との差分を中心に説明する。検出システム1200は、実施形態1の検出システム100が有する機能部301-306と、画像取得部1201とを有する。検出システム1200は、外部機器である撮像装置1101と接続する。なお、撮像装置1101は、検出システム1200と接続する形態に限定されず、検出システム1200の内部に含まれる形態であってもよい。
<Functional configuration of detection system>
FIG. 12 is a diagram showing an example of the functional configuration of a detection system 1200 according to this embodiment. In this embodiment, differences from the detection system 100 of Embodiment 1 will be mainly explained. The detection system 1200 includes the functional units 301 to 306 included in the detection system 100 of the first embodiment and an image acquisition unit 1201. The detection system 1200 is connected to an imaging device 1101, which is an external device. Note that the imaging device 1101 is not limited to a configuration in which it is connected to the detection system 1200, but may be included in the detection system 1200.

画像取得部1201は、検出システム1200と接続するスマートフォン211の撮像装置1101で撮像して得た撮像画像を取得する。取得した撮像画像は、検出システム1200の対応評価部304に提供される。 The image acquisition unit 1201 acquires a captured image obtained by capturing an image with the imaging device 1101 of the smartphone 211 connected to the detection system 1200. The acquired captured image is provided to the correspondence evaluation unit 304 of the detection system 1200.

本実施形態の対応評価部304は、実施形態1と同様、音声情報および利用情報に基づき、非利用者202から利用者201へのコミュニケーション要求に対する対応について所定の対応評価項目を評価する。また、対応評価部304は、画像取得部1201にて取得した撮像画像に基づき、非利用者202から利用者201へのコミュニケーション要求に対する対応について詳細につき後述する対応評価項目を評価する。そして、評価結果を基に対応評価値を求める。なお、本実施形態の対応評価部304は、S402にて、音声情報、利用情報および撮像画像に基づき、要求に対する利用者201の対応について対応評価項目を評価して対応評価値を算出する。算出した対応評価値は、TF検出部305に送られ、TFスコアおよびTFスコア総和の算出に用いられる。 Similar to Embodiment 1, the response evaluation unit 304 of this embodiment evaluates predetermined response evaluation items regarding the response to the communication request from the non-user 202 to the user 201 based on the voice information and usage information. Furthermore, the response evaluation unit 304 evaluates response evaluation items, which will be described in detail later, regarding the response to the communication request from the non-user 202 to the user 201, based on the captured image acquired by the image acquisition unit 1201. Then, a corresponding evaluation value is determined based on the evaluation results. Note that, in S402, the response evaluation unit 304 of this embodiment evaluates response evaluation items regarding the response of the user 201 to the request based on the audio information, usage information, and captured image, and calculates a response evaluation value. The calculated correspondence evaluation value is sent to the TF detection unit 305 and used to calculate the TF score and the TF score total.

<対応評価結果>
図13は、検出システム1200が有する対応評価部304にて算出した対応評価結果例を示す図である。なお、図13に示す対応評価結果例について、図6に示す対応評価結果例との差分を中心に説明する。時刻1301は時刻601に、評価項目1302は評価項目602に、評価項目1303は評価項目603にそれぞれ対応する。
<Results of response evaluation>
FIG. 13 is a diagram showing an example of a correspondence evaluation result calculated by the correspondence evaluation unit 304 included in the detection system 1200. Note that the correspondence evaluation result example shown in FIG. 13 will be explained with a focus on the differences from the correspondence evaluation result example shown in FIG. 6. Time 1301 corresponds to time 601, evaluation item 1302 corresponds to evaluation item 602, and evaluation item 1303 corresponds to evaluation item 603.

対応評価結果1300は、時刻1301にて示される時刻毎に、デバイス利用有無に関する評価項目1302の評価結果、対応時の発言内容に関する評価項目1303の評価結果を有する。さらに、対応評価結果1300は、時刻1301にて示される時刻毎に、目線がデバイスであるかに関する評価項目1304の評価結果を有する。 The response evaluation result 1300 includes, for each time indicated by a time 1301, an evaluation result of an evaluation item 1302 regarding whether or not a device is used, and an evaluation result of an evaluation item 1303 regarding the contents of comments during response. Further, the correspondence evaluation result 1300 includes the evaluation result of the evaluation item 1304 regarding whether the line of sight is a device or not for each time indicated by the time 1301.

目線がデバイスであるかに関する評価項目1304では、画像取得部1201にて取得した撮像画像に基づき、利用者201の目線(視線)がデバイス(スマートフォン211)の画面にあるかに関する評価結果と、この評価結果に対応した評価値を示している。すなわち、要求に対する対応時に、利用者201の視線方向がスマートフォン211であると、利用者201が非利用者202を見ていないことを示すことになる。また、要求に対する対応時に、利用者201の視線方向がスマートフォン211でないと、利用者201が非利用者202を見ている可能性があることを示すことになる。 The evaluation item 1304 regarding whether the line of sight is on the device includes an evaluation result regarding whether the line of sight (line of sight) of the user 201 is on the screen of the device (smartphone 211) based on the captured image acquired by the image acquisition unit 1201; An evaluation value corresponding to the evaluation result is shown. That is, when the user 201 is looking at the smartphone 211 when responding to the request, this indicates that the user 201 is not looking at the non-user 202 . Further, when responding to a request, if the line of sight of the user 201 is not the smartphone 211, this indicates that the user 201 may be looking at the non-user 202.

利用者201の視線がデバイス(スマートフォン211)の画面にあるかに関し、例えば、非特許文献5に記載の技術などの公知の技術を用いることが可能である。目線がデバイスであるかに関し、撮像画像を解析して利用者201の目線がデバイスの画面にあるとの解析結果が得られると、Yesと評価することになる。他方、撮像画像を解析して利用者201の目線がデバイスの画面でないとの解析結果が得られると、Noと評価することになる。すなわち、撮像画像を解析して利用者201の視線情報を取得し、取得した視線情報に基づき、利用者201の目線がデバイスであるか評価するともいえる。なお、「Yes」の評価結果に対応する評価値は2であり、「No」の評価結果に対応する評価値は0であるとするが、これに限定されない。 Regarding whether the line of sight of the user 201 is on the screen of the device (smartphone 211), it is possible to use a known technique such as the technique described in Non-Patent Document 5, for example. Regarding whether the line of sight is at the device, if the captured image is analyzed and an analysis result is obtained that the line of sight of the user 201 is at the screen of the device, the evaluation is ``Yes''. On the other hand, if the captured image is analyzed and an analysis result is obtained that the user 201's line of sight is not at the device screen, the evaluation will be No. That is, it can be said that the captured image is analyzed to acquire the user's 201's line of sight information, and based on the acquired line of sight information, it is evaluated whether the user's 201's line of sight is towards the device. Note that the evaluation value corresponding to an evaluation result of "Yes" is 2, and the evaluation value corresponding to an evaluation result of "No" is 0, but the present invention is not limited to this.

なお、上述の対応評価結果1300について、時刻1301の「t0」において、評価項目1302では「有(3)」を、評価項目1303では「不適切(2)」を、評価項目1304では「Yes(2)」を示している。対応評価結果1300では、対応評価値として、3+2+2の7が求められる。 Regarding the above-mentioned response evaluation result 1300, at time 1301 "t0", evaluation item 1302 is set as "Yes (3)", evaluation item 1303 is set as "Inappropriate (2)", and evaluation item 1304 is set as "Yes ( 2). In the correspondence evaluation result 1300, 7 (3+2+2) is calculated as the correspondence evaluation value.

以上説明した通り、本実施形態によれば、撮像画像を解析した得た利用者201の視線情報を利用して、利用者201の目線がスマートフォン211の画面にあるかについても、要求に対する利用者201の対応の評価に用いることができる。これにより、利用者201と非利用者202とのコミュニケーションが、電子機器の利用により阻害されている状態であるかをより高精度に判定する。そして、コミュニケーションが阻害されている状態であると判定された場合に、コミュニケーションが阻害されている状態である旨を通知する。このような通知を行うことで、利用者201と非利用者202とのコミュニケーションが、電子機器の利用により阻害されている状態であることを認識することができる。 As explained above, according to the present embodiment, the line of sight information of the user 201 obtained by analyzing the captured image is used to determine whether the user 201's line of sight is on the screen of the smartphone 211. It can be used to evaluate the correspondence of 201. Thereby, it is determined with higher accuracy whether communication between the user 201 and the non-user 202 is being obstructed by the use of the electronic device. Then, if it is determined that communication is being inhibited, a notification is sent that communication is being inhibited. By providing such notification, it is possible to recognize that communication between the user 201 and the non-user 202 is being obstructed by the use of the electronic device.

<<実施形態3>>
本実施形態では、音声情報に加え、利用者および非利用者の位置情報と、非利用者の顔の向きを示す情報とを取得し、取得した情報に基づき非利用者の要求を評価することで、より高精度にTFの検出処理を実行する態様について説明する。
<<Embodiment 3>>
In this embodiment, in addition to voice information, location information of users and non-users, and information indicating the direction of the non-user's face are acquired, and the non-user's request is evaluated based on the acquired information. Now, a mode of executing TF detection processing with higher accuracy will be described.

<検出システムの適用例>
図14は、本実施形態に係る検出システムの適用例を示す図である。スマートフォン211を利用する利用者201と、スマートフォン211等の電子機器を利用しない非利用者202とが同じ部屋に居て、非利用者202が利用者201に対してコミュニケーションを要求する場面であるとする。なお、ここでは、撮像装置1401が、室内に設置されており、利用者201および非利用者202を撮像して、利用者201および非利用者202を含む撮像画像(静止画又は動画)を取得可能であるとする。取得した撮像画像は、不図示の通信手段を介して、スマートフォン211に送られる。本実施形態の検出システムが、スマートフォン211に適用されているとする。
<Application example of detection system>
FIG. 14 is a diagram showing an example of application of the detection system according to this embodiment. Suppose that a user 201 who uses a smartphone 211 and a non-user 202 who does not use an electronic device such as the smartphone 211 are in the same room, and the non-user 202 requests communication from the user 201. do. Note that here, an imaging device 1401 is installed indoors, images a user 201 and a non-user 202, and obtains a captured image (still image or video) including the user 201 and the non-user 202. Suppose it is possible. The acquired captured image is sent to the smartphone 211 via a communication means (not shown). Assume that the detection system of this embodiment is applied to the smartphone 211.

<検出システムの機能構成>
図15は、本実施形態に係る検出システム1500の機能構成例を示す図である。本実施形態では、実施形態1の検出システム100との差分を中心に説明する。検出システム1500は、実施形態1の検出システム100が有する機能部301、302、304-306と、画像取得部1501とを有する。検出システム1500は、外部機器である撮像装置1401と接続する。撮像装置1401の方向は、撮像装置1401の姿勢に対する上下方向を軸とした回転(パン)、撮像装置1401の姿勢に対する左右方向を軸とした回転(チルト)が可能であるとする。
<Functional configuration of detection system>
FIG. 15 is a diagram showing an example of the functional configuration of a detection system 1500 according to this embodiment. In this embodiment, differences from the detection system 100 of Embodiment 1 will be mainly explained. The detection system 1500 includes the functional units 301, 302, 304-306 included in the detection system 100 of the first embodiment, and an image acquisition unit 1501. The detection system 1500 is connected to an imaging device 1401, which is an external device. It is assumed that the direction of the imaging device 1401 can be rotated (pan) about the vertical direction with respect to the attitude of the imaging device 1401, and rotated (tilt) about the horizontal direction with respect to the attitude of the imaging device 1401.

画像取得部1501は、検出システム1500と接続する撮像装置1401で撮像して得た撮像画像を取得する。取得した撮像画像は、検出システム1500の要求評価部302および対応評価部304に提供される。 The image acquisition unit 1501 acquires a captured image captured by an imaging device 1401 connected to the detection system 1500. The acquired captured image is provided to the request evaluation section 302 and the correspondence evaluation section 304 of the detection system 1500.

本実施形態の要求評価部302は、実施形態1と同様、非利用者202から利用者201へのコミュニケーションの要求を検出する。そして、要求評価部302は、要求の検出結果と、音声情報とに基づき、要求について所定の要求評価項目を評価する。また、要求評価部302は、画像取得部1501にて取得した撮像画像に基づき、非利用者202の要求について詳細につき後述する要求評価項目を評価する。そして、評価結果を基に要求評価値を求める。なお、本実施形態の要求評価部302は、S401にて、音声情報に基づき、非利用者202から利用者201へのコミュニケーションの要求を検出する。そして、要求評価部302は、要求の検出結果と音声情報と撮像画像とに基づき、要求について要求評価項目を評価して要求評価値を算出する。算出した要求評価値は、TF検出部305に送られ、TFスコアおよびTFスコア総和の算出に用いられる。 The request evaluation unit 302 of this embodiment detects a communication request from the non-user 202 to the user 201, as in the first embodiment. Then, the request evaluation unit 302 evaluates the request on predetermined request evaluation items based on the detection result of the request and the audio information. Further, the request evaluation unit 302 evaluates the request evaluation items, which will be described in detail later, regarding the request of the non-user 202 based on the captured image acquired by the image acquisition unit 1501. Then, a required evaluation value is determined based on the evaluation results. Note that the request evaluation unit 302 of this embodiment detects a communication request from the non-user 202 to the user 201 in S401 based on voice information. Then, the request evaluation unit 302 evaluates the request evaluation items for the request based on the detection result of the request, the audio information, and the captured image, and calculates the request evaluation value. The calculated request evaluation value is sent to the TF detection unit 305 and used to calculate the TF score and the TF score total.

本実施形態の対応評価部304は、音声情報と、画像取得部1501にて取得した撮像画像とに基づき非利用者202から利用者201へのコミュニケーション要求に対する対応について対応評価項目を評価する。そして、評価結果を基に対応評価値を求める。なお、本実施形態の対応評価部304は、S402にて、音声情報および撮像画像に基づき、要求に対する利用者201の対応について対応評価項目を評価して対応評価値を算出する。算出した対応評価値は、TF検出部305に送られ、TFスコアおよびTFスコア総和の算出に用いられる。 The response evaluation unit 304 of this embodiment evaluates the response evaluation items regarding the response to the communication request from the non-user 202 to the user 201 based on the audio information and the captured image acquired by the image acquisition unit 1501. Then, a corresponding evaluation value is determined based on the evaluation result. Note that, in S402, the response evaluation unit 304 of this embodiment evaluates response evaluation items regarding the response of the user 201 to the request based on the audio information and the captured image, and calculates a response evaluation value. The calculated correspondence evaluation value is sent to the TF detection unit 305 and used to calculate the TF score and the TF score total.

<要求評価結果>
図16は、検出システム1500が有する要求評価部302にて算出した要求評価結果例を示す図である。なお、図16に示す要求評価結果例について、図5に示す要求評価結果例との差分を中心に説明する。時刻1601は時刻501に、評価項目1602は評価項目502に、評価項目1603は評価項目503に、評価項目1604は評価項目504にそれぞれ対応する。
<Requirements evaluation results>
FIG. 16 is a diagram showing an example of a request evaluation result calculated by the request evaluation unit 302 included in the detection system 1500. Note that the request evaluation result example shown in FIG. 16 will be explained with a focus on the differences from the request evaluation result example shown in FIG. 5. Time 1601 corresponds to time 501, evaluation item 1602 corresponds to evaluation item 502, evaluation item 1603 corresponds to evaluation item 503, and evaluation item 1604 corresponds to evaluation item 504.

要求評価結果1600は、時刻1601にて示される時刻毎に、デバイス利用者への要求有無に関する評価項目1602の評価結果、要求時の感情(種別/強度)に関する評価項目1603の評価結果、月齢/年齢に関する評価項目1604の評価結果を有する。さらに、要求評価結果1600は、時刻1601にて示される時刻毎に、顔の向きがデバイス利用者(利用者201)であるかに関する評価項目1605の評価結果、デバイス利用者(利用者201)との距離に関する評価項目1606の評価結果を有する。 The request evaluation result 1600 includes, at each time indicated by time 1601, the evaluation result of the evaluation item 1602 regarding the presence or absence of a request to the device user, the evaluation result of the evaluation item 1603 regarding the emotion (type/intensity) at the time of the request, and the age/month/month. It has the evaluation results of the evaluation item 1604 related to age. Further, the request evaluation result 1600 includes, at each time indicated by time 1601, the evaluation result of the evaluation item 1605 regarding whether the face direction is that of the device user (user 201), It has the evaluation result of the evaluation item 1606 regarding the distance.

顔の向きが利用者201であるかに関する評価項目1605は、画像取得部1501にて取得した撮像画像に基づき、非利用者202の顔の向きが利用者201であるかに関する評価結果と、この評価結果に対応した評価値とを示している。 The evaluation item 1605 regarding whether the face direction of the non-user 202 is the user 201 is based on the captured image acquired by the image acquisition unit 1501, and the evaluation result regarding whether the face direction of the non-user 202 is the user 201. An evaluation value corresponding to the evaluation result is shown.

顔の向きが利用者201であるかに関し、例えば、非特許文献6に記載の技術などの公知の技術を用いることが可能である。顔の向きが利用者201であるかに関し、撮像画像を解析して非利用者202の顔の向きが利用者201であるとの解析結果が得られると、Yesと評価することになる。他方、撮像画像を解析して非利用者202の顔の向きが利用者201でないとの解析結果が得られると、Noと評価することになる。すなわち、撮像画像を解析して非利用者202の顔情報を取得し、取得した顔情報に基づき、非利用者202の顔の向きが利用者201であるか評価するともいえる。なお、「Yes」の評価結果に対応する評価値は1であり、「No」の評価結果に対応する評価値は0であるとするが、これに限定されない。 Regarding whether the face direction is that of the user 201, it is possible to use a known technique such as the technique described in Non-Patent Document 6, for example. Regarding whether the face direction of the non-user 202 is the user 201, if the captured image is analyzed and an analysis result is obtained that the face direction of the non-user 202 is the user 201, then the evaluation is ``Yes''. On the other hand, if the captured image is analyzed and an analysis result is obtained that the face direction of the non-user 202 is not the user 201, the evaluation will be No. That is, it can be said that the captured image is analyzed to obtain face information of the non-user 202, and based on the obtained face information, it is evaluated whether the face orientation of the non-user 202 is that of the user 201. Note that the evaluation value corresponding to an evaluation result of "Yes" is 1, and the evaluation value corresponding to an evaluation result of "No" is 0, but the present invention is not limited to this.

利用者201との距離に関する評価項目1606は、画像取得部1501にて取得した撮像画像に基づき、非利用者202と利用者201との距離に関する評価結果と、この評価結果に対応する評価値とを示している。 The evaluation item 1606 regarding the distance to the user 201 includes an evaluation result regarding the distance between the non-user 202 and the user 201 based on the captured image acquired by the image acquisition unit 1501, and an evaluation value corresponding to this evaluation result. It shows.

利用者201との距離に関し、例えば、非特許文献7,8に記載の技術などの公知の技術を用いることが可能である。利用者201との距離に関し、撮像画像を解析して非利用者202と利用者201との距離が所定値未満であるとの解析結果が得られると、近いと評価することになる。他方、撮像画像を解析して非利用者202と利用者201との距離が所定値未満でないとの解析結果が得られると、遠いと評価することになる。すなわち、撮像画像を解析して非利用者202と利用者201の位置情報を取得し、取得した位置情報に基づき、非利用者202と利用者201の距離が所定値未満であるか評価するともいえる。なお、「近」の評価結果に対応する評価値は1であり、「遠」の評価結果に対応する評価値は0であるとするが、これに限定されない。 Regarding the distance to the user 201, it is possible to use known techniques such as those described in Non-Patent Documents 7 and 8, for example. Regarding the distance to the user 201, if the captured image is analyzed and an analysis result is obtained that the distance between the non-user 202 and the user 201 is less than a predetermined value, it is evaluated that the non-user 202 and the user 201 are close. On the other hand, if the captured image is analyzed and it is determined that the distance between the non-user 202 and the user 201 is not less than the predetermined value, the distance between the non-user 202 and the user 201 is determined to be far. That is, the captured image is analyzed to obtain location information of the non-user 202 and the user 201, and based on the obtained location information, it is evaluated whether the distance between the non-user 202 and the user 201 is less than a predetermined value. I can say that. Note that the evaluation value corresponding to the evaluation result of "near" is 1, and the evaluation value corresponding to the evaluation result of "far" is 0, but the present invention is not limited to this.

なお、上述の要求評価結果1600について、時刻1601の「t0」において、評価項目1602では「有(5)」を、評価項目1603では「哀/小(1)」を、評価項目1604では「24ヶ月(1)」を示している。また、要求評価結果1600について、時刻1601の「t0」において、評価項目1605では「Yes(1)」を、評価項目1606では「近(1)」を示している。要求評価結果1600では、要求評価値として、5+1+1+1+1の9が求められる。 Regarding the above-mentioned request evaluation result 1600, at time 1601 "t0", evaluation item 1602 is ``Yes (5)'', evaluation item 1603 is ``Sad/Slight (1)'', and evaluation item 1604 is ``24''. Month (1)" is shown. Further, regarding the request evaluation result 1600, at time 1601 "t0", evaluation item 1605 indicates "Yes (1)" and evaluation item 1606 indicates "Near (1)". In the request evaluation result 1600, 9 (5+1+1+1+1) is obtained as the request evaluation value.

以上説明した通り、本実施形態によれば、撮像画像を解析して得た非利用者202の顔情報を利用して、非利用者202の顔の向きが利用者201であるかについても、要求の評価に用いることができる。また、撮像画像を解析して得た利用者201および非利用者202の位置情報を利用して、非利用者202と利用者201の距離についても、要求の評価に用いることができる。これにより、利用者201と非利用者202とのコミュニケーションが、電子機器の利用により阻害されている状態であるかをより高精度に判定する。そして、コミュニケーションが阻害されている状態であると判定された場合に、コミュニケーションが阻害されている状態である旨を通知する。このような通知を行うことで、利用者201と非利用者202とのコミュニケーションが、電子機器の利用により阻害されている状態であることを認識することができる。 As explained above, according to the present embodiment, it is also possible to determine whether the non-user 202's face is facing the user 201 by using the face information of the non-user 202 obtained by analyzing the captured image. It can be used to evaluate requirements. Further, the distance between the non-user 202 and the user 201 can also be used to evaluate the request by using the position information of the user 201 and the non-user 202 obtained by analyzing the captured image. Thereby, it is determined with higher accuracy whether communication between the user 201 and the non-user 202 is being obstructed by the use of the electronic device. Then, if it is determined that communication is being inhibited, a notification is sent that communication is being inhibited. By providing such notification, it is possible to recognize that communication between the user 201 and the non-user 202 is being obstructed by the use of the electronic device.

本開示の技術は、例えばシステム、装置、データ処理方法、プログラムもしくは記憶媒体等としての実施態様を取ることも可能である。具体的には複数の機器から構成されるシステムに適用してもよいし、一つの機器からなる装置に適用してもよい。 The technology of the present disclosure can also be implemented as, for example, a system, a device, a data processing method, a program, a storage medium, or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices, or to a device composed of a single device.

また本開示の技術は、以下の処理を実行する事によっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワークまたは各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU)がプログラムを読み出して実行する処理である。 Further, the technology of the present disclosure can also be realized by executing the following processing. That is, the software (program) that realizes the functions of the embodiments described above is supplied to a system or device via a network or various storage media, and the computer (or CPU or MPU) of the system or device reads and executes the program. This is the process of

(その他の実施形態)
上記では、TFの検出結果を、利用者201が操作するスマートフォン211に通知する態様について説明したが、通知先はこれに限定されない。例えば、非利用者202が子供であり、利用者201が非利用者202の父親である場合に、非利用者202の母親が保持するスマートフォンに通知してもよい。また、部屋にあるテレビなどの表示装置に通知してもよい。非利用者202が乳幼児であり、利用者201が非利用者202を養育する保育士である場合、当該保育士でない別の保育士が保持するスマートフォンに通知してもよい。また、主任保育士が保持するスマートフォンに通知してもよいし、保育士の職員室に設置される表示装置などに通知してもよい。
(Other embodiments)
In the above, a mode has been described in which the TF detection result is notified to the smartphone 211 operated by the user 201, but the notification destination is not limited to this. For example, if the non-user 202 is a child and the user 201 is the father of the non-user 202, the notification may be sent to a smartphone held by the mother of the non-user 202. Alternatively, the notification may be sent to a display device such as a television set in the room. If the non-user 202 is an infant and the user 201 is a childcare worker who is caring for the non-user 202, the notification may be sent to a smartphone held by another childcare worker other than the childcare worker. Further, the notification may be sent to a smartphone owned by the head childcare worker, or to a display device installed in the childcare worker's staff room.

上記では、利用者201と非利用者202とのコミュニケーションが、スマートフォン211の利用により阻害されている状態を検出したときに、コミュニケーションが阻害されている状態である旨を通知する形態について説明したが、これに限定されない。利用者201と非利用者202とのコミュニケーションが、スマートフォン211の利用により阻害されていない状態を検出したときに、コミュニケーションが阻害されていない状態である旨を通知する形態であってもよい。利用者201と非利用者202とのコミュニケーションが、スマートフォン211の利用により阻害されている状態であるかを検出し、検出結果に基づき、前記状態に関する情報を通知してもよい。 In the above description, when a state in which communication between the user 201 and the non-user 202 is blocked due to the use of the smartphone 211 is detected, a notification is given that communication is blocked. , but not limited to. When it is detected that the communication between the user 201 and the non-user 202 is not obstructed due to the use of the smartphone 211, a notification may be made that the communication is not obstructed. It may be detected whether communication between the user 201 and the non-user 202 is being obstructed by the use of the smartphone 211, and information regarding the state may be notified based on the detection result.

上記では、所定の条件を満たすときに、デバイスにメッセージを通知する通知処理について説明したが、これに限定されない。例えば、アラームで通知してもよい。また、検出回数に応じて、通知するメッセージ内容を変えたり、アラームの種類や音量を変えたりするなど、通知内容に軽重を付加するような処理を行ってもよい。また、通知回数が所定値を越えたときに、電子機器を強制終了するような処理を行ってもよい。 Although the above describes the notification process of notifying the device of a message when a predetermined condition is met, the present invention is not limited to this. For example, an alarm may be used for notification. Further, depending on the number of detections, processing may be performed to add weight to the notification content, such as changing the content of the message to be notified, or changing the type and volume of the alarm. Further, when the number of notifications exceeds a predetermined value, processing may be performed such as forcibly shutting down the electronic device.

上記では、デバイス利用者への要求有無、要求時の感情、月齢の全ての評価値から要求評価値を算出したり、これらの評価値と、非利用者の顔の向きおよび利用者との距離の評価値とから要求評価値を算出したりする場合を説明したが、これに限定されない。要求時の感情、月齢、非利用者の顔の向き、利用者との距離のうち少なくとも1つの評価値と、デバイス利用者への要求有無の評価値とから要求評価値を算出してもよい。 In the above, the request evaluation value is calculated from all evaluation values such as presence or absence of a request to the device user, emotion at the time of the request, and age in months, and also calculates the request evaluation value from the evaluation values of the device user, the direction of the face of the non-user, and the distance from the user. Although a case has been described in which the required evaluation value is calculated from the evaluation value of , the present invention is not limited to this. The request evaluation value may be calculated from the evaluation value of at least one of the emotion at the time of the request, the age in months, the direction of the non-user's face, and the distance from the user, and the evaluation value of whether or not the request is made to the device user. .

また、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Further, a process of supplying a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and having one or more processors in a computer of the system or device read and execute the program. But it is possible. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本実施形態の開示は、以下の構成例、方法例およびプログラム例を含む。 The disclosure of this embodiment includes the following configuration example, method example, and program example.

(構成1)
電子機器を利用する利用者に対する他者からのコミュニケーションの要求を評価する第1の評価手段と、
前記要求に対する前記利用者の対応を評価する第2の評価手段と、
前記第1の評価手段による第1の評価結果と、前記第2の評価手段による第2の評価結果とに基づき、前記利用者と前記他者とのコミュニケーションが、前記電子機器の利用により阻害されている状態であるかを判定する判定手段と、
前記判定手段により前記コミュニケーションが阻害されている状態であると判定された場合に、前記コミュニケーションが阻害されている状態である旨を通知する通知手段と、
を有することを特徴とする情報処理装置。
(Configuration 1)
a first evaluation means for evaluating a communication request from another person to a user using an electronic device;
a second evaluation means for evaluating the user's response to the request;
Based on the first evaluation result by the first evaluation means and the second evaluation result by the second evaluation means, communication between the user and the other person is hindered by the use of the electronic device. determination means for determining whether the state is
Notifying means for notifying that the communication is being inhibited when the determining means determines that the communication is being inhibited;
An information processing device comprising:

(構成2)
前記利用者および前記他者の音声、または前記利用者および前記他者を含む撮像画像、または前記音声および前記撮像画像を取得する取得手段をさらに有し、
前記第1の評価手段は、前記音声、前記撮像画像、または、前記音声および前記撮像画像を解析して得た解析結果に基づき前記要求を評価する
ことを特徴とする構成1に記載の情報処理装置。
(Configuration 2)
further comprising an acquisition means for acquiring voices of the user and the other person, or a captured image including the user and the other person, or the voice and the captured image,
The information processing according to configuration 1, wherein the first evaluation means evaluates the request based on the voice, the captured image, or an analysis result obtained by analyzing the voice and the captured image. Device.

(構成3)
前記第1の評価手段は、前記解析で得た前記要求の有無に基づき、前記要求を評価する
ことを特徴とする構成2に記載の情報処理装置。
(Configuration 3)
The information processing device according to configuration 2, wherein the first evaluation means evaluates the request based on the presence or absence of the request obtained through the analysis.

(構成4)
前記第1の評価手段は、前記解析で得た、前記要求時の前記他者の感情、前記解析で得た前記他者の年齢、前記解析で得た前記他者の顔の向き、前記解析で得た前記他者と前記利用者との距離のうち少なくとも1つと、前記要求の有無とに基づき、前記要求を評価する、ことを特徴とする構成2または3に記載の情報処理装置。
(Configuration 4)
The first evaluation means includes the emotion of the other person at the time of the request obtained from the analysis, the age of the other person obtained from the analysis, the orientation of the other person's face obtained from the analysis, and the analysis. 4. The information processing apparatus according to configuration 2 or 3, wherein the request is evaluated based on at least one of the distances between the other person and the user obtained in the above and whether or not the request is made.

(構成5)
前記第1の評価手段は、前記要求を検出する検出手段を有し、
前記検出手段は、前記音声を解析して得た発言内容、前記音声を解析して得た前記他者の年齢のうち少なくとも1つを基に、前記要求を検出する
ことを特徴とする構成2から4の何れか1つに記載の情報処理装置。
(Configuration 5)
The first evaluation means includes a detection means for detecting the request,
Configuration 2 characterized in that the detection means detects the request based on at least one of the content of the statement obtained by analyzing the voice and the age of the other person obtained by analyzing the voice. The information processing device according to any one of 4 to 4.

(構成6)
前記取得手段は、前記利用者および前記他者の音声、または前記利用者および前記他者を含む撮像画像、または前記電子機器の利用状況を示す利用情報、または前記音声および前記撮像画像および前記利用情報の組み合わせを取得し、
前記第2の評価手段は、前記音声、前記撮像画像、前記利用情報、または、前記音声および前記撮像画像および前記利用情報の組み合わせを解析して得た解析結果に基づき前記対応を評価する
ことを特徴とする構成2から5の何れか1つに記載の情報処理装置。
(Configuration 6)
The acquisition means may acquire the voice of the user and the other person, or a captured image including the user and the other person, or usage information indicating the usage status of the electronic device, or the voice, the captured image, and the usage information. Get a combination of information,
The second evaluation means evaluates the response based on an analysis result obtained by analyzing the audio, the captured image, the usage information, or a combination of the audio, the captured image, and the usage information. The information processing device according to any one of features 2 to 5.

(構成7)
前記第2の評価手段は、前記解析で得た、前記利用者による前記電子機器の利用の有無、前記解析で得た、前記利用者による対応時の発言内容、および前記解析で得た、前記利用者の視線方向のうち少なくとも1つに基づき、前記対応を評価する
ことを特徴とする構成6に記載の情報処理装置。
(Configuration 7)
The second evaluation means includes whether or not the user uses the electronic device, which is obtained from the analysis, what the user says when responding, which is obtained from the analysis, and the information obtained from the analysis. The information processing device according to configuration 6, wherein the correspondence is evaluated based on at least one of the user's gaze directions.

(構成8)
前記判定手段は、現在の前記第1の評価結果および前記第2の評価結果に基づく現在の評価値と、当該現在の評価値を含む過去所定回数分の評価値の総和とに基づき、前記コミュニケーションが阻害されている状態であるか判定する
ことを特徴とする構成1から7の何れか1つに記載の情報処理装置。
(Configuration 8)
The determining means is configured to evaluate the communication based on a current evaluation value based on the current first evaluation result and the second evaluation result, and a sum of evaluation values for a predetermined number of times in the past including the current evaluation value. 8. The information processing apparatus according to any one of configurations 1 to 7, wherein the information processing apparatus determines whether or not the information processing apparatus is in a state in which the information processing apparatus is inhibited.

(構成9)
前記利用者は養育者であり、前記他者は当該養育者が養育する子供である
ことを特徴とする構成1から8の何れか1つに記載の情報処理装置。
(Configuration 9)
9. The information processing device according to any one of configurations 1 to 8, wherein the user is a caregiver, and the other person is a child raised by the caregiver.

(構成10)
前記利用者は子供であり、前記他者は当該子供を養育する養育者である
ことを特徴とする構成1から8の何れか1つに記載の情報処理装置。
(Configuration 10)
9. The information processing device according to any one of configurations 1 to 8, wherein the user is a child, and the other person is a caregiver who takes care of the child.

(方法1)
電子機器を利用する利用者に対する他者からのコミュニケーションの要求を評価する第1の評価工程と、
前記要求に対する前記利用者の対応を評価する第2の評価工程と、
前記第1の評価工程による第1の評価結果と、前記第2の評価工程による第2の評価結果とに基づき、前記利用者と前記他者とのコミュニケーションが、前記電子機器の利用により阻害されている状態であるかを判定する判定工程と、
前記判定工程にて前記コミュニケーションが阻害されている状態であると判定された場合に、前記コミュニケーションが阻害されている状態である旨を通知する通知工程と、
を含むことを特徴とする情報処理方法。
(Method 1)
a first evaluation step of evaluating communication requests from others to users of electronic devices;
a second evaluation step of evaluating the user's response to the request;
Based on the first evaluation result from the first evaluation step and the second evaluation result from the second evaluation step, communication between the user and the other person is hindered by the use of the electronic device. a determination step of determining whether the state is
a notification step of notifying that the communication is being inhibited when it is determined in the determining step that the communication is being inhibited;
An information processing method characterized by comprising:

(プログラム1)
コンピュータを、構成1から10の何れか1つに記載の情報処理装置の手段として機能させるためのプログラム。
(Program 1)
A program for causing a computer to function as means for the information processing apparatus according to any one of Configurations 1 to 10.

Claims (12)

電子機器を利用する利用者に対する他者からのコミュニケーションの要求を評価する第1の評価手段と、
前記要求に対する前記利用者の対応を評価する第2の評価手段と、
前記第1の評価手段による第1の評価結果と、前記第2の評価手段による第2の評価結果とに基づき、前記利用者と前記他者とのコミュニケーションが、前記電子機器の利用により阻害されている状態であるかを判定する判定手段と、
前記判定手段により前記コミュニケーションが阻害されている状態であると判定された場合に、前記コミュニケーションが阻害されている状態である旨を通知する通知手段と、
を有することを特徴とする情報処理装置。
a first evaluation means for evaluating a communication request from another person to a user using an electronic device;
a second evaluation means for evaluating the user's response to the request;
Based on the first evaluation result by the first evaluation means and the second evaluation result by the second evaluation means, communication between the user and the other person is hindered by the use of the electronic device. determination means for determining whether the state is
Notifying means for notifying that the communication is being inhibited when the determining means determines that the communication is being inhibited;
An information processing device comprising:
前記利用者および前記他者の音声、または前記利用者および前記他者を含む撮像画像、または前記音声および前記撮像画像を取得する取得手段をさらに有し、
前記第1の評価手段は、前記音声、前記撮像画像、または、前記音声および前記撮像画像を解析して得た解析結果に基づき前記要求を評価する
ことを特徴とする請求項1に記載の情報処理装置。
further comprising an acquisition means for acquiring voices of the user and the other person, or a captured image including the user and the other person, or the voice and the captured image,
The information according to claim 1, wherein the first evaluation means evaluates the request based on the voice, the captured image, or an analysis result obtained by analyzing the voice and the captured image. Processing equipment.
前記第1の評価手段は、前記解析で得た前記要求の有無に基づき、前記要求を評価する
ことを特徴とする請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the first evaluation means evaluates the request based on the presence or absence of the request obtained through the analysis.
前記第1の評価手段は、前記解析で得た、前記要求時の前記他者の感情、前記解析で得た前記他者の年齢、前記解析で得た前記他者の顔の向き、前記解析で得た前記他者と前記利用者との距離のうち少なくとも1つと、前記要求の有無とに基づき、前記要求を評価する、ことを特徴とする請求項3に記載の情報処理装置。 The first evaluation means includes the emotion of the other person at the time of the request obtained from the analysis, the age of the other person obtained from the analysis, the orientation of the other person's face obtained from the analysis, and the analysis. 4. The information processing apparatus according to claim 3, wherein the request is evaluated based on at least one of the distances between the other person and the user obtained from the above and the presence or absence of the request. 前記第1の評価手段は、前記要求を検出する検出手段を有し、
前記検出手段は、前記音声を解析して得た発言内容、前記音声を解析して得た前記他者の年齢のうち少なくとも1つを基に、前記要求を検出する
ことを特徴とする請求項2に記載の情報処理装置。
The first evaluation means includes a detection means for detecting the request,
The detection means detects the request based on at least one of the content of the statement obtained by analyzing the voice and the age of the other person obtained by analyzing the voice. 2. The information processing device according to 2.
前記取得手段は、前記利用者および前記他者の音声、または前記利用者および前記他者を含む撮像画像、または前記電子機器の利用状況を示す利用情報、または前記音声および前記撮像画像および前記利用情報の組み合わせを取得し、
前記第2の評価手段は、前記音声、前記撮像画像、前記利用情報、または、前記音声および前記撮像画像および前記利用情報の組み合わせを解析して得た解析結果に基づき前記対応を評価する
ことを特徴とする請求項2に記載の情報処理装置。
The acquisition means may acquire the voice of the user and the other person, or a captured image including the user and the other person, or usage information indicating the usage status of the electronic device, or the voice, the captured image, and the usage information. Get a combination of information,
The second evaluation means evaluates the response based on an analysis result obtained by analyzing the audio, the captured image, the usage information, or a combination of the audio, the captured image, and the usage information. The information processing device according to claim 2.
前記第2の評価手段は、前記解析で得た、前記利用者による前記電子機器の利用の有無、前記解析で得た、前記利用者による対応時の発言内容、および前記解析で得た、前記利用者の視線方向のうち少なくとも1つに基づき、前記対応を評価する
ことを特徴とする請求項6に記載の情報処理装置。
The second evaluation means includes whether or not the user uses the electronic device, which is obtained from the analysis, what the user says when responding, which is obtained from the analysis, and the information obtained from the analysis. The information processing device according to claim 6, wherein the correspondence is evaluated based on at least one of the user's gaze directions.
前記判定手段は、現在の前記第1の評価結果および前記第2の評価結果に基づく現在の評価値と、当該現在の評価値を含む過去所定回数分の評価値の総和とに基づき、前記コミュニケーションが阻害されている状態であるか判定する
ことを特徴とする請求項1に記載の情報処理装置。
The determining means is configured to evaluate the communication based on a current evaluation value based on the current first evaluation result and the second evaluation result, and a sum of evaluation values for a predetermined number of times in the past including the current evaluation value. The information processing apparatus according to claim 1, wherein the information processing apparatus determines whether or not the information processing apparatus is in a state where the information processing apparatus is inhibited.
前記利用者は養育者であり、前記他者は当該養育者が養育する子供である
ことを特徴とする請求項1に記載の情報処理装置。
The information processing device according to claim 1, wherein the user is a caregiver, and the other person is a child raised by the caregiver.
前記利用者は子供であり、前記他者は当該子供を養育する養育者である
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the user is a child, and the other person is a caregiver who takes care of the child.
電子機器を利用する利用者に対する他者からのコミュニケーションの要求を評価する第1の評価工程と、
前記要求に対する前記利用者の対応を評価する第2の評価工程と、
前記第1の評価工程による第1の評価結果と、前記第2の評価工程による第2の評価結果とに基づき、前記利用者と前記他者とのコミュニケーションが、前記電子機器の利用により阻害されている状態であるかを判定する判定工程と、
前記判定工程にて前記コミュニケーションが阻害されている状態であると判定された場合に、前記コミュニケーションが阻害されている状態である旨を通知する通知工程と、
を含むことを特徴とする情報処理方法。
a first evaluation step of evaluating communication requests from others to users of electronic devices;
a second evaluation step of evaluating the user's response to the request;
Based on the first evaluation result from the first evaluation step and the second evaluation result from the second evaluation step, communication between the user and the other person is hindered by the use of the electronic device. a determination step of determining whether the state is
a notification step of notifying that the communication is being inhibited when it is determined in the determining step that the communication is being inhibited;
An information processing method characterized by comprising:
コンピュータを、請求項1に記載の情報処理装置の手段として機能させるためのプログラム。 A program for causing a computer to function as means for the information processing apparatus according to claim 1.
JP2022094635A 2022-06-10 2022-06-10 Information processing device, information processing method and program Pending JP2023180943A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022094635A JP2023180943A (en) 2022-06-10 2022-06-10 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022094635A JP2023180943A (en) 2022-06-10 2022-06-10 Information processing device, information processing method and program

Publications (1)

Publication Number Publication Date
JP2023180943A true JP2023180943A (en) 2023-12-21

Family

ID=89307141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022094635A Pending JP2023180943A (en) 2022-06-10 2022-06-10 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP2023180943A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220335928A1 (en) * 2019-08-19 2022-10-20 Nippon Telegraph And Telephone Corporation Estimation device, estimation method, and estimation program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220335928A1 (en) * 2019-08-19 2022-10-20 Nippon Telegraph And Telephone Corporation Estimation device, estimation method, and estimation program
US11996086B2 (en) * 2019-08-19 2024-05-28 Nippon Telegraph And Telephone Corporation Estimation device, estimation method, and estimation program

Similar Documents

Publication Publication Date Title
EP3751823B1 (en) Generating iot-based notification(s) and provisioning of command(s) to cause automatic rendering of the iot-based notification(s) by automated assistant client(s) of client device(s)
KR102599607B1 (en) Dynamic and/or context-specific hot words to invoke automated assistant
KR20160127117A (en) Performing actions associated with individual presence
US10403272B1 (en) Facilitating participation in a virtual meeting using an intelligent assistant
JP6292295B2 (en) Cooperation system, apparatus, method, and recording medium
US9977510B1 (en) Gesture-driven introduction system
JP2017144521A (en) Information processing device, information processing method and program
TWI823055B (en) Electronic resource pushing method and system
JP2023180943A (en) Information processing device, information processing method and program
JP6973380B2 (en) Information processing device and information processing method
JP2019208167A (en) Telepresence system
US11936718B2 (en) Information processing device and information processing method
US12100398B2 (en) Generating IoT-based notification(s) and provisioning of command(s) to cause automatic rendering of the IoT-based notification(s) by automated assistant client(s) of client device(s)
US11157232B2 (en) Interaction context-based control of output volume level
CN116210201A (en) User authentication based on identity prediction confidence