JP2021533510A - Interaction method and equipment - Google Patents

Interaction method and equipment Download PDF

Info

Publication number
JP2021533510A
JP2021533510A JP2021525345A JP2021525345A JP2021533510A JP 2021533510 A JP2021533510 A JP 2021533510A JP 2021525345 A JP2021525345 A JP 2021525345A JP 2021525345 A JP2021525345 A JP 2021525345A JP 2021533510 A JP2021533510 A JP 2021533510A
Authority
JP
Japan
Prior art keywords
user
detection area
users
interaction
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021525345A
Other languages
Japanese (ja)
Inventor
ピーチュン チュー
チーユアン チェン
チンフェイ ユイ
Original Assignee
ティントーク ホールディング(ケイマン)リミティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ティントーク ホールディング(ケイマン)リミティド filed Critical ティントーク ホールディング(ケイマン)リミティド
Publication of JP2021533510A publication Critical patent/JP2021533510A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本明細書の1つ又は複数の実施形態は、相互作用の方法及び装置を提供しており、前記方法は、検知エリア内において配置されているユーザーを検出するステップと、相互作用コンテンツを検知エリア内のユーザーに提供するステップと、相互作用コンテンツのターゲット相互作用オブジェクトが検知エリア内のユーザーの一部分である際に、ターゲット相互作用オブジェクトに関する情報を検知エリア内のユーザーに表示するステップと、を有する。【選択図】図2One or more embodiments of the present specification provide methods and devices of interaction, wherein the method comprises a step of detecting a user located within a detection area and an area of detection of interaction content. It has a step to provide to the user in the detection area and a step to display information about the target interaction object to the user in the detection area when the target interaction object of the interaction content is a part of the user in the detection area. .. [Selection diagram] Fig. 2

Description

関連出願の相互参照
本出願は、「INTERACTION METHOD AND DEVICE」という名称の、且つ、2018年7月20日付で出願された、中国特許出願第201810806493.6号の優先権を主張するものであり、この特許文献の内容は、引用により、そのすべてが本明細書に包含される。
Cross-reference to related applications This application claims the priority of Chinese Patent Application No. 201810806493.6, entitled "INTERACTION METHOD AND DEVICE" and filed on 20 July 2018. The contents of this patent document are all incorporated herein by reference.

本明細書の1つ又は複数の実施形態は、電子技術の分野に関し、且つ、更に詳しくは、相互作用の方法及び装置に関する。 One or more embodiments herein relate to the field of electronic technology, and more particularly to methods and devices of interaction.

インテリジェント技術の継続的な発展に伴って、電子装置は、益々、インテリジェントになっており、これらは、ある程度まで、ユーザーと相互作用することが可能であり、且つ、関係するイベントの完了においてユーザーを支援することができる。例えば、電子装置は、画面上における関係するコンテンツの表示、音声を通じた関係するコンテンツの再生、又はこれらに類似したものの形態において、ユーザーとの間の相互作用のプロセスを完了させることができる。 With the continued development of intelligent technology, electronic devices are becoming more and more intelligent, which, to some extent, are capable of interacting with the user, and at the completion of the relevant event, the user. Can help. For example, the electronic device can complete the process of interaction with the user in the form of displaying the relevant content on the screen, playing the relevant content through audio, or something similar.

これに鑑み、本明細書の1つ又は複数の実施形態は、相互作用の方法及び装置を提供している。 In view of this, one or more embodiments herein provide methods and devices of interaction.

上述の目的を実現するべく、本明細書の1つ又は複数の実施形態は、以下の技術的解決策を提供している。 In order to achieve the above-mentioned object, one or more embodiments of the present specification provide the following technical solutions.

本明細書の1つ又は複数の実施形態の第1の態様によれば、相互作用の方法が提供されており、方法は、
検知エリア内において配置された1人又は複数のユーザーを検出するステップと、
相互作用コンテンツを検知エリア内の1人又は複数のユーザーに提供するステップと、
相互作用コンテンツのターゲット相互作用オブジェクトが、検知エリア内の1人又は複数のユーザーの一部分である際に、ターゲット相互作用オブジェクトに関する情報を検知エリア内の1人又は複数のユーザーに表示するステップと、
を含む。
According to a first aspect of one or more embodiments herein, a method of interaction is provided, wherein the method is:
A step to detect one or more users placed in the detection area,
Steps to provide interaction content to one or more users in the detection area,
A step of displaying information about a target interaction object to one or more users in the detection area when the target interaction object of the interaction content is part of one or more users in the detection area.
including.

本明細書の1つ又は複数の実施形態の第2の態様によれば、相互作用の装置が提供されており、装置は、
検知エリア内において配置された1人又は複数のユーザーを検出するように構成された検出ユニットと、
相互作用コンテンツを検知エリア内の1人又は複数のユーザーに提供するように構成された提供ユニットと、
相互作用コンテンツのターゲット相互作用オブジェクトが、検知エリア内の1人又は複数のユーザーの一部分である際に、ターゲット相互作用オブジェクトに関する情報を検知エリア内の1人又は複数のユーザーに表示するように構成された表示ユニットと、
を含む。
According to a second aspect of one or more embodiments herein, a device of interaction is provided and the device is a device.
A detection unit configured to detect one or more users placed within the detection area, and
A delivery unit configured to serve interaction content to one or more users within the detection area.
Configured to display information about the target interaction object to one or more users in the detection area when the target interaction object in the interaction content is part of one or more users in the detection area. Display unit and
including.

例示用の一実施形態による、相互作用のシステムの概略アーキテクチャ図である。FIG. 3 is a schematic architectural diagram of a system of interactions according to an exemplary embodiment. 例示用の一実施形態による、相互作用の方法のフローチャートである。It is a flowchart of the method of interaction by one Embodiment for example. 例示用の一実施形態による、相互作用シナリオの概略図である。FIG. 3 is a schematic diagram of an interaction scenario according to an exemplary embodiment. 例示用の一実施形態による、内部従業員との間の相互作用の実行の概略図である。It is a schematic diagram of the execution of an interaction with an internal employee according to one exemplary embodiment. 例示用の一実施形態による、相互作用コンテンツを通じたユーザー位置のガイドの概略図である。It is a schematic diagram of the guide of the user position through the interaction content by one example embodiment. 例示用の一実施形態による、相互作用の装置によるユーザーとの間の相互作用の能動的な起動の概略図である。It is a schematic diagram of an active activation of an interaction with a user by an interacting device according to an exemplary embodiment. 例示用の一実施形態による、相互作用コンテンツを通じたユーザー位置のガイドの別の概略図である。It is another schematic of the guide of the user position through the interaction content by one example embodiment. 例示用の一実施形態による、正常な状況下における相互作用シナリオの概略図である。FIG. 3 is a schematic diagram of an interaction scenario under normal circumstances according to an exemplary embodiment. 例示用の一実施形態による、関連するイベントに応じた相互作用コンテンツの調節の概略図である。It is a schematic diagram of the adjustment of the interaction content according to the related event according to one embodiment for illustration. 例示用の一実施形態による、相互作用の装置による発話者の指定の概略図である。FIG. 6 is a schematic diagram of a speaker designation by an interacting device according to an exemplary embodiment. 例示用の一実施形態による、相互作用の装置による発話者の指定の別の概略図である。FIG. 3 is another schematic representation of a speaker designation by an interacting device, according to an exemplary embodiment. 例示用の一実施形態による、相互作用の装置による発話者の指定の更に別の概略図である。It is still another schematic diagram of the designation of the speaker by the device of interaction according to one embodiment for illustration. 例示用の一実施形態による、外部者の発話順序の指定の概略図である。It is a schematic diagram of the designation of the utterance order of an outsider by one Embodiment for example. 例示用の一実施形態による、相互作用オブジェクトのマーキングの概略図である。It is a schematic diagram of the marking of an interaction object according to one embodiment for illustration. 例示用の一実施形態による、ターゲット相互作用オブジェクトのマーキングの概略図である。FIG. 6 is a schematic diagram of marking of a target interaction object according to an exemplary embodiment. 例示用の一実施形態による、ユーザー音声のソースユーザーの判定の概略図である。It is the schematic of the determination of the source user of a user voice by one Embodiment for example. 例示用の一実施形態による、オーディオメッセージのソース方向の判定の概略図である。It is the schematic of the determination of the source direction of an audio message by one Embodiment for example. 例示用の一実施形態による、ユーザー音声のソースユーザーのマーキングの概略図である。It is a schematic diagram of the marking of the source user of the user voice by one embodiment for illustration. 例示用の一実施形態による、装置の概略構造図である。It is the schematic structural drawing of the apparatus by one Embodiment for example. 例示用の一実施形態による、相互作用の装置のブロック図である。FIG. 3 is a block diagram of an interaction device according to an exemplary embodiment.

本明細書には、例示用の実施形態について詳述されており、且つ、添付図面には、実施形態が、例示を目的として示されている。以下の説明が、添付図面を参照して実施されている際には、そうではない旨が示されていない限り、異なる添付図面中の同一の符号は、同一又は類似の要素を表している。以下の例示用の実施形態において記述されている実装形態は、そのすべてが、本明細書の1つ又は複数の実施形態と一貫性を有する実装形態であるわけではなく、これらは、その代わりに、添付の請求項において詳述されている、且つ、本明細書の1つ又は複数の実施形態における装置及び方法のいくつかの態様と一貫性を有する、例であるに過ぎない。 An exemplary embodiment is described in detail herein, and the accompanying drawings show embodiments for purposes of illustration. When the following description is carried out with reference to the accompanying drawings, the same reference numerals in different attached drawings represent the same or similar elements, unless otherwise indicated. Not all of the implementations described in the following exemplary embodiments are consistent with one or more embodiments herein, and these are instead. , Which is detailed in the accompanying claims and is only an example consistent with some aspects of the devices and methods in one or more embodiments herein.

その他の実施形態において、対応する方法のステップは、必ずしも、本明細書において図示及び記述されているシーケンスに従って実行されるものではないことに留意されたい。いくつかのその他の実施形態において、方法は、本明細書において記述されているものよりも多くの又は少ない数のステップを含みうる。これに加えて、本明細書において記述されている単一のステップは、その他の実施形態においては、説明のために、複数のステップに分割することができると共に、本明細書において記述されている複数のステップも、その他の実施形態においては、説明のために、単一のステップに組み合わせることができる。 Note that in other embodiments, the corresponding method steps are not necessarily performed according to the sequences illustrated and described herein. In some other embodiments, the method may include more or fewer steps than those described herein. In addition to this, the single step described herein can, in other embodiments, be split into multiple steps for illustration purposes and are described herein. The plurality of steps can also be combined into a single step for illustration purposes in other embodiments.

一実施形態において、本明細書における相互作用の解決策は、相互作用の装置に適用することができる。相互作用の装置は、相互作用機能を実装するように専用化された電子装置であってよい。或いは、この代わりに、相互作用の装置は、相互作用機能を有する多機能電子装置であってもよい。例えば、相互作用の装置は、パーソナルコンピュータ(PC:Personal Computer)、タブレット装置、ノートブック、(スマート眼鏡などの)ウェアラブル装置、及びこれらに類似したものを含んでいてもよく、これは、本明細書の1つ又は複数の実施形態において限定されてはいない。実行プロセスにおいて、相互作用の装置は、相互作用の解決策を実装するべく、相互作用のシステムを実行することができる。相互作用のシステムのアプリケーションプログラムは、相互作用の装置上において予めインストールすることができると共に、次いで、相互作用の装置上において起動及び実行することができる。当然のことながら、HTML5などの技術が使用されている際には、相互作用のシステムは、相互作用の装置上においてアプリケーションプログラムをインストールすることなしに、取得及び実行することができる。 In one embodiment, the solutions for interactions herein can be applied to devices of interaction. The interaction device may be an electronic device dedicated to implement the interaction function. Alternatively, instead, the interacting device may be a multifunctional electronic device having an interacting function. For example, interacting devices may include personal computers (PCs), tablet devices, notebooks, wearable devices (such as smart glasses), and the like, which are described herein. Not limited to one or more embodiments of the book. In the execution process, the interaction device can execute the interaction system to implement the interaction solution. The application program of the interacting system can be pre-installed on the interacting device and then launched and executed on the interacting device. Of course, when a technology such as HTML5 is used, the interacting system can be acquired and executed without installing an application program on the interacting device.

一実施形態において、図1は、例示用の一実施形態による、相互作用のシステムの概略アーキテクチャ図である。図1に示されているように、相互作用のシステムは、サーバー11と、ネットワーク12と、相互作用の装置13と、を含みうる。実行プロセスにおいて、サーバー11は、処理などの関係する機能を実装するべく、相互作用のシステムのサーバー上においてプログラムを実行することができると共に、相互作用の装置13は、情報提示及び人間−コンピュータ間の相互作用などの関係する機能を実装し、これにより、サーバー11と相互作用の装置13の間の協働を通じて、相互作用のシステムを実装するべく、相互作用のシステムのクライアントのプログラムを実行することができる。 In one embodiment, FIG. 1 is a schematic architectural diagram of a system of interactions according to an exemplary embodiment. As shown in FIG. 1, the interaction system may include a server 11, a network 12, and an interaction device 13. In the execution process, the server 11 can execute a program on the server of the interacting system in order to implement related functions such as processing, and the interacting device 13 can present information and perform human-computer interaction. Implements related functions such as the interaction of the interaction system, thereby executing the program of the client of the interaction system to implement the interaction system through the cooperation between the server 11 and the interaction device 13. be able to.

サーバー11は、独立型のホストを含む物理的なサーバーであってもよく、或いは、サーバー11は、ホストクラスタによって担持された仮想的なサーバーであってもよい。相互作用の装置13は、相互作用機能を実装するべく専用化された電子装置であってもよい。或いは、この代わりに、相互作用の装置13は、相互作用機能を有する多機能電子装置であってもよい。例えば、相互作用の装置は、PC、タブレット装置、ノートブック、(スマート眼鏡などの)ウェアラブル装置、及びこれらに類似したものを含んでいてもよく、これは、本明細書の1つ又は複数の実施形態において限定されてはいない。相互作用の装置13及びサーバー11が互いに相互作用しているネットワーク12は、複数のタイプの有線又は無線ネットワークを含みうる。一実施形態において、ネットワーク12は、公衆交換電話網(PSTN:Public Switched Telephone Network)及びインターネットを含むことができる。相互作用のシステムのクライアントのアプリケーションプログラムは、相互作用の装置上において予めインストールすることができると共に、次いで、相互作用の装置上において起動及び実行することができることに留意されたい。当然のことながら、HTML5などの技術におけるオンライン「クライアント」が使用されている際には、クライアントは、相互作用の装置上において対応するアプリケーションプログラムをインストールすることなしに、取得及び実行することができる。 The server 11 may be a physical server containing a stand-alone host, or the server 11 may be a virtual server carried by a host cluster. The interaction device 13 may be an electronic device dedicated to implement the interaction function. Alternatively, instead of this, the interaction device 13 may be a multifunctional electronic device having an interaction function. For example, interacting devices may include PCs, tablet devices, notebooks, wearable devices (such as smart glasses), and the like, which may be one or more of the present specification. It is not limited in the embodiment. The network 12 in which the interacting device 13 and the server 11 interact with each other may include multiple types of wired or wireless networks. In one embodiment, the network 12 can include a public switched telephone network (PSTN) and the Internet. Note that the client application program of the interacting system can be pre-installed on the interacting device and then launched and executed on the interacting device. Not surprisingly, when an online "client" in a technology such as HTML5 is used, the client can acquire and execute without installing the corresponding application program on the interacting device. ..

一実施形態において、相互作用のシステムは、モバイルグループオフィスプラットフォームに基づいて実装することができる。モバイルグループオフィスプラットフォームは、通信機能を実装してもよく、且つ、例えば、審査及び承認イベント(例えば、休暇の申請、事務用品の申請、及び財政問題などの審査及び承認イベント)、出欠チェックイベント、タスクイベント、又はログイベントなどのグループの内部イベントの処理、或いは、食べ物の注文又は物品の購入などのグループの外部イベントの処理、などの多くのその他の機能の統合された機能プラットフォームとして使用されてもよく、これは、本明細書の1つ又は複数の実施形態において限定されてはいない。同様に、モバイルグループオフィスプラットフォームも、相互作用のシステムを実装することができる。 In one embodiment, the interaction system can be implemented on the basis of a mobile group office platform. The mobile group office platform may implement communication functions and may include, for example, review and approval events (eg, vacation requests, office supply applications, and review and approval events such as financial issues), attendance check events, etc. Used as an integrated functional platform for many other features such as handling group internal events such as task events or log events, or handling group external events such as ordering food or purchasing goods. Also, this is not limited to one or more embodiments herein. Similarly, mobile group office platforms can implement systems of interaction.

例えば、モバイルグループオフィスプラットフォームは、例えば、Skype For Business(登録商標)、Microsoft Teams(登録商標)、Yammer(登録商標)、Workplace(登録商標)、Slack(登録商標)、WeCom(登録商標)、FXiaoKe(登録商標)、Fetion enterprise(登録商標)、又はEasyChat enterprise(登録商標)などの、企業インスタントメッセージング(EIM:Enterprise Instant Messaging)アプリケーションなどの、関係する技術におけるインスタントメッセージングアプリケーション上において担持することができる。当然のことながら、インスタントメッセージング機能は、モバイルグループオフィスプラットフォームによってサポートされている通信機能の1つに過ぎず、且つ、モバイルグループオフィスプラットフォームは、上述の多くのその他の機能を更に実装していてもよく、これらに関する詳しい説明は、本明細書においては省略する。本明細書における「グループ(group)」は、企業、学校、軍隊、病院、及び公共機関などの組織を含みうると共に、本出願においては、限定されていない。 For example, mobile group office platforms include, for example, Skype for Business®, Microsoft Teams®, Yammer®, Workplace®, Slack®, WeCom®, FXiaoKe. Can be carried on instant messaging applications in related technologies, such as Enterprise Instant Messaging (EIM) applications such as (Registered Trademarks), Fetion enterpress®, or EasyChat enterpress®. .. Not surprisingly, the instant messaging feature is just one of the communication features supported by the mobile group office platform, even though the mobile group office platform further implements many of the other features mentioned above. Often, detailed description of these will be omitted herein. A "group" herein may include, but is not limited to, organizations such as businesses, schools, the military, hospitals, and public institutions.

一実施形態において、相互作用のシステムは、モバイルグループオフィスプラットフォーム又は類似のシナリオに限定されるものではなく、且つ、例えば、一般的なインスタントメッセージングアプリケーションなどの、任意のその他のタイプのアプリケーションに基づいて実装されていてもよく、これは、本明細書において限定されてはいない。 In one embodiment, the interaction system is not limited to mobile group office platforms or similar scenarios, and is based on any other type of application, for example, a common instant messaging application. It may be implemented, which is not limited herein.

図2は、例示用の一実施形態による、相互作用の方法のフローチャートである。図2に示されているように、方法は、相互作用の装置に適用することができると共に、方法は、以下のステップを含むことができる。 FIG. 2 is a flow chart of a method of interaction according to an exemplary embodiment. As shown in FIG. 2, the method can be applied to a device of interaction and the method can include the following steps.

ステップ202:検知エリア内において配置されている1人又は複数のユーザーを検出する。 Step 202: Detects one or more users located in the detection area.

一実施形態において、相互作用の装置は、特定の検知距離を有し、且つ、検知距離のカバレージエリアは、3メートル(m)の半径を有する扇形の形状における(或いは、任意のその他の形状における)エリアなどの、検知エリアを形成している。検知エリア内に1人又は複数のユーザーが存在しているかどうかは、検知エリア内の検出を実行することにより、判定することができる。 In one embodiment, the interacting device has a particular detection distance and the coverage area of the detection distance is in a fan shape (or in any other shape) with a radius of 3 meters (m). ) It forms a detection area such as an area. Whether or not one or more users exist in the detection area can be determined by executing the detection in the detection area.

一実施形態において、相互作用の装置は、任意の方式により、検知エリア内において1人又は複数のユーザーを検出することができる。例えば、相互作用の装置は、顔面検出を通じて、検知エリア内に1人又は複数のユーザーが存在しているかどうかを判定することができる。 In one embodiment, the interacting device can detect one or more users within the detection area by any method. For example, the interacting device can determine if one or more users are present in the detection area through face detection.

ステップ204:相互作用コンテンツを検知エリア内の1人又は複数のユーザーに提供する。 Step 204: Provide the interacting content to one or more users in the detection area.

一実施形態において、相互作用の装置は、複数の方式のうちの1つ又はこれらの組合せにおいて相互作用コンテンツを提供してもよく、これは、本明細書において限定されてはいない。例えば、相互作用の装置は、表示画面を含むことができると共に、相互作用コンテンツを検知エリア内の1人又は複数のユーザーに提供するべく、表示画面上において相互作用コンテンツを表示することができる。別の例において、相互作用の装置は、スピーカを含むことができると共に、相互作用コンテンツを検知エリア内の1人又は複数のユーザーに提供するべく、スピーカを使用することにより、音声を通じて相互作用コンテンツを再生することができる。更に別の例において、相互作用の装置は、複数のインジケータライトを含むことができると共に、相互作用コンテンツを検知エリア内の1人又は複数のユーザーに提供するべく、インジケータライトのオン/オフ状態、色、又は明滅方式を制御することができる。 In one embodiment, the interacting device may provide the interacting content in one of a plurality of schemes or a combination thereof, which is not limited herein. For example, the interaction device can include a display screen and can display the interaction content on the display screen in order to provide the interaction content to one or more users in the detection area. In another example, the interacting device can include a speaker and interact content through audio by using the speaker to provide the interacting content to one or more users in the detection area. Can be played. In yet another example, the interacting device can include multiple indicator lights and the indicator lights on / off to provide the interacting content to one or more users in the detection area. The color or blinking method can be controlled.

一実施形態において、検知エリアは、近距離検知エリアと、遠距離検知エリアと、を含みうる。近距離検知エリアは、遠距離検知エリアよりも、相互作用の装置に近接している。換言すれば、本明細書における「近距離」及び「遠距離」は、相対的な関係にある。例えば、0m〜1.5mの範囲が、近距離検知エリアとして指定されており、且つ、1.5m〜3mの範囲が、遠距離検知エリアとして指定されている。 In one embodiment, the detection area may include a short range detection area and a long range detection area. The short-range detection area is closer to the interacting device than the long-range detection area. In other words, "short distance" and "long distance" in the present specification are in a relative relationship. For example, a range of 0 m to 1.5 m is designated as a short-distance detection area, and a range of 1.5 m to 3 m is designated as a long-distance detection area.

一実施形態において、相互作用の装置は、相互作用コンテンツを近距離検知エリア内のユーザーに提供することができると共に、相互作用の装置は、遠距離検知エリアから近距離検知エリアに進入するように、ユーザーをガイドするべく、ガイダンス情報を遠距離検知エリア内のユーザーに送信することができる。この結果、ユーザーは、近距離検知エリア内のユーザーとなり、且つ、相互作用コンテンツがユーザーに提供される。ユーザーが近距離検知エリア内において配置された際に、ユーザーは、適宜、相互作用の装置との間の相互作用を所望しうる。但し、遠距離検知エリアは、相対的に遠い距離に起因して、相対的に良好な相互作用効果を提供することができない。従って、ガイダンス情報をユーザーに送信することができる。この結果、一方において、ユーザーが相互作用の実装を実際に所望しているかどうかを判定することができると共に、他方において、ユーザーは、近距離検知エリアに進入した後に、相対的に良好な相互作用効果を得ることができる。相互作用の装置は、ガイダンス情報を複数の方式のうちの任意のもの又はこれらの組合せにより、送信してもよく、これは、本明細書において限定されてはいない。例えば、相互作用の装置は、ガイダンス情報を表示画面上において表示することができる。別の例において、相互作用の装置は、スピーカを使用することにより、音声を通じて、ガイダンス情報を再生することができる。更に別の例において、相互作用の装置は、近距離検知エリア内に進入するように、ユーザーをガイドするべく、インジケータライトをターンオンしてもよく、或いは、インジケータライトを明滅させてもよい。 In one embodiment, the interacting device can provide the interaction content to the user in the short range detection area, and the interacting device enters the short range detection area from the long range detection area. , Guidance information can be sent to users in the range detection area to guide the user. As a result, the user becomes a user in the short-distance detection area, and the interaction content is provided to the user. When the user is placed within the short range detection area, the user may optionally wish to interact with the interacting device. However, the long-distance detection area cannot provide a relatively good interaction effect due to the relatively long distance. Therefore, guidance information can be sent to the user. As a result, on the one hand, it is possible to determine if the user really wants to implement the interaction, and on the other hand, the user has a relatively good interaction after entering the short range detection area. The effect can be obtained. The interacting device may transmit guidance information by any of a plurality of methods or a combination thereof, which is not limited herein. For example, the interacting device can display guidance information on the display screen. In another example, the interacting device can reproduce the guidance information through voice by using a speaker. In yet another example, the interacting device may turn on the indicator light or blink the indicator light to guide the user into the short range detection area.

一実施形態において、出欠チェック動作において、相互作用の装置は、ユーザーが近距離検知エリアに配置されているのか又は遠距離検知エリア内において配置されているのかを問わず、検知エリア内において配置されている、且つ、出欠チェック期間内において出欠についてチェック済みではない、ユーザーに対して出欠チェック動作を自動的に実装するべく、検知エリア内のユーザーを識別することができる。遠距離検知エリア内におけるユーザーの滞在持続時間が第1の予め設定された持続時間に到達した、或いは、近距離検知エリア内におけるユーザーの滞在持続時間が第2の予め設定された持続時間に到達した、際に、相互作用の装置は、ユーザーが、相互作用動作の実装を所望しうると判定することができると共に、次いで、相互作用コンテンツをユーザーに提供することができる。一般に、ユーザーは、ユーザーが相互作用の装置との間の相互作用を所望している際にのみ、相互作用の装置に接近する。従って、第2の予め設定された持続時間は、適切には、ユーザーの待機時間を低減するべく、第1の予め設定された持続時間未満であってよい。 In one embodiment, in the attendance check operation, the interacting device is placed in the detection area regardless of whether the user is placed in the short range detection area or in the long range detection area. It is possible to identify a user in the detection area in order to automatically implement an attendance check operation for a user who has not been checked for attendance within the attendance check period. The user's stay duration in the long-range detection area has reached the first preset duration, or the user's stay duration in the short-range detection area has reached the second preset duration. In doing so, the interacting device can determine that the user may desire to implement the interacting behavior and, in turn, can provide the interacting content to the user. In general, the user approaches the device of interaction only when the user desires interaction with the device of interaction. Therefore, the second preset duration may be less than the first preset duration, as appropriate, in order to reduce the user's wait time.

一実施形態において、相互作用の装置は、ユーザーの間の「挨拶」振る舞いに類似する相互作用コンテンツを検知エリア内のユーザーに能動的に提供することができる。例えば、相互作用コンテンツは、関係するイベントの完了においてユーザーを支援するべく、「どういうご用件ですか?(What can I do for you?)」を含み、これにより、検知エリア内のユーザーをガイドすることができる。 In one embodiment, the interaction device can actively provide interaction content similar to the "greeting" behavior between users to the user in the detection area. For example, the interaction content may include "What can I do for you?" To assist the user in completing the relevant event, thereby guiding the user in the detection area. can do.

更には、相互作用の装置は、相互作用コンテンツを予め設定された条件を充足しているユーザーのみに提供するべく、検知エリア内のユーザーが、予め設定された条件を充足しているかどうかを判定することもできる。例えば、予め設定された条件は、遠距離検知エリア内の滞在持続時間が第1の予め設定された持続時間に到達する、近距離検知エリア内の滞在持続時間が第2の予め設定された持続時間に到達する、ユーザーが相互作用の装置を観察している、ユーザーが相互作用の装置に対面している、又はユーザーの顔と相互作用の装置の間の角度が予め設定された角度未満である、或いは、これらに類似したもの、のうちの少なくとも1つを含んでいてもよく、これは、本明細書において限定されてはいない。 Further, the interaction device determines whether or not the user in the detection area satisfies the preset condition so that the interaction content is provided only to the user who satisfies the preset condition. You can also do it. For example, the preset condition is that the duration of stay in the long-range detection area reaches the first preset duration, and the duration of stay in the short-range detection area reaches the second preset duration. Reaching time, the user observing the device of interaction, the user facing the device of interaction, or the angle between the user's face and the device of interaction is less than a preset angle. It may include, or may include at least one of the similarities thereof, which is not limited herein.

一実施形態において、相互作用コンテンツが、関連するイベントに関係付けられている際に、相互作用の装置が、関連するイベントの状態情報に従って、検知エリア内のユーザーに提供される相互作用コンテンツを調節するように、相互作用の装置は、検知エリア内のユーザーの関連するイベントを取得することができる。相互作用コンテンツに関係付けられた関連するイベントが存在していない際には、既定の相互作用コンテンツを提供することができる。例えば、相互作用コンテンツが出欠チェックに関係付けられている際に、正常な状況下において勤務時間内において検出された検知エリア内のユーザーについての対話型コンテンツは、「早退しますか?(are you sure to leave early?)」であってよい。検知エリア内のユーザーの関連するイベントが、病気退勤審査及び承認イベントを含んでおり、且つ、それが、病気退勤審査及び承認イベントに関連する休暇が申請された期間内である際には、正常な状況下における勤務時間内であっても、相互作用コンテンツは、「退社時間を記録しますか(are you sure to clock out?)」に調節することができる。別の例において、相互作用コンテンツが外部者の訪問に関係付けられている際に、検知エリア内のユーザーが外部者であり、且つ、対応する関連するイベントが訪問予約イベントであることが得られた場合には、相互作用コンテンツは、「ご訪問予定の者を呼び出しましょうか?(would you like to call the person you will visit?)」であってよい。対応する訪問予約イベントが存在していない際には、相互作用コンテンツは、「ご訪問予定の者は、誰でしょうか?(please tell me who you will visit?)」であってよい。 In one embodiment, when the interaction content is associated with a related event, the interaction device adjusts the interaction content provided to the user in the detection area according to the state information of the related event. As such, the interacting device can capture the user's relevant event within the detection area. Default interaction content can be provided when there are no related events associated with the interaction content. For example, when interactive content is associated with attendance checks, interactive content about users in the detection area detected during working hours under normal circumstances will be "Leave early? (Are you?). "Sure to leave early?)". Normal if the user's relevant event in the detection area includes a sickness leave review and approval event and it is within the period in which the leave associated with the sickness leave review and approval event is requested. The interaction content can be adjusted to "are you sure to lock out?" Even during working hours under certain circumstances. In another example, when the interaction content is associated with an outsider's visit, it is obtained that the user in the detection area is an outsider and the corresponding related event is a visit booking event. In that case, the interaction content may be "Would you like to call the person you plan to visit? (Would you like to call the person you will visit?)". In the absence of a corresponding visit booking event, the interaction content may be "who will be visiting? (Please tell me who you will visit?)".

一実施形態において、相互作用の装置は、検知エリア内のユーザーのアイデンティティタイプを判定することができると共に、次いで、アイデンティティタイプに従って、検知エリア内のユーザーに提供される相互作用コンテンツを調節することができる。例えば、アイデンティティタイプは、検知エリア内のユーザーが、グループに属する内部者であるのか又はグループの外部者であるのか、検知エリア内のユーザーが属する部署、及びこれらに類似したものを含んでいてもよく、これにより、アイデンティティタイプを充足している相互作用コンテンツを検知エリア内のユーザーに提供している。 In one embodiment, the interacting device can determine the identity type of the user in the detection area and then adjust the interaction content provided to the user in the detection area according to the identity type. can. For example, the identity type may include whether the user in the detection area is an insider or an outsider of the group, the department to which the user in the detection area belongs, and the like. Often, this provides the user in the detection area with interaction content that meets the identity type.

ステップ206:相互作用コンテンツのターゲット相互作用オブジェクトが、検知エリア内の1人又は複数のユーザーの一部分である際に、ターゲット相互作用オブジェクトに関する情報を検知エリア内の1人又は複数のユーザーに表示する。 Step 206: Display information about the target interaction object to one or more users in the detection area when the target interaction object in the interaction content is part of one or more users in the detection area. ..

一実施形態において、検知エリア内に複数のユーザーが存在している際には、ターゲット相互作用オブジェクトは、ユーザーの一部分のみであってよい(ユーザーの一部分の数は、1人又は複数であってよい)。ターゲット相互作用オブジェクトに関する情報を検知エリア内のユーザーに表示することにより、検知エリア内のそれぞれのユーザーが、自身が相互作用コンテンツのターゲット相互作用オブジェクトであるかどうかを明瞭に知りうることを保証することができる。 In one embodiment, when there are a plurality of users in the detection area, the target interaction object may be only a part of the user (the number of parts of the user may be one or more). good). By displaying information about the target interaction object to the users in the detection area, we ensure that each user in the detection area can clearly know if they are the target interaction object for the interaction content. be able to.

一実施形態において、検知エリア内のそれぞれのユーザーの画像情報を取得することができると共に、対応するプロファイル画像をそれぞれのユーザーについて生成することができる。次いで、相互作用が実装される前に、すべてのユーザーのプロファイル画像を表示することができる。ターゲット相互作用オブジェクトとの間の相互作用が実行される際には、ターゲット相互作用オブジェクトのプロファイル画像のみが表示され、且つ、その他のユーザーのプロファイル画像がブロックされるか、或いは、ターゲット相互作用オブジェクトに対応するプロファイル画像が、その他のユーザーに対応するプロファイル画像とは別個に表示される。例えば、別個の表示は、ターゲット相互作用オブジェクトのプロファイル画像を中央エリア内において表示するステップと、その他のユーザーのプロファイル画像をエッジエリア内において表示するステップと、を含みうる。別の例において、別個の表示は、ターゲット相互作用オブジェクトのプロファイル画像を相対的に大きなサイズにおいて表示するステップと、その他のユーザーのプロファイル画像を正常な又は相対的に小さなサイズにおいて表示するステップと、を含みうる。更に別の例において、別個の表示は、ターゲット相互作用オブジェクトのプロファイル画像を正常に(カラフルに)表示するステップと、表示するべくその他のユーザーのプロファイルをモノクロ化するステップと、を含みうる。これは、本明細書において限定されてはいない。 In one embodiment, the image information of each user in the detection area can be acquired, and the corresponding profile image can be generated for each user. Profile images of all users can then be displayed before the interaction is implemented. When an interaction with a target interaction object is performed, only the profile image of the target interaction object is displayed and the profile image of another user is blocked, or the target interaction object The profile image corresponding to is displayed separately from the profile image corresponding to other users. For example, the separate display may include displaying the profile image of the target interaction object within the central area and displaying the profile image of another user within the edge area. In another example, the separate display includes a step of displaying the profile image of the target interaction object in a relatively large size and a step of displaying the profile image of another user in a normal or relatively small size. Can include. In yet another example, the separate display may include a step of successfully (colorfully) displaying the profile image of the target interaction object and a step of monochromeizing the profile of another user to display it. This is not limited herein.

一実施形態において、相互作用コンテンツのターゲット相互作用オブジェクトが、検知エリア内のすべてのユーザーである際には(ユーザーの数は、1人又は複数であってよい)、ユーザーが相互作用コンテンツに相対的に合焦するように、ターゲット相互作用オブジェクトに関する情報を検知エリア内のユーザーに表示する必要はない。当然のことながら、ターゲット相互作用オブジェクトに関する情報が、このシナリオにおいて表示される場合にも、本明細書の技術的解決策の実装形態は、影響を受けない。 In one embodiment, when the target interaction object of the interaction content is all users in the detection area (the number of users may be one or more), the user is relative to the interaction content. There is no need to display information about the target interaction object to the user in the detection area so that it is in focus. Not surprisingly, the implementation of the technical solutions herein is also unaffected when information about the target interaction object is displayed in this scenario.

一実施形態においては、検知エリア内のユーザーが継続的に変化しうる。相互作用コンテンツのターゲット相互作用オブジェクトが、検知エリア内のユーザーの一部分から、すべてのユーザーに変化した(例えば、ターゲット相互作用オブジェクトではないユーザーが検知エリアを離脱した)際には、ターゲット相互作用オブジェクトに関する情報を検知エリア内のユーザーに表示するステップは、「相互作用コンテンツのターゲット相互作用オブジェクトが、検知エリア内のユーザーの一部分である」から「相互作用コンテンツのターゲット相互作用オブジェクトが、検知エリア内のすべてのユーザーである」への滑らかなシナリオ遷移を完了させるべく、一時停止することができる。 In one embodiment, the users in the detection area may change continuously. When the target interaction object of the interaction content changes from a part of the users in the detection area to all users (for example, a user who is not the target interaction object leaves the detection area), the target interaction object The steps to display information about to the user in the detection area are from "The target interaction object of the interaction content is part of the user in the detection area" to "The target interaction object of the interaction content is in the detection area. Can be paused to complete a smooth scenario transition to "all users of."

一実施形態において、相互作用の装置は、ターゲット相互作用オブジェクトとして機能しているユーザーのアイデンティティ情報を判定してもよく、且つ、その情報をターゲット相互作用オブジェクトに関する情報として使用することができると共に、次いで、アイデンティティ情報を検知エリア内のユーザーに表示することができる。例えば、相互作用の装置は、相互作用コンテンツを提供しつつ、アイデンティティ情報を検知エリア内のユーザーに表示してもよく、或いは、相互作用の装置は、相互作用コンテンツを提供すると共に、アイデンティティ情報を異なる瞬間において表示してもよく、これは、本明細書において限定されてはいない。 In one embodiment, the interaction device may determine the identity information of the user acting as the target interaction object, which information can be used as information about the target interaction object, as well as. The identity information can then be displayed to the user in the detection area. For example, the interaction device may display the identity information to the user in the detection area while providing the interaction content, or the interaction device may provide the interaction content and provide the identity information. It may be displayed at different moments, which is not limited herein.

一実施形態において、相互作用の装置は、検知エリア内のユーザーを識別することができる。例えば、相互作用の装置は、顔面認識、指紋認識、虹彩認識、歩行認識、又は声紋認識などの生理学的特徴認識方式により、或いは、任意のその他の方式により、ユーザーを識別してもよく、これは、本明細書において限定されてはいない。ターゲット相互作用オブジェクトとして機能している第1ユーザーのアイデンティティが成功裏に識別された際に、アイデンティティ情報は、第1ユーザーの名称(例えば、名前、ニックネーム、肩書、又はその他のタイプ)を含みうる。例えば、第1ユーザーの名称が「Xiao Bai」である際に、相互作用の装置は、「Xiao Baiさん、どういうご用件ですか?」を検知エリア内のユーザーに表示してもよく、この場合に、「Xiao Bai」は、ターゲット相互作用オブジェクトに関する情報であり、且つ、「どういうご用件ですか?」は、相互作用コンテンツである。ターゲット相互作用オブジェクトとして機能している第2ユーザーのアイデンティティが成功裏に識別されない際には、アイデンティティ情報は、第2ユーザーに関する視覚的特徴記述情報を提供することができる。例えば、視覚的特徴記述情報は、推定性別、推定身長、推定年齢、皮膚の色、衣服、アクセサリ、相互作用の装置までの距離、相互作用の装置に向かう向き、及びこれらに類似したもののうちの少なくとも1つを含みうる。例えば、相互作用の装置は、「黒いコートを着た男性の方、どういうご用件ですか?」を検知エリア内のユーザーに表示してもよく、この場合には、「黒いコートを着た男性の方」について、推定性別及び衣服が、ターゲット相互作用オブジェクトに関する情報として使用されており、且つ、「どういうご用件ですか?」は、相互作用コンテンツである。 In one embodiment, the interacting device can identify a user within the detection area. For example, the interacting device may identify the user by physiological feature recognition methods such as face recognition, fingerprint recognition, iris recognition, gait recognition, or voiceprint recognition, or by any other method. Is not limited herein. When the identity of the first user acting as the target interaction object is successfully identified, the identity information may include the name of the first user (eg, name, nickname, title, or other type). .. For example, when the name of the first user is "Xiao Byi", the interacting device may display "Mr. Xiao Byi, what kind of business do you have?" To the user in the detection area. In this case, "Xiao Byi" is information about the target interaction object, and "What kind of business do you have?" Is the interaction content. When the identity of the second user acting as the target interaction object is not successfully identified, the identity information can provide visual feature description information about the second user. For example, visual feature description information includes estimated gender, estimated height, estimated age, skin color, clothing, accessories, distance to the interacting device, orientation towards the interacting device, and similar. It may contain at least one. For example, the interacting device may display "Men in black coat, what are your needs?" To users in the detection area, in this case "Wearing black coat." For "male", the estimated gender and clothing are used as information about the target interaction object, and "what is your requirement?" Is the interaction content.

一実施形態において、相互作用の装置は、検知エリア内のユーザーに対応するユーザー基準情報を表示することができる。相互作用の装置は、ターゲット相互作用オブジェクトとして機能しているユーザーに対応するユーザー基準情報を判定してもよく、且つ、その情報をターゲット相互作用オブジェクトに関する情報として使用してもよく、且つ、次いで、相互作用の装置は、判定されたユーザー基準情報を検知エリア内のユーザーに目立つように表示することができる。例えば、相互作用の装置は、画像取得を検知エリア内のユーザーに実行することができると共に、取得されたユーザー画像をユーザー基準情報として表示することができる。従って、相互作用の装置は、検知エリア内のユーザーがターゲット相互作用オブジェクトについて知ることを支援するべく、ターゲット相互作用オブジェクトに対応するユーザー画像の視覚的効果を改善してもよく(例えば、対応するユーザー画像を丸で囲む、或いは、対応するユーザー画像の周りに矢印マークを表示する)、或いは、非ターゲット相互作用オブジェクトに対応するユーザー画像の視覚的効果を弱化してもよい(例えば、対応するユーザー画像のコンテンツをブロックする)。 In one embodiment, the interacting device can display user reference information corresponding to the user in the detection area. The interaction device may determine user criteria information corresponding to the user acting as the target interaction object, and may use that information as information about the target interaction object, and then , The interacting device can prominently display the determined user reference information to the user in the detection area. For example, the interacting device can perform image acquisition to a user in the detection area and display the acquired user image as user reference information. Thus, the interaction device may improve the visual effect of the user image corresponding to the target interaction object (eg, corresponding) to help the user in the detection area know about the target interaction object. You may circle the user image or display an arrow mark around the corresponding user image, or you may weaken the visual effect of the user image corresponding to the non-target interaction object (eg, corresponding). Block the content of the user image).

一実施形態において、相互作用の装置は、検知エリア内のユーザーによって送信されたイベント支援要求を取得することができると共に、イベント支援要求に応答して、対応するイベントの完了を支援することができる。例えば、検知エリア内のユーザーは、相互作用音声「従業員のXiao Heiさんを呼び出してください」を相互作用の装置に送信してもよく、且つ、相互作用の装置は、ユーザーのイベント支援要求が、「従業員のXiao Hei」の呼び出し要求であると判定してもよく、且つ、「従業員のXiao Hei」を呼び出すことができる。当然のことながら、音声形態に加えて、検知エリア内のユーザーは、空間内において、予め設定された身体動作を実施するなどの、その他の方式により、イベント支援要求を送信してもよく、これは、本明細書において限定されてはいない。 In one embodiment, the interacting device can acquire an event support request sent by a user in the detection area and can respond to the event support request to assist in completing the corresponding event. .. For example, the user in the detection area may send the interaction voice "Call employee Xiao Hei" to the interaction device, and the interaction device is subject to the user's event support request. , It may be determined that the request is for calling "employee's Xiao Hei", and "employee's Xiao Hei" can be called. As a matter of course, in addition to the voice form, the user in the detection area may send the event support request by other methods such as performing a preset body movement in the space. Is not limited herein.

一実施形態において、相互作用の装置は、相互作用コンテンツに応答して検知エリア内のユーザーによって返された応答情報を受け取ることができる。応答情報は、イベント支援要求を含む。例えば、相互作用コンテンツが、「Xiao Baiさん、どういうご用件ですか?」である際に、検知エリア内のユーザーは、「従業員のXiao Heiさんを呼び出してください」と回答してもよく、且つ、相互作用の装置は、イベント支援要求が、「従業員のXiao Hei」の呼び出し要求であると判定してもよく、且つ、「従業員のXio Hei」を呼び出してもよい。相互作用の装置が相互作用コンテンツを提供する方式は、必ずしも、検知エリア内のユーザーが応答情報を返す方式と関連付けられてはいない。2つの方式は、同一であってもよく、或いは、異なっていてもよい。これは、本明細書において限定されてはいない。 In one embodiment, the interacting device can receive the response information returned by the user in the detection area in response to the interacting content. The response information includes an event support request. For example, when the interaction content is "Mr. Xiao Bai, what kind of business do you have?", The user in the detection area may answer "Please call Mr. Xiao Hei, an employee." In addition, the interacting device may determine that the event support request is a call request for "employee Xiao Hei" and may call "employee Xio Hei". The method by which the interacting device provides the interaction content is not necessarily associated with the method by which the user in the detection area returns response information. The two methods may be the same or different. This is not limited herein.

一実施形態において、検知エリア内に複数のユーザーが存在している際には、相互作用の装置は、予め設定されたシーケンスに従って、支援されるオブジェクトとしてユーザーを選択することができる。次いで、相互作用の装置は、対応するイベント支援要求を送信するように、選択されたユーザーに対して順番に要求している。この結果、検知エリア内のユーザーは、イベント支援要求を順番に送信することが可能であり、これにより、複数のユーザーがイベント支援要求を同時に送信する際に生成される混乱状態に起因して、相互作用の装置が、ユーザーに対応するイベント支援要求を正確に取得できないという状況が回避され、これにより、ユーザー用の支援効率及び相互作用の装置の成功レートの改善が支援される。 In one embodiment, when a plurality of users are present in the detection area, the interacting device can select the user as a supported object according to a preset sequence. The interacting device then sequentially requests the selected user to send the corresponding event support request. As a result, users in the detection area can send event support requests in sequence, which is due to the confusion that occurs when multiple users send event support requests at the same time. The situation where the interacting device cannot accurately obtain the event support request corresponding to the user is avoided, which helps to improve the support efficiency for the user and the success rate of the interacting device.

一実施形態において、相互作用の装置は、イベント支援要求を取得するべく、取得されたユーザー音声に対してセマンティック認識を実行することができると共に、相互作用の装置は、ユーザー音声のソースユーザーを判定するべく、サウンド特徴認識をユーザー音声に対して実行することができる。この結果、検知エリア内の複数のユーザーが同時に発話した際にも、相互作用の装置は、ユーザーに個々に対応する発話コンテンツを認識することができると共に、ユーザー用の支援効率を改善するべく、対応するイベント支援要求に応答することができる。相互作用の装置は、ユーザーのアイデンティティ情報を取得するべく、検知エリア内のユーザーを予め識別しておくことができる。検知エリア内に複数のユーザーが存在している際に、相互作用の装置は、ユーザー音声のソースユーザーを判定するべく、ユーザーに対応する認識されたサウンド特徴に従って、取得されたユーザー音声にサウンド特徴認識を実行することができる。すべてのサウンド特徴を使用することによるユーザー音声に対するサウンド特徴認識の実行というやり方と比較して、サウンド特徴認識について消費される時間を大幅に低減することができる。 In one embodiment, the interacting device can perform semantic recognition on the acquired user voice to acquire an event support request, and the interacting device determines the source user of the user voice. Therefore, sound feature recognition can be performed on the user's voice. As a result, even when a plurality of users in the detection area speak at the same time, the interacting device can recognize the utterance content corresponding to each user and improve the support efficiency for the user. Can respond to corresponding event support requests. The interacting device can pre-identify the user in the detection area in order to acquire the user's identity information. When there are multiple users in the detection area, the interacting device has sound features in the acquired user voice according to the recognized sound features corresponding to the user in order to determine the source user of the user voice. Awareness can be performed. Compared to the method of performing sound feature recognition for user speech by using all sound features, the time spent on sound feature recognition can be significantly reduced.

一実施形態において、検知エリア内のユーザーが、グループの内部者である際には、相互作用の装置は、イベント支援要求に応答して、対応するグループ管理イベントの完了を支援することができる。検知エリア内のユーザーがグループの外部者である際には、相互作用の装置は、アラートメッセージをグループの関連する内部者に送信してもよく、グループの関連する内部者との通信の確立においてグループの外部者を支援してもよく、或いは、イベント支援要求に応答して、グループの外部者を訪問イベントの処理場所までガイドしてもよい。検知エリア内のユーザーがアドミニストレータである際には、相互作用の装置は、イベント支援要求に応答して、対応する装置管理イベントの完了を支援することができる。 In one embodiment, when the user in the detection area is an insider of the group, the interacting device can assist in completing the corresponding group management event in response to the event support request. When a user in the detection area is an outsider of the group, the interacting device may send an alert message to the relevant insider of the group and in establishing communication with the relevant insider of the group. The outsider of the group may be assisted, or the outsider of the group may be guided to the processing location of the visit event in response to the event support request. When the user in the detection area is an administrator, the interacting device can assist in completing the corresponding device management event in response to the event support request.

一実施形態において、相互作用の装置は、検知エリア内のユーザーによって送信されたユーザー音声を受け取ることができると共に、ユーザー音声に応答することができる。例えば、検知エリア内のユーザーは、ユーザー音声を相互作用の装置に能動的に送信することができると共に、ユーザー音声は、イベント支援要求を相互作用の装置に送信する、日々の挨拶を相互作用の装置に付与する、制御命令を相互作用の装置に送信する、或いは、これらに類似した内容を実行する、べく、使用され、これは、本明細書において限定されてはいない。別の例において、検知エリア内のユーザーは、相互作用の装置によって実装された相互作用動作に応答して、対応するユーザー音声を相互作用の装置に送信することができる。例えば、相互作用の装置によって実装された相互作用動作が、検知エリア内のユーザーが支援を必要としているかどうかについて問い合わせることである際に、ユーザーによって送信されるユーザー音声は、必要とされる支援の種類について相互作用の装置に通知することができる。これは、本明細書において限定されてはいない。 In one embodiment, the interacting device can receive and respond to a user voice transmitted by a user within the detection area. For example, the user in the detection area can actively send the user voice to the interacting device, and the user voice interacts with the daily greetings, sending the event support request to the interacting device. It is used to grant to the device, send control commands to the interacting device, or perform similar content, which is not limited herein. In another example, the user in the detection area can send the corresponding user voice to the interacting device in response to the interaction behavior implemented by the interacting device. For example, when the interaction behavior implemented by the interaction device is to inquire about whether the user in the detection area needs assistance, the user voice transmitted by the user is the required assistance. The type can be notified to the interacting device. This is not limited herein.

一実施形態において、相互作用の装置は、セマンティック認識をユーザー音声に対して実行することができる。同一の発音が、複数の単語又はフレーズに対応しうると共に、相互作用の装置がユーザー音声をピックアップした際に歪又はノイズ干渉が存在しうることから、相互作用の装置は、ユーザー音声に対してセマンティック認識を実行した後に、複数のセマンティック認識結果を取得する場合がある。相互作用の装置は、対応するコンフィデンスレベルを取得するべく、予め定義されたセマンティック認識アルゴリズムに従ってセマンティック認識結果を採点することができる。コンフィデンスレベルが、予め設定されている値に到達した際に、それは、対応するセマンティック認識結果の信頼性が十分に高いことを通知している。更には、予め設定された値に到達する、ユーザー音声とのマッチングの程度を有する複数のセマンティック認識結果が存在している場合には、相互作用の装置は、ユーザーが、ユーザーの真の意図を選択し且つ正確に表現するように、複数の対応するセマンティック認識結果選択肢を検知エリア内のユーザーに表示することができると共に、次いで、選択されたセマンティック認識結果選択肢に対応するセマンティック認識結果に従って、ユーザー音声に応答することができる。選択プロセスにおいて、ユーザーは、ユーザーが選択を所望しているセマンティック認識結果選択肢に対応するセマンティック認識結果を発話してもよく、或いは、ユーザーが選択することを所望しているセマンティック認識結果選択肢の位置(例えば、「第1のもの」、或いは、「最も左のもの」)を発話してもよく、これは、本明細書において限定されてはいない。 In one embodiment, the interacting device can perform semantic recognition on the user voice. Since the same pronunciation can correspond to multiple words or phrases and there can be distortion or noise interference when the interacting device picks up the user voice, the interacting device is relative to the user voice. After performing semantic recognition, you may get multiple semantic recognition results. The interacting device can score the semantic recognition result according to a predefined semantic recognition algorithm to obtain the corresponding confidence level. When the confidence level reaches a preset value, it signals that the corresponding semantic recognition result is reliable enough. Furthermore, if there are multiple semantic recognition results with a degree of matching with the user's voice that reach a preset value, the interacting device will allow the user to express the user's true intentions. Multiple corresponding semantic recognition result choices can be displayed to the user in the detection area for selection and accurate representation, and then the user according to the semantic recognition result corresponding to the selected semantic recognition result choice. Can respond to voice. In the selection process, the user may utter a semantic recognition result that corresponds to the semantic recognition result option that the user wants to select, or the position of the semantic recognition result option that the user wants to select. (For example, the "first thing" or the "leftmost thing") may be spoken, which is not limited herein.

一実施形態において、相互作用の装置は、ユーザー音声のソース方向を判定することができると共に、ユーザー音声のソース方向において配置されたユーザーに応答することができる。一状況においては、相互作用の装置が、例えば、相互作用音声の再生などのように、ユーザー音声のソース方向に対して直接的に応答しうるように、ユーザー音声のソース方向の判定の後に、相互作用の装置は、既定により、ユーザー音声を送信しているユーザーのみが、ソース方向において存在していると直接的に判定している。別の状況においては、相互作用の装置は、ユーザー音声のソース方向において存在している1人又は複数のユーザーを判定することができる。複数のユーザーが存在している場合には、相互作用の装置は、ソースユーザーに応答するべく、ユーザー音声のソースユーザーを更に判定することができる。 In one embodiment, the interacting device can determine the source direction of the user voice and can respond to the user placed in the source direction of the user voice. In one situation, after determining the source direction of the user voice so that the interacting device can respond directly to the source direction of the user voice, for example, playing the interacting voice. By default, the interacting device directly determines that only the user transmitting the user voice is present in the source direction. In another situation, the interacting device can determine one or more users present in the direction of the source of the user voice. When a plurality of users are present, the interacting device can further determine the source user of the user voice in order to respond to the source user.

一実施形態においては、マイクロフォンアレイが、相互作用の装置内において構築されており、且つ、マイクロフォンアレイを使用することにより、ユーザー音声を受け取ることができる。マイクロフォンアレイは、相対的に左側に配設された第1マイクロフォンと、相対的に右側に配設された第2マイクロフォンと、を含む。ユーザー音声のソース方向は、第1マイクロフォン及び第2マイクロフォンがユーザー音声を受け取る時点の間の差に従って、判定されている。例えば、検知エリア内のユーザーが左側に近接した側部に配置されている際には、第1マイクロフォンが、第2マイクロフォンよりも早期にユーザー音声を受け取ることができると共に、検知エリア内のユーザーが右側に近接した側部に配置されている際には、第2マイクロフォンが、第1マイクロフォンよりも早期にユーザー音声を受け取ることができる。受け取る時点の差に従ってユーザー音声のソース方向を判定する方法の特定の解決策については、既存の技術における関係する技術的解決策が参照されてもよく、従って、本明細書においては、その詳述を省略する。 In one embodiment, the microphone array is built within the interacting device and the microphone array can be used to receive user voice. The microphone array includes a first microphone arranged on the relatively left side and a second microphone arranged on the relatively right side. The source direction of the user voice is determined according to the difference between the time points when the first microphone and the second microphone receive the user voice. For example, when the user in the detection area is located on the side close to the left side, the first microphone can receive the user voice earlier than the second microphone, and the user in the detection area can receive the user voice. When placed on the side close to the right side, the second microphone can receive the user voice earlier than the first microphone. Relevant technical solutions in existing technology may be referred to for specific solutions in how to determine the source orientation of the user voice according to the difference in time of receipt, and are therefore detailed herein. Is omitted.

一実施形態において、ユーザー音声のソース方向において配置されている複数のユーザーが存在している際には、相互作用の装置は、複数のユーザーのそれぞれのものの顔面動作に従って、ユーザー音声のソースユーザーを判定することができると共に(例えば、顔面動作は、相互作用の装置内において構築されているカメラを使用することにより、画像取得を通じて取得される)、ソースユーザーに応答することができる。ユーザーの顔面動作は、頬、口、及び顎などの、1つ又は複数の部分の動作を含んでいてもよく、これは、本明細書において限定されてはいない。一例として、口の動作を使用すれば、ユーザー音声のソース方向において複数のユーザーが存在しているが、1人のユーザーのみが、口の開閉動作を実行している際には、そのユーザーをユーザー音声のソースユーザーとして判定することができる。別の例において、複数のユーザーのすべてが口の開閉動作を実行しているが、1人のユーザーの動作が、回数において、且つ、開閉の振幅において、ユーザー音声とマッチングしている際には、そのユーザーをユーザー音声のソースユーザーとして判定することができる。 In one embodiment, when there are multiple users located in the direction of the source of the user voice, the interacting device determines the source user of the user voice according to the facial movements of each of the plurality of users. Along with being able to determine (eg, facial movements are acquired through image acquisition by using a camera built within the interacting device), they can respond to the source user. The user's facial movements may include movements of one or more parts such as the cheeks, mouth, and chin, which are not limited herein. As an example, using mouth movements, there are multiple users in the direction of the source of the user's voice, but when only one user is performing the mouth opening / closing movement, that user It can be determined as the source user of the user voice. In another example, when all of the plurality of users perform the mouth opening / closing operation, but the movement of one user matches the user voice in the number of times and in the opening / closing amplitude. , The user can be determined as the source user of the user voice.

一実施形態において、相互作用の装置が壁上において取り付けられている際に、ユーザーは、一般に、相互作用の装置の前方においてのみ、通過することが可能であり、且つ、ユーザー音声を送信することができる。相互作用の装置がその他の方式によって取り付けられている際には、相互作用の装置によって取得されるオーディオメッセージが、相互作用の装置の前方又は後方において配置されているユーザーから到来しうるように、ユーザーは、相互作用の装置の前方又は後方において出現しうる。相互作用の装置の検知エリア内にユーザーが存在しており、且つ、別のユーザーが、相互作用の装置の背後を通過する際にちょうど発話した場合には、相互作用の装置は、検知エリア内のユーザーがユーザー音声を送信したものと誤認しうる。従って、オーディオメッセージを受け取った後に、相互作用の装置は、オーディオメッセージのソース方向と、検知エリア内にユーザーが存在しているかどうかと、に基づいて、オーディオメッセージが、検知エリア内のユーザーによって送信されたユーザー音声であるのかどうかを判定することができる。 In one embodiment, when the interacting device is mounted on a wall, the user is generally only able to pass in front of the interacting device and transmit the user voice. Can be done. When the interacting device is otherwise attached, the audio messages captured by the interacting device may come from the user located in front of or behind the interacting device. The user may appear in front of or behind the interacting device. If a user is in the detection area of the interacting device and another user just speaks as they pass behind the interacting device, the interacting device is in the detection area. Can be mistaken for the user sending the user voice. Therefore, after receiving the audio message, the interacting device sends the audio message by the user in the detection area based on the source direction of the audio message and whether the user is in the detection area. It is possible to determine whether or not the user voice has been used.

例えば、マイクロフォンアレイが、相互作用の装置内において構築されており、且つ、マイクロフォンアレイは、検知エリアに相対的に近接した状態において配設された第3マイクロフォンと、検知エリアから相対的に離れた状態において配設された第4マイクロフォンと、を含む。オーディオメッセージが、マイクロフォンアレイを使用することにより、受け取られた際に、オーディオメッセージのソース方向は、第3マイクロフォン及び第4マイクロフォンがオーディオメッセージ内の高周波数部分を受け取る量に従って、判定することができる。ソース方向が、検知エリアに相対的に近接している際には、オーディオメッセージ内の高周波数部分が、相互作用の装置のハウジングの吸収の影響を受けることから、第4マイクロフォンによって受け取られたオーディオメッセージの高周波数部分は、第3マイクロフォンによって受け取られたオーディオメッセージの高周波数部分未満である。ソース方向が、検知エリアから相対的に離れている際にも、オーディオメッセージの高周波数部分が、相互作用の装置のハウジングの吸収の影響を受けることから、第3マイクロフォンによって受け取られたオーディオメッセージの高周波数部分は、第4マイクロフォンによって受け取られたオーディオメッセージの高周波数部分未満である。従って、オーディオメッセージのソース方向は、第3マイクロフォン及び第4マイクロフォンがオーディオメッセージ内の高周波数部分を受け取る量に従って、正確に判定することができる。 For example, the microphone array is constructed in an interacting device, and the microphone array is relatively far from the detection area with a third microphone arranged in a state relatively close to the detection area. Includes a fourth microphone disposed in the state. When an audio message is received by using a microphone array, the source orientation of the audio message can be determined according to the amount by which the third and fourth microphones receive the high frequency portion of the audio message. .. Audio received by the 4th microphone because the high frequency part in the audio message is affected by the absorption of the housing of the interacting device when the source direction is relatively close to the detection area. The high frequency portion of the message is less than the high frequency portion of the audio message received by the third microphone. Of the audio message received by the third microphone, the high frequency portion of the audio message is affected by the absorption of the housing of the interacting device, even when the source direction is relatively far from the detection area. The high frequency portion is less than the high frequency portion of the audio message received by the fourth microphone. Therefore, the source orientation of the audio message can be accurately determined according to the amount by which the third and fourth microphones receive the high frequency portion of the audio message.

ソース方向が、検知エリアに相対的に近接した側部であり、且つ、検知エリア内のユーザーが存在している際には、相互作用の装置は、オーディオメッセージは、検知エリア内のユーザーによって送信されたユーザー音声であると判定することができる。そうではなくて、ソース方向が検知エリアから相対的に離れた側部である際には、或いは、ソース方向が、検知エリアに相対的に近接した側部であるが、検知エリア内にユーザーが存在していない際には、相互作用の装置は、オーディオメッセージは、検知エリア内のユーザーによって送信されたユーザー音声ではないと判定することができる。 When the source direction is on the side relatively close to the detection area and there is a user in the detection area, the interacting device will send the audio message by the user in the detection area. It can be determined that the user voice is voiced. Instead, when the source direction is on the side relatively far from the detection area, or when the source direction is on the side relatively close to the detection area, the user is in the detection area. When not present, the interacting device can determine that the audio message is not a user voice transmitted by a user within the detection area.

第1マイクロフォン、第2マイクロフォン、第3マイクロフォン、及び第4マイクロフォンとの関係において、左−右方向におけるマイクロフォンを弁別するべく、異なるマイクロフォンが、第1及び第2マイクロフォンとして弁別されており、且つ、前−後方向におけるマイクロフォンを弁別するべく、異なるマイクロフォンが、第3マイクロフォン及び第4マイクロフォンとして弁別されていることに留意されたい。但し、マイクロフォンアレイ内に実際に含まれるマイクロフォンの数は、本明細書において限定されてはいない。例えば、マイクロフォンアレイは、1つ又は複数の第1マイクロフォン及び1つ又は複数の第2マイクロフォンを含みうる。別の例において、マイクロフォンアレイは、1つ又は複数の第3マイクロフォン及び1つ又は複数の第4マイクロフォンを含みうる。これに加えて、マイクロフォンアレイが、右−左方向及び前−後方向におけるソース方向を同時に弁別する必要がある際には、マイクロフォンアレイは、必ずしも、4つのマイクロフォンを含む必要はない。換言すれば、第1マイクロフォン、第2マイクロフォン、第3マイクロフォン、及び第4マイクロフォンは、関係する機能を実装する際にマイクロフォンが果たす役割であるに過ぎない。実際には、マイクロフォンアレイは、更に少ない数のマイクロフォンを含みうる。例えば、マイクロフォンアレイは、3つのマイクロフォンを含んでいてもよく、この場合に、マイクロフォン1及びマイクロフォン2は、前−後方向において同一の列において配置されているが、左−右方向においては、離隔しており、且つ、マイクロフォン3は、マイクロフォン1〜3が三角形に類似した位置関係を形成するように、マイクロフォン1及びマイクロフォン2の前方又は背後において配置されている。マイクロフォン1及びマイクロフォン2は、左−右方向におけるユーザー音声のソース方向を弁別するべく、第1マイクロフォン及び第2マイクロフォンとして使用されてもよく、マイクロフォン1及びマイクロフォン2は、第3マイクロフォンとして使用されてもよく、且つ、マイクロフォン3は、第4マイクロフォンとして使用されてもよい(マイクロフォン3は、マイクロフォン1及びマイクロフォン2の背後において配置されている)。或いは、この代わりに、マイクロフォン3は、第3マイクロフォンとして使用されてもよく、且つ、マイクロフォン1及びマイクロフォン2は、前−後方向におけるオーディオメッセージの方向を弁別するべく、第4マイクロフォンとして使用されてもよい(マイクロフォン3は、マイクロフォン1及びマイクロフォン2の前方に配置されている)。 In relation to the first microphone, the second microphone, the third microphone, and the fourth microphone, different microphones are discriminated as the first and second microphones in order to discriminate the microphones in the left-right direction. Note that different microphones are discriminated as the third microphone and the fourth microphone in order to discriminate the microphones in the anterior-posterior direction. However, the number of microphones actually contained in the microphone array is not limited herein. For example, the microphone array may include one or more first microphones and one or more second microphones. In another example, the microphone array may include one or more third microphones and one or more fourth microphones. In addition to this, the microphone array does not necessarily have to include four microphones when the microphone array needs to simultaneously discriminate between right-left and front-rear source directions. In other words, the first microphone, the second microphone, the third microphone, and the fourth microphone only play a role in implementing the related functions. In practice, the microphone array may include a smaller number of microphones. For example, the microphone array may include three microphones, in which case microphones 1 and 2 are arranged in the same row in the front-rear direction, but separated in the left-right direction. The microphones 3 are arranged in front of or behind the microphones 1 and 2 so that the microphones 1 to 3 form a positional relationship similar to a triangle. The microphone 1 and the microphone 2 may be used as the first microphone and the second microphone in order to discriminate the source direction of the user voice in the left-right direction, and the microphone 1 and the microphone 2 are used as the third microphone. Also, the microphone 3 may be used as a fourth microphone (microphone 3 is located behind microphone 1 and microphone 2). Alternatively, instead, the microphone 3 may be used as a third microphone, and the microphones 1 and 2 are used as a fourth microphone to discriminate the direction of the audio message in the anterior-posterior direction. May be (microphone 3 is located in front of microphone 1 and microphone 2).

一実施形態において、相互作用の装置は、例えば、カメラを使用することにより、取得を実行し、且つ、次いで、顔面検出及びカウンティングを実行することにより、検知エリア内のいくつかのユーザーを検出してもよく、これは、本明細書において限定されてはいない。検知エリア内に複数のユーザーが存在している際には、相互作用の装置は、複数のユーザーを表すべく、ユーザーに対応するプロファイル画像をそれぞれ表示することができる。ユーザーが検知エリアに進入又は離脱した、或いは、ユーザーの数が変化した、際に、相互作用の装置によって表示されるプロファイル画像は、相応して変化しうる。相互作用の装置が、オーディオメッセージを受け取り、且つ、オーディオメッセージが検知エリア内のユーザーからのものであると判定した際には、相互作用の装置が、ユーザー音声の受け取りに失敗する、或いは、ソースユーザーを誤って認識する、ことを心配することなしに、ユーザーが、相互作用の装置がユーザー音声を成功裏に受け取り、且つ、プロファイル画像の変化を検討することによってソースユーザーを弁別したと判定しうるように、相互作用の装置は、その他のユーザーのプロファイル画像とは別個に、ユーザー音声のソースユーザーのプロファイル画像を表示することができる。ユーザー音声のソースユーザーのプロファイル画像は、任意の方式により、その他のユーザーのプロファイル画像とは別個に表示されてもよく、これは、本明細書において限定されてはいない。例えば、ユーザー音声のソースユーザーのプロファイル画像は、中央エリア内において表示することができると共に、その他のユーザーのプロファイル画像は、エッジエリア内において表示することができる。別の例において、ユーザー音声のソースユーザーのプロファイル画像は、相対的に大きなサイズにおいて表示することができると共に、その他のユーザーのプロファイル画像は、正常又は相対的に小さなサイズにおいて表示することができる。更に別の例において、ユーザー音声のソースユーザーのプロファイル画像は、正常に(カラフルに)表示されてもよく、且つ、その他のユーザーのプロファイル画像は、モノクロ化されてもよく、且つ、次いで、表示されてもよい。 In one embodiment, the interacting device detects some users in the detection area, eg, by using a camera to perform acquisition, and then by performing face detection and counting. However, this is not limited herein. When a plurality of users are present in the detection area, the interacting device can display a profile image corresponding to each user in order to represent the plurality of users. When a user enters or leaves the detection area, or the number of users changes, the profile image displayed by the interacting device can change accordingly. When the interacting device receives an audio message and determines that the audio message is from a user within the detection area, the interacting device fails to receive the user voice or is the source. Without worrying about misidentifying the user, the user determines that the interacting device successfully received the user's voice and discriminated the source user by considering changes in the profile image. As such, the interacting device can display the profile image of the source user of the user voice separately from the profile image of the other user. The source user profile image of the user voice may be displayed separately from the profile images of other users by any method, which is not limited herein. For example, the profile image of the source user of the user voice can be displayed in the central area, and the profile images of other users can be displayed in the edge area. In another example, the source user profile image of the user voice can be displayed in a relatively large size, while the profile images of the other users can be displayed in a normal or relatively small size. In yet another example, the source user profile image of the user voice may be displayed normally (colorfully), and the profile images of the other users may be monochrome and then displayed. May be done.

理解の容易性を目的として、一例としてエンタープライズインスタントメッセージングアプリケーション「WeCom」を使用することにより、本明細書の1つ又は複数の実施形態の技術的解決策について説明する。図3は、例示用の一実施形態による、相互作用シナリオの概略図である。図3に示されているように、相互作用の装置3が、企業AAのオフィス内において配設されており、且つ、相互作用の装置3がWeComクライアントに基づいて本明細書の相互作用の解決策を実装しうるように、WeComクライアントが、相互作用の装置3上において実行されているものと仮定されている。 For ease of understanding, the technical solution of one or more embodiments of the present specification will be described by using the enterprise instant messaging application "WeCom" as an example. FIG. 3 is a schematic diagram of an interaction scenario according to an exemplary embodiment. As shown in FIG. 3, the interaction device 3 is disposed in the office of the company AA, and the interaction device 3 is the solution of the interaction herein based on the WeCom client. It is assumed that the WeCom client is running on the interacting device 3 so that the measures can be implemented.

一実施形態において、カメラ31が、相互作用の装置3上において取り付けられており、且つ、カメラ31は、相互作用の装置3に対応する検知エリアとして、対応する撮影エリア32を形成することができる。従って、相互作用の装置3は、カメラ31を使用することにより、撮影エリア32を撮影することによって得られた画像に従って、例えば、図3の撮影エリア32に進入するユーザー4などの、撮影エリア32に進入するユーザーを判定することができる。当然のことながら、カメラ31の使用に加えて、相互作用の装置3は、サウンド検出、赤外線検出、又はその他の方法を通じて、検知エリアに進入するユーザー判定してもよく、これは、本明細書において限定されてはいない。 In one embodiment, the camera 31 is mounted on the interaction device 3, and the camera 31 can form the corresponding imaging area 32 as the detection area corresponding to the interaction device 3. .. Therefore, the interacting device 3 uses the camera 31, and according to the image obtained by shooting the shooting area 32, for example, the shooting area 32 such as the user 4 entering the shooting area 32 of FIG. It is possible to determine the user who enters the. Of course, in addition to the use of the camera 31, the interacting device 3 may determine the user entering the detection area through sound detection, infrared detection, or other methods, which is described herein. Not limited to.

図4は、例示用の一実施形態による、内部従業員との間の相互作用の実行の概略図である。図4に示されているように、相互作用の装置3は、画面33を装備することができると共に、画面33は、ユーザー4に対応する、且つ、カメラ31によって取得された、ユーザー画像41を表示するように、構成することができる。相互作用の装置3は、例えば、カメラ31によって取得された顔面画像に基づいて顔面認識を実行することにより、ユーザー4を識別してもよく、これは、本明細書において限定されてはいない。相互作用の装置3が、ユーザー4が内部従業員「Xiao Bai」であると認識したと仮定することにより、対応するアイデンティティ情報42を画面33上において表示することができる。例えば、アイデンティティ情報42は、ユーザー4の名称「Xiao Bai」であってよい。 FIG. 4 is a schematic diagram of the execution of an interaction with an internal employee according to an exemplary embodiment. As shown in FIG. 4, the interacting device 3 can be equipped with a screen 33, which is the user image 41 corresponding to the user 4 and acquired by the camera 31. It can be configured to display. The interacting device 3 may identify the user 4 by performing facial recognition, for example, based on a facial image acquired by the camera 31, which is not limited herein. By assuming that the interacting device 3 recognizes that the user 4 is an internal employee "Xiao Byi", the corresponding identity information 42 can be displayed on the screen 33. For example, the identity information 42 may be the name "Xiao Byi" of the user 4.

出欠チェック期間においては、相互作用の装置3が、ユーザー4が内部従業員「Xiao Bai」であると認識した後に、内部従業員「Xiao Bai」の出欠チェックデータについて問い合わせることができると共に、出欠がチェック済みではない場合には、内部従業員「Xiao Bai」用の出欠チェック動作を自動的に実装することができる。出欠チェック動作が完了したことをユーザー4に知らせるべく相互作用の装置3は、対応する相互作用コンテンツをユーザー4に提供することができる。例えば、相互作用コンテンツは、画面33上において示されているラベル43を含んでいてもよく、且つ、ラベル43内に含まれている情報は、「出勤時間の記録(clock in)」であり、これは、出欠チェック動作のタイプが「出勤時間の記録」であることを通知している。相互作用コンテンツは、この代わりに、その他の形態において、ユーザー4に提供することもできる。例えば、相互作用の装置3がスピーカ34を含んでいる場合には、スピーカ34を使用することにより、「Xiao Baiさん、出勤時間が正常に記録されました」などの音声情報を再生することができる。同様に、相互作用の装置3は、企業AAのその他の内部従業員についても、出勤時間の記録の自動的な出欠チェック動作を実装することができると共に、相互作用の装置3は、企業AAの従業員について退勤時間の記録の自動的な出欠チェック動作を実装することもできる。本明細書においては、その詳述を省略する。 During the attendance check period, the interacting device 3 can inquire about the attendance check data of the internal employee "Xiao Bai" after the user 4 recognizes that the user 4 is the internal employee "Xiao Bai", and the attendance is If it is not checked, the attendance check operation for the internal employee "Xiao Byi" can be automatically implemented. The interaction device 3 can provide the corresponding interaction content to the user 4 in order to notify the user 4 that the attendance check operation is completed. For example, the interaction content may include the label 43 shown on the screen 33, and the information contained within the label 43 is a "clock in". This informs that the type of attendance check operation is "record attendance time". The interaction content may instead be provided to the user 4 in other forms. For example, when the interaction device 3 includes the speaker 34, the speaker 34 can be used to reproduce voice information such as "Mr. Xiao Bai, the attendance time was normally recorded". can. Similarly, the interaction device 3 can implement an automatic attendance check operation for recording attendance time for other internal employees of the company AA, and the interaction device 3 is the company AA's. It is also possible to implement an automatic attendance check operation for recording leave time for employees. In the present specification, the details thereof will be omitted.

一実施形態において、相互作用の装置3の検知エリアは、相互作用の装置3までの距離に従って、複数のサブエリア内に分割することができる。例えば、図3において、撮影エリア32は、遠距離撮影エリア321(1.5m〜3.0mという相互作用の装置3までの距離を有する)と近距離撮影エリア322(0m〜1.5mという相互作用の装置3までの距離を有する)に分割されている。現時点において、出欠チェック期間内である場合には、相互作用の装置3は、ユーザーが遠距離撮影エリア321に配置されているのか又は近距離撮影エリア322内に配置されているのか、とは無関係に、ユーザー4用の自動的な出欠チェック動作を実装することができる。出欠チェック期間内ではあるが、ユーザー4が出欠についてチェック済みである場合、或いは、別の期間内である場合には、ユーザー4が遠距離撮影エリア321内において配置された際に、相互作用の装置3は、相互作用の装置がユーザー4との相互作用を能動的に起動しえない(即ち、相互作用コンテンツをユーザー4に提供しない)ように、既定により、ユーザー4が、一時的に通過したのみであり、且つ、相互作用の意図を有してはいないと判定することができる。但し、遠距離撮影エリア321内のユーザー4の滞在持続時間が、第1の予め設定された持続時間(例えば、3秒)に到達した場合には、相互作用の装置3は、相互作用の装置が相互作用コンテンツをユーザー4に提供しうるように、ユーザー4が相互作用の意図を有していると判定することができる。同様に、出欠チェック期間内ではあるが、ユーザー4が、出欠についてチェック済みである場合には、或いは、別の期間内である場合には、ユーザー4が近距離撮影エリア322内において配置された際に、相互作用の装置3は、相互作用の装置がユーザー4との相互作用を能動的に起動しえない(即ち、相互作用コンテンツをユーザー4に提供しない)ように、既定により、ユーザー4が一時的に通過したのみであり、且つ、相互作用の意図を有してはいないと判定することができる。但し、近距離撮影エリア322内のユーザー4の滞在持続時間が、第2の予め設定された持続時間に到達した場合には、相互作用の装置3は、相互作用の装置が相互作用コンテンツをユーザー4に提供しうるように、ユーザー4が相互作用の意図を有していると判定することができる。近距離撮影エリア322は、相互作用の装置3に相対的に近接していることから、ユーザー4が能動的に近距離撮影エリア322に進入するという振る舞いは、第2の予め設定された持続時間が、適宜、第1の予め設定された持続時間未満となりうるように、相互作用の意図を含みうる。例えば、第1の予め設定された持続時間は、3秒であり、且つ、第2の予め設定された持続時間は、1秒である。相対的に特殊な状況においては、第2の予め設定された持続時間は、0であってもよく、これは、相互作用の装置3が、近距離撮影エリア322に進入したら、相互作用コンテンツがユーザー4に即座に提供されうるように、既定により、ユーザー4が相互作用の意図を有していると判定することを意味している。 In one embodiment, the detection area of the interaction device 3 can be divided into a plurality of sub-areas according to the distance to the interaction device 3. For example, in FIG. 3, the shooting area 32 is a long-distance shooting area 321 (having a distance of 1.5 m to 3.0 m to the interacting device 3) and a short-distance shooting area 322 (0 m to 1.5 m). It has a distance to the device 3 of action). At present, if it is within the attendance check period, the interacting device 3 is irrelevant whether the user is located in the long-distance shooting area 321 or the short-distance shooting area 322. It is possible to implement an automatic attendance check operation for the user 4. If the attendance check period is within the attendance check period, but the user 4 has already checked the attendance, or if the user 4 is within another period, the interaction occurs when the user 4 is placed in the long-distance shooting area 321. By default, the device 3 temporarily passes the user 4 so that the interacting device cannot actively activate the interaction with the user 4 (ie, does not provide the interaction content to the user 4). It can be determined that it has only been done and that it has no intention of interaction. However, when the stay duration of the user 4 in the long-distance shooting area 321 reaches the first preset duration (for example, 3 seconds), the interaction device 3 is the interaction device 3. Can determine that the user 4 has an intent to interact so that may provide the interaction content to the user 4. Similarly, if the attendance check period is within the attendance check period, but the attendance has been checked, or if the user 4 is within another period, the user 4 is placed in the short-distance shooting area 322. In doing so, the interaction device 3 defaults to the user 4 so that the interaction device cannot actively initiate an interaction with the user 4 (ie, does not provide the interaction content to the user 4). It can be determined that has only passed temporarily and has no intention of interaction. However, when the stay duration of the user 4 in the short-range shooting area 322 reaches the second preset duration, the interaction device 3 is such that the interaction device causes the user to interact with the content. It can be determined that the user 4 has an intention of interaction, as can be provided to 4. Since the short-range shooting area 322 is relatively close to the interacting device 3, the behavior of the user 4 actively entering the short-range shooting area 322 is a second preset duration. However, as appropriate, the intention of the interaction may be included such that it may be less than the first preset duration. For example, the first preset duration is 3 seconds and the second preset duration is 1 second. In relatively special situations, the second preset duration may be zero, which means that when the interacting device 3 enters the short range shooting area 322, the interacting content By default, it means that the user 4 is determined to have an intent to interact so that the user 4 can be provided immediately.

ユーザー4が、遠距離撮影エリア321内において配置された際に、相互作用の装置3とユーザー4の間の効果的な通信を保証するべく、且つ、相互作用効率を改善するべく、相互作用の装置3は、相互作用コンテンツを通じて、遠距離撮影エリア321から近距離撮影エリア322に移動するように、ユーザー4をガイドすることができる。例えば、図5は、例示用の一実施形態による、相互作用コンテンツを通じたユーザー位置に関するガイドの概略図である。図5に示されているように、相互作用の装置3は、画面33上の相互作用表示エリア51内において、テキスト形態において、相互作用コンテンツ511を表示することができる。例えば、相互作用コンテンツ511は、遠距離撮影エリア321から近距離撮影エリア322に移動するように、ユーザー4をガイドするべく、「1.5メートル以内に近づいてください(please get closer to be within 1.5 meters)」である。テキスト形態における相互作用コンテンツ511に加えて、相互作用の装置3は、遠距離撮影エリア321から近距離撮影エリア322に移動するように、ユーザー4をガイドするべく、スピーカ34を使用することにより、例えば、「Xiao Baiさん、少しだけ遠過ぎます(Xiao bai, you are a little far from me)」(「Xiao Bai」は、アイデンティティ情報であり、且つ、「少しだけ遠過ぎます」は、相互作用コンテンツである)などの、音声の形態において、相互作用コンテンツを再生することができる。これに加えて、相互作用の装置3は、遠距離撮影エリア321から近距離撮影エリア322に移動するように、ユーザー4をガイドするべく、ユーザー4の注意を引き付けるために、規則的に明滅するようにインジケータライト35を更に制御してもよく、これは、ユーザー4に相互作用コンテンツを伝達することと等価である。当然のことながら、相互作用の装置3は、テキストの形態、音声の形態、及び光の形態などの方式のうちの任意のものにより、相互作用コンテンツを伝達してもよく、これは、本明細書において限定されてはいない。 When the user 4 is placed in the long-distance shooting area 321 of the interaction, the interaction device 3 and the user 4 interact to ensure effective communication and improve the interaction efficiency. The device 3 can guide the user 4 to move from the long-distance shooting area 321 to the short-distance shooting area 322 through the interaction content. For example, FIG. 5 is a schematic diagram of a guide regarding user position through interactive content according to an exemplary embodiment. As shown in FIG. 5, the interaction device 3 can display the interaction content 511 in text form within the interaction display area 51 on the screen 33. For example, the interaction content 511 "please get closer to be within 1" to guide the user 4 to move from the long-distance shooting area 321 to the short-distance shooting area 322. .5 meters) ”. In addition to the interaction content 511 in text form, the interaction device 3 uses a speaker 34 to guide the user 4 to move from the long-distance shooting area 321 to the short-distance shooting area 322. For example, "Mr. Xiao Bai, a little too far (Xiao bai, you are a little far from me)" ("Xiao Bai" is identity information, and "a little too far" is an interaction. It is possible to play interactive content in the form of audio, such as (content). In addition to this, the interacting device 3 blinks regularly to attract the user 4's attention to guide the user 4 to move from the long-distance shooting area 321 to the short-distance shooting area 322. As such, the indicator light 35 may be further controlled, which is equivalent to transmitting the interaction content to the user 4. Of course, the interacting device 3 may convey the interacting content by any of the methods such as text form, audio form, and light form, which is described herein. Not limited in the book.

ユーザー4が(能動的に、或いは、ガイダンスの下において)近距離撮影エリア322に進入した際に、相互作用の装置3は、ユーザーの相互作用の目的を発話するように、ユーザー4をガイドすることができる。例えば、図6は、例示用の一実施形態による、相互作用の装置によるユーザーとの間の相互作用の能動的な起動の概略図である。図6に示されているように、相互作用の装置3は、スピーカ34を使用することにより、例えば、「Xiao Baiさん、どういうご用件ですか?」(「Xioa Bai」は、アイデンティティ情報であり、且つ、「どういうご用件ですか?」は、相互作用コンテンツである)などの、音声の形態において、相互作用コンテンツを再生することができる。これに加えて、相互作用の装置3は、相互作用表示エリア51内において、テキストの形態において、相互作用コンテンツ512を表示することもできる。例えば、相互作用コンテンツ512は、音声の形態において、相互作用の装置3に対して相互作用目的を表現するように、ユーザー4をガイドするべく、「このように、お話しください(try to say something like this)」及び「Zhan Sanを呼び出してください(call Zhang San)」であってよい。 When the user 4 enters the short range shooting area 322 (actively or under guidance), the interacting device 3 guides the user 4 to speak out the purpose of the user's interaction. be able to. For example, FIG. 6 is a schematic representation of the active activation of an interaction with a user by an interacting device, according to an exemplary embodiment. As shown in FIG. 6, the interaction device 3 uses the speaker 34, for example, "Mr. Xiao Bai, what kind of business do you have?" ("Xioa Bai" is the identity information. Yes, and the interaction content can be played back in the form of audio, such as "What is your requirement?" Is the interaction content). In addition to this, the interaction device 3 can also display the interaction content 512 in the form of text within the interaction display area 51. For example, the interaction content 512, in the form of audio, "try to say something like" to guide the user 4 to express the interaction purpose with respect to the interaction device 3. "this)" and "Call Zhan San (all Zhang San)" may be used.

相互作用の装置3は、必ずしも、遠距離撮影エリア321から近距離撮影エリア322までユーザー4をガイドする必要はないことに留意されたい。例えば、相互作用の装置3は、この代わりに、ユーザーの相互作用目的を発話するように、遠距離撮影エリア321内のユーザー4を直接的にガイドすることができる。例えば、相互作用の装置3は、周囲環境からのノイズに関する検出を更に実行することができる。ノイズレベルが予め設定された値超である際には、ユーザー4は、まず、遠距離撮影エリア321から近距離撮影エリア322までガイドされ、且つ、次いで、ユーザー4は、ユーザーの相互作用目的を発話するように、ガイドされる。ノイズレベルが予め設定された値未満である際には、遠距離撮影エリア321内のユーザー4は、ユーザーの相互作用目的を発話するように、直接的にガイドされる。 It should be noted that the interacting device 3 does not necessarily have to guide the user 4 from the long-distance shooting area 321 to the short-distance shooting area 322. For example, the interaction device 3 can instead directly guide the user 4 in the range shooting area 321 to speak out the user's interaction objectives. For example, the interacting device 3 can further perform detection of noise from the ambient environment. When the noise level exceeds a preset value, the user 4 is first guided from the long-distance shooting area 321 to the short-distance shooting area 322, and then the user 4 sets the user's interaction purpose. You will be guided to speak. When the noise level is less than a preset value, the user 4 in the range shooting area 321 is directly guided to speak the user's interaction objectives.

一実施形態において、ユーザー4が企業AAの内部従業員である際には、図5に示されている「Xiao Baiさん、少しだけ遠過ぎます」を使用することにより、相互作用の装置3が遠距離撮影エリア321から近距離撮影エリア322までユーザー4をガイドしうるように、相互作用の装置3は、ユーザー4の名称「Xiao Bai」を取得してもよく、ここで、名称「Xiao Bai」は、アイデンティティ情報として使用されており、且つ、「少しだけ遠過ぎます」は、相互作用コンテンツである。企業AAの外部者の場合には、相互作用の装置3は、対応する名称を取得することに失敗しうる。従って、相互作用プロセスにおいて使用されるアイデンティティ情報は、図5に示されている実施形態におけるものとは異なりうる。例えば、図7は、例示用の一実施形態による、相互作用コンテンツを通じたユーザー位置に関するガイドの別の概略図である。図7に示されているように、相互作用の装置3が、カメラ31を使用することにより、ユーザーのユーザー画像71を取得するものと仮定されているが、ユーザーは、企業AAの外部者であり、且つ、相互作用の装置3は、ユーザーの名称を取得することに失敗する。従って、遠距離撮影エリア321から近距離撮影エリア322まで移動するようにユーザーをガイドする際に、相互作用の装置3は、相互作用表示エリア51内において、テキストの形態において、相互作用コンテンツ513を表示することができる。例えば、相互作用コンテンツ513は、「1.5メートル以内に近づいてください」である。相互作用の装置3は、この代わりに、例えば、スピーカ34を使用することにより、「こんにちは、少しだけ遠過ぎます」(ユーザーのアイデンティティ情報が省略されている)などのように、音声形態において、相互作用コンテンツを再生することもできる。相互作用の装置3は、この代わりに、近距離撮影エリア322から遠距離撮影エリア321まで移動するように、ユーザーをガイドするべく、規則的に明滅するようにインジケータライト35を制御することもできる。 In one embodiment, when User 4 is an internal employee of Company AA, by using "Mr. Xiao Bai, a little too far" shown in FIG. 5, the interaction device 3 can be The interacting device 3 may acquire the name "Xiao Bai" of the user 4 so that the user 4 can be guided from the long-distance shooting area 321 to the short-distance shooting area 322. "Is used as identity information, and" a little too far "is interactive content. In the case of an outsider of the company AA, the interacting device 3 may fail to obtain the corresponding name. Therefore, the identity information used in the interaction process may differ from that in the embodiment shown in FIG. For example, FIG. 7 is another schematic of a guide regarding user location through interactive content, according to an exemplary embodiment. As shown in FIG. 7, it is assumed that the interacting device 3 acquires the user image 71 of the user by using the camera 31, but the user is an outsider of the company AA. Yes, and the interacting device 3 fails to acquire the user's name. Therefore, when guiding the user to move from the long-distance shooting area 321 to the short-distance shooting area 322, the interaction device 3 provides the interaction content 513 in the form of text within the interaction display area 51. Can be displayed. For example, the interaction content 513 is "Please approach within 1.5 meters". Instead of this, the interacting device 3 uses a speaker 34, for example, in a voice form, such as "Hello, a little too far" (user identity information omitted). Interaction content can also be played. Instead, the interacting device 3 can also control the indicator light 35 to blink regularly to guide the user to move from the short range shooting area 322 to the long distance shooting area 321. ..

一実施形態において、相互作用の装置3は、WeComのサーバーにアクセスすることにより、検知エリア内のユーザーの関連するイベントを知ることができると共に、関連付するイベントに基づいて、提供するべき相互作用コンテンツを変更することができる。例えば、図8は、例示用の一実施形態による、正常な状況下における相互作用シナリオの概略図である。図8に示されているように、相互作用の装置3が、勤務時間内において、撮影エリア32内において配置されたユーザーを検出し、且つ、ユーザー4が、企業AAの内部従業員「Xiao Bai」であると認識したと仮定することにより、相互作用の装置3が、ユーザー4の相互作用目的が退勤時間の記録であると判定したが、依然として勤務時間内である場合に、相互作用の装置3がユーザー4の退勤時間の記録と関係付けられた関連するイベントを見出せない際には、相互作用表示エリア51内に示される相互作用コンテンツ515は、「早退するつもりですか?(are you sure to leave early?)」であってよい。図9は、例示用の一実施形態による、関連するイベントに応じた相互作用コンテンツの調節の概略図である。図9に示されているように、相互作用の装置3が、勤務時間内において、撮影エリア32内において配置されたユーザー4を検出し、且つ、ユーザー4が企業AAの内部従業員「Xiao Bai」であると認識した、と仮定することにより、相互作用の装置3が、ユーザー4が、提出済みの病気退勤審査及び承認イベントを有していることを見出し、且つ、病気退勤審査及び承認イベントにおいて承認されている病気退勤時間内である場合には、相互作用表示エリア51内に示される相互作用コンテンツ514は、「退勤時間を記録しますか?(are you sure to clock out?)」であってよい。 In one embodiment, the interaction device 3 can know the relevant event of the user in the detection area by accessing the WeCom server, and the interaction to be provided based on the associated event. You can change the content. For example, FIG. 8 is a schematic diagram of an interaction scenario under normal circumstances according to an exemplary embodiment. As shown in FIG. 8, the interacting device 3 detects a user placed in the shooting area 32 during working hours, and the user 4 is an internal employee of the company AA “Xiao Byi”. By assuming that the device 3 of the interaction determines that the purpose of the interaction of the user 4 is to record the leaving time, but the device of the interaction is still within the working hours. When 3 cannot find the associated event associated with the user 4's record of leaving time, the interaction content 515 shown in the interaction display area 51 says "Are you going to leave early?" to leave early?) ”. FIG. 9 is a schematic representation of the regulation of interacting content in response to related events according to an exemplary embodiment. As shown in FIG. 9, the interaction device 3 detects the user 4 arranged in the shooting area 32 during working hours, and the user 4 is an internal employee of the company AA “Xiao Byi”. By assuming that the interaction device 3 finds that the user 4 has a submitted illness leave examination and approval event, and the illness departure examination and approval event. If it is within the sick leave time approved in, the interaction content 514 shown in the interaction display area 51 is "are you sure to lock out?". It may be there.

一実施形態においては、相互作用の装置3の撮影エリア32内に複数のユーザーが存在しうると共に、相互作用の装置3は、適切な相互作用コンテンツを使用することにより、これらのユーザーとの通信を実装することができる。図10は、例示用の一実施形態による、相互作用の装置による発話者の指定の概略図である。図10に示されているように、画面33上において示されているユーザー画像81〜82にそれぞれ対応する検知エリア32内の複数のユーザーが存在していると仮定することにより、相互作用の装置3は、ユーザー画像81に対応するユーザーを「Xiao Bai」として認識してもよく、且つ、ユーザー画像82に対応するユーザーを「Xiao Hei」として認識してもよく、且つ、対応するユーザー画像の周りにおいて、アイデンティティ情報をとして、ユーザーの名称を表示してもよい。例えば、ユーザー画像81の上方において示されている対応するユーザーのアイデンティティ情報91は、名称「Xiao Bai」であり、且つ、ユーザー画像82の上方において示されている対応するユーザーのアイデンティティ情報92は、名称「Xiao Hei」である。相互作用の装置3の限られた相互作用能力に起因して、且つ、相互作用の装置3がユーザーの相互作用目的について明瞭に知ることを可能にするべく、相互作用の装置3は、一度に、ユーザーの一部分のみと相互作用しうる。相互作用の装置3は、ユーザーと相互作用の装置3の間の距離の昇順による、ユーザーの顔面とカメラ31の撮影方向の間の角度の昇順による、或いは、ユーザーの身長の降順による、などの、特定の方式により、ターゲット相互作用オブジェクト(ユーザーの一部分)を選択してもよく、これは、本明細書において限定されてはいない。相互作用の装置3が、ユーザー画像81に対応するユーザー「Xiao Bai」と相互作用するべく意図していると仮定することにより、検知エリア内のその他のユーザーの誤解を回避するべく、相互作用の装置3は、相互作用コンテンツを提供する際に、相互作用コンテンツに対応するターゲット相互作用オブジェクトが、ユーザー「Xiao Bai」であると検知エリア内のユーザーに表現する必要がある。例えば、相互作用の装置3が、スピーカ34を使用することにより、相互作用コンテンツ「どういうご用件ですか?」を再生する際に、その他のユーザーにとって、相互作用コンテンツ「どういうご用件ですか?」のターゲット相互作用オブジェクトが、「Xiao Bai」であることが明らかとなるように、実際の再生されるコンテンツが、「Xiao Baiさん、どういうご用件ですか?」となりうるように、これに加えて、ユーザー「Xiao Bai」のアイデンティティ情報を再生することができる。 In one embodiment, a plurality of users may exist in the shooting area 32 of the interaction device 3, and the interaction device 3 communicates with these users by using appropriate interaction content. Can be implemented. FIG. 10 is a schematic diagram of the designation of the speaker by the interacting device according to one exemplary embodiment. As shown in FIG. 10, by assuming that there are a plurality of users in the detection area 32 corresponding to the user images 81 to 82 shown on the screen 33, the interaction device. 3 may recognize the user corresponding to the user image 81 as "Xiao Byi", may recognize the user corresponding to the user image 82 as "Xiao Hei", and may recognize the user corresponding to the user image 82 as "Xiao Hei". The user's name may be displayed around as identity information. For example, the corresponding user identity information 91 shown above the user image 81 has the name "Xiao Byi", and the corresponding user identity information 92 shown above the user image 82 has The name is "Xiao Hei". Due to the limited interaction capacity of the interaction device 3, and to allow the interaction device 3 to have a clear understanding of the user's interaction objectives, the interaction device 3 is at once. , Can interact with only a portion of the user. The interaction device 3 is based on the ascending order of the distance between the user and the interaction device 3, the ascending order of the angle between the user's face and the shooting direction of the camera 31, the descending order of the user's height, and the like. , The target interaction object (part of the user) may be selected by a particular method, which is not limited herein. By assuming that the interaction device 3 is intended to interact with the user "Xiao Byi" corresponding to the user image 81, the interaction device 3 is intended to avoid misunderstandings of other users in the detection area. When the device 3 provides the interaction content, it is necessary to indicate to the user in the detection area that the target interaction object corresponding to the interaction content is the user "Xiao Byi". For example, when the interaction device 3 uses the speaker 34 to play the interaction content "what is the requirement?", The interaction content "what is the requirement?" For other users. So that it becomes clear that the target interaction object of "?" Is "Xiao Byi", so that the actual content to be played can be "Mr. Xiao Byi, what kind of business do you have?" In addition, the identity information of the user "Xiao Byi" can be reproduced.

図11は、例示用の一実施形態による、相互作用の装置による発話者の指定の別の概略図である。図11に示されているように、ユーザー「Xiao Bai」及びユーザー「Xiao Hei」などの、複数のユーザーが、同時にそれぞれの相互作用の意図を発話した場合に、相互作用の装置3は、サウンドの混乱状態に起因して、それぞれのユーザーの相互作用目的を正確に知ることができない場合があり、或いは、相互作用の装置3が、同時に複数のユーザーの相互作用目的に応答できない場合があり、或いは、相互作用の装置3が、それぞれの相互作用目的を順番に表現するように、これらのユーザーをガイドするべく、相互作用コンテンツを提供しうるような、その他の理由が存在している。例えば、相互作用の装置3は、相互作用表示エリア51内において、相互作用コンテンツ516を表示することができる。相互作用コンテンツ516は、「一人ずつ話してください(please speak one by one)」を含むことができる。更には、相互作用の装置3が、以上の実施形態に従って、ユーザーの発話順序が、ユーザー「Xio Bai」が、まず話し、且つ、ユーザー「Xiao Hei」が、後から話す、というものであると判定した際には、相互作用の装置3は、これに加えて、その他のユーザーが、相互作用コンテンツのターゲット相互作用オブジェクトが、ユーザー「Xiao Bai」であることを知るように、実際の再生されるコンテンツが、「わたしは、明瞭に聞き取ることができません。Xiao Baiさん、まず話して下さい」(I cannot hear clealy. Xiao Bai, please speak first)となりうるように、スピーカ34を使用することにより、相互作用コンテンツ「わたしは、明瞭に聞き取ることができません。xx、まず話してください(I cannot hear clearly. xx, please speak first)」を再生しつつ、ユーザー「Xiao Bai」のアイデンティティ情報を再生することができる。 FIG. 11 is another schematic diagram of the designation of the speaker by the interacting device according to one exemplary embodiment. As shown in FIG. 11, when a plurality of users such as the user "Xiao By" and the user "Xiao Hei" simultaneously speak the intention of each interaction, the interaction device 3 makes a sound. Due to the state of confusion, it may not be possible to accurately know the interaction objectives of each user, or the interaction device 3 may not be able to respond to the interaction objectives of multiple users at the same time. Alternatively, there are other reasons such that the interaction device 3 may provide interaction content to guide these users so that their interaction objectives are expressed in turn. For example, the interaction device 3 can display the interaction content 516 within the interaction display area 51. The interaction content 516 can include "please speak one by one". Further, in the interaction device 3, according to the above embodiment, the user's utterance order is such that the user "Xio Bai" speaks first, and the user "Xiao Hei" speaks later. Upon determination, the interaction device 3 is, in addition to this, the actual playback so that other users know that the target interaction object of the interaction content is the user "Xiao Byi". By using the speaker 34, the content can be "I can't hear clearly. Mr. Xiao Bai, please speak first" (I cannot heat clear. Xiao Bai, please spak first). Playing the identity information of the user "XiaoBai" while playing the interaction content "I can't hear clearly. xx, please speak first (I cannot hair clear. Xx, please spak first)". Can be done.

図10及び図11に示されている実施形態における音声の形態に加えて、複数のユーザーの発話順序は、複数のその他の方式により、指定することもできる。例えば、図12は、例示用の一実施形態による、相互作用の装置による発話者の指定の更に別の概略図である。図12に示されているように、相互作用の装置3が、ユーザーの発話順序が、ユーザー「Xiao Bai」が、まず話し、且つ、ユーザー「Xiao Hei」が、後から話す、というものであると判定した際に、相互作用の装置3は、例えば、マーキングボックス810を顔面エリアに追加することにより、ユーザー「Xiao Bai」に対応するユーザー画像81をマーキングすることができる。この結果、相互作用コンテンツが、「どういうご用件ですか?」、「話してください」、及びこれらに類似したものである場合にも、ユーザーは、相互作用コンテンツのターゲット相互作用オブジェクトが、ユーザー「Xiao Bai」であると知ることができる。当然のことながら、図12に示されている実施形態において、相互作用の装置13が、相互作用表示エリア51内において、相互作用テキスト517を表示する際に、相互作用テキスト517は、相互作用テキスト517のフルコンテンツが「Xiao Baiさん、話してください」となるように、相互作用コンテンツ「xx、話してください」に加えて、現時点のターゲット相互作用オブジェクトがユーザー「Xiao Bai」であることをユーザーに通知しうる、ユーザー「Xiao Bai」のアイデンティティ情報を更に含んでいる。 In addition to the voice forms in the embodiments shown in FIGS. 10 and 11, the utterance order of the plurality of users may be specified by a plurality of other methods. For example, FIG. 12 is yet another schematic diagram of speaker designation by an interacting device according to an exemplary embodiment. As shown in FIG. 12, in the interaction device 3, the user's utterance order is such that the user "Xiao Byi" speaks first, and the user "Xiao Hei" speaks later. Upon determining that, the interaction device 3 can mark the user image 81 corresponding to the user "Xiao Byi", for example, by adding the marking box 810 to the face area. As a result, even if the interaction content is "what do you want to do?", "Speak", and similar, the user will still see that the target interaction object of the interaction content is the user. It can be known that it is "Xiao Byi". Naturally, in the embodiment shown in FIG. 12, when the interaction device 13 displays the interaction text 517 within the interaction display area 51, the interaction text 517 is the interaction text. In addition to the interaction content "xx, please talk", the user knows that the current target interaction object is the user "Xiao Byi" so that the full content of 517 is "Mr. Xiao Bai, please talk". It further contains the identity information of the user "Xiao Byi" that can be notified to.

図13は、例示用の一実施形態による、外部者の発話順序の概略図である。図13に示されているように、81及び82というユーザー画像に対応するユーザーは、いずれも、企業AAの外部者であるものと仮定されており、相互作用の装置3は、これらのユーザーの名称を取得することができないが、相互作用情報に対応するターゲット相互作用オブジェクトを規定するべく、相互作用情報に対応するターゲット相互作用オブジェクトを規定するべく、ユーザーのアイデンティティ情報をその他の方式によって表現することができる。例えば、相互作用の装置3が、ターゲット相互作用オブジェクトが、ユーザー画像81に対応するユーザーであると判定した際に、ユーザー画像81が女性ユーザーに対応しており、且つ、ユーザー画像82が男性ユーザーに対応している場合には、ユーザーのアイデンティティ情報は、「女性の方(this lady)」又は「男性の方(this gentleman)」などのように、性別を通じて表現することができる。従って、スピーカ34を使用することにより、相互作用の装置3によって再生される音声コンテンツが、「はっきりと聞き取ることができません。女性の方から、まず話してください」である際に、撮影エリア32内の両方のユーザーは、相互作用コンテンツが、「はっきりと聞き取ることができません。xx、まず、話してください」であると判定することができると共に、「女性の方」というアイデンティティ情報に基づいて、ターゲット相互作用オブジェクトが、ユーザー画像81に対応するユーザーであると判定することができる。 FIG. 13 is a schematic diagram of the utterance order of an outsider according to an exemplary embodiment. As shown in FIG. 13, the users corresponding to the user images 81 and 82 are all assumed to be outsiders of the company AA, and the interacting device 3 is of these users. Although the name cannot be obtained, the user's identity information is expressed by other methods in order to specify the target interaction object corresponding to the interaction information and to specify the target interaction object corresponding to the interaction information. be able to. For example, when the interaction device 3 determines that the target interaction object is a user corresponding to the user image 81, the user image 81 corresponds to a female user and the user image 82 is a male user. The user's identity information can be expressed through gender, such as "female (this lady)" or "male (this gentleman)". Therefore, by using the speaker 34, when the audio content played by the interacting device 3 is "I cannot hear clearly. Please speak first from the female", the inside of the shooting area 32. Both users can determine that the interacting content is "not clearly audible. xx, please speak first" and target based on the identity information "female". It can be determined that the interaction object is the user corresponding to the user image 81.

相互作用コンテンツが撮影エリア32内のユーザーに提供された際に、いくつかの状況において、ユーザーは、図4に示されている実施形態における相互作用コンテンツ「出勤時間を正常に記録しました」などの相互作用コンテンツには、応答する必要はない。いくつかのその他の状況において、ユーザーは、相互作用コンテンツに応答することができると共に、応答は、相互作用の装置3がユーザーによる対応するイベントの完了を支援するように、ユーザーによって起動されたイベント支援要求を含むことができる。例えば、図9に示されている実施形態における相互作用コンテンツ「退勤時間を記録しますか?」の場合に、ユーザー「Xiao Bai」によって返された応答が「はい」である際には、相互作用の装置3は、相互作用の装置3が「退勤時間の記録の出欠チェックイベント」の完了を支援しうるように、セマンティック分析に基づいて、ユーザー「Xiao Bai」が「退勤時間の記録の出欠チェックイベント」に対するイベント支援要求を起動したと判定することができる。同様に、例えば、マルチユーザーシナリオにおいて、相互作用の装置3が、図13の音声「はっきりと聞き取ることができません。女性の方から、まず話してください」を送信した後に、女性ユーザーから返された応答が、「Baibaiさんを呼び出してください」である場合に、相互作用の装置3は、相互作用の装置3が、「呼び出しイベント」の完了を支援するべく、ユーザー「Baibai」を呼び出しうるように、セマンティック分析に基づいて、ユーザー「Xiao Bai」が「呼び出しイベント」に対するイベント支援要求を起動しており、且つ、呼び出されるオブジェクトは、ユーザー「Baibai」であると判定することができる。 When the interaction content is provided to the user in the shooting area 32, in some situations, the user, for example, the interaction content "successfully recorded work hours" in the embodiment shown in FIG. You don't have to respond to the interaction content of. In some other situations, the user can respond to the interacting content, and the response is an event triggered by the user so that the interacting device 3 assists the user in completing the corresponding event. Can include support requests. For example, in the case of the interaction content "Record leaving time?" In the embodiment shown in FIG. 9, when the response returned by the user "Xiao Byi" is "Yes", the interaction is mutual. The action device 3 is based on semantic analysis by the user "Xiao Bai" to "attend work attendance" so that the interaction device 3 can assist in completing the "attendance check event for attendance record". It can be determined that the event support request for the "check event" has been activated. Similarly, for example, in a multi-user scenario, the interacting device 3 is returned by the female user after transmitting the voice in FIG. 13, "I can't hear clearly. Please speak first, from the female." If the response is "Call Mr. Baibai", the interaction device 3 will allow the interaction device 3 to call the user "Baibai" to assist in completing the "call event". Based on the semantic analysis, it can be determined that the user "XiaoBai" has activated the event support request for the "call event" and the object to be called is the user "Baibai".

当然のことながら、相互作用コンテンツに対する応答の状況に加えて、撮影エリア32内のユーザーは、イベント支援要求を相互作用の装置3に対して直接的に起動することができると共に、相互作用の装置3は、対応するイベントの完了を支援することができる。これは、相互作用コンテキストに対する応答の状況に類似しており、従って、本明細書においては、詳述の反復を省略する。 Not surprisingly, in addition to the status of the response to the interacting content, the user within the shooting area 32 can launch the event support request directly to the interacting device 3 as well as the interacting device. 3 can support the completion of the corresponding event. This is similar to the situation of response to an interaction context and therefore, the repetition of the details is omitted herein.

図10〜図13に示されている実施形態においては、相互作用の装置3は、相互作用の装置3が、対応するイベントの完了を個々に支援するべく、ユーザーによって個々に起動されたイベント支援要求を判定しうるように、撮影エリア32内の複数のユーザーが順番に話すことを保証することができる。一実施形態において、相互作用の装置3は、同時に複数のユーザーから送信された複数のユーザー音声を受け取る場合があり、且つ、サウンド特徴に基づいて複数のユーザー音声を正確に分離することができると共に、相互作用の装置3が、複数のユーザーのイベント支援要求を同時に認知しうるように、且つ、対応するイベントの完了を支援し、これにより、複数のユーザーにおける支援効率を大幅に改善しうるように、サウンド特徴認識(例えば、声紋認識)を通じて、それぞれのユーザー音声と撮影エリア32内のユーザーの間のマッピング関係を更に判定することができる。 In the embodiments shown in FIGS. 10-10, the interaction device 3 is an event support individually invoked by the user so that the interaction device 3 individually assists in the completion of the corresponding event. It is possible to ensure that a plurality of users in the shooting area 32 speak in turn so that the request can be determined. In one embodiment, the interacting device 3 may receive a plurality of user voices transmitted from a plurality of users at the same time, and can accurately separate the plurality of user voices based on the sound characteristics. , The interaction device 3 can simultaneously recognize the event support requests of a plurality of users and support the completion of the corresponding event, thereby greatly improving the support efficiency for the plurality of users. In addition, through sound feature recognition (eg, voiceprint recognition), the mapping relationship between each user's voice and the user in the shooting area 32 can be further determined.

一状況において、相互作用の装置3は、取得されたユーザー音声をサウンド特徴データベースと直接的に比較してもよく、サウンド特徴データベースは、例えば、比較結果に基づいて、取得されたユーザー音声に対応する内部従業員を判定するように、企業AA内のすべての内部従業員の声紋特徴を含みうる。これに加えて、相互作用の装置3は、顔面認識などのその他の方式により、撮影エリア32内のユーザーを識別することができると共に、企業AAの内部従業員であると偽ることを防止するべく、識別結果をサウンド特徴データベースに基づいて取得された比較結果と比較することができる。例えば、ユーザー音声が、それぞれ、企業AA内のユーザーA及びユーザーBからであるとサウンド特徴を通じて判定されたが、顔面認識に基づいて、撮影エリア内のユーザーが、ユーザーAと、認識されえない外部者と、であると判定されたとしよう。この結果、外部者が、ユーザーBであると偽っている場合があり、且つ、ユーザーBの記録された音声を使用している場合がある。この状況において、相互作用の装置3は、対応する支援イベントの完了を拒絶することができると共に、警告をユーザーBに対して送信することができる。 In one situation, the interacting device 3 may directly compare the acquired user voice with the sound feature database, which corresponds to the acquired user voice, for example, based on the comparison result. It may include the voiceprint characteristics of all internal employees within the company AA so as to determine which internal employee to do. In addition to this, the interaction device 3 can identify the user in the shooting area 32 by other methods such as face recognition and prevent the user from pretending to be an internal employee of the company AA. , The identification result can be compared with the comparison result obtained based on the sound feature database. For example, the user voice is determined to be from the user A and the user B in the company AA, respectively, through the sound feature, but the user in the shooting area cannot be recognized as the user A based on the face recognition. Suppose it is determined to be an outsider. As a result, an outsider may pretend to be User B and may be using the recorded voice of User B. In this situation, the interacting device 3 can refuse to complete the corresponding support event and can send a warning to User B.

別の状況において、相互作用の装置3は、撮影エリア32内のユーザーが企業AA内のユーザーA及びユーザーBであると認識するべく、まずは、顔面認識などの方式により、撮影エリア32内のユーザーを識別することができる。次いで、相互作用の装置3が2つのユーザー音声を取得した際に、相互作用の装置は、ユーザー音声をサウンド特徴データベース内のその他の声紋特徴と比較することなしに、いずれのユーザー音声がユーザーAからであり、且つ、いずれのユーザー音声がユーザーBからであるのか、を判定するべく、単純にユーザー音声をユーザーA及びユーザーBの声紋特徴と比較し、これにより、比較効率を大幅に改善することができる。 In another situation, the interacting device 3 first recognizes the user in the shooting area 32 as the user A and the user B in the company AA by a method such as face recognition. Can be identified. Then, when the interacting device 3 acquires two user voices, the interacting device does not compare the user voice with the other voiceprint features in the sound feature database, and which user voice is the user A. In order to determine which user voice is from user B, the user voice is simply compared with the voiceprint characteristics of user A and user B, thereby greatly improving the comparison efficiency. be able to.

これに加えて、撮影エリア32内のユーザーがアドミニストレータを含んでいる場合があり、従って、相互作用の装置3は、アドミニストレータのイベント支援要求に応答して、例えば、画面33上の歓迎発話コンテンツの調節、スピーカ34の音量の調節、又は遠距離撮影エリア321及び近距離撮影エリア322の範囲の調節、などの対応する装置管理イベントの完了を支援することができる。 In addition to this, the user in the shooting area 32 may include an administrator, so that the interacting device 3 responds to the administrator's event support request, for example, in the welcome speech content on the screen 33. It can assist in completing the corresponding device management event, such as adjusting, adjusting the volume of the speaker 34, or adjusting the range of the range shooting area 321 and the range shooting area 322.

図14は、例示用の一実施形態による、相互作用オブジェクトのマーキングの概略図である。カメラ31を使用することにより、撮影エリア32を撮影した後に、相互作用の装置3は、ユーザーが、ユーザーが相互作用の装置3によって検出されたかどうか、並びに、ユーザーが相互作用の装置3と相互作用しうるかどうか、を明瞭に判定するように、撮影エリア32内に配置されている検出されたユーザーをマーキングすることができる。図14に示されているように、撮影エリア32内にユーザーが存在していることを検出した際に、相互作用の装置3は、撮影画像に従って、ユーザー用の対応するプロファイル画像1401を生成することができると共に、画面33上においてプロファイル画像1401を表示することができる。又、別のユーザーが撮影エリア32内において配置されていることが相互作用の装置3によって検出された際にも、そのユーザーに対応するプロファイル画像1402を画面33上において表示することができる。同様に、更にその他のユーザーが撮影エリア32に進入した際にも、相互作用の装置3は、画面33上において、対応するプロファイル画像を表示してもよく、従って、本明細書においては、詳述の反復を省略する。 FIG. 14 is a schematic diagram of the marking of interacting objects according to an exemplary embodiment. By using the camera 31, after photographing the imaging area 32, the interacting device 3 allows the user to interact with the interacting device 3 as well as whether the user has been detected by the interacting device 3. Detected users located within the imaging area 32 can be marked so as to clearly determine if they can act. As shown in FIG. 14, when detecting the presence of a user in the shooting area 32, the interacting device 3 generates a corresponding profile image 1401 for the user according to the shot image. At the same time, the profile image 1401 can be displayed on the screen 33. Further, even when it is detected by the interacting device 3 that another user is arranged in the shooting area 32, the profile image 1402 corresponding to that user can be displayed on the screen 33. Similarly, when yet another user enters the shooting area 32, the interacting device 3 may display the corresponding profile image on the screen 33, and is therefore detailed herein. The repetition of the above is omitted.

プロファイル画像1402に対応するユーザーが、撮影エリア32から離脱した際には、相互作用の装置3は、画面からプロファイル画像1402を削除することができる。その他のユーザーの状況も、このユーザーのものに類似しており、従って、本明細書においては、詳述の反復を省略する。 When the user corresponding to the profile image 1402 leaves the shooting area 32, the interacting device 3 can delete the profile image 1402 from the screen. The situation of the other user is similar to that of this user, and therefore the repetition of the details is omitted herein.

従って、画面33がプロファイル画像1401及び1402を含んでいることを観察した際に、対応するユーザーは、自身が相互作用の装置3によって検出されており、且つ、相互作用オブジェクトとして相互作用の装置3によって判定されており、且つ、自身が、相互作用の装置3と相互作用しうる、ことを確信することができる。別のユーザーが相互作用の装置3と相互作用することを所望しているが、画面33上において、自身に対応するプロファイル画像を観察できない際には、これは、ユーザーが撮影エリア32に進入していない場合がある、或いは、ユーザーが撮影エリア32に進入しているが、相互作用の装置3によって成功裏に検出されておらず、且つ、ユーザーは、ユーザーのプロファイル画像が画面33上において表示される時点まで、撮影エリア32に進入する又は再進入する、などの対策を実行しうる、ことを通知している。 Therefore, when observing that the screen 33 includes the profile images 1401 and 1402, the corresponding user has been detected by the interaction device 3 and the interaction device 3 as an interaction object. And can be confident that it can interact with the interacting device 3. When another user wants to interact with the interacting device 3, but cannot observe the profile image corresponding to himself on the screen 33, this means that the user enters the shooting area 32. In some cases, or the user has entered the shooting area 32, but it has not been successfully detected by the interacting device 3, and the user displays the user's profile image on the screen 33. It is informed that measures such as entering or re-entering the photographing area 32 can be taken until the time when the image is taken.

図15は、例示用の一実施形態による、ターゲット相互作用オブジェクトのマーキングの概略図である。相互作用の装置3が、それぞれ、撮影エリア32内において配置されているユーザー「Xiao Bai」及びユーザー「Xiao Hei」を認識し、且つ、相互作用の装置3が、ユーザー「Xiao Bai」をターゲット相互作用オブジェクトとして判定しているものと仮定されている。図15に示されているように、相互作用の装置3は、正常な比率において、画面33の(相対的に、画面33のエッジから遠い)中央エリア内においてユーザー「Xiao Bai」に対応するプロファイル画像1401を表示することができると共に、相対的に小さな比率において、画面33のエッジエリア内においてユーザー「Xiao Hei」に対応するプロファイル画像1402を表示することができる。次いで、相互作用の装置3が、スピーカ34を使用することにより、「どういうご用件ですか?」という相互作用音声を送信した際に、プロファイル画像1401及び1402の表示比率及び表示位置に従って、相互作用音声に対応するターゲット相互作用オブジェクトが、プロファイル画像1402に対応するユーザー「Xiao Hei」ではなく、プロファイル画像1401に対応するユーザー「Xiao Bai」である、ことを判定することができる。 FIG. 15 is a schematic diagram of marking of a target interaction object according to an exemplary embodiment. The interaction device 3 recognizes the user "Xiao Byi" and the user "Xiao Hei" respectively arranged in the shooting area 32, and the interaction device 3 targets the user "Xiao Byi" with each other. It is assumed that it is judged as an action object. As shown in FIG. 15, the interacting device 3 has a profile corresponding to the user "Xiao Bai" in the central area of the screen 33 (relatively far from the edge of the screen 33) at normal ratios. The image 1401 can be displayed, and the profile image 1402 corresponding to the user "Xiao Hei" can be displayed in the edge area of the screen 33 at a relatively small ratio. Next, when the interaction device 3 transmits the interaction voice "What is your business?" By using the speaker 34, the interaction device 3 interacts according to the display ratio and display position of the profile images 1401 and 1402. It can be determined that the target interaction object corresponding to the action speaker is not the user "Xiao Hei" corresponding to the profile image 1402, but the user "Xiao Byi" corresponding to the profile image 1401.

当然のことながら、プロファイル画像の表示比率及び表示位置の構成に加えて、ターゲット相互作用オブジェクトに対応するプロファイル画像をその他の相互作用オブジェクトのプロファイル画像から弁別するべく、その他の調節の態様をプロファイル画像の表示属性に対して実行し、これにより、プロファイル画像に応じた対応するターゲット相互作用オブジェクトの判定を支援することができる。これは、本明細書において限定されてはいない。 As a matter of course, in addition to the configuration of the display ratio and the display position of the profile image, the profile image shows other modes of adjustment in order to discriminate the profile image corresponding to the target interaction object from the profile image of the other interaction object. This can be done for the display attributes of, which can help determine the corresponding target interaction object according to the profile image. This is not limited herein.

相互作用の装置3によって撮影エリア32内のユーザーとの間の相互作用を起動するというやり方に加えて、例えば、相互作用の装置3が、ユーザー音声のソースユーザーの要件を充足するべく、ユーザー音声に応答するように、相互作用の装置3にユーザー音声を送信する、などのように、撮影エリア32内のユーザーが、相互作用の装置3との相互作用を起動することもできる。ユーザー音声は、相互作用の装置3によって送信される相互作用音声に応答するべく、使用されてもよく、或いは、撮影エリア32内のユーザーによって相互作用の装置3に能動的に送信されてもよく、これは、本明細書において限定されてはいない。 In addition to the method of invoking the interaction with the user in the shooting area 32 by the interaction device 3, for example, the interaction device 3 is the source of the user voice so that the user's voice meets the user's requirements. The user in the photographing area 32 can also activate the interaction with the interacting device 3, such as transmitting a user voice to the interacting device 3 in response to. The user voice may be used to respond to the interaction voice transmitted by the interaction device 3, or may be actively transmitted to the interaction device 3 by a user within the imaging area 32. , This is not limited herein.

一実施形態においては、撮影エリア32内のユーザーによって送信されたユーザー音声を受け取った際に、相互作用の装置3が、ユーザー音声のソースユーザーを判定する必要があるように、即ち、撮影エリア32内の複数のユーザーのいずれがユーザー音声を送信したのかを検出する必要があるように、撮影エリア32内に、複数のユーザーが同時に存在している場合がある。 In one embodiment, the interacting device 3 needs to determine the source user of the user voice upon receiving the user voice transmitted by the user in the shooting area 32, i.e., the shooting area 32. There may be a plurality of users at the same time in the shooting area 32 so that it is necessary to detect which of the plurality of users in the group has transmitted the user voice.

例えば、図16は、例示用の一実施形態による、ユーザー音声のソースユーザーの判定の概略図である。図16に示されているように、マイクロフォンアレイが、相互作用の装置3内において構築されてもよく、マイクロフォンアレイは、マイクロフォン36及びマイクロフォン37を含んでいてもよく、且つ、マイクロフォン36は、相対的に左側において配設されており、且つ、マイクロフォン37は、相対的に右側において配設されている。従って、撮影エリア32内のユーザーが、「15人用の会議室を予約する必要があります(I need to reserve a conference room for 15 persons)」などの、ユーザー音声を送信した際に、マイクロフォン36が、マイクロフォン37よりも早期にユーザー音声を受け取った場合には、これは、ユーザー音声のソースユーザーが、マイクロフォン36に相対的に近接しており、且つ、マイクロフォン37から相対的に離れている、ことを通知している。従って、ソースユーザーが、撮影エリア32内において相対的に左側に近接して配置されているものと判定することができる。例えば、ソースユーザーは、図10において取得されている画像との組合せにおいて、ユーザー「Xiao Bai」である、と判定することができる。 For example, FIG. 16 is a schematic diagram of a determination of a source user of user voice according to an exemplary embodiment. As shown in FIG. 16, the microphone array may be constructed within the interacting device 3, the microphone array may include a microphone 36 and a microphone 37, and the microphone 36 is relative. The microphone 37 is arranged on the left side, and the microphone 37 is arranged on the relatively right side. Therefore, when a user in the shooting area 32 transmits a user voice such as "It is necessary to reserve a conference room for 15 people (Ined to reserve a conference room for 15 persons)", the microphone 36 uses the microphone 36. If the user voice is received earlier than the microphone 37, this means that the source user of the user voice is relatively close to the microphone 36 and relatively far from the microphone 37. Is informed. Therefore, it can be determined that the source user is arranged relatively close to the left side in the shooting area 32. For example, the source user can determine that he is the user "Xiao Byi" in combination with the image acquired in FIG.

同様に、マイクロフォン37が、マイクロフォン36よりも早期にユーザー音声を受け取った場合にも、これは、ユーザー音声のソースユーザーが、マイクロフォン37に相対的に近接しており、且つ、マイクロフォン36から相対的に離れている、ことを通知している。従って、ソースユーザーが、撮影エリア32内において、相対的に右側に近接して配置されているものと判定することができる。例えば、ソースユーザーは、図10において取得されている画像との組合せにおいて、ユーザー「Xiao Hei」であると判定することができる。或いは、この代わりに、マイクロフォン36及びマイクロフォン37が、同時に、或いは、ほぼ同時に、ユーザー音声を受け取った場合には、これは、ユーザー音声のソースユーザーが、マイクロフォン36とマイクロフォン37の間の中央地点において配置されている、即ち、相互作用の装置3の直接前方に配置されている、ことを通知している。従って、ソースユーザーは、撮影エリア32の中央位置において配置されていると判定することができる。 Similarly, if the microphone 37 receives the user voice earlier than the microphone 36, this means that the source user of the user voice is relatively close to and relative to the microphone 36. Notifying that you are away from. Therefore, it can be determined that the source user is arranged relatively close to the right side in the shooting area 32. For example, the source user can determine that he is the user "Xiao Hei" in combination with the image acquired in FIG. Alternatively, if instead, the microphone 36 and the microphone 37 receive the user voice simultaneously or at about the same time, this means that the source user of the user voice receives the user voice at the central point between the microphone 36 and the microphone 37. It notifies that it is located, that is, it is placed directly in front of the interacting device 3. Therefore, the source user can determine that the image is arranged at the center of the shooting area 32.

一実施形態において、ユーザーは、画面33及びカメラ31の向きの前方に配置されているのではなく、相互作用の装置3の設置位置又は設置方式に基づいて、相互作用の装置3の背後において配置されている場合もある。従って、ユーザーは、明らかに、撮影エリア32内に配置されてはおらず、且つ、ユーザーは、正確には、相互作用の装置3の周りにおいて配置されている場合がある。この状況において、相互作用の装置3が、「15人用の会議室を予測する必要があります」などのオーディオメッセージを受け取った際に、オーディオメッセージは、必ずしも、撮影エリア32内のユーザーによって送信されたユーザー音声ではなく、且つ、相互作用の装置の背後において配置されているユーザーによって送信された混信音声である。従って、混信音声が、誤ってユーザー音声として判定されることを防止するべく、オーディオメッセージのソース方向を判定する必要がある。前方からのオーディオメッセージは、撮影エリア32内のユーザーによって送信されたユーザー音声でありうると共に、後方からのオーディオメッセージは、混信音声である。 In one embodiment, the user is not placed in front of the orientation of the screen 33 and the camera 31, but behind the interaction device 3 based on the location or method of installation of the interaction device 3. It may have been done. Thus, the user may clearly not be located within the shooting area 32, and the user may be located more precisely around the interacting device 3. In this situation, when the interacting device 3 receives an audio message such as "must predict a conference room for 15 people", the audio message is not necessarily transmitted by the user in the shooting area 32. It is not the user voice, but the interference voice transmitted by the user located behind the interacting device. Therefore, it is necessary to determine the source direction of the audio message in order to prevent the interference voice from being erroneously determined as the user voice. The audio message from the front can be the user voice transmitted by the user in the shooting area 32, and the audio message from the rear is the interference voice.

例えば、図17は、例示用の一実施形態による、オーディオメッセージのソース方向の判定の概略図である。図17に示されているように、マイクロフォンアレイが、相互作用の装置3内において構築されてもよく、且つ、マイクロフォンアレイは、マイクロフォン36、マイクロフォン37、及びマイクロフォン38を含みうる。左−右方向(即ち、図17における水平方向)において、マイクロフォン36は、左側において配設され、且つ、マイクロフォン37は、右側において配設されている。前−後方向(即ち、図17における上−下方向)において、マイクロフォン36及びマイクロフォン37は、ビデオエリア32に相対的に近接した相互作用の装置3の前部部分内において配設されており、且つ、マイクロフォン38は、ビデオエリア32から相対的に離れた相互作用の装置3の後部部分内において配設されている。マイクロフォン36〜38は、いずれも、相互作用の装置3内において配置されている。従って、相互作用の装置3の周りにおいて配置されているユーザーによって送信されたオーディオメッセージの場合に、ユーザーが相互作用の装置3の前方において配置されている場合には、オーディオメッセージは、相互作用の装置3の前方から相互作用の装置3を通過し、オーディオメッセージの高周波数部分は、相互作用の装置3のハウジング部分によって吸収され、且つ、マイクロフォン36〜38がオーディオメッセージの高周波数部分を受け取った際に、相互作用の装置3の後部部分内において配置されているマイクロフォン38によって受け取られる高周波数信号の強度は、相互作用の装置3のハウジングの吸収に起因して、マイクロフォン36及び37のそれぞれによって受け取られる高周波数信号の強度未満となるようになっている。ユーザーが、相互作用の装置3の背後において配置されている場合には、オーディオメッセージは、相互作用の装置3の後方から相互作用の装置3を通過し、オーディオメッセージの高周波数部分は、相互作用の装置3のハウジング部分によって吸収され、且つ、マイクロフォン36〜38がオーディオメッセージの高周波数部分を受け取った際に、相互作用の装置3の前部において配置されたマイクロフォン36及び37のそれぞれによって受け取られる高周波数部分の強度は、相互作用の装置3のハウジングの吸収に起因して、マイクロフォン38によって受け取られる高周波数信号の強度未満となるようになっている。 For example, FIG. 17 is a schematic diagram of determining the source direction of an audio message according to an exemplary embodiment. As shown in FIG. 17, the microphone array may be constructed within the interacting device 3, and the microphone array may include a microphone 36, a microphone 37, and a microphone 38. In the left-right direction (ie, the horizontal direction in FIG. 17), the microphone 36 is disposed on the left side and the microphone 37 is disposed on the right side. In the anterior-posterior direction (ie, up-downward in FIG. 17), the microphone 36 and the microphone 37 are disposed within the anterior portion of the interacting device 3 that is relatively close to the video area 32. Moreover, the microphone 38 is arranged in the rear portion of the interacting device 3 relatively away from the video area 32. All of the microphones 36 to 38 are arranged in the interacting device 3. Thus, in the case of an audio message transmitted by a user placed around the device 3 of the interaction, if the user is placed in front of the device 3 of the interaction, the audio message will be of interaction. Passing through the interacting device 3 from the front of the device 3, the high frequency portion of the audio message was absorbed by the housing portion of the interacting device 3, and the microphones 36-38 received the high frequency portion of the audio message. In doing so, the strength of the high frequency signal received by the microphone 38 located within the rear portion of the interacting device 3 is due to the absorption of the housing of the interacting device 3 by each of the microphones 36 and 37. It is designed to be less than the strength of the received high frequency signal. If the user is located behind the interacting device 3, the audio message passes through the interacting device 3 from behind the interacting device 3, and the high frequency portion of the audio message interacts. Absorbed by the housing portion of the device 3 and received by each of the microphones 36 and 37 located at the front of the interacting device 3 when the microphones 36-38 receive the high frequency portion of the audio message. The intensity of the high frequency portion is set to be less than the intensity of the high frequency signal received by the microphone 38 due to the absorption of the housing of the interacting device 3.

従って、マイクロフォン36〜38がオーディオメッセージの高周波数部分を受け取る量に従って、オーディオメッセージのソース方向が相互作用の装置3の前方であるのか又は後方であるのか、を判定することができる。オーディオメッセージのソース方向が、相互作用の装置3の後方であると判定された際には、オーディオメッセージのソースユーザーは、明確に、撮影エリア32内のユーザーではない。換言すれば、オーディオメッセージは、混信音声である。オーディオメッセージのソース方向が、相互作用の装置3の前方であると判定された際には、オーディオメッセージのソースユーザーは、撮影エリア32内のユーザーでありうる。当然のことながら、精度を改善するべく、且つ、誤った判定の確率を低減するべく、更なる判定をその他の条件との組合せにおいて実行することができる。 Therefore, it is possible to determine whether the source direction of the audio message is in front of or behind the interacting device 3 according to the amount by which the microphones 36-38 receive the high frequency portion of the audio message. When it is determined that the source direction of the audio message is behind the interacting device 3, the source user of the audio message is clearly not the user in the shooting area 32. In other words, the audio message is an interference voice. When it is determined that the source direction of the audio message is in front of the interacting device 3, the source user of the audio message may be a user in the shooting area 32. As a matter of course, further determinations can be made in combination with other conditions in order to improve accuracy and reduce the probability of erroneous determinations.

一実施形態において、画像の取得は、相互作用の装置3上のカメラ31を使用することにより、実行することができると共に、撮影エリア32内にユーザーが存在している場合には、オーディオメッセージが、ユーザーからのものであると判定することができる。 In one embodiment, image acquisition can be performed by using the camera 31 on the interacting device 3, and if a user is present in the shooting area 32, an audio message will be emitted. , Can be determined to be from the user.

一実施形態において、画像の取得は、相互作用の装置3上のカメラ31を使用することにより、実行することができると共に、撮影エリア32内において複数のユーザーが存在している場合には、例えば、口の開閉動作が、オーディオメッセージの受信処理の際に実行されているかどうか、並びに、動作が発生する瞬間が、オーディオメッセージの信号の変化が発生する瞬間と一貫性を有しているかどうか、などの、ユーザーの顔面動作を参照して、オーディオメッセージとマッチングする顔面動作を有するユーザーが、オーディオメッセージのソースユーザーとして判定されている。 In one embodiment, image acquisition can be performed by using the camera 31 on the interacting device 3, and if there are multiple users within the shooting area 32, for example. Whether the opening and closing operation of the mouth is performed during the reception processing of the audio message, and whether the moment when the operation occurs is consistent with the moment when the signal change of the audio message occurs. A user having a facial movement that matches the audio message with reference to the user's facial movement, such as, is determined as the source user of the audio message.

一実施形態において、画像の取得は、相互作用の装置3上のカメラ31を使用することにより、実行することができると共に、撮影エリア32内に複数のユーザーが存在している場合には、マイクロフォン36及び37によって判定されたオーディオメッセージのソース方向が左側であるか、右側であるか、或いは、中間であるか、を参照して、対応する方向に対応するユーザーをオーディオメッセージのソースユーザーとして判定することができる。同一の方向において更に複数のユーザーが存在している場合には、ユーザーの顔面アクションを参照して、オーディオメッセージとマッチングする顔面動作を有するユーザーを選別することができると共に、オーディオメッセージのソースユーザーとして判定することができる。 In one embodiment, image acquisition can be performed by using the camera 31 on the interacting device 3, and if there are multiple users in the shooting area 32, the microphone. The user corresponding to the corresponding direction is determined as the source user of the audio message by referring to whether the source direction of the audio message determined by 36 and 37 is the left side, the right side, or the middle. can do. If there are more than one user in the same direction, the user's facial actions can be referenced to select users with facial movements that match the audio message and as the source user for the audio message. It can be determined.

図18は、例示用の一実施形態による、ユーザー音声のソースユーザーのマーキングの概略図である。図18に示されているように、ユーザー「Xiao Bai」がユーザー音声のソースユーザーとして判定されたと仮定することにより、撮影エリア32内のユーザーが、後続の相互作用プロセスにおいてエラーが発生しないことを保証するべく、相互作用の装置3がユーザー音声のソースユーザーを正確に認識しているかどうかを迅速に判定するように、相互作用の装置3は、オリジナルのカラフルモードにおいて、プロファイル画像1401を表示することができると共に、表示するべくその他のユーザーに対応するプロファイル1402及びこれに類似したものをモノクロ化することができる。 FIG. 18 is a schematic diagram of a user voice source user marking according to an exemplary embodiment. As shown in FIG. 18, by assuming that the user "Xiao Byi" is determined as the source user of the user voice, the user in the shooting area 32 does not generate an error in the subsequent interaction process. To ensure, the interaction device 3 displays the profile image 1401 in the original colorful mode so as to quickly determine if the interaction device 3 accurately recognizes the source user of the user voice. At the same time, the profile 1402 corresponding to other users and the like can be monochromeized for display.

一実施形態において、相互作用の装置3がユーザー音声を認識する際には、ソースユーザーのアクセント、外部環境の過剰なノイズ、或いは、サウンドピックアッププロセスにおいて発生する歪などの、好ましくないファクタのすべてが、相互作用の装置3のセマンティック認識の精度に対して影響を及ぼす。従って、認識プロセスにおいて、相互作用の装置3は、それぞれの候補セマンティック認識結果を採点することができる。相互作用の装置3は、そのコンフィデンスレベルが相対的に低い(例えば、予め設定されたスコア未満である)候補セマンティック認識結果を直接的に破棄することができる。そのコンフィデンスレベルが相対的に高い(例えば、予め設定されたスコア超である)候補セマンティック認識結果の数が1である場合には、候補セマンティック認識結果をセマンティック認識結果として直接的に使用することができる。そのコンフィデンスレベルが相対的に高い候補セマンティック認識結果の数が1超である場合には、相互作用の装置3は、ソースユーザーに、ソースユーザー「Xiao Bai」が選択及び確認するように、例えば、図18の選択肢1801「1.15人用の会議室を予約する必要があります」及び選択肢1802「2.45人用の会議室を予約する必要があります」などの、そのコンフィデンスレベルが相対的に高い候補セマンティック認識結果に対応する候補セマンティック認識結果選択肢を表示することができる。 In one embodiment, when the interacting device 3 recognizes the user voice, all of the unfavorable factors such as source user accents, excessive noise in the external environment, or distortions that occur in the sound pickup process. , Affects the accuracy of the semantic recognition of the interacting device 3. Therefore, in the recognition process, the interaction device 3 can score each candidate semantic recognition result. The interaction device 3 can directly discard candidate semantic recognition results whose confidence level is relatively low (eg, less than a preset score). If the number of candidate semantic recognition results with a relatively high confidence level (eg, greater than a preset score) is 1, then the candidate semantic recognition results can be used directly as the semantic recognition results. can. If the number of candidate semantic recognition results with a relatively high confidence level is greater than one, the interacting device 3 asks the source user to select and confirm, for example, the source user "Xiao Bai". Their confidence levels are relatively high, such as option 1801 "must reserve a conference room for 1.15 people" and option 1802 "must reserve a conference room for 2.45 people" in Figure 18. Candidate semantic recognition result choices corresponding to high candidate semantic recognition results can be displayed.

例えば、ユーザー「Xiao Bai」は、選択肢1801が選択されたことを相互作用の装置3に通知するべく、「第1のもの」、「前者」、又は「15人のもの」などのコンテンツを含む確認音声を送信することができる。この結果、相互作用の装置3は、ユーザー音声に対応するセマンティック認識結果が「15人用の会議室を予約する必要があります」であると判定することができると共に、例えば、関連する会議室の予約の完了においてユーザー「Xiao Bai」を支援するなどのように、ユーザー音声に更に応答することができる。 For example, the user "Xiao Byi" includes content such as "first", "former", or "15" to notify the interacting device 3 that option 1801 has been selected. A confirmation voice can be sent. As a result, the interacting device 3 can determine that the semantic recognition result corresponding to the user voice is "a conference room for 15 people needs to be reserved", and for example, in a related conference room. It is possible to further respond to the user's voice, such as assisting the user "Xiao Byi" in completing the reservation.

図19は、例示用の一実施形態による、装置の概略構造図である。図19を参照すれば、ハードウェアレベルにおいて、装置は、プロセッサ1902と、内部バス1904と、ネットワークインターフェイス1906と、内部メモリ1908と、不揮発性メモリ1910と、を含んでおり、且つ、当然のことながら、その他のサービスに必要とされるハードウェアを更に含みうる。プロセッサ1902は、ロジックレベルにおいて相互作用の装置を形成するべく、不揮発性メモリ1910から内部メモリ1908に、対応するコンピュータプログラムを読み込み、且つ、次いで、コンピュータプログラムを実行している。当然のことながら、ソフトウェア実装形態に加えて、本明細書の1つ又は複数の実施形態は、例えば、論理装置又はソフトウェア−ハードウェアの組合せなどの、その他の実装形態を排除するものではない。換言すれば、以下の処理手順の実行体は、論理ユニットに限定されるものではなく、且つ、その代わりに、ハードウェア又は論理装置であってもよい。 FIG. 19 is a schematic structural diagram of an apparatus according to an exemplary embodiment. Referring to FIG. 19, at the hardware level, the device includes a processor 1902, an internal bus 1904, a network interface 1906, an internal memory 1908, and a non-volatile memory 1910, and of course. However, it may further include the hardware required for other services. Processor 1902 reads the corresponding computer program from the non-volatile memory 1910 into the internal memory 1908 and then executes the computer program in order to form a device of interaction at the logic level. Of course, in addition to the software implementation, one or more embodiments herein do not preclude other implementations, such as, for example, a logical device or software-hardware combination. In other words, the execution body of the following processing procedure is not limited to the logical unit, and may be hardware or a logical device instead.

図20を参照すれば、ソフトウェア実装形態において、相互作用の装置は、
検知エリア内において配置された1人又は複数のユーザーを検出するように構成された検出ユニット2001と、
相互作用コンテンツを検知エリア内の1人又は複数のユーザーに提供するように構成された提供ユニット2002と、
相互作用コンテンツのターゲット相互作用オブジェクトが検知エリア内の1人又は複数のユーザーの一部分である際に、ターゲット相互作用オブジェクトに関する情報を検知エリア内の1人又は複数のユーザーに表示するように構成された第1表示ユニット2003と、
を含みうる。
Referring to FIG. 20, in the software implementation, the interacting device is
A detection unit 2001 configured to detect one or more users placed in the detection area, and
A providing unit 2002 configured to provide interaction content to one or more users in the detection area.
When the target interaction object of the interaction content is part of one or more users in the detection area, it is configured to display information about the target interaction object to one or more users in the detection area. First display unit 2003 and
Can be included.

任意選択により、第1表示ユニット2003は、
ターゲット相互作用オブジェクトとして機能するユーザーのアイデンティティ情報をターゲット相互作用オブジェクトに関する情報として判定し、且つ、
アイデンティティ情報を検知エリア内の1人又は複数のユーザーに表示する、
ように構成されている。
By arbitrary selection, the first display unit 2003
The identity information of the user who functions as the target interaction object is determined as the information about the target interaction object, and
Display identity information to one or more users in the detection area,
It is configured as follows.

任意選択により、相互作用の装置は、
検知エリア内に配置された1人又は複数のユーザーを識別するように構成された識別ユニット2004を更に含み、この場合に、
ターゲット相互作用オブジェクトとして機能している第1ユーザーのアイデンティティが成功裏に識別された際に、第1ユーザーのアイデンティティ情報は、第1ユーザーの名称を含み、且つ、ターゲット相互作用オブジェクトとして機能している第2ユーザーのアイデンティティが成功裏に識別されない際には、第2ユーザーのアイデンティティ情報は、第2ユーザーに関する視覚的特徴記述情報を含む。
By arbitrary option, the device of interaction is
It further includes an identification unit 2004 configured to identify one or more users located within the detection area, in this case.
When the identity of the first user acting as the target interaction object is successfully identified, the identity information of the first user includes the name of the first user and acts as the target interaction object. If the identity of the second user is not successfully identified, the identity information of the second user includes visual feature description information about the second user.

任意選択により、相互作用の装置は、
検知エリア内の1人又は複数のユーザーに対応するユーザー基準情報を表示するように構成された第2表示ユニット2005を更に含み、この場合に、
第1表示ユニット2003は、ターゲット相互作用オブジェクトに関する情報としてターゲット相互作用オブジェクトとして機能しているユーザーに対応するユーザー基準情報を判定し、且つ、判定されたユーザー基準情報を検知エリア内の1人又は複数のユーザーに目立つように表示するように構成されている。
By arbitrary option, the device of interaction is
It further includes a second display unit 2005 configured to display user reference information corresponding to one or more users in the detection area, in this case.
The first display unit 2003 determines the user reference information corresponding to the user functioning as the target interaction object as the information regarding the target interaction object, and determines the determined user reference information as one person in the detection area or one person in the detection area. It is configured to be prominently displayed to multiple users.

任意選択により、第2表示ユニット2005は、
検知エリア内の1人又は複数のユーザーに対して画像取得を実行し、且つ、ユーザー基準情報として1つ又は複数の取得されたユーザー画像を表示するように構成されている。
By arbitrary selection, the second display unit 2005 may be
It is configured to perform image acquisition for one or more users in the detection area and display one or more acquired user images as user reference information.

任意選択により、相互作用の装置は、
相互作用コンテンツのターゲット相互作用オブジェクトが、検知エリア内の1人又は複数のユーザーの一部分から、すべての1人又は複数のユーザーに変化した際に、ターゲット相互作用オブジェクトに関する情報を検知エリア内の1人又は複数のユーザーに表示するステップを一時停止するように構成された管理ユニット2006、
を更に含む。
By arbitrary option, the device of interaction is
When the target interaction object of the interaction content changes from a part of one or more users in the detection area to all one or more users, the information about the target interaction object is one in the detection area. Management Unit 2006, configured to pause the steps displayed to a person or multiple users,
Further includes.

任意選択により、相互作用の装置は、
検知エリア内のユーザーによって送信されたイベント支援要求を取得するように構成された要求取得ユニット2007と
イベント支援要求に応答して、対応するイベントの完了を支援するように構成された支援ユニット2008と、
を更に含む。
By arbitrary option, the device of interaction is
A request acquisition unit 2007 configured to acquire event assistance requests sent by users in the detection area and a support unit 2008 configured to respond to event assistance requests and assist in completing the corresponding event. ,
Further includes.

任意選択により、要求取得ユニット2007は、
相互作用コンテンツに応答して検知エリア内のユーザーによって返された応答情報を受け取るように構成されており、この場合に、応答情報は、イベント支援要求を含む。
By optional option, the request acquisition unit 2007
It is configured to receive the response information returned by the user in the detection area in response to the interaction content, in which case the response information includes an event support request.

任意選択により、要求取得ユニット2007は、
検知エリア内に複数のユーザーが存在している際に、予め設定された順番に従って、支援されるオブジェクトとしてユーザーを選択し、且つ、
対応するイベント支援要求を送信するように、選択されたユーザーに順番に要求する、
ように構成されている。
By optional option, the request acquisition unit 2007
When there are multiple users in the detection area, the user is selected as the supported object according to the preset order, and the user is selected.
Request the selected users in turn to send the corresponding event support request,
It is configured as follows.

任意選択により、要求取得ユニット2007は、
イベント支援要求を取得するべく、取得されたユーザー音声に対してセマンティック認識を実行し、且つ、
ユーザー音声のソースユーザーを判定するべく、ユーザー音声に対してサウンド特徴認識を実行する、
ように構成されている。
By optional option, the request acquisition unit 2007
In order to acquire the event support request, semantic recognition is executed for the acquired user voice, and
Perform sound feature recognition on the user voice to determine the source user of the user voice,
It is configured as follows.

任意選択により、支援ユニット2008は、
検知エリア内のユーザーが、グループの内部者である際に、イベント支援要求に応答して、対応するグループ管理イベントの完了を支援し、
検知エリア内のユーザーが、グループの外部者である際に、アラートメッセージをグループの関連する内部者に送信し、グループの関連する内部者との間の通信の確立においてグループの外部者を支援し、或いは、イベント支援要求に応答して、グループの外部者を訪問イベントの処理場所までガイドし、且つ、
検知エリア内のユーザーがアドミニストレータである際に、イベント支援要求に応答して、対応する装置管理イベントの完了を支援する、
ように構成されている。
By arbitrary option, the support unit 2008
When a user in the detection area is an insider of a group, it responds to event support requests and assists in completing the corresponding group management event.
When a user in the detection area is an outsider of the group, it sends an alert message to the relevant insider of the group to assist the outsider of the group in establishing communication with the relevant insider of the group. Or, in response to an event support request, guide outsiders of the group to the processing location of the visit event, and
When the user in the detection area is an administrator, it responds to the event support request and assists in completing the corresponding device management event.
It is configured as follows.

任意選択により、検知エリアは、近距離検知エリアと、遠距離検知エリアと、を含み、且つ、提供ユニット2002は、
相互作用コンテンツを近距離検知エリア内のユーザーに提供し、且つ、
遠距離検知エリアから近距離検知エリアに進入するように、ユーザーをガイドするべく、遠距離検知エリア内のユーザーにガイダンス情報を送信する、
ように構成されている。
By arbitrary selection, the detection area includes a short-distance detection area and a long-distance detection area, and the providing unit 2002 includes.
Provides interaction content to users within the short range detection area and
Send guidance information to users in the long-distance detection area to guide them to enter the short-range detection area from the long-range detection area.
It is configured as follows.

任意選択により、相互作用の装置は、
検知エリア内の1人又は複数のユーザーの関連するイベントを取得するように構成されたイベント取得ユニット2009を更に含み、この場合に、
提供ユニット2002は、相互作用コンテンツが関連するイベントに関係付けられている際に、関連するイベントの状態情報に従って、検知エリア内の1人又は複数のユーザーに提供される相互作用コンテンツを調節するように構成されている。
By arbitrary option, the device of interaction is
It further includes an event acquisition unit 2009 configured to acquire related events for one or more users in the detection area, in this case.
When the interaction content is associated with a related event, the serving unit 2002 is to adjust the interaction content provided to one or more users in the detection area according to the state information of the related event. It is configured in.

任意選択により、相互作用の装置は、
検知エリア内の1人又は複数のユーザーのアイデンティティタイプを判定するように構成された判定ユニット2010を更に含み、この場合に、
提供ユニット2002は、アイデンティティタイプに従って、検知エリア内の1人又は複数のユーザーに提供される相互作用コンテンツを調節するように構成されている。
By arbitrary option, the device of interaction is
Further including a determination unit 2010 configured to determine the identity type of one or more users in the detection area, in this case.
The delivery unit 2002 is configured to adjust the interaction content provided to one or more users in the detection area according to the identity type.

任意選択により、相互作用の装置は、
検知エリア内のユーザーによって送信されたユーザー音声を受け取るように構成された音声受信ユニット2011と、
ユーザー音声に応答するように構成された応答ユニット2012と、
を更に含む。
By arbitrary option, the device of interaction is
A voice receiving unit 2011 configured to receive user voice transmitted by a user in the detection area, and
A response unit 2012 configured to respond to user voice,
Further includes.

任意選択により、応答ユニット2012は、
セマンティック認識をユーザー音声に対して実行し、
複数のセマンティック認識結果のコンフィデンスレベルが、予め設定された値に到達した際に、複数の対応するセマンティック認識結果選択肢を検知エリア内のユーザーに表示し、
選択されたセマンティック認識結果選択肢に対応するセマンティック認識結果に従って、ユーザー音声に応答する、
ように構成されている。
By optional option, the response unit 2012
Perform semantic recognition on user voice,
When the confidence level of multiple semantic recognition results reaches a preset value, multiple corresponding semantic recognition result choices are displayed to the user in the detection area.
Responds to the user's voice according to the semantic recognition result corresponding to the selected semantic recognition result choice.
It is configured as follows.

任意選択により、応答ユニット2012は、
ユーザー音声のソース方向を判定し、且つ、
ユーザー音声のソース方向において配置されているユーザーに応答する、
ように構成されている。
By optional option, the response unit 2012
Determine the source direction of the user voice, and
Respond to the user placed in the source direction of the user's voice,
It is configured as follows.

任意選択により、応答ユニット2012は、
マイクロフォンアレイを使用することにより、ユーザー音声を受け取るステップであって、マイクロフォンアレイは、相対的に左側に配設された第1マイクロフォンと、相対的に右側に配設された第2マイクロフォンと、を含む、ステップと、
第1マイクロフォン及び第2マイクロフォンがユーザー音声を受け取る時点の間の差に従って、ユーザー音声のソース方向を判定するステップと、
という方式により、ユーザー音声のソース方向を判定している。
By optional option, the response unit 2012
In the step of receiving the user voice by using the microphone array, the microphone array has a first microphone arranged on the relatively left side and a second microphone arranged on the relatively right side. Including, steps and
A step of determining the source direction of the user voice according to the difference between the time points when the first microphone and the second microphone receive the user voice, and
The source direction of the user voice is determined by the method.

任意選択により、応答ユニット2012は、
ユーザー音声のソース方向において配置されている複数のユーザーが存在している際に、複数のユーザーのそれぞれのものの顔面動作に従って、ユーザー音声のソースユーザーを判定するステップと、
ソースユーザーに応答するステップと、
という方式により、ユーザー音声のソース方向において配置されているユーザーに応答している。
By optional option, the response unit 2012
When there are multiple users placed in the source direction of the user voice, the step of determining the source user of the user voice according to the facial movement of each of the multiple users,
Steps to respond to the source user,
By this method, it responds to the user who is placed in the direction of the source of the user voice.

任意選択により、相互作用の装置は、
マイクロフォンアレイを使用することにより、オーディオメッセージを受け取るように構成されたオーディオ受信ユニット2013であって、マイクロフォンアレイは、相対的に検知エリアに近接して配設された第3マイクロフォンと、検知エリアから相対的に離れて配設された第4マイクロフォンと、を含む、オーディオ受信ユニットと、
第3マイクロフォン及び第4マイクロフォンがオーディオメッセージ内の高周波数部分を受け取る量に従って、オーディオメッセージのソース方向を判定するように構成された方向判定ユニット2014と、
ソース方向が検知エリアに相対的に近接した側であり、且つ、検知エリア内にユーザーが存在している際に、オーディオメッセージが検知エリア内のユーザーによって送信されたユーザー音声であると判定するように構成されたソース判定ユニット2015と、
を更に有する。
By arbitrary option, the device of interaction is
An audio receiving unit 2013 configured to receive audio messages by using a microphone array, the microphone array is from a third microphone disposed relatively close to the detection area and from the detection area. An audio receiving unit, including a fourth microphone disposed relatively apart, and
A directional determination unit 2014 configured to determine the source orientation of an audio message according to the amount by which the third and fourth microphones receive a high frequency portion of the audio message.
When the source direction is relatively close to the detection area and the user is in the detection area, it is determined that the audio message is the user voice transmitted by the user in the detection area. Source determination unit 2015 configured in
Further have.

任意選択により、相互作用の装置は、
検知エリア内に複数のユーザーが存在している際に、それぞれ、ユーザーに対応するプロファイル画像を表示するように構成されたプロファイル画像表示ユニット2016と、
その他のユーザーのプロファイル画像とは別個に、ユーザー音声のソースユーザーのプロファイル画像を表示するように構成された別個表示ユニット2017と、
を更に含む。
By arbitrary option, the device of interaction is
When there are multiple users in the detection area, the profile image display unit 2016 configured to display the profile image corresponding to each user, and
A separate display unit 2017 configured to display the user's voice source user's profile image separately from the other user's profile images.
Further includes.

上述の実施形態において記述されているシステム、装置、モジュール、又はユニットは、コンピュータチップ又はエンティティによって実装することが可能であり、或いは、特定の機能を有する製品により、実装することができる。通常の実装装置は、コンピュータである。コンピュータの形態は、PC、ラップトップコンピュータ、セルラー電話機、カメラ電話機、スマートフォン、パーソナルデジタルアシスタント、メディアプレーヤー、ナビゲーション装置、電子メールトランシーバ装置、ゲームコンソール、タブレットコンピュータ、ウェアラブル装置、又はこれらの任意の組合せであってよい。 The systems, devices, modules, or units described in the above embodiments can be implemented by computer chips or entities, or by products with specific functionality. A typical mounting device is a computer. Computers can be in the form of PCs, laptop computers, cellular phones, camera phones, smartphones, personal digital assistants, media players, navigation devices, email transceiver devices, game consoles, tablet computers, wearable devices, or any combination thereof. It may be there.

通常の構成において、コンピュータは、(CPUなどの)1つ又は複数のプロセッサ、入出力インターフェイス、ネットワークインターフェイス、及び内部メモリを含む。 In a normal configuration, a computer includes one or more processors (such as a CPU), input / output interfaces, network interfaces, and internal memory.

内部メモリは、揮発性メモリ、ランダムアクセスメモリ(RAM:Random Access Memory)、並びに/或いは、例えば、読み出し専用メモリ(ROM:Read−Only Memory)又はフラッシュRAMなどのコンピュータ可読媒体内の不揮発性メモリなどの形態を含みうる。内部メモリは、コンピュータ可読媒体の一例である。 Internal memory includes volatile memory, random access memory (RAM: Random Access Memory), and / or, for example, read-only memory (ROM: Read-Only Memory) or non-volatile memory in a computer-readable medium such as a flash RAM. May include the form of. Internal memory is an example of a computer-readable medium.

コンピュータ可読媒体は、永久的媒体及び非永久的媒体、着脱自在の媒体及び非着脱自在の媒体を含み、これらは、任意の方法又は技術を使用することにより、情報の保存を実装しうる。情報は、コンピュータ可読命令、データ構造、プログラムモジュール、又はその他のデータであってよい。コンピュータのストレージ媒体の例は、限定を伴うことなしに、相変化メモリ(PRAM)、スタティックランダムアクセスメモリ(SRAM:Static Random−Access Memory)、ダイナミックランダムアクセスメモリ(DRAM:Dynamic Random Access Memory)、別のタイプのRAM、ROM、電気的に消去可能なプログラム可能な読み出し専用メモリ(EEPROM:Electricallyy Erasable Programmable Read−Only Memory)、フラッシュメモリ又は別のメモリ技術、コンパクトディスク読み出し専用メモリ(CD−ROM:Compact Disc Read−Only Memory)、デジタルバーサタイルディスク(DVD:Digital Versatile Disc)又は別の光ストレージ装置、カセットテープ、ディスクストレージ、量子メモリ、グラフェンに基づいたストレージ媒体又は別の磁気ストレージ装置、或いは、任意のその他の非送信媒体を含み、これらは、演算装置によってアクセスされうる情報を保存するように構成することができる。本明細書における定義によれば、コンピュータ可読媒体は、変調されたデータ信号及び搬送波などの、一時的なコンピュータ可読媒体(一時的媒体)を含んではいない。 Computer-readable media include permanent and non-permanent media, removable and non-removable media, which may implement storage of information by using any method or technique. The information may be computer readable instructions, data structures, program modules, or other data. Examples of computer storage media are, without limitation, phase change memory (PRAM), static random access memory (SRAM: Static Random-Access Memory), dynamic random access memory (DRAM: Dynamic Random Access Memory), and the like. Types of RAM, ROM, electrically erasable programmable read-only memory (EEPROM), flash memory or another memory technology, compact disk read-only memory (CD-ROM: Compact) Disc Read-Only Memory), Digital Versatile Disk (DVD) or another optical storage device, cassette tape, disk storage, quantum memory, graphene-based storage medium or another magnetic storage device, or any Other non-transmitting media are included, which can be configured to store information accessible by the arithmetic unit. By definition herein, a computer-readable medium does not include a temporary computer-readable medium (temporary medium) such as a modulated data signal and a carrier wave.

又、「含む(include)」、「有する(comprise)」という用語、並びに、任意のその他の変形は、非排他的包含をカバーすることを意味していることに留意されたい。これにより、一連の要素を含むプロセス、方法、物品、又は装置は、それらの要素を含むのみならず、明瞭に列挙されてはいないその他の要素をも含み、或いは、プロセス、方法、物品、又は装置の固有の要素を更に含む。更なる限定を伴うことなしに、「1つの〜を含む(include one...)」というフレーズによって定義されている要素は、その要素を含むプロセス、方法、物品、又は装置内におけるその他の同一の要素を排除するものではない。 It should also be noted that the terms "include", "comprise", and any other variation are meant to cover non-exclusive inclusion. Thereby, a process, method, article, or device comprising a set of elements may include not only those elements, but also other elements not explicitly listed, or the process, method, article, or device. It further includes the unique elements of the device. Without further limitation, an element defined by the phrase "include one ..." is any other identical within the process, method, article, or device that contains the element. It does not exclude the element of.

以上においては、本明細書のいくつかの実施形態が記述されている。その他の実施形態も、添付の請求項の範囲に含まれている。いくつかの状況において、請求項において記録されている動作又はステップは、実施形態におけるものとは異なる順序において実行することができると共に、予想される結果を依然として実現することができる。これに加えて、添付の図面において描かれているプロセスは、必ずしも、予想される結果を実現するべく、特定の順序又は連続的な順序を必要としてはいない。いくつかの実装形態においては、マルチタスク処理及び並列処理が実行可能又は有益でありうる。 In the above, some embodiments of the present specification are described. Other embodiments are also included in the appended claims. In some situations, the actions or steps recorded in the claims can be performed in a different order than in the embodiments, and the expected results can still be achieved. In addition to this, the processes depicted in the accompanying drawings do not necessarily require a particular order or sequential order to achieve the expected results. In some implementations, multitasking and parallelism can be feasible or informative.

本明細書の1つ又は複数の実施形態において使用されている用語は、実施形態を説明するべく使用されているものに過ぎず、且つ、本明細書の1つ又は複数の実施形態を限定することを意図したものではない。又、本明細書の1つ又は複数の実施形態及び添付の請求項において使用されている単数形の「1つの(a)」、「その(the)」、及び「前記(said)」は、その他の意味が文脈において明瞭に通知されていない限り、複数形を含むことを意図している。又、本明細書において使用されている「及び/又は(and/or)」という用語は、1つ又は複数の関連する列挙されている項目の任意の且つすべての可能な組合せを含むことを理解されたい。 The terms used in one or more embodiments herein are merely those used to describe the embodiments and limit one or more embodiments herein. It wasn't intended. Also, the singular forms "one (a)", "the", and "said" as used in one or more embodiments and the accompanying claims herein are. It is intended to include the plural unless other meanings are clearly communicated in the context. It is also understood that the term "and / or" as used herein includes any and all possible combinations of one or more related listed items. I want to be.

「第1の(first)」、「第2の(second)」、「第3の(third)」という用語、並びに、これらに類似したものが、本明細書の1つ又は複数の実施形態において様々な情報を記述するべく使用されている場合があるが、このような情報は、これらの用語に限定されてはならないことを理解されたい。これらの用語は、同一のタイプの情報の間を弁別するべく使用されているものに過ぎない。例えば、本明細書の1つ又は複数の実施形態の範囲から逸脱することなしに、第1情報は、第2情報と呼称されてもよい。同様に、第2情報も、第1情報と呼称されてもよい。文脈に応じて、本明細書において使用されている「もし〜である場合には(if)」という用語は、「〜の際に(when...)」又は「〜の際に(upon...)」、或いは、「〜と判定することに応答して(in response to determining)」として解釈することができる。 The terms "first", "second", "third", and the like, are used in one or more embodiments herein. It may be used to describe various information, but it should be understood that such information should not be limited to these terms. These terms are only used to discriminate between the same type of information. For example, the first information may be referred to as the second information without departing from the scope of one or more embodiments herein. Similarly, the second information may also be referred to as the first information. Depending on the context, the term "if" as used herein is "when ..." or "when (upon.)". It can be interpreted as "...)" or "in response to determining".

以上の説明は、本明細書の1つ又は複数の実施形態の例示用の実施形態に過ぎず、且つ、本明細書の1つ又は複数の実施形態を限定することを意図したものではない。本明細書の1つ又は複数の実施形態の精神及び原理内において実施される任意の変更、均等な置換、又は改善は、本明細書の1つ又は複数の実施形態の保護範囲に含まれるものとする。 The above description is merely an exemplary embodiment of one or more embodiments herein and is not intended to limit one or more embodiments of this specification. Any changes, equal replacements, or improvements made within the spirit and principles of one or more embodiments herein are within the scope of protection of one or more embodiments herein. And.

Claims (42)

相互作用の方法であって、
検知エリア内において配置された1人又は複数のユーザーを検出するステップと、
相互作用コンテンツを前記検知エリア内の前記1人又は複数のユーザーに提供するステップと、
前記相互作用コンテンツのターゲット相互作用オブジェクトが前記検知エリア内の前記1人又は複数のユーザーの一部分である際に、前記ターゲット相互作用オブジェクトに関する情報を前記検知エリア内の前記1人又は複数のユーザーに表示するステップと、
を有する方法。
It ’s a method of interaction,
A step to detect one or more users placed in the detection area,
The step of providing the interaction content to the one or more users in the detection area, and
When the target interaction object of the interaction content is part of the one or more users in the detection area, information about the target interaction object is given to the one or more users in the detection area. Steps to display and
How to have.
前記ターゲット相互作用オブジェクトに関する情報を前記検知エリア内の前記1人又は複数のユーザーに表示する前記ステップは、
前記ターゲット相互作用オブジェクトとして機能しているユーザーのアイデンティティ情報を前記ターゲット相互作用オブジェクトに関する前記情報として判定するステップと、
前記アイデンティティ情報を前記検知エリア内の前記1人又は複数のユーザーに表示するステップと、
を有する請求項1に記載の方法。
The step of displaying information about the target interaction object to the one or more users in the detection area is
A step of determining the identity information of a user functioning as the target interaction object as the information regarding the target interaction object, and
A step of displaying the identity information to the one or more users in the detection area,
The method according to claim 1.
前記検知エリア内において配置されている前記1人又は複数のユーザーを識別するステップを更に有し、
前記ターゲット相互作用オブジェクトとして機能している第1ユーザーのアイデンティティが成功裏に識別された際に、前記第1ユーザーのアイデンティティ情報は、前記第1ユーザーの名称を有し、且つ、前記ターゲット相互作用オブジェクトとして機能している第2ユーザーのアイデンティティが成功裏に識別されない際に、前記第2ユーザーのアイデンティティ情報は、前記第2ユーザーに関する視覚的特徴記述情報を有する請求項2に記載の方法。
Further comprising a step of identifying the one or more users located within the detection area.
When the identity of the first user functioning as the target interaction object is successfully identified, the identity information of the first user has the name of the first user and the target interaction. The method of claim 2, wherein the identity information of the second user has visual feature description information about the second user when the identity of the second user acting as an object is not successfully identified.
前記検知エリア内の前記1人又は複数のユーザーに対応するユーザー基準情報を表示するステップを更に有し、
前記ターゲット相互作用オブジェクトに関する情報を前記検知エリア内の前記1人又は複数のユーザーに表示する前記ステップは、前記ターゲット相互作用オブジェクトとして機能しているユーザーに対応するユーザー基準情報を前記ターゲット相互作用オブジェクトに関する前記情報として判定するステップと、前記判定されたユーザー基準情報を前記検知エリア内の前記1人又は複数のユーザーに目立つように表示するステップと、を有する請求項1に記載の方法。
Further having a step of displaying user reference information corresponding to the one or more users in the detection area.
The step of displaying information about the target interaction object to the one or more users in the detection area presents user reference information corresponding to the user acting as the target interaction object to the target interaction object. The method according to claim 1, further comprising a step of determining as the information regarding the above, and a step of displaying the determined user reference information prominently to the one or more users in the detection area.
前記検知エリア内の前記1人又は複数のユーザーに対応するユーザー基準情報を表示する前記ステップは、
画像取得を前記検知エリア内の前記1人又は複数のユーザーに対して実行するステップと、1つ又は複数の取得されたユーザー画像を前記ユーザー基準情報として表示するステップと、を有する請求項4に記載の方法。
The step of displaying the user reference information corresponding to the one or more users in the detection area is
4. The fourth aspect of the present invention includes a step of executing image acquisition for the one or more users in the detection area, and a step of displaying one or a plurality of acquired user images as the user reference information. The method described.
前記相互作用コンテンツの前記ターゲット相互作用オブジェクトが、前記検知エリア内の前記1人又は複数のユーザーの前記一部分から、前記1人又は複数のユーザーのすべてに、変化した際に、前記ターゲット相互作用オブジェクトに関する前記情報を前記検知エリア内の前記1人又は複数のユーザーに表示するステップを一時停止するステップを更に有する請求項1に記載の方法。 When the target interaction object of the interaction content changes from said portion of said one or more users in the detection area to all of said one or more users, said target interaction object. The method of claim 1, further comprising a step of suspending the step of displaying the information about the above to the one or more users in the detection area. 前記検知エリア内のユーザーによって送信されたイベント支援要求を取得するステップと、
前記イベント支援要求に応答して、対応するイベントの完了を支援するステップと、
を更に有する請求項1に記載の方法。
The step of acquiring the event support request sent by the user in the detection area, and
In response to the event support request, a step to support the completion of the corresponding event, and
The method according to claim 1, further comprising.
前記検知エリア内のユーザーによって送信されたイベント支援要求を取得する前記ステップは、
前記相互作用コンテンツに応答して前記検知エリア内の前記ユーザーによって返された応答情報を受け取るステップであって、前記応答情報は、前記イベント支援要求を有する、ステップ、
を有する請求項7に記載の方法。
The step of acquiring the event support request transmitted by the user in the detection area is
A step of receiving response information returned by the user in the detection area in response to the interaction content, wherein the response information has the event support request.
The method according to claim 7.
前記検知エリア内のユーザーによって送信されたイベント支援要求を取得する前記ステップは、
前記検知エリア内に複数のユーザーが存在している際に、予め設定された順序に従って、支援されるオブジェクトとしてユーザーを選択するステップと、
対応するイベント支援要求を送信するように、前記選択されたユーザーに順番に要求するステップと、
を有する請求項7に記載の方法。
The step of acquiring the event support request transmitted by the user in the detection area is
When there are multiple users in the detection area, the step of selecting the user as the object to be supported according to the preset order, and
The step of sequentially requesting the selected user to send the corresponding event support request, and
The method according to claim 7.
前記検知エリア内のユーザーによって送信されたイベント支援要求を取得する前記ステップは、
前記イベント支援要求を取得するべく、セマンティック認識を取得されたユーザー音声に対して実行するステップと、
前記ユーザー音声のソースユーザーを判定するべく、サウンド特徴認識を前記ユーザー音声に対して実行するステップと、
を有する請求項7に記載の方法。
The step of acquiring the event support request transmitted by the user in the detection area is
In order to acquire the event support request, a step to be executed for the user voice for which semantic recognition has been acquired, and
A step of performing sound feature recognition on the user voice to determine the source user of the user voice,
The method according to claim 7.
前記イベント支援要求に応答して対応するイベントの完了を支援する前記ステップは、
前記検知エリア内の前記ユーザーがグループの内部者である際に、前記イベント支援要求に応答して対応するグループ管理イベントの完了を支援するステップと、
前記検知エリア内の前記ユーザーが前記グループの外部者である際に、アラートメッセージを前記グループの関連する内部者に送信し、前記グループの前記関連する内部者との間の通信の確立において前記グループの前記外部者を支援し、或いは、前記イベント支援要求に応答して前記グループの前記外部者を訪問イベントの処理場所までガイドするステップと、
前記検知エリア内の前記ユーザーがアドミニストレータである際に、前記イベント支援要求に応答して対応する装置管理イベントの完了を支援するステップと、
を有する請求項7に記載の方法。
The step of responding to the event support request and assisting in completing the corresponding event is
When the user in the detection area is an insider of the group, a step of supporting the completion of the corresponding group management event in response to the event support request, and
When the user in the detection area is an outsider of the group, an alert message is sent to the related insider of the group to establish communication with the related insider of the group. A step of assisting the outsider or guiding the outsider of the group to the processing location of the visit event in response to the event support request.
When the user in the detection area is an administrator, a step of supporting the completion of the corresponding device management event in response to the event support request, and
The method according to claim 7.
前記検知エリアは、近距離検知エリアと、遠距離検知エリアと、を有し、且つ、相互作用コンテンツを前記検知エリア内の前記1人又は複数のユーザーに提供する前記ステップは、
相互作用コンテンツを前記近距離検知エリア内のユーザーに提供するステップと、
前記遠距離検知エリアから前記近距離検知エリアに進入するように、前記ユーザーをガイドするべく、ガイダンス情報を前記遠距離検知エリア内のユーザーに送信するステップと、
を有する請求項1に記載の方法。
The detection area has a short-distance detection area and a long-distance detection area, and the step of providing the interaction content to the one or more users in the detection area is a step.
The step of providing the interaction content to the user in the short range detection area,
A step of transmitting guidance information to a user in the long-distance detection area in order to guide the user so as to enter the short-distance detection area from the long-distance detection area.
The method according to claim 1.
前記検知エリア内の前記1人又は複数のユーザーの関連するイベントを取得するステップを更に有し、
相互作用コンテンツを前記検知エリア内の前記1人又は複数のユーザーに提供する前記ステップは、前記相互作用コンテンツが前記関連するイベントに関係付けられている際に、前記関連するイベントの状態情報に従って、前記検知エリア内の前記1人又は複数のユーザーに提供される前記相互作用コンテンツを調節するステップを有する請求項1に記載の方法。
Further comprising the step of acquiring the relevant event of the one or more users in the detection area.
The step of providing the interaction content to the one or more users in the detection area, according to the state information of the relevant event when the interaction content is associated with the relevant event. The method of claim 1, comprising the step of adjusting the interaction content provided to the one or more users in the detection area.
前記検知エリア内の前記1人又は複数のユーザーのアイデンティティタイプを判定するステップを更に有し、
相互作用コンテンツを前記検知エリア内の前記1人又は複数のユーザーに提供する前記ステップは、前記アイデンティティタイプに従って、前記検知エリア内の前記1人又は複数のユーザーに提供される前記相互作用コンテンツを調節するステップを有する請求項1に記載の方法。
Further comprising a step of determining the identity type of the one or more users in the detection area.
The step of providing the interaction content to the one or more users in the detection area adjusts the interaction content provided to the one or more users in the detection area according to the identity type. The method of claim 1, wherein the method comprises the steps to be performed.
前記検知エリア内のユーザーによって送信されたユーザー音声を受け取るステップと、
前記ユーザー音声に応答するステップと、
を更に有する請求項1に記載の方法。
The step of receiving the user voice transmitted by the user in the detection area,
The step to respond to the user voice and
The method according to claim 1, further comprising.
前記ユーザー音声に応答する前記ステップは、
セマンティック認識を前記ユーザー音声に対して実行するステップと、
複数のセマンティック認識結果のコンフィデンスレベルが、予め設定された値に到達した際に、複数の対応するセマンティック認識結果選択肢を前記検知エリア内の前記ユーザーに表示するステップと、
選択されたセマンティック認識結果選択肢に対応するセマンティック認識結果に従って、前記ユーザー音声に応答するステップと、
を有する請求項15に記載の方法。
The step in response to the user voice
The step of performing semantic recognition on the user voice,
A step of displaying a plurality of corresponding semantic recognition result choices to the user in the detection area when the confidence level of the plurality of semantic recognition results reaches a preset value.
A step that responds to the user voice according to the semantic recognition result corresponding to the selected semantic recognition result option.
The method according to claim 15.
前記ユーザー音声に対して応答する前記ステップは、
前記ユーザー音声のソース方向を判定するステップと、
前記ユーザー音声の前記ソース方向において配置されているユーザーに応答するステップと、
を有する請求項15に記載の方法。
The step in response to the user voice
The step of determining the source direction of the user voice and
A step that responds to a user placed in the source direction of the user voice, and
The method according to claim 15.
前記ユーザー音声のソース方向を判定する前記ステップは、
マイクロフォンアレイを使用することにより、前記ユーザー音声を受け取るステップであって、前記マイクロフォンアレイは、相対的に左側に配設された第1マイクロフォンと、相対的に右側に配設された第2マイクロフォンと、を有する、ステップと、
前記第1マイクロフォン及び前記第2マイクロフォンが前記ユーザー音声を受け取る時点の間の差に従って、前記ユーザー音声の前記ソース方向を判定するステップと、
を有する請求項17に記載の方法。
The step of determining the source direction of the user voice is
In the step of receiving the user voice by using the microphone array, the microphone array includes a first microphone arranged on the relatively left side and a second microphone arranged on the relatively right side. , With steps and
A step of determining the source direction of the user voice according to the difference between the time points when the first microphone and the second microphone receive the user voice.
17. The method according to claim 17.
前記ユーザー音声の前記ソース方向において配置されているユーザーに応答する前記ステップは、
前記ユーザー音声の前記ソース方向において配置されている複数のユーザーが存在している際に、前記複数のユーザーのそれぞれのものの顔面動作に従って、前記ユーザー音声のソースユーザーを判定するステップと、
前記ソースユーザーに応答するステップと、
を有する請求項17に記載の方法。
The step in response to a user placed in the source direction of the user voice is
When there are a plurality of users arranged in the source direction of the user voice, a step of determining the source user of the user voice according to the facial movement of each of the plurality of users.
The steps to respond to the source user and
17. The method according to claim 17.
マイクロフォンアレイを使用することにより、オーディオメッセージを受け取るステップであって、前記マイクロフォンアレイは、前記検知エリアに相対的に近接して配設されている第3マイクロフォンと、前記検知エリアから相対的に離れて配設されている第4マイクロフォンと、を有する、ステップと、
前記第3マイクロフォン及び前記第4マイクロフォンが前記オーディオメッセージ内の高周波数部分を受け取る量に従って、前記オーディオメッセージのソース方向を判定するステップと、
前記ソース方向が、前記検知エリアに相対的に近接した側部であり、且つ、前記検知エリア内においてユーザーが存在している際に、前記オーディオメッセージが、前記検知エリア内の前記ユーザーによって送信されたユーザー音声であると判定するステップと、
を更に有する請求項15に記載の方法。
By using the microphone array, in the step of receiving an audio message, the microphone array is relatively separated from the detection area with a third microphone arranged relatively close to the detection area. With a fourth microphone disposed of, and a step.
A step of determining the source direction of the audio message according to the amount by which the third microphone and the fourth microphone receive a high frequency portion in the audio message.
The audio message is transmitted by the user in the detection area when the source direction is a side portion relatively close to the detection area and a user is present in the detection area. The step to determine that it is the user's voice,
The method according to claim 15, further comprising.
前記検知エリア内に複数のユーザーが存在している際に、それぞれ、前記ユーザーに対応するプロファイル画像を表示するステップと
その他のユーザーのプロファイル画像とは別個に、前記ユーザー音声のソースユーザーのプロファイル画像を表示するステップと、
を更に有する請求項15に記載の方法。
When there are a plurality of users in the detection area, the profile image of the source user of the user voice is separated from the step of displaying the profile image corresponding to the user and the profile image of the other user. Steps to display and
The method according to claim 15, further comprising.
相互作用の装置であって、
検知エリア内において配置されている1人又は複数のユーザーを検出するように構成された検出ユニットと、
相互作用コンテンツを前記検知エリア内の前記1人又は複数のユーザーに提供するように構成された提供ユニットと、
前記相互作用コンテンツのターゲット相互作用オブジェクトが前記検知エリア内の前記1人又は複数のユーザーの一部分である際に、前記ターゲット相互作用オブジェクトに関する情報を前記検知エリア内の前記1人又は複数のユーザーに表示するように構成された第1表示ユニットと、
を有する装置。
It ’s an interaction device,
A detection unit configured to detect one or more users located within the detection area, and
A providing unit configured to provide the interacting content to the one or more users in the detection area.
When the target interaction object of the interaction content is part of the one or more users in the detection area, information about the target interaction object is given to the one or more users in the detection area. The first display unit configured to display and
A device with.
前記第1表示ユニットは、
前記ターゲット相互作用オブジェクトとして機能しているユーザーのアイデンティティ情報を前記ターゲット相互作用オブジェクトに関する前記情報として判定し、且つ、
前記アイデンティティ情報を前記検知エリア内の前記1人又は複数のユーザーに表示する、
ように構成されている請求項22に記載の装置。
The first display unit is
The identity information of the user functioning as the target interaction object is determined as the information regarding the target interaction object, and the information is determined.
Displaying the identity information to the one or more users in the detection area.
22. The apparatus of claim 22.
前記検知エリア内において配置されている前記1人又は複数のユーザーを識別するように構成された識別ユニットを更に有し、
前記ターゲット相互作用オブジェクトとして機能している第1ユーザーのアイデンティティが成功裏に識別された際に、前記第1ユーザーのアイデンティティ情報は、前記第1ユーザーの名称を有し、且つ、前記ターゲット相互作用オブジェクトとして機能している第2ユーザーのアイデンティティが成功裏に識別されない際に、前記第2ユーザーのアイデンティティ情報は、前記第2ユーザーに関する視覚的特徴記述情報を有する請求項23に記載の装置。
Further having an identification unit configured to identify the one or more users located in the detection area.
When the identity of the first user functioning as the target interaction object is successfully identified, the identity information of the first user has the name of the first user and the target interaction. 23. The device of claim 23, wherein the identity information of the second user has visual feature description information about the second user when the identity of the second user acting as an object is not successfully identified.
前記検知エリア内の前記1人又は複数のユーザーに対応するユーザー基準情報を表示するように構成された第2表示ユニットを更に有し、
前記第1表示ユニットは、前記ターゲット相互作用オブジェクトとして機能しているユーザーに対応するユーザー基準情報を前記ターゲット相互作用オブジェクトに関する前記情報として判定し、且つ、前記判定されたユーザー基準情報を前記検知エリア内の前記1人又は複数のユーザーに目立つように表示するように構成されている請求項22に記載の装置。
Further having a second display unit configured to display user reference information corresponding to the one or more users in the detection area.
The first display unit determines the user reference information corresponding to the user functioning as the target interaction object as the information regarding the target interaction object, and determines the determined user reference information in the detection area. 22. The device of claim 22, which is configured to be prominently displayed to the one or more users of the above.
前記第2表示ユニットは、
画像取得を前記検知エリア内の前記1人又は複数のユーザーに対して実行し、且つ、1つ又は複数の取得されたユーザー画像を前記ユーザー基準情報として表示する、
ように構成されている請求項25に記載の装置。
The second display unit is
Image acquisition is performed for the one or more users in the detection area, and one or more acquired user images are displayed as the user reference information.
25. The apparatus of claim 25.
前記相互作用コンテンツの前記ターゲット相互作用オブジェクトが、前記検知エリア内の前記1人又は複数のユーザーの前記一部分から、前記1人又は複数のユーザーのすべてに変化した際に、前記ターゲット相互作用オブジェクトに関する前記情報を前記検知エリア内の前記1人又は複数のユーザーに表示するステップを一時停止するように構成された管理ユニットを更に有する請求項22に記載の装置。 With respect to the target interaction object when the target interaction object of the interaction content changes from said portion of said one or more users in the detection area to all of said one or more users. 22. The apparatus of claim 22, further comprising a management unit configured to suspend the step of displaying the information to the one or more users in the detection area. 前記検知エリア内のユーザーによって送信されたイベント支援要求を取得するように構成された要求取得ユニットと、
前記イベント支援要求に応答して対応するイベントの完了を支援するように構成された支援ユニットと、
を更に有する請求項22に記載の装置。
A request acquisition unit configured to acquire an event support request sent by a user in the detection area, and a request acquisition unit.
A support unit configured to respond to the event support request and assist in the completion of the corresponding event.
22. The device according to claim 22.
前記要求取得ユニットは、
前記相互作用コンテンツに応答して前記検知エリア内の前記ユーザーによって返された応答情報を受け取るように構成されており、前記応答情報は、前記イベント支援要求を有する請求項28に記載の装置。
The request acquisition unit is
28. The device of claim 28, which is configured to receive response information returned by the user in the detection area in response to the interaction content, wherein the response information is the event support request.
前記要求取得ユニットは、
前記検知エリア内において複数のユーザーが存在している際に、予め設定されたシーケンスに従って支援されたオブジェクトとしてユーザーを選択し、且つ、
対応するイベント支援要求を送信するように、前記選択されたユーザーに順番に要求する、
ように構成されている請求項28に記載の装置。
The request acquisition unit is
When a plurality of users exist in the detection area, the user is selected as a supported object according to a preset sequence, and the user is selected.
Requesting the selected users in turn to send the corresponding event support request,
28. The apparatus of claim 28.
前記要求取得ユニットは、
前記イベント支援要求を取得するべく、セマンティック認識を取得されたユーザー音声に対して実行し、且つ、
前記ユーザー音声のソースユーザーを判定するべく、サウンド特徴認識を前記ユーザー音声に対して実行する、
ように構成されている請求項28に記載の装置。
The request acquisition unit is
In order to acquire the event support request, the semantic recognition is executed for the acquired user voice, and
Sound feature recognition is performed on the user voice to determine the source user of the user voice.
28. The apparatus of claim 28.
前記支援ユニットは、
前記検知エリア内の前記ユーザーがグループの内部者である際に、前記イベント支援要求に応答して対応するグループ管理イベントの完了を支援し、
前記検知エリア内の前記ユーザーが前記グループの外部者である際に、アラートメッセージを前記グループの関連する内部者に送信し、前記グループの前記関連する内部者との間の通信の確立において前記グループの前記外部者を支援し、或いは、前記イベント支援要求に応答して、前記グループの前記外部者を訪問イベントの処理場所までガイドし、且つ、
前記検知エリア内の前記ユーザーがアドミニストレータである際に、前記イベント支援要求に応答して対応する装置管理イベントの完了を支援する、
ように構成されている請求項28に記載の装置。
The support unit is
When the user in the detection area is an insider of the group, it assists in completing the corresponding group management event in response to the event support request.
When the user in the detection area is an outsider of the group, an alert message is sent to the related insider of the group to establish communication with the related insider of the group. In response to the event support request, or in response to the event support request, the outsider of the group is guided to the processing place of the visit event, and
When the user in the detection area is an administrator, the device management event corresponding to the event support request is assisted in completing the corresponding device management event.
28. The apparatus of claim 28.
前記検知エリアは、近距離検知エリアと、遠距離検知エリアと、を有し、且つ、前記提供ユニットは、
相互作用コンテンツを前記近距離検知エリア内のユーザーに提供し、且つ、
前記遠距離検知エリアから前記近距離検知エリアに進入するように、前記ユーザーをガイドするべく、ガイダンス情報を前記遠距離検知エリア内のユーザーに送信する、
ように構成されている請求項22に記載の装置。
The detection area has a short-distance detection area and a long-distance detection area, and the providing unit includes.
The interaction content is provided to the users in the short-range detection area, and
Guidance information is transmitted to the user in the long-distance detection area in order to guide the user so as to enter the short-distance detection area from the long-distance detection area.
22. The apparatus of claim 22.
前記検知エリア内の前記1人又は複数のユーザーの関連するイベントを取得するように構成されたイベント取得ユニットを更に有し、
前記提供ユニットは、前記相互作用コンテンツが前記関連するイベントに関係付けられている際に、前記関連するイベントの状態情報に従って前記検知エリア内の前記1人又は複数のユーザーに提供される前記相互作用コンテンツを調節するように構成されている請求項22記載の装置。
Further having an event acquisition unit configured to acquire the related event of the one or more users in the detection area.
The providing unit provides the interaction to the one or more users in the detection area according to the state information of the related event when the interaction content is associated with the related event. 22. The device of claim 22, which is configured to adjust the content.
前記検知エリア内の前記1人又は複数のユーザーのアイデンティティタイプを判定するように構成された判定ユニットを更に有し、
前記提供ユニットは、前記アイデンティティタイプに従って前記検知エリア内の前記1人又は複数のユーザーに提供される前記相互作用コンテンツを調節するように構成されている請求項22に記載の装置。
Further having a determination unit configured to determine the identity type of the one or more users in the detection area.
22. The device of claim 22, wherein the providing unit is configured to regulate the interacting content provided to the one or more users in the detection area according to the identity type.
前記検知エリア内のユーザーによって送信されたユーザー音声を受け取るように構成された音声受信ユニットと、
前記ユーザー音声に応答するように構成された応答ユニットと、
を更に有する請求項22に記載の装置。
A voice receiving unit configured to receive user voice transmitted by a user in the detection area.
A response unit configured to respond to the user voice,
22. The device according to claim 22.
前記応答ユニットは、
セマンティック認識を前記ユーザー音声に対して実行し、
複数のセマンティック認識結果のコンフィデンスレベルが、予め設定された値に到達した際に、複数の対応するセマンティック認識結果選択肢を前記検知エリア内の前記ユーザーに表示し、且つ、
前記選択されたセマンティック認識結果選択肢に対応するセマンティック認識結果に従って前記ユーザー音声に応答する、
ように構成されている請求項36に記載の装置。
The response unit is
Perform semantic recognition on the user voice and
When the confidence level of the plurality of semantic recognition results reaches a preset value, the plurality of corresponding semantic recognition result options are displayed to the user in the detection area, and the plurality of semantic recognition result options are displayed to the user in the detection area.
Responding to the user voice according to the semantic recognition result corresponding to the selected semantic recognition result choice.
36. The apparatus of claim 36.
前記応答ユニットは、
前記ユーザー音声のソース方向を判定し、且つ、
前記ユーザー音声の前記ソース方向において配置されたユーザーに応答する、
ように構成されている請求項36に記載の装置。
The response unit is
The source direction of the user voice is determined, and
Responding to a user placed in the source direction of the user voice,
36. The apparatus of claim 36.
前記応答ユニットは、
マイクロフォンアレイを使用することにより、前記ユーザー音声を受け取るステップであって、前記マイクロフォンアレイは、相対的に左側に配設された第1マイクロフォンと、相対的に右側に配設された第2マイクロフォンと、を有する、ステップと、
前記第1マイクロフォン及び前記第2マイクロフォンが前記ユーザー音声を受け取る時点の間の差に従って前記ユーザー音声の前記ソース方向を判定するステップと、
という方式により、前記ユーザー音声の前記ソース方向を判定している請求項38に記載の装置。
The response unit is
In the step of receiving the user voice by using the microphone array, the microphone array includes a first microphone arranged on the relatively left side and a second microphone arranged on the relatively right side. , With steps and
A step of determining the source direction of the user voice according to the difference between the time points when the first microphone and the second microphone receive the user voice.
38. The apparatus according to claim 38, wherein the source direction of the user voice is determined by the above-mentioned method.
前記応答ユニットは、
前記ユーザー音声の前記ソース方向において配置されている複数のユーザーが存在している際に、前記複数のユーザーのそれぞれのものの顔面動作に従って前記ユーザー音声のソースユーザーを判定するステップと、
前記ソースユーザーに応答するステップと、
という方式により、前記ユーザー音声の前記ソース方向において配置されている前記ユーザーに応答している請求項38に記載の装置。
The response unit is
When there are a plurality of users arranged in the source direction of the user voice, a step of determining the source user of the user voice according to the facial movement of each of the plurality of users.
The steps to respond to the source user and
38. The device according to claim 38, which is arranged in the direction of the source of the user voice and responds to the user.
マイクロフォンアレイを使用することにより、オーディオメッセージを受け取るように構成されたオーディオ受信ユニットであって、前記マイクロフォンアレイは、前記検知エリアに相対的に近接して配設された第3マイクロフォンと、前記検知エリアから相対的に離れて配設された第4マイクロフォンと、を有する、オーディオ受信ユニットと、
前記第3マイクロフォン及び前記第4マイクロフォンが前記オーディオメッセージ内の高周波数部分を受け取る量に従って前記オーディオメッセージのソース方向を判定するように構成された方向判定ユニットと、
前記ソース方向が前記検知エリアに相対的に近接した側部であり、且つ、前記検知エリア内にユーザーが存在している際に、前記オーディオメッセージが、前記検知エリア内の前記ユーザーによって送信されたユーザー音声であると判定するように構成されたソース判定ユニットと、
を更に有する請求項36に記載の装置。
An audio receiving unit configured to receive an audio message by using a microphone array, wherein the microphone array includes a third microphone disposed relatively close to the detection area and the detection. An audio receiver unit, comprising a fourth microphone disposed relatively away from the area.
A direction determination unit configured to determine the source direction of the audio message according to the amount by which the third microphone and the fourth microphone receive a high frequency portion in the audio message.
The audio message was transmitted by the user in the detection area when the source direction was a side portion relatively close to the detection area and the user was present in the detection area. A source determination unit configured to determine that it is a user voice,
36. The device according to claim 36.
前記検知エリア内に複数のユーザーが存在している際に、それぞれ、前記ユーザーに対応するプロファイル画像を表示するように構成されたプロファイル画像表示ユニットと、
その他のユーザーのプロファイル画像とは別個に、前記ユーザー音声のソースユーザーのプロファイル画像を表示するように構成された別個の表示ユニットと、
を更に有する請求項36に記載の装置。
When there are a plurality of users in the detection area, a profile image display unit configured to display a profile image corresponding to the user, and a profile image display unit, respectively.
A separate display unit configured to display the profile image of the source user of the user voice separately from the profile image of the other user.
36. The device according to claim 36.
JP2021525345A 2018-01-30 2019-06-10 Interaction method and equipment Pending JP2021533510A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201810089149 2018-01-30
CN201810806493.6 2018-07-20
CN201810806493.6A CN110096251B (en) 2018-01-30 2018-07-20 Interaction method and device
PCT/CN2019/090504 WO2020015473A1 (en) 2018-01-30 2019-06-10 Interaction method and device

Publications (1)

Publication Number Publication Date
JP2021533510A true JP2021533510A (en) 2021-12-02

Family

ID=67443561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021525345A Pending JP2021533510A (en) 2018-01-30 2019-06-10 Interaction method and equipment

Country Status (5)

Country Link
JP (1) JP2021533510A (en)
CN (1) CN110096251B (en)
SG (1) SG11202100352YA (en)
TW (1) TW202008115A (en)
WO (1) WO2020015473A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111078010B (en) * 2019-12-06 2023-03-14 智语科技(江门)有限公司 Man-machine interaction method and device, terminal equipment and readable storage medium
CN111416871A (en) * 2020-03-27 2020-07-14 乌鲁木齐明华智能电子科技有限公司 Multi-party intelligent remote response mechanism method
CN111986678B (en) * 2020-09-03 2023-12-29 杭州蓦然认知科技有限公司 Voice acquisition method and device for multipath voice recognition
CN112767931A (en) * 2020-12-10 2021-05-07 广东美的白色家电技术创新中心有限公司 Voice interaction method and device
CN115101048B (en) * 2022-08-24 2022-11-11 深圳市人马互动科技有限公司 Science popularization information interaction method, device, system, interaction equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004312513A (en) * 2003-04-09 2004-11-04 Casio Comput Co Ltd Entrance management system and program
JP2012147420A (en) * 2010-12-22 2012-08-02 Ricoh Co Ltd Image processing device and image processing system
JP2012533120A (en) * 2009-07-09 2012-12-20 マイクロソフト コーポレーション Visual display representation method and system based on player representation
WO2016157662A1 (en) * 2015-03-31 2016-10-06 ソニー株式会社 Information processing device, control method, and program

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013080015A (en) * 2011-09-30 2013-05-02 Toshiba Corp Speech recognition device and speech recognition method
CN103095907B (en) * 2012-09-14 2015-06-03 中兴通讯股份有限公司 Method and device capable of changing contact person state by short message in mobile terminal
CN103500473A (en) * 2013-09-04 2014-01-08 苏州荣越网络技术有限公司 Mobile phone punch card system
US9542544B2 (en) * 2013-11-08 2017-01-10 Microsoft Technology Licensing, Llc Correlated display of biometric identity, feedback and user interaction state
CN105590128A (en) * 2016-03-01 2016-05-18 成都怡康科技有限公司 Intelligent card / intelligent hand ring for campus intelligent management evaluation
CN105872685A (en) * 2016-03-24 2016-08-17 深圳市国华识别科技开发有限公司 Intelligent terminal control method and system, and intelligent terminal
CN105856257B (en) * 2016-06-08 2018-09-11 以恒激光科技(北京)有限公司 Intelligent robot suitable for receptionist
CN106161155A (en) * 2016-06-30 2016-11-23 联想(北京)有限公司 A kind of information processing method and master terminal
CN106357871A (en) * 2016-09-29 2017-01-25 维沃移动通信有限公司 Voice amplifying method and mobile terminal
CN106910259A (en) * 2017-03-03 2017-06-30 泸州市众信信息技术有限公司 It is a kind of can the Time Attendance Device checked card of multipath
CN107451544B (en) * 2017-07-14 2018-12-11 深圳云天励飞技术有限公司 Information display method, device, equipment and monitoring system
CN107483493A (en) * 2017-09-18 2017-12-15 广东美的制冷设备有限公司 Interactive calendar prompting method, device, storage medium and intelligent domestic system
CN108037699B (en) * 2017-12-12 2020-04-07 深圳市天颐健康科技有限公司 Robot, control method of robot, and computer-readable storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004312513A (en) * 2003-04-09 2004-11-04 Casio Comput Co Ltd Entrance management system and program
JP2012533120A (en) * 2009-07-09 2012-12-20 マイクロソフト コーポレーション Visual display representation method and system based on player representation
JP2012147420A (en) * 2010-12-22 2012-08-02 Ricoh Co Ltd Image processing device and image processing system
WO2016157662A1 (en) * 2015-03-31 2016-10-06 ソニー株式会社 Information processing device, control method, and program

Also Published As

Publication number Publication date
CN110096251A (en) 2019-08-06
WO2020015473A1 (en) 2020-01-23
TW202008115A (en) 2020-02-16
SG11202100352YA (en) 2021-02-25
CN110096251B (en) 2024-02-27

Similar Documents

Publication Publication Date Title
JP2021533510A (en) Interaction method and equipment
US20220012470A1 (en) Multi-user intelligent assistance
US20210210097A1 (en) Computerized Intelligent Assistant for Conferences
US10083006B1 (en) Intercom-style communication using multiple computing devices
US10642569B2 (en) Methods and devices for identifying object in virtual reality communication, and virtual reality equipment
US11749285B2 (en) Speech transcription using multiple data sources
KR20160127117A (en) Performing actions associated with individual presence
KR20160001690A (en) Do-not-disturb system and apparatus
KR20070029794A (en) A method and a system for communication between a user and a system
JP2007272534A (en) Apparatus, method and program for complementing ellipsis of word
WO2019026617A1 (en) Information processing device and information processing method
WO2022050972A1 (en) Arbitrating between multiple potentially-responsive electronic devices
EP3412036B1 (en) Method for assisting a hearing-impaired person in following a conversation
US20180109571A1 (en) Managing Drop-Ins on Focal Points of Activities
JP4585380B2 (en) Next speaker detection method, apparatus, and program
WO2021217527A1 (en) In-vehicle voice interaction method and device
CN115516553A (en) System and method for multi-microphone automated clinical documentation
WO2020179275A1 (en) Information processing device, information processing method, and information processing program
JP2023180943A (en) Information processing device, information processing method and program
CN118076942A (en) Method and apparatus for initiating an action
WO2022182744A1 (en) Digital assistant interactions in copresence sessions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221206