JP2023093714A - Contact control program, terminal, and contact control method - Google Patents
Contact control program, terminal, and contact control method Download PDFInfo
- Publication number
- JP2023093714A JP2023093714A JP2023073517A JP2023073517A JP2023093714A JP 2023093714 A JP2023093714 A JP 2023093714A JP 2023073517 A JP2023073517 A JP 2023073517A JP 2023073517 A JP2023073517 A JP 2023073517A JP 2023093714 A JP2023093714 A JP 2023093714A
- Authority
- JP
- Japan
- Prior art keywords
- contact
- electronic device
- request
- user
- artificial intelligence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 127
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 152
- 238000012545 processing Methods 0.000 claims abstract description 57
- 230000008569 process Effects 0.000 claims description 93
- 238000004891 communication Methods 0.000 claims description 17
- 230000004044 response Effects 0.000 description 52
- 238000010586 diagram Methods 0.000 description 16
- 230000015654 memory Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 11
- 238000004590 computer program Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 238000012805 post-processing Methods 0.000 description 8
- 238000011161 development Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- HEFNNWSXXWATRW-UHFFFAOYSA-N Ibuprofen Chemical compound CC(C)CC1=CC=C(C(C)C(O)=O)C=C1 HEFNNWSXXWATRW-UHFFFAOYSA-N 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
以下の説明は、個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御技術に関し、より詳細には、音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクト(contact)の要請を、人工知能(Artificial Intelligence:AI)がユーザのスケジュールやライフスタイルを反映して処理することができるコンタクト制御方法、前記コンタクト制御方法を実行するコンピュータ装置、コンピュータと結合してコンタクト制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体に関する。 The following description relates to artificial intelligence contact control technology that reflects personal schedules and lifestyles, and more particularly, contacts communicated to the user from the outside, such as voice calls, video calls, and/or receiving instant messages. A contact control method that allows artificial intelligence (Artificial Intelligence: AI) to process a request for contact by reflecting the user's schedule and lifestyle, a computer device that executes the contact control method, and a computer The present invention relates to a computer program stored in a computer-readable recording medium for causing a computer to execute a contact control method, and the recording medium.
有線または無線通信が可能な電子機器は、音声通話サービスや映像通話サービス、またはインスタントメッセージを送受信するためのサービスなどを利用することで、互いにコンタクトすることができる。このようなコンタクトの要請は、送信側(発信者)から受信側(着信者)に、受信側との合意なく一方的に伝達されることもあるが、このとき伝達されるコンタクトの要請を、受信側のユーザが受け入れることができない状況が存在する。 Electronic devices capable of wired or wireless communication can contact each other by using a voice call service, a video call service, or a service for sending and receiving instant messages. Such a request for contact may be unilaterally transmitted from the sender (originator) to the recipient (called party) without any agreement with the recipient. There are situations that the receiving user cannot accept.
例えば、送信側から受信側に映像通話を試みたものの、受信側のユーザが会議中であるため、このような映像通話の要請には応答できない状況にいるとする。この場合、従来技術では、受信側の電子機器は、映像通話のための要請が伝達されたことを受信側のユーザに知らせるための通知を出力し、受信側のユーザは提供された通知に反応し、映像通話を受諾または拒否するための入力を電子機器で発生させることができた。このとき、電子機器は、発生する入力にしたがって映像通話の実行や拒否を処理することができた。例えば、特許文献1は、移動通信端末機における発信者番号表示および通話拒否方法に関するものであって、コールの発生を感知した場合にキーパッドによる終了キーの入力が感知されれば、受信拒否メニュー項目の設定を検索した後、受信拒否理由メニューを画面表示ウィンドウに表示し、受信拒否理由に対応するキーの入力を感知して該当のキーに対応する文字メッセージや音声メッセージを読み取って発信者に送信した後、前記コールを解除して受信拒否完了を画面表示ウィンドウに表示する技術を開示している。 For example, suppose that the sender attempts to make a video call to the receiver, but cannot respond to the video call request because the user on the receiver is in a meeting. In this case, in the prior art, the receiving electronic device outputs a notification to inform the receiving user that the request for the video call has been delivered, and the receiving user reacts to the provided notification. and the electronic device could generate input to accept or reject the video call. At this time, the electronic device could process the making or rejecting of the video call according to the input generated. For example, Patent Document 1 relates to a caller ID display and call rejection method in a mobile communication terminal. After searching the item settings, the menu of reasons for refusal to receive is displayed on the screen display window, the input of the key corresponding to the reason for refusal to receive is detected, and the text message or voice message corresponding to the key is read and sent to the caller. A technique is disclosed for canceling the call after transmission and displaying reception refusal completion on a screen display window.
しかし、このような従来技術では、送信側のコンタクトの要請を受信側で処理するにあたり、受信側のユーザの直接的な制御あるいはコンタクト要請を処理することに関し、受信側のユーザによって予め設定された設定情報を必要とするという問題がある。例えば、受信拒否のための入力をユーザが直接発生させなければならなかったり、自動受信拒否のための時間帯や条件などに関する情報をユーザが直接設定したりしなければならなかった。言い換えれば、従来技術は、音声コールや映像コール、またはインスタントメッセージの伝達に関する処理を、受信側のユーザの状況に合わせてすべて直接制御しなければならないという問題があった。 However, in such prior art, in processing the contact request of the sending party at the receiving party, there is no direct control of the user of the receiving party, or a setting preset by the user of the receiving party regarding processing the contact request. There is the problem of requiring configuration information. For example, the user had to directly generate an input for rejection of reception, or directly set information regarding the time period and conditions for automatic rejection of reception. In other words, the prior art has the problem that all the processing related to the transmission of voice calls, video calls, or instant messages must be directly controlled according to the situation of the receiving user.
音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクトの要請を、人工知能(Artificial Intelligence:AI)がユーザのスケジュールやライフスタイルを反映して処理することができるコンタクト制御方法、前記コンタクト制御方法を実行するコンピュータ装置、コンピュータと結合してコンタクト制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体を提供する。 Artificial intelligence (AI) processing of external contact requests, such as voice calls, video calls, and/or receiving instant messages, reflecting the user's schedule and lifestyle. a computer device for executing the contact control method, a computer program stored in a computer-readable recording medium for causing the computer to execute the contact control method in combination with a computer, and the recording medium. do.
コンタクト(contact)制御方法であって、ネットワークを介して発信者からコンタクトの要請を受信する段階、前記コンタクトの要請に対して着信者の直接制御が可能であるかを決定する段階、および前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理する段階を含むことを特徴とする。 A contact control method comprising the steps of: receiving a contact request from a caller over a network; determining whether said contact request is directly controllable by a called party; processing the contact by using artificial intelligence to converse with the caller of the contact when direct control of the caller is impossible.
発信者と着信者間のコンタクトのためのサービスを提供するサーバのコンタクト(contact)制御方法であって、ネットワークを介して前記発信者から前記着信者に対するコンタクトの要請を受信する段階、前記コンタクトの要請に対して前記着信者の直接制御が可能であるかを決定する段階、前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理する段階、および前記会話の要約情報を生成して前記着信者に提供する段階を含むことを特徴とする。 A contact control method for a server that provides a service for contact between a caller and a called party, comprising: receiving a contact request from the caller to the called party over a network; determining whether the called party can directly control the request, and if the called party cannot directly control the caller, using artificial intelligence to converse with the caller of the contact to make the contact; and generating and providing summary information of said conversation to said called party.
コンピュータプログラムであって、コンピュータと結合して前記コンタクト制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されることを特徴とする。 The computer program is characterized by being stored in a computer-readable recording medium in order to combine with a computer and cause the computer to execute the contact control method.
コンピュータで読み取り可能な記録媒体であって、前記コンタクト制御方法をコンピュータに実行させるためのプログラムが記録されていることを特徴とする。 A computer-readable recording medium characterized by recording a program for causing a computer to execute the contact control method.
コンピュータ装置であって、コンピュータで読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、ネットワークを介して発信者からコンタクトの要請を受信し、前記コンタクトの要請に対して着信者の直接制御が可能であるかを決定し、前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理することを特徴とする。 A computing device comprising at least one processor implemented to execute computer readable instructions, said at least one processor receiving a request for contact from a caller over a network, and determines whether direct control of the callee is possible in response to the request of the callee, and if the callee cannot be directly controlled, uses artificial intelligence to have a conversation with the caller of the contact to close the contact It is characterized by processing.
発信者と着信者間のコンタクトのためのサービスを提供するコンピュータ装置であって、コンピュータで読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、ネットワークを介して前記発信者から前記着信者に対するコンタクトの要請を受信し、前記コンタクトの要請に対する前記着信者の直接制御が可能であるかを決定し、前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理し、前記会話の要約情報を生成して前記着信者に提供することを特徴とする。 1. A computing device for providing services for contact between a caller and a called party, the device comprising at least one processor implemented to execute computer readable instructions, the at least one processor being connected to a network. receiving a contact request from the caller to the called party via and determining whether the called party can directly control the contact request; and if the called party cannot directly control the contact request, It is characterized by using artificial intelligence to have a conversation with the caller of the contact, process the contact, generate summary information of the conversation and provide it to the called party.
音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクトの要請を、人工知能(Artificial Intelligence:AI)がユーザのスケジュールやライフスタイルを反映して処理することができる。 Artificial intelligence (AI) processing of external contact requests, such as voice calls, video calls, and/or receiving instant messages, reflecting the user's schedule and lifestyle. can be done.
以下、実施形態について、添付の図面を参照しながら詳しく説明する。 Embodiments will be described in detail below with reference to the accompanying drawings.
本発明の実施形態に係るコンタクト制御方法は、以下で説明される電子機器またはサーバのようなコンピュータ装置によって実行されてよい。このとき、コンピュータ装置には、本発明の一実施形態に係るコンピュータプログラムがインストールおよび駆動されてよく、コンピュータ装置は、駆動するコンピュータプログラムの制御にしたがって本発明の一実施形態に係るコンタクト制御方法を実行してよい。上述したコンピュータプログラムは、コンピュータ装置と結合してコンタクト制御方法をコンピュータに実行させるために、コンピュータで読み取り可能な記録媒体に格納されてよい。例えば、電子機器にインストールおよび駆動されたアプリケーションの制御にしたがい、電子機器は、音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクトの要請を、人工知能(Artificial Intelligence:AI)を利用してユーザのスケジュールやライフスタイルを反映して自動で処理してよい。このような処理は、電子機器にインストールおよび駆動されたアプリケーションの制御にしたがって電子機器が自主的に実行してもよいが、実施形態によっては、人工知能の機能を提供するサーバで実行されてもよい。例えば、人工知能は、ユーザが伝達されるコンタクトの要請を処理することができない状況を自動で認識し、認識された状況に基づき、伝達されるコンタクトの要請をユーザの制御を必要とせずに自動で処理してよい。 A contact control method according to embodiments of the present invention may be performed by a computing device such as an electronic device or a server described below. At this time, the computer program according to one embodiment of the present invention may be installed and driven in the computer device, and the computer device executes the contact control method according to one embodiment of the present invention under the control of the computer program to be driven. can be executed. The computer program described above may be stored in a computer-readable recording medium in order to cause the computer to execute the contact control method in combination with the computer device. For example, under the control of an application installed and driven on the electronic device, the electronic device may receive contact requests communicated externally to the user, such as voice calls, video calls, and/or receiving instant messages. (Artificial Intelligence: AI) may be used to automatically process the user's schedule and lifestyle. Such processing may be performed autonomously by the electronic device under the control of an application installed and driven by the electronic device, or may be performed by a server that provides artificial intelligence functionality depending on the embodiment. good. For example, artificial intelligence can automatically recognize situations in which a user is unable to process a communicated contact request, and based on the recognized situation, automatically process a communicated contact request without requiring user control. can be processed with
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。
FIG. 1 is a diagram showing an example of a network environment in one embodiment of the present invention. The network environment of FIG. 1 illustrates an example including multiple
複数の電子機器110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型パンコン、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットなどがある。一例として、図1では、電子機器1(110)の例としてスマートフォンの形状を示しているが、本発明の実施形態において、電子機器1(110)は、実質的に無線または有線通信方式を利用してネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信することのできる多様な物理的なコンピュータ装置のうちの1つを意味してよい。
The plurality of
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を活用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター-バスネットワーク、ツリーまたは階層的(hierarchical)ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。
The communication method is not limited, and not only a communication method that utilizes a communication network that can be included in the network 170 (eg, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network), but also a short distance between devices. Wireless communication may be included. For example, the
サーバ150、160それぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供するコンピュータ装置または複数のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第1サービスを提供するシステムであってよく、サーバ160も、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第2サービスを提供するシステムであってよい。より具体的な例として、サーバ150は、複数の電子機器110、120、130、140にインストールされて駆動するコンピュータプログラムとしてのアプリケーションを通じて該当のアプリケーションが目的とするサービス(一例として、本実施形態に係るコンタクト制御方法を処理するためのサービス、音声通話サービス、映像通話サービス、検索サービス、情報提供サービス、メッセージングサービス、メールサービス、および/またはコンテンツ送信サービスなど)を第1サービスとして複数の電子機器110、120、130、140に提供してよい。他の例として、サーバ160は、上述したアプリケーションのインストールおよび駆動のためのファイルを複数の電子機器110、120、130、140に配布するサービスを第2サービスとして提供してよい。
Each of
図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図2では、電子機器に対する例として電子機器1(110)の内部構成と、サーバ150の内部構成について説明する。また、他の電子機器120、130、140やサーバ160も、上述した電子機器1(110)またはサーバ150と同一または類似の内部構成を有してよい。
FIG. 2 is a block diagram for explaining internal configurations of an electronic device and a server in one embodiment of the present invention. In FIG. 2, the internal configuration of the electronic device 1 (110) and the internal configuration of the
電子機器1(110)とサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、コンピュータで読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永久大容量記憶装置(permanent mass storage device)を含んでよい。ここで、ROMとディスクドライブのような永久大容量格納装置は、メモリ211、221とは区分される別の永久格納装置として電子機器1(110)やサーバ150に含まれてもよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電気機器1(110)にインストールされ駆動するブラウザや特定のサービスを提供するために電子機器1(110)にインストールされたアプリケーションなどのためのコード)が格納されてよい。このようなソフトウェア構成要素は、メモリ211、221とは別のコンピュータで読み取り可能な記録媒体からロードされてよい。このような別のコンピュータで読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータで読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータで読み取り可能な記録媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるコンピュータプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。
Electronic device 1 (110) and
プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記録装置に格納されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。
通信モジュール213、223は、ネットワーク170を介して電子機器1(110)とサーバ150とが互いに通信するための機能を提供してもよいし、電子機器1(110)および/またはサーバ150が他の電子機器(一例として、電子機器2(120))または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、電子機器1(110)のプロセッサ212がメモリ211のような記録装置に格納されたプログラムコードにしたがって生成した要求が、通信モジュール213の制御にしたがってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御にしたがって提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て電子機器1(110)の通信モジュール213を通じて電子機器1(110)に受信されてもよい。例えば、通信モジュール213を通じて受信したサーバ150の制御信号や命令、コンテンツ、ファイルなどは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、電子機器1(110)がさらに含むことのできる格納媒体(上述した永久格納装置)に格納されてよい。
入力/出力インタフェース214は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボードまたはマウスなどの装置を含んでよく、出力装置は、ディスプレイやスピーカのような装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置215は、電子機器1(110)と1つの装置で構成されてもよい。また、サーバ150の入力/出力インタフェース224は、サーバ150と連結するかサーバ150が含むことのできる入力または出力のための装置(図示せず)とのインタフェースのための手段であってよい。より具体的な例として、電子機器1(110)のプロセッサ212がメモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や電子機器2(120)が提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース214を通じてディスプレイに表示されてよい。
Input/output interface 214 may be a means for interfacing with input/
また、他の実施形態において、電子機器1(110)およびサーバ150は、図2の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器1(110)は、上述した入力/出力装置215のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器1(110)がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラモジュール、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が、電子機器1(110)にさらに含まれるように実現されてよい。
Also, in other embodiments, electronic device 1 (110) and
図3は、本発明の一実施形態における、クラウド人工知能プラットフォームの例を示した図である。図3は、電子機器310とクラウド人工知能プラットフォーム320、およびコンテンツ・サービス330を示している。
FIG. 3 is a diagram illustrating an example of a cloud artificial intelligence platform in one embodiment of the present invention. FIG. 3 shows
一例として、電子機器310は、少なくとも上述した複数の電子機器110、120、130、140を含んでよく、このような電子機器310や電子機器310にインストールおよび駆動されるアプリケーション(以下、アプリ)は、インタフェースコネクト340を介してクラウド人工知能プラットフォーム320と連係してよい。一例として、クラウド人工知能プラットフォーム320は、上述したサーバ150を少なくとも含んでよい。ここで、インタフェースコネクト340は、電子機器310や電子機器310にインストールおよび駆動されるアプリの開発のためのSDK(Software Development Kit)および/または開発文書を開発者に提供してよい。また、インタフェースコネクト340は、電子機器310や電子機器310にインストールおよび駆動されるアプリが、クラウド人工知能プラットフォーム320が提供する機能を活用することのできるAPI(Application Program Interface)を提供してよい。具体的な例として、開発者がインタフェースコネクト340の提供するSDK(Software Development Kit)および/または開発文書を利用して開発した機器やアプリは、インタフェースコネクト340が提供するAPIを利用することで、クラウド人工知能プラットフォーム320が提供する機能を活用することが可能となる。
As an example, the
一例として、クラウド人工知能プラットフォーム320は、音声基盤のサービスを提供するための機能を提供してよい。例えば、クラウド人工知能プラットフォーム320は、受信した音声を認識し、認識した音声に対して出力される音声を合成するための音声処理モジュール321、受信した映像や動画を分析して処理するためのビジョン処理モジュール322、受信した音声にしたがって適切な音声を出力するために適した会話を決定するための会話処理モジュール323、受信した音声に適した機能を勧めるための推薦モジュール324、人工知能がデータ学習に基づいて文章単位で言語を翻訳できるように支援するニューラル機械翻訳(Neural Machine Translation:NMT)325などのように、音声基盤サービスを提供するための多様なモジュールを含んでよい。
As an example, the cloud
例えば、電子機器2(120)のユーザが、電子機器2(120)を利用して電子機器1(110)に音声通話の要請を伝達する状況を考慮してみよう。このとき、電子機器1(110)は、アプリケーションの制御にしたがい、電子機器1(110)のユーザが音声通話の要請を直接受諾することができない状況を認識したとする。この場合、電子機器1(110)は、ユーザが直接的に制御しなくても、電子機器2(120)からの音声通話要請を自動で受諾することにより、電子機器1(110)と電子機器2(120)との間に音声通話セッションが設定されるようになる。また、電子機器1(110)は、アプリケーションの制御にしたがい、インタフェースコネクト340を介してクラウド人工知能プラットフォーム320が提供する機能を活用することにより、電子機器2(120)のユーザと人工知能を利用した会話を実行してもよい。この場合、人工知能は、上述した音声通話セッションを通じて伝達される電子機器2(120)のユーザの音声を音声処理モジュール321によって認識してよく、認識された音声に適した会話を会話処理モジュール323によって決定してよい。また、人工知能は、決定された会話にしたがって出力するための出力音声を、再び音声処理モジュール321を利用して合成してよく、合成された出力音声は、上述した音声通話セッションを通じて電子機器2(120)に伝達することにより、人工知能と電子機器2(120)のユーザとの間に音声通話が成立するようになる。
For example, consider the situation where the user of electronic device 2 (120) utilizes electronic device 2 (120) to communicate a voice call request to electronic device 1 (110). At this time, it is assumed that the electronic device 1 (110) recognizes a situation in which the user of the electronic device 1 (110) cannot directly accept the voice call request under the control of the application. In this case, the electronic device 1 (110) automatically accepts the voice call request from the electronic device 2 (120) even if the user does not directly control the electronic device 1 (110) and the electronic device 1 (110). 2 (120), a voice call session is set up. In addition, the electronic device 1 (110) uses the functions provided by the cloud
また、拡張キット350は、第3者コンテンツ開発者または会社がクラウド人工知能プラットフォーム320を基盤として新たな音声基盤機能を実現することのできる開発キットを提供してよい。例えば、電子機器1(110)にインストールされたアプリケーションが、上述した開発キットによって開発された第3者コンテンツであるとする。この場合、第3者コンテンツ開発者は、自動で音声通話を実行するための人工知能を自主的に開発しなくても、自身のアプリケーションがインタフェースコネクト340を介してクラウド人工知能プラットフォーム320と通信し、クラウド人工知能プラットフォーム320が含む機能を活用するようにすることにより、人工知能を利用した会話機能を提供することが可能となる。
In addition, the expansion kit 350 may provide a development kit that enables third-party content developers or companies to implement new voice-based functions based on the cloud
図3の実施形態では、人工知能のための機能のうちの音声会話を処理するための機能が、クラウド人工知能プラットフォーム320が含むモジュール(音声処理モジュール321および会話処理モジュール323)に提供される例について説明した。しかし、実施形態によっては、人工知能のためのすべての機能が、電子機器1(110)にインストールおよび駆動されるアプリケーションに含まれてもよい。この場合、電子機器1(110)は、クラウド人工知能プラットフォーム320のようなサーバ150と通信する必要がなくなり、音声処理モジュール321および会話処理モジュール323によって電子機器2(120)のユーザとの会話を自主的に実行することが可能となる。
In the embodiment of FIG. 3, the functions for processing voice conversations among the functions for artificial intelligence are provided to modules (voice processing module 321 and conversation processing module 323) included in cloud
図4は、本発明の一実施形態における、電子機器のコンタクト制御のための全体過程の例を示した図である。 FIG. 4 is a diagram showing an example of the overall process for contact control of an electronic device in one embodiment of the present invention.
第1過程410は、電子機器1(110)が電子機器2(120)からコンタクトの要請を受信する過程であってよい。ここで、コンタクトは、音声通話や映像通話、またはメッセンジャーを利用したインスタントメッセージの送受信などのように電子機器1(110)と電子機器2(120)との間に通信セッションの設定および維持が要求されるコンタクトを含んでもよいし、SMS(Short Message Service)やMMS(Multimedia Message Service)、電子メール(e-mail)の受信などのように電子機器1(110)と電子機器2(120)との間に通信セッションの維持が要求されないコンタクトを含んでもよい。また、図4では、コンタクトの要請が電子機器2(120)から電子機器1(110)に直接的に送信されるように表現されているが、実質的に、コンタクトの種類によっては、ネットワーク上の多様な中間ノードを経て電子機器1(110)に送信されてよい。例えば、メッセンジャーを利用したインスタントメッセージの場合は、メッセンジャーサーバを経て電子機器1(110)に送信されてよく、音声通話のためのコール信号の受信は、音声通話のコール信号を処理するサーバを経て電子機器1(110)に送信されてよい。これと同じように、映像通話のためのコール信号は、映像通話を処理するサーバを経て電子機器1(110)に送信されてよい。
The
第2過程420は、電子機器1(110)が、電子機器1(110)のユーザの直接制御が可能であるかを決定する過程であってよい。ここで、ユーザの状況は、ユーザがコンタクトの要請を直接制御することができる状況(以下、「第1状況」)と、ユーザがコンタクトの要請を直接制御することができない状況(以下、「第2状況」)の2つに大別されてよい。このとき、このようなユーザの状況は、ユーザのスケジュールやライフスタイルなどのようにユーザと関連して習得される情報を分析することによって決定されてよい。このような情報は、電子機器1(110)に予め格納されて管理される情報であってもよいが、オンライン上でユーザのスケジュールやユーザのライフスタイルと関連する情報を管理するサーバ(一例として、サーバ150)のように電子機器1(110)の外部から受信される情報であってもよい。このような第2過程420は、コンタクト要請の受信による通知をユーザに提供する前に実行されてよい。例えば、従来技術では、音声通話のコール信号の受信に伴ってベル音や振動のような通知を出力するが、ユーザはこのような通知の出力に応答してコンタクトの要請を処理していた。この反面、本実施形態に係る電子機器1(110)は、コンタクト要請の受信による通知を出力する前に、ユーザの直接制御が可能であるかのようなユーザの状況を先に決定してよい。
The
第3過程430は、第1状況の場合、電子機器1(110)がコンタクト要請の受信に対する通知を出力する過程であってよい。この場合、電子機器1(110)のユーザは、出力された通知に反応してコンタクトの要請を直接処理してよい。
The
第4過程440は、電子機器1(110)がユーザの直接制御によってコンタクトを処理し、その後にコンタクト制御のための過程が終了する過程であってよい。例えば、要請されたコンタクトが音声通話や映像通話である場合には、電子機器1(110)のユーザと電子機器2(120)のユーザとの間で音声通話や映像通話がなされた後、第1過程410で受信したコンタクトの要請と関連するコンタクト制御は終了してよい。または、要請されたコンタクトがインスタントメッセージである場合、電子機器1(110)のユーザが、受信されたインスタントメッセージを確認した後、第1過程410で受信したコンタクトの要請と関連するコンタクト制御は終了してよい。
A
第5過程450は、第2状況の場合、電子機器1(110)が人工知能を利用してコンタクトの要請を受諾して対応を実行する過程であってよい。例えば、音声通話や映像通話である場合、人工知能がコンタクトの要請を直接受諾した後、電子機器2(120)のユーザと人工知能との間で音声通話や映像通話が行われてよい。この場合、電子機器2(120)のユーザと人工知能との間に送受信される音声や映像が電子機器1(110)に出力される必要はなく、電子機器1(110)で内部的に音声通話や映像通話が行われてよい。他の例として、インスタントメッセージが受信された場合、人工知能は、受信されたインスタントメッセージに対する返答メッセージを電子機器2(120)に送信してよい。 The fifth process 450 may be a process in which the electronic device 1 (110) uses artificial intelligence to accept the contact request and take action in the second situation. For example, in the case of a voice call or video call, after the artificial intelligence directly accepts the contact request, the voice call or video call may be made between the user of the electronic device 2 (120) and the artificial intelligence. In this case, there is no need to output audio and video transmitted and received between the user of the electronic device 2 (120) and the artificial intelligence to the electronic device 1 (110). Calls and video calls may be made. As another example, when an instant message is received, the artificial intelligence may send a reply message to the received instant message to electronic device 2 (120).
第6過程460は、電子機器1(110)が人工知能の応対と関連する要約文を生成する過程であってよい。要約文には、コンタクトの種類(一例として、音声通話、映像通話、インスタントメッセージなど)と、コンタクトの要請が受信された時刻、人工知能の応対による人工知能と電子機器2(120)のユーザとの会話内容、またはこのような会話内容の要約情報などのような情報が含まれてよい。例えば、音声通話に対して人工知能応対がなされた場合、人工知能は、電子機器2(120)のユーザとの会話の内容に含まれている音声を認識し、認識した音声をテキストに変換してよい。この後、変換されたテキストを分析して要約情報を生成してよい。
A
第7過程470は、電子機器1(110)が、電子機器1(110)のユーザの直接制御が可能であるかをモニタリングする過程であってよい。この場合にも、電子機器1(110)は、電子機器1(110)のユーザのスケジュールやライフスタイルなどのように電子機器1(110)のユーザと関連して習得される情報を分析することにより、コンタクトの要請に対し、電子機器1(110)のユーザの直接制御が可能な第1状況であるか、あるいはコンタクトの要請に対する電子機器1(110)のユーザの直接制御が不可能な第2状況であるかを決定してよい。
A
例えば、電子機器1(110)のユーザのスケジュールによると、本日14時から16時まで会議が入っている状態で、第1過程410で説明したコンタクトの要請を受信した時刻が本日15時であったとする。この場合、人工知能は、電子機器1(110)のユーザは受信したコンタクトの要請を直接制御することができない第2状況であると判断してよく、第5過程450で説明したように、コンタクトの要請を受諾して直接応対を処理してよい。この後、人工知能は、応対と関連する要約文を生成してよい。このとき、要約文の生成時刻が15時30分であったとする。会議の終了時間が16時であると予定されているため、人工知能は、16時までは電子機器1(110)のユーザの直接制御が不可能な第2状況であると判断してよく、16時まで要約文のレポートを遅らせてよい。
For example, according to the schedule of the user of the electronic device 1 (110), the meeting is scheduled from 14:00 to 16:00 today, and the contact request described in the
第8過程480は、電子機器1(110)のユーザの状況が第2状況から第1状況に変更することにより、電子機器1(110)が、生成された要約を電子機器1(110)のユーザにレポートする過程であってよい。例えば、電子機器1(110)は、コンタクトがあったことを知らせるための通知をユーザに提供し、通知に対するユーザの反応にしたがい、生成された要約文を電子機器1(110)の画面に表示してよい。
The
一方、実施形態によっては、要約文は第2状況でレポートされてもよい。例えば、人工知能は、要約文の生成後に電子機器1(110)のユーザによる入力が発生した場合、またはユーザによって予め設定された条件が満たされた場合には、第2状況であっても要約文をレポートしてよい。例えば、会議中の状況であるユーザであったとしても、電子機器1(110)に入力が発生した場合には、ユーザに少しの余裕が生じたと判断してよい。この場合、ユーザ入力の発生に応答し、第2状況であっても要約文がレポートされてよい。実質的に、要約文のレポートに関する通知がユーザに提供されてよく、レポートされた要約を直ぐに確認するか、または状況に応じてゆっくり確認するかに関しては、ユーザによって選択されてよい。他の例として、ユーザが電話を直接とることのできない状況であったとしても、要約文は確認することのできる状況であることもある。このような場合、ユーザによって予め設定された条件(一例として、コンタクトの重要性や、特定の時間あるいは特定の場所など)を満たす場合には、第2状況であっても要約文がレポートされてよい。 On the other hand, in some embodiments, summary sentences may be reported in the second context. For example, the artificial intelligence can generate a summary even in the second situation if an input by the user of the electronic device 1 (110) occurs after generation of the summary, or if a condition preset by the user is met. Sentences may be reported. For example, even if the user is in the middle of a meeting, it may be determined that the user has some time to spare when an input occurs in the electronic device 1 (110). In this case, a summary sentence may be reported even in the second situation in response to the occurrence of user input. In effect, a notification may be provided to the user regarding the report of the summary text, and the user may choose to review the reported summary immediately or lazily as the case may be. As another example, even if the user cannot pick up the phone directly, the summary may be confirmed. In such a case, if the conditions preset by the user (for example, the importance of the contact, a specific time or a specific place, etc.) are met, the summary is reported even in the second situation. good.
また他の実施形態として、上述した第4過程440で、ユーザがコンタクトの要請を直接処理する過程であっても、ユーザの要求によっては要約文が生成および提供されてもよい。例えば、音声通話の受信によってベル音が鳴り、ユーザが電子機器1(110)を操作して音声通話を開始したとする。このとき、ユーザから要求が入力されることにより、人工知能は、ユーザと発信者間の音声通話内容を記録および要約し、要約文を提供してよい。この場合、ユーザは、発信者との通話内容の主要事項を、通話終了後にも要約によって再確認することができるようになる。このとき、ユーザからの要求は、予め設定された音声(一例として、「サリー(人工知能の識別子の例)、今から通話内容を記録/要約して」)と入力されてもよいし、画面に表示される予め設定されたユーザインタフェースボタン(一例として、「AI呼び出し要請」)によって入力されてもよい。より具体的な例として、電子機器1(110)は、ユーザが発信者と直接コンタクトをしている途中に、アプリケーションの制御にしたがって予め設定された音声(一例として、上述した「サリー」)を認識すると、これによる要請を処理するように動作するか、または通話内容の記録および/または要約のトリガリングのためのユーザインタフェースを画面に表示してよい。また、電子機器1(110)は、入力されるユーザの要請にしたがってユーザと発信者のコンタクトの内容を記録および/または要約し、記録された内容や要約文をユーザにレポートしてよい。この反面、通話内容の記録のために発信者の同意が求められる場合、電子機器1(110)は、発信者の同意を得るための音声を合成して発信者の同意を求め、発信者の応答に応じて記録を開始してよい。このとき、発信者に同意を求める過程と発信者の応答がさらに記録されてもよい。このように、人工知能を利用した自動応対の場合ではなく、ユーザが発信者とコンタクトを直接行う場合にも、該当のコンタクトに対する内容が記録および/または要約されてユーザに提供されてよい。また、映像通話でも、このような記録および/または要約の機能が提供されてよい。この場合には、少なくとも一部の映像が共に記録されて要約に含まれてよい。
In another embodiment, even when the user directly processes the contact request in the above-described
このような図4の実施形態では、電子機器1(110)が電子機器2(120)からのコンタクトの要請にしたがい、人工知能を利用してコンタクト制御を直接処理する例について説明した。この反面、他の実施形態では、電子機器1(110)と電子機器2(120)間のコンタクトを連結するサーバが、このようなコンタクト制御を処理する例について説明する。 In the embodiment of FIG. 4, an example has been described in which the electronic device 1 (110) directly processes contact control using artificial intelligence in response to a contact request from the electronic device 2 (120). On the other hand, in another embodiment, a server linking contacts between electronic device 1 (110) and electronic device 2 (120) processes such contact control.
図5は本発明の一実施形態における、サーバのコンタクト制御のための全体過程の例を示した図である。サーバ150は、電子機器1(110)と電子機器2(120)間の特定のコンタクトのためのサービスを提供するシステムのコンピュータ装置であってよい。この場合、電子機器2(120)のコンタクトの要請は、サーバ150を経て電子機器1(110)に伝達されてよい。
FIG. 5 is a diagram showing an example of the overall process for server contact control in one embodiment of the present invention.
第1過程510において、サーバ150は、電子機器2(120)から電子機器1(110)に対するコンタクトの要請を受信してよい。例えば、サーバ150は、メッセンジャーを通じてメッセージングサービス、音声通話サービス、および/または映像通話サービスを提供するシステムのコンピュータ装置であってよい。電子機器2(120)のユーザが電子機器1(110)のユーザのアカウントや電話番号を選択して音声通話や映像通話、またはインスタントメッセージの送信を要請した場合、コンタクトの要請がサーバ150を経て電子機器1(110)に伝達されてよい。第1過程510は、このようなコンタクトの要請をサーバ150が受信する過程を意味してよい。
In a
第2過程520は、サーバ150が、電子機器1(110)のユーザの直接制御が可能であるかを決定する過程であってよい。例えば、サーバ150は、電子機器1(110)のユーザのスケジュールやライフスタイルなどのように電子機器1(110)のユーザと関連して習得される情報を分析することにより、コンタクトの要請に対し、電子機器1(110)のユーザの直接制御が可能な第1状況であるか、あるいはコンタクトの要請に対する電子機器1(110)のユーザの直接制御が不可能な第2状況であるかを決定してよい。このとき、スケジュールやライフスタイルなどの情報は、電子機器1(110)のユーザがアップロードすることによってサーバ150で直接管理される情報であってもよいし、スケジュール管理サーバなどから提供された情報であってもよい。
A second step 520 may be a step in which the
第3過程530は、第1状況の場合に、サーバ150がコンタクトの要請を電子機器1(110)に伝達する過程であってよい。この場合、電子機器1(110)は、受信したコンタクトの要請に応じてベル音や振動などのような通知を出力してよい。
A
第4過程540は、電子機器1(110)でのコンタクトの処理後にコンタクト制御の過程を終了する過程であってよい。例えば、電子機器1(110)は、コンタクトの要請に対するユーザの制御にしたがって音声通話や映像通話を行ったり、受信したインスタントメッセージを画面に表示したりするなどのコンタクトの処理を実行してよく、この後にはコンタクト制御の過程を終了してよい。このとき、ユーザが発信者とのコンタクトを直接処理する場合にも、上述したように、ユーザからの要求の入力により、トリガリングされた人工知能が音声通話や映像通話を記録および/または要約してよく、要約された要約文をユーザに提供してよい。 A fourth step 540 may be a step of terminating the contact control process after the electronic device 1 (110) processes the contact. For example, the electronic device 1 (110) may perform contact processing such as making a voice call or a video call according to the user's control in response to the contact request, or displaying the received instant message on the screen. After this, the process of contact control may end. At this time, even if the user directly processes the contact with the caller, as described above, the artificial intelligence triggered by the input of the request from the user records and/or summarizes the voice call or video call. and may provide a condensed summary to the user.
第5過程550は、第2状況の場合に、サーバ150が、人工知能応対によって電子機器2(120)とのコンタクトを処理する過程であってよい。上述したように、音声通話や映像通話の場合には、人工知能がコンタクトの要請を直接受諾した後、電子機器2(120)のユーザと人工知能との間で音声通話や映像通話がなされてよい。他の例として、インスタントメッセージが受信された場合、人工知能は、受信したインスタントメッセージに対する返答メッセージを電子機器2(120)に送信してよい。
A
第6過程560は、人工知能応対が完了した後、人工知能応対に対する要約を生成する過程であってよい。上述したように、要約には、コンタクトの種類(一例として、音声通話、映像通話、インスタントメッセージなど)と、コンタクトの要請が受信された時刻、人工知能応対による人工知能と電子機器2(120)のユーザ間の会話内容、またはこのような会話内容の要約情報などのような情報が含まれてよい。
A
第7過程570は、サーバ150が、電子機器1(110)のユーザの直接制御が可能であるかをモニタリングする過程であってよい。この場合にも、サーバ150は、電子機器1(110)のユーザのスケジュールやライフスタイルなどのように電子機器1(110)のユーザと関連して習得される情報を分析することにより、コンタクトの要請に対し、電子機器1(110)のユーザの直接制御が可能な第1状況であるか、あるいはコンタクトの要請に対する電子機器1(110)のユーザの直接制御が不可能な第2状況であるかを決定してよい。
A
第8過程580は、サーバ150が、電子機器1(110)のユーザの状況が第2状況から第1状況に変更することにより、生成された要約文を電子機器1(110)にレポートする過程であってよい。レポートされた要約文は、電子機器1(110)を通じて表示され、電子機器1(110)のユーザに提供されてよい。
An eighth step 580 is a process in which the
一方、図4の実施形態と図5の実施形態が結合した実施形態が考慮されてもよい。例えば、図4の第1過程410および第2過程420は電子機器1(110)で実行し、コンタクトの要請をユーザが直接制御することができない第1状況になった場合、コンタクトの要請をサーバ150に伝達することにより、サーバ150が電子機器2(120)との人工知能応対を処理するようにしてもよい。この場合、サーバ150は、図5の第5過程550および第6過程560を処理し、人工知能応対と要約文の生成を処理してよい。生成された要約は電子機器1(110)に伝達されてよく、図4の第7過程470および第8過程480を経てユーザにレポートされてよい。
Alternatively, embodiments in which the embodiment of FIG. 4 and the embodiment of FIG. 5 are combined may be considered. For example, the
このように、ユーザ(着信者)のスケジュールを同期化したりユーザのライフスタイルを分析したりして音声通話や映像通話のコールを受信したりメッセージを受信したりした場合には、ユーザの状況を推定し、ユーザが直接応答することが困難な状況であると判断される場合には、人工知能を利用して発信者との会話を自動処理した後、応対内容を要約してユーザにレポートすることにより、ユーザが直接応対することが困難なコンタクトの要請に対しても、人工知能によってコンタクト制御を可能にすることができる。 In this way, when receiving a voice or video call or receiving a message by synchronizing the user's (called party's) schedule or analyzing the user's lifestyle, the user's situation can be determined. If it is judged that it is difficult for the user to respond directly, AI is used to automatically process the conversation with the caller, and then summarize the response and report it to the user. As a result, contact control can be made possible by artificial intelligence even for contact requests that are difficult for users to respond to directly.
図6および図7は、本発明の一実施形態における、要約文を提供する例を示した図である。 6 and 7 are diagrams showing an example of providing a summary sentence in one embodiment of the present invention.
図6は、音声通話に対する応対の要約文が表示された電子機器1(110)の画面例であって、要約文がポップアップウィンドウ610の形態で電子機器1(110)の画面に表示された例を示している。このようなポップアップウィンドウ610には、誰(Ms.Alice)からどのような種類のコンタクト(音声通話)があったかを示すための情報と、コンタクトの要請を受信した日時、人工知能がコンタクトに対して応対した時間(通話時間)、および応対内容に対する要約情報(応対内容の要約)が示されている。また、ポップアップウィンドウ610には、コンタクトの相手(Ms.Alice)と直ぐに通話を連結するためのユーザインタフェースとして「直ぐに通話ボタン620」が提供された例を示している。ユーザが直ぐに通話ボタン620を選択(一例として、タッチスクリーン環境で直ぐに通話ボタン620が表示された領域をユーザがタッチ)した場合、コンタクトの相手(Ms.Alice)との音声通話が試行されてよい。
FIG. 6 is an example of a screen of electronic device 1 (110) displaying a summary of responses to a voice call, in which the summary is displayed in the form of a pop-up
図7は、メッセージ受信に対する要約文が表示された電子機器1(110)の画面例であって、要約文がポップアップウィンドウ710の形態で電子機器1(110)の画面に表示された例を示している。このようなポップアップウィンドウ710には、誰(Mr.Ted)からどのような種類のコンタクト(メッセンジャーAを利用したメッセージ受信)があったかを示すための情報と、コンタクトの要請(メッセージ)を受信した日時、および応対内容に関する要約情報(応対内容の要約)が示されている。また、ポップアップウィンドウ710には、コンタクトの相手(Mr.Ted)とメッセージを送受信したメッセンジャーAのチャットルームを呼び出すためのユーザインタフェースとして「チャットルームに移動」ボタン720が提供された例を示している。ユーザがチャットルームに移動ボタン720を選択した場合、メッセンジャーAでは、コンタクトの相手(Mr.Ted)とのチャットルームが電子機器1(110)の画面に表示されてよい。
FIG. 7 shows an example of a screen of the electronic device 1 (110) displaying a summary of message reception, in which the summary is displayed in the form of a pop-up
一方、図6のAliceや図7のTedのようなコンタクトの相手を識別するための識別情報は、電子機器1(110)のアドレス帳やメッセンジャー(または、VoIP音声通話や映像通話を提供するサービス)の友だちリストから電話番号によって検索された発信者の名前であってもよいし、検索されたアカウントの表示名であってもよい。また、コンタクトの相手の性別(Ms.またはMr.)は、名前がもつ性別による確率値および/または発信者の声を分析することによって決定されてよい。例えば、識別された名前「Alice」のようなそれぞれの名前に対して、対象の性別が男性あるいは女性である確率値が経験的に蓄積されたデータが活用されてよい。また、人工知能が応対中のコンタクトの相手の声のトーンを分析することにより、コンタクトの相手の性別が決定されてもよい。また、確率値と声の両方を利用することにより、コンタクトの相手の性別が決定されてもよい。さらに、人物の名前ではなくアカウントの表示名などに対しては、性別の表示が省略されてもよい。 On the other hand, the identification information for identifying the contact partner such as Alice in FIG. 6 or Ted in FIG. ) may be the caller's name retrieved by phone number from the friend list of the ), or the display name of the retrieved account. Also, the gender (Ms. or Mr.) of the contact person may be determined by analyzing the gender probability value of the name and/or the caller's voice. For example, for each name, such as the identified name "Alice," empirically accumulated data of probability values that the gender of the subject is male or female may be utilized. The sex of the contact may also be determined by the artificial intelligence analyzing the tone of voice of the contact during the service. Also, both probability values and voice may be used to determine the gender of a contact. Furthermore, the display of gender may be omitted for the display name of an account instead of a person's name.
アドレス帳やメッセンジャーアカウントなどからコンタクトの相手を特定するための識別情報を得ることが困難な場合、人工知能は、応対の過程において、コンタクトの相手の名前や電子機器1(110)のユーザとの関係などを直接聞いてもよい。例えば、人工知能は、「どなたからの連絡とお伝えしますか?」のような質問によってコンタクトの相手に関する情報を取得してよく、取得した情報を要約文の生成に活用してよい。 When it is difficult to obtain identification information for specifying the contact partner from an address book, a messenger account, etc., the artificial intelligence uses the name of the contact partner and the user of the electronic device 1 (110) in the process of responding. You can directly ask about the relationship. For example, the artificial intelligence may obtain information about the contact person by asking a question such as "Who would you like to be contacted by?", and may utilize the obtained information to generate a summary sentence.
また、音声通話や映像通話において、把握される発信者の性別や年齢などに応じて人工知能の応対音声の性別やトーンなどを変更してもよい。例えば、人工知能は、男性の発信者には女性の声で応対したり、これとは逆に女性の発信者には男性の声で応対したりしてよい。他の例として、子供の発信者には、特定のキャラクタ(一例として、子供に人気のあるアニメーションのキャラクタ)の声で応対してもよい。 Also, in a voice call or a video call, the gender, tone, etc. of the response voice of the artificial intelligence may be changed according to the gender, age, etc. of the caller ascertained. For example, the artificial intelligence may respond with a female voice to male callers and vice versa. As another example, a child caller may be addressed by the voice of a particular character (eg, an animated character popular with children).
また、図6および図7の実施形態では、ポップアップウィンドウ610および710を利用して要約文をレポートする例について説明したが、要約文は多様な方式によってユーザにレポートされてよい。例えば、コンタクト制御のためのサービスを提供するアプリケーションの実行画面に要約文が表示されてもよいし、人工知能が要約文の内容を音声として合成した後、合成された音声を出力する形態で要約がレポートされてもよい。この場合、人工知能は、ユーザとの会話形態で要約文をレポートしてよい。例えば、図6の実施形態と関連し、人工知能が「Ms.Aliceから音声通話が届きました」という合成された音声を出力している最中に、ユーザの発話「Aliceに電話をかけて」によって音声命令が認識された場合、人工知能は、要約文の全体をレポートする必要がなくなり、直ぐにAliceとの音声通話を実行してよい。
Also, although the embodiments of FIGS. 6 and 7 describe an example of reporting a summary using pop-up
また、上述した実施形態では、人工知能がコンタクトの要請に対するコンタクト制御により、人工知能がコンタクトに直接応対し、その結果をユーザにレポートする例について説明した。 Further, in the above-described embodiment, an example has been described in which the artificial intelligence directly responds to the contact through contact control in response to the contact request and reports the result to the user.
これに加え、人工知能は、コンタクトの相手との応対によって取得した情報に基づき、新たなスケジュールを自動で設定したりアラーム時間を自動で設定したりするなど多様な後処理を実行することも可能である。 In addition to this, artificial intelligence can also perform various post-processing such as automatically setting a new schedule or automatically setting an alarm time based on the information obtained by responding to the contact partner. is.
図8は、本発明の一実施形態における、後処理内容をレポートする例を示した図である。 FIG. 8 is a diagram showing an example of reporting post-processing content in one embodiment of the present invention.
図8は、音声通話に対する応対の要約文が表示された電子機器1(110)の画面例であって、要約文がポップアップウィンドウ810の形態で電子機器1(110)の画面に表示された例を示している。このようなポップアップウィンドウ810には、誰(Ms.Carol)からどのような種類のコンタクト(音声通話)があったかを示すための情報と、コンタクトの要請を受信した日時、人工知能がコンタクトに応対した時間(通話時間)、応対内容に関する要約情報(応対内容の要約)、および後処理内容(スケジュール追加)が示されている。例えば、人工知能は、応対内容を分析して「土曜日の午後3時」の約束に対するスケジュールを認識し、認識されたスケジュールを登録されていたスケジュールから検索してよい。該当の日付および時間にスケジュールが登録されていない場合、人工知能は、該当のスケジュールを追加してよい。また、ポップアップウィンドウ810でスケジュールアプリケーションを駆動させて追加のスケジュールを確認することのできるユーザインタフェースとして、スケジュール確認ボタン830が含まれる例が図8に示されている。ユーザがスケジュール確認ボタン830を選択した場合、スケジュールアプリケーションが実行され、追加のスケジュールに関する情報がユーザに表示されてよい。実施形態によっては、コンタクトの相手が人工知能との会話において約束を設定してもよい。例えば、人工知能は、コンタクトの相手がユーザと今日の夕方7時に会う約束をしたいという要請を認識してスケジュールを追加した後、このような後処理内容と応対内容をユーザにレポートしてよい。
FIG. 8 is an example of a screen of electronic device 1 (110) displaying a summary of responses to a voice call, in which the summary is displayed in the form of a pop-up
また、人工知能は、ユーザがコンタクトに対する直接的な制御が可能となる時点までコンタクトの相手との会話を維持してもよい。例えば、ユーザが会議中や運動中である状況で、会議や運動が予め設定された時間(一例として、1分)以内に終わると予測される場合が考慮されることがある。この場合、人工知能は、コンタクトの相手に、ユーザが一定の時間以内には電話をとることができるようになることを知らせ、その待機時間はコンタクトの相手との会話を誘導することによってコンタクトを維持してよい。言い換えれば、人工知能は、状況に応じては、ユーザがコンタクトに直接参加できるようになるまでコンタクトを維持することも可能である。 The artificial intelligence may also maintain a conversation with the contact person until the point at which the user has direct control over the contact. For example, it may be considered that the user is in a meeting or exercising and the meeting or exercise is expected to end within a preset time (one minute, for example). In this case, the artificial intelligence informs the contact that the user will be available to pick up the phone within a certain amount of time, and that waiting time is used to close the contact by inducing a conversation with the contact. may be maintained. In other words, the artificial intelligence may optionally maintain contact until the user can directly participate in the contact.
また他の実施形態として、人工知能は、コンタクトの至急性に応じて人工知能応対を中断し、ユーザがコンタクトに参加するように通知を提供してもよい。一例として、人工知能は、ユーザの現在状況に対する重要度を測定し、人工知能応対によってコンタクトの重要性をそれぞれ測定および比較してよい。このとき、人工知能は、コンタクトの相手との会話によってコンタクトの目的を決定し、決定された目的に応じてコンタクトの重要性を決定してよい。また、人工知能は、ユーザの状況の種類(一例として、会議中や運動中など)に応じて状況に対する重要性を決定してもよい。このとき、コンタクトの重要性が状況の重要性よりも高い場合、人工知能は、人工知能応対を中断し、ユーザをコンタクトに参加させるようにする通知を提供してよい。この場合、人工知能は、要請されたコンタクトが極めて重要な目的に関するものであることを知らせるための情報を画面に表示してもよいし、合成された音声で出力してもよい。 In yet another embodiment, the artificial intelligence may interrupt the artificial intelligence response depending on the urgency of the contact and provide a notification for the user to join the contact. As an example, the artificial intelligence may measure the importance to the user's current situation, and the artificial intelligence response may measure and compare the importance of the contact respectively. At this time, the artificial intelligence may determine the purpose of the contact based on the conversation with the contact partner, and determine the importance of the contact according to the determined purpose. Artificial intelligence may also determine the importance of a situation according to the type of user's situation (for example, during a meeting, while exercising, etc.). At this time, if the importance of the contact is higher than the importance of the situation, the artificial intelligence may interrupt the artificial intelligence response and provide a notification to engage the user in the contact. In this case, the artificial intelligence may display information on the screen or output a synthesized voice to indicate that the requested contact is for a very important purpose.
さらに、他の実施形態において、コンタクトに対して人工知能応対を実行させるかをユーザが直接選択してもよい。 Further, in other embodiments, a user may directly select whether to have an artificial intelligence response performed on a contact.
図9は、本発明の一実施形態における、音声通話の受諾または拒否を選択するためのユーザインタフェースの例を示した図である。図9は、音声通話の着信による電子機器1(110)の第1画面910と第2画面920をそれぞれ示している。第1画面910は、音声通話の着信を受諾するための受諾ボタン911と、音声通話の着信を拒否するための拒否ボタン912をそれぞれ示している。ユーザが拒否ボタン912を選択した場合、第1画面910は、第2画面920のように変更してよい。第2画面920は、サイズや形状が変更した受諾ボタン911と拒否ボタン912の他にも、AI通話ボタン921、メッセージボタン922、およびスヌーズ(snooze)ボタン923が追加された様子を示している。
FIG. 9 is a diagram illustrating an example of a user interface for selecting acceptance or rejection of voice calls in one embodiment of the present invention. FIG. 9 shows a
このとき、AI通話ボタン921は、人工知能応対のためのユーザインタフェースであってよい。例えば、ユーザがAI通話ボタン921を選択した場合、上述したような人工知能応対が実行されてよい。言い換えれば、人工知能が音声通話の発信者と会話をし、要約文を生成してユーザに提供してよい。 At this time, the AI call button 921 may be a user interface for responding to artificial intelligence. For example, if the user selects the AI call button 921, an artificial intelligence response as described above may be performed. In other words, the artificial intelligence may converse with the originator of the voice call and generate a summary to provide to the user.
また、メッセージボタン922は、予め設定された拒否メッセージを伝達するためのユーザインタフェースであってよい。例えば、ユーザがメッセージボタン922を選択した場合、予め設定された拒否メッセージが音声通話の発信者に伝達されてよい。他の例として、ユーザがメッセージボタン922を選択した場合、複数の拒否メッセージのうちから1つを選択するためのユーザインタフェースがユーザに提供されてもよい。この場合、ユーザが複数の拒否メッセージのうちから1つを選択すると、選択された拒否メッセージが音声通話の発信者に伝達されてよい。 Also, the message button 922 may be a user interface for transmitting a preset rejection message. For example, if the user selects the message button 922, a preset rejection message may be communicated to the originator of the voice call. As another example, if the user selects the messages button 922, the user may be provided with a user interface for selecting one of multiple rejection messages. In this case, when the user selects one of the multiple rejection messages, the selected rejection message may be communicated to the originator of the voice call.
さらに、スヌーズボタン923は、発信者に音声メモを残すことを要求するためのユーザインタフェースであってよい。例えば、ユーザがスヌーズボタン923を選択した場合、発信者に音声メモを残して欲しいという要請が提供されてよい。発信者が音声メモを残した場合、音声メモは電子機器1(110)に格納されてよく、予め設定された時間(一例として、3分)後に音声メモを聞くための通知や、音声メモを認識およびテキストに変換したテキスト情報がポップアップウィンドウなどの形態でユーザに提供されてよい。 Additionally, snooze button 923 may be a user interface for requesting the caller to leave a voice note. For example, if the user selects the snooze button 923, a request may be provided to the caller to leave a voice note. When the caller leaves a voice memo, the voice memo may be stored in the electronic device 1 (110), and a notification to listen to the voice memo after a preset time (for example, 3 minutes) or a voice memo. Recognized and converted text information may be provided to the user in the form of a pop-up window or the like.
このような多様な拒否オプションは、ユーザが電話をとることが困難な状況であっても、多様な方式で発信者のコンタクト意図の把握をサポートすることができ、通話連結率を高めることができる。また、音声通話だけではなく、映像通話の受諾または拒否を選択するためのユーザインタフェースも、図9の実施形態と同じように実現されてよい。 Such various rejection options can help the caller to grasp the caller's intention of contacting in various ways even when it is difficult for the user to pick up the phone, thereby increasing the call connection rate. . Also, a user interface for selecting acceptance or rejection of video calls as well as voice calls may be implemented in the same manner as in the embodiment of FIG.
さらに他の実施形態において、人工知能は、映像通話の受信と関連し、ユーザと発信者との関係、ユーザの性向、および/またはユーザの設定を考慮することで、映像通話の受信によるプレビュー画面を決定してよい。例えば、発信者がユーザによく思われたい対象(一例として、異性の友だち)であったり、ユーザが外見を重視する性向、または発信者がユーザによって設定された人物であったりする場合、映像通話のプレビュー画面には自撮り(selfie)映像が表示されてよい。言い換えれば、ユーザが映像通話の受諾前に、プレビュー画面に表示された自撮り映像によって自身の外面を予め確認したり整えたりすることのできる時間が与えられてよい。この反面、発信者がユーザと親密な関係であったり、ユーザが外見を整えるよりも迅速な映像通話の受諾と迅速な映像通話の実行を望む性向であったり、発信者がユーザによって設定された人物でなかったりする場合には、映像通話のプレビュー画面には自撮り映像が表示されなくてよい。このように、人工知能は、映像通話のプレビュー画面において、自撮り映像を表示するための機能を多様な条件によって自動でオン(On)/オフ(Off)することができる。 In yet another embodiment, the artificial intelligence is associated with receiving a video call and considers the relationship between the user and the caller, the user's preferences, and/or the user's preferences to provide a preview screen for receiving the video call. may be determined. For example, if the caller wants to be liked by the user (for example, a friend of the opposite sex), if the user has a tendency to emphasize appearance, or if the caller is a person set by the user, the video call The preview screen may display a selfie video. In other words, before accepting the video call, the user may be given time to pre-check and refine his or her appearance with the selfie video displayed on the preview screen. On the other hand, if the caller has a close relationship with the user, or if the user has a tendency to desire quick acceptance and quick execution of a video call rather than adjusting the appearance, the caller is set by the user. If the person is not a person, the self-portrait image may not be displayed on the preview screen of the video call. As such, the artificial intelligence can automatically turn on/off the function for displaying the self-portrait image on the preview screen of the video call according to various conditions.
図10は、本発明の一実施形態における、自撮り映像が表示されたプレビュー画面の例を示した図である。図10は、発信者「Ted」による映像通話の要請が受信されることにより、電子機器1(110)のユーザが映像通話の受諾と拒否を選択することのできるプレビュー画面1010の例を示している。このとき、電子機器1(110)は、上述した多様な条件(ユーザと発信者との関係、ユーザの性向、および/またはユーザの設定)に基づき、プレビュー画面1010に自撮り映像を表示するかを決定してよい。図10では、電子機器1(110)が自撮り映像を表示するように決定することにより、電子機器1(110)が含むフロントカメラ(または自撮りカメラ)1020にキャプチャされているリアルタイム映像ストリーム1030をプレビュー画面1010に表示している例を示している。
FIG. 10 is a diagram showing an example of a preview screen displaying a self-portrait image in one embodiment of the present invention. FIG. 10 shows an example of a
図11は、本発明の一実施形態における、コンタクト制御方法の例を示したフローチャートである。本実施形態に係るコンタクト制御方法は、上述した電子機器1(110)のようなコンピュータ装置によって実行されてよい。このとき、電子機器1(110)のプロセッサ212は、メモリ211が含むオペレーティングシステムのコードや少なくとも1つのプログラムのコードによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ212は、電子機器1(110)に格納されたコードが提供する制御命令にしたがって電子機器1(110)が図11に示すコンタクト制御方法に含まれる段階1110~1150を実行するように、電子機器1(110)を制御してよい。
FIG. 11 is a flowchart illustrating an example contact control method in one embodiment of the present invention. The contact control method according to this embodiment may be executed by a computer device such as the electronic device 1 (110) described above. At this time, the
段階1110で、電子機器1(110)は、ネットワークを介して発信者からのコンタクトの要請を受信してよい。コンタクトとは、上述したように、音声通話や映像通話、またはメッセージの送受信を意味してよい。このとき、コンタクトの要請は、音声通話や映像通話の場合にはコール信号を含んでよく、メッセージの送受信の場合には発信者が送信するメッセージを含んでよい。このようなコンタクトの要請は、発信者からネットワークを介して直接送信されてもよいが、一般的には、音声通話サービスや映像通話サービス、またはメッセージングサービスを提供するサーバを経て伝達されてよい。この場合、電子機器1(110)のユーザがコンタクトの着信者となってよい。
At
段階1120で、電子機器1(110)は、コンタクトの要請に対する着信者の直接制御が可能であるかを決定してよい。例えば、電子機器1(110)は、着信者に対して登録された着信者のスケジュール情報、着信者に対して予め分析されたライフスタイル情報、および着信者の入力のうちの少なくとも1つとコンタクトの要請が受信された時刻を利用することで、着信者の直接制御が可能であるかを決定してよい。このとき、スケジュール情報は、電子機器1(110)に登録されたスケジュール情報および/またはオンライン上に登録されて電子機器1(110)に同期化される情報を含んでよい。一方、ライフスタイル情報は、着信者の日課を持続的に分析した情報に基づき、現時刻に予測される着信者の状況に関する情報を含んでよい。例えば、毎朝6時から7時の間にジョギングをする着信者に対しては、午前6時から7時の間の状況は「運動中」という状況が決定されてよい。または、着信者が会社にいる時刻や家にいる時刻などに基づいて着信者の状況が細分化されてよい。着信者の入力は、コンタクトの要請が受信される時刻と関連し、着信者が電子機器1(110)を操作中であるかを決定するのに活用されてよい。例えば、着信者が持続的に電子機器1(110)を操作中である場合は、着信者がコンタクトの要請を直接処理することのできる状況であると判断されてよい。
At
段階1130および段階1140で、電子機器1(110)は、コンタクトの要請に対して着信者の直接制御が可能な場合には、コンタクトの要請に対する通知を出力してよい。この場合、ユーザは、出力される通知に反応してコンタクトの要請を直接処理してよい。
At
段階1130および段階1150で、電子機器1(110)は、コンタクトの要請に対して着信者の直接制御が不可能な場合には、人工知能を利用してコンタクトの発信者と会話をし、コンタクトを処理してよい。着信者がコンタクトの要請を直接処理することが困難な状況であると判断される場合には、着信者に通知を提供せず、人工知能を利用してコンタクトを直接処理してよい。
In
一方、電子機器1(110)は、アプリケーションの制御にしたがい、会話の要約情報を生成して着信者にレポートしてもよい。例えば、電子機器1(110)は、段階1150で実行された会話に関する要約情報を生成してよく、着信者の直接制御が可能となった場合には、生成された要約情報を着信者に提供してよい。ここで、要約情報は、コンタクトの種類、コンタクトの要請が受信された時刻、および会話の内容に関する要約情報を含んでよい。
On the other hand, the electronic device 1 (110) may generate summary information of the conversation and report it to the called party under the control of the application. For example, electronic device 1 (110) may generate summary information about the conversation conducted in
また、電子機器1(110)は、会話の結果によっては後処理を行ってもよい。例えば、図8では、スケジュールを追加する後処理の例について説明した。このために、電子機器1(110)は、会話の内容に含まれた日付、時間、および場所のうちの少なくとも1つに関する情報を抽出し、抽出された少なくとも1つの情報とコンタクトの発信者に関する情報を関連させてスケジュールまたはアラームを登録してよい。 Further, electronic device 1 (110) may perform post-processing depending on the result of the conversation. For example, in FIG. 8, an example of post-processing for adding a schedule has been described. For this purpose, the electronic device 1 (110) extracts information relating to at least one of the date, time, and location included in the content of the conversation, and extracts at least one information relating to the contact originator. Information may be associated to register schedules or alarms.
また、電子機器1(110)は、図9を参照しながら説明したように、ユーザがコンタクトの要請を多様な方式によって直接処理するようにしてもよい。例えば、電子機器1(110)は、着信者の直接制御が可能な場合に、コンタクトの要請を受諾または拒否するためのユーザインタフェースをさらに提供してよい。このようなユーザインタフェースは、段階1140で説明した通知と共に提供されてよい。このとき、ユーザインタフェースは、コンタクトの要請を受諾するためのユーザインタフェースおよびコンタクトの要請を拒否するためのユーザインタフェースを含み、人工知能による発信者との会話を実行するためのユーザインタフェース、発信者に音声メモを残すことを要請するためのユーザインタフェース、および拒否メッセージを発信者に送信するためのユーザインタフェースのうちの少なくとも2つ以上をさらに含んでよい。
Also, the electronic device 1 (110) may directly process the user's contact request in various ways, as described with reference to FIG. For example, electronic device 1 (110) may further provide a user interface for accepting or rejecting the contact request if direct control of the called party is possible. Such a user interface may be provided with the notification described in
また、電子機器1(110)は、図10を参照しながら説明したように、コンタクトが映像通話であり、着信者によって直接制御が可能である場合に、着信者と発信者との関係、着信者の性向、および着信者の設定のうちの少なくとも1つによって自撮り映像を表示するかを決定し、自撮り映像を表示する場合、自撮りカメラ(図10を参照しながら説明したフロントカメラ1020)を駆動させ、自撮りカメラにキャプチャされたリアルタイム映像ストリームを映像通話のプレビュー画面に表示することにより、条件に応じて着信者が自身の外見を確認して整えることのできる時間を提供してよい。 In addition, as described with reference to FIG. 10, the electronic device 1 (110), when the contact is a video call and can be directly controlled by the called party, the relationship between the called party and the calling party, the incoming call It is determined whether to display a self-portrait image according to at least one of the tendency of the person and the setting of the called party. ) and display the real-time video stream captured by the selfie camera on the preview screen of the video call, providing time for the callee to check and adjust their appearance according to the conditions. good.
図12は、本発明の一実施形態における、人工知能を利用してコンタクトを処理する例を示したフローチャートである。図12の段階1210~1250は、コンタクトが音声通話や映像通話の場合に実行されてよく、図11を参照しながら説明した段階1150に含まれ、電子機器1(110)によって実行されてよい。
FIG. 12 is a flowchart illustrating an example of using artificial intelligence to process contacts in one embodiment of the invention. Steps 1210-1250 of FIG. 12 may be performed when the contact is a voice call or a video call, are included in
段階1210で、電子機器1(110)は、コンタクトの要請を受諾することで設定された音声通話セッションまたは映像通話セッションを通じてコンタクトの発信者の音声を受信してよい。
At
段階1220で、電子機器1(110)は、人工知能が含む音声処理モジュールによって受信した音声を認識してよい。例えば、人工知能は、電子機器1(110)にインストールおよび駆動されるアプリケーションによって実現されてよい。このようなアプリケーションは、音声の認識および合成のための音声処理モジュールを含んでよく、電子機器1(110)は、アプリケーションの制御にしたがい、このような音声処理モジュールによって受信した音声を認識してよい。上述した図3の実施形態を参照しながら説明したように、人工知能は、クラウド人工知能プラットフォーム320によって実現されてもよい。この場合、電子機器1(110)は、インタフェースコネクト340を介してクラウド人工知能プラットフォーム320に受信された音声を送信してよく、クラウド人工知能プラットフォーム320が含む音声処理モジュール321によって受信された音声が認識されてもよい。
At
段階1230で、電子機器1(110)は、人工知能が含む会話処理モジュールによって認識された音声を分析して返答会話を生成してよい。この場合にも、電子機器1(110)は、アプリケーションによって実現される会話処理モジュールを利用して返答会話を生成してもよいし、クラウド人工知能プラットフォーム320が含む会話処理モジュール323を利用して返答会話を生成してもよい。
At
段階1240で、電子機器1(110)は、音声処理モジュールで生成された返答会話に対応する出力音声を生成してよい。この場合にも、電子機器1(110)は、アプリケーションによって実現される音声処理モジュールを利用して出力音声を合成してもよいし、クラウド人工知能プラットフォーム320が含む音声処理モジュール321を利用して出力音声を合成してもよい。
At
段階1250で、電子機器1(110)は、生成された出力音声を、設定された音声通話セッションまたは映像通話セッションを通じてコンタクトの発信者に送信してよい。この場合、コンタクトの発信者は、発信者の音声に対応する人工知能の返答音声を、要請したコンタクト(音声通話または映像通話)を通じて聞くことができる。
At
クラウド人工知能プラットフォーム320のような外部の人工知能サーバを活用する場合、電子機器1(110)は、コンタクトの発信者から受信した音声やメッセージを、ネットワークを介して人工知能サーバに送信し、人工知能サーバから音声やメッセージに対応する返答音声または返答メッセージを受信し、受信した返答音声または返答メッセージをコンタクトの発信者に送信してよい。
When utilizing an external artificial intelligence server such as the cloud
このような段階1210~1250は、発信者の発話に対して人工知能が返答する1回の会話の過程を意味してよい。しかし、必要によっては、人工知能が先に出力音声を合成して発信者に送信したり、多数の会話が人工知能と発信者との間でなされたりしてもよいことは、当業者であれば容易に理解することができるであろう。
他の実施形態として、コンタクトがメッセージ送受信を含む場合、電子機器1(110)は、音声認識や音声合成の過程を必要とせず、人工知能が含む会話処理モジュールによってコンタクトの要請としてコンタクトの発信者から受信したメッセージを分析して返答会話を生成し、生成された返答会話を含むメッセージをコンタクトの発信者に送信してよい。ここで、人工知能の会話処理モジュールは、上述したように、電子機器1(110)のアプリケーションによって実現されてもよいし、クラウド人工知能プラットフォーム320が含む会話処理モジュール323に対応してもよい。
As another embodiment, when the contact includes message transmission/reception, the electronic device 1 (110) does not require the process of speech recognition or speech synthesis. A message received from may be analyzed to generate a response conversation, and a message including the generated response conversation may be sent to the contact originator. Here, the artificial intelligence conversation processing module may be realized by the application of the electronic device 1 (110) as described above, or may correspond to the
また他の実施形態として、人工知能を利用したコンタクトの処理は、コンタクトのためのサービスを提供するサーバによって実行されてもよい。例えば、サーバは、着信者と発信者との間のコンタクトのためのサービス(一例として、音声通話サービス、映像通話サービス、またはメッセージングサービス)を提供するシステムであってよい。このとき、電子機器1(110)は、図11を参照しながら説明した段階1150で、コンタクトのためのサービスを提供するサーバに人工知能を利用した会話の処理を要請してよい。この場合、サーバは、着信者の要請にしたがい、人工知能を利用してコンタクトの発信者と会話をしてコンタクトを処理し、会話の要約情報を生成して送信されるように実現されてよい。例えば、サーバは、図5を参照しながら説明したサーバ150に対応してよい。この場合、電子機器1(110)は、段階1150で、サーバから会話の要約情報を受信してよい。要約情報は、図6~図8を参照しながら説明した要約文に対応してよく、電子機器1(110)のユーザである着信者がコンタクトを直接制御することができる状況になったときに着信者にレポートされてよい。
In yet another embodiment, artificial intelligence-assisted contact processing may be performed by the server that provides the service for the contact. For example, the server may be a system that provides services (eg, voice call service, video call service, or messaging service) for contact between a called party and a caller. At this time, the electronic device 1 (110) may request the server providing the contact service to process the conversation using artificial intelligence in
図13は、本発明の一実施形態における、サーバのコンタクト制御方法の例を示したフローチャートである。本実施形態に係るコンタクト制御方法は、上述したサーバ150のようなコンピュータ装置によって実行されてよい。このとき、サーバ150のプロセッサ222は、メモリ221が含むオペレーティングシステムのコードや少なくとも1つのプログラムのコードによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ222は、サーバ150に格納されたコードが提供する制御命令にしたがってサーバ150が図13のコンタクト制御方法に含まれる段階1310~1360を実行するように、サーバ150を制御してよい。
FIG. 13 is a flowchart illustrating an example of a server contact control method in one embodiment of the present invention. The contact control method according to this embodiment may be executed by a computer device such as the
段階1310で、サーバ150は、ネットワークを介して発信者から着信者に対するコンタクトの要請を受信してよい。コンタクトとは、上述したように、音声通話や映像通話、またはメッセージの送受信を意味してよい。このとき、コンタクトの要請は、音声通話や映像通話の場合にはコール信号を含んでよく、メッセージの送受信の場合には発信者が送信するメッセージを含んでよい。サーバ150は、着信者に伝達されるコンタクトの要請を受信してよく、コンタクトの要請を着信者に伝達する前に段階1320を実行してよい。ここで、着信者は、上述した電子機器1(110)のユーザに対応してよい。
At
段階1320で、サーバ150は、コンタクトの要請に対して着信者の直接制御が可能であるかを決定してよい。例えば、サーバ150は、着信者に対して登録された着信者のスケジュール情報、着信者に対して予め分析されたライフスタイル情報、および着信者の入力のうちの少なくとも1つとコンタクトの要請が受信された時刻を利用することで、着信者の直接制御が可能であるかを決定してよい。このとき、スケジュール情報は、電子機器1(110)に登録された着信者のスケジュール情報、および/またはオンライン上に登録された着信者のスケジュール情報をサーバ150が同期化して管理する情報であってよい。一方、ライフスタイル情報は、着信者の日課を持続的に分析した情報に基づき、現時刻に予測される着信者の状況に関する情報を含んでよい。例えば、毎朝6時から7時の間にジョギングをする着信者に対しては、午前6時から7時の間の状況は「運動中」であると決定されてよい。また、着信者が会社にいる時刻や家にいる時刻などに基づいて着信者の状況が細分化されてよい。このようなライフスタイル情報は、サーバ150が電子機器1(110)から受信する多様な情報に基づいてサーバ150で生成および管理されてよい。
At
段階1330および段階1340で、サーバ150は、コンタクトの要請を着信者に伝達してよい。この場合、電子機器1(110)のユーザである着信者は、伝達されるコンタクトの要請にしたがい、電子機器1(110)で出力される通知に反応してコンタクトの要請を直接処理してよい。
At
段階1330および段階1350で、サーバ150は、コンタクトの要請に対する着信者の直接制御が不可能な場合、人工知能を利用してコンタクトの発信者と会話をしてコンタクトを処理してよい。着信者がコンタクトの要請を直接処理することが困難な状況であると判断される場合、サーバ150は、コンタクトの要請を着信者に伝達せず、人工知能を利用してコンタクトを直接処理してよい。
At
段階1360で、サーバ150は、会話の要約情報を生成して着信者に提供してよい。言い換えれば、着信者がコンタクトの要請を直接処理することができない場合、段階1350で、サーバ150が人工知能を利用して発信者と会話をしてコンタクトを直接処理してよく、段階1360で、その処理結果として要約情報を生成して着信者に提供してよい。
At
実施形態によっては、サーバ150は、受信されたコンタクトの要請を直ぐに着信者に伝達してもよい。このとき、着信者の電子機器1(110)は、上述したスケジュール情報やライフスタイル情報、および/または着信者の入力などに基づいて着信者の直接制御が可能であるかを決定してよく、着信者の直接制御が不可能な場合には、コンタクトの処理要請をサーバ150に送信してよい。この場合、サーバ150は、コンタクトの処理要請の受信に応答して段階1350および段階1360のように人工知能を利用した応対を処理し、その処理結果として会話の要約情報を生成して着信者に提供してよい。電子機器1(110)に提供された要約情報は、着信者の直接制御が可能になったときに着信者にレポートされてよい。
In some embodiments,
また、実施形態によっては、サーバ150が、スケジュールまたはアラームの登録のような会話の後処理を直接行ってもよい。例えば、サーバ150は、会話の内容に含まれた日付、時間、および場所のうちの少なくとも1つに関する情報を抽出し、抽出された少なくとも1つの情報とコンタクトの発信者に関する情報を関連させて着信者のためのスケジュールまたはアラームを登録してよい。登録されるスケジュールやアラームは、電子機器1(110)に同期化されてよい。
In some embodiments,
サーバ150は、サーバ150で実現される人工知能を利用して発信者との会話を直接処理してもよいが、クラウド人工知能プラットフォーム320と連係して会話を処理してもよい。
The
以上のように、本発明の実施形態によると、音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクトの要請を、人工知能がユーザのスケジュールやライフスタイルを反映して処理することができる。また、人工知能応対に対する会話の要約文を生成して提供することにより、ユーザが人工知能を利用して自動処理された応対の内容を把握することができる。これに加え、ユーザがコンタクトの要請を直接処理する場合にも人工知能応対を選択することができるようにし、映像通話時にはプレビュー画面に自撮り映像を表示することで、映像通話の受諾前に自身の外見を点検できる時間を提供することができる。 As described above, according to embodiments of the present invention, artificial intelligence can be used to match the user's schedule and lifestyle with external contact requests such as voice calls, video calls, and/or receiving instant messages. can be reflected and processed. In addition, by generating and providing a summary sentence of the conversation in response to the artificial intelligence response, the user can grasp the content of the response automatically processed using artificial intelligence. In addition to this, the user can select artificial intelligence response when directly handling a contact request, and display a selfie video on the preview screen during a video call, so that the user can receive the call before accepting the video call. can provide time to check the appearance of
上述したシステムまたは装置は、ハードウェア構成要素、ソフトウェア構成要素、またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)および前記OS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを格納、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。 The systems or devices described above may be realized by hardware components, software components, or a combination of hardware and software components. For example, the devices and components described in the embodiments may include, for example, processors, controllers, ALUs (arithmetic logic units), digital signal processors, microcomputers, FPGAs (field programmable gate arrays), PLUs (programmable logic units), microcontrollers, It may be implemented using one or more general purpose or special purpose computers, such as a processor or various devices capable of executing instructions and responding to instructions. A processing unit may run an operating system (OS) and one or more software applications that run on the OS. The processing unit may also access, store, manipulate, process, and generate data in response to executing software. For convenience of understanding, one processing device may be described as being used, but those skilled in the art will appreciate that the processing device may include multiple processing elements and/or multiple types of processing elements. You can understand. For example, a processing unit may include multiple processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置(virtual equipment)、コンピュータ格納媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で格納されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータで読み取り可能な記録媒体に格納されてよい。 Software may include computer programs, code, instructions, or a combination of one or more of these, to configure a processor to operate at its discretion or to independently or collectively instruct a processor. You can Software and/or data may refer to any kind of machine, component, physical device, virtual equipment, computer storage medium for interpretation on or for providing instructions or data to a processing device. or may be embodied in a device. The software may be distributed over computer systems connected by a network so that they are stored and executed in a distributed fashion. Software and data may be stored on one or more computer-readable media.
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータで読み取り可能な媒体に記録されてよい。前記コンピュータで読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。前記媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであってもよいし、コンピュータソフトウェア当業者に公知な使用可能なものであってもよい。コンピュータで読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれる。このような記録媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散存在するものであってもよい。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。 The method according to the embodiments may be embodied in the form of program instructions executable by various computer means and recorded on a computer readable medium. The computer-readable media may include program instructions, data files, data structures, etc. singly or in combination. The program instructions recorded on the media may be those specially designed and constructed for an embodiment, or they may be of the kind known and available to those of skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and floptical disks. and magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Such a recording medium may be a variety of recording means or storage means in the form of a combination of single or multiple hardware, and is not limited to a medium directly connected to a computer system, and may be used on a network. It may exist in a distributed manner. Examples of program instructions include high-level language code that is executed by a computer, such as using an interpreter, as well as machine language code, such as that generated by a compiler.
以上のように、実施形態を、限定された実施形態と図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。 As described above, the embodiments have been described based on the limited embodiments and drawings, but those skilled in the art will be able to make various modifications and variations based on the above description. For example, the techniques described may be performed in a different order than in the manner described and/or components such as systems, structures, devices, circuits, etc. described may be performed in a manner different than in the manner described. Appropriate results may be achieved when combined or combined, opposed or substituted by other elements or equivalents.
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。 Accordingly, different embodiments that are equivalent to the claims should still fall within the scope of the appended claims.
110、120、130、140:電子機器
150、160:サーバ
170:ネットワーク
110, 120, 130, 140:
Claims (10)
発信者からのコンタクトの要請を受信する処理、
前記コンタクトの要請に基づいて、人工知能を利用して前記コンタクトの発信者と
会話をして前記コンタクトを処理する処理、
前記会話の要約情報を取得する処理、および
前記要約情報を着信者に提供する処理
を前記端末のコンピュータに実行させ、
前記要約情報は、前記コンタクトの種類、および前記会話の内容に関する要約情報を含む、コンタクト制御プログラム。 A contact control program executed by a terminal,
the process of receiving contact requests from callers;
processing the contact by conversing with the caller of the contact using artificial intelligence based on the request of the contact;
causing the computer of the terminal to execute a process of acquiring summary information of the conversation and a process of providing the summary information to the called party;
A contact control program, wherein the summary information includes summary information about the type of contact and content of the conversation.
発信者からのコンタクトの要請を受信する処理、
前記コンタクトの要請に基づいて、人工知能を利用して前記コンタクトの発信者と
会話をして前記コンタクトを処理する処理、
前記会話の要約情報を取得する処理、および
前記要約情報を着信者に提供する処理
を前記端末のコンピュータに実行させ、
前記要約情報は、前記コンタクトの要請が受信された時刻、および前記会話の内容に関する要約情報を含む、コンタクト制御プログラム。 A contact control program executed by a terminal,
the process of receiving contact requests from callers;
processing the contact by conversing with the caller of the contact using artificial intelligence based on the request of the contact;
causing the computer of the terminal to execute a process of acquiring summary information of the conversation and a process of providing the summary information to the called party;
The contact control program, wherein the summary information includes a time at which the request for contact was received and summary information regarding content of the conversation.
請求項1または請求項2に記載のコンタクト制御プログラム。 Between the process of receiving the contact request and the process of processing the contact, a process of determining whether the callee can directly control the contact request based on the status of the callee. causes the terminal computer to execute
The contact control program according to claim 1 or 2.
請求項3に記載のコンタクト制御プログラム。 causing the computer of the terminal to execute a process of determining the status of the called party by analyzing information acquired in relation to the called party in the determining process;
The contact control program according to claim 3.
請求項4に記載のコンタクト制御プログラム。 The information acquired in relation to the called party is information managed by the terminal of the called party or an external device capable of communicating with the terminal.
The contact control program according to claim 4.
請求項4に記載のコンタクト制御プログラム。 the information obtained in relation to the called party is information related to at least one of the called party's schedule and the called party's lifestyle;
The contact control program according to claim 4.
前記コンタクトの要請に基づいて、人工知能を利用して前記コンタクトの発信者と
会話をして前記コンタクトを処理する処理部と、
を備え、
前記処理部は、
前記会話の要約情報を取得し、
前記要約情報を着信者に提供する処理を実行し、
前記要約情報は、前記コンタクトの種類、および前記会話の内容に関する要約情報を含む、端末。 a communication unit that receives a contact request from a caller;
a processing unit for processing the contact by conversing with the caller of the contact using artificial intelligence based on the request for the contact;
with
The processing unit is
obtaining summary information of said conversation;
performing a process of providing the summarized information to a called party;
The terminal, wherein the summary information includes summary information about the type of contact and content of the conversation.
前記コンタクトの要請に基づいて、人工知能を利用して前記コンタクトの発信者と
会話をして前記コンタクトを処理する処理部と、
を備え、
前記処理部は、
前記会話の要約情報を取得し、
前記要約情報を着信者に提供する処理を実行し、
前記要約情報は、前記コンタクトの要請が受信された時刻、および前記会話の内容に関する要約情報を含む、端末。 a communication unit that receives a contact request from a caller;
a processing unit for processing the contact by conversing with the caller of the contact using artificial intelligence based on the request for the contact;
with
The processing unit is
obtaining summary information of said conversation;
performing a process of providing the summarized information to a called party;
The terminal, wherein the summary information includes summary information about the time when the request for contact was received and the content of the conversation.
発信者からのコンタクトの要請を受信することと、
前記コンタクトの要請に基づいて、人工知能を利用して前記コンタクトの発信者と
会話をして前記コンタクトを処理することと、
前記会話の要約情報を取得することと、
前記要約情報を着信者に提供することと、
を含み、
前記要約情報は、前記コンタクトの種類、および前記会話の内容に関する要約情報を含む、コンタクト制御方法。 A contact control method comprising:
receiving a request for contact from a caller;
utilizing artificial intelligence to converse with the caller of the contact to process the contact based on the request for the contact;
obtaining summary information of the conversation;
providing said summary information to a called party;
including
The contact control method, wherein the summary information includes summary information about the type of contact and content of the conversation.
発信者からのコンタクトの要請を受信することと、
前記コンタクトの要請に基づいて、人工知能を利用して前記コンタクトの発信者と
会話をして前記コンタクトを処理することと、
前記会話の要約情報を取得することと、
前記要約情報を着信者に提供することと、
を含み、
前記要約情報は、前記コンタクトの要請が受信された時刻、および前記会話の内容に関する要約情報を含む、コンタクト制御方法。
A contact control method comprising:
receiving a request for contact from a caller;
utilizing artificial intelligence to converse with the caller of the contact to process the contact based on the request for the contact;
obtaining summary information of the conversation;
providing said summary information to a called party;
including
The contact control method, wherein the summary information includes a time when the contact request was received and summary information about the content of the conversation.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2017-0111155 | 2017-08-31 | ||
KR1020170111155 | 2017-08-31 | ||
JP2018159793A JP7273473B2 (en) | 2017-08-31 | 2018-08-28 | Artificial intelligence contact control that reflects personal schedule and lifestyle |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018159793A Division JP7273473B2 (en) | 2017-08-31 | 2018-08-28 | Artificial intelligence contact control that reflects personal schedule and lifestyle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023093714A true JP2023093714A (en) | 2023-07-04 |
Family
ID=65816621
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018159793A Active JP7273473B2 (en) | 2017-08-31 | 2018-08-28 | Artificial intelligence contact control that reflects personal schedule and lifestyle |
JP2023073517A Pending JP2023093714A (en) | 2017-08-31 | 2023-04-27 | Contact control program, terminal, and contact control method |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018159793A Active JP7273473B2 (en) | 2017-08-31 | 2018-08-28 | Artificial intelligence contact control that reflects personal schedule and lifestyle |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7273473B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110062115B (en) | 2019-04-24 | 2022-04-26 | 北京百度网讯科技有限公司 | Communication method, terminal, operator server and intelligent device |
JP7167357B2 (en) | 2019-05-06 | 2022-11-08 | グーグル エルエルシー | automatic call system |
JP6898685B1 (en) * | 2020-12-14 | 2021-07-07 | シンメトリー・ディメンションズ・インク | Business support device, business support system, and business support method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4118098B2 (en) * | 2002-07-17 | 2008-07-16 | シャープ株式会社 | Wireless communication device |
KR101909141B1 (en) * | 2012-07-27 | 2018-10-17 | 엘지전자 주식회사 | Electronic device and method for controlling electronic device |
US20140253666A1 (en) * | 2013-03-11 | 2014-09-11 | Qualcomm Incorporated | Intent engine for enhanced responsiveness in interactive remote communications |
-
2018
- 2018-08-28 JP JP2018159793A patent/JP7273473B2/en active Active
-
2023
- 2023-04-27 JP JP2023073517A patent/JP2023093714A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2019047493A (en) | 2019-03-22 |
JP7273473B2 (en) | 2023-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3841500B1 (en) | Media intercom over a secure device to device communication channel | |
KR102178896B1 (en) | Provides a personal auxiliary module with an optionally steerable state machine | |
KR102217301B1 (en) | Contact control of artificial intelligence reflecting personal schedule and lifestyle | |
JP6445053B2 (en) | List accumulation and reminder trigger | |
JP2023093714A (en) | Contact control program, terminal, and contact control method | |
CN110472130B (en) | Reducing the need for manual start/end points and trigger phrases | |
US10403272B1 (en) | Facilitating participation in a virtual meeting using an intelligent assistant | |
US9276802B2 (en) | Systems and methods for sharing information between virtual agents | |
US9560089B2 (en) | Systems and methods for providing input to virtual agent | |
US20070162569A1 (en) | Social interaction system | |
CN109698856A (en) | The device-to-device communication channel of safety | |
JP6431090B2 (en) | Chat-based support for multiple communication interaction types | |
US10491690B2 (en) | Distributed natural language message interpretation engine | |
JP2018190413A (en) | Method and system for processing user command to adjust and provide operation of device and content provision range by grasping presentation method of user speech | |
US20140164532A1 (en) | Systems and methods for virtual agent participation in multiparty conversation | |
WO2020238873A1 (en) | Communication method, server, and communication system | |
CN112083987A (en) | Remote invocation of mobile device actions | |
KR20150046100A (en) | Virtual agent communication for electronic devices | |
JP2019040602A (en) | Continuous conversation function with artificial intelligence device | |
US20170286755A1 (en) | Facebot | |
JP2021099862A (en) | Improvement of dialog with electronic chat interface | |
EP3901876A1 (en) | Cloud-based communication system for autonomously providing collaborative communication events | |
KR101643808B1 (en) | Method and system of providing voice service using interoperation between application and server | |
EP3516831B1 (en) | Uniform resource identifier and image sharing for contextual information display | |
CN110166349A (en) | Sending method, device and the electronic equipment of message |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230427 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20231027 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240409 |