JP2023093714A - Contact control program, terminal, and contact control method - Google Patents

Contact control program, terminal, and contact control method Download PDF

Info

Publication number
JP2023093714A
JP2023093714A JP2023073517A JP2023073517A JP2023093714A JP 2023093714 A JP2023093714 A JP 2023093714A JP 2023073517 A JP2023073517 A JP 2023073517A JP 2023073517 A JP2023073517 A JP 2023073517A JP 2023093714 A JP2023093714 A JP 2023093714A
Authority
JP
Japan
Prior art keywords
contact
electronic device
request
user
artificial intelligence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023073517A
Other languages
Japanese (ja)
Inventor
チョ・イン・ウォン
In Won Cho
パク・ジョンジュン
Jungjun Park
チョ・ジョージン
Jongjin Cho
リ・ドンウォン
Dongwon Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Z Intermediate Global Corp
Original Assignee
Line Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line Corp filed Critical Line Corp
Publication of JP2023093714A publication Critical patent/JP2023093714A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

To provide an artificial intelligence contact control technique that reflects personal schedule and lifestyles.SOLUTION: A contact control method according to an embodiment of the present invention is capable of processing contact requests, such as voice calls, video calls, and/or instant message receptions, which are transmitted to a user from external sources, without requiring user control, by utilizing artificial intelligence (AI) and reflecting the user's schedule and lifestyle.SELECTED DRAWING: Figure 4

Description

以下の説明は、個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御技術に関し、より詳細には、音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクト(contact)の要請を、人工知能(Artificial Intelligence:AI)がユーザのスケジュールやライフスタイルを反映して処理することができるコンタクト制御方法、前記コンタクト制御方法を実行するコンピュータ装置、コンピュータと結合してコンタクト制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体に関する。 The following description relates to artificial intelligence contact control technology that reflects personal schedules and lifestyles, and more particularly, contacts communicated to the user from the outside, such as voice calls, video calls, and/or receiving instant messages. A contact control method that allows artificial intelligence (Artificial Intelligence: AI) to process a request for contact by reflecting the user's schedule and lifestyle, a computer device that executes the contact control method, and a computer The present invention relates to a computer program stored in a computer-readable recording medium for causing a computer to execute a contact control method, and the recording medium.

有線または無線通信が可能な電子機器は、音声通話サービスや映像通話サービス、またはインスタントメッセージを送受信するためのサービスなどを利用することで、互いにコンタクトすることができる。このようなコンタクトの要請は、送信側(発信者)から受信側(着信者)に、受信側との合意なく一方的に伝達されることもあるが、このとき伝達されるコンタクトの要請を、受信側のユーザが受け入れることができない状況が存在する。 Electronic devices capable of wired or wireless communication can contact each other by using a voice call service, a video call service, or a service for sending and receiving instant messages. Such a request for contact may be unilaterally transmitted from the sender (originator) to the recipient (called party) without any agreement with the recipient. There are situations that the receiving user cannot accept.

例えば、送信側から受信側に映像通話を試みたものの、受信側のユーザが会議中であるため、このような映像通話の要請には応答できない状況にいるとする。この場合、従来技術では、受信側の電子機器は、映像通話のための要請が伝達されたことを受信側のユーザに知らせるための通知を出力し、受信側のユーザは提供された通知に反応し、映像通話を受諾または拒否するための入力を電子機器で発生させることができた。このとき、電子機器は、発生する入力にしたがって映像通話の実行や拒否を処理することができた。例えば、特許文献1は、移動通信端末機における発信者番号表示および通話拒否方法に関するものであって、コールの発生を感知した場合にキーパッドによる終了キーの入力が感知されれば、受信拒否メニュー項目の設定を検索した後、受信拒否理由メニューを画面表示ウィンドウに表示し、受信拒否理由に対応するキーの入力を感知して該当のキーに対応する文字メッセージや音声メッセージを読み取って発信者に送信した後、前記コールを解除して受信拒否完了を画面表示ウィンドウに表示する技術を開示している。 For example, suppose that the sender attempts to make a video call to the receiver, but cannot respond to the video call request because the user on the receiver is in a meeting. In this case, in the prior art, the receiving electronic device outputs a notification to inform the receiving user that the request for the video call has been delivered, and the receiving user reacts to the provided notification. and the electronic device could generate input to accept or reject the video call. At this time, the electronic device could process the making or rejecting of the video call according to the input generated. For example, Patent Document 1 relates to a caller ID display and call rejection method in a mobile communication terminal. After searching the item settings, the menu of reasons for refusal to receive is displayed on the screen display window, the input of the key corresponding to the reason for refusal to receive is detected, and the text message or voice message corresponding to the key is read and sent to the caller. A technique is disclosed for canceling the call after transmission and displaying reception refusal completion on a screen display window.

韓国公開特許第10-2005-0039Korean Patent No. 10-2005-0039

しかし、このような従来技術では、送信側のコンタクトの要請を受信側で処理するにあたり、受信側のユーザの直接的な制御あるいはコンタクト要請を処理することに関し、受信側のユーザによって予め設定された設定情報を必要とするという問題がある。例えば、受信拒否のための入力をユーザが直接発生させなければならなかったり、自動受信拒否のための時間帯や条件などに関する情報をユーザが直接設定したりしなければならなかった。言い換えれば、従来技術は、音声コールや映像コール、またはインスタントメッセージの伝達に関する処理を、受信側のユーザの状況に合わせてすべて直接制御しなければならないという問題があった。 However, in such prior art, in processing the contact request of the sending party at the receiving party, there is no direct control of the user of the receiving party, or a setting preset by the user of the receiving party regarding processing the contact request. There is the problem of requiring configuration information. For example, the user had to directly generate an input for rejection of reception, or directly set information regarding the time period and conditions for automatic rejection of reception. In other words, the prior art has the problem that all the processing related to the transmission of voice calls, video calls, or instant messages must be directly controlled according to the situation of the receiving user.

音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクトの要請を、人工知能(Artificial Intelligence:AI)がユーザのスケジュールやライフスタイルを反映して処理することができるコンタクト制御方法、前記コンタクト制御方法を実行するコンピュータ装置、コンピュータと結合してコンタクト制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体を提供する。 Artificial intelligence (AI) processing of external contact requests, such as voice calls, video calls, and/or receiving instant messages, reflecting the user's schedule and lifestyle. a computer device for executing the contact control method, a computer program stored in a computer-readable recording medium for causing the computer to execute the contact control method in combination with a computer, and the recording medium. do.

コンタクト(contact)制御方法であって、ネットワークを介して発信者からコンタクトの要請を受信する段階、前記コンタクトの要請に対して着信者の直接制御が可能であるかを決定する段階、および前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理する段階を含むことを特徴とする。 A contact control method comprising the steps of: receiving a contact request from a caller over a network; determining whether said contact request is directly controllable by a called party; processing the contact by using artificial intelligence to converse with the caller of the contact when direct control of the caller is impossible.

発信者と着信者間のコンタクトのためのサービスを提供するサーバのコンタクト(contact)制御方法であって、ネットワークを介して前記発信者から前記着信者に対するコンタクトの要請を受信する段階、前記コンタクトの要請に対して前記着信者の直接制御が可能であるかを決定する段階、前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理する段階、および前記会話の要約情報を生成して前記着信者に提供する段階を含むことを特徴とする。 A contact control method for a server that provides a service for contact between a caller and a called party, comprising: receiving a contact request from the caller to the called party over a network; determining whether the called party can directly control the request, and if the called party cannot directly control the caller, using artificial intelligence to converse with the caller of the contact to make the contact; and generating and providing summary information of said conversation to said called party.

コンピュータプログラムであって、コンピュータと結合して前記コンタクト制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されることを特徴とする。 The computer program is characterized by being stored in a computer-readable recording medium in order to combine with a computer and cause the computer to execute the contact control method.

コンピュータで読み取り可能な記録媒体であって、前記コンタクト制御方法をコンピュータに実行させるためのプログラムが記録されていることを特徴とする。 A computer-readable recording medium characterized by recording a program for causing a computer to execute the contact control method.

コンピュータ装置であって、コンピュータで読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、ネットワークを介して発信者からコンタクトの要請を受信し、前記コンタクトの要請に対して着信者の直接制御が可能であるかを決定し、前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理することを特徴とする。 A computing device comprising at least one processor implemented to execute computer readable instructions, said at least one processor receiving a request for contact from a caller over a network, and determines whether direct control of the callee is possible in response to the request of the callee, and if the callee cannot be directly controlled, uses artificial intelligence to have a conversation with the caller of the contact to close the contact It is characterized by processing.

発信者と着信者間のコンタクトのためのサービスを提供するコンピュータ装置であって、コンピュータで読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、ネットワークを介して前記発信者から前記着信者に対するコンタクトの要請を受信し、前記コンタクトの要請に対する前記着信者の直接制御が可能であるかを決定し、前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理し、前記会話の要約情報を生成して前記着信者に提供することを特徴とする。 1. A computing device for providing services for contact between a caller and a called party, the device comprising at least one processor implemented to execute computer readable instructions, the at least one processor being connected to a network. receiving a contact request from the caller to the called party via and determining whether the called party can directly control the contact request; and if the called party cannot directly control the contact request, It is characterized by using artificial intelligence to have a conversation with the caller of the contact, process the contact, generate summary information of the conversation and provide it to the called party.

音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクトの要請を、人工知能(Artificial Intelligence:AI)がユーザのスケジュールやライフスタイルを反映して処理することができる。 Artificial intelligence (AI) processing of external contact requests, such as voice calls, video calls, and/or receiving instant messages, reflecting the user's schedule and lifestyle. can be done.

本発明の一実施形態における、ネットワーク環境の例を示した図である。1 is a diagram showing an example of a network environment in one embodiment of the present invention; FIG. 本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。1 is a block diagram for explaining internal configurations of an electronic device and a server in one embodiment of the present invention; FIG. 本発明の一実施形態における、クラウド人工知能プラットフォームの例を示した図である。1 illustrates an example of a cloud artificial intelligence platform in one embodiment of the present invention; FIG. 本発明の一実施形態における、電子機器のコンタクト制御のための全体過程の例を示した図である。FIG. 4 is a diagram showing an example of an overall process for contact control of an electronic device in one embodiment of the present invention; 本発明の一実施形態における、サーバのコンタクト制御のための全体過程の例を示した図である。FIG. 4 illustrates an example of an overall process for contact control of a server in an embodiment of the present invention; 本発明の一実施形態における、要約文を提供する例を示した図である。FIG. 4 is a diagram showing an example of providing a summary sentence in one embodiment of the present invention; 本発明の一実施形態における、要約文を提供する例を示した図である。FIG. 4 is a diagram showing an example of providing a summary sentence in one embodiment of the present invention; 本発明の一実施形態における、後処理動作が実行された例を示した図である。FIG. 10 is a diagram showing an example in which post-processing operations are performed in one embodiment of the present invention; 本発明の一実施形態における、音声通話の受諾または拒否を選択するためのユーザインタフェースの例を示した図である。FIG. 10 illustrates an example user interface for selecting to accept or decline voice calls in one embodiment of the present invention; 本発明の一実施形態における、自撮り映像が表示されたプレビュー画面の例を示した図である。FIG. 10 is a diagram showing an example of a preview screen displaying a self-portrait image in one embodiment of the present invention; 本発明の一実施形態における、電子機器のコンタクト制御方法の例を示したフローチャートである。4 is a flow chart showing an example of a contact control method for an electronic device in one embodiment of the present invention. 本発明の一実施形態における、人工知能を利用してコンタクトを処理する例を示したフローチャートである。1 is a flowchart illustrating an example of using artificial intelligence to process contacts in accordance with one embodiment of the present invention. は本発明の一実施形態における、サーバのコンタクト制御方法の例を示したフローチャートである。4 is a flow chart showing an example of a contact control method of a server in one embodiment of the present invention;

以下、実施形態について、添付の図面を参照しながら詳しく説明する。 Embodiments will be described in detail below with reference to the accompanying drawings.

本発明の実施形態に係るコンタクト制御方法は、以下で説明される電子機器またはサーバのようなコンピュータ装置によって実行されてよい。このとき、コンピュータ装置には、本発明の一実施形態に係るコンピュータプログラムがインストールおよび駆動されてよく、コンピュータ装置は、駆動するコンピュータプログラムの制御にしたがって本発明の一実施形態に係るコンタクト制御方法を実行してよい。上述したコンピュータプログラムは、コンピュータ装置と結合してコンタクト制御方法をコンピュータに実行させるために、コンピュータで読み取り可能な記録媒体に格納されてよい。例えば、電子機器にインストールおよび駆動されたアプリケーションの制御にしたがい、電子機器は、音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクトの要請を、人工知能(Artificial Intelligence:AI)を利用してユーザのスケジュールやライフスタイルを反映して自動で処理してよい。このような処理は、電子機器にインストールおよび駆動されたアプリケーションの制御にしたがって電子機器が自主的に実行してもよいが、実施形態によっては、人工知能の機能を提供するサーバで実行されてもよい。例えば、人工知能は、ユーザが伝達されるコンタクトの要請を処理することができない状況を自動で認識し、認識された状況に基づき、伝達されるコンタクトの要請をユーザの制御を必要とせずに自動で処理してよい。 A contact control method according to embodiments of the present invention may be performed by a computing device such as an electronic device or a server described below. At this time, the computer program according to one embodiment of the present invention may be installed and driven in the computer device, and the computer device executes the contact control method according to one embodiment of the present invention under the control of the computer program to be driven. can be executed. The computer program described above may be stored in a computer-readable recording medium in order to cause the computer to execute the contact control method in combination with the computer device. For example, under the control of an application installed and driven on the electronic device, the electronic device may receive contact requests communicated externally to the user, such as voice calls, video calls, and/or receiving instant messages. (Artificial Intelligence: AI) may be used to automatically process the user's schedule and lifestyle. Such processing may be performed autonomously by the electronic device under the control of an application installed and driven by the electronic device, or may be performed by a server that provides artificial intelligence functionality depending on the embodiment. good. For example, artificial intelligence can automatically recognize situations in which a user is unable to process a communicated contact request, and based on the recognized situation, automatically process a communicated contact request without requiring user control. can be processed with

図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。 FIG. 1 is a diagram showing an example of a network environment in one embodiment of the present invention. The network environment of FIG. 1 illustrates an example including multiple electronic devices 110 , 120 , 130 , 140 , multiple servers 150 , 160 , and a network 170 . Such FIG. 1 is merely an example for explaining the invention, and the number of electronic devices and the number of servers are not limited as in FIG.

複数の電子機器110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型パンコン、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットなどがある。一例として、図1では、電子機器1(110)の例としてスマートフォンの形状を示しているが、本発明の実施形態において、電子機器1(110)は、実質的に無線または有線通信方式を利用してネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信することのできる多様な物理的なコンピュータ装置のうちの1つを意味してよい。 The plurality of electronic devices 110, 120, 130, 140 may be fixed terminals or mobile terminals implemented by computing devices. Examples of the plurality of electronic devices 110, 120, 130, and 140 include smart phones, mobile phones, navigation systems, PCs (personal computers), notebook pan computers, digital broadcasting terminals, PDAs (Personal Digital Assistants), and PMPs (Portable Multimedia Players). ), tablets, etc. As an example, FIG. 1 shows the shape of a smartphone as an example of the electronic device 1 (110). may refer to one of a variety of physical computing devices capable of communicating with other electronic devices 120 , 130 , 140 and/or servers 150 , 160 via network 170 as a network.

通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を活用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター-バスネットワーク、ツリーまたは階層的(hierarchical)ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。 The communication method is not limited, and not only a communication method that utilizes a communication network that can be included in the network 170 (eg, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network), but also a short distance between devices. Wireless communication may be included. For example, the network 170 includes a PAN (personal area network), a LAN (local area network), a CAN (campus area network), a MAN (metropolitan area network), a WAN (wide area network), a BBN (broadband network). k), such as the Internet Any one or more of the networks may be included. Additionally, network 170 may include any one or more of network topologies including bus networks, star networks, ring networks, mesh networks, star-bus networks, tree or hierarchical networks, etc. It is not limited to these.

サーバ150、160それぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供するコンピュータ装置または複数のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第1サービスを提供するシステムであってよく、サーバ160も、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第2サービスを提供するシステムであってよい。より具体的な例として、サーバ150は、複数の電子機器110、120、130、140にインストールされて駆動するコンピュータプログラムとしてのアプリケーションを通じて該当のアプリケーションが目的とするサービス(一例として、本実施形態に係るコンタクト制御方法を処理するためのサービス、音声通話サービス、映像通話サービス、検索サービス、情報提供サービス、メッセージングサービス、メールサービス、および/またはコンテンツ送信サービスなど)を第1サービスとして複数の電子機器110、120、130、140に提供してよい。他の例として、サーバ160は、上述したアプリケーションのインストールおよび駆動のためのファイルを複数の電子機器110、120、130、140に配布するサービスを第2サービスとして提供してよい。 Each of servers 150, 160 is implemented by a computer device or a plurality of computer devices that communicate with a plurality of electronic devices 110, 120, 130, 140 via network 170 to provide instructions, code, files, content, services, etc. you can For example, the server 150 may be a system that provides a first service to a plurality of electronic devices 110, 120, 130, 140 connected via the network 170, and the server 160 may also be a system that provides a plurality of electronic devices connected via the network 170. It may be a system that provides the second service to the electronic devices 110 , 120 , 130 , 140 . As a more specific example, the server 150 provides a service (for example, services for processing such contact control methods, voice call services, video call services, search services, information providing services, messaging services, mail services, and/or content transmission services, etc.) as a first service, a plurality of electronic devices 110 , 120, 130, 140. As another example, the server 160 may provide, as a second service, a service for distributing files for installing and running the above-described applications to the plurality of electronic devices 110, 120, 130, and 140. FIG.

図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図2では、電子機器に対する例として電子機器1(110)の内部構成と、サーバ150の内部構成について説明する。また、他の電子機器120、130、140やサーバ160も、上述した電子機器1(110)またはサーバ150と同一または類似の内部構成を有してよい。 FIG. 2 is a block diagram for explaining internal configurations of an electronic device and a server in one embodiment of the present invention. In FIG. 2, the internal configuration of the electronic device 1 (110) and the internal configuration of the server 150 will be described as an example of the electronic device. Other electronic devices 120, 130, 140 and server 160 may also have the same or similar internal configurations as electronic device 1 (110) or server 150 described above.

電子機器1(110)とサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、コンピュータで読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永久大容量記憶装置(permanent mass storage device)を含んでよい。ここで、ROMとディスクドライブのような永久大容量格納装置は、メモリ211、221とは区分される別の永久格納装置として電子機器1(110)やサーバ150に含まれてもよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電気機器1(110)にインストールされ駆動するブラウザや特定のサービスを提供するために電子機器1(110)にインストールされたアプリケーションなどのためのコード)が格納されてよい。このようなソフトウェア構成要素は、メモリ211、221とは別のコンピュータで読み取り可能な記録媒体からロードされてよい。このような別のコンピュータで読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータで読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータで読み取り可能な記録媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるコンピュータプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。 Electronic device 1 (110) and server 150 may include memories 211, 221, processors 212, 222, communication modules 213, 223, and input/output interfaces 214, 224. The memories 211 and 221 are computer-readable recording media and include RAM (random access memory), ROM (read only memory), and permanent mass storage devices such as disk drives. OK. Here, a permanent mass storage device such as a ROM and a disk drive may be included in the electronic device 1 (110) or the server 150 as a separate permanent storage device separate from the memories 211,221. The memories 211 and 221 also store an operating system and at least one program code (for example, a browser installed and driven in the electrical device 1 (110) and a browser installed in the electronic device 1 (110) to provide a specific service). code for installed applications, etc.) may be stored. Such software components may be loaded from a computer-readable recording medium separate from the memories 211,221. Such another computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, disk, tape, DVD/CD-ROM drive, memory card, and the like. In other embodiments, the software components may be loaded into memory 211, 221 through communication modules 213, 223 that are not computer readable media. For example, at least one program is a computer program (as an example, the above-mentioned may be loaded into the memory 211, 221 based on the application).

プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記録装置に格納されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。 Processors 212, 222 may be configured to process computer program instructions by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to processors 212 , 222 by memory 211 , 221 or communication modules 213 , 223 . For example, processors 212 , 222 may be configured to execute received instructions according to program code stored in a storage device, such as memory 211 , 221 .

通信モジュール213、223は、ネットワーク170を介して電子機器1(110)とサーバ150とが互いに通信するための機能を提供してもよいし、電子機器1(110)および/またはサーバ150が他の電子機器(一例として、電子機器2(120))または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、電子機器1(110)のプロセッサ212がメモリ211のような記録装置に格納されたプログラムコードにしたがって生成した要求が、通信モジュール213の制御にしたがってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御にしたがって提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て電子機器1(110)の通信モジュール213を通じて電子機器1(110)に受信されてもよい。例えば、通信モジュール213を通じて受信したサーバ150の制御信号や命令、コンテンツ、ファイルなどは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、電子機器1(110)がさらに含むことのできる格納媒体(上述した永久格納装置)に格納されてよい。 Communication modules 213 and 223 may provide functions for electronic device 1 (110) and server 150 to communicate with each other via network 170, and electronic device 1 (110) and/or server 150 may communicate with each other. may provide functionality for communicating with other electronic devices (eg, electronic device 2 (120)) or other servers (eg, server 160). As an example, a request generated by the processor 212 of the electronic device 1 (110) according to program code stored in a recording device such as the memory 211 is transmitted to the server 150 via the network 170 under the control of the communication module 213. you can Conversely, control signals, commands, contents, files, etc., provided under the control of the processor 222 of the server 150 are transmitted to the electronic device via the communication module 213 of the electronic device 1 (110) via the communication module 223 and the network 170. 1 (110). For example, control signals, instructions, content, files, etc. of the server 150 received through the communication module 213 may be transmitted to the processor 212 and the memory 211, and the content, files, etc. may be further included in the electronic device 1 (110). may be stored in any storage medium (permanent storage as described above).

入力/出力インタフェース214は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボードまたはマウスなどの装置を含んでよく、出力装置は、ディスプレイやスピーカのような装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置215は、電子機器1(110)と1つの装置で構成されてもよい。また、サーバ150の入力/出力インタフェース224は、サーバ150と連結するかサーバ150が含むことのできる入力または出力のための装置(図示せず)とのインタフェースのための手段であってよい。より具体的な例として、電子機器1(110)のプロセッサ212がメモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や電子機器2(120)が提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース214を通じてディスプレイに表示されてよい。 Input/output interface 214 may be a means for interfacing with input/output devices 215 . For example, input devices may include devices such as keyboards or mice, and output devices may include devices such as displays and speakers. As another example, input/output interface 214 may be a means for interfacing with a device that integrates functionality for input and output, such as a touch screen. The input/output device 215 may consist of one device with electronic device 1 (110). Input/output interface 224 of server 150 may also be a means for interfacing with devices (not shown) for input or output that are coupled to server 150 or that server 150 may include. As a more specific example, when the processor 212 of the electronic device 1 (110) processes the instructions of the computer program loaded into the memory 211, data provided by the server 150 and the electronic device 2 (120) are used. The service screens and content displayed may be displayed on the display through the input/output interface 214 .

また、他の実施形態において、電子機器1(110)およびサーバ150は、図2の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器1(110)は、上述した入力/出力装置215のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器1(110)がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラモジュール、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が、電子機器1(110)にさらに含まれるように実現されてよい。 Also, in other embodiments, electronic device 1 (110) and server 150 may include more components than those in FIG. However, most prior art components need not be explicitly shown in the figures. For example, electronic device 1 (110) may be implemented to include at least some of the input/output devices 215 described above, a transceiver, a GPS (Global Positioning System) module, a camera, various sensors, a database It may further include other components such as As a more specific example, when the electronic device 1 (110) is a smartphone, the acceleration sensor, gyro sensor, camera module, various physical buttons, buttons using a touch panel, input/ Various components such as an output port, a vibrator for vibration, etc. may be implemented to be further included in the electronic device 1 (110).

図3は、本発明の一実施形態における、クラウド人工知能プラットフォームの例を示した図である。図3は、電子機器310とクラウド人工知能プラットフォーム320、およびコンテンツ・サービス330を示している。 FIG. 3 is a diagram illustrating an example of a cloud artificial intelligence platform in one embodiment of the present invention. FIG. 3 shows electronic device 310 and cloud artificial intelligence platform 320 and content service 330 .

一例として、電子機器310は、少なくとも上述した複数の電子機器110、120、130、140を含んでよく、このような電子機器310や電子機器310にインストールおよび駆動されるアプリケーション(以下、アプリ)は、インタフェースコネクト340を介してクラウド人工知能プラットフォーム320と連係してよい。一例として、クラウド人工知能プラットフォーム320は、上述したサーバ150を少なくとも含んでよい。ここで、インタフェースコネクト340は、電子機器310や電子機器310にインストールおよび駆動されるアプリの開発のためのSDK(Software Development Kit)および/または開発文書を開発者に提供してよい。また、インタフェースコネクト340は、電子機器310や電子機器310にインストールおよび駆動されるアプリが、クラウド人工知能プラットフォーム320が提供する機能を活用することのできるAPI(Application Program Interface)を提供してよい。具体的な例として、開発者がインタフェースコネクト340の提供するSDK(Software Development Kit)および/または開発文書を利用して開発した機器やアプリは、インタフェースコネクト340が提供するAPIを利用することで、クラウド人工知能プラットフォーム320が提供する機能を活用することが可能となる。 As an example, the electronic device 310 may include at least a plurality of the electronic devices 110, 120, 130, and 140 described above. , may interface with cloud artificial intelligence platform 320 via interface connect 340 . As an example, cloud artificial intelligence platform 320 may include at least server 150 as described above. Here, the interface connect 340 may provide developers with an SDK (Software Development Kit) and/or development documents for developing the electronic device 310 and applications installed and driven on the electronic device 310 . The interface connect 340 may also provide an API (Application Program Interface) that allows the electronic device 310 or an application installed and driven on the electronic device 310 to utilize the functions provided by the cloud artificial intelligence platform 320 . As a specific example, a device or application developed by a developer using an SDK (Software Development Kit) and/or a development document provided by the interface connect 340 can use the API provided by the interface connect 340 to: It becomes possible to utilize the functions provided by the cloud artificial intelligence platform 320 .

一例として、クラウド人工知能プラットフォーム320は、音声基盤のサービスを提供するための機能を提供してよい。例えば、クラウド人工知能プラットフォーム320は、受信した音声を認識し、認識した音声に対して出力される音声を合成するための音声処理モジュール321、受信した映像や動画を分析して処理するためのビジョン処理モジュール322、受信した音声にしたがって適切な音声を出力するために適した会話を決定するための会話処理モジュール323、受信した音声に適した機能を勧めるための推薦モジュール324、人工知能がデータ学習に基づいて文章単位で言語を翻訳できるように支援するニューラル機械翻訳(Neural Machine Translation:NMT)325などのように、音声基盤サービスを提供するための多様なモジュールを含んでよい。 As an example, the cloud artificial intelligence platform 320 may provide functionality for providing voice-based services. For example, the cloud artificial intelligence platform 320 includes an audio processing module 321 for recognizing received audio and synthesizing output audio for the recognized audio, and a vision module 321 for analyzing and processing received video and video. A processing module 322, a conversation processing module 323 for determining suitable conversations for outputting appropriate speech according to the received speech, a recommendation module 324 for recommending functions suitable for the received speech, and artificial intelligence data learning. It may include various modules for providing speech-based services, such as a neural machine translation (NMT) 325 that supports language translation on a sentence-by-sentence basis.

例えば、電子機器2(120)のユーザが、電子機器2(120)を利用して電子機器1(110)に音声通話の要請を伝達する状況を考慮してみよう。このとき、電子機器1(110)は、アプリケーションの制御にしたがい、電子機器1(110)のユーザが音声通話の要請を直接受諾することができない状況を認識したとする。この場合、電子機器1(110)は、ユーザが直接的に制御しなくても、電子機器2(120)からの音声通話要請を自動で受諾することにより、電子機器1(110)と電子機器2(120)との間に音声通話セッションが設定されるようになる。また、電子機器1(110)は、アプリケーションの制御にしたがい、インタフェースコネクト340を介してクラウド人工知能プラットフォーム320が提供する機能を活用することにより、電子機器2(120)のユーザと人工知能を利用した会話を実行してもよい。この場合、人工知能は、上述した音声通話セッションを通じて伝達される電子機器2(120)のユーザの音声を音声処理モジュール321によって認識してよく、認識された音声に適した会話を会話処理モジュール323によって決定してよい。また、人工知能は、決定された会話にしたがって出力するための出力音声を、再び音声処理モジュール321を利用して合成してよく、合成された出力音声は、上述した音声通話セッションを通じて電子機器2(120)に伝達することにより、人工知能と電子機器2(120)のユーザとの間に音声通話が成立するようになる。 For example, consider the situation where the user of electronic device 2 (120) utilizes electronic device 2 (120) to communicate a voice call request to electronic device 1 (110). At this time, it is assumed that the electronic device 1 (110) recognizes a situation in which the user of the electronic device 1 (110) cannot directly accept the voice call request under the control of the application. In this case, the electronic device 1 (110) automatically accepts the voice call request from the electronic device 2 (120) even if the user does not directly control the electronic device 1 (110) and the electronic device 1 (110). 2 (120), a voice call session is set up. In addition, the electronic device 1 (110) uses the functions provided by the cloud artificial intelligence platform 320 via the interface connect 340 under the control of the application, thereby using the user of the electronic device 2 (120) and artificial intelligence. You may carry out a conversation with In this case, the artificial intelligence may recognize the voice of the user of the electronic device 2 (120) transmitted through the voice call session described above by the voice processing module 321, and generate a conversation suitable for the recognized voice by the conversation processing module 323. may be determined by In addition, the artificial intelligence may synthesize an output voice to be output according to the determined conversation using the voice processing module 321 again, and the synthesized output voice is transmitted through the above-described voice call session to the electronic device 2. (120), a voice call is established between the artificial intelligence and the user of the electronic device 2 (120).

また、拡張キット350は、第3者コンテンツ開発者または会社がクラウド人工知能プラットフォーム320を基盤として新たな音声基盤機能を実現することのできる開発キットを提供してよい。例えば、電子機器1(110)にインストールされたアプリケーションが、上述した開発キットによって開発された第3者コンテンツであるとする。この場合、第3者コンテンツ開発者は、自動で音声通話を実行するための人工知能を自主的に開発しなくても、自身のアプリケーションがインタフェースコネクト340を介してクラウド人工知能プラットフォーム320と通信し、クラウド人工知能プラットフォーム320が含む機能を活用するようにすることにより、人工知能を利用した会話機能を提供することが可能となる。 In addition, the expansion kit 350 may provide a development kit that enables third-party content developers or companies to implement new voice-based functions based on the cloud artificial intelligence platform 320 . For example, assume that an application installed in electronic device 1 (110) is third-party content developed using the above-described development kit. In this case, third-party content developers do not need to independently develop artificial intelligence for automatically executing voice calls, but their applications communicate with cloud artificial intelligence platform 320 via interface connect 340. , by utilizing the functions included in the cloud artificial intelligence platform 320, it is possible to provide a conversation function using artificial intelligence.

図3の実施形態では、人工知能のための機能のうちの音声会話を処理するための機能が、クラウド人工知能プラットフォーム320が含むモジュール(音声処理モジュール321および会話処理モジュール323)に提供される例について説明した。しかし、実施形態によっては、人工知能のためのすべての機能が、電子機器1(110)にインストールおよび駆動されるアプリケーションに含まれてもよい。この場合、電子機器1(110)は、クラウド人工知能プラットフォーム320のようなサーバ150と通信する必要がなくなり、音声処理モジュール321および会話処理モジュール323によって電子機器2(120)のユーザとの会話を自主的に実行することが可能となる。 In the embodiment of FIG. 3, the functions for processing voice conversations among the functions for artificial intelligence are provided to modules (voice processing module 321 and conversation processing module 323) included in cloud artificial intelligence platform 320. explained. However, in some embodiments, all functionality for artificial intelligence may be included in an application installed and driven on electronic device 1 (110). In this case, the electronic device 1 (110) no longer needs to communicate with the server 150 such as the cloud artificial intelligence platform 320, and the conversation with the user of the electronic device 2 (120) is performed by the voice processing module 321 and the conversation processing module 323. It becomes possible to execute it voluntarily.

図4は、本発明の一実施形態における、電子機器のコンタクト制御のための全体過程の例を示した図である。 FIG. 4 is a diagram showing an example of the overall process for contact control of an electronic device in one embodiment of the present invention.

第1過程410は、電子機器1(110)が電子機器2(120)からコンタクトの要請を受信する過程であってよい。ここで、コンタクトは、音声通話や映像通話、またはメッセンジャーを利用したインスタントメッセージの送受信などのように電子機器1(110)と電子機器2(120)との間に通信セッションの設定および維持が要求されるコンタクトを含んでもよいし、SMS(Short Message Service)やMMS(Multimedia Message Service)、電子メール(e-mail)の受信などのように電子機器1(110)と電子機器2(120)との間に通信セッションの維持が要求されないコンタクトを含んでもよい。また、図4では、コンタクトの要請が電子機器2(120)から電子機器1(110)に直接的に送信されるように表現されているが、実質的に、コンタクトの種類によっては、ネットワーク上の多様な中間ノードを経て電子機器1(110)に送信されてよい。例えば、メッセンジャーを利用したインスタントメッセージの場合は、メッセンジャーサーバを経て電子機器1(110)に送信されてよく、音声通話のためのコール信号の受信は、音声通話のコール信号を処理するサーバを経て電子機器1(110)に送信されてよい。これと同じように、映像通話のためのコール信号は、映像通話を処理するサーバを経て電子機器1(110)に送信されてよい。 The first process 410 may be a process in which the electronic device 1 (110) receives a contact request from the electronic device 2 (120). Here, the contact requests setting and maintenance of a communication session between the electronic device 1 (110) and the electronic device 2 (120) such as voice call, video call, or instant message transmission/reception using messenger. may include contacts to be received, and electronic device 1 (110) and electronic device 2 (120), such as receiving SMS (Short Message Service), MMS (Multimedia Message Service), e-mail (e-mail), etc. may include contacts for which no communication session is required to be maintained during the In addition, although FIG. 4 shows that the contact request is directly transmitted from the electronic device 2 (120) to the electronic device 1 (110), in reality, depending on the type of contact, may be transmitted to the electronic device 1 (110) via various intermediate nodes of. For example, an instant message using messenger may be sent to the electronic device 1 (110) via a messenger server, and a call signal for a voice call may be received via a server that processes call signals for voice calls. It may be sent to electronic device 1 (110). Similarly, call signals for a video call may be sent to electronic device 1 (110) via a server that processes the video call.

第2過程420は、電子機器1(110)が、電子機器1(110)のユーザの直接制御が可能であるかを決定する過程であってよい。ここで、ユーザの状況は、ユーザがコンタクトの要請を直接制御することができる状況(以下、「第1状況」)と、ユーザがコンタクトの要請を直接制御することができない状況(以下、「第2状況」)の2つに大別されてよい。このとき、このようなユーザの状況は、ユーザのスケジュールやライフスタイルなどのようにユーザと関連して習得される情報を分析することによって決定されてよい。このような情報は、電子機器1(110)に予め格納されて管理される情報であってもよいが、オンライン上でユーザのスケジュールやユーザのライフスタイルと関連する情報を管理するサーバ(一例として、サーバ150)のように電子機器1(110)の外部から受信される情報であってもよい。このような第2過程420は、コンタクト要請の受信による通知をユーザに提供する前に実行されてよい。例えば、従来技術では、音声通話のコール信号の受信に伴ってベル音や振動のような通知を出力するが、ユーザはこのような通知の出力に応答してコンタクトの要請を処理していた。この反面、本実施形態に係る電子機器1(110)は、コンタクト要請の受信による通知を出力する前に、ユーザの直接制御が可能であるかのようなユーザの状況を先に決定してよい。 The second step 420 may be a step of determining whether the electronic device 1 (110) is directly controllable by the user of the electronic device 1 (110). Here, the user's situation includes a situation in which the user can directly control the contact request (hereinafter referred to as "first situation") and a situation in which the user cannot directly control the contact request (hereinafter referred to as "second situation"). 2 situations"). At this time, the user's situation may be determined by analyzing information acquired in relation to the user, such as the user's schedule and lifestyle. Such information may be information stored and managed in advance in the electronic device 1 (110), but a server (for example, , server 150) may be received from outside the electronic device 1 (110). Such a second step 420 may be performed prior to providing the user with notification upon receipt of the contact request. For example, in the prior art, a notification such as a bell sound or vibration is output in response to receiving a call signal for a voice call, and the user processes the contact request in response to the output of such notification. On the other hand, the electronic device 1 (110) according to the present embodiment may first determine the user's status as if the user's direct control is possible before outputting the notification upon receipt of the contact request. .

第3過程430は、第1状況の場合、電子機器1(110)がコンタクト要請の受信に対する通知を出力する過程であってよい。この場合、電子機器1(110)のユーザは、出力された通知に反応してコンタクトの要請を直接処理してよい。 The third step 430 may be a step of outputting a notification of receipt of the contact request by the electronic device 1 (110) in the first situation. In this case, the user of electronic device 1 (110) may directly process the contact request in response to the output notification.

第4過程440は、電子機器1(110)がユーザの直接制御によってコンタクトを処理し、その後にコンタクト制御のための過程が終了する過程であってよい。例えば、要請されたコンタクトが音声通話や映像通話である場合には、電子機器1(110)のユーザと電子機器2(120)のユーザとの間で音声通話や映像通話がなされた後、第1過程410で受信したコンタクトの要請と関連するコンタクト制御は終了してよい。または、要請されたコンタクトがインスタントメッセージである場合、電子機器1(110)のユーザが、受信されたインスタントメッセージを確認した後、第1過程410で受信したコンタクトの要請と関連するコンタクト制御は終了してよい。 A fourth process 440 may be a process in which the electronic device 1 (110) processes the contact under direct control of the user, and then the process for contact control ends. For example, when the requested contact is a voice call or a video call, after the voice call or video call is made between the user of the electronic device 1 (110) and the user of the electronic device 2 (120), the second 1 At step 410, the contact request associated with the received contact request may be terminated. Alternatively, if the requested contact is an instant message, after the user of the electronic device 1 (110) confirms the received instant message, the contact control associated with the received contact request in the first step 410 ends. You can

第5過程450は、第2状況の場合、電子機器1(110)が人工知能を利用してコンタクトの要請を受諾して対応を実行する過程であってよい。例えば、音声通話や映像通話である場合、人工知能がコンタクトの要請を直接受諾した後、電子機器2(120)のユーザと人工知能との間で音声通話や映像通話が行われてよい。この場合、電子機器2(120)のユーザと人工知能との間に送受信される音声や映像が電子機器1(110)に出力される必要はなく、電子機器1(110)で内部的に音声通話や映像通話が行われてよい。他の例として、インスタントメッセージが受信された場合、人工知能は、受信されたインスタントメッセージに対する返答メッセージを電子機器2(120)に送信してよい。 The fifth process 450 may be a process in which the electronic device 1 (110) uses artificial intelligence to accept the contact request and take action in the second situation. For example, in the case of a voice call or video call, after the artificial intelligence directly accepts the contact request, the voice call or video call may be made between the user of the electronic device 2 (120) and the artificial intelligence. In this case, there is no need to output audio and video transmitted and received between the user of the electronic device 2 (120) and the artificial intelligence to the electronic device 1 (110). Calls and video calls may be made. As another example, when an instant message is received, the artificial intelligence may send a reply message to the received instant message to electronic device 2 (120).

第6過程460は、電子機器1(110)が人工知能の応対と関連する要約文を生成する過程であってよい。要約文には、コンタクトの種類(一例として、音声通話、映像通話、インスタントメッセージなど)と、コンタクトの要請が受信された時刻、人工知能の応対による人工知能と電子機器2(120)のユーザとの会話内容、またはこのような会話内容の要約情報などのような情報が含まれてよい。例えば、音声通話に対して人工知能応対がなされた場合、人工知能は、電子機器2(120)のユーザとの会話の内容に含まれている音声を認識し、認識した音声をテキストに変換してよい。この後、変換されたテキストを分析して要約情報を生成してよい。 A sixth process 460 may be a process in which the electronic device 1 (110) generates a summary related to the AI response. The abstract includes the type of contact (for example, voice call, video call, instant message, etc.), the time the contact request was received, the artificial intelligence by the artificial intelligence response, and the user of the electronic device 2 (120). information such as the content of the conversation, or summary information for such conversation content. For example, when an artificial intelligence responds to a voice call, the artificial intelligence recognizes the speech included in the content of the conversation with the user of the electronic device 2 (120), and converts the recognized speech into text. you can After this, the converted text may be analyzed to generate summary information.

第7過程470は、電子機器1(110)が、電子機器1(110)のユーザの直接制御が可能であるかをモニタリングする過程であってよい。この場合にも、電子機器1(110)は、電子機器1(110)のユーザのスケジュールやライフスタイルなどのように電子機器1(110)のユーザと関連して習得される情報を分析することにより、コンタクトの要請に対し、電子機器1(110)のユーザの直接制御が可能な第1状況であるか、あるいはコンタクトの要請に対する電子機器1(110)のユーザの直接制御が不可能な第2状況であるかを決定してよい。 A seventh process 470 may be a process of monitoring whether the electronic device 1 (110) is directly controllable by the user of the electronic device 1 (110). In this case as well, electronic device 1 (110) analyzes information learned in relation to the user of electronic device 1 (110), such as the schedule and lifestyle of the user of electronic device 1 (110). Depending on the contact request, the user of the electronic device 1 (110) can directly control the first state, or the contact request cannot be directly controlled by the user of the electronic device 1 (110). 2 may determine if there is a situation.

例えば、電子機器1(110)のユーザのスケジュールによると、本日14時から16時まで会議が入っている状態で、第1過程410で説明したコンタクトの要請を受信した時刻が本日15時であったとする。この場合、人工知能は、電子機器1(110)のユーザは受信したコンタクトの要請を直接制御することができない第2状況であると判断してよく、第5過程450で説明したように、コンタクトの要請を受諾して直接応対を処理してよい。この後、人工知能は、応対と関連する要約文を生成してよい。このとき、要約文の生成時刻が15時30分であったとする。会議の終了時間が16時であると予定されているため、人工知能は、16時までは電子機器1(110)のユーザの直接制御が不可能な第2状況であると判断してよく、16時まで要約文のレポートを遅らせてよい。 For example, according to the schedule of the user of the electronic device 1 (110), the meeting is scheduled from 14:00 to 16:00 today, and the contact request described in the first process 410 is received at 15:00 today. Suppose In this case, the artificial intelligence may determine that the user of the electronic device 1 (110) is in a second situation where the user of the electronic device 1 (110) cannot directly control the received contact request, and as described in the fifth step 450, the contact may accept the request and process the response directly. The artificial intelligence may then generate a summary sentence associated with the response. Assume that the summary is generated at 15:30 at this time. Since the meeting is scheduled to end at 16:00, the artificial intelligence may determine that the electronic device 1 (110) is in a second situation in which direct control by the user of the electronic device 1 (110) is impossible until 16:00, You may delay the summary report until 16:00.

第8過程480は、電子機器1(110)のユーザの状況が第2状況から第1状況に変更することにより、電子機器1(110)が、生成された要約を電子機器1(110)のユーザにレポートする過程であってよい。例えば、電子機器1(110)は、コンタクトがあったことを知らせるための通知をユーザに提供し、通知に対するユーザの反応にしたがい、生成された要約文を電子機器1(110)の画面に表示してよい。 The eighth step 480 is that the electronic device 1 (110) changes the status of the user of the electronic device 1 (110) from the second status to the first status, and the electronic device 1 (110) sends It may be the process of reporting to the user. For example, the electronic device 1 (110) provides a notification to the user to notify that there is a contact, and displays the generated summary on the screen of the electronic device 1 (110) according to the user's reaction to the notification. You can

一方、実施形態によっては、要約文は第2状況でレポートされてもよい。例えば、人工知能は、要約文の生成後に電子機器1(110)のユーザによる入力が発生した場合、またはユーザによって予め設定された条件が満たされた場合には、第2状況であっても要約文をレポートしてよい。例えば、会議中の状況であるユーザであったとしても、電子機器1(110)に入力が発生した場合には、ユーザに少しの余裕が生じたと判断してよい。この場合、ユーザ入力の発生に応答し、第2状況であっても要約文がレポートされてよい。実質的に、要約文のレポートに関する通知がユーザに提供されてよく、レポートされた要約を直ぐに確認するか、または状況に応じてゆっくり確認するかに関しては、ユーザによって選択されてよい。他の例として、ユーザが電話を直接とることのできない状況であったとしても、要約文は確認することのできる状況であることもある。このような場合、ユーザによって予め設定された条件(一例として、コンタクトの重要性や、特定の時間あるいは特定の場所など)を満たす場合には、第2状況であっても要約文がレポートされてよい。 On the other hand, in some embodiments, summary sentences may be reported in the second context. For example, the artificial intelligence can generate a summary even in the second situation if an input by the user of the electronic device 1 (110) occurs after generation of the summary, or if a condition preset by the user is met. Sentences may be reported. For example, even if the user is in the middle of a meeting, it may be determined that the user has some time to spare when an input occurs in the electronic device 1 (110). In this case, a summary sentence may be reported even in the second situation in response to the occurrence of user input. In effect, a notification may be provided to the user regarding the report of the summary text, and the user may choose to review the reported summary immediately or lazily as the case may be. As another example, even if the user cannot pick up the phone directly, the summary may be confirmed. In such a case, if the conditions preset by the user (for example, the importance of the contact, a specific time or a specific place, etc.) are met, the summary is reported even in the second situation. good.

また他の実施形態として、上述した第4過程440で、ユーザがコンタクトの要請を直接処理する過程であっても、ユーザの要求によっては要約文が生成および提供されてもよい。例えば、音声通話の受信によってベル音が鳴り、ユーザが電子機器1(110)を操作して音声通話を開始したとする。このとき、ユーザから要求が入力されることにより、人工知能は、ユーザと発信者間の音声通話内容を記録および要約し、要約文を提供してよい。この場合、ユーザは、発信者との通話内容の主要事項を、通話終了後にも要約によって再確認することができるようになる。このとき、ユーザからの要求は、予め設定された音声(一例として、「サリー(人工知能の識別子の例)、今から通話内容を記録/要約して」)と入力されてもよいし、画面に表示される予め設定されたユーザインタフェースボタン(一例として、「AI呼び出し要請」)によって入力されてもよい。より具体的な例として、電子機器1(110)は、ユーザが発信者と直接コンタクトをしている途中に、アプリケーションの制御にしたがって予め設定された音声(一例として、上述した「サリー」)を認識すると、これによる要請を処理するように動作するか、または通話内容の記録および/または要約のトリガリングのためのユーザインタフェースを画面に表示してよい。また、電子機器1(110)は、入力されるユーザの要請にしたがってユーザと発信者のコンタクトの内容を記録および/または要約し、記録された内容や要約文をユーザにレポートしてよい。この反面、通話内容の記録のために発信者の同意が求められる場合、電子機器1(110)は、発信者の同意を得るための音声を合成して発信者の同意を求め、発信者の応答に応じて記録を開始してよい。このとき、発信者に同意を求める過程と発信者の応答がさらに記録されてもよい。このように、人工知能を利用した自動応対の場合ではなく、ユーザが発信者とコンタクトを直接行う場合にも、該当のコンタクトに対する内容が記録および/または要約されてユーザに提供されてよい。また、映像通話でも、このような記録および/または要約の機能が提供されてよい。この場合には、少なくとも一部の映像が共に記録されて要約に含まれてよい。 In another embodiment, even when the user directly processes the contact request in the above-described fourth step 440, the summary may be generated and provided according to the user's request. For example, it is assumed that the reception of a voice call rings a bell and the user operates the electronic device 1 (110) to start a voice call. At this time, upon input of a request from the user, the artificial intelligence may record and summarize the contents of the voice call between the user and the caller and provide a summary sentence. In this case, the user can reconfirm the main points of the conversation with the caller by summarizing them even after the call ends. At this time, the request from the user may be input as a preset voice (for example, "Sally (an example of an identifier of artificial intelligence), now record/summarize the contents of the call"), or the screen may be input by a preset user interface button (eg, "AI call request") displayed in the . As a more specific example, electronic device 1 (110) outputs a preset voice (for example, "Sally" described above) under the control of an application while the user is in direct contact with the caller. Upon recognition, it may act to process the resulting request or display a user interface on the screen for triggering call recording and/or summaries. In addition, the electronic device 1 (110) may record and/or summarize the contents of the contact between the user and the caller according to the user's input request, and report the recorded contents and summary sentences to the user. On the other hand, when the consent of the caller is required for recording the contents of the call, the electronic device 1 (110) synthesizes voice for obtaining the consent of the caller, seeks the consent of the caller, and Recording may be initiated in response. At this time, the process of asking the caller for consent and the caller's response may be further recorded. In this way, even when the user contacts the caller directly, the content of the contact may be recorded and/or summarized and provided to the user, not in the case of automatic response using artificial intelligence. Video calls may also provide such recording and/or summarization capabilities. In this case, at least some of the video may be recorded together and included in the summary.

このような図4の実施形態では、電子機器1(110)が電子機器2(120)からのコンタクトの要請にしたがい、人工知能を利用してコンタクト制御を直接処理する例について説明した。この反面、他の実施形態では、電子機器1(110)と電子機器2(120)間のコンタクトを連結するサーバが、このようなコンタクト制御を処理する例について説明する。 In the embodiment of FIG. 4, an example has been described in which the electronic device 1 (110) directly processes contact control using artificial intelligence in response to a contact request from the electronic device 2 (120). On the other hand, in another embodiment, a server linking contacts between electronic device 1 (110) and electronic device 2 (120) processes such contact control.

図5は本発明の一実施形態における、サーバのコンタクト制御のための全体過程の例を示した図である。サーバ150は、電子機器1(110)と電子機器2(120)間の特定のコンタクトのためのサービスを提供するシステムのコンピュータ装置であってよい。この場合、電子機器2(120)のコンタクトの要請は、サーバ150を経て電子機器1(110)に伝達されてよい。 FIG. 5 is a diagram showing an example of the overall process for server contact control in one embodiment of the present invention. Server 150 may be a computing device of a system that provides services for a particular contact between electronic device 1 (110) and electronic device 2 (120). In this case, the contact request of the electronic device 2 (120) may be transmitted to the electronic device 1 (110) through the server 150. FIG.

第1過程510において、サーバ150は、電子機器2(120)から電子機器1(110)に対するコンタクトの要請を受信してよい。例えば、サーバ150は、メッセンジャーを通じてメッセージングサービス、音声通話サービス、および/または映像通話サービスを提供するシステムのコンピュータ装置であってよい。電子機器2(120)のユーザが電子機器1(110)のユーザのアカウントや電話番号を選択して音声通話や映像通話、またはインスタントメッセージの送信を要請した場合、コンタクトの要請がサーバ150を経て電子機器1(110)に伝達されてよい。第1過程510は、このようなコンタクトの要請をサーバ150が受信する過程を意味してよい。 In a first step 510, the server 150 may receive a contact request for electronic device 1 (110) from electronic device 2 (120). For example, server 150 may be a computing device of a system that provides messaging services, voice call services, and/or video call services through messenger. When the user of the electronic device 2 (120) selects the account or phone number of the user of the electronic device 1 (110) and requests voice call, video call, or instant message transmission, the contact request is sent through the server 150. It may be transmitted to the electronic device 1 (110). A first process 510 may mean a process in which the server 150 receives such a contact request.

第2過程520は、サーバ150が、電子機器1(110)のユーザの直接制御が可能であるかを決定する過程であってよい。例えば、サーバ150は、電子機器1(110)のユーザのスケジュールやライフスタイルなどのように電子機器1(110)のユーザと関連して習得される情報を分析することにより、コンタクトの要請に対し、電子機器1(110)のユーザの直接制御が可能な第1状況であるか、あるいはコンタクトの要請に対する電子機器1(110)のユーザの直接制御が不可能な第2状況であるかを決定してよい。このとき、スケジュールやライフスタイルなどの情報は、電子機器1(110)のユーザがアップロードすることによってサーバ150で直接管理される情報であってもよいし、スケジュール管理サーバなどから提供された情報であってもよい。 A second step 520 may be a step in which the server 150 determines whether the user's direct control of the electronic device 1 (110) is possible. For example, the server 150 responds to the contact request by analyzing information acquired in relation to the user of the electronic device 1 (110), such as the schedule and lifestyle of the user of the electronic device 1 (110). , a first situation in which direct control of the user of electronic device 1 (110) is possible, or a second situation in which direct control of the user of electronic device 1 (110) in response to the contact request is not possible. You can At this time, the information such as schedule and lifestyle may be information uploaded by the user of electronic device 1 (110) and directly managed by server 150, or may be information provided from a schedule management server or the like. There may be.

第3過程530は、第1状況の場合に、サーバ150がコンタクトの要請を電子機器1(110)に伝達する過程であってよい。この場合、電子機器1(110)は、受信したコンタクトの要請に応じてベル音や振動などのような通知を出力してよい。 A third process 530 may be a process in which the server 150 transmits a contact request to the electronic device 1 (110) in the first situation. In this case, the electronic device 1 (110) may output a notification such as a bell sound or vibration in response to the received contact request.

第4過程540は、電子機器1(110)でのコンタクトの処理後にコンタクト制御の過程を終了する過程であってよい。例えば、電子機器1(110)は、コンタクトの要請に対するユーザの制御にしたがって音声通話や映像通話を行ったり、受信したインスタントメッセージを画面に表示したりするなどのコンタクトの処理を実行してよく、この後にはコンタクト制御の過程を終了してよい。このとき、ユーザが発信者とのコンタクトを直接処理する場合にも、上述したように、ユーザからの要求の入力により、トリガリングされた人工知能が音声通話や映像通話を記録および/または要約してよく、要約された要約文をユーザに提供してよい。 A fourth step 540 may be a step of terminating the contact control process after the electronic device 1 (110) processes the contact. For example, the electronic device 1 (110) may perform contact processing such as making a voice call or a video call according to the user's control in response to the contact request, or displaying the received instant message on the screen. After this, the process of contact control may end. At this time, even if the user directly processes the contact with the caller, as described above, the artificial intelligence triggered by the input of the request from the user records and/or summarizes the voice call or video call. and may provide a condensed summary to the user.

第5過程550は、第2状況の場合に、サーバ150が、人工知能応対によって電子機器2(120)とのコンタクトを処理する過程であってよい。上述したように、音声通話や映像通話の場合には、人工知能がコンタクトの要請を直接受諾した後、電子機器2(120)のユーザと人工知能との間で音声通話や映像通話がなされてよい。他の例として、インスタントメッセージが受信された場合、人工知能は、受信したインスタントメッセージに対する返答メッセージを電子機器2(120)に送信してよい。 A fifth process 550 may be a process in which the server 150 processes contact with the electronic device 2 (120) through artificial intelligence response in the second situation. As described above, in the case of a voice call or video call, after the artificial intelligence directly accepts the contact request, the voice call or video call is made between the user of the electronic device 2 (120) and the artificial intelligence. good. As another example, when an instant message is received, the artificial intelligence may send a reply message to the received instant message to electronic device 2 (120).

第6過程560は、人工知能応対が完了した後、人工知能応対に対する要約を生成する過程であってよい。上述したように、要約には、コンタクトの種類(一例として、音声通話、映像通話、インスタントメッセージなど)と、コンタクトの要請が受信された時刻、人工知能応対による人工知能と電子機器2(120)のユーザ間の会話内容、またはこのような会話内容の要約情報などのような情報が含まれてよい。 A sixth process 560 may be a process of generating a summary for the artificial intelligence response after completing the artificial intelligence response. As described above, the summary includes the type of contact (eg, voice call, video call, instant message, etc.), the time the contact request was received, the artificial intelligence from the artificial intelligence response and the electronic device 2 (120). information such as conversations between users, or summary information for such conversations.

第7過程570は、サーバ150が、電子機器1(110)のユーザの直接制御が可能であるかをモニタリングする過程であってよい。この場合にも、サーバ150は、電子機器1(110)のユーザのスケジュールやライフスタイルなどのように電子機器1(110)のユーザと関連して習得される情報を分析することにより、コンタクトの要請に対し、電子機器1(110)のユーザの直接制御が可能な第1状況であるか、あるいはコンタクトの要請に対する電子機器1(110)のユーザの直接制御が不可能な第2状況であるかを決定してよい。 A seventh process 570 may be a process in which the server 150 monitors whether the user's direct control of the electronic device 1 (110) is possible. Also in this case, the server 150 analyzes the information learned in relation to the user of the electronic device 1 (110), such as the schedule and lifestyle of the user of the electronic device 1 (110), to determine the number of contacts. A first situation in which the user of the electronic device 1 (110) can directly control the request, or a second situation in which the user of the electronic device 1 (110) cannot directly control the contact request. You may decide whether

第8過程580は、サーバ150が、電子機器1(110)のユーザの状況が第2状況から第1状況に変更することにより、生成された要約文を電子機器1(110)にレポートする過程であってよい。レポートされた要約文は、電子機器1(110)を通じて表示され、電子機器1(110)のユーザに提供されてよい。 An eighth step 580 is a process in which the server 150 reports to the electronic device 1 (110) the summary generated by changing the status of the user of the electronic device 1 (110) from the second status to the first status. can be The reported summary may be displayed through electronic device 1 (110) and provided to the user of electronic device 1 (110).

一方、図4の実施形態と図5の実施形態が結合した実施形態が考慮されてもよい。例えば、図4の第1過程410および第2過程420は電子機器1(110)で実行し、コンタクトの要請をユーザが直接制御することができない第1状況になった場合、コンタクトの要請をサーバ150に伝達することにより、サーバ150が電子機器2(120)との人工知能応対を処理するようにしてもよい。この場合、サーバ150は、図5の第5過程550および第6過程560を処理し、人工知能応対と要約文の生成を処理してよい。生成された要約は電子機器1(110)に伝達されてよく、図4の第7過程470および第8過程480を経てユーザにレポートされてよい。 Alternatively, embodiments in which the embodiment of FIG. 4 and the embodiment of FIG. 5 are combined may be considered. For example, the first step 410 and the second step 420 of FIG. 4 are performed by the electronic device 1 (110), and when the contact request is not directly controlled by the user in the first situation, the server sends the contact request to the server. 150 may cause server 150 to handle artificial intelligence interactions with electronic device 2 (120). In this case, the server 150 may process the fifth process 550 and the sixth process 560 of FIG. 5 to process the artificial intelligence response and the generation of the abstract. The generated summary may be communicated to electronic device 1 (110) and reported to the user via steps 7 470 and 480 of FIG.

このように、ユーザ(着信者)のスケジュールを同期化したりユーザのライフスタイルを分析したりして音声通話や映像通話のコールを受信したりメッセージを受信したりした場合には、ユーザの状況を推定し、ユーザが直接応答することが困難な状況であると判断される場合には、人工知能を利用して発信者との会話を自動処理した後、応対内容を要約してユーザにレポートすることにより、ユーザが直接応対することが困難なコンタクトの要請に対しても、人工知能によってコンタクト制御を可能にすることができる。 In this way, when receiving a voice or video call or receiving a message by synchronizing the user's (called party's) schedule or analyzing the user's lifestyle, the user's situation can be determined. If it is judged that it is difficult for the user to respond directly, AI is used to automatically process the conversation with the caller, and then summarize the response and report it to the user. As a result, contact control can be made possible by artificial intelligence even for contact requests that are difficult for users to respond to directly.

図6および図7は、本発明の一実施形態における、要約文を提供する例を示した図である。 6 and 7 are diagrams showing an example of providing a summary sentence in one embodiment of the present invention.

図6は、音声通話に対する応対の要約文が表示された電子機器1(110)の画面例であって、要約文がポップアップウィンドウ610の形態で電子機器1(110)の画面に表示された例を示している。このようなポップアップウィンドウ610には、誰(Ms.Alice)からどのような種類のコンタクト(音声通話)があったかを示すための情報と、コンタクトの要請を受信した日時、人工知能がコンタクトに対して応対した時間(通話時間)、および応対内容に対する要約情報(応対内容の要約)が示されている。また、ポップアップウィンドウ610には、コンタクトの相手(Ms.Alice)と直ぐに通話を連結するためのユーザインタフェースとして「直ぐに通話ボタン620」が提供された例を示している。ユーザが直ぐに通話ボタン620を選択(一例として、タッチスクリーン環境で直ぐに通話ボタン620が表示された領域をユーザがタッチ)した場合、コンタクトの相手(Ms.Alice)との音声通話が試行されてよい。 FIG. 6 is an example of a screen of electronic device 1 (110) displaying a summary of responses to a voice call, in which the summary is displayed in the form of a pop-up window 610 on the screen of electronic device 1 (110). is shown. In such a pop-up window 610, information for indicating what type of contact (voice call) was made from who (Ms. Alice), the date and time when the contact request was received, and the artificial intelligence's response to the contact The time of the response (duration of the call) and summary information on the content of the response (summary of the content of the response) are shown. In addition, the pop-up window 610 shows an example in which a 'call now button 620' is provided as a user interface for immediately connecting a call with a contact partner (Ms. Alice). If the user selects the call now button 620 (eg, the user touches the area where the call now button 620 is displayed in a touchscreen environment), a voice call with the contact (Ms. Alice) may be attempted. .

図7は、メッセージ受信に対する要約文が表示された電子機器1(110)の画面例であって、要約文がポップアップウィンドウ710の形態で電子機器1(110)の画面に表示された例を示している。このようなポップアップウィンドウ710には、誰(Mr.Ted)からどのような種類のコンタクト(メッセンジャーAを利用したメッセージ受信)があったかを示すための情報と、コンタクトの要請(メッセージ)を受信した日時、および応対内容に関する要約情報(応対内容の要約)が示されている。また、ポップアップウィンドウ710には、コンタクトの相手(Mr.Ted)とメッセージを送受信したメッセンジャーAのチャットルームを呼び出すためのユーザインタフェースとして「チャットルームに移動」ボタン720が提供された例を示している。ユーザがチャットルームに移動ボタン720を選択した場合、メッセンジャーAでは、コンタクトの相手(Mr.Ted)とのチャットルームが電子機器1(110)の画面に表示されてよい。 FIG. 7 shows an example of a screen of the electronic device 1 (110) displaying a summary of message reception, in which the summary is displayed in the form of a pop-up window 710 on the screen of the electronic device 1 (110). ing. In such a pop-up window 710, information for indicating from whom (Mr. Ted) what kind of contact (message reception using messenger A) was made, and the date and time when the contact request (message) was received. , and summary information (a summary of the content of the response) regarding the content of the response. In addition, the pop-up window 710 shows an example in which a 'move to chat room' button 720 is provided as a user interface for calling the chat room of messenger A who has sent and received messages with the contact partner (Mr. Ted). . When the user selects the move to chat room button 720, messenger A may display a chat room with the contact partner (Mr. Ted) on the screen of electronic device 1 (110).

一方、図6のAliceや図7のTedのようなコンタクトの相手を識別するための識別情報は、電子機器1(110)のアドレス帳やメッセンジャー(または、VoIP音声通話や映像通話を提供するサービス)の友だちリストから電話番号によって検索された発信者の名前であってもよいし、検索されたアカウントの表示名であってもよい。また、コンタクトの相手の性別(Ms.またはMr.)は、名前がもつ性別による確率値および/または発信者の声を分析することによって決定されてよい。例えば、識別された名前「Alice」のようなそれぞれの名前に対して、対象の性別が男性あるいは女性である確率値が経験的に蓄積されたデータが活用されてよい。また、人工知能が応対中のコンタクトの相手の声のトーンを分析することにより、コンタクトの相手の性別が決定されてもよい。また、確率値と声の両方を利用することにより、コンタクトの相手の性別が決定されてもよい。さらに、人物の名前ではなくアカウントの表示名などに対しては、性別の表示が省略されてもよい。 On the other hand, the identification information for identifying the contact partner such as Alice in FIG. 6 or Ted in FIG. ) may be the caller's name retrieved by phone number from the friend list of the ), or the display name of the retrieved account. Also, the gender (Ms. or Mr.) of the contact person may be determined by analyzing the gender probability value of the name and/or the caller's voice. For example, for each name, such as the identified name "Alice," empirically accumulated data of probability values that the gender of the subject is male or female may be utilized. The sex of the contact may also be determined by the artificial intelligence analyzing the tone of voice of the contact during the service. Also, both probability values and voice may be used to determine the gender of a contact. Furthermore, the display of gender may be omitted for the display name of an account instead of a person's name.

アドレス帳やメッセンジャーアカウントなどからコンタクトの相手を特定するための識別情報を得ることが困難な場合、人工知能は、応対の過程において、コンタクトの相手の名前や電子機器1(110)のユーザとの関係などを直接聞いてもよい。例えば、人工知能は、「どなたからの連絡とお伝えしますか?」のような質問によってコンタクトの相手に関する情報を取得してよく、取得した情報を要約文の生成に活用してよい。 When it is difficult to obtain identification information for specifying the contact partner from an address book, a messenger account, etc., the artificial intelligence uses the name of the contact partner and the user of the electronic device 1 (110) in the process of responding. You can directly ask about the relationship. For example, the artificial intelligence may obtain information about the contact person by asking a question such as "Who would you like to be contacted by?", and may utilize the obtained information to generate a summary sentence.

また、音声通話や映像通話において、把握される発信者の性別や年齢などに応じて人工知能の応対音声の性別やトーンなどを変更してもよい。例えば、人工知能は、男性の発信者には女性の声で応対したり、これとは逆に女性の発信者には男性の声で応対したりしてよい。他の例として、子供の発信者には、特定のキャラクタ(一例として、子供に人気のあるアニメーションのキャラクタ)の声で応対してもよい。 Also, in a voice call or a video call, the gender, tone, etc. of the response voice of the artificial intelligence may be changed according to the gender, age, etc. of the caller ascertained. For example, the artificial intelligence may respond with a female voice to male callers and vice versa. As another example, a child caller may be addressed by the voice of a particular character (eg, an animated character popular with children).

また、図6および図7の実施形態では、ポップアップウィンドウ610および710を利用して要約文をレポートする例について説明したが、要約文は多様な方式によってユーザにレポートされてよい。例えば、コンタクト制御のためのサービスを提供するアプリケーションの実行画面に要約文が表示されてもよいし、人工知能が要約文の内容を音声として合成した後、合成された音声を出力する形態で要約がレポートされてもよい。この場合、人工知能は、ユーザとの会話形態で要約文をレポートしてよい。例えば、図6の実施形態と関連し、人工知能が「Ms.Aliceから音声通話が届きました」という合成された音声を出力している最中に、ユーザの発話「Aliceに電話をかけて」によって音声命令が認識された場合、人工知能は、要約文の全体をレポートする必要がなくなり、直ぐにAliceとの音声通話を実行してよい。 Also, although the embodiments of FIGS. 6 and 7 describe an example of reporting a summary using pop-up windows 610 and 710, the summary may be reported to the user in a variety of ways. For example, a summary may be displayed on the execution screen of an application that provides a service for contact control, or a summary may be output in a form in which artificial intelligence synthesizes the content of the summary as speech and then outputs the synthesized speech. may be reported. In this case, artificial intelligence may report summaries in a conversational form with the user. For example, in connection with the embodiment of FIG. 6, while the artificial intelligence is outputting synthesized speech "I received a voice call from Ms. Alice", the user utters "Call Alice." ' recognizes the voice command, the artificial intelligence does not need to report the entire summary sentence and may immediately conduct a voice call with Alice.

また、上述した実施形態では、人工知能がコンタクトの要請に対するコンタクト制御により、人工知能がコンタクトに直接応対し、その結果をユーザにレポートする例について説明した。 Further, in the above-described embodiment, an example has been described in which the artificial intelligence directly responds to the contact through contact control in response to the contact request and reports the result to the user.

これに加え、人工知能は、コンタクトの相手との応対によって取得した情報に基づき、新たなスケジュールを自動で設定したりアラーム時間を自動で設定したりするなど多様な後処理を実行することも可能である。 In addition to this, artificial intelligence can also perform various post-processing such as automatically setting a new schedule or automatically setting an alarm time based on the information obtained by responding to the contact partner. is.

図8は、本発明の一実施形態における、後処理内容をレポートする例を示した図である。 FIG. 8 is a diagram showing an example of reporting post-processing content in one embodiment of the present invention.

図8は、音声通話に対する応対の要約文が表示された電子機器1(110)の画面例であって、要約文がポップアップウィンドウ810の形態で電子機器1(110)の画面に表示された例を示している。このようなポップアップウィンドウ810には、誰(Ms.Carol)からどのような種類のコンタクト(音声通話)があったかを示すための情報と、コンタクトの要請を受信した日時、人工知能がコンタクトに応対した時間(通話時間)、応対内容に関する要約情報(応対内容の要約)、および後処理内容(スケジュール追加)が示されている。例えば、人工知能は、応対内容を分析して「土曜日の午後3時」の約束に対するスケジュールを認識し、認識されたスケジュールを登録されていたスケジュールから検索してよい。該当の日付および時間にスケジュールが登録されていない場合、人工知能は、該当のスケジュールを追加してよい。また、ポップアップウィンドウ810でスケジュールアプリケーションを駆動させて追加のスケジュールを確認することのできるユーザインタフェースとして、スケジュール確認ボタン830が含まれる例が図8に示されている。ユーザがスケジュール確認ボタン830を選択した場合、スケジュールアプリケーションが実行され、追加のスケジュールに関する情報がユーザに表示されてよい。実施形態によっては、コンタクトの相手が人工知能との会話において約束を設定してもよい。例えば、人工知能は、コンタクトの相手がユーザと今日の夕方7時に会う約束をしたいという要請を認識してスケジュールを追加した後、このような後処理内容と応対内容をユーザにレポートしてよい。 FIG. 8 is an example of a screen of electronic device 1 (110) displaying a summary of responses to a voice call, in which the summary is displayed in the form of a pop-up window 810 on the screen of electronic device 1 (110). is shown. Such a pop-up window 810 includes information for indicating what type of contact (voice call) was made from whom (Ms. Carol), the date and time when the contact request was received, and when the artificial intelligence responded to the contact. Time (duration of call), summary information on the content of the response (summary of response content), and post-processing content (schedule addition) are shown. For example, the artificial intelligence may analyze the content of the reception, recognize the schedule for the "Saturday at 3:00 pm" appointment, and retrieve the recognized schedule from the registered schedules. If no schedule is registered for that date and time, the artificial intelligence may add that schedule. Also, FIG. 8 shows an example of a schedule confirmation button 830 included as a user interface for activating the schedule application in the pop-up window 810 and confirming additional schedules. If the user selects the confirm schedule button 830, the schedule application may be executed and information regarding the additional schedule may be displayed to the user. In some embodiments, a contact may set an appointment in conversation with the artificial intelligence. For example, the artificial intelligence may recognize the request that the contact wants to make an appointment with the user at 7:00 this evening, add to the schedule, and then report such post-processing and response details to the user.

また、人工知能は、ユーザがコンタクトに対する直接的な制御が可能となる時点までコンタクトの相手との会話を維持してもよい。例えば、ユーザが会議中や運動中である状況で、会議や運動が予め設定された時間(一例として、1分)以内に終わると予測される場合が考慮されることがある。この場合、人工知能は、コンタクトの相手に、ユーザが一定の時間以内には電話をとることができるようになることを知らせ、その待機時間はコンタクトの相手との会話を誘導することによってコンタクトを維持してよい。言い換えれば、人工知能は、状況に応じては、ユーザがコンタクトに直接参加できるようになるまでコンタクトを維持することも可能である。 The artificial intelligence may also maintain a conversation with the contact person until the point at which the user has direct control over the contact. For example, it may be considered that the user is in a meeting or exercising and the meeting or exercise is expected to end within a preset time (one minute, for example). In this case, the artificial intelligence informs the contact that the user will be available to pick up the phone within a certain amount of time, and that waiting time is used to close the contact by inducing a conversation with the contact. may be maintained. In other words, the artificial intelligence may optionally maintain contact until the user can directly participate in the contact.

また他の実施形態として、人工知能は、コンタクトの至急性に応じて人工知能応対を中断し、ユーザがコンタクトに参加するように通知を提供してもよい。一例として、人工知能は、ユーザの現在状況に対する重要度を測定し、人工知能応対によってコンタクトの重要性をそれぞれ測定および比較してよい。このとき、人工知能は、コンタクトの相手との会話によってコンタクトの目的を決定し、決定された目的に応じてコンタクトの重要性を決定してよい。また、人工知能は、ユーザの状況の種類(一例として、会議中や運動中など)に応じて状況に対する重要性を決定してもよい。このとき、コンタクトの重要性が状況の重要性よりも高い場合、人工知能は、人工知能応対を中断し、ユーザをコンタクトに参加させるようにする通知を提供してよい。この場合、人工知能は、要請されたコンタクトが極めて重要な目的に関するものであることを知らせるための情報を画面に表示してもよいし、合成された音声で出力してもよい。 In yet another embodiment, the artificial intelligence may interrupt the artificial intelligence response depending on the urgency of the contact and provide a notification for the user to join the contact. As an example, the artificial intelligence may measure the importance to the user's current situation, and the artificial intelligence response may measure and compare the importance of the contact respectively. At this time, the artificial intelligence may determine the purpose of the contact based on the conversation with the contact partner, and determine the importance of the contact according to the determined purpose. Artificial intelligence may also determine the importance of a situation according to the type of user's situation (for example, during a meeting, while exercising, etc.). At this time, if the importance of the contact is higher than the importance of the situation, the artificial intelligence may interrupt the artificial intelligence response and provide a notification to engage the user in the contact. In this case, the artificial intelligence may display information on the screen or output a synthesized voice to indicate that the requested contact is for a very important purpose.

さらに、他の実施形態において、コンタクトに対して人工知能応対を実行させるかをユーザが直接選択してもよい。 Further, in other embodiments, a user may directly select whether to have an artificial intelligence response performed on a contact.

図9は、本発明の一実施形態における、音声通話の受諾または拒否を選択するためのユーザインタフェースの例を示した図である。図9は、音声通話の着信による電子機器1(110)の第1画面910と第2画面920をそれぞれ示している。第1画面910は、音声通話の着信を受諾するための受諾ボタン911と、音声通話の着信を拒否するための拒否ボタン912をそれぞれ示している。ユーザが拒否ボタン912を選択した場合、第1画面910は、第2画面920のように変更してよい。第2画面920は、サイズや形状が変更した受諾ボタン911と拒否ボタン912の他にも、AI通話ボタン921、メッセージボタン922、およびスヌーズ(snooze)ボタン923が追加された様子を示している。 FIG. 9 is a diagram illustrating an example of a user interface for selecting acceptance or rejection of voice calls in one embodiment of the present invention. FIG. 9 shows a first screen 910 and a second screen 920 of the electronic device 1 (110) when a voice call is received. A first screen 910 shows an accept button 911 for accepting an incoming voice call and a reject button 912 for rejecting an incoming voice call. If the user selects the reject button 912 , the first screen 910 may change to a second screen 920 . A second screen 920 shows that an AI call button 921, a message button 922, and a snooze button 923 are added in addition to the accept button 911 and reject button 912 whose sizes and shapes are changed.

このとき、AI通話ボタン921は、人工知能応対のためのユーザインタフェースであってよい。例えば、ユーザがAI通話ボタン921を選択した場合、上述したような人工知能応対が実行されてよい。言い換えれば、人工知能が音声通話の発信者と会話をし、要約文を生成してユーザに提供してよい。 At this time, the AI call button 921 may be a user interface for responding to artificial intelligence. For example, if the user selects the AI call button 921, an artificial intelligence response as described above may be performed. In other words, the artificial intelligence may converse with the originator of the voice call and generate a summary to provide to the user.

また、メッセージボタン922は、予め設定された拒否メッセージを伝達するためのユーザインタフェースであってよい。例えば、ユーザがメッセージボタン922を選択した場合、予め設定された拒否メッセージが音声通話の発信者に伝達されてよい。他の例として、ユーザがメッセージボタン922を選択した場合、複数の拒否メッセージのうちから1つを選択するためのユーザインタフェースがユーザに提供されてもよい。この場合、ユーザが複数の拒否メッセージのうちから1つを選択すると、選択された拒否メッセージが音声通話の発信者に伝達されてよい。 Also, the message button 922 may be a user interface for transmitting a preset rejection message. For example, if the user selects the message button 922, a preset rejection message may be communicated to the originator of the voice call. As another example, if the user selects the messages button 922, the user may be provided with a user interface for selecting one of multiple rejection messages. In this case, when the user selects one of the multiple rejection messages, the selected rejection message may be communicated to the originator of the voice call.

さらに、スヌーズボタン923は、発信者に音声メモを残すことを要求するためのユーザインタフェースであってよい。例えば、ユーザがスヌーズボタン923を選択した場合、発信者に音声メモを残して欲しいという要請が提供されてよい。発信者が音声メモを残した場合、音声メモは電子機器1(110)に格納されてよく、予め設定された時間(一例として、3分)後に音声メモを聞くための通知や、音声メモを認識およびテキストに変換したテキスト情報がポップアップウィンドウなどの形態でユーザに提供されてよい。 Additionally, snooze button 923 may be a user interface for requesting the caller to leave a voice note. For example, if the user selects the snooze button 923, a request may be provided to the caller to leave a voice note. When the caller leaves a voice memo, the voice memo may be stored in the electronic device 1 (110), and a notification to listen to the voice memo after a preset time (for example, 3 minutes) or a voice memo. Recognized and converted text information may be provided to the user in the form of a pop-up window or the like.

このような多様な拒否オプションは、ユーザが電話をとることが困難な状況であっても、多様な方式で発信者のコンタクト意図の把握をサポートすることができ、通話連結率を高めることができる。また、音声通話だけではなく、映像通話の受諾または拒否を選択するためのユーザインタフェースも、図9の実施形態と同じように実現されてよい。 Such various rejection options can help the caller to grasp the caller's intention of contacting in various ways even when it is difficult for the user to pick up the phone, thereby increasing the call connection rate. . Also, a user interface for selecting acceptance or rejection of video calls as well as voice calls may be implemented in the same manner as in the embodiment of FIG.

さらに他の実施形態において、人工知能は、映像通話の受信と関連し、ユーザと発信者との関係、ユーザの性向、および/またはユーザの設定を考慮することで、映像通話の受信によるプレビュー画面を決定してよい。例えば、発信者がユーザによく思われたい対象(一例として、異性の友だち)であったり、ユーザが外見を重視する性向、または発信者がユーザによって設定された人物であったりする場合、映像通話のプレビュー画面には自撮り(selfie)映像が表示されてよい。言い換えれば、ユーザが映像通話の受諾前に、プレビュー画面に表示された自撮り映像によって自身の外面を予め確認したり整えたりすることのできる時間が与えられてよい。この反面、発信者がユーザと親密な関係であったり、ユーザが外見を整えるよりも迅速な映像通話の受諾と迅速な映像通話の実行を望む性向であったり、発信者がユーザによって設定された人物でなかったりする場合には、映像通話のプレビュー画面には自撮り映像が表示されなくてよい。このように、人工知能は、映像通話のプレビュー画面において、自撮り映像を表示するための機能を多様な条件によって自動でオン(On)/オフ(Off)することができる。 In yet another embodiment, the artificial intelligence is associated with receiving a video call and considers the relationship between the user and the caller, the user's preferences, and/or the user's preferences to provide a preview screen for receiving the video call. may be determined. For example, if the caller wants to be liked by the user (for example, a friend of the opposite sex), if the user has a tendency to emphasize appearance, or if the caller is a person set by the user, the video call The preview screen may display a selfie video. In other words, before accepting the video call, the user may be given time to pre-check and refine his or her appearance with the selfie video displayed on the preview screen. On the other hand, if the caller has a close relationship with the user, or if the user has a tendency to desire quick acceptance and quick execution of a video call rather than adjusting the appearance, the caller is set by the user. If the person is not a person, the self-portrait image may not be displayed on the preview screen of the video call. As such, the artificial intelligence can automatically turn on/off the function for displaying the self-portrait image on the preview screen of the video call according to various conditions.

図10は、本発明の一実施形態における、自撮り映像が表示されたプレビュー画面の例を示した図である。図10は、発信者「Ted」による映像通話の要請が受信されることにより、電子機器1(110)のユーザが映像通話の受諾と拒否を選択することのできるプレビュー画面1010の例を示している。このとき、電子機器1(110)は、上述した多様な条件(ユーザと発信者との関係、ユーザの性向、および/またはユーザの設定)に基づき、プレビュー画面1010に自撮り映像を表示するかを決定してよい。図10では、電子機器1(110)が自撮り映像を表示するように決定することにより、電子機器1(110)が含むフロントカメラ(または自撮りカメラ)1020にキャプチャされているリアルタイム映像ストリーム1030をプレビュー画面1010に表示している例を示している。 FIG. 10 is a diagram showing an example of a preview screen displaying a self-portrait image in one embodiment of the present invention. FIG. 10 shows an example of a preview screen 1010 on which the user of the electronic device 1 (110) can select acceptance or rejection of the video call upon receiving a video call request from the caller "Ted". there is At this time, electronic device 1 (110) displays the self-portrait image on preview screen 1010 based on the above-described various conditions (the relationship between the user and the caller, the user's tendency, and/or the user's settings). may be determined. In FIG. 10, a real-time video stream 1030 is being captured by a front camera (or selfie camera) 1020 included in electronic device 1 (110) due to electronic device 1 (110) deciding to display a selfie video. is displayed on the preview screen 1010 .

図11は、本発明の一実施形態における、コンタクト制御方法の例を示したフローチャートである。本実施形態に係るコンタクト制御方法は、上述した電子機器1(110)のようなコンピュータ装置によって実行されてよい。このとき、電子機器1(110)のプロセッサ212は、メモリ211が含むオペレーティングシステムのコードや少なくとも1つのプログラムのコードによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ212は、電子機器1(110)に格納されたコードが提供する制御命令にしたがって電子機器1(110)が図11に示すコンタクト制御方法に含まれる段階1110~1150を実行するように、電子機器1(110)を制御してよい。 FIG. 11 is a flowchart illustrating an example contact control method in one embodiment of the present invention. The contact control method according to this embodiment may be executed by a computer device such as the electronic device 1 (110) described above. At this time, the processor 212 of the electronic device 1 (110) may be implemented to execute control instructions by the code of the operating system and the code of at least one program contained in the memory 211 . Here, processor 212 causes electronic device 1 (110) to perform steps 1110 to 1150 included in the contact control method shown in FIG. 11 according to control instructions provided by codes stored in electronic device 1 (110). Also, the electronic device 1 (110) may be controlled.

段階1110で、電子機器1(110)は、ネットワークを介して発信者からのコンタクトの要請を受信してよい。コンタクトとは、上述したように、音声通話や映像通話、またはメッセージの送受信を意味してよい。このとき、コンタクトの要請は、音声通話や映像通話の場合にはコール信号を含んでよく、メッセージの送受信の場合には発信者が送信するメッセージを含んでよい。このようなコンタクトの要請は、発信者からネットワークを介して直接送信されてもよいが、一般的には、音声通話サービスや映像通話サービス、またはメッセージングサービスを提供するサーバを経て伝達されてよい。この場合、電子機器1(110)のユーザがコンタクトの着信者となってよい。 At step 1110, electronic device 1 (110) may receive a contact request from a caller over the network. Contacts may mean voice or video calls, or sending and receiving messages, as described above. At this time, the contact request may include a call signal in the case of a voice call or a video call, and may include a message sent by the caller in the case of message transmission/reception. Such a contact request may be sent directly from the caller over the network, but typically may be communicated through a server that provides a voice or video call service or messaging service. In this case, the user of electronic device 1 (110) may be the recipient of the contact.

段階1120で、電子機器1(110)は、コンタクトの要請に対する着信者の直接制御が可能であるかを決定してよい。例えば、電子機器1(110)は、着信者に対して登録された着信者のスケジュール情報、着信者に対して予め分析されたライフスタイル情報、および着信者の入力のうちの少なくとも1つとコンタクトの要請が受信された時刻を利用することで、着信者の直接制御が可能であるかを決定してよい。このとき、スケジュール情報は、電子機器1(110)に登録されたスケジュール情報および/またはオンライン上に登録されて電子機器1(110)に同期化される情報を含んでよい。一方、ライフスタイル情報は、着信者の日課を持続的に分析した情報に基づき、現時刻に予測される着信者の状況に関する情報を含んでよい。例えば、毎朝6時から7時の間にジョギングをする着信者に対しては、午前6時から7時の間の状況は「運動中」という状況が決定されてよい。または、着信者が会社にいる時刻や家にいる時刻などに基づいて着信者の状況が細分化されてよい。着信者の入力は、コンタクトの要請が受信される時刻と関連し、着信者が電子機器1(110)を操作中であるかを決定するのに活用されてよい。例えば、着信者が持続的に電子機器1(110)を操作中である場合は、着信者がコンタクトの要請を直接処理することのできる状況であると判断されてよい。 At step 1120, electronic device 1 (110) may determine if direct control of the callee to the contact request is enabled. For example, the electronic device 1 (110) may contact at least one of the callee's schedule information registered for the callee, the lifestyle information pre-analyzed for the callee, and the callee's input. The time the request was received may be used to determine if direct control of the callee is possible. At this time, the schedule information may include schedule information registered in the electronic device 1 (110) and/or information registered online and synchronized with the electronic device 1 (110). On the other hand, the lifestyle information may include information about the callee's expected situation at the current time based on information obtained by continuously analyzing the callee's daily routine. For example, for a callee who jogs between 6:00 and 7:00 every morning, the status between 6:00 and 7:00 am may be determined to be "exercising." Alternatively, the status of the called party may be subdivided based on the time the called party is at work, the time at home, or the like. The callee's input correlates with the time the contact request is received and may be utilized to determine if the callee is operating electronic device 1 (110). For example, if the called party is continuously operating the electronic device 1 (110), it may be determined that the called party can directly process the contact request.

段階1130および段階1140で、電子機器1(110)は、コンタクトの要請に対して着信者の直接制御が可能な場合には、コンタクトの要請に対する通知を出力してよい。この場合、ユーザは、出力される通知に反応してコンタクトの要請を直接処理してよい。 At steps 1130 and 1140, electronic device 1 (110) may output a notification for the contact request if the callee's direct control over the contact request is available. In this case, the user may directly process the contact request in response to the output notification.

段階1130および段階1150で、電子機器1(110)は、コンタクトの要請に対して着信者の直接制御が不可能な場合には、人工知能を利用してコンタクトの発信者と会話をし、コンタクトを処理してよい。着信者がコンタクトの要請を直接処理することが困難な状況であると判断される場合には、着信者に通知を提供せず、人工知能を利用してコンタクトを直接処理してよい。 In steps 1130 and 1150, electronic device 1 (110) uses artificial intelligence to converse with the caller of the contact when direct control of the called party is impossible for the contact request, and the contact is made. can be processed. If it is determined that the callee is in a difficult situation to handle the contact request directly, artificial intelligence may be used to handle the contact directly without providing notification to the callee.

一方、電子機器1(110)は、アプリケーションの制御にしたがい、会話の要約情報を生成して着信者にレポートしてもよい。例えば、電子機器1(110)は、段階1150で実行された会話に関する要約情報を生成してよく、着信者の直接制御が可能となった場合には、生成された要約情報を着信者に提供してよい。ここで、要約情報は、コンタクトの種類、コンタクトの要請が受信された時刻、および会話の内容に関する要約情報を含んでよい。 On the other hand, the electronic device 1 (110) may generate summary information of the conversation and report it to the called party under the control of the application. For example, electronic device 1 (110) may generate summary information about the conversation conducted in step 1150, and provide the generated summary information to the called party if direct control of the called party is enabled. You can Here, the summary information may include summary information regarding the contact type, the time the contact request was received, and the content of the conversation.

また、電子機器1(110)は、会話の結果によっては後処理を行ってもよい。例えば、図8では、スケジュールを追加する後処理の例について説明した。このために、電子機器1(110)は、会話の内容に含まれた日付、時間、および場所のうちの少なくとも1つに関する情報を抽出し、抽出された少なくとも1つの情報とコンタクトの発信者に関する情報を関連させてスケジュールまたはアラームを登録してよい。 Further, electronic device 1 (110) may perform post-processing depending on the result of the conversation. For example, in FIG. 8, an example of post-processing for adding a schedule has been described. For this purpose, the electronic device 1 (110) extracts information relating to at least one of the date, time, and location included in the content of the conversation, and extracts at least one information relating to the contact originator. Information may be associated to register schedules or alarms.

また、電子機器1(110)は、図9を参照しながら説明したように、ユーザがコンタクトの要請を多様な方式によって直接処理するようにしてもよい。例えば、電子機器1(110)は、着信者の直接制御が可能な場合に、コンタクトの要請を受諾または拒否するためのユーザインタフェースをさらに提供してよい。このようなユーザインタフェースは、段階1140で説明した通知と共に提供されてよい。このとき、ユーザインタフェースは、コンタクトの要請を受諾するためのユーザインタフェースおよびコンタクトの要請を拒否するためのユーザインタフェースを含み、人工知能による発信者との会話を実行するためのユーザインタフェース、発信者に音声メモを残すことを要請するためのユーザインタフェース、および拒否メッセージを発信者に送信するためのユーザインタフェースのうちの少なくとも2つ以上をさらに含んでよい。 Also, the electronic device 1 (110) may directly process the user's contact request in various ways, as described with reference to FIG. For example, electronic device 1 (110) may further provide a user interface for accepting or rejecting the contact request if direct control of the called party is possible. Such a user interface may be provided with the notification described in step 1140. At this time, the user interface includes a user interface for accepting the request for contact and a user interface for rejecting the request for contact, a user interface for executing a conversation with the caller by artificial intelligence, and a user interface for the caller. It may further include at least two or more of a user interface for requesting to leave a voice memo and a user interface for sending a rejection message to the caller.

また、電子機器1(110)は、図10を参照しながら説明したように、コンタクトが映像通話であり、着信者によって直接制御が可能である場合に、着信者と発信者との関係、着信者の性向、および着信者の設定のうちの少なくとも1つによって自撮り映像を表示するかを決定し、自撮り映像を表示する場合、自撮りカメラ(図10を参照しながら説明したフロントカメラ1020)を駆動させ、自撮りカメラにキャプチャされたリアルタイム映像ストリームを映像通話のプレビュー画面に表示することにより、条件に応じて着信者が自身の外見を確認して整えることのできる時間を提供してよい。 In addition, as described with reference to FIG. 10, the electronic device 1 (110), when the contact is a video call and can be directly controlled by the called party, the relationship between the called party and the calling party, the incoming call It is determined whether to display a self-portrait image according to at least one of the tendency of the person and the setting of the called party. ) and display the real-time video stream captured by the selfie camera on the preview screen of the video call, providing time for the callee to check and adjust their appearance according to the conditions. good.

図12は、本発明の一実施形態における、人工知能を利用してコンタクトを処理する例を示したフローチャートである。図12の段階1210~1250は、コンタクトが音声通話や映像通話の場合に実行されてよく、図11を参照しながら説明した段階1150に含まれ、電子機器1(110)によって実行されてよい。 FIG. 12 is a flowchart illustrating an example of using artificial intelligence to process contacts in one embodiment of the invention. Steps 1210-1250 of FIG. 12 may be performed when the contact is a voice call or a video call, are included in step 1150 described with reference to FIG. 11, and may be performed by electronic device 1 (110).

段階1210で、電子機器1(110)は、コンタクトの要請を受諾することで設定された音声通話セッションまたは映像通話セッションを通じてコンタクトの発信者の音声を受信してよい。 At step 1210, the electronic device 1 (110) may receive the contact caller's voice through a voice call session or a video call session established by accepting the contact request.

段階1220で、電子機器1(110)は、人工知能が含む音声処理モジュールによって受信した音声を認識してよい。例えば、人工知能は、電子機器1(110)にインストールおよび駆動されるアプリケーションによって実現されてよい。このようなアプリケーションは、音声の認識および合成のための音声処理モジュールを含んでよく、電子機器1(110)は、アプリケーションの制御にしたがい、このような音声処理モジュールによって受信した音声を認識してよい。上述した図3の実施形態を参照しながら説明したように、人工知能は、クラウド人工知能プラットフォーム320によって実現されてもよい。この場合、電子機器1(110)は、インタフェースコネクト340を介してクラウド人工知能プラットフォーム320に受信された音声を送信してよく、クラウド人工知能プラットフォーム320が含む音声処理モジュール321によって受信された音声が認識されてもよい。 At step 1220, the electronic device 1 (110) may recognize the received speech by a speech processing module comprising artificial intelligence. For example, artificial intelligence may be implemented by an application installed and driven on electronic device 1 (110). Such applications may include speech processing modules for speech recognition and synthesis, and electronic device 1 (110) recognizes speech received by such speech processing modules under the control of the application. good. As described with reference to the embodiment of FIG. 3 above, artificial intelligence may be implemented by cloud artificial intelligence platform 320 . In this case, the electronic device 1 (110) may transmit received audio to the cloud artificial intelligence platform 320 via the interface connect 340, and the audio received by the audio processing module 321 included in the cloud artificial intelligence platform 320 is may be recognized.

段階1230で、電子機器1(110)は、人工知能が含む会話処理モジュールによって認識された音声を分析して返答会話を生成してよい。この場合にも、電子機器1(110)は、アプリケーションによって実現される会話処理モジュールを利用して返答会話を生成してもよいし、クラウド人工知能プラットフォーム320が含む会話処理モジュール323を利用して返答会話を生成してもよい。 At step 1230, the electronic device 1 (110) may analyze the recognized speech by the speech processing module included in the artificial intelligence to generate a reply speech. Also in this case, the electronic device 1 (110) may generate a reply conversation using the conversation processing module implemented by the application, or use the conversation processing module 323 included in the cloud artificial intelligence platform 320. A reply conversation may be generated.

段階1240で、電子機器1(110)は、音声処理モジュールで生成された返答会話に対応する出力音声を生成してよい。この場合にも、電子機器1(110)は、アプリケーションによって実現される音声処理モジュールを利用して出力音声を合成してもよいし、クラウド人工知能プラットフォーム320が含む音声処理モジュール321を利用して出力音声を合成してもよい。 At step 1240, the electronic device 1 (110) may generate output audio corresponding to the reply speech generated by the audio processing module. In this case as well, the electronic device 1 (110) may synthesize the output speech using a speech processing module realized by the application, or use the speech processing module 321 included in the cloud artificial intelligence platform 320. The output speech may be synthesized.

段階1250で、電子機器1(110)は、生成された出力音声を、設定された音声通話セッションまたは映像通話セッションを通じてコンタクトの発信者に送信してよい。この場合、コンタクトの発信者は、発信者の音声に対応する人工知能の返答音声を、要請したコンタクト(音声通話または映像通話)を通じて聞くことができる。 At step 1250, electronic device 1 (110) may transmit the generated output audio to the caller of the contact through the established voice call session or video call session. In this case, the caller of the contact can hear the artificial intelligence response voice corresponding to the caller's voice through the requested contact (voice call or video call).

クラウド人工知能プラットフォーム320のような外部の人工知能サーバを活用する場合、電子機器1(110)は、コンタクトの発信者から受信した音声やメッセージを、ネットワークを介して人工知能サーバに送信し、人工知能サーバから音声やメッセージに対応する返答音声または返答メッセージを受信し、受信した返答音声または返答メッセージをコンタクトの発信者に送信してよい。 When utilizing an external artificial intelligence server such as the cloud artificial intelligence platform 320, the electronic device 1 (110) transmits the voice or message received from the caller of the contact to the artificial intelligence server via the network, A reply voice or reply message corresponding to the voice or message may be received from the intelligent server, and the received reply voice or reply message may be sent to the caller of the contact.

このような段階1210~1250は、発信者の発話に対して人工知能が返答する1回の会話の過程を意味してよい。しかし、必要によっては、人工知能が先に出力音声を合成して発信者に送信したり、多数の会話が人工知能と発信者との間でなされたりしてもよいことは、当業者であれば容易に理解することができるであろう。 Such steps 1210 to 1250 may mean one conversation process in which the artificial intelligence responds to the caller's utterance. However, if necessary, a person skilled in the art will understand that the artificial intelligence may first synthesize the output voice and send it to the caller, or a number of conversations may be conducted between the artificial intelligence and the caller. can be easily understood.

他の実施形態として、コンタクトがメッセージ送受信を含む場合、電子機器1(110)は、音声認識や音声合成の過程を必要とせず、人工知能が含む会話処理モジュールによってコンタクトの要請としてコンタクトの発信者から受信したメッセージを分析して返答会話を生成し、生成された返答会話を含むメッセージをコンタクトの発信者に送信してよい。ここで、人工知能の会話処理モジュールは、上述したように、電子機器1(110)のアプリケーションによって実現されてもよいし、クラウド人工知能プラットフォーム320が含む会話処理モジュール323に対応してもよい。 As another embodiment, when the contact includes message transmission/reception, the electronic device 1 (110) does not require the process of speech recognition or speech synthesis. A message received from may be analyzed to generate a response conversation, and a message including the generated response conversation may be sent to the contact originator. Here, the artificial intelligence conversation processing module may be realized by the application of the electronic device 1 (110) as described above, or may correspond to the conversation processing module 323 included in the cloud artificial intelligence platform 320.

また他の実施形態として、人工知能を利用したコンタクトの処理は、コンタクトのためのサービスを提供するサーバによって実行されてもよい。例えば、サーバは、着信者と発信者との間のコンタクトのためのサービス(一例として、音声通話サービス、映像通話サービス、またはメッセージングサービス)を提供するシステムであってよい。このとき、電子機器1(110)は、図11を参照しながら説明した段階1150で、コンタクトのためのサービスを提供するサーバに人工知能を利用した会話の処理を要請してよい。この場合、サーバは、着信者の要請にしたがい、人工知能を利用してコンタクトの発信者と会話をしてコンタクトを処理し、会話の要約情報を生成して送信されるように実現されてよい。例えば、サーバは、図5を参照しながら説明したサーバ150に対応してよい。この場合、電子機器1(110)は、段階1150で、サーバから会話の要約情報を受信してよい。要約情報は、図6~図8を参照しながら説明した要約文に対応してよく、電子機器1(110)のユーザである着信者がコンタクトを直接制御することができる状況になったときに着信者にレポートされてよい。 In yet another embodiment, artificial intelligence-assisted contact processing may be performed by the server that provides the service for the contact. For example, the server may be a system that provides services (eg, voice call service, video call service, or messaging service) for contact between a called party and a caller. At this time, the electronic device 1 (110) may request the server providing the contact service to process the conversation using artificial intelligence in step 1150 described with reference to FIG. In this case, the server may be implemented to use artificial intelligence to converse with the caller of the contact, process the contact, and generate and send summary information of the conversation at the request of the called party. . For example, the server may correspond to server 150 described with reference to FIG. In this case, electronic device 1 110 may receive conversation summary information from the server at step 1150 . The summary information may correspond to the summary sentences described with reference to FIGS. 6-8, and when the situation arises that the called party, the user of electronic device 1 (110), can directly control the contact, May be reported to the called party.

図13は、本発明の一実施形態における、サーバのコンタクト制御方法の例を示したフローチャートである。本実施形態に係るコンタクト制御方法は、上述したサーバ150のようなコンピュータ装置によって実行されてよい。このとき、サーバ150のプロセッサ222は、メモリ221が含むオペレーティングシステムのコードや少なくとも1つのプログラムのコードによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ222は、サーバ150に格納されたコードが提供する制御命令にしたがってサーバ150が図13のコンタクト制御方法に含まれる段階1310~1360を実行するように、サーバ150を制御してよい。 FIG. 13 is a flowchart illustrating an example of a server contact control method in one embodiment of the present invention. The contact control method according to this embodiment may be executed by a computer device such as the server 150 described above. At this time, the processor 222 of the server 150 may be implemented to execute control instructions by the operating system code and at least one program code contained in the memory 221 . Here, processor 222 may control server 150 such that server 150 performs steps 1310-1360 included in the contact control method of FIG. 13 according to control instructions provided by code stored on server 150. .

段階1310で、サーバ150は、ネットワークを介して発信者から着信者に対するコンタクトの要請を受信してよい。コンタクトとは、上述したように、音声通話や映像通話、またはメッセージの送受信を意味してよい。このとき、コンタクトの要請は、音声通話や映像通話の場合にはコール信号を含んでよく、メッセージの送受信の場合には発信者が送信するメッセージを含んでよい。サーバ150は、着信者に伝達されるコンタクトの要請を受信してよく、コンタクトの要請を着信者に伝達する前に段階1320を実行してよい。ここで、着信者は、上述した電子機器1(110)のユーザに対応してよい。 At step 1310, the server 150 may receive a contact request for the called party from the caller over the network. Contacts may mean voice or video calls, or sending and receiving messages, as described above. At this time, the contact request may include a call signal in the case of a voice call or a video call, and may include a message sent by the caller in the case of message transmission/reception. Server 150 may receive the contact request to be delivered to the called party and may perform step 1320 before delivering the contact request to the called party. Here, the called party may correspond to the user of the electronic device 1 (110) described above.

段階1320で、サーバ150は、コンタクトの要請に対して着信者の直接制御が可能であるかを決定してよい。例えば、サーバ150は、着信者に対して登録された着信者のスケジュール情報、着信者に対して予め分析されたライフスタイル情報、および着信者の入力のうちの少なくとも1つとコンタクトの要請が受信された時刻を利用することで、着信者の直接制御が可能であるかを決定してよい。このとき、スケジュール情報は、電子機器1(110)に登録された着信者のスケジュール情報、および/またはオンライン上に登録された着信者のスケジュール情報をサーバ150が同期化して管理する情報であってよい。一方、ライフスタイル情報は、着信者の日課を持続的に分析した情報に基づき、現時刻に予測される着信者の状況に関する情報を含んでよい。例えば、毎朝6時から7時の間にジョギングをする着信者に対しては、午前6時から7時の間の状況は「運動中」であると決定されてよい。また、着信者が会社にいる時刻や家にいる時刻などに基づいて着信者の状況が細分化されてよい。このようなライフスタイル情報は、サーバ150が電子機器1(110)から受信する多様な情報に基づいてサーバ150で生成および管理されてよい。 At step 1320, server 150 may determine whether the callee's direct control over the contact request is enabled. For example, the server 150 receives the contact request and at least one of the callee's schedule information registered for the callee, the lifestyle information pre-analyzed for the callee, and the callee's input. The time of day may be used to determine if direct control of the called party is possible. At this time, the schedule information is information in which the server 150 synchronizes and manages the schedule information of the called party registered in the electronic device 1 (110) and/or the schedule information of the called party registered online. good. On the other hand, the lifestyle information may include information about the callee's expected situation at the current time based on information obtained by continuously analyzing the callee's daily routine. For example, for a callee who jogs between 6:00 and 7:00 every morning, the status between 6:00 and 7:00 am may be determined to be "exercising." Also, the status of the called party may be subdivided based on the time the called party is at work, the time at home, or the like. Such lifestyle information may be generated and managed by server 150 based on various information received by server 150 from electronic device 1 (110).

段階1330および段階1340で、サーバ150は、コンタクトの要請を着信者に伝達してよい。この場合、電子機器1(110)のユーザである着信者は、伝達されるコンタクトの要請にしたがい、電子機器1(110)で出力される通知に反応してコンタクトの要請を直接処理してよい。 At steps 1330 and 1340, server 150 may communicate the contact request to the called party. In this case, the called party, who is the user of electronic device 1 (110), may directly process the contact request in response to the notification output by electronic device 1 (110) according to the transmitted contact request. .

段階1330および段階1350で、サーバ150は、コンタクトの要請に対する着信者の直接制御が不可能な場合、人工知能を利用してコンタクトの発信者と会話をしてコンタクトを処理してよい。着信者がコンタクトの要請を直接処理することが困難な状況であると判断される場合、サーバ150は、コンタクトの要請を着信者に伝達せず、人工知能を利用してコンタクトを直接処理してよい。 At steps 1330 and 1350, server 150 may use artificial intelligence to converse with the contact originator to process the contact if direct control of the callee to the contact request is not possible. If it is determined that it is difficult for the called party to directly process the contact request, the server 150 does not transmit the contact request to the called party and directly processes the contact using artificial intelligence. good.

段階1360で、サーバ150は、会話の要約情報を生成して着信者に提供してよい。言い換えれば、着信者がコンタクトの要請を直接処理することができない場合、段階1350で、サーバ150が人工知能を利用して発信者と会話をしてコンタクトを直接処理してよく、段階1360で、その処理結果として要約情報を生成して着信者に提供してよい。 At step 1360, server 150 may generate conversation summary information and provide it to the called party. In other words, if the called party is unable to directly process the contact request, at step 1350, the server 150 may use artificial intelligence to converse with the caller to directly process the contact, and at step 1360, As a result of the processing, summary information may be generated and provided to the called party.

実施形態によっては、サーバ150は、受信されたコンタクトの要請を直ぐに着信者に伝達してもよい。このとき、着信者の電子機器1(110)は、上述したスケジュール情報やライフスタイル情報、および/または着信者の入力などに基づいて着信者の直接制御が可能であるかを決定してよく、着信者の直接制御が不可能な場合には、コンタクトの処理要請をサーバ150に送信してよい。この場合、サーバ150は、コンタクトの処理要請の受信に応答して段階1350および段階1360のように人工知能を利用した応対を処理し、その処理結果として会話の要約情報を生成して着信者に提供してよい。電子機器1(110)に提供された要約情報は、着信者の直接制御が可能になったときに着信者にレポートされてよい。 In some embodiments, server 150 may immediately communicate a received contact request to the called party. At this time, the called party's electronic device 1 (110) may determine whether the called party's direct control is possible based on the above-described schedule information, lifestyle information, and/or the called party's input. If direct control of the called party is not possible, a request to process the contact may be sent to server 150 . In this case, the server 150, in response to the contact processing request, processes the response using artificial intelligence as in steps 1350 and 1360, generates summary information of the conversation as a result of the processing, and sends it to the called party. may provide. The summary information provided to electronic device 1 (110) may be reported to the callee when the callee's direct control is enabled.

また、実施形態によっては、サーバ150が、スケジュールまたはアラームの登録のような会話の後処理を直接行ってもよい。例えば、サーバ150は、会話の内容に含まれた日付、時間、および場所のうちの少なくとも1つに関する情報を抽出し、抽出された少なくとも1つの情報とコンタクトの発信者に関する情報を関連させて着信者のためのスケジュールまたはアラームを登録してよい。登録されるスケジュールやアラームは、電子機器1(110)に同期化されてよい。 In some embodiments, server 150 may also directly perform post-processing of conversations, such as scheduling or registering alarms. For example, the server 150 extracts information on at least one of the date, time, and location included in the content of the conversation, associates the extracted at least one information with information on the caller of the contact, and receives an incoming call. You may register schedules or alarms for people. Registered schedules and alarms may be synchronized to the electronic device 1 (110).

サーバ150は、サーバ150で実現される人工知能を利用して発信者との会話を直接処理してもよいが、クラウド人工知能プラットフォーム320と連係して会話を処理してもよい。 The server 150 may directly process the conversation with the caller using the artificial intelligence implemented in the server 150, but may work with the cloud artificial intelligence platform 320 to process the conversation.

以上のように、本発明の実施形態によると、音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクトの要請を、人工知能がユーザのスケジュールやライフスタイルを反映して処理することができる。また、人工知能応対に対する会話の要約文を生成して提供することにより、ユーザが人工知能を利用して自動処理された応対の内容を把握することができる。これに加え、ユーザがコンタクトの要請を直接処理する場合にも人工知能応対を選択することができるようにし、映像通話時にはプレビュー画面に自撮り映像を表示することで、映像通話の受諾前に自身の外見を点検できる時間を提供することができる。 As described above, according to embodiments of the present invention, artificial intelligence can be used to match the user's schedule and lifestyle with external contact requests such as voice calls, video calls, and/or receiving instant messages. can be reflected and processed. In addition, by generating and providing a summary sentence of the conversation in response to the artificial intelligence response, the user can grasp the content of the response automatically processed using artificial intelligence. In addition to this, the user can select artificial intelligence response when directly handling a contact request, and display a selfie video on the preview screen during a video call, so that the user can receive the call before accepting the video call. can provide time to check the appearance of

上述したシステムまたは装置は、ハードウェア構成要素、ソフトウェア構成要素、またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)および前記OS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを格納、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。 The systems or devices described above may be realized by hardware components, software components, or a combination of hardware and software components. For example, the devices and components described in the embodiments may include, for example, processors, controllers, ALUs (arithmetic logic units), digital signal processors, microcomputers, FPGAs (field programmable gate arrays), PLUs (programmable logic units), microcontrollers, It may be implemented using one or more general purpose or special purpose computers, such as a processor or various devices capable of executing instructions and responding to instructions. A processing unit may run an operating system (OS) and one or more software applications that run on the OS. The processing unit may also access, store, manipulate, process, and generate data in response to executing software. For convenience of understanding, one processing device may be described as being used, but those skilled in the art will appreciate that the processing device may include multiple processing elements and/or multiple types of processing elements. You can understand. For example, a processing unit may include multiple processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置(virtual equipment)、コンピュータ格納媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で格納されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータで読み取り可能な記録媒体に格納されてよい。 Software may include computer programs, code, instructions, or a combination of one or more of these, to configure a processor to operate at its discretion or to independently or collectively instruct a processor. You can Software and/or data may refer to any kind of machine, component, physical device, virtual equipment, computer storage medium for interpretation on or for providing instructions or data to a processing device. or may be embodied in a device. The software may be distributed over computer systems connected by a network so that they are stored and executed in a distributed fashion. Software and data may be stored on one or more computer-readable media.

実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータで読み取り可能な媒体に記録されてよい。前記コンピュータで読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。前記媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであってもよいし、コンピュータソフトウェア当業者に公知な使用可能なものであってもよい。コンピュータで読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれる。このような記録媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散存在するものであってもよい。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。 The method according to the embodiments may be embodied in the form of program instructions executable by various computer means and recorded on a computer readable medium. The computer-readable media may include program instructions, data files, data structures, etc. singly or in combination. The program instructions recorded on the media may be those specially designed and constructed for an embodiment, or they may be of the kind known and available to those of skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and floptical disks. and magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Such a recording medium may be a variety of recording means or storage means in the form of a combination of single or multiple hardware, and is not limited to a medium directly connected to a computer system, and may be used on a network. It may exist in a distributed manner. Examples of program instructions include high-level language code that is executed by a computer, such as using an interpreter, as well as machine language code, such as that generated by a compiler.

以上のように、実施形態を、限定された実施形態と図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。 As described above, the embodiments have been described based on the limited embodiments and drawings, but those skilled in the art will be able to make various modifications and variations based on the above description. For example, the techniques described may be performed in a different order than in the manner described and/or components such as systems, structures, devices, circuits, etc. described may be performed in a manner different than in the manner described. Appropriate results may be achieved when combined or combined, opposed or substituted by other elements or equivalents.

したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。 Accordingly, different embodiments that are equivalent to the claims should still fall within the scope of the appended claims.

110、120、130、140:電子機器
150、160:サーバ
170:ネットワーク
110, 120, 130, 140: electronic equipment 150, 160: server 170: network

Claims (10)

端末が実行するコンタクト制御プログラムであって、
発信者からのコンタクトの要請を受信する処理、
前記コンタクトの要請に基づいて、人工知能を利用して前記コンタクトの発信者と
会話をして前記コンタクトを処理する処理、
前記会話の要約情報を取得する処理、および
前記要約情報を着信者に提供する処理
を前記端末のコンピュータに実行させ、
前記要約情報は、前記コンタクトの種類、および前記会話の内容に関する要約情報を含む、コンタクト制御プログラム。
A contact control program executed by a terminal,
the process of receiving contact requests from callers;
processing the contact by conversing with the caller of the contact using artificial intelligence based on the request of the contact;
causing the computer of the terminal to execute a process of acquiring summary information of the conversation and a process of providing the summary information to the called party;
A contact control program, wherein the summary information includes summary information about the type of contact and content of the conversation.
端末が実行するコンタクト制御プログラムであって、
発信者からのコンタクトの要請を受信する処理、
前記コンタクトの要請に基づいて、人工知能を利用して前記コンタクトの発信者と
会話をして前記コンタクトを処理する処理、
前記会話の要約情報を取得する処理、および
前記要約情報を着信者に提供する処理
を前記端末のコンピュータに実行させ、
前記要約情報は、前記コンタクトの要請が受信された時刻、および前記会話の内容に関する要約情報を含む、コンタクト制御プログラム。
A contact control program executed by a terminal,
the process of receiving contact requests from callers;
processing the contact by conversing with the caller of the contact using artificial intelligence based on the request of the contact;
causing the computer of the terminal to execute a process of acquiring summary information of the conversation and a process of providing the summary information to the called party;
The contact control program, wherein the summary information includes a time at which the request for contact was received and summary information regarding content of the conversation.
前記コンタクトの要請を受信する処理と、前記コンタクトを処理する処理との間において、前記着信者の状況に基づいて、前記着信者による前記コンタクトの要請の直接制御が可能であるかについて判定する処理を前記端末のコンピュータに実行させる、
請求項1または請求項2に記載のコンタクト制御プログラム。
Between the process of receiving the contact request and the process of processing the contact, a process of determining whether the callee can directly control the contact request based on the status of the callee. causes the terminal computer to execute
The contact control program according to claim 1 or 2.
前記判定する処理において、前記着信者と関連して取得される情報を分析することによって前記着信者の状況を決定する処理を前記端末のコンピュータに実行させる、
請求項3に記載のコンタクト制御プログラム。
causing the computer of the terminal to execute a process of determining the status of the called party by analyzing information acquired in relation to the called party in the determining process;
The contact control program according to claim 3.
前記着信者と関連して取得される情報は、前記着信者の端末または前記端末と通信可能な外部装置により管理される情報である、
請求項4に記載のコンタクト制御プログラム。
The information acquired in relation to the called party is information managed by the terminal of the called party or an external device capable of communicating with the terminal.
The contact control program according to claim 4.
前記着信者と関連して取得される情報は、前記着信者のスケジュールおよび前記着信者のライフスタイルの少なくとも1つに関連する情報である、
請求項4に記載のコンタクト制御プログラム。
the information obtained in relation to the called party is information related to at least one of the called party's schedule and the called party's lifestyle;
The contact control program according to claim 4.
発信者からのコンタクトの要請を受信する通信部と、
前記コンタクトの要請に基づいて、人工知能を利用して前記コンタクトの発信者と
会話をして前記コンタクトを処理する処理部と、
を備え、
前記処理部は、
前記会話の要約情報を取得し、
前記要約情報を着信者に提供する処理を実行し、
前記要約情報は、前記コンタクトの種類、および前記会話の内容に関する要約情報を含む、端末。
a communication unit that receives a contact request from a caller;
a processing unit for processing the contact by conversing with the caller of the contact using artificial intelligence based on the request for the contact;
with
The processing unit is
obtaining summary information of said conversation;
performing a process of providing the summarized information to a called party;
The terminal, wherein the summary information includes summary information about the type of contact and content of the conversation.
発信者からのコンタクトの要請を受信する通信部と、
前記コンタクトの要請に基づいて、人工知能を利用して前記コンタクトの発信者と
会話をして前記コンタクトを処理する処理部と、
を備え、
前記処理部は、
前記会話の要約情報を取得し、
前記要約情報を着信者に提供する処理を実行し、
前記要約情報は、前記コンタクトの要請が受信された時刻、および前記会話の内容に関する要約情報を含む、端末。
a communication unit that receives a contact request from a caller;
a processing unit for processing the contact by conversing with the caller of the contact using artificial intelligence based on the request for the contact;
with
The processing unit is
obtaining summary information of said conversation;
performing a process of providing the summarized information to a called party;
The terminal, wherein the summary information includes summary information about the time when the request for contact was received and the content of the conversation.
コンタクト制御方法であって、
発信者からのコンタクトの要請を受信することと、
前記コンタクトの要請に基づいて、人工知能を利用して前記コンタクトの発信者と
会話をして前記コンタクトを処理することと、
前記会話の要約情報を取得することと、
前記要約情報を着信者に提供することと、
を含み、
前記要約情報は、前記コンタクトの種類、および前記会話の内容に関する要約情報を含む、コンタクト制御方法。
A contact control method comprising:
receiving a request for contact from a caller;
utilizing artificial intelligence to converse with the caller of the contact to process the contact based on the request for the contact;
obtaining summary information of the conversation;
providing said summary information to a called party;
including
The contact control method, wherein the summary information includes summary information about the type of contact and content of the conversation.
コンタクト制御方法であって、
発信者からのコンタクトの要請を受信することと、
前記コンタクトの要請に基づいて、人工知能を利用して前記コンタクトの発信者と
会話をして前記コンタクトを処理することと、
前記会話の要約情報を取得することと、
前記要約情報を着信者に提供することと、
を含み、
前記要約情報は、前記コンタクトの要請が受信された時刻、および前記会話の内容に関する要約情報を含む、コンタクト制御方法。
A contact control method comprising:
receiving a request for contact from a caller;
utilizing artificial intelligence to converse with the caller of the contact to process the contact based on the request for the contact;
obtaining summary information of the conversation;
providing said summary information to a called party;
including
The contact control method, wherein the summary information includes a time when the contact request was received and summary information about the content of the conversation.
JP2023073517A 2017-08-31 2023-04-27 Contact control program, terminal, and contact control method Pending JP2023093714A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2017-0111155 2017-08-31
KR1020170111155 2017-08-31
JP2018159793A JP7273473B2 (en) 2017-08-31 2018-08-28 Artificial intelligence contact control that reflects personal schedule and lifestyle

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018159793A Division JP7273473B2 (en) 2017-08-31 2018-08-28 Artificial intelligence contact control that reflects personal schedule and lifestyle

Publications (1)

Publication Number Publication Date
JP2023093714A true JP2023093714A (en) 2023-07-04

Family

ID=65816621

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018159793A Active JP7273473B2 (en) 2017-08-31 2018-08-28 Artificial intelligence contact control that reflects personal schedule and lifestyle
JP2023073517A Pending JP2023093714A (en) 2017-08-31 2023-04-27 Contact control program, terminal, and contact control method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018159793A Active JP7273473B2 (en) 2017-08-31 2018-08-28 Artificial intelligence contact control that reflects personal schedule and lifestyle

Country Status (1)

Country Link
JP (2) JP7273473B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110062115B (en) 2019-04-24 2022-04-26 北京百度网讯科技有限公司 Communication method, terminal, operator server and intelligent device
JP7167357B2 (en) 2019-05-06 2022-11-08 グーグル エルエルシー automatic call system
JP6898685B1 (en) * 2020-12-14 2021-07-07 シンメトリー・ディメンションズ・インク Business support device, business support system, and business support method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4118098B2 (en) * 2002-07-17 2008-07-16 シャープ株式会社 Wireless communication device
KR101909141B1 (en) * 2012-07-27 2018-10-17 엘지전자 주식회사 Electronic device and method for controlling electronic device
US20140253666A1 (en) * 2013-03-11 2014-09-11 Qualcomm Incorporated Intent engine for enhanced responsiveness in interactive remote communications

Also Published As

Publication number Publication date
JP2019047493A (en) 2019-03-22
JP7273473B2 (en) 2023-05-15

Similar Documents

Publication Publication Date Title
EP3841500B1 (en) Media intercom over a secure device to device communication channel
KR102178896B1 (en) Provides a personal auxiliary module with an optionally steerable state machine
KR102217301B1 (en) Contact control of artificial intelligence reflecting personal schedule and lifestyle
JP6445053B2 (en) List accumulation and reminder trigger
JP2023093714A (en) Contact control program, terminal, and contact control method
CN110472130B (en) Reducing the need for manual start/end points and trigger phrases
US10403272B1 (en) Facilitating participation in a virtual meeting using an intelligent assistant
US9276802B2 (en) Systems and methods for sharing information between virtual agents
US9560089B2 (en) Systems and methods for providing input to virtual agent
US20070162569A1 (en) Social interaction system
CN109698856A (en) The device-to-device communication channel of safety
JP6431090B2 (en) Chat-based support for multiple communication interaction types
US10491690B2 (en) Distributed natural language message interpretation engine
JP2018190413A (en) Method and system for processing user command to adjust and provide operation of device and content provision range by grasping presentation method of user speech
US20140164532A1 (en) Systems and methods for virtual agent participation in multiparty conversation
WO2020238873A1 (en) Communication method, server, and communication system
CN112083987A (en) Remote invocation of mobile device actions
KR20150046100A (en) Virtual agent communication for electronic devices
JP2019040602A (en) Continuous conversation function with artificial intelligence device
US20170286755A1 (en) Facebot
JP2021099862A (en) Improvement of dialog with electronic chat interface
EP3901876A1 (en) Cloud-based communication system for autonomously providing collaborative communication events
KR101643808B1 (en) Method and system of providing voice service using interoperation between application and server
EP3516831B1 (en) Uniform resource identifier and image sharing for contextual information display
CN110166349A (en) Sending method, device and the electronic equipment of message

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230427

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231027

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240409