JP7263471B2 - Information processing device, information processing method and information processing program - Google Patents

Information processing device, information processing method and information processing program Download PDF

Info

Publication number
JP7263471B2
JP7263471B2 JP2021164098A JP2021164098A JP7263471B2 JP 7263471 B2 JP7263471 B2 JP 7263471B2 JP 2021164098 A JP2021164098 A JP 2021164098A JP 2021164098 A JP2021164098 A JP 2021164098A JP 7263471 B2 JP7263471 B2 JP 7263471B2
Authority
JP
Japan
Prior art keywords
person
degree
information
user
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021164098A
Other languages
Japanese (ja)
Other versions
JP2023055015A (en
Inventor
健朗 呉
優一 森岡
雅人 古野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2021164098A priority Critical patent/JP7263471B2/en
Publication of JP2023055015A publication Critical patent/JP2023055015A/en
Application granted granted Critical
Publication of JP7263471B2 publication Critical patent/JP7263471B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

従来、送信者が匿名で送信相手にメッセージを通知する技術が知られている。例えば、送信者を個々に特徴付ける名簿情報を記憶保存する記憶手段と、送信者側端末からのメッセージを、送信者側端末を特定する識別情報と共に受信する受信制御手段と、識別情報からメッセージの送信者が特定されないように、受信制御手段により受信した識別情報と記憶手段から抽出した特定の名簿情報との関連付けを禁止するメッセージ匿名化手段と、メッセージ匿名化手段により匿名化されたメッセージを、送信先の受信者側端末に送り出す送信制御手段と、を備えたメッセージ通知システムが知られている。 Conventionally, there has been known a technique in which a sender anonymously notifies a sender of a message. For example, storage means for storing list information that individually characterizes senders, reception control means for receiving messages from sender-side terminals together with identification information that specifies sender-side terminals, and transmission of messages from the identification information Sending a message anonymizing means for prohibiting association of the identification information received by the reception control means with the specific list information extracted from the storage means so as not to identify the person, and the message anonymized by the message anonymizing means. A message notification system is known that includes transmission control means for sending out to a destination terminal on the recipient side.

特開2021-099742号公報JP 2021-099742 A

しかしながら、上記の従来技術では、コミュニケーションを円滑にするよう支援することができるとは限らない。例えば、上記の従来技術では、送信者が匿名で送信相手にメッセージを送信するにすぎない。このため、例えば、送信者が送信相手に対して初めてメッセージを送信する場合や、送信者と送信相手との立場が違う場合には、送信者が送信相手に対してメッセージを送信する際の心理的なハードルが高いことがある。したがって、上記の従来技術では、コミュニケーションを円滑にするよう支援するうえで改善の余地がある。 However, the conventional technology described above cannot always support smooth communication. For example, in the above-described conventional technology, the sender simply sends a message anonymously to the other party. For this reason, for example, when the sender sends a message to the other party for the first time, or when the position of the sender and the other party is different, the psychology of the sender when sending a message to the other party hurdles are sometimes high. Therefore, the conventional technology described above has room for improvement in assisting smooth communication.

本願は、上記に鑑みてなされたものであって、コミュニケーションを円滑にするよう支援することができる情報処理装置、情報処理方法及び情報処理プログラムを提案する。 The present application has been made in view of the above, and proposes an information processing apparatus, an information processing method, and an information processing program capable of supporting smooth communication.

本願に係る情報処理装置は、第1の人物が第2の人物に対して抱く親近感の度合いを示す親近度を算出する算出部と、前記第1の人物を象徴する第1象徴情報の特徴を示す第1特徴情報と、前記第2の人物を象徴する第2象徴情報の特徴を示す第2特徴情報との類似度が、前記親近度に基づく類似度となるよう、前記第2象徴情報を変化させる変化部と、前記変化部によって変化された後の第2象徴情報を前記第1の人物に対して提供する提供部と、を備える。 An information processing apparatus according to the present application includes a calculation unit that calculates a degree of familiarity indicating a degree of familiarity that a first person has with a second person, and first symbol information that symbolizes the first person. and the second symbol information indicating the characteristics of the second person symbolizing the second person so that the degree of similarity between the first characteristic information indicating the and a providing unit for providing the first person with the second symbol information after being changed by the changing unit.

実施形態の一態様によれば、コミュニケーションを円滑にするよう支援することができるといった効果を奏する。 According to one aspect of the embodiment, there is an effect that it is possible to support smooth communication.

図1は、実施形態に係る情報処理の概要を説明するための図である。FIG. 1 is a diagram for explaining an overview of information processing according to an embodiment. 図2は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an information processing apparatus according to the embodiment; 図3は、実施形態に係る利用者情報記憶部の一例を示す図である。3 is a diagram illustrating an example of a user information storage unit according to the embodiment; FIG. 図4は、実施形態に係る履歴情報記憶部の一例を示す図である。4 is a diagram illustrating an example of a history information storage unit according to the embodiment; FIG. 図5は、実施形態に係る情報処理手順を示す図である。FIG. 5 is a diagram illustrating an information processing procedure according to the embodiment; 図6は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 6 is a hardware configuration diagram showing an example of a computer that implements the functions of the information processing apparatus.

以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Embodiments for implementing an information processing apparatus, an information processing method, and an information processing program according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. The information processing apparatus, information processing method, and information processing program according to the present application are not limited to this embodiment. Also, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

(実施形態)
〔1.情報処理の概要〕
図1は、実施形態に係る情報処理の概要を説明するための図である。図1に示す情報処理は、情報処理システム1によって実現される。情報処理システム1は、送信相手に対して送信者が匿名でメッセージを送信することが可能なSNS(Social Networking Service)サービス(以下、匿名SNSサービスと記載する場合がある)の利用者によって利用される端末装置10と、匿名SNSサービスを提供する情報処理装置100とを備える。端末装置10と情報処理装置100とは所定のネットワークN(図示略)を介して、有線または無線により通信可能に接続される。なお、図1に示す情報処理システム1には、任意の数の端末装置10と任意の数の情報処理装置100とが含まれてもよい。
(embodiment)
[1. Overview of information processing]
FIG. 1 is a diagram for explaining an overview of information processing according to an embodiment. The information processing shown in FIG. 1 is implemented by an information processing system 1 . The information processing system 1 is used by users of a SNS (Social Networking Service) service (hereinafter sometimes referred to as an anonymous SNS service) that allows a sender to anonymously send a message to a transmission partner. and an information processing device 100 that provides an anonymous SNS service. The terminal device 10 and the information processing device 100 are communicably connected by wire or wirelessly via a predetermined network N (not shown). The information processing system 1 shown in FIG. 1 may include any number of terminal devices 10 and any number of information processing apparatuses 100 .

端末装置10は、匿名SNSサービスの利用者によって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。また、端末装置10には、匿名SNSサービスを利用するためのアプリケーションがインストールされている。 The terminal device 10 is an information processing device used by users of the anonymous SNS service. The terminal device 10 is realized by, for example, a smart phone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like. An application for using an anonymous SNS service is installed in the terminal device 10 .

以下では、利用者ID「U1」により特定される利用者を「利用者U1」とする場合がある。このように、以下では、「利用者U*(*は任意の数値)」と記載した場合、その利用者は利用者ID「U*」により特定される利用者であることを示す。例えば、「利用者U2」と記載した場合、その利用者は利用者ID「U2」により特定される利用者である。 Hereinafter, the user identified by the user ID "U1" may be referred to as "user U1". Thus, hereinafter, when "user U* (* is an arbitrary number)" is described, it indicates that the user is specified by the user ID "U*". For example, when "user U2" is described, the user is the user specified by the user ID "U2".

また、以下では、端末装置10を利用する利用者に応じて、端末装置10を端末装置10-1、10-2として説明する。例えば、端末装置10-1は、利用者U1により使用される端末装置10である。また、例えば、端末装置10-2は、利用者U2により使用される端末装置10である。また、以下では、端末装置10-1、10-2について、特に区別なく説明する場合には、端末装置10と記載する。 Also, hereinafter, the terminal device 10 will be described as the terminal devices 10-1 and 10-2 according to the user who uses the terminal device 10. FIG. For example, the terminal device 10-1 is the terminal device 10 used by the user U1. Also, for example, the terminal device 10-2 is the terminal device 10 used by the user U2. Further, hereinafter, the terminal devices 10-1 and 10-2 are referred to as the terminal device 10 when they are described without distinction.

情報処理装置100は、匿名SNSサービスを提供するサーバ装置である。また、情報処理装置100は、図1に示す情報処理を実行する。図1では、情報処理装置100は、利用者U1の端末装置10-1から、利用者U2に対するメッセージを受信する(ステップS1)。 The information processing device 100 is a server device that provides an anonymous SNS service. The information processing apparatus 100 also executes the information processing shown in FIG. In FIG. 1, the information processing device 100 receives a message for the user U2 from the terminal device 10-1 of the user U1 (step S1).

続いて、情報処理装置100は、メッセージを受信すると、メッセージを送信した利用者U1が送信相手の利用者U2に対して抱く親近感の度合いを示す親近度を算出する(ステップS2)。例えば、情報処理装置100は、利用者U1が利用者U2に対してメッセージを送信した送信回数をシグモイド関数の入力値として入力する。続いて、情報処理装置100は、シグモイド関数の出力値を利用者U1が利用者U2に対して抱く親近度として算出する。 Subsequently, when receiving the message, the information processing apparatus 100 calculates a degree of familiarity indicating the degree of familiarity that the user U1 who sent the message has with the user U2 who is the transmission partner (step S2). For example, the information processing apparatus 100 inputs the number of times the user U1 has sent a message to the user U2 as an input value of the sigmoid function. Subsequently, the information processing apparatus 100 calculates the output value of the sigmoid function as the degree of familiarity that the user U1 has with the user U2.

続いて、情報処理装置100は、親近度を算出すると、公知のモーフィング技術を用いて、利用者U1の顔を含む画像G1の特徴を示す第1特徴情報と、利用者U2の顔を含む画像G2と画像G1を合成した中間状態の画像G2´の特徴を示す第2特徴情報との類似度が、算出した親近度に基づく類似度となるよう、中間状態の画像G2´を変化させる(ステップS3)。 Subsequently, after calculating the degree of familiarity, the information processing apparatus 100 uses a known morphing technique to generate first feature information indicating features of the image G1 including the face of the user U1 and an image including the face of the user U2. The image G2′ in the intermediate state is changed so that the degree of similarity with the second feature information indicating the feature of the image G2′ in the intermediate state obtained by synthesizing the image G2 and the image G1 becomes the degree of similarity based on the calculated degree of familiarity (step S3).

続いて、情報処理装置100は、利用者U2の端末装置10-2から、利用者U1に対する返信メッセージを受信する(ステップS4)。例えば、情報処理装置100は、端末装置10-2から、「〇〇さんへ こんにちは、お元気ですか。今日も・・・」といった文字情報T2を含むメッセージを受信する。 Subsequently, the information processing device 100 receives a reply message to the user U1 from the terminal device 10-2 of the user U2 (step S4). For example, the information processing apparatus 100 receives a message including character information T2 such as "To Mr. XX, how are you today?" from the terminal device 10-2.

続いて、情報処理装置100は、メッセージを受信すると、変化された後の中間状態の画像G2´を利用者U1に対して提供する(ステップS5)。例えば、情報処理装置100は、端末装置10-2から受信したメッセージに含まれる文字情報T2および変化された後の利用者U2の顔を含む画像G2´を含むコンテンツC22を生成する。続いて、情報処理装置100は、生成したコンテンツC22を利用者U1の端末装置10-1に送信する。 Subsequently, when receiving the message, the information processing apparatus 100 provides the image G2' in the intermediate state after the change to the user U1 (step S5). For example, the information processing apparatus 100 generates the content C22 including the character information T2 included in the message received from the terminal apparatus 10-2 and the changed image G2' including the face of the user U2. Subsequently, the information processing device 100 transmits the generated content C22 to the terminal device 10-1 of the user U1.

上述したように、情報処理装置100は、メッセージを送信した利用者U1が送信相手の利用者U2に対して抱く親近感の度合いを示す親近度を算出する。また、情報処理装置100は、利用者U1の顔を含む画像G1の特徴を示す第1特徴情報と、利用者U2の顔を含む画像G2と画像G1を合成した中間状態の画像G2´の特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、中間状態の画像G2´を変化させる。また、情報処理装置100は、変化された後の中間状態の画像G2´を利用者U1に対して提供する。 As described above, the information processing apparatus 100 calculates the degree of familiarity indicating the degree of familiarity that the user U1 who has sent the message has with the user U2 who is the transmission partner. Further, the information processing apparatus 100 obtains first feature information indicating features of the image G1 including the face of the user U1, and features of an image G2′ in an intermediate state obtained by synthesizing the image G2 including the face of the user U2 and the image G1. The image G2' in the intermediate state is changed so that the degree of similarity with the second feature information indicating is the degree of similarity based on the degree of familiarity. Further, the information processing apparatus 100 provides the user U1 with the image G2' in the intermediate state after the change.

このように、情報処理装置100は、メッセージを送信した利用者U1が送信相手の利用者U2に対して抱く親近感の度合いに応じて、コミュニケーションを仲介するエージェントの画像を、利用者U1の顔を含む画像から送信相手の利用者U2の顔を含む画像へと段階的に変化させる。すなわち、情報処理装置100は、例えば、利用者U1が利用者U2に対して抱く親近感の度合いが低い場合には、コミュニケーションを仲介するエージェントの画像を、利用者U2の顔よりも利用者U1の顔に近い顔を含む画像に変化させることで、利用者U1が利用者U2に対して抱く親近感の低さを軽減させることができる。これにより、情報処理装置100は、利用者U1が利用者U2に対して抱く親近感の低さを軽減させることができるので、利用者U1が利用者U2に対してメッセージを送信しやすくすることができる。したがって、情報処理装置100は、コミュニケーションを円滑にするよう支援することができる。 In this manner, the information processing apparatus 100 displays the image of the agent that mediates communication according to the degree of affinity that the user U1 who has sent the message has for the user U2 who is the transmission partner. , to an image including the face of the user U2 who is the transmission partner. That is, for example, when the user U1 has a low degree of familiarity with the user U2, the information processing apparatus 100 displays the image of the agent that mediates communication with the user U1 rather than the face of the user U2. By changing the image to include a face close to U2's face, it is possible to reduce the low sense of intimacy that user U1 has for user U2. As a result, the information processing apparatus 100 can reduce the low sense of intimacy that the user U1 has for the user U2, thereby making it easier for the user U1 to send a message to the user U2. can be done. Therefore, the information processing apparatus 100 can support smooth communication.

〔2.情報処理装置の構成例〕
次に、図2を用いて、実施形態に係る情報処理装置100の構成について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の利用者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)を有してもよい。
[2. Configuration example of information processing device]
Next, the configuration of the information processing apparatus 100 according to the embodiment will be described using FIG. FIG. 2 is a diagram illustrating a configuration example of the information processing apparatus 100 according to the embodiment. As shown in FIG. 2, the information processing apparatus 100 has a communication section 110, a storage section 120, and a control section . Note that the information processing apparatus 100 may have an input unit (for example, a keyboard, a mouse, etc.) that receives various operations from the user of the information processing apparatus 100 or the like.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークN(図示略)と有線又は無線で接続され、例えば、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Also, the communication unit 110 is connected to a network N (not shown) by wire or wirelessly, and transmits and receives information to and from the terminal device 10, for example.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、各種プログラム(情報処理プログラムの一例に相当)を記憶する。図2に示すように、記憶部120は、利用者情報記憶部121と、履歴情報記憶部122とを有する。
(storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 stores various programs (corresponding to an example of an information processing program). As shown in FIG. 2 , storage unit 120 has user information storage unit 121 and history information storage unit 122 .

(利用者情報記憶部121)
利用者情報記憶部121は、利用者に関する各種情報を記憶する。図3は、実施形態に係る利用者情報記憶部の一例を示す図である。図3に示す例では、利用者情報記憶部121は、「利用者ID」、「画像データ」、「音声データ」といった項目を有する。
(User information storage unit 121)
The user information storage unit 121 stores various information about users. 3 is a diagram illustrating an example of a user information storage unit according to the embodiment; FIG. In the example shown in FIG. 3, the user information storage unit 121 has items such as "user ID", "image data", and "audio data".

「利用者ID」は、利用者を識別するための識別情報を示す。「画像データ」は、利用者の顔を含む画像データを示す。例えば、「画像データ」は、利用者によって登録された匿名SNSサービスのアイコンの顔画像データを示す。なお、「画像データ」は、匿名SNSサービスにおけるビデオ通話中に撮影された利用者の顔を含む画像データであってもよい。「音声データ」は、利用者の音声を含む音声データを示す。例えば、「音声データ」は、匿名SNSサービスにおける音声通話中に録音された利用者の音声を含む音声データであってよい。 "User ID" indicates identification information for identifying a user. "Image data" indicates image data including the user's face. For example, "image data" indicates face image data of an icon of an anonymous SNS service registered by the user. Note that the “image data” may be image data including the user's face captured during a video call in the anonymous SNS service. "Voice data" indicates voice data including the user's voice. For example, "voice data" may be voice data including the user's voice recorded during a voice call in an anonymous SNS service.

ここで、図3に示す例では、「U1」、「G1」および「V11」といった抽象的な値を用いて図示するが、「U1」、「G1」および「V11」等には、具体的な文字列や数値等の情報が記憶されるものとする。 Here, in the example shown in FIG. 3, abstract values such as "U1", "G1" and "V11" are used, but "U1", "G1" and "V11" are not specific values. It is assumed that information such as character strings and numerical values are stored.

(履歴情報記憶部122)
履歴情報記憶部122は、利用者の行動履歴に関する各種情報を記憶する。図4は、実施形態に係る履歴情報記憶部の一例を示す図である。図4に示す例では、履歴情報記憶部122は、「利用者ID」、「送受信履歴」といった項目を有する。
(History information storage unit 122)
The history information storage unit 122 stores various kinds of information regarding the user's action history. 4 is a diagram illustrating an example of a history information storage unit according to the embodiment; FIG. In the example shown in FIG. 4, the history information storage unit 122 has items such as "user ID" and "transmission history".

「利用者ID」は、利用者を識別するための識別情報を示す。「送受信履歴」は、例えば、匿名SNSサービスにおける利用者のメッセージの送受信履歴を示す。なお、「送受信履歴」は、匿名SNSサービスにおけるビデオ通話における画像の送受信履歴および音声通話における音声データの送受信履歴を含んでよい。 "User ID" indicates identification information for identifying a user. The “transmission/reception history” indicates, for example, the transmission/reception history of messages of the user in the anonymous SNS service. The “transmission/reception history” may include the transmission/reception history of images in video calls and the transmission/reception history of voice data in voice calls in the anonymous SNS service.

ここで、図4に示す例では、「U1」および「送受信履歴#1」といった抽象的な値を用いて図示するが、「U1」および「送受信履歴#1」等には、具体的な文字列や数値等の情報が記憶されるものとする。 Here, in the example shown in FIG. 4 , abstract values such as “U1” and “transmission/reception history #1” are used, but concrete values such as “U1” and “transmission/transmission history #1” are used. It is assumed that information such as columns and numerical values is stored.

(制御部130)
図2の説明に戻る。制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報処理装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。
(control unit 130)
Returning to the description of FIG. The control unit 130 is a controller. Various programs (corresponding to an example of an information processing program) stored in the internal storage device are executed by using a storage area such as a RAM as a work area.

図2に示すように、制御部130は、取得部131と、算出部132と、変化部133と、提供部134とを有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 2, the control unit 130 has an acquisition unit 131, a calculation unit 132, a change unit 133, and a provision unit 134, and implements or executes the information processing operation described below. Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 2, and may be another configuration as long as it performs the information processing described later.

(取得部131)
取得部131は、利用者の端末装置10から利用者に関する利用者情報を取得する。例えば、取得部131は、利用者情報の一例として、利用者によって登録された匿名SNSサービスのアイコンの顔画像データを取得する。また、例えば、取得部131は、利用者情報の一例として、匿名SNSサービスにおけるビデオ通話中に撮影された利用者の顔を含む画像データを取得してもよい。また、取得部131は、利用者情報の一例として、利用者の音声を含む音声データを取得する。例えば、取得部131は、利用者情報の一例として、匿名SNSサービスにおける音声通話中に録音された利用者の音声を含む音声データを取得してもよい。取得部131は、利用者情報を取得すると、取得した利用者情報を利用者IDと対応付けて利用者情報記憶部121に格納する。
(Acquisition unit 131)
The acquisition unit 131 acquires user information about the user from the terminal device 10 of the user. For example, the acquisition unit 131 acquires face image data of an icon of an anonymous SNS service registered by a user as an example of user information. Further, for example, the acquisition unit 131 may acquire image data including the user's face captured during a video call in an anonymous SNS service, as an example of user information. The acquisition unit 131 also acquires voice data including the user's voice as an example of user information. For example, the acquisition unit 131 may acquire, as an example of user information, voice data including the user's voice recorded during a voice call in an anonymous SNS service. Upon acquiring the user information, the acquisition unit 131 stores the acquired user information in the user information storage unit 121 in association with the user ID.

また、取得部131は、利用者の端末装置10から利用者の行動履歴に関する履歴情報を取得する。例えば、取得部131は、履歴情報の一例として、匿名SNSサービスにおける利用者のメッセージの送受信履歴を取得する。なお、取得部131は、履歴情報の一例として、匿名SNSサービスにおけるビデオ通話における画像の送受信履歴および音声通話における音声データの送受信履歴を取得してもよい。取得部131は、履歴情報を取得すると、取得した履歴情報を利用者IDと対応付けて履歴情報記憶部122に格納する。 In addition, the acquisition unit 131 acquires history information regarding the action history of the user from the terminal device 10 of the user. For example, the acquisition unit 131 acquires a message transmission/reception history of a user in an anonymous SNS service as an example of history information. As an example of the history information, the acquisition unit 131 may acquire a transmission/reception history of images in a video call and a transmission/reception history of audio data in a voice call in an anonymous SNS service. Upon acquiring the history information, the acquisition unit 131 stores the acquired history information in the history information storage unit 122 in association with the user ID.

(算出部132)
算出部132は、第1の利用者が第2の利用者に対して抱く親近感の度合いを示す親近度を算出する。具体的には、算出部132は、第1の利用者の端末装置10から、第2の利用者に対するメッセージを受信した場合に、履歴情報記憶部122を参照して、第1の利用者が第2の利用者に対してメッセージを送信した送信回数を算出する。続いて、算出部132は、送信回数を算出すると、算出した送信回数をシグモイド関数の入力値として入力する。続いて、算出部132は、シグモイド関数の出力値を第1の利用者が第2の利用者に対して抱く親近度として算出する。このように、算出部132は、第1の利用者が第2の利用者に対して情報を送信した送信回数が多いほど、親近度を高く算出する。
(Calculation unit 132)
The calculation unit 132 calculates a degree of familiarity that indicates the degree of familiarity that the first user has with the second user. Specifically, when receiving a message for the second user from the terminal device 10 of the first user, the calculation unit 132 refers to the history information storage unit 122 and determines that the first user Calculate the number of times the message has been sent to the second user. After calculating the number of times of transmission, the calculation unit 132 inputs the calculated number of times of transmission as an input value of the sigmoid function. Subsequently, the calculator 132 calculates the output value of the sigmoid function as the degree of familiarity that the first user has with the second user. In this way, the calculation unit 132 calculates a higher degree of familiarity as the number of transmissions of information from the first user to the second user increases.

(変化部133)
変化部133は、第1の利用者の顔を含む画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像の特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の利用者の顔を含む画像を変化させる。具体的には、変化部133は、算出部132が親近度を算出した場合に、公知のモーフィング技術を用いて、第1の利用者の顔を含む画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像と第1の利用者の顔を含む画像を合成した中間状態の画像の特徴を示す第2特徴情報との類似度が、算出した親近度に基づく類似度となるよう、中間状態の画像を変化させる。
(Change section 133)
The changing unit 133 determines that the degree of similarity between the first feature information indicating the features of the image including the face of the first user and the second feature information indicating the features of the image including the face of the second user is close. The image containing the face of the second user is changed so that the degree of similarity is based on the degree of similarity. Specifically, when the calculating unit 132 calculates the degree of familiarity, the changing unit 133 uses a known morphing technique to obtain first feature information indicating features of an image including the face of the first user, The degree of similarity between the image including the face of the second user and the second feature information indicating the features of the image in the intermediate state obtained by synthesizing the image including the face of the first user is the degree of similarity based on the calculated familiarity. The image in the intermediate state is changed so that

例えば、変化部133は、第1の利用者の顔を含む画像と第2の利用者の顔を含む画像をモーフィング用に生成された機械学習モデルに入力して、第1の利用者の顔を含む画像と第2の利用者の顔を含む画像を合成した中間状態の画像を機械学習モデルから出力する。続いて、変化部133は、機械学習モデルから出力された複数の中間状態の画像の中から、第1の利用者の顔を含む画像の特徴を示す第1特徴情報との類似度が算出した親近度に基づく類似度となるような中間状態の画像を選択する。 For example, the changing unit 133 inputs an image including the first user's face and an image including the second user's face to a machine learning model generated for morphing, and converts the first user's face The machine learning model outputs an image in an intermediate state obtained by synthesizing the image including the face of the second user and the image including the face of the second user. Subsequently, the changing unit 133 calculates the degree of similarity between the first feature information indicating the feature of the image including the face of the first user and the image in the intermediate state output from the machine learning model. Select intermediate state images that result in a degree of similarity based on proximity.

(提供部134)
提供部134は、変化部133によって変化された後の中間状態の画像を第1の利用者に対して提供する。例えば、提供部134は、第2の利用者の端末装置10から、第1の利用者に対する返信メッセージを受信した場合に、返信メッセージに含まれる文字情報および変化部133によって変化された後の中間状態の画像を含むコンテンツを生成する。続いて、提供部134は、生成したコンテンツを第1の利用者の端末装置10に送信する。
(Providing unit 134)
The providing unit 134 provides the image in the intermediate state after being changed by the changing unit 133 to the first user. For example, when the providing unit 134 receives a reply message to the first user from the second user's terminal device 10, the providing unit 134 receives the character information included in the reply message and the intermediate text after being changed by the changing unit 133. Generate content with state images. Subsequently, the providing unit 134 transmits the generated content to the terminal device 10 of the first user.

〔3.情報処理手順〕
図5は、実施形態に係る情報処理手順を示す図である。図5に示すように、情報処理装置100の算出部132は、第1の人物が第2の人物に対して抱く親近感の度合いを示す親近度を算出する(ステップS101)。例えば、算出部132は、第1の人物が第2の人物に対して情報を送信した送信回数が多いほど、親近度を高く算出する。
[3. Information processing procedure]
FIG. 5 is a diagram illustrating an information processing procedure according to the embodiment; As shown in FIG. 5, the calculation unit 132 of the information processing apparatus 100 calculates a degree of familiarity indicating the degree of familiarity that a first person has with a second person (step S101). For example, the calculator 132 calculates a higher degree of familiarity as the number of transmissions of information from the first person to the second person increases.

情報処理装置100の変化部133は、第1の人物を象徴する第1象徴情報の特徴を示す第1特徴情報と、第2の人物を象徴する第2象徴情報の特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2象徴情報を変化させる(ステップS102)。例えば、変化部133は、公知のモーフィング技術を用いて、第1の人物の顔を含む画像の特徴を示す第1特徴情報と、第2の人物の顔を含む画像と第1の人物の顔を含む画像を合成した中間状態の画像の特徴を示す第2特徴情報との類似度が、算出した親近度に基づく類似度となるよう、中間状態の画像を変化させる。 The changing unit 133 of the information processing apparatus 100 generates first feature information indicating a feature of first symbol information symbolizing a first person and second feature information indicating a feature of second symbol information symbolizing a second person. The second symbol information is changed so that the degree of similarity with is based on the degree of familiarity (step S102). For example, the changing unit 133 uses a known morphing technique to generate first feature information indicating features of an image including the face of the first person, an image including the face of the second person and the face of the first person. The image in the intermediate state is changed so that the degree of similarity with the second feature information indicating the feature of the image in the intermediate state obtained by synthesizing the image including is equal to the degree of similarity based on the calculated degree of familiarity.

情報処理装置100の提供部134は、変化された後の第2象徴情報を第1の人物に対して提供する(ステップS103)。例えば、提供部134は、変化部133によって変化された後の中間状態の画像を含むコンテンツを第1の人物に対して提供する。 The providing unit 134 of the information processing apparatus 100 provides the second symbol information after being changed to the first person (step S103). For example, the providing unit 134 provides the content including the image in the intermediate state after being changed by the changing unit 133 to the first person.

〔4.変形例〕
上述した実施形態に係る情報処理システム1は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理システム1の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
[4. Modification]
The information processing system 1 according to the above-described embodiments may be implemented in various different forms other than the above-described embodiments. Therefore, other embodiments of the information processing system 1 will be described below. In addition, the same code|symbol is attached|subjected to the same part as embodiment, and description is abbreviate|omitted.

〔4-1.第1象徴情報の他の例〕
〔4-1-1.画像の他の例〕
上述した実施形態では、変化部133が、第1の利用者の顔を含む画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像の特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の利用者の顔を含む画像を変化させる場合について説明したが、第1の利用者を象徴する第1象徴情報は、第1の利用者の顔を含む画像以外の情報であってよい。
[4-1. Another example of the first symbol information]
[4-1-1. Other examples of images]
In the above-described embodiment, the changing unit 133 generates the first feature information indicating the features of the image including the first user's face and the second feature information indicating the features of the image including the second user's face. A case has been described where the image including the face of the second user is changed so that the similarity of the first user is based on the familiarity. information other than an image containing the user's face.

具体的には、第1象徴情報は、任意の人物の顔を含む画像であってよい。例えば、取得部131は、第1の利用者の端末装置10から、第1の利用者の顔を含む画像の代わりに、任意の人物の顔を含む画像を取得する。続いて、変化部133は、算出部132が親近度を算出した場合に、公知のモーフィング技術を用いて、任意の人物の顔を含む画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像と任意の人物の顔を含む画像を合成した中間状態の画像の特徴を示す第2特徴情報との類似度が、算出した親近度に基づく類似度となるよう、中間状態の画像を変化させる。このように、変化部133は、任意の人物の顔を含む画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像の特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の利用者の顔を含む画像を変化させる。 Specifically, the first symbolic information may be an image containing the face of any person. For example, the acquisition unit 131 acquires an image including the face of an arbitrary person from the terminal device 10 of the first user instead of the image including the face of the first user. Next, when the calculating unit 132 calculates the degree of familiarity, the changing unit 133 uses a known morphing technique to generate first feature information indicating features of an image including the face of an arbitrary person and second usage information. The intermediate state is adjusted so that the similarity between the image including the face of the person and the second feature information indicating the features of the image in the intermediate state obtained by synthesizing the image including the face of an arbitrary person is the similarity based on the calculated degree of familiarity. change the image of In this way, the changing unit 133 determines that the degree of similarity between the first feature information indicating the features of the image including the face of an arbitrary person and the second feature information indicating the features of the image including the face of the second user is , the image including the face of the second user is changed so that the degree of similarity is based on the degree of familiarity.

また、第1象徴情報は、人以外の生物の画像であってよい。例えば、取得部131は、第1の利用者の端末装置10から、第1の利用者の顔を含む画像の代わりに、人以外の生物の画像を取得する。続いて、変化部133は、算出部132が親近度を算出した場合に、公知のモーフィング技術を用いて、人以外の生物の画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像と人以外の生物の画像を合成した中間状態の画像の特徴を示す第2特徴情報との類似度が、算出した親近度に基づく類似度となるよう、中間状態の画像を変化させる。このように、変化部133は、人以外の生物の画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像の特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の利用者の顔を含む画像を変化させる。 Also, the first symbol information may be an image of a creature other than a person. For example, the acquisition unit 131 acquires an image of a creature other than a person from the terminal device 10 of the first user instead of the image including the face of the first user. Subsequently, when the calculating unit 132 calculates the degree of familiarity, the changing unit 133 uses a known morphing technique to obtain the first feature information indicating the features of the image of the creature other than the human and the image of the second user. The image in the intermediate state is changed so that the degree of similarity between the image including the face and the second feature information indicating the features of the image in the intermediate state obtained by synthesizing the image of the non-human creature is the degree of similarity based on the calculated degree of familiarity. Let In this way, the changing unit 133 determines that the degree of similarity between the first feature information indicating the features of the image of a living creature other than a human and the second feature information indicating the features of the image including the face of the second user is close. The image containing the face of the second user is changed so that the degree of similarity is based on the degree of similarity.

また、第1象徴情報は、生物以外の物体の画像であってよい。例えば、取得部131は、第1の利用者の端末装置10から、第1の利用者の顔を含む画像の代わりに、生物以外の物体(例えば、自動車など)の画像を取得する。続いて、変化部133は、算出部132が親近度を算出した場合に、公知のモーフィング技術を用いて、生物以外の物体の画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像と生物以外の物体の画像を合成した中間状態の画像の特徴を示す第2特徴情報との類似度が、算出した親近度に基づく類似度となるよう、中間状態の画像を変化させる。このように、変化部133は、生物以外の物体の画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像の特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の利用者の顔を含む画像を変化させる。 Also, the first symbol information may be an image of an object other than a living thing. For example, the acquiring unit 131 acquires an image of a non-living object (for example, an automobile) from the first user's terminal device 10 instead of the image including the first user's face. Next, when the calculating unit 132 calculates the degree of familiarity, the changing unit 133 uses a known morphing technique to obtain the first feature information indicating the features of the image of the non-living object and the second user's The image in the intermediate state is changed so that the degree of similarity between the image including the face and the image of the non-living object synthesized in the intermediate state and the second feature information indicating the characteristics of the image in the intermediate state is the degree of similarity based on the calculated degree of familiarity. Let In this way, the changing unit 133 determines that the degree of similarity between the first feature information indicating the feature of the image of the non-living object and the second feature information indicating the feature of the image including the face of the second user is close. The image containing the face of the second user is changed so that the degree of similarity is based on the degree of similarity.

なお、上述した他にも、取得部131は、第1の利用者の端末装置10から、生物以外の物体(例えば、自動車など)の物体画像、人以外の生物の生物画像、および第1の利用者の顔を含む顔画像の3つの画像を取得する。変化部133は、算出部132が算出した親近度が第1閾値未満である場合には、物体画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像と物体画像を合成した中間状態の画像の特徴を示す第2特徴情報との類似度が、算出した親近度に基づく類似度となるよう、中間状態の画像を変化させる。 In addition to the above, the acquisition unit 131 receives, from the first user's terminal device 10, an object image of an object other than a living thing (for example, a car), a biological image of a living thing other than a person, and the first image. Acquire three facial images containing the user's face. When the degree of familiarity calculated by the calculation unit 132 is less than the first threshold, the change unit 133 changes the first feature information indicating the characteristics of the object image, the image including the face of the second user, and the object image. The image in the intermediate state is changed so that the degree of similarity with the second feature information indicating the feature of the synthesized image in the intermediate state becomes the degree of similarity based on the calculated degree of familiarity.

また、変化部133は、算出部132が算出した親近度が第1閾値以上かつ第2閾値未満である場合には、生物画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像と生物画像を合成した中間状態の画像の特徴を示す第2特徴情報との類似度が、算出した親近度に基づく類似度となるよう、中間状態の画像を変化させる。 Further, when the degree of familiarity calculated by the calculation unit 132 is equal to or more than the first threshold and less than the second threshold, the change unit 133 changes the first characteristic information indicating the characteristics of the biological image and the second user's face. The image in the intermediate state is changed so that the degree of similarity between the image containing and the second feature information indicating the features of the image in the intermediate state obtained by synthesizing the biological image becomes the degree of similarity based on the calculated degree of familiarity.

また、変化部133は、算出部132が算出した親近度が第2閾値以上である場合には、第1の利用者の顔を含む顔画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像と第1の利用者の顔を含む顔画像を合成した中間状態の画像の特徴を示す第2特徴情報との類似度が、算出した親近度に基づく類似度となるよう、中間状態の画像を変化させる。 Further, when the degree of familiarity calculated by the calculation unit 132 is equal to or greater than the second threshold, the change unit 133 changes the first feature information indicating the features of the face image including the face of the first user and the second The degree of similarity between the image containing the user's face and the second feature information indicating the characteristics of the image in the intermediate state obtained by synthesizing the face image containing the first user's face is the degree of similarity based on the calculated familiarity. , the image in the intermediate state is changed.

また、第1象徴情報は、第2の利用者の顔をアニメ化したアニメ画であってもよい。変化部133は、第2の利用者の顔をアニメ化したアニメ画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像(実写画像)の特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の利用者の顔を含む画像を変化させてもよい。 Also, the first symbol information may be an animated picture of the face of the second user. The changing unit 133 converts first feature information indicating features of an animated image obtained by animating the face of the second user and second feature information indicating features of an image (actual image) including the face of the second user. The image including the face of the second user may be changed so that the degree of similarity with the second user is based on the degree of familiarity.

なお、変化部133は、第1の利用者の顔を含む画像の特徴を示す第1特徴情報と、第2の利用者の顔を含む画像の特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の利用者の顔の部位(目、鼻、口元、耳などの部位)ごとに第2の利用者の顔を含む画像を変化させてもよい。 Note that the changing unit 133 determines that the degree of similarity between the first feature information indicating the features of the image including the face of the first user and the second feature information indicating the features of the image including the face of the second user is , the image including the second user's face may be changed for each part of the second user's face (parts such as eyes, nose, mouth, ears, etc.) so that the degree of similarity is based on the degree of familiarity. .

〔4-1-2.音声データ〕
また、上述した実施形態では、第1の利用者を象徴する第1象徴情報(第2の利用者を象徴する第2象徴情報)が第1の利用者(第2の利用者)の顔を含む画像である場合について説明したが、第1象徴情報(第2象徴情報)は、第1の利用者(第2の利用者)の顔を含む画像以外の情報であってよい。具体的には、第1の利用者を象徴する第1象徴情報(第2の利用者を象徴する第2象徴情報)は、第1の利用者(第2の利用者)の音声を含む音声データであってよい。
[4-1-2. voice data]
Further, in the above-described embodiment, the first symbol information symbolizing the first user (second symbol information symbolizing the second user) represents the face of the first user (second user). The first symbol information (second symbol information) may be information other than an image including the face of the first user (second user). Specifically, the first symbolic information that symbolizes the first user (the second symbolic information that symbolizes the second user) is the voice including the voice of the first user (second user). can be data.

例えば、算出部132は、第1の利用者の端末装置10から、第2の利用者に対する音声メッセージを受信した場合に、第1の利用者が第2の利用者に対して抱く親近感の度合いを示す親近度を算出する。変化部133は、算出部132が親近度を算出した場合に、公知の音声モーフィング技術を用いて、第1の利用者の音声を含む音声データの特徴を示す第1特徴情報と、第2の利用者の音声を含む音声データと第1の利用者の音声を含む音声データを合成した中間状態の音声データの特徴を示す第2特徴情報との類似度が、算出した親近度に基づく類似度となるよう、中間状態の音声データを変化させる。 For example, when the calculator 132 receives a voice message for the second user from the terminal device 10 of the first user, A degree of familiarity indicating the degree is calculated. When the calculating unit 132 calculates the degree of familiarity, the changing unit 133 uses a known voice morphing technique to convert first feature information indicating features of voice data including the voice of the first user and second feature information. The degree of similarity between the voice data including the voice of the user and the second characteristic information indicating the characteristics of the voice data in the intermediate state obtained by synthesizing the voice data including the voice of the first user is the degree of similarity based on the calculated familiarity. The audio data in the intermediate state is changed so that

このように、変化部133は、第1の利用者の音声を含む音声データの特徴を示す第1特徴情報と、第2の利用者の音声を含む音声データの特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の利用者の音声を含む音声データを変化させる。 In this way, the changing unit 133 generates the first feature information indicating the feature of the voice data including the voice of the first user and the second feature information indicating the feature of the voice data including the voice of the second user. The voice data including the voice of the second user is changed so that the similarity of is based on the degree of familiarity.

例えば、変化部133は、第1の利用者の音声を含む音声データと第2の利用者の音声を含む音声データを音声モーフィング用に生成された機械学習モデルに入力して、第1の利用者の音声を含む音声データと第2の利用者の音声を含む音声データを合成した中間状態の音声データを機械学習モデルから出力する。続いて、変化部133は、機械学習モデルから出力された複数の中間状態の音声データの中から、第1の利用者の音声を含む音声データの特徴を示す第1特徴情報との類似度が算出した親近度に基づく類似度となるような中間状態の音声データを選択する。 For example, the changing unit 133 inputs voice data including the voice of the first user and voice data including the voice of the second user to a machine learning model generated for voice morphing, and performs the first usage. The machine learning model outputs speech data in an intermediate state obtained by synthesizing the speech data including the voice of the second user and the speech data including the voice of the second user. Subsequently, the changing unit 133 determines that the degree of similarity with the first feature information indicating the feature of the voice data including the voice of the first user, out of the plurality of intermediate state voice data output from the machine learning model, is Intermediate speech data is selected so that the degree of similarity is based on the calculated degree of familiarity.

提供部134は、変化部133によって変化された後の中間状態の音声データを第1の利用者に対して提供する。例えば、提供部134は、第2の利用者の端末装置10から、第1の利用者に対する返信の音声メッセージを受信した場合に、返信の音声メッセージに含まれる言語情報を、変化部133によって変化された後の中間状態の音声データによって再生するコンテンツを生成する。続いて、提供部134は、生成したコンテンツを第1の利用者の端末装置10に送信する。 The providing unit 134 provides the first user with the voice data in the intermediate state after being changed by the changing unit 133 . For example, when receiving a reply voice message to the first user from the terminal device 10 of the second user, the providing unit 134 causes the changing unit 133 to change the language information included in the reply voice message. Contents to be reproduced are generated by audio data in an intermediate state after being processed. Subsequently, the providing unit 134 transmits the generated content to the terminal device 10 of the first user.

なお、第1象徴情報は、任意の人物の音声を含む音声データであってよい。このとき、変化部133は、算出部132が親近度を算出した場合に、公知の音声モーフィング技術を用いて、任意の人物の音声を含む音声データの特徴を示す第1特徴情報と、第2の利用者の音声を含む音声データと第1の利用者の音声を含む音声データを合成した中間状態の音声データの特徴を示す第2特徴情報との類似度が、算出した親近度に基づく類似度となるよう、中間状態の音声データを変化させる。このように、変化部133は、任意の人物の音声を含む音声データの特徴を示す第1特徴情報と、第2の人物の音声を含む音声データの特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の人物の音声を含む音声データを変化させる。 Note that the first symbolic information may be voice data including the voice of an arbitrary person. At this time, when the calculating unit 132 calculates the degree of familiarity, the changing unit 133 uses a known voice morphing technique to perform first feature information indicating a feature of voice data including the voice of an arbitrary person, The degree of similarity between the speech data including the voice of the first user and the second feature information indicating the features of the voice data in the intermediate state obtained by synthesizing the voice data including the voice of the first user is similarity based on the calculated familiarity Change the audio data in the intermediate state so that the In this way, the changing unit 133 determines the degree of similarity between the first feature information indicating the feature of the voice data including the voice of an arbitrary person and the second feature information indicating the feature of the voice data including the voice of the second person. changes voice data including the voice of the second person so that the degree of similarity is based on the degree of familiarity.

〔4-2.その他の親近度の算出方法〕
また、上述した実施形態では、算出部132が、第1の利用者が第2の利用者に対して情報を送信した送信回数が多いほど、親近度を高く算出する場合について説明したが、親近度の算出方法はこれに限られない。
[4-2. Other methods for calculating degree of familiarity]
Further, in the above-described embodiment, a case has been described in which the calculation unit 132 calculates a higher degree of familiarity as the number of transmissions of information from the first user to the second user increases. The degree calculation method is not limited to this.

例えば、算出部132は、履歴情報記憶部122を参照して、第1の利用者が第2の利用者から受信したメッセージに対して応答した応答速度の代表値(例えば、平均値、中央値、最頻値など)を算出する。続いて、算出部132は、応答速度の代表値を算出すると、算出した応答速度の代表値をシグモイド関数の入力値として入力する。続いて、算出部132は、シグモイド関数の出力値を第1の利用者が第2の利用者に対して抱く親近度として算出する。このように、算出部132は、第1の利用者が第2の利用者から受信した情報に対して応答した応答速度が速いほど、親近度を高く算出してよい。 For example, the calculation unit 132 refers to the history information storage unit 122 and refers to a representative value (for example, average value, median value, , mode, etc.). Subsequently, after calculating the representative value of the response speed, the calculation unit 132 inputs the calculated representative value of the response speed as the input value of the sigmoid function. Subsequently, the calculator 132 calculates the output value of the sigmoid function as the degree of familiarity that the first user has with the second user. In this way, the calculation unit 132 may calculate the degree of familiarity to be higher as the response speed of the first user to the information received from the second user is faster.

また、算出部132は、履歴情報記憶部122を参照して、第1の利用者が第2の利用者に対して送信したメッセージを取得する。続いて、算出部132は、メッセージを取得すると、公知の自然言語処理技術を用いて、取得したメッセージに含まれる語句を抽出する。続いて、算出部132は、抽出した語句の中から、相手に対する親しみを示す語句として別途定義された語句と一致する語句の数を算出する。続いて、算出部132は、相手に対する親しみを示す語句の数を算出すると、算出した語句の数をシグモイド関数の入力値として入力する。続いて、算出部132は、シグモイド関数の出力値を第1の利用者が第2の利用者に対して抱く親近度として算出する。このように、算出部132は、第1の利用者が第2の利用者に対して送信した言語情報の中に、相手に対する親しみを示す語句が多く含まれるほど、親近度を高く算出してよい。なお、算出部132は、履歴情報記憶部122を参照して、第1の利用者が第2の利用者に対して送信した音声メッセージを取得してもよい。算出部132は、音声メッセージを取得した場合は、公知の音声認識技術を用いて、音声メッセージに含まれる言語情報を文字に変換した後に、上述した自然言語処理を施してよい。 The calculation unit 132 also refers to the history information storage unit 122 to acquire messages sent by the first user to the second user. Subsequently, when acquiring the message, the calculation unit 132 extracts words included in the acquired message using a known natural language processing technique. Subsequently, the calculation unit 132 calculates the number of words and phrases that match the words and phrases separately defined as words and phrases indicating familiarity with the other party from among the extracted words and phrases. Subsequently, after calculating the number of words and phrases indicating familiarity with the other party, the calculation unit 132 inputs the calculated number of words and phrases as the input value of the sigmoid function. Subsequently, the calculator 132 calculates the output value of the sigmoid function as the degree of familiarity that the first user has with the second user. In this way, the calculation unit 132 calculates a higher degree of familiarity as the language information transmitted by the first user to the second user contains more words and phrases indicating familiarity with the other user. good. Note that the calculation unit 132 may refer to the history information storage unit 122 to acquire the voice message sent by the first user to the second user. When the voice message is acquired, the calculator 132 may convert the linguistic information included in the voice message into characters using a known voice recognition technology, and then perform the above-described natural language processing.

また、算出部132は、履歴情報記憶部122を参照して、第1の利用者が第2の利用者に対して送信した画像データ(例えば、ビデオ通話の際に録画された第1の利用者の顔を含む画像データ)を取得する。算出部132は、画像データを取得すると、公知の画像解析技術を用いて、第1の利用者の顔の表情を推定する。続いて、算出部132は、第1の利用者の顔の表情を推定すると、相手に対する親しみを示す表情として別途定義された表情(例えば、喜びを示す表情など)と一致する表情の登場回数を算出する。続いて、算出部132は、相手に対する親しみを示す表情の登場回数を算出すると、算出した登場回数をシグモイド関数の入力値として入力する。続いて、算出部132は、シグモイド関数の出力値を第1の利用者が第2の利用者に対して抱く親近度として算出する。このように、算出部132は、第1の利用者が第2の利用者に対して送信した第1の利用者の顔を含む画像の中に、相手に対する親しみを示す表情が多く含まれるほど、親近度を高く算出してよい。 The calculation unit 132 also refers to the history information storage unit 122 to refer to the image data transmitted by the first user to the second user (for example, the first usage data recorded during the video call). image data including the person's face). Upon obtaining the image data, the calculation unit 132 estimates the facial expression of the first user using a known image analysis technique. Subsequently, when estimating the facial expression of the first user, the calculation unit 132 calculates the number of appearances of the facial expression that matches the facial expression that is separately defined as a facial expression that indicates familiarity with the other person (for example, a facial expression that indicates joy). calculate. Subsequently, after calculating the number of appearances of the facial expression indicating familiarity with the other party, the calculation unit 132 inputs the calculated number of appearances as the input value of the sigmoid function. Subsequently, the calculator 132 calculates the output value of the sigmoid function as the degree of familiarity that the first user has with the second user. In this way, the calculation unit 132 determines that the image including the face of the first user transmitted by the first user to the second user contains more facial expressions indicating familiarity with the other user. , the degree of closeness may be calculated to be high.

〔4-3.その他のサービスへの適用〕
また、上述した実施形態では、情報処理装置100による情報処理が、送信者が匿名でメッセージを送信することが可能なSNSサービスに適用される場合について説明したが、これに限られない。例えば、上述した情報処理装置100による情報処理は、送信者が匿名でないSNSサービス、メールサービス等のメッセージサービス、およびビデオ会議システムに適用されてよい。
[4-3. Application to other services]
In the above-described embodiment, the information processing by the information processing apparatus 100 is applied to an SNS service that allows senders to anonymously send messages, but the present invention is not limited to this. For example, the information processing by the information processing apparatus 100 described above may be applied to SNS services whose senders are not anonymous, message services such as mail services, and video conference systems.

〔5.効果〕
上述してきたように、実施形態に係る情報処理装置100は、算出部132と変化部133と提供部134を備える。算出部132は、第1の人物が第2の人物に対して抱く親近感の度合いを示す親近度を算出する。変化部133は、第1の人物を象徴する第1象徴情報の特徴を示す第1特徴情報と、第2の人物を象徴する第2象徴情報の特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2象徴情報を変化させる。提供部134は、変化部133によって変化された後の第2象徴情報を第1の人物に対して提供する。
[5. effect〕
As described above, the information processing apparatus 100 according to the embodiment includes the calculation unit 132, the change unit 133, and the provision unit . The calculation unit 132 calculates a degree of familiarity that indicates the degree of familiarity that the first person has with the second person. The changing unit 133 determines that the degree of similarity between the first feature information indicating the feature of the first symbol information symbolizing the first person and the second feature information indicating the feature of the second symbol information symbolizing the second person is , the second symbol information is changed so that the degree of similarity is based on the degree of familiarity. The providing unit 134 provides the second symbol information changed by the changing unit 133 to the first person.

このように、情報処理装置100は、第1の人物が第2の人物に対して抱く親近感の度合いに応じて、コミュニケーションを仲介するエージェントの情報を、第1の人物を象徴する第1象徴情報から第2の人物を象徴する第2象徴情報へと段階的に変化させる。すなわち、情報処理装置100は、例えば、第1の人物が第2の人物に対して抱く親近感の度合いが低い場合には、コミュニケーションを仲介するエージェントの情報を、第2象徴情報よりも第1象徴情報に近い情報に変化させることで、第1の人物が第2の人物に対して抱く親近感の低さを軽減させることができる。これにより、情報処理装置100は、第1の人物が第2の人物に対して抱く親近感の低さを軽減させることができるので、例えば、第1の人物が第2の人物に対してメッセージを送信しやすくすることができる。したがって、情報処理装置100は、コミュニケーションを円滑にするよう支援することができる。 In this way, the information processing apparatus 100 stores the information of the agent mediating the communication with the first symbol symbolizing the first person according to the degree of familiarity that the first person has with the second person. The information is changed step by step to the second symbolic information that symbolizes the second person. That is, for example, when the degree of affinity that the first person has for the second person is low, the information processing apparatus 100 sets the information of the agent mediating communication to the first symbol information rather than the second symbol information. By changing the information closer to the symbolic information, it is possible to reduce the low sense of affinity that the first person has for the second person. As a result, the information processing apparatus 100 can reduce the low sense of intimacy that the first person has for the second person. can be made easier to send. Therefore, the information processing apparatus 100 can support smooth communication.

また、第1象徴情報は、人以外の生物の画像であり、第2象徴情報は、第2の人物の顔を含む画像であり、変化部133は、人以外の生物の画像の特徴を示す第1特徴情報と、第2の人物の顔を含む画像の特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の人物の顔を含む画像を変化させる。 Also, the first symbol information is an image of a creature other than a person, the second symbol information is an image including the face of a second person, and the changing portion 133 indicates the characteristics of the image of the creature other than a person. The image including the face of the second person is changed so that the degree of similarity between the first feature information and the second feature information indicating the features of the image including the face of the second person is based on the degree of familiarity. Let

これにより、情報処理装置100は、例えば、第1の人物が第2の人物に対して抱く親近感の度合いが低い場合には、コミュニケーションを仲介するエージェントの画像を、第2の人物の顔よりも第1の人物が好む生物に近い画像に変化させることで、第1の人物が第2の人物に対して抱く親近感の低さを軽減させることができる。 As a result, for example, when the degree of familiarity that the first person has for the second person is low, the information processing apparatus 100 displays the image of the agent mediating the communication rather than the face of the second person. By changing the image to an image that is close to the living creature that the first person likes, it is possible to reduce the low sense of affinity that the first person has for the second person.

また、第1象徴情報は、任意の人物の顔を含む画像であり、第2象徴情報は、第2の人物の顔を含む画像であり、変化部133は、任意の人物の顔を含む画像の特徴を示す第1特徴情報と、第2の人物の顔を含む画像の特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の人物の顔を含む画像を変化させる。 Further, the first symbol information is an image including the face of an arbitrary person, the second symbol information is an image including the face of a second person, and the changing unit 133 is an image including the face of an arbitrary person. and the second feature information indicating the features of the image including the face of the second person is the similarity based on the degree of familiarity. Vary the containing image.

これにより、情報処理装置100は、例えば、第1の人物が第2の人物に対して抱く親近感の度合いが低い場合には、コミュニケーションを仲介するエージェントの画像を、第2の人物の顔よりも第1の人物が好む任意の人物の顔に近い画像に変化させることで、第1の人物が第2の人物に対して抱く親近感の低さを軽減させることができる。 As a result, for example, when the degree of familiarity that the first person has for the second person is low, the information processing apparatus 100 displays the image of the agent mediating the communication rather than the face of the second person. By changing the image to an image close to the face of any person that the first person likes, it is possible to reduce the low sense of familiarity that the first person has for the second person.

また、任意の人物は、第1の人物であり、変化部133は、第1の人物の顔を含む画像の特徴を示す第1特徴情報と、第2の人物の顔を含む画像の特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の人物の顔を含む画像を変化させる。 Also, the arbitrary person is the first person, and the changing unit 133 converts the first feature information indicating the features of the image including the face of the first person and the features of the image including the face of the second person. The image including the face of the second person is changed so that the degree of similarity with the indicated second feature information becomes the degree of similarity based on the degree of familiarity.

これにより、情報処理装置100は、例えば、第1の人物が第2の人物に対して抱く親近感の度合いが低い場合には、コミュニケーションを仲介するエージェントの画像を、第2の人物の顔よりも第1の人物の顔に近い画像に変化させることで、第1の人物が第2の人物に対して抱く親近感の低さを軽減させることができる。 As a result, for example, when the degree of familiarity that the first person has for the second person is low, the information processing apparatus 100 displays the image of the agent mediating the communication rather than the face of the second person. By changing the first person's face to an image close to the first person's face, the first person's low sense of closeness to the second person can be reduced.

また、第1象徴情報は、任意の人物の音声を含む音声データであり、第2象徴情報は、第2の人物の音声を含む音声データであり、変化部133は、任意の人物の音声を含む音声データの特徴を示す第1特徴情報と、第2の人物の音声を含む音声データの特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の人物の音声を含む音声データを変化させる。 Further, the first symbol information is voice data including the voice of an arbitrary person, the second symbol information is voice data including the voice of a second person, and the changing unit 133 converts the voice of the arbitrary person. The second feature information is set so that the similarity between the first feature information indicating the feature of the voice data including the voice of the second person and the second feature information indicating the feature of the voice data including the voice of the second person is similarity based on the degree of familiarity. To change voice data including human voice.

これにより、情報処理装置100は、例えば、第1の人物が第2の人物に対して抱く親近感の度合いが低い場合には、コミュニケーションを仲介するエージェントの音声データを、第2の人物の音声よりも第1の人物が好む任意の人物の音声に近い音声データに変化させることで、第1の人物が第2の人物に対して抱く親近感の低さを軽減させることができる。 As a result, for example, when the degree of affinity that the first person has for the second person is low, the information processing apparatus 100 replaces the voice data of the agent mediating communication with the voice of the second person. By changing the voice data to voice data closer to the voice of any person preferred by the first person than the first person, it is possible to reduce the low sense of intimacy that the first person has for the second person.

また、任意の人物は、第1の人物であり、変化部133は、第1の人物の音声を含む音声データの特徴を示す第1特徴情報と、第2の人物の音声を含む音声データの特徴を示す第2特徴情報との類似度が、親近度に基づく類似度となるよう、第2の人物の音声を含む音声データを変化させる。 Also, the arbitrary person is the first person, and the changing unit 133 converts the first feature information indicating the feature of the voice data including the voice of the first person and the voice data including the voice of the second person. The voice data including the voice of the second person is changed so that the degree of similarity with the second feature information indicating the feature becomes the degree of similarity based on the degree of familiarity.

これにより、情報処理装置100は、例えば、第1の人物が第2の人物に対して抱く親近感の度合いが低い場合には、コミュニケーションを仲介するエージェントの音声データを、第2の人物の音声よりも第1の音声に近い音声データに変化させることで、第1の人物が第2の人物に対して抱く親近感の低さを軽減させることができる。 As a result, for example, when the degree of affinity that the first person has for the second person is low, the information processing apparatus 100 replaces the voice data of the agent mediating communication with the voice of the second person. By changing the voice data closer to the first voice than the first voice, it is possible to reduce the low sense of intimacy that the first person has for the second person.

また、算出部132は、第1の人物が第2の人物に対して情報を送信した送信回数が多いほど、親近度を高く算出する。 Further, the calculation unit 132 calculates a higher degree of familiarity as the number of transmissions of information from the first person to the second person increases.

これにより、情報処理装置100は、第1の人物が第2の人物に対して情報を送信した送信回数に基づいて、適切に親近度を算出することができる。 Accordingly, the information processing apparatus 100 can appropriately calculate the degree of familiarity based on the number of transmissions of information from the first person to the second person.

また、算出部132は、第1の人物が第2の人物から受信した情報に対して応答した応答速度が速いほど、親近度を高く算出する。 Further, the calculation unit 132 calculates a higher degree of familiarity as the response speed of the first person to the information received from the second person is faster.

これにより、情報処理装置100は、第1の人物が第2の人物から受信した情報に対して応答した応答速度の速さに基づいて、適切に親近度を算出することができる。 Accordingly, the information processing apparatus 100 can appropriately calculate the degree of familiarity based on the speed of the response of the first person to the information received from the second person.

また、算出部132は、第1の人物が第2の人物に対して送信した言語情報の中に、相手に対する親しみを示す語句が多く含まれるほど、親近度を高く算出する。 In addition, the calculation unit 132 calculates a higher degree of familiarity as the linguistic information transmitted by the first person to the second person includes more words and phrases indicating familiarity with the other person.

これにより、情報処理装置100は、第1の人物が第2の人物に対して送信した言語情報の中に含まれる親しみを示す語句の数に基づいて、適切に親近度を算出することができる。 Accordingly, the information processing apparatus 100 can appropriately calculate the degree of familiarity based on the number of words and phrases indicating familiarity included in the linguistic information transmitted by the first person to the second person. .

また、算出部132は、第1の人物が第2の人物に対して送信した第1の人物の顔を含む画像の中に、相手に対する親しみを示す表情が多く含まれるほど、親近度を高く算出する。 In addition, the calculation unit 132 increases the degree of familiarity as the image including the face of the first person transmitted by the first person to the second person includes more facial expressions indicating familiarity with the other person. calculate.

これにより、情報処理装置100は、第1の人物が第2の人物に対して送信した第1の人物の顔を含む画像の中に含まれる相手に対する親しみを示す表情の数に基づいて、適切に親近度を算出することができる。 As a result, the information processing apparatus 100 can determine the appropriate facial expression based on the number of facial expressions indicating familiarity with the other party included in the image including the face of the first person that the first person has transmitted to the second person. can be calculated.

〔6.ハードウェア構成〕
また、上述してきた実施形態に係る情報処理装置100は、例えば図6に示すような構成のコンピュータ1000によって実現される。図6は、情報処理装置100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
[6. Hardware configuration]
Also, the information processing apparatus 100 according to the above-described embodiments is implemented by a computer 1000 configured as shown in FIG. 6, for example. FIG. 6 is a hardware configuration diagram showing an example of a computer that implements the functions of the information processing apparatus 100. As shown in FIG. Computer 1000 includes CPU 1100 , RAM 1200 , ROM 1300 , HDD 1400 , communication interface (I/F) 1500 , input/output interface (I/F) 1600 and media interface (I/F) 1700 .

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on programs stored in the ROM 1300 or HDD 1400 and controls each section. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. Communication interface 1500 receives data from another device via a predetermined communication network, sends the data to CPU 1100, and transmits data generated by CPU 1100 to another device via a predetermined communication network.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls output devices such as displays and printers, and input devices such as keyboards and mice, through an input/output interface 1600 . CPU 1100 acquires data from an input device via input/output interface 1600 . CPU 1100 also outputs the generated data to an output device via input/output interface 1600 .

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1200 . CPU 1100 loads such a program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disc), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the information processing apparatus 100 according to the embodiment, the CPU 1100 of the computer 1000 implements the functions of the control unit 130 by executing programs loaded on the RAM 1200 . CPU 1100 of computer 1000 reads these programs from recording medium 1800 and executes them, but as another example, these programs may be obtained from another device via a predetermined communication network.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.

〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. others〕
Further, among the processes described in the above embodiments and modifications, all or part of the processes described as being performed automatically can be performed manually, or described as being performed manually. All or part of the processing can also be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

例えば、上述した実施形態では、情報処理システム1が中央処理型(集中型ともいう)のコンピューティングシステムである例について説明したが、情報処理システム1の構成はこれに限られない。例えば、情報処理システム1は、複数台の端末装置10で構成される分散型コンピューティングシステムであってよい。この場合、情報処理システムは、複数台の端末装置10がネットワークを介して互いに接続される。また、この場合、情報処理システムでは、それぞれの端末装置10に図2で説明した情報処理装置100の機能が実装される。 For example, in the above-described embodiment, an example in which the information processing system 1 is a central processing type (also referred to as a centralized type) computing system has been described, but the configuration of the information processing system 1 is not limited to this. For example, the information processing system 1 may be a distributed computing system configured with a plurality of terminal devices 10 . In this case, in the information processing system, a plurality of terminal devices 10 are connected to each other via a network. Further, in this case, in the information processing system, the functions of the information processing device 100 described with reference to FIG. 2 are implemented in each terminal device 10 .

また、上述した情報処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。 The information processing apparatus 100 described above may be implemented by a plurality of server computers, and depending on the function, may be implemented by calling an external platform or the like using an API (Application Programming Interface), network computing, or the like. can be changed flexibly.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Also, the above-described embodiments and modifications can be appropriately combined within a range that does not contradict the processing content.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、算出部は、算出手段や算出回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the calculation unit can be read as calculation means or a calculation circuit.

1 情報処理システム
10 端末装置
100 情報処理装置
110 通信部
120 記憶部
121 利用者情報記憶部
122 履歴情報記憶部
130 制御部
131 取得部
132 算出部
133 変化部
134 提供部
1 information processing system 10 terminal device 100 information processing device 110 communication unit 120 storage unit 121 user information storage unit 122 history information storage unit 130 control unit 131 acquisition unit 132 calculation unit 133 change unit 134 provision unit

Claims (12)

第1の人物が第2の人物に対して抱く親近感の度合いを示す親近度を算出する算出部と、
前記第1の人物を象徴する第1象徴情報の特徴を示す第1特徴情報と、前記第2の人物を象徴する第2象徴情報の特徴を示す第2特徴情報との類似度が、前記親近度に基づく類似度となるよう、前記第2象徴情報を変化させる変化部と、
前記変化部によって変化された後の第2象徴情報を前記第1の人物に対して提供する提供部と、
を備える情報処理装置。
a calculation unit that calculates a degree of familiarity indicating the degree of familiarity that a first person has with a second person;
The degree of similarity between the first feature information indicating the feature of the first symbol information symbolizing the first person and the second feature information indicating the feature of the second symbol information symbolizing the second person a changing unit that changes the second symbolic information so as to obtain a degree of similarity based on the degree of similarity;
a providing unit that provides the first person with the second symbol information changed by the changing unit;
Information processing device.
前記第1象徴情報は、人以外の生物の画像であり、
前記第2象徴情報は、前記第2の人物の顔を含む画像であり、
前記変化部は、
前記人以外の生物の画像の特徴を示す前記第1特徴情報と、前記第2の人物の顔を含む画像の特徴を示す前記第2特徴情報との類似度が、前記親近度に基づく類似度となるよう、前記第2の人物の顔を含む画像を変化させる、
請求項1に記載の情報処理装置。
the first symbolic information is an image of a creature other than a human,
the second symbolic information is an image including the face of the second person;
The changing part is
The degree of similarity between the first feature information indicating the features of the image of the creature other than the human and the second feature information indicating the features of the image including the face of the second person is the degree of similarity based on the degree of familiarity. changing the image containing the face of the second person so that
The information processing device according to claim 1 .
前記第1象徴情報は、任意の人物の顔を含む画像であり、
前記第2象徴情報は、前記第2の人物の顔を含む画像であり、
前記変化部は、
前記任意の人物の顔を含む画像の特徴を示す前記第1特徴情報と、前記第2の人物の顔を含む画像の特徴を示す前記第2特徴情報との類似度が、前記親近度に基づく類似度となるよう、前記第2の人物の顔を含む画像を変化させる、
請求項1または2に記載の情報処理装置。
the first symbolic information is an image containing the face of an arbitrary person;
the second symbolic information is an image including the face of the second person;
The changing part is
The degree of similarity between the first feature information indicating features of the image including the face of the arbitrary person and the second feature information indicating features of the image including the face of the second person is based on the degree of familiarity. changing the image containing the face of the second person so as to achieve similarity;
The information processing apparatus according to claim 1 or 2.
前記任意の人物は、前記第1の人物であり、
前記変化部は、
前記第1の人物の顔を含む画像の特徴を示す前記第1特徴情報と、前記第2の人物の顔を含む画像の特徴を示す前記第2特徴情報との類似度が、前記親近度に基づく類似度となるよう、前記第2の人物の顔を含む画像を変化させる、
請求項3に記載の情報処理装置。
The arbitrary person is the first person,
The changing part is
The degree of similarity between the first feature information indicating the features of the image including the face of the first person and the second feature information indicating the features of the image including the face of the second person is the degree of familiarity. changing the image containing the face of the second person so that the similarity is based on
The information processing apparatus according to claim 3.
前記第1象徴情報は、任意の人物の音声を含む音声データであり、
前記第2象徴情報は、前記第2の人物の音声を含む音声データであり、
前記変化部は、
前記任意の人物の音声を含む音声データの特徴を示す前記第1特徴情報と、前記第2の人物の音声を含む音声データの特徴を示す前記第2特徴情報との類似度が、前記親近度に基づく類似度となるよう、前記第2の人物の音声を含む音声データを変化させる、
請求項1~4のいずれか1つに記載の情報処理装置。
the first symbolic information is voice data including voice of an arbitrary person;
the second symbolic information is voice data including voice of the second person;
The changing part is
The degree of similarity between the first feature information indicating the feature of the voice data including the voice of the arbitrary person and the second feature information indicating the feature of the voice data including the voice of the second person is the degree of familiarity. changing the audio data including the voice of the second person so that the similarity is based on
The information processing apparatus according to any one of claims 1 to 4.
前記任意の人物は、前記第1の人物であり、
前記変化部は、
前記第1の人物の音声を含む音声データの特徴を示す前記第1特徴情報と、前記第2の人物の音声を含む音声データの特徴を示す前記第2特徴情報との類似度が、前記親近度に基づく類似度となるよう、前記第2の人物の音声を含む音声データを変化させる、
請求項5に記載の情報処理装置。
The arbitrary person is the first person,
The changing part is
The degree of similarity between the first feature information indicating the feature of the voice data including the voice of the first person and the second feature information indicating the feature of the voice data including the voice of the second person is the degree of familiarity. changing the voice data including the voice of the second person so that the degree of similarity is based on the degree of similarity;
The information processing device according to claim 5 .
前記算出部は、
前記第1の人物が前記第2の人物に対して情報を送信した送信回数が多いほど、前記親近度を高く算出する、
請求項1~6のいずれか1つに記載の情報処理装置。
The calculation unit
The higher the number of times the first person has sent information to the second person, the higher the degree of familiarity is calculated.
The information processing apparatus according to any one of claims 1 to 6.
前記算出部は、
前記第1の人物が前記第2の人物から受信した情報に対して応答した応答速度が速いほど、前記親近度を高く算出する、
請求項1~7のいずれか1つに記載の情報処理装置。
The calculation unit
The faster the response speed of the first person to the information received from the second person, the higher the degree of familiarity is calculated.
The information processing apparatus according to any one of claims 1 to 7.
前記算出部は、
前記第1の人物が前記第2の人物に対して送信した言語情報の中に、相手に対する親しみを示す語句が多く含まれるほど、前記親近度を高く算出する、
請求項1~8のいずれか1つに記載の情報処理装置。
The calculation unit
The closer the linguistic information transmitted by the first person to the second person, the more words and phrases indicating familiarity with the other person are included, the higher the degree of familiarity is calculated;
The information processing apparatus according to any one of claims 1 to 8.
前記算出部は、
前記第1の人物が前記第2の人物に対して送信した前記第1の人物の顔を含む画像の中に、相手に対する親しみを示す表情が多く含まれるほど、前記親近度を高く算出する、
請求項1~9のいずれか1つに記載の情報処理装置。
The calculation unit
The closer the image containing the face of the first person sent by the first person to the second person, the more facial expressions indicating familiarity with the other person are included, the higher the degree of familiarity is calculated.
The information processing apparatus according to any one of claims 1 to 9.
コンピュータが実行する情報処理方法であって、
第1の人物が第2の人物に対して抱く親近感の度合いを示す親近度を算出する算出工程と、
前記第1の人物を象徴する第1象徴情報の特徴を示す第1特徴情報と、前記第2の人物を象徴する第2象徴情報の特徴を示す第2特徴情報との類似度が、前記親近度に基づく類似度となるよう、前記第2象徴情報を変化させる変化工程と、
前記変化工程によって変化された後の第2象徴情報を前記第1の人物に対して提供する提供工程と、
を含む情報処理方法。
A computer-executed information processing method comprising:
a calculation step of calculating a degree of affinity indicating the degree of affinity that the first person has for the second person;
The degree of similarity between the first feature information indicating the feature of the first symbol information symbolizing the first person and the second feature information indicating the feature of the second symbol information symbolizing the second person a changing step of changing the second symbolic information so as to obtain a degree of similarity based on
a providing step of providing the second symbol information changed by the changing step to the first person;
Information processing method including.
第1の人物が第2の人物に対して抱く親近感の度合いを示す親近度を算出する算出手順と、
前記第1の人物を象徴する第1象徴情報の特徴を示す第1特徴情報と、前記第2の人物を象徴する第2象徴情報の特徴を示す第2特徴情報との類似度が、前記親近度に基づく類似度となるよう、前記第2象徴情報を変化させる変化手順と、
前記変化手順によって変化された後の第2象徴情報を前記第1の人物に対して提供する提供手順と、
をコンピュータに実行させる情報処理プログラム。
a calculation procedure for calculating a degree of affinity indicating the degree of affinity that a first person has for a second person;
The degree of similarity between the first feature information indicating the feature of the first symbol information symbolizing the first person and the second feature information indicating the feature of the second symbol information symbolizing the second person a changing procedure for changing the second symbolic information so as to obtain a degree of similarity based on the similarity;
a providing procedure for providing the first person with the second symbol information after being changed by the changing procedure;
An information processing program that causes a computer to execute
JP2021164098A 2021-10-05 2021-10-05 Information processing device, information processing method and information processing program Active JP7263471B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021164098A JP7263471B2 (en) 2021-10-05 2021-10-05 Information processing device, information processing method and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021164098A JP7263471B2 (en) 2021-10-05 2021-10-05 Information processing device, information processing method and information processing program

Publications (2)

Publication Number Publication Date
JP2023055015A JP2023055015A (en) 2023-04-17
JP7263471B2 true JP7263471B2 (en) 2023-04-24

Family

ID=85986187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021164098A Active JP7263471B2 (en) 2021-10-05 2021-10-05 Information processing device, information processing method and information processing program

Country Status (1)

Country Link
JP (1) JP7263471B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259318A (en) 2001-02-27 2002-09-13 Victor Co Of Japan Ltd Method for displaying picture of person in virtual reality space
JP2011145794A (en) 2010-01-13 2011-07-28 Nintendo Co Ltd Program, apparatus, method, and system for processing information
WO2020022294A1 (en) 2018-07-27 2020-01-30 ソニー株式会社 Information processing system, information processing method, and recording medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004342A (en) * 2003-06-10 2005-01-06 Nec Corp Communication system, server device, profile disclosure method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259318A (en) 2001-02-27 2002-09-13 Victor Co Of Japan Ltd Method for displaying picture of person in virtual reality space
JP2011145794A (en) 2010-01-13 2011-07-28 Nintendo Co Ltd Program, apparatus, method, and system for processing information
WO2020022294A1 (en) 2018-07-27 2020-01-30 ソニー株式会社 Information processing system, information processing method, and recording medium

Also Published As

Publication number Publication date
JP2023055015A (en) 2023-04-17

Similar Documents

Publication Publication Date Title
US20210029131A1 (en) Conditional provision of access by interactive assistant modules
US20190340419A1 (en) Generation of Parameterized Avatars
US8095629B2 (en) Managing user accounts and groups in multiple forests
CN110134806B (en) Contextual user profile photo selection
JP2022525272A (en) Image display with selective motion drawing
US11928985B2 (en) Content pre-personalization using biometric data
US20210125610A1 (en) Ai-driven personal assistant with adaptive response generation
CN110674398A (en) Virtual character interaction method and device, terminal equipment and storage medium
US20170286755A1 (en) Facebot
US20210233524A1 (en) Placing a voice response system into a forced sleep state
CN113055751B (en) Data processing method, device, electronic equipment and storage medium
JP7263471B2 (en) Information processing device, information processing method and information processing program
JP6449368B2 (en) Conversation providing apparatus, conversation providing method, and program
CN109949213B (en) Method and apparatus for generating image
WO2019227633A1 (en) Methods and apparatuses for establishing user profile and establishing state information analysis model
US20220207066A1 (en) System and method for self-generated entity-specific bot
US11749270B2 (en) Output apparatus, output method and non-transitory computer-readable recording medium
JP7459931B2 (en) Stress management device, stress management method, and program
CN115391806A (en) Digital human processing method and device, electronic equipment and storage medium
WO2020209230A1 (en) Information processing system, information processing method, and program
JP7457545B2 (en) Evaluation device, evaluation method and evaluation program
CN112204937A (en) Method and system for enabling a digital assistant to generate a context-aware response
KR102481286B1 (en) Apparatus and method for providing online fandom activities service
US11776183B2 (en) Generation device, generation method, and non-transitory computer readable storage medium
JP7313852B2 (en) Decision device, decision method and decision program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R150 Certificate of patent or registration of utility model

Ref document number: 7263471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150