JP2016177443A - Information processing device and method - Google Patents

Information processing device and method Download PDF

Info

Publication number
JP2016177443A
JP2016177443A JP2015056067A JP2015056067A JP2016177443A JP 2016177443 A JP2016177443 A JP 2016177443A JP 2015056067 A JP2015056067 A JP 2015056067A JP 2015056067 A JP2015056067 A JP 2015056067A JP 2016177443 A JP2016177443 A JP 2016177443A
Authority
JP
Japan
Prior art keywords
advertisement
user
output
artifact
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015056067A
Other languages
Japanese (ja)
Other versions
JP6114773B2 (en
Inventor
北岸 郁雄
Ikuo Kitagishi
郁雄 北岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2015056067A priority Critical patent/JP6114773B2/en
Priority to US15/015,398 priority patent/US20160275546A1/en
Publication of JP2016177443A publication Critical patent/JP2016177443A/en
Application granted granted Critical
Publication of JP6114773B2 publication Critical patent/JP6114773B2/en
Priority to US15/654,348 priority patent/US20170316453A1/en
Priority to US15/654,224 priority patent/US20170316451A1/en
Priority to US15/654,231 priority patent/US20170316452A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To evaluate advertising effects including memorizing, in accordance with characteristics of a dialogic type of interaction.SOLUTION: An information processing device according to one embodiment of the present invention is an information processing device relating to interaction between a person and an artificial material. The information processing device includes: an object storing unit for storing an advertisement, having been output from an artificial material performing a dialogic type of interaction with a user to the user, in association with an object of the advertisement; and an evaluation unit for evaluating an advertisement effect of the advertisement, in the interaction with the user, on the basis of the advertisement stored in the object storing unit or an appearance of the object. The information processing device can be achieved by an information processing method or a computer program.SELECTED DRAWING: Figure 1

Description

本発明は、人間と人工物のインタラクションに関する。   The present invention relates to human-artifact interaction.

従来、ロボットが人間に対し広告を出願する提案がある(例えば、特許文献1参照)。一方、電子的な広告に関する従来の効果測定技術としては、ウェブサイトなどに表示されるディスプレイ広告やテキスト広告などを対象とし、クリック率(CTR)、購入や資料請求などのコンバージョン率を用いるものが知られている。このように、出力された広告に基づくクリックや申込画面遷移など直接的短期的な事象を基準としている背景としては、PCなどユーザの手操作に基づく従来のデバイスは、ユーザとサーバとの間の機械的な介在手段に過ぎなかったこと、直接的短期的な事象以外(例えば、ブランドや商品の記銘など)の確認が技術的に困難だったことによる。   Conventionally, there is a proposal that a robot applies for an advertisement to a human (see, for example, Patent Document 1). On the other hand, conventional effect measurement techniques for electronic advertisements include display advertisements and text advertisements that are displayed on websites, etc., and use conversion rates such as click rate (CTR), purchase and document requests. Are known. Thus, as a background based on direct short-term events such as clicks based on the output advertisement and application screen transition, a conventional device such as a PC based on a user's manual operation is between a user and a server. This was due to the fact that it was merely a mechanical intervention and that it was technically difficult to confirm anything other than direct short-term events (for example, brand or product inscription).

特開2014−017200号JP 2014-017200 A

しかし、対話型コミュニケーションに基づくロボットなどの人工物は、独自にユーザと対話する主体であり、そのような人工物から出力する広告の効果を、コミュニケーションの特性に適した形で計測する技術は無かった。   However, artifacts such as robots based on interactive communication are the main actors that interact with users independently, and there is no technology to measure the effect of advertisements output from such artifacts in a form that is suitable for the characteristics of communication. It was.

本発明の目的は、対話型のインタラクションの特性に応じ、記銘も含めた広告効果を評価することである。   An object of the present invention is to evaluate an advertising effect including memorization according to a characteristic of interactive interaction.

本発明の一態様である情報処理装置は、ユーザとの対話型なインタラクションを行う人工物から前記ユーザへ出力した広告と前記広告の対象物とを対応付けて記憶する対象物記憶部と、前記ユーザとの前記インタラクションにおいて、前記対象物記憶部に記憶されている前記広告又は前記対象物の登場に基いて前記広告の広告効果を評価する評価部と、を備えたことを特徴とする。   An information processing apparatus according to one aspect of the present invention includes an object storage unit that stores an advertisement output to the user from an artifact that performs interactive interaction with the user and the object of the advertisement in association with each other, The interaction with the user includes an evaluation unit that evaluates the advertisement effect of the advertisement based on the advertisement stored in the object storage unit or the appearance of the object.

本発明によれば、対話型のインタラクションの特性に応じ、記銘も含めた広告効果を評価することができる。   ADVANTAGE OF THE INVENTION According to this invention, according to the characteristic of interactive interaction, the advertising effect including memorization can be evaluated.

本発明の実施形態について構成を示す機能ブロック図。The functional block diagram which shows a structure about embodiment of this invention. 本発明の実施形態におけるデータの例を示す図。The figure which shows the example of the data in embodiment of this invention. 本発明の実施形態におけるデータの例を示す図。The figure which shows the example of the data in embodiment of this invention. 本発明の実施形態におけるデータの例を示す図。The figure which shows the example of the data in embodiment of this invention. 本発明の実施形態における処理の例を示すフローチャート。The flowchart which shows the example of the process in embodiment of this invention.

次に、本発明を実施するための形態(「実施形態」と呼ぶ)について図に沿って例示する。なお、背景技術や課題などで既に述べた内容と共通の前提事項は適宜省略する。   Next, a mode for carrying out the present invention (referred to as “embodiment”) will be illustrated along the drawings. In addition, the assumptions common to the contents already described in the background art and problems are omitted as appropriate.

本実施形態の目的は、ユーザとの親密度に適合した円滑なインタラクションを実現することである。本実施形態の他の目的は、ユーザと人工物との関係に応じた価値の広告を選択することである。本実施形態の他の目的は、人工物から広告を出力する態様を、ユーザとの親密度に適合させることである。本実施形態の他の目的は、対話型のインタラクションの特性に応じ、記銘も含めた広告効果を評価することである。   The purpose of this embodiment is to realize a smooth interaction adapted to the familiarity with the user. Another object of this embodiment is to select an advertisement with a value according to the relationship between the user and the artifact. Another object of the present embodiment is to adapt the mode of outputting an advertisement from an artifact to the intimacy with the user. Another object of the present embodiment is to evaluate the advertising effect including the memorization according to the characteristics of interactive interaction.

〔1.構成〕…図1
図1は、本実施形態の全体構成を示す。本実施形態は、人工物Pと、複数のサーバA、Cを、通信ネットワークN(インターネット、携帯電話網など)を介して接続し、個々の人工物Pとその人工物Pのユーザとの親密度を判定し、親密度に応じた広告の出力と、広告効果の評価を行うシステムとして実現された情報処理装置である。
[1. Configuration] FIG. 1
FIG. 1 shows the overall configuration of this embodiment. In this embodiment, an artifact P and a plurality of servers A and C are connected via a communication network N (Internet, mobile phone network, etc.), and the parent of each artifact P and the user of the artifact P is connected. The information processing apparatus is realized as a system that determines the density and outputs an advertisement according to the familiarity and evaluates the advertisement effect.

人工物Pは、典型的にはロボットである情報処理装置であり、ロボットの形態は、人型、動物型その他の任意の形態を採り得る。また、人工物Pは、スマートフォン、タブレットPCその他の携帯情報端末でもよく、さらに、情報処理装置上で活動する仮想的キャラクタであるソフトウェアエージェントでもよい。   The artifact P is an information processing apparatus that is typically a robot, and the robot may take a human form, an animal form, or any other form. The artifact P may be a smartphone, a tablet PC, or other portable information terminal, and may be a software agent that is a virtual character that is active on the information processing apparatus.

サーバCは、例えば、人工知能技術等を用いたバックエンドシステムとして、人工物Pのユーザとのインタラクションをネットワークコンピューティング(所謂クラウド)により提供する装置である。   The server C is a device that provides interaction with the user of the artifact P by network computing (so-called cloud) as, for example, a back-end system using artificial intelligence technology or the like.

人工物P及び各サーバC、Aはそれぞれ、コンピュータの構成として、CPUなどの演算制御部3と、主メモリや補助記憶装置等の記憶装置4と、通信ネットワークNとの通信装置5(通信機器や通信アダプタなど)と、を備える(人工物P以外では図示省略)。   The artificial object P and the servers C and A each have a computer configuration, such as an arithmetic control unit 3 such as a CPU, a storage device 4 such as a main memory and an auxiliary storage device, and a communication device 5 (communication device) with the communication network N. Or a communication adapter) (not shown except for the artifact P).

人工物Pは、さらに、外界の情報を取得および外界へ働きかけるための感覚器/効果器群SMを備える。感覚器/効果器群SMは、個別の図示は省略するが、視覚系(例えば、カメラ、赤外線やレーザ光線などを用いる機器ほか)、マイクロフォンなどの聴覚系、姿勢・航法系(例えば、加速度計、GPS等による位置測位機器ほか)、情報出力系(例えば、発話用のスピーカ、表示画面、赤外線出力装置ほか)、駆動系(移動用の車輪ないし脚、腕、手、頭、胴体などを動かし身振り手振りを実現する機構)、内蔵充電池制御系などを含み、各系統は、ハードウェアおよびソフトウェアなどを含む。   The artifact P further includes a sensory / effector group SM for acquiring information on the outside world and working on the outside world. The sensory / effector group SM is not shown separately, but a visual system (for example, a camera, equipment using infrared rays, laser beams, etc.), a hearing system such as a microphone, a posture / navigation system (for example, an accelerometer) , GPS, etc.), information output system (eg, speaker for speech, display screen, infrared output device, etc.), drive system (moving wheels or legs, arms, hands, head, torso, etc.) A mechanism for realizing gestures), a built-in rechargeable battery control system, and the like, and each system includes hardware, software, and the like.

本実施形態における人工物Pは、ロボットのボディ(外装ケースや関節、駆動系ほか)と感覚器/効果器群SMを制御する制御装置としてコンピュータの構成(演算制御部3、記憶装置4、通信装置5)を含むが、制御装置は人工物Pと別体でもよい。   The artifact P in this embodiment is a computer configuration (arithmetic control unit 3, storage device 4, communication device) as a control device for controlling the robot body (exterior case, joint, drive system, etc.) and sensory / effector group SM. The control device may be separate from the artifact P.

すなわち、本発明における人工物では、情報処理の機能を内蔵することは必須ではないので、パペット(操り人形)のように、ボディと、アクチュエータ等の駆動系、必要なセンサ類のみで構成し、インタラクションやそれに伴う認識、計算、運動制御などは、外部に設けた制御装置から人工物Pに対し、有線や無線による信号伝達、電機、空気圧、油圧などで伝達によって行ってもよい。   That is, in the artifact in the present invention, since it is not essential to incorporate an information processing function, like a puppet (puppet), it is composed only of a body, a drive system such as an actuator, and necessary sensors. The interaction, the recognition associated therewith, the calculation, the motion control, and the like may be performed from a control device provided outside to the artificial object P by transmission using wired or wireless signal transmission, electric machinery, air pressure, hydraulic pressure, or the like.

人工物P及び各サーバC、Aでは、記憶装置4に記憶されているコンピュータプログラムを演算制御部3が実行することで、以下の機能作用を実現する各要素(図1参照)を実現する。   In the artifact P and each of the servers C and A, the arithmetic control unit 3 executes the computer program stored in the storage device 4, thereby realizing each element (see FIG. 1) that realizes the following functional actions.

〔2.親密度の判定〕
図5は、本実施形態における情報処理の概要を示すフローチャートである。まず、本実施形態では、判定部(人工物Pのローカル判定部40と、クラウドサーバCの相対判定部C3)が、ユーザと人工物Pとの親密度を判定する(ステップS2)。
[2. Determination of intimacy
FIG. 5 is a flowchart showing an outline of information processing in the present embodiment. First, in this embodiment, the determination unit (the local determination unit 40 of the artifact P and the relative determination unit C3 of the cloud server C) determines the closeness between the user and the artifact P (step S2).

その前提として、人工物Pはユーザと、対話的なインタラクションを行う。対話的なインタラクションは、会話(相手に対する発話と、相手の発話の認識)を中心とし、必要に応じ、ジェスチャー、相手との接触、文字、画像、音響の入出力を伴う相互作用であり、以下単に「インタラクション」と略称する。   As a premise thereof, the artifact P performs interactive interaction with the user. Interactive interaction is centered on conversation (speech to the other party and recognition of the other party's utterance), and is an interaction that involves input / output of gestures, contact with the partner, text, images, and sound as required. It is simply abbreviated as “interaction”.

人工物Pがユーザその他外界の事物を認識したり、外界の事物に働きかける処理や、それらに基づく人工物Pとユーザとのインタラクションは、各種フィルタリング、独立成分分析、SVM、輪郭抽出その他の画像処理技術、パターン認識(例えば、音声認識、顔認識ほか)、自然言語処理、知識情報処理、強化学習、ベイジアンネットワーク、SOM(自己組織化マップ)、ニューラルネットワーク、Deep Learning(深層学習)、その他各種機械学習など既知の技術で実現することができる。   The process in which the artifact P recognizes the user and other external objects, and the interaction between the artifact P and the user based on them, includes various filtering, independent component analysis, SVM, contour extraction, and other image processing Technology, pattern recognition (eg, speech recognition, face recognition, etc.), natural language processing, knowledge information processing, reinforcement learning, Bayesian network, SOM (self-organizing map), neural network, Deep Learning (deep learning), and other various machines It can be realized by a known technique such as learning.

インタラクションのうち基本的な応答は、感覚器/効果器群SMのうちセンサ等の感覚器を主に用いて、ユーザ行動など外界の事物や事象を認識するための入力・認識部10と、ユーザや人工物Pの行動履歴その他の記憶(例えば履歴記憶部25)に基づき、状況に応じた推論や応答内容の決定を行う推論応答部20と、感覚器/効果器群SMのうち情報出力系や駆動系を主に用いて、出力結果のフィードバックを利用しながら情報や行動などの出力を行うための出力制御部30と、によって実現される。   The basic response of the interaction is the input / recognition unit 10 for recognizing external things and events such as user actions, mainly using sensory devices such as sensors in the sensory device / effector group SM, and the user And the action history of the artifact P and other memories (for example, the history storage unit 25), an inference response unit 20 that determines inference and response contents according to the situation, and an information output system of the sensory / effector group SM And an output control unit 30 for outputting information, action, and the like, mainly using a drive system and using feedback of an output result.

人工物Pは、クラウドサーバCとの通信が可能である時は、複雑高度な推論判断や、クラウドサーバCを利用している多数の人工物Pのインタラクション履歴に基づく集合知に基づく推論判断、人工物P上のローカル記憶(例えば履歴記憶部25)に収まらないその他の記憶の保持やそのような記憶へのアクセスなどを、クラウドサーバCの推論決定部C1に委託する。   When the artifact P is able to communicate with the cloud server C, the complex advanced inference judgment and the inference judgment based on collective intelligence based on the interaction history of a large number of artifacts P using the cloud server C, The storage of other storage that does not fit in the local storage (for example, history storage unit 25) on the artifact P, access to such storage, and the like are entrusted to the inference determination unit C1 of the cloud server C.

なお、人工物Pは、インタラクションの相手となる主なユーザ(いわゆる「ご主人様」)を、顔や音声の照合、合言葉やパスワード入力などによるログイン認証、居る場所などで識別する。   The artifact P identifies a main user (so-called “master”) who is a partner of the interaction by collation of face and voice, login authentication by inputting a secret password or password, a place where the person is, and the like.

具体的には、判定部のうちローカル判定部40は(相対判定部C3については後述)、ユーザと対話的なインタラクションを行う人工物Pについて、ユーザとの同伴時に検出するユーザ行動の種類及び量の少なくとも一方を履歴記憶部25に蓄積し(ステップS1)、これを基にユーザと人工物との親密度を判定し、クラウドサーバCのユーザ情報記憶部C4に記憶し(例えば図2)その後は更新する(ステップS2)。同伴は、ユーザと人工物Pがインタラクション可能な範囲に存在することである。   Specifically, among the determination units, the local determination unit 40 (relative determination unit C3 will be described later) is the type and amount of user behavior detected when accompanying an artificial object P that interacts with the user. Is stored in the history storage unit 25 (step S1), based on this, the intimacy between the user and the artifact is determined and stored in the user information storage unit C4 of the cloud server C (for example, FIG. 2). Is updated (step S2). The companion is that the user and the artifact P exist in a range where interaction is possible.

変更部C5は、判定部(ローカル判定部40及び相対判定部C3)により判定された親密度に応じて、人工物Pによるインタラクションの内容を変更する(ステップS3)。変更の例は、インタラクションで人工物Pからユーザに向けて提供する情報内容の変更のほか、ユーザに対する発話を、丁寧な改まった口調でするか、打ち解けた親しげな口調でするかなどが含まれる。   The changing unit C5 changes the content of the interaction with the artifact P according to the familiarity determined by the determining unit (the local determining unit 40 and the relative determining unit C3) (step S3). Examples of changes include changes in the information content provided to the user from the artifact P in the interaction, and whether the utterances to the user are in a polite tone or in a familiar tone It is.

親密度判定の基礎とし得るユーザ行動は、例えば、人工物Pの維持管理すなわちメンテナンス(例えば、清掃、充電の世話、点検、その他)である。清掃については、例えば、布などの掃除具で人工物Pの表面を撫でている動作をカメラや接触センサで検出する。充電の世話は、例えば、充電場所へ人工物を運搬したり、充電場所の教示や充電場所への案内、充電ケーブルとの接続、バッテリの交換、その他である。   The user behavior that can be used as a basis for the intimacy determination is, for example, maintenance and management of the artifact P (for example, cleaning, care for charging, inspection, etc.). For cleaning, for example, a camera or a contact sensor detects an operation of stroking the surface of the artificial object P with a cleaning tool such as cloth. The care of charging includes, for example, transporting an artifact to the charging place, teaching the charging place, guiding to the charging place, connecting to a charging cable, replacing the battery, and the like.

また、点検は、例えば、感覚器の各部を指先で軽く打診する行動や、壊さないように丁寧に部品を外す行動又は分解、人工物Pが内蔵する自己診断機能の起動、その他である。   The inspection includes, for example, an action of lightly touching each part of the sensory sensation with a fingertip, an action of carefully removing parts so as not to break, disassembly, activation of a self-diagnosis function built into the artifact P, and the like.

親密度判定の基礎とし得る他のユーザ行動は、人工物に対するユーザの愛着を表す所定の行動である。このような所定の行動としては、例えば、その人工物に対し、挨拶する、笑顔など肯定的表情を見せる、名前を付けて呼ぶ、服、メガネ、サングラス、カバー、保護シールなど装着物の装着、スキンシップ(撫でる、触れる、もたれかかる、ハグ、キス、その他)のほか、寝床へ運び込む、車の座席に乗せてドライブするなどでもよい。   Another user behavior that can be used as a basis for the intimacy determination is a predetermined behavior representing the user's attachment to the artifact. Such predetermined actions include, for example, greeting the artifact, showing a positive expression such as a smile, calling with a name, wearing clothes, glasses, sunglasses, covers, protective seals, etc. In addition to skinship (boiled, touched, leaned, hugged, kissed, etc.), you may bring it to the bed or drive it in a car seat.

また、愛着を表す所定の行動は、コンピュータとしての機能を持つその人工物Pに、インターネットを介するサービスやパスワード集中管理ソフトをインストールする行動、NFCなどの近距離通信機能を用いた玄関の電子錠前を開錠するための電子キー機能を実現するソフトウェアをインストールする行動、その他でもよい。   In addition, the predetermined behavior indicating attachment is an action of installing a service via the Internet and a centralized password management software on the artifact P having a computer function, and an electronic lock of the entrance using a near field communication function such as NFC. An action of installing software that realizes an electronic key function for unlocking the screen may be used.

親密度判定の基礎とし得る他のユーザ行動は、予め定められた重要な行動(例えば、食事、入浴、電子商取引、投資取引、金庫の開け閉め、睡眠、その他)である。ユーザが、それぞれの種類のユーザ行動をとっているか否かや、その量については、種類ごとのユーザ行動として予め定義された行動のパターンをセンサ入力から検出することにより判断する。また、ユーザ行動の種類によっては、ユーザが人工物P自身のコンピュータとしての機能を用いて行うインターネットアクセス等の情報処理活動から検出する。   Other user actions that can be used as a basis for the determination of intimacy are important predetermined actions (for example, meals, bathing, electronic commerce, investment transactions, safe open / close, sleep, etc.). Whether or not the user is taking each type of user behavior and the amount thereof are determined by detecting a behavior pattern predefined as a user behavior for each type from the sensor input. Further, depending on the type of user behavior, the user action is detected from information processing activities such as Internet access performed by the user using the function of the artifact P itself as a computer.

ユーザ行動が人工物P以外の他のコンピュータを用いて行う情報処理活動については、予めユーザから許諾されたアクセス権限、ID、パスワードなどを用いてそのような他のコンピュータにアクセスしユーザが行っている情報処理活動の内容をモニタしたり照会することによって、ユーザ行動の有無や量を判断してもよい。   For information processing activities that user actions are performed using a computer other than the artifact P, the user accesses the other computer using the access authority, ID, password, etc. granted in advance by the user. The presence / absence or amount of user behavior may be determined by monitoring or inquiring about the content of the information processing activity being performed.

上記のように判断されるユーザ行動の量は、例えば、そのユーザ行動が検出されるときにおける同伴の範囲である。同伴は、人工物Pをユーザが身辺に伴っている状態、またはユーザと人工物Pがインタラクション可能な範囲に存在する状態の一方又は双方であり、同伴の範囲は、例えば、時間的、地理的、費用負担、行動種類、その他の要素の範囲で規定される。   The amount of user behavior determined as described above is, for example, an accompanying range when the user behavior is detected. The companion is one or both of the state in which the user is accompanied by the artifact P, or the state in which the user and the artifact P are in an interactable range. , Cost burden, action type, and other factors.

また、親密度の判定は、単一の人工物Pで完結しなくてもよい。例えば、人工物Pと通信ネットワークNで接続されたクラウドサーバCの判定部である相対判定部C3が、複数の人工物Pについて情報として受信したユーザ行動を行動記憶部C2に蓄積および集計し、相対評価し偏差値など所定の評価値を得ることで、個々の人工物P毎に対応するユーザとの親密度を判定してもよい。   In addition, the determination of intimacy may not be completed with a single artifact P. For example, the relative determination unit C3, which is the determination unit of the cloud server C connected to the artifact P through the communication network N, accumulates and aggregates the user actions received as information about the plurality of artifacts P in the behavior storage unit C2, By performing relative evaluation and obtaining a predetermined evaluation value such as a deviation value, the closeness with the user corresponding to each individual artifact P may be determined.

判定された親密度は、ユーザ情報記憶部C4に記憶され、更新される(図2)。また、「人工物Pについて」のユーザ行動の受信は、その人工物P自体からの受信でもよいし、人工物Pとは別体に構成された人工物Pの制御装置からの受信でもよい。   The determined familiarity is stored and updated in the user information storage unit C4 (FIG. 2). Further, the reception of the user behavior “about the artificial object P” may be received from the artificial object P itself or may be received from the control device of the artificial object P configured separately from the artificial object P.

また、親密度判定の前提となる人工物Pとの同伴は、リアルに限らずバーチャルでもよい。すなわち、ユーザ又は人工物Pの活動拠点外に外出中のユーザを考える。このとき、情報処理装置(例えば、スマートフォン)で実現されるソフトウェアエージェントとして、スマートフォンの中に入ってユーザと共に仮想的に外出しインタラクションしている仮想的な同伴についても判定部が親密度を判定する基礎とする。   Further, the accompanying with the artifact P that is a premise of the intimacy determination is not limited to real but may be virtual. That is, a user or a user who is out of the activity base of the artifact P is considered. At this time, as a software agent realized by an information processing apparatus (for example, a smartphone), the determination unit also determines the intimacy for a virtual companion who enters the smartphone and virtually interacts with the user. Based on.

ここでいう活動拠点は、ユーザ又は人工物が相対的に長時間位置している地理的範囲(例えば、自宅、敷地、執務スペース、建物、ほか)であり、位置履歴の統計処理で判断し、またはそのような統計処理結果と、地図情報や平面図の情報で表される領域の区画に基いて判断する。   The activity base here is a geographical area (for example, home, site, office space, building, etc.) where the user or artifact is located for a relatively long time, and is determined by statistical processing of location history. Alternatively, the determination is made based on the result of such statistical processing and the section of the area represented by the map information or the plan view information.

また、上記のような仮想的な同伴に用いている情報処理装置に対する取扱い上の特徴に基づいて親密度を判定してもよい。例えば、前記のソフトウェアエージェントが入っているスマートフォンについて、物理的な扱いが丁寧か乱暴かをそのスマートフォンに内蔵の加速度計で計測し丁寧なほど親密度が高いと判定する。   Further, the closeness may be determined based on the handling characteristics of the information processing apparatus used for the virtual accompanying as described above. For example, for a smartphone containing the software agent, whether the physical handling is polite or violent is measured with an accelerometer built into the smartphone, and it is determined that the intimacy is politely higher.

また、取扱上の特徴に関する別の例として、ユーザがスマートフォンをズボンのポケット、服の内ポケット、スマートフォンホルダなどに入れて肌身離さず携帯している場合のスマートフォンについて、温度センサなどで温度を検出すれば、多くの時間帯(所定の時間帯における所定以上の割合又は頻度)において摂氏30度台またはその上下の所定の範囲にとどまる可能性が高い。この場合、親密度が高いと判定できる。   In addition, as another example of handling characteristics, the temperature is detected by a temperature sensor etc. for a smartphone when the user carries the smartphone in a trouser pocket, an inner pocket of clothes, a smartphone holder, etc. Then, in many time zones (a ratio or frequency that is greater than or equal to a predetermined value in a predetermined time zone), there is a high possibility of staying in the 30 degree Celsius range or a predetermined range above and below it. In this case, it can be determined that the familiarity is high.

判定部は、外出中において所定の行動をしながらのインタラクションを検出した場合、親密度が高いと判定することもできる。ここでいうインタラクションは、声によるものに限られず、指によるタッチ操作などでもよい。また、ここでいう所定の行動は、通常は情報機器操作について困難、不利益、障害、抵抗など否定的要素を伴う社会的活動である。   The determination unit can also determine that the closeness is high when detecting an interaction while performing a predetermined action while going out. Here, the interaction is not limited to voice, but may be a touch operation with a finger. In addition, the predetermined action here is a social activity that usually involves negative elements such as difficulties, disadvantages, disabilities, and resistance in the operation of information equipment.

例えば、歩きスマフォしながらインタラクションしたり、勤務中、講義中ないしアルバイト(パートタイムジョブ)中でもインタラクションしたりインタラクション頻度が高い場合、親密度が高いと判定できる。   For example, if the user interacts with a walking smartphone, interacts during work, during a lecture, or works part-time (part-time job), or has a high interaction frequency, it can be determined that the intimacy is high.

また、判定部は、ユーザ又は人工物Pの活動拠点内でのインタラクションに登場した対象に関した行動が、活動拠点外への外出中に検出された場合に親密度が高いと判定することができる。例えば、店名を挙げて「○○のラーメンがオススメ」といったインタラクションから所定期間内(例えば、1週間以内、1カ月以内など)に、ユーザが実際にそのラーメン店に行った場合である。   Further, the determination unit can determine that the degree of intimacy is high when an action related to an object that appears in the interaction of the user or the artifact P in the activity base is detected while going out of the activity base. . For example, this is a case where the user actually visits the ramen shop within a predetermined period (for example, within one week, within one month, etc.) from an interaction such as “recommended ramen of XX” with the name of the shop.

この場合のインタラクションは広告の出力には限られない。また、実際にラーメン店へ行ったなどの行動は、人工物Pと同伴している場合には限られず、ユーザの用いるカーナビアプリや地図アプリなどで取得される位置履歴に基づく訪問の判断や、ユーザから人工物への口頭での報告(例えば、「こないだ話してた○○のラーメン、今日食べてきたよ」など)でもよい。   The interaction in this case is not limited to advertisement output. In addition, actions such as actually going to a ramen shop are not limited to when accompanied by an artifact P, visit judgment based on location history acquired by the car navigation application or map application used by the user, Oral reports from the user to the artifacts (for example, “I ’m talking about OO ramen, I ate today”).

〔3.親密度に応じた広告選択〕
上記のように判定された親密度は、広告の引当(割当て、選択)に活用することができる。この場合、広告サーバAでは、広告主から出稿された広告の情報が、広告の評価値と共に広告記憶部A1に予め格納されており(図3)、広告サーバAの選択部A2(前記変更部に相当する)は、ユーザ情報記憶部C4に記憶されている親密度(図2)の高い人工物Pほど、評価値の高い広告を広告記憶部A1から選択し、出力対象として割り当てる(ステップS4)。
[3. (Ad selection according to intimacy)
The intimacy determined as described above can be utilized for advertisement allocation (allocation, selection). In this case, in the advertisement server A, the information of the advertisement put out by the advertiser is stored in advance in the advertisement storage unit A1 together with the evaluation value of the advertisement (FIG. 3), and the selection unit A2 of the advertisement server A (the change unit) Is selected from the advertisement storage unit A1 and assigned as an output target for the artificial object P stored in the user information storage unit C4 and having a higher familiarity (FIG. 2) (step S4). ).

広告を選択する基準は、親密度の高さと評価値の高さのマッチングだけでなく、年代性別や興味関心などの属性が、広告主から指定されている条件と一致しているかも含む。   The criteria for selecting an advertisement include not only the matching of the closeness and the height of the evaluation value, but also whether attributes such as age and gender and interest match with the conditions specified by the advertiser.

そして、伝達部A4が、選択部A2により選択された広告を人工物Pへ伝達する(ステップS5)。ここでは、説明を単純化するため、広告の伝達として、広告として人工物Pから出力すべき内容の情報(例えば、広告として発話すべきテキスト、対象物の商品名など)自体を、出力期限付きの広告データとして伝達部A4から人工物Pへ送信するものとする(図4)。   Then, the transmission unit A4 transmits the advertisement selected by the selection unit A2 to the artifact P (Step S5). Here, in order to simplify the explanation, information on the content to be output from the artifact P as an advertisement (for example, text to be uttered as an advertisement, product name of the object, etc.) itself is output with an output deadline. Is transmitted from the transmission unit A4 to the artifact P (FIG. 4).

しかし、伝達部A4から人工物Pへの広告の伝達としては、広告を特定するためのIDやダウンロードURLなどの識別情報のみを伝達し、人工物Pの側でこの識別情報を用いて、別の広告配信サーバ(図示省略)からダウンロードするようにしてもよい。   However, for the transmission of the advertisement from the transmission unit A4 to the artifact P, only the identification information such as an ID for specifying the advertisement and the download URL is transmitted, and this identification information is used on the artifact P side. You may make it download from this advertisement delivery server (illustration omitted).

広告の選択に用いる広告の評価値は、例えば、人工物Pからその広告が出力された場合に、予め定められた結果(例えば、ユーザが購入申込や資料請求をしたなど)が得られた率(例えば、図3、図7。ここで仮に「応答率」と呼ぶ)でもよいし、広告に対して入札され対応付けられている入札金額である広告単価でもよい。また、評価値は、広告に対応付けられている広告単価と、応答率と、を乗じた値でもよい。   For example, when the advertisement is output from the artifact P, the evaluation value of the advertisement used for selecting the advertisement is a rate at which a predetermined result (for example, a user applied for purchase or requested a document) was obtained. (For example, FIG. 3 and FIG. 7. Here, it is temporarily called “response rate”), or an advertisement unit price that is a bid amount bid for and associated with an advertisement may be used. Further, the evaluation value may be a value obtained by multiplying the advertisement unit price associated with the advertisement and the response rate.

そして、人工物Pは、伝達部A4により伝達された広告を、出力期限とともに記憶部である広告記憶部45に格納する(ステップS5)。その後、判断部であるタイミング判断部70が、ユーザに関する情報の取得およびユーザとのインタラクションに基いて、広告の出力に適する所定の出力タイミングと判断したときに(ステップS7:「YES」)、広告出力部50が、広告記憶部45に記憶されている広告を出力する(ステップS8)。   Then, the artifact P stores the advertisement transmitted by the transmission unit A4 in the advertisement storage unit 45 that is a storage unit together with the output deadline (step S5). Thereafter, when the timing determination unit 70, which is a determination unit, determines that the predetermined output timing is suitable for the output of the advertisement based on the acquisition of information about the user and the interaction with the user (step S7: "YES"), the advertisement The output unit 50 outputs the advertisement stored in the advertisement storage unit 45 (step S8).

なお、タイミングの判断に用いるユーザに関する情報は、インタラクション中の情報に限らず、人工物Pのセンサ群から得られるユーザに関する情報全般であり、例えば、ユーザについて宅内での位置、姿勢(立っている、ソファに座っているなど)、挙動(食事中、電話中など)、発話内容、その他である。   In addition, the information regarding the user used for timing determination is not limited to the information during the interaction, but is general information regarding the user obtained from the sensor group of the artifact P. For example, the position and posture of the user in the home (standing) , Sitting on the couch, etc.), behavior (during a meal, on the phone, etc.), utterance content, etc.

また、広告の出力に適する所定の出力タイミングとしては、例えば、ユーザが人工物Pに話しかけてきたとき、ユーザが一息ついているときなどである。一例として、ユーザが飲み物を取得後、着座し、かつ他者と会話中でない場合、ユーザが一息ついている可能性が高い。   The predetermined output timing suitable for the output of the advertisement is, for example, when the user talks to the artifact P or when the user takes a breath. As an example, if the user sits after acquiring a drink and is not talking to another person, the user is likely to take a breath.

また、広告の選択には、人工物Pとの継続的関係でわかるユーザのライフステージを活用してもよい。この場合、クラウドサーバCのステージ判断部C6は、人工物Pによる継続的なインタラクションに関して得られる情報でユーザのライフステージを判断する。ライフステージは、例えば、本人の年齢、性別、職業、配偶者または子供の有無、子供の数、子供の月齢又は年齢、子供の性別、子供が通っている学校の種類、住宅の種別、住宅ローン及び貯蓄の有無又は金額、ほかである。   Moreover, you may utilize a user's life stage understood by the continuous relationship with the artifact P for the selection of advertisement. In this case, the stage determination unit C6 of the cloud server C determines the life stage of the user based on information obtained regarding continuous interaction with the artifact P. Life stage includes, for example, the person's age, sex, occupation, spouse or child presence, number of children, child age or age, child gender, type of school the child attends, type of housing, mortgage And the existence or amount of savings, etc.

そして、選択部A3は、人工物Pに対して選択する広告として、ステージ判断部C6により判断されたユーザのライフステージが、広告に対応付けられているライフステージと適合する広告を優先して、人工物Pに前記広告を割り当てる。例えば、広告に対応付けられているライフステージが、小学生までの子供がいることである場合、ユーザによる「息子もこの春から小4だからな」などの発話を含むインタラクションをしていた人工物Pは、その広告の選択において優先される。   Then, the selection unit A3 gives priority to an advertisement in which the life stage of the user determined by the stage determination unit C6 matches the life stage associated with the advertisement as an advertisement to be selected for the artifact P, The advertisement is assigned to the artifact P. For example, when the life stage associated with the advertisement is that there is a child up to elementary school, the user has made an interaction P including an utterance such as “Son is also a 4th son from this spring” by the user. Is preferred in the selection of the advertisement.

評価値、親密度、属性、ライフステージなどの条件をどのような論理演算関係で、どのようなウェイトで優先するかは、広告の目的その他の条件に応じて変更可能である。また、ライフステージは、人工物Pとのインタラクションから判断するものには限定されず、例えば、ユーザ登録などで明示的に登録されたものと併用してもよい。   It is possible to change in what logical operation relationship the conditions such as evaluation value, intimacy, attribute, life stage, etc., and in what weight are prioritized according to the purpose of the advertisement and other conditions. Further, the life stage is not limited to the one determined from the interaction with the artifact P, and may be used together with, for example, one explicitly registered by user registration or the like.

〔4.親密度に応じた態様での広告出力〕
広告を人工物Pからユーザへ出力する態様も、親密度に応じて切換えることができる。このような切換えの対象は、親密度を基準に選択された広告に限らず、無差別に又は親密度以外の例えば、ユーザ属性やライフステージのみに応じて出力される広告であってもよい。この場合、人工物Pの広告出力部50は、広告サーバAのユーザ情報記憶部C4に記憶されている親密度に応じた出力態様で、広告を人工物Pからユーザへ出力する。
[4. (Advertisement output in a mode according to intimacy)
The mode of outputting the advertisement from the artifact P to the user can also be switched according to the familiarity. The target of such switching is not limited to advertisements selected based on intimacy, but may be advertisements that are output indiscriminately or according to only user attributes and life stages other than intimacy, for example. In this case, the advertisement output unit 50 of the artifact P outputs an advertisement from the artifact P to the user in an output manner corresponding to the familiarity stored in the user information storage unit C4 of the advertisement server A.

例えば、広告出力部50は、親密度が所定以上で、ユーザが所定範囲内に存在することを人工物Pが認識したときに、広告の出力として、広告(の存在、内容、対象)に関する独り言を人工物Pに発話させる。   For example, when the artifact P recognizes that the intimacy is equal to or greater than a predetermined value and the user is within a predetermined range, the advertisement output unit 50 uses the self-speaking about the advertisement (presence, content, target) as the advertisement output. Speaks to the artifact P.

広告に関する独り言は、例えば、広告の内容でもよいし(例えば「○○社の新型車、燃費が△△キロかぁ」)、広告の対象となるブランド名や会社名などを単に呟くのでもよいし、出力したい広告の存在を、例えば「あの新型車の話、言うのやめようかな…」のように、わざともったいぶって発話することでユーザの関心を惹くなどでもよい。   For example, the self-speaking about the advertisement may be the content of the advertisement (for example, “New model of XX company, fuel consumption is △ △ km or so”), or simply ask the brand name or company name to be advertised. Also, the presence of the advertisement to be output may be attracted to the user by intentionally uttering the presence of the advertisement, for example, “That story of the new model car.

また、他の例として、広告出力部50は、親密度が所定以上の場合に、人工物Pが、ユーザが所定範囲内に存在することと、広告に関する事物と、を認識したときに、人工物Pに広告を出力させるのでもよい。また、広告出力部50は人工物Pに、人工物Pが認識した事物の存在及び事物と広告との関係を適示して広告を出力させてもよい。   As another example, when the intimacy is greater than or equal to a predetermined value, the advertisement output unit 50 determines that the artificial object P recognizes that the user is within a predetermined range and an object related to the advertisement. An advertisement may be output to the object P. Further, the advertisement output unit 50 may cause the artifact P to output an advertisement by appropriately indicating the existence of the object recognized by the artifact P and the relationship between the object and the advertisement.

例えば、帰宅したユーザがバッグから自動車情報誌を取り出したとき「車の雑誌、買ってきたんですね。車といえば、○○社の新型車、知ってますか」のように発話するなどである。   For example, when a user who returns home retrieves a car information magazine from his bag, he says, “You bought a car magazine. Do you know a new car from XX? .

また、他の例として、広告出力部50は、親密度が所定以上で、ユーザが閲覧するウェブサイトやテレビその他の画面の表示内容に関連する広告の内容を、日常会話におけるようなユーザに対する事実の適示として人工物Pに発話させるようにしてもよい。   Further, as another example, the advertisement output unit 50 has a familiarity with a certain degree or more of the advertisement content related to the display contents of the website, television, and other screens browsed by the user, such as in daily conversation. As an appropriate indication, the artifact P may be uttered.

例えば、自動車への興味関心を表すユーザ属性が付与されているユーザに対し、○○社の新型車発売に関する広告を出力する場合、ユーザが自動車に関するウェブサイトを閲覧中、人工物Pが、「そう言えば、○○社から新型車が出るらしいですね」のような発話の形や、それに合わせて人工物P自身の表示画面に商品画像を表示するなどの形で、広告を出力する。   For example, in the case where an advertisement related to the release of a new model car of XX Company is output to a user who is given a user attribute representing interest in a car, the artificial object P is “ Speaking of which, it seems that a new model car will come out from XX company ", and the advertisement is output in the form of displaying the product image on the display screen of the artifact P itself accordingly.

上記のような親密度に応じた出力態様は、例えば、次のように実現する。例えば、複数の出力態様にそれぞれ対応した複数の要素情報を含む広告の情報を、記憶部である広告記憶部45に記憶しておく(図3)。そして、広告出力部50は、広告記憶部45に記憶されている複数の要素情報のうち、親密度に応じた出力態様に応じた要素情報を用いて(ステップS6)、広告を人工物Pからユーザへ出力する(ステップS8)。   The output mode according to the familiarity as described above is realized as follows, for example. For example, advertisement information including a plurality of element information respectively corresponding to a plurality of output modes is stored in the advertisement storage unit 45 which is a storage unit (FIG. 3). Then, the advertisement output unit 50 uses the element information corresponding to the output mode corresponding to the familiarity among the plurality of element information stored in the advertisement storage unit 45 (step S6), and sends the advertisement from the artifact P. Output to the user (step S8).

例えば、一ヶ月前に歯ブラシを買ったユーザに対し、B社の「b1歯ブラシ」の広告を出力するための広告において、上記の要素情報が、例えば、広告対象に関し訴求すべき特徴として低廉さを強調する情報(例えば、従来品より1割安である旨など)と、品質の高さを強調する情報(例えば、ユーザレビュー結果が優秀である旨など)を含む場合を考える。   For example, in an advertisement for outputting an advertisement of B company “b1 toothbrush” to a user who bought a toothbrush a month ago, the above element information is, for example, a low price as a feature that should be appealed for the advertising object. A case is considered in which information to be emphasized (for example, it is 10% cheaper than the conventional product) and information to emphasize the high quality (for example, the result of user review is excellent) is included.

この場合、広告出力部50は、親密度が所定以上の場合、低廉さより品質の高さを強調する出力態様(上記の例では、ユーザレビュー結果が優秀である旨)で人工物Pから広告をユーザへ出力すなわち商品リコメンドさせる。一方、広告出力部50は、親密度が所定未満の場合、品質の高さより低廉さを強調する出力態様(上記の例では、従来品より1割安である旨)で人工物Pから広告をユーザへ出力すなわち商品リコメンドさせる。   In this case, when the intimacy is a predetermined level or more, the advertisement output unit 50 displays an advertisement from the artifact P in an output mode (in the above example, the user review result is excellent) that emphasizes high quality over low cost. Output to the user, that is, make a product recommendation. On the other hand, when the intimacy is less than a predetermined level, the advertisement output unit 50 displays the advertisement from the artifact P in an output mode (in the above example, it is 10% cheaper than the conventional product) that emphasizes the low price rather than the high quality. Output, that is, product recommendation.

なお、広告の出力タイミングについては、生活習慣などの活動パターンに基いて判断することが考えられる。この場合、抽出部(図1のパターン抽出部60)が、ユーザに関する情報の取得およびユーザとのインタラクションに基いてユーザの生活習慣などの活動パターンを抽出し、パターン記憶部65に記憶させる。そして、判断部(図1のタイミング判断部70)は、パターン抽出部60により抽出されパターン記憶部65に記憶されている活動パターンから、広告の出力に適する所定の出力タイミングを判断する(ステップS7)。   Note that the advertisement output timing may be determined based on activity patterns such as lifestyle habits. In this case, the extraction unit (pattern extraction unit 60 in FIG. 1) extracts an activity pattern such as a user's lifestyle based on acquisition of information about the user and interaction with the user, and stores the activity pattern in the pattern storage unit 65. Then, the determination unit (timing determination unit 70 in FIG. 1) determines a predetermined output timing suitable for the output of the advertisement from the activity patterns extracted by the pattern extraction unit 60 and stored in the pattern storage unit 65 (step S7). ).

広告出力部50は、タイミング判断部70により出力タイミングと判断されたときに(ステップS7:「YES」)、広告を、親密度に応じた出力態様で人工物Pからユーザへ出力する(ステップS8)。例えば、ユーザの入浴の時間帯が毎日ほぼ安定していれば、入浴終了すなわち風呂あがりに缶ビールの広告を、リコメンド乃至オネダリのような体裁で出力することが考えられる。   The advertisement output unit 50 outputs the advertisement from the artifact P to the user in an output manner according to the familiarity when the timing determination unit 70 determines that the output timing is reached (step S7: “YES”) (step S8). ). For example, if the user's bathing time period is almost stable every day, an advertisement of canned beer may be output in a manner similar to recommendation or one after the bathing, that is, after the bath.

〔5.インタラクション広告効果評価〕
上記のように人工物Pから出力された広告の広告効果については、その後のインタラクションに基いて行うことができる。例えば、人工物Pからユーザへ出力した広告と広告の対象物とを対応付けて広告記憶部45に記憶しておく(ステップS9)。出力した広告を記憶しておくには、例えば、出力前は空欄だった広告記憶部45の出力日時のフィールドに値をセットすればよい。
[5. (Interaction advertising effectiveness evaluation)
As described above, the advertising effect of the advertisement output from the artifact P can be performed based on the subsequent interaction. For example, the advertisement output from the artifact P to the user and the advertisement object are associated with each other and stored in the advertisement storage unit 45 (step S9). In order to store the output advertisement, for example, a value may be set in the output date / time field of the advertisement storage unit 45 that was blank before output.

そして、評価部A4は、広告記憶部45に記憶されている広告(広告の特徴をなす造語やキャッチフレーズほか)又は対象物(例えば、ブランド名や商品名ほか)のユーザとのインタラクションにおける登場に基いて、広告の広告効果を評価する(ステップS10)。   Then, the evaluation unit A4 is based on the appearance in the interaction with the user of the advertisement (a coined word or catchphrase that characterizes the advertisement) or an object (for example, a brand name or a product name) stored in the advertisement storage unit 45. The advertisement effect of the advertisement is evaluated (step S10).

評価は、2段階で行うことができる。第一段階は、各人工物Pのローカル評価部80が、対応するユーザのインタラクションに基づく評価値(個別評価値)を求め、広告記憶部45に記憶させる(図4)。第二段階は、広告サーバAの評価部A4が、各人工物Pから個別評価値を収集して集計して平均評価値とし、広告記憶部A1に記憶させその後更新する(図3)。   Evaluation can be performed in two stages. In the first stage, the local evaluation unit 80 of each artifact P obtains an evaluation value (individual evaluation value) based on the corresponding user interaction and stores it in the advertisement storage unit 45 (FIG. 4). In the second stage, the evaluation unit A4 of the advertisement server A collects the individual evaluation values from the respective artifacts P, adds them to the average evaluation value, stores them in the advertisement storage unit A1, and updates them thereafter (FIG. 3).

インタラクションに広告や対象物が登場する例には、多くのバリエーションが考えられる。例えば、ローカル評価部80は、インタラクションにおいてユーザから人工物Pに対し、広告の再出力の依頼(例えば、「今のもう一度」、「昨日言ってた△△って、何だっけ?」など)があったことに基いて広告効果を評価する。   Many variations are possible for examples where advertisements and objects appear in the interaction. For example, the local evaluation unit 80 requests a re-output of an advertisement from the user to the artifact P in the interaction (for example, “What's the △△ you said yesterday?” Evaluate advertising effectiveness based on

すなわち、ローカル評価部80は、そのような再出力の依頼があったことを基準として、広告効果の値(例えば、図4の個別評価値)に所定のウェイトで肯定的評価の加算値を加算する。基準の他の例は、広告の出力に続くインタラクションすなわち会話の続きに、ユーザが肯定的に応じたことである。例えば、「○○社の新型車、知ってますか」との人工物Pからの広告の発話に対し、ユーザが「人気らしいね。同僚も買ったって」のように会話に応じたなどである。   That is, the local evaluation unit 80 adds the positive evaluation addition value with a predetermined weight to the advertisement effect value (for example, the individual evaluation value in FIG. 4) based on the request for such re-output. To do. Another example of the criteria is that the user responded positively to the interaction or conversation continuation following the output of the advertisement. For example, in response to an utterance of an advertisement from an artifact P, "Do you know the new model of XX company?", The user responded to the conversation like "It seems popular. .

基準の他の例は、広告の出力より後のインタラクションにおいて、広告又は広告の対象物(以下「広告等」と呼ぶ)について所定の情報処理をユーザが人工物Pに依頼したことである。ここで、所定の情報処理としては、例えば、SNS即ちソーシャル・ネットワーキング・サービスへの投稿、ウェブ検索、その他が考えられる。例えば、人工物Pからの広告である新型車の紹介「○○社の新型車、知ってますか」に対し、ウェブ検索の依頼としては、例えば「その新型車の価格帯は?」または「その新型車の画像検索結果をきみの画面に出せる?」とユーザが人工物Pに発話したなどである。   Another example of the criterion is that the user requested the artificial object P to perform predetermined information processing for an advertisement or an advertisement target (hereinafter referred to as “advertisement etc.”) in an interaction after the advertisement is output. Here, as the predetermined information processing, for example, posting to SNS, that is, social networking service, web search, and the like can be considered. For example, in response to the introduction of a new car that is an advertisement from the artifact P "Do you know the new car of XX company?", As a request for a web search, for example, "What is the price range of the new car?" “Can the image search result of the new model be put on your screen?”

基準のさらに他の例は、(a)広告の出力から所定時間の経過後に再度、ユーザが広告等について話題にしたこと、(b)広告の出力後、所定回数以上、ユーザが広告等について話題にしたこと、(c)広告の出力後、所定以上の頻度でユーザが広告等について話題にしたこと、(d)広告の出力後、ユーザが広告等について他のユーザまたは他の人工物と話題にしたことである。   Still other examples of the criteria are: (a) the user discussed the advertisement again after a predetermined time from the output of the advertisement; (b) the user discussed the advertisement etc. more than a predetermined number of times after the advertisement output. (C) After the advertisement is output, the user has talked about the advertisement etc. at a predetermined frequency or more. (D) After the advertisement is output, the user talks about the advertisement with other users or other artifacts. It is that.

基準のさらに他の例は、広告を出力した対象のユーザ以外のユーザにも、影響が及んだことである。すなわち、評価部A4は、広告の出力後、人工物Pが識別するユーザのうち、広告の出力の対象としたユーザ(以下「本人」と呼ぶ)以外の他のユーザであって、本人と所定の関係を有するユーザが、広告等に関する所定の行動を行ったことに基いて前記広告効果を評価する。   Yet another example of the criterion is that the user other than the target user who has output the advertisement is also affected. That is, the evaluation unit A4 is a user other than the user (hereinafter referred to as “person”) who is the target of the advertisement output among the users identified by the artifact P after the advertisement is output, The advertisement effect is evaluated based on the fact that a user having the relationship of the above has performed a predetermined action related to an advertisement or the like.

本人と所定の関係を有するユーザは、例えば、人工物Pからみて、所定以上の頻度で本人と同時に視野内に登場するユーザ、相互に又は一方的に相手の名前を口にするユーザ、物理的に触れ合うユーザなど、センサ情報やインタラクションの履歴から抽出できる関係のほか、人工物PやクラウドサーバCに予め宣言的に顔パターンや声紋その他の情報が登録された同居家族などでもよい。   A user who has a predetermined relationship with the person is, for example, a user who appears in the field of view at the same time or more than the person, as viewed from the artifact P, a user who speaks with the other person's name unilaterally or physically, In addition to the relationship that can be extracted from sensor information and interaction history, such as a user who touches, a living family in which face patterns, voiceprints, and other information are registered in advance in the artifact P or cloud server C may be used.

また、広告等に関する所定の行動としては、上に挙げてきたような再出力の依頼、所定の情報処理の依頼、話題にしたことなどのほか、購入申込、資料請求、広告の対象物である商品自体を入手して人工物Pのカメラの視野に提示する、その他である。   In addition to the requests for re-output, the requests for predetermined information processing, and the topics that have been mentioned above as the predetermined actions related to advertisements, etc., there are purchase applications, document requests, advertisement objects, etc. Others are to obtain the product itself and present it in the field of view of the camera of the artifact P.

以上のような基準を一つ用いまたは複数組み合わせて、広告ごとに、人工物Pからユーザへ出力した場合の個別評価値を求め(図4)、その個別評価値を集計した平均評価値を(図3)広告の選択に用いる。   By using one or a combination of the above-mentioned criteria, for each advertisement, an individual evaluation value when output from the artifact P to the user is obtained (FIG. 4), and an average evaluation value obtained by tabulating the individual evaluation values ( Fig. 3) Used to select advertisements.

〔6.効果〕
以上のように、本実施形態では、
(1−1)人工物と、継続的にインタラクションするユーザとの親密度を判定し、親密度に応じ、出力する情報を変えるなどその人工物の挙動を制御することにより、人工物とユーザとの関係に適合したインタラクションが実現できる。
[6. effect〕
As described above, in this embodiment,
(1-1) By determining the intimacy between the artificial object and the user who continuously interacts, and controlling the behavior of the artificial object such as changing information to be output according to the intimacy, It is possible to realize an interaction that matches the relationship.

(1−2)また、本実施形態では、時間や手間など負担を伴う維持管理は、親密なほど増えることから、維持管理を親密度判定の基準とすることにより、親密度をより適切に判定できる。 (1-2) Further, in this embodiment, maintenance management with a burden such as time and labor increases as it becomes more intimate. Therefore, the maintenance management is used as a criterion for determining the familiarity, thereby determining the familiarity more appropriately. it can.

(1−3)また、本実施形態では、対象への愛着が強いほど親密度が増すことから、愛着を表す行動を親密度判定の基準とすることにより、親密度をより適切に判定できる。 (1-3) Moreover, in this embodiment, since the intimacy increases as the attachment to the object is stronger, the intimacy can be determined more appropriately by using the behavior representing attachment as a criterion for intimacy determination.

(1−4)また、本実施形態では、人間が重要な利害にかかわる行動に同伴させる相手は親密度の高い相手とする傾向があることから、重要な所定の行動を親密度判定の基準とすることにより、ユーザと人工物との親密度をより適切に判定できる。 (1-4) Further, in the present embodiment, since an opponent to be accompanied by an action related to an important interest of a human tends to be an intimate partner, an important predetermined action is used as a reference for intimacy determination. By doing so, it is possible to more appropriately determine the intimacy between the user and the artifact.

(1−5)また、本実施形態では、人間は、親密度の高い相手ほど、長時間、遠くまで、費用をかけてでも同伴させることから、同伴の範囲を親密度判定の基準とすることにより、親密度をより適切に判定できる。 (1-5) Further, in this embodiment, humans are allowed to accompany a partner with a higher intimacy for a long time, far away, even at a high cost. Thus, the intimacy can be determined more appropriately.

(1−6)また、本実施形態では、個別の人工物やユーザについて単独で絶対的基準により親密度を判定する場合と比べ、AI(人工知能)のバックエンドとなる所謂クラウドなどのサーバで、複数の人工物やユーザに基づく相対評価で親密度を判定する。これにより、人工物との接し方に関する社会的な趨勢や流行など環境が変化があっても、一定の割合や数を親密度が高いものとして抽出できる。 (1-6) Also, in this embodiment, a server such as a so-called cloud serving as a back end of AI (artificial intelligence) is compared with the case of determining the intimacy for individual artifacts or users by an absolute standard alone. The intimacy is determined by relative evaluation based on a plurality of artifacts and users. As a result, even if there is a change in the environment such as a social trend or fashion concerning how to contact the artifact, a certain ratio or number can be extracted as having a high degree of familiarity.

これにより、どのような状況下でも、インタラクションの内容をユーザ間で異ならせるメリハリが実現できる。例えば、ユーザ間で異ならせるインタラクションの内容として、所定の広告を出力する場合、所望の量の広告在庫すなわち広告出力の機会を確保できる。また、ユーザ間で異ならせるインタラクションの内容として、親密度の高いユーザに対し特典付与またはその他のプロモーション施策を適用する場合、所望の量のプロモーション効果を確保できる。   Accordingly, it is possible to realize a sharpness that makes the content of the interaction different among users under any circumstances. For example, when a predetermined advertisement is output as the content of interaction that varies between users, a desired amount of advertisement inventory, that is, an opportunity for advertisement output can be secured. In addition, as a content of interaction that varies among users, when a privilege grant or other promotion measure is applied to a highly intimate user, a desired amount of promotion effect can be ensured.

(1−7)また、本実施形態では、ソフトウェアエージェントしてスマートフォンの中に入ってユーザと共に仮想的に外出しながらユーザとインタラクションする場合についても親密度の判定に加味することにより、多様な人工物やインタラクション形態に対応し親密度を適切に判断できる。 (1-7) Further, in the present embodiment, a case where a software agent enters a smartphone and interacts with a user while virtually going out with the user is added to the determination of intimacy, thereby making various artificial Intimateness can be determined appropriately according to the object and interaction mode.

(1−8)また、本実施形態では、ソフトウェアエージェントして人工物が仮想的に入っている情報処理装置への扱いを親密度判定の基準とすることで、親密度をより多面的に判定できる。 (1-8) In this embodiment, the degree of intimacy can be determined in a multifaceted manner by using a software agent as a criterion for intimacy determination, which is handled as an information processing apparatus virtually including an artifact. it can.

(1−9)また、本実施形態では、外出して活動中など、通常はインタラクションへの障害や抵抗が大きい状況でもインタラクションする場合に親密度が高いと判定することにより、親密度が特段高いと判定する機会が増え、人工物やユーザの間で親密度の格差を明確化しやすくなる。 (1-9) Further, in this embodiment, the degree of familiarity is particularly high by determining that the degree of familiarity is high when interacting even when the obstacle or resistance is high, such as when going out and active. It becomes easier to clarify the disparity in intimacy between artifacts and users.

(1−10)また、本実施形態では、人間は親密な相手とのやり取りの影響を受けやすいことから、拠点内での人工物とのインタラクションが外出中のユーザ行動にも影響したことを親密度判定の基準とすることにより、親密度を適切に判定できる。 (1-10) Also, in this embodiment, since humans are easily affected by interaction with an intimate partner, it is possible to understand that interaction with an artifact in a base also affects user behavior while going out. By using the density determination criterion, the familiarity can be determined appropriately.

(2−1)また、本実施形態では、ユーザとの親密度の高いすなわちユーザへ、評価値が高い広告を割り当てることにより、広告出力機会を有効活用できる。また、広告主は、優先したい広告について、評価値として高額な広告単価を入札金額とすることにより、大きな影響力が期待できる広告出力に大きな広告予算を割り当て、メリハリの効いた広告戦略を実践できる。 (2-1) Moreover, in this embodiment, an advertisement output opportunity can be used effectively by assigning an advertisement having a high evaluation value to a user who has a high degree of closeness with the user. In addition, advertisers can implement a crisp advertising strategy by assigning a large advertising budget to advertising output that can be expected to have a great influence by using a high bid price as the evaluation value for the advertisement that they want to prioritize. .

(2−2)また、本実施形態では、入札された広告単価が高いほど、インタラクション相手であるユーザとの親密度が高い人工物に割り当てることにより、ユーザに影響を与える広告効果がより多く期待できる広告出力機会に、広告単価という価値の高い広告が引き当てられ、価値の高い広告出力機会を適切に活用できる。 (2-2) Further, in this embodiment, the higher the bid unit price is, the higher the advertising effect that affects the user is expected by allocating to an artificial object having a higher closeness with the user who is the interaction partner. An advertisement output opportunity that can be used is assigned a high-value advertisement, which is the unit price of advertisement, and the advertisement output opportunity with a high value can be appropriately utilized.

(2−3)また、本実施形態では、広告が出力され又は出力により所定の結果が得られた場合に広告主から広告事業者への収入となる広告単価と、広告が所定の結果をもたらす率と、を乗じた値を評価値として用いることにより、広告の生み出す価値の大きさとその割合の両面から、最も効果的な広告の引当が実現できる。 (2-3) Further, in the present embodiment, when the advertisement is output or when a predetermined result is obtained by the output, the advertising unit price that becomes the revenue from the advertiser to the advertising company and the advertisement brings the predetermined result. By using the value multiplied by the rate as the evaluation value, the most effective advertisement allocation can be realized in terms of both the magnitude of the value generated by the advertisement and its ratio.

(2−4)また、本実施形態では、選択された広告を記憶し、好適なタイミングを判断して広告を出力することにより、広告効果が期待できる。 (2-4) Further, in the present embodiment, the advertisement effect can be expected by storing the selected advertisement, determining a suitable timing, and outputting the advertisement.

(2−5)また、本実施形態では、継続的なインタラクションでわかるユーザのライフステージに適合した広告(リコメンド含む)の提示により、優れた広告効果が得られる。 (2-5) Further, in the present embodiment, an excellent advertising effect can be obtained by presenting an advertisement (including a recommendation) suitable for the life stage of the user that can be understood by continuous interaction.

(3−1)また、本実施形態では、ユーザと対話型なインタラクションを行う人工物について、広告の出力態様をユーザとの親密度に応じ切換えることにより、親密度の高低を問わず最大の広告効果が期待できる 。 (3-1) Further, in the present embodiment, for an artifact that performs interactive interaction with the user, the maximum advertisement can be obtained regardless of the degree of intimacy by switching the output mode of the advertisement according to the intimacy with the user. The effect can be expected.

(3−2)また、本実施形態では、親密度が高い相手の独り言は注意を惹くことから、ユーザと親密度が高い人工物が広告に関する独り言を言うことにより、広告の内容、対象または広告の存在自体にユーザの関心を惹くことができ、強い記銘や高いコンバージョン率など優れた広告効果が得られる。 (3-2) Also, in this embodiment, since the self-speaking of the partner with high intimacy attracts attention, the user and the artificial object with high intimacy say self-speaking about the advertisement, so that the content of the advertisement, the target or the advertisement Can attract the user's interest in itself, and can achieve excellent advertising effects such as strong memorization and high conversion rate.

(3−3)また、本実施形態では、親密度が高いユーザが近くにいて、かつ広告に関する事物があるときに広告を出力することにより、効果的に広告への関心を惹くことができる。 (3-3) Further, in the present embodiment, it is possible to effectively attract interest to an advertisement by outputting an advertisement when a user with a high degree of closeness is nearby and there is a thing related to the advertisement.

(3−4)また、本実施形態では、人工物が認識した事物と、その事物と広告との関係について、ユーザも認識しているとは限らないことから、それらの適示を伴って広告を出力することにより、なぜ今その話が出たのかユーザの理解を補助し、唐突感なく広告内容を受容してもらうことができる。 (3-4) Further, in this embodiment, since the user does not always recognize the thing recognized by the artifact and the relationship between the thing and the advertisement, the advertisement is accompanied with the appropriate indication. By outputting, it is possible to assist the user's understanding of why the story has come out, and to receive the advertisement content without any sudden feeling.

(3−5)また、本実施形態では、ユーザが見ている画面の表示内容に関する広告の内容を、親しい相手との日常会話で話題の新規提示や話の展開のため行う事実の適示のようにして話しかける。これにより、コンテンツ閲覧中のユーザに違和感を感じることなく、広告内容への注目へ導くことができ、広告対象の記銘、資料請求、購入申込などその後のアクションに誘導することができる。 (3-5) Further, in the present embodiment, the content of the advertisement related to the display content of the screen viewed by the user is appropriately indicated for the fact that the topic is newly presented or the story is expanded in a daily conversation with a close partner. Talk to it like this. Thereby, without feeling uncomfortable for the user who is browsing the content, it is possible to lead attention to the content of the advertisement, and it is possible to guide to subsequent actions such as recording of the advertisement target, request for material, and purchase application.

(3−6)また、本実施形態では、親密度に応じた出力態様ごとの要素情報を予め広告の情報に含めておき、実際に用いる出力態様に応じた要素情報を用いることにより、人工物の側で出力態様に合わせて広告を翻案する負担が解消される。 (3-6) Moreover, in this embodiment, the element information for every output mode according to the familiarity is included in the advertisement information in advance, and by using the element information according to the actually used output mode, the artifact This eliminates the burden of adapting advertisements according to the output mode.

(3−7)また、本実施形態では、親密な相手からは品質をアピールされると多少高額でも購入しがちであることから、親密度が高い人工物からは品質の高さを強調した出力態様で広告を出力することにより、コンバージョンなどの優れた広告効果が得られる。 (3-7) Also, in this embodiment, when the quality is appealed from an intimate partner, it tends to be purchased even at a slightly higher price. By outputting the advertisement in a manner, an excellent advertising effect such as conversion can be obtained.

(3−8)また、本実施形態では、ユーザとの共同生活からユーザの活動パターンを抽出し、広告(リコメンド)を効果的に伝えるタイミングを判断して広告を出力することにより、優れた広告効果が期待できる。 (3-8) Also, in this embodiment, an excellent advertisement can be obtained by extracting the user's activity pattern from the joint life with the user, judging the timing for effectively transmitting the advertisement (recommendation), and outputting the advertisement. The effect can be expected.

(4−1)また、本実施形態では、対話型のインタラクションを行う人工物からユーザへ出力した広告の対象物に関し、ユーザと人工物との間のその後の対話的なインタラクションでの登場に基づき評価することにより、継続的コミュニケーションという対話型インタラクションの特性に応じ、記銘も含めた広告効果を適切に評価できる。また、広告効果の適切な評価により、広告価値の判定及び広告引当てを適切に行える。 (4-1) Further, in the present embodiment, based on the appearance in the subsequent interactive interaction between the user and the artifact, the advertisement object output to the user from the artifact performing the interactive interaction. By evaluating it, it is possible to appropriately evaluate the advertising effectiveness including memorization according to the characteristic of interactive interaction called continuous communication. In addition, it is possible to appropriately determine the advertisement value and allocate the advertisement by appropriately evaluating the advertisement effect.

(4−2)また、本実施形態では、広告を出力後、広告の再出力を依頼した場合、広告や対象物に関心を惹かれたと解されるので、その依頼に基づき広告効果を適切に評価できる。 (4-2) Also, in this embodiment, when an advertisement is output and then requested to be output again, it is understood that the advertisement or target object has attracted attention. Can be evaluated.

(4−3)また、本実施形態では、広告出力に続くインタラクションにユーザが肯定的に応じた場合、広告や対象物に関心を惹かれたと解されるので、その応じたことに基づき広告効果を適切に評価できる。 (4-3) Further, in this embodiment, when the user responds positively to the interaction following the advertisement output, it is understood that the user is interested in the advertisement and the object. Can be evaluated appropriately.

(4−4)また、本実施形態では、広告出力後、広告やその対象物について所定の情報をユーザが人工物に依頼した場合は、広告や対象物に関心を惹かれたと解されるので、その依頼に基づき広告効果を適切に評価できる。 (4-4) Also, in this embodiment, after the advertisement is output, it is understood that the user has been interested in the advertisement or the target object when the user requests the artificial object for predetermined information about the advertisement or the target object. Based on the request, the advertising effect can be appropriately evaluated.

(4−5)また、本実施形態では、広告出力後、時間が経ってから再度、広告やその対象物についてユーザが話題にした場合は、広告や対象物に関心を惹かれ記銘されたと解されるので、その依頼に基づき広告効果を適切に評価できる。 (4-5) Further, in this embodiment, when the user has talked about the advertisement and its target object again after a time has passed since the advertisement output, the advertisement and the target object are attracted and recorded. Since it is understood, the advertising effectiveness can be appropriately evaluated based on the request.

(4−6)また、本実施形態では、広告出力後、広告やその対象物についてユーザが何度も話題にした場合は、広告や対象物に強く関心を惹かれ記銘されたと解されるので、その依頼に基づき広告効果を適切に評価できる。 (4-6) Further, in the present embodiment, after the advertisement is output, if the user has repeatedly talked about the advertisement or the target object, it is understood that the advertisement or the target object is strongly attracted and recorded. Therefore, the advertising effectiveness can be appropriately evaluated based on the request.

(4−7)また、本実施形態では、広告出力後、広告やその対象物についてユーザが頻繁に話題にした場合は、広告や対象物に強く関心を惹かれ記銘されたと解されるので、その依頼に基づき広告効果を適切に評価できる。 (4-7) Further, in this embodiment, after the advertisement is output, if the user frequently talks about the advertisement or its target, it is understood that the advertisement or target is strongly interested and recorded. Based on the request, the advertising effect can be appropriately evaluated.

(4−8)また、本実施形態では、広告出力後、広告やその対象物についてユーザが他人や他の人工物と話題にした場合は、他者への情報伝達や他者からの情報収集に及ぶほど、広告や対象物に強く関心を惹かれ記銘されたと解されるので、そのように話題にしたことに基づき広告効果を適切に評価できる。 (4-8) In the present embodiment, after the advertisement is output, when the user talks about the advertisement or the target object with another person or another artifact, the information is transmitted to the other person or the information is collected from the other person. Since it is understood that the advertisement and the target object are attracted and recorded so that the advertisement effect is recorded, the advertising effect can be appropriately evaluated based on the topic.

(4−9)また、本実施形態では、広告出力後、広告出力の対象としたユーザと関係ある他のユーザが広告やその対象物について所定の行動をとった場合は、他のユーザへ興味関心その他の影響が波及したと解されるので、その事実に基づき広告効果を適切に評価できる。特に、商品やサービスの購入は大規模になるほど家族その他の仲間の意向も影響するため、他のユーザへの波及を評価基準とする意義は大きい。 (4-9) Also, in this embodiment, after an advertisement is output, if another user related to the user who is the target of the advertisement output takes a predetermined action on the advertisement or the target object, he / she is interested in the other user. Since it is understood that interest and other influences have spread, it is possible to appropriately evaluate the advertising effectiveness based on the facts. In particular, since the purchase of goods and services becomes larger, the intentions of family members and other friends are also affected, so that the spread to other users is significant.

〔7.他の実施形態〕
なお、上記実施形態や図の内容は例示に過ぎず、各要素の有無や配置、処理の順序や内容などは適宜変更可能である。このため、本発明は、以下に例示する変形例やそれ以外の他の実施態様も含むものである。例えば、図1に示した各要素(図1)、広告サーバAもしくはクラウドサーバC、または人工物Pのいずれに機能配置するかは、実装に応じて自由に定めることができる。
[7. Other embodiments]
In addition, the content of the said embodiment and figure is only an illustration, and the presence or absence and arrangement | positioning of each element, the order and content of a process, etc. can be changed suitably. For this reason, this invention also includes the modification illustrated below and other embodiments. For example, each element shown in FIG. 1 (FIG. 1), the advertisement server A or the cloud server C, or the artifact P can be freely determined according to the implementation.

また、広告サーバAとクラウドサーバCは一体でもよい。また、本発明は、上記実施形態のように、通信ネットワークN経由で接続されるサーバを含むシステムとして実現することは必須ではなく、親密度の判定や広告の選択を含む全ての機能を含む情報処理装置を、単体の人工物Pとして実現してもよいし、相互に連携動作する複数の人工物Pにまたがって配置する形で実施してもよい。すなわち、クラウドサーバC及び広告サーバAの一方又は双方の機能群は、人工物P自体に具備されていてもよい。   Further, the advertisement server A and the cloud server C may be integrated. In addition, as in the above-described embodiment, the present invention is not necessarily realized as a system including a server connected via the communication network N, and includes all functions including determination of intimacy and selection of advertisements. The processing apparatus may be realized as a single artifact P, or may be implemented by being arranged across a plurality of artifacts P operating in cooperation with each other. That is, one or both function groups of the cloud server C and the advertisement server A may be included in the artifact P itself.

また、記憶手段は、装置内のローカル記憶に限らず、ネットワーク・コンピューティング(クラウド)などリモート記憶でもよい。また、記憶手段は、データの格納領域だけでなく、データの入出力や管理などの機能を含んでもよい。また、本出願に示す記憶手段の単位は説明上の便宜によるもので、適宜、構成を分けたり一体化できる。また、明示する記憶手段以外にも、処理の対象、ワークエリアや結果などの記憶手段を適宜用いる。   The storage means is not limited to local storage in the apparatus, but may be remote storage such as network computing (cloud). The storage means may include not only a data storage area but also functions such as data input / output and management. The unit of the storage means shown in this application is for convenience of explanation, and the configuration can be divided or integrated as appropriate. Further, in addition to the storage means for specifying, storage means for processing targets, work areas, results, and the like are used as appropriate.

なお、図中(例えば図1)の矢印は、データや制御などの流れについて主要な方向を補助的に示すもので、他の流れの否定や方向の限定を意味するものではない。また、記憶手段以外の各手段は、上記実施形態で説明した情報処理の機能・作用(例えば図1)を実現・実行する処理手段であるが、これらは説明のために整理した機能単位であり、実際のハードウェア要素やソフトウェアモジュールとの一致は問わない。   Note that the arrows in the figure (for example, FIG. 1) supplementarily indicate the main direction of the flow of data, control, etc., and do not mean the denial of other flows or the limitation of the direction. Further, each means other than the storage means is a processing means for realizing and executing the information processing functions and operations described in the above embodiment (for example, FIG. 1), but these are functional units arranged for explanation. It doesn't matter if it matches the actual hardware elements or software modules.

また、本発明の各態様は、明記しない他のカテゴリ(方法、プログラム、端末を含むシステムなど)としても把握できる。方法やプログラムのカテゴリでは、装置のカテゴリで示した「手段」を「処理」や「ステップ」のように適宜読み替えるものとする。また、発明や実施形態の要素として示した「○○部」(ユニット、セクション、モジュール等)は、ハードウェア要素にもソフトウェア要素にも限られないので、全部または一部を「○○手段」と読み替えることができる。   Moreover, each aspect of the present invention can be understood as other categories (methods, programs, systems including terminals, etc.) that are not specified. In the category of method or program, “means” shown in the category of apparatus is appropriately read as “process” or “step”. In addition, since “XX” (unit, section, module, etc.) shown as an element of the invention or embodiment is not limited to a hardware element or a software element, all or part of “XX means” Can be read as

また、実施形態に示した処理やステップについても、順序を変更したり、いくつかをまとめて実行しもしくは一部分ずつ分けて実行するなど変更可能である。また、個々の手段、処理やステップを実現、実行するCPU、コア、スレッドなどは共通でもよいし、手段、処理やステップごとにもしくはタイミングごとに異なってもよい。   Also, the processes and steps shown in the embodiment can be changed by changing the order, executing some of them collectively, or executing them part by part. In addition, CPUs, cores, threads, and the like that implement and execute individual means, processes, and steps may be common, or may differ for each means, process, step, or timing.

また、本出願で示す個々の手段は、外部のサーバが提供している機能をAPI(アプリケーションプログラムインタフェース)やネットワーク・コンピューティング(いわゆるクラウドなど)で呼び出して実現してもよい。さらに、本発明に関する手段などの各要素は、コンピュータの演算制御部に限らず物理的な電子回路など他の情報処理機構で実現してもよい。   The individual means shown in the present application may be realized by calling a function provided by an external server by an API (Application Program Interface) or network computing (so-called cloud or the like). Furthermore, each element such as means relating to the present invention may be realized by other information processing mechanisms such as a physical electronic circuit as well as a computer control unit.

3 演算制御部
4 記憶装置
5 通信装置
10 入力・認識部
20 推論応答部
25 履歴記憶部
30 出力制御部
40 ローカル判定部
45 広告記憶部
50 広告出力部
60 パターン抽出部
65 パターン記憶部
70 タイミング判断部
80 ローカル評価部
A 広告サーバ
A1 広告記憶部
A2 選択部
A3 選択部
A4 伝達部
A4 評価部
C クラウドサーバ
C1 推論決定部
C2 行動記憶部
C3 相対判定部
C4 ユーザ情報記憶部
C5 変更部
C6 ステージ判断部
N 通信ネットワーク
P 人工物
SM 感覚器/効果器群
3 arithmetic control unit 4 storage device 5 communication device 10 input / recognition unit 20 inference response unit 25 history storage unit 30 output control unit 40 local determination unit 45 advertisement storage unit 50 advertisement output unit 60 pattern extraction unit 65 pattern storage unit 70 timing determination Unit 80 local evaluation unit A advertisement server A1 advertisement storage unit A2 selection unit A3 selection unit A4 transmission unit A4 evaluation unit C cloud server C1 inference determination unit C2 action storage unit C3 relative determination unit C4 user information storage unit C5 change unit C6 stage determination Part N Communication network P Artifact SM Sensory / effector group

Claims (10)

ユーザとの対話型なインタラクションを行う人工物から前記ユーザへ出力した広告と前記広告の対象物とを対応付けて記憶する対象物記憶部と、
前記ユーザとの前記インタラクションにおいて、前記対象物記憶部に記憶されている前記広告又は前記対象物の登場に基いて前記広告の広告効果を評価する評価部と、
を備えたことを特徴とする情報処理装置。
An object storage unit that stores an advertisement output to the user from an artifact that performs interactive interaction with the user and the object of the advertisement in association with each other;
In the interaction with the user, an evaluation unit that evaluates the advertisement effect of the advertisement based on the advertisement stored in the object storage unit or the appearance of the object;
An information processing apparatus comprising:
前記評価部は、前記インタラクションにおいて前記ユーザから前記人工物に対し、前記広告の再出力の依頼があったことに基いて前記広告効果を評価することを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the evaluation unit evaluates the advertisement effect based on a request for the re-output of the advertisement from the user to the artifact in the interaction. . 前記評価部は、前記広告の出力に続くインタラクションにユーザが肯定的に応じたことに基いて前記広告効果を評価することを特徴とする請求項1又は2記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the evaluation unit evaluates the advertisement effect based on a user's positive response to an interaction following the output of the advertisement. 前記評価部は、前記広告の出力より後のインタラクションにおいて、前記広告又は前記対象物について予め定められた情報処理を前記ユーザが前記人工物に依頼したことに基いて前記広告効果を評価することを特徴とする請求項1から3のいずれか一項に記載の情報処理装置。   The evaluation unit evaluates the advertisement effect based on the fact that the user has requested the artificial object to perform information processing predetermined for the advertisement or the target object in an interaction after the output of the advertisement. The information processing apparatus according to any one of claims 1 to 3, wherein the information processing apparatus is characterized. 前記評価部は、前記広告の出力から予め定められた時間の経過後に再度、前記ユーザが前記広告又は前記対象物について話題にしたことに基いて前記広告効果を評価することを特徴とする請求項1から4のいずれか一項に記載の情報処理装置。   The evaluation unit evaluates the advertising effect based on the user talking about the advertisement or the target object again after elapse of a predetermined time from the output of the advertisement. The information processing apparatus according to any one of 1 to 4. 前記評価部は、前記広告の出力後、予め定められた回数以上、前記ユーザが前記広告又は前記対象物について話題にしたことに基いて前記広告効果を評価することを特徴とする請求項1から5のいずれか一項に記載の情報処理装置。   The evaluation unit evaluates the advertisement effect based on the user talking about the advertisement or the target object a predetermined number of times or more after the advertisement is output. The information processing apparatus according to any one of claims 5 to 6. 前記評価部は、前記広告の出力後、予め定められた以上の頻度で前記ユーザが前記広告又は前記対象物について話題にしたことに基いて前記広告効果を評価することを特徴とする請求項1から6のいずれか一項に記載の情報処理装置。   The evaluation unit evaluates the advertising effect based on the user talking about the advertisement or the object at a frequency more than a predetermined frequency after the advertisement is output. The information processing apparatus according to any one of claims 1 to 6. 前記評価部は、前記広告の出力後、前記ユーザが前記広告又は前記対象物について他のユーザまたは他の人工物と話題にしたことに基いて前記広告効果を評価することを特徴とする請求項1から7のいずれか一項に記載の情報処理装置。   The said evaluation part evaluates the said advertisement effect based on the said user having talked about the said advertisement or the said object with the other user or another artifact after the said advertisement was output. The information processing apparatus according to any one of 1 to 7. 前記評価部は、前記広告の出力後、前記人工物が識別するユーザのうち前記広告の出力の対象としたユーザ以外の他のユーザであって、前記対象としたユーザと予め定められた関係を有するユーザが、前記広告又は前記対象物に関する所定の行動を行ったことに基いて前記広告効果を評価することを特徴とする請求項1から8のいずれか一項に記載の情報処理装置。   The evaluation unit is a user other than the user who is the target of the advertisement output among the users identified by the artifact after the advertisement is output, and has a predetermined relationship with the target user. The information processing apparatus according to claim 1, wherein the user has an evaluation of the advertisement effect based on a predetermined action related to the advertisement or the target object. ユーザとの対話型なインタラクションを行う人工物から前記ユーザへ出力した広告と前記広告の対象物とを対応付けて記憶する処理と、
前記ユーザとの前記インタラクションにおいて、記憶されている前記広告又は前記対象物の登場に基いて前記広告の広告効果を評価する評価処理と、
をコンピュータが実行することを特徴とする情報処理方法。
A process of associating and storing an advertisement output to the user from an artifact that performs interactive interaction with the user and the advertisement object;
In the interaction with the user, an evaluation process for evaluating the advertising effectiveness of the advertisement based on the appearance of the stored advertisement or the object;
An information processing method characterized in that a computer executes.
JP2015056067A 2015-03-19 2015-03-19 Information processing apparatus and method Active JP6114773B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015056067A JP6114773B2 (en) 2015-03-19 2015-03-19 Information processing apparatus and method
US15/015,398 US20160275546A1 (en) 2015-03-19 2016-02-04 Information processing apparatus and information processing method
US15/654,348 US20170316453A1 (en) 2015-03-19 2017-07-19 Information processing apparatus and information processing method
US15/654,224 US20170316451A1 (en) 2015-03-19 2017-07-19 Information processing apparatus and information processing method
US15/654,231 US20170316452A1 (en) 2015-03-19 2017-07-19 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015056067A JP6114773B2 (en) 2015-03-19 2015-03-19 Information processing apparatus and method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017051808A Division JP6360218B2 (en) 2017-03-16 2017-03-16 Information processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2016177443A true JP2016177443A (en) 2016-10-06
JP6114773B2 JP6114773B2 (en) 2017-04-12

Family

ID=57070096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015056067A Active JP6114773B2 (en) 2015-03-19 2015-03-19 Information processing apparatus and method

Country Status (1)

Country Link
JP (1) JP6114773B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6243564B1 (en) * 2017-03-17 2017-12-06 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP2018097798A (en) * 2016-12-16 2018-06-21 ヤフー株式会社 Determination apparatus, determination method, and determination program
JP2018106224A (en) * 2016-12-22 2018-07-05 シャープ株式会社 Server, information processing method, network system, and terminal
JP6393377B1 (en) * 2017-07-24 2018-09-19 ユニティガードシステム株式会社 Robot, information providing method and information providing system
JP2018156625A (en) * 2017-11-06 2018-10-04 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012008765A (en) * 2010-06-24 2012-01-12 Sony Corp Advertising effect measurement device, advertising effect measurement method, program and electronic advertising device
JP2012088994A (en) * 2010-10-21 2012-05-10 Opto:Kk Advertising effect analysis system and method of the same
JP2012108916A (en) * 2010-11-16 2012-06-07 Disney Enterprises Inc Data mining for specifying reaction of online user to broadcast message
JP2014531649A (en) * 2011-09-09 2014-11-27 フェイスブック,インク. Understand the effectiveness of communications propagated through social networking systems
WO2014200890A1 (en) * 2013-06-11 2014-12-18 Facebook, Inc. Associating advertisements with events

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012008765A (en) * 2010-06-24 2012-01-12 Sony Corp Advertising effect measurement device, advertising effect measurement method, program and electronic advertising device
JP2012088994A (en) * 2010-10-21 2012-05-10 Opto:Kk Advertising effect analysis system and method of the same
JP2012108916A (en) * 2010-11-16 2012-06-07 Disney Enterprises Inc Data mining for specifying reaction of online user to broadcast message
JP2014531649A (en) * 2011-09-09 2014-11-27 フェイスブック,インク. Understand the effectiveness of communications propagated through social networking systems
WO2014200890A1 (en) * 2013-06-11 2014-12-18 Facebook, Inc. Associating advertisements with events

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤井涼: ""ロボット特化の広告サービスが登場--「Pepper」発売と同時に開始-CNET Japan"", [ONLINE], JPN6016047342, 21 January 2015 (2015-01-21), ISSN: 0003502510 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097798A (en) * 2016-12-16 2018-06-21 ヤフー株式会社 Determination apparatus, determination method, and determination program
JP2018106224A (en) * 2016-12-22 2018-07-05 シャープ株式会社 Server, information processing method, network system, and terminal
JP6243564B1 (en) * 2017-03-17 2017-12-06 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP2018156475A (en) * 2017-03-17 2018-10-04 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP6393377B1 (en) * 2017-07-24 2018-09-19 ユニティガードシステム株式会社 Robot, information providing method and information providing system
JP2019023815A (en) * 2017-07-24 2019-02-14 ユニティガードシステム株式会社 Robot, information service method and information service system
JP2018156625A (en) * 2017-11-06 2018-10-04 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program

Also Published As

Publication number Publication date
JP6114773B2 (en) 2017-04-12

Similar Documents

Publication Publication Date Title
Huang et al. A framework for collaborative artificial intelligence in marketing
CN111788621B (en) Personal virtual digital assistant
US11093536B2 (en) Explicit signals personalized search
US20170316451A1 (en) Information processing apparatus and information processing method
JP6114773B2 (en) Information processing apparatus and method
US9015099B2 (en) Method, system and device for inferring a mobile user's current context and proactively providing assistance
US20160350801A1 (en) Method for analysing comprehensive state of a subject
KR20200014852A (en) Methods and systems to provide custom field information exchange
KR20200014855A (en) Methods and systems to provide custom field information exchange
JP7036149B2 (en) Information processing system and control method
US20060293921A1 (en) Input device for web content manager responsive to browser viewers' psychological preferences, behavioral responses and physiological stress indicators
US20140052680A1 (en) Method, System and Device for Inferring a Mobile User's Current Context and Proactively Providing Assistance
US20180075763A1 (en) System and method of generating recommendations to alleviate loneliness
KR101761999B1 (en) Method and system for coaching based on relationshinp type
JP6242359B2 (en) Information processing apparatus and method
KR102628042B1 (en) Device and method for recommeding contact information
CN103440307B (en) Method and device for providing media information
CN115104099A (en) Method and apparatus for interactive and privacy preserving communication between a server and a user equipment
JP2011118558A (en) Subconscious marketing system, server for subconscious marketing system, and subconscious marketing method
JP6360218B2 (en) Information processing apparatus and method
JP7078035B2 (en) Information processing equipment, information processing methods, and programs
JP6159357B2 (en) Information processing apparatus and method
JP6230560B2 (en) Information processing apparatus and method
JP2018125036A (en) Information processing device and method
US20240108280A1 (en) Systems, device, and methods for curly hair assessment and personalization

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160901

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160907

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160907

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170317

R150 Certificate of patent or registration of utility model

Ref document number: 6114773

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250