JPWO2017051577A1 - Emotion induction system and emotion induction method - Google Patents

Emotion induction system and emotion induction method Download PDF

Info

Publication number
JPWO2017051577A1
JPWO2017051577A1 JP2017541448A JP2017541448A JPWO2017051577A1 JP WO2017051577 A1 JPWO2017051577 A1 JP WO2017051577A1 JP 2017541448 A JP2017541448 A JP 2017541448A JP 2017541448 A JP2017541448 A JP 2017541448A JP WO2017051577 A1 JPWO2017051577 A1 JP WO2017051577A1
Authority
JP
Japan
Prior art keywords
emotion
user
unit
output
vehicle allocation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017541448A
Other languages
Japanese (ja)
Other versions
JP6753407B2 (en
Inventor
育英 細田
育英 細田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017051577A1 publication Critical patent/JPWO2017051577A1/en
Application granted granted Critical
Publication of JP6753407B2 publication Critical patent/JP6753407B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

ユーザから自然な感情を引き出すことを可能にする感情誘導システム、および感情誘導方法を提案する。ユーザから引き出す感情を選択し、選択された感情に応じて前記ユーザへの出力を制御する。This paper proposes an emotion induction system and an emotion induction method that make it possible to extract natural emotions from users. An emotion to be extracted from the user is selected, and the output to the user is controlled according to the selected emotion.

Description

本開示は、感情誘導システム、および感情誘導方法に関する。  The present disclosure relates to an emotion induction system and an emotion induction method.

近年、ユーザの感情に働きかける装置に関する技術が提案されている。  In recent years, technologies related to devices that work on the emotions of users have been proposed.

例えば、特許文献1には、被撮影者の表情を所望の表情に誘導するために、被撮影者の表情と所望の表情との類似度に応じた誘導オブジェクトを撮像画像上に表示させる技術が開示されている。  For example, Patent Document 1 discloses a technique for displaying a guided object on a captured image according to the degree of similarity between a photographed person's facial expression and a desired facial expression in order to guide the photographed person's facial expression to a desired facial expression. It is disclosed.

特開2008−27086号公報JP 2008-27086 A

しかし、特許文献1に開示された技術は、誘導オブジェクトによって被撮影者の表情を誘導するものであり、被撮影者は、誘導に従って自分で表情を作る必要があった。そのため、被撮影者の表情は、どうしても作為的なものとなってしまう。したがって、特許文献1に開示された技術では、被撮影者から自然な表情および感情を引き出すことは、困難であった。  However, the technique disclosed in Patent Document 1 induces the photographer's facial expression using a guiding object, and the photographed person needs to make a facial expression by himself according to the guidance. For this reason, the photographer's facial expression is inevitably ingenious. Therefore, with the technique disclosed in Patent Document 1, it is difficult to extract natural facial expressions and emotions from the subject.

そこで、本開示では、ユーザから自然な感情を引き出すことが可能な、新規かつ改良された感情誘導システム、および感情誘導方法を提案する。  Therefore, the present disclosure proposes a new and improved emotion induction system and emotion induction method that can extract natural emotion from the user.

本開示によれば、ユーザから引き出す感情を選択する感情選択部と、選択された感情に応じて前記ユーザへの出力を制御する出力制御部と、を備える感情誘導システムが提供される。  According to the present disclosure, an emotion guidance system is provided that includes an emotion selection unit that selects an emotion to be drawn from a user, and an output control unit that controls output to the user according to the selected emotion.

また、本開示によれば、ユーザから引き出す感情を選択することと、演算処理装置によって、選択された感情に応じて前記ユーザへの出力を制御することと、を含む感情誘導方法。  Moreover, according to this indication, the emotion induction method including selecting the emotion drawn out from a user and controlling the output to the said user according to the selected emotion by the arithmetic processing unit.

本開示によれば、ユーザから引き出す感情に応じて、適切に出力を制御することが可能である。  According to the present disclosure, it is possible to appropriately control the output according to the emotion drawn from the user.

以上説明したように本開示によれば、ユーザから自然な感情を引き出すことが可能である。  As described above, according to the present disclosure, it is possible to extract natural emotion from the user.

なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。  Note that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.

本開示の第1の実施形態に係る感情誘導システムの具体例を説明した説明図である。It is explanatory drawing explaining the specific example of the emotion guidance system which concerns on 1st Embodiment of this indication. 同実施形態に係る感情誘導装置の機能構成を説明するブロック図である。It is a block diagram explaining the functional structure of the emotion guidance apparatus which concerns on the same embodiment. 感情テーブル記憶部に記憶される感情テーブルの一例を示した説明図である。It is explanatory drawing which showed an example of the emotion table memorize | stored in an emotion table memory | storage part. 出力パターン記憶部に記憶される出力パターンテーブルの一例を示す説明図である。It is explanatory drawing which shows an example of the output pattern table memorize | stored in an output pattern memory | storage part. 出力パターン記憶部に記憶される出力パターンテーブルの一例を示す説明図である。It is explanatory drawing which shows an example of the output pattern table memorize | stored in an output pattern memory | storage part. 同実施形態に係る感情誘導装置の動作の概要を説明するフローチャート図である。It is a flowchart figure explaining the outline | summary of operation | movement of the emotion guidance apparatus which concerns on the same embodiment. 同実施形態に係る感情誘導装置の感情選択に関する動作を説明するフローチャート図である。It is a flowchart figure explaining the operation | movement regarding the emotion selection of the emotion guidance apparatus which concerns on the same embodiment. 同実施形態に係る感情誘導装置の出力選択に関する動作を説明するフローチャート図である。It is a flowchart figure explaining the operation | movement regarding the output selection of the emotion guidance apparatus which concerns on the same embodiment. 同実施形態に係る感情誘導装置の出力制御に関する動作を説明するフローチャート図である。It is a flowchart figure explaining the operation | movement regarding the output control of the emotion guidance apparatus which concerns on the same embodiment. 同実施形態に係る感情誘導装置の撮像に関する動作を説明するフローチャート図である。It is a flowchart explaining the operation | movement regarding the imaging of the emotion guidance apparatus which concerns on the same embodiment. 同実施形態に係る感情誘導装置の画像の提供に関する動作を説明するフローチャート図である。It is a flowchart explaining the operation | movement regarding provision of the image of the emotion guidance apparatus which concerns on the same embodiment. 本開示の第2の実施形態に係る感情誘導システムの概要を説明する説明図である。It is explanatory drawing explaining the outline | summary of the emotion guidance system which concerns on 2nd Embodiment of this indication. 同実施形態に係る感情誘導システムが含む感情誘導装置の概要を説明する説明図である。It is explanatory drawing explaining the outline | summary of the emotion guidance apparatus which the emotion guidance system which concerns on the embodiment contains. 同実施形態に係る感情誘導システムに含まれる感情誘導装置および情報処理端末の機能構成を説明するブロック図である。It is a block diagram explaining the functional structure of the emotion guidance apparatus and information processing terminal which are contained in the emotion guidance system which concerns on the embodiment. 同実施形態に係る感情誘導システムに含まれる情報処理サーバの機能構成を説明するブロック図である。It is a block diagram explaining the functional structure of the information processing server contained in the emotion guidance system which concerns on the embodiment. 配車中の感情誘導装置の接近情報を通知する画像の一例である。It is an example of the image which notifies the approach information of the emotion guidance apparatus during dispatch. ユーザの周囲の所定範囲内における感情誘導装置の位置を示す画像の一例である。It is an example of the image which shows the position of the emotion guidance apparatus in the predetermined range around a user. 同実施形態に係る感情誘導システムの動作を説明するシーケンス図である。It is a sequence diagram explaining operation | movement of the emotion guidance system which concerns on the same embodiment. 同実施形態に係る感情誘導システムの動作を説明するシーケンス図である。It is a sequence diagram explaining operation | movement of the emotion guidance system which concerns on the same embodiment. 同実施形態に係る感情誘導システムのユーザが配車要求に対する参加申請を送信した場合の動作を説明するシーケンス図である。It is a sequence diagram explaining operation | movement when the user of the emotion guidance system which concerns on the embodiment transmits the participation application with respect to a vehicle allocation request | requirement. 同実施形態に係る感情誘導システムのユーザが配車要求に対する参加申請を送信した場合の動作を説明するシーケンス図である。It is a sequence diagram explaining operation | movement when the user of the emotion guidance system which concerns on the embodiment transmits the participation application with respect to a vehicle allocation request | requirement. 同実施形態に係る感情誘導システムのユーザが参加者を募集する配車要求を送信した場合の動作を説明するシーケンス図である。It is a sequence diagram explaining operation | movement when the user of the emotion guidance system which concerns on the embodiment transmits the dispatch request which recruits participants. 同実施形態に係る情報処理サーバ6のハードウェア構成例を示したブロック図である。It is the block diagram which showed the hardware structural example of the information processing server 6 which concerns on the embodiment.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。  Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1.1.感情誘導システムの概要
1.2.感情誘導装置の構成
1.3.感情誘導装置の動作
2.第2の実施形態
2.1.感情誘導システムの概要
2.2.感情誘導システムの構成
2.3.感情誘導システムの動作
2.4.ハードウェア構成
3.まとめ
The description will be made in the following order.
1. 1. First embodiment 1.1. Outline of emotion induction system 1.2. Configuration of emotion induction device 1.3. 1. Operation of emotion induction device Second Embodiment 2.1. Outline of emotion induction system 2.2. Configuration of emotion induction system 2.3. Operation of emotion induction system 2.4. 2. Hardware configuration Summary

<1.第1の実施形態>
[1.1.感情誘導システムの概要]
まず、図1を参照して、本開示の第1の実施形態に係る感情誘導システムの概要について説明する。図1は、本実施形態に係る感情誘導システムの具体例を説明した説明図である。
<1. First Embodiment>
[1.1. Outline of emotion induction system]
First, an overview of the emotion guidance system according to the first embodiment of the present disclosure will be described with reference to FIG. FIG. 1 is an explanatory diagram illustrating a specific example of the emotion guidance system according to the present embodiment.

本実施形態に係る感情誘導システムは、ユーザ3から感情を引き出す出力を行う感情誘導装置1の出力を制御する。感情誘導装置1は、ユーザ3から引き出す感情に応じて、ユーザ3への出力を制御することにより、ユーザ3から自然な感情を引き出す装置である。  The emotion induction system according to the present embodiment controls the output of the emotion induction device 1 that performs an output for extracting an emotion from the user 3. The emotion induction device 1 is a device that extracts natural emotion from the user 3 by controlling the output to the user 3 in accordance with the emotion extracted from the user 3.

感情誘導装置1によって制御される出力は、ユーザ3の五感の少なくとも1つ以上に働きかけ、人間の一般的な反応として感情を引き出すものである。感情誘導装置1によって制御される出力は、どのようなものであってもよいが、例えば、視覚に働きかける動画、聴覚に働きかける音声、嗅覚に働きかける香り、および触覚に働きかけるオブジェクトなどを用いることができる。  The output controlled by the emotion induction device 1 works on at least one of the five senses of the user 3 and extracts emotion as a general human reaction. The output controlled by the emotion induction device 1 may be any output. For example, a movie that works on vision, a voice that works on hearing, a scent that works on sense of smell, and an object that works on sense of touch can be used. .

具体的には、感情誘導装置1は、表示装置31を備え、ユーザ3から引き出す感情に応じて、表示装置31に表示される画像を制御してもよい。感情誘導装置1は、表示装置31に表示される画像をユーザ3に視認させることにより、視覚によってユーザ3から感情を引き出すことができる。例えば、ユーザ3から「楽しい」という感情を引き出す場合、感情誘導装置1は、表示装置31にショートコント、および一発ギャグなどのコンテンツを表示させてもよい。  Specifically, the emotion induction device 1 may include a display device 31 and control an image displayed on the display device 31 in accordance with emotions drawn from the user 3. The emotion guidance device 1 can draw emotions from the user 3 visually by making the user 3 visually recognize the image displayed on the display device 31. For example, when the emotion of “fun” is drawn from the user 3, the emotion induction device 1 may cause the display device 31 to display content such as a short control and a one-shot gag.

具体的には、感情誘導装置1は、ユーザ3から内部が視認されない箱体51を備え、ユーザ3から引き出す感情に応じて、箱体51の内部に配置されるオブジェクトを制御してもよい。感情誘導装置1は、ユーザ3に箱体51の内部に手を挿し入れさせ、ユーザ3に箱体51内部のオブジェクトを触れさせることにより、触感によってユーザ3から感情を引き出すことができる。例えば、ユーザ3から「驚く」という感情を引き出す場合、感情誘導装置1は、箱体51の内部にカエルの形状を有する弾性オブジェクト53を配置してもよい。例えば、ユーザ3から「心地よい」という感情を引き出す場合、感情誘導装置1は、箱体51の内部にネコの形状を有するぬいぐるみ状オブジェクトを配置してもよい。  Specifically, the emotion induction device 1 may include a box body 51 whose inside is not visually recognized by the user 3, and may control an object placed inside the box body 51 in accordance with an emotion drawn from the user 3. The emotion induction device 1 can draw emotions from the user 3 by tactile sensation by causing the user 3 to insert a hand into the box 51 and causing the user 3 to touch an object inside the box 51. For example, when the emotion “surprise” is drawn from the user 3, the emotion induction device 1 may arrange an elastic object 53 having a frog shape inside the box 51. For example, when the emotion of “comfortable” is drawn from the user 3, the emotion induction device 1 may arrange a stuffed animal object having a cat shape inside the box 51.

また、感情誘導装置1は、撮像装置11を備え、感情が引き出されたユーザ3の表情を撮像装置11によって撮像してもよい。例えば、感情誘導装置1は、図1に示すように、筐体41に各種ストロボ21、23と、撮像装置11と、表示装置31と、を備えるプリントシール機であってもよい。  In addition, the emotion induction device 1 may include the imaging device 11, and the imaging device 11 may image the facial expression of the user 3 from which the emotion is drawn. For example, as shown in FIG. 1, the emotion induction device 1 may be a print seal machine that includes various strobes 21 and 23, an imaging device 11, and a display device 31 in a housing 41.

この構成によれば、感情誘導装置1は、出力装置にて自然な感情が引き出されたユーザ3の表情を撮像装置11にて撮像することができる。また、感情誘導装置1は、撮像された画像を表示装置31に表示し、ユーザ3が撮像された画像に対して書き込みなどの編集を行うことができるようにしてもよい。  According to this configuration, the emotion guiding device 1 can capture an image of the facial expression of the user 3 from which a natural emotion has been extracted by the output device. The emotion induction device 1 may display the captured image on the display device 31 so that the user 3 can perform editing such as writing on the captured image.

このような感情誘導装置1によれば、ユーザ3から自然な感情を引き出すことが可能である。また、感情誘導装置1は、自然な感情が引き出されたユーザ3の活きた表情を撮像することが可能である。したがって、感情誘導装置1は、普段は表に出ないユーザ3の新しい表情、変顔などの表情を撮像することも可能である。  According to such an emotion induction device 1, it is possible to extract natural emotion from the user 3. In addition, the emotion induction device 1 can capture an active facial expression of the user 3 from which a natural emotion is drawn. Therefore, the emotion induction device 1 can also capture a new facial expression or a strange facial expression of the user 3 that does not normally appear on the table.

[1.2.感情誘導装置の構成]
次に、図2〜図4Bを参照して、本実施形態に係る感情誘導システムの構成を説明する。図2は、本実施形態に係る感情誘導装置1を含む感情誘導システムの機能構成を説明するブロック図である。
[1.2. Configuration of emotion induction device]
Next, with reference to FIGS. 2-4B, the structure of the emotion guidance system which concerns on this embodiment is demonstrated. FIG. 2 is a block diagram illustrating a functional configuration of an emotion guidance system including the emotion guidance device 1 according to the present embodiment.

図2に示すように、感情誘導装置1は、入力部101と、感情選択部103と、出力選択部105と、出力制御部109と、感情テーブル記憶部107と、出力パターン記憶部111と、出力部113と、撮像部115と、スコア算出部117と、画像編集部119と、編集素材記憶部121と、印刷部123と、通信部125と、を備える。  As shown in FIG. 2, the emotion induction device 1 includes an input unit 101, an emotion selection unit 103, an output selection unit 105, an output control unit 109, an emotion table storage unit 107, an output pattern storage unit 111, An output unit 113, an imaging unit 115, a score calculation unit 117, an image editing unit 119, an editing material storage unit 121, a printing unit 123, and a communication unit 125 are provided.

入力部101は、ユーザ3からの情報入力を受け付ける入力装置、またはユーザ3の状態に関する情報を取得する測定装置を備え、入力または測定された情報に基づいて入力信号を生成する。入力部101が備える入力装置としては、例えば、タッチパネル、キーボード、マウス、ボタン、マイクロフォン、スイッチおよびレバーなどを例示することができる。また、入力部101が備える測定装置としては、ユーザ3の状態を画像にて取得する撮像装置、およびユーザ3の状態を音声にて取得するマイクロフォンなどを例示することができる。  The input unit 101 includes an input device that receives information input from the user 3 or a measurement device that acquires information related to the state of the user 3, and generates an input signal based on the input or measured information. Examples of the input device included in the input unit 101 include a touch panel, a keyboard, a mouse, a button, a microphone, a switch, and a lever. Further, examples of the measurement device provided in the input unit 101 include an imaging device that acquires the state of the user 3 by an image, a microphone that acquires the state of the user 3 by voice, and the like.

感情選択部103は、ユーザ3から引き出す感情を選択する。具体的には、感情選択部103は、まず、引き出す感情を決定するための選択モードをユーザ3に選択させ、選択された選択モードに従って、ユーザ3から引き出す感情を選択する。感情選択部103が用いる選択モードとしては、種々の選択モードが挙げられるが、例えば、感情選択部103は、以下で説明する選択モードに従って、ユーザ3から引き出す感情を選択してもよい。  The emotion selection unit 103 selects an emotion to be drawn from the user 3. Specifically, the emotion selection unit 103 first causes the user 3 to select a selection mode for determining an emotion to be extracted, and selects an emotion to be extracted from the user 3 in accordance with the selected selection mode. The selection mode used by the emotion selection unit 103 includes various selection modes. For example, the emotion selection unit 103 may select an emotion to be extracted from the user 3 according to the selection mode described below.

例えば、感情選択部103は、撮像装置等により撮像したユーザ3の画像、およびマイクロフォン等により収音したユーザ3の音声のいずれかに基づいて、ユーザ3から引き出す感情を選択してもよい。具体的には、感情選択部103は、ユーザ3の画像または音声の少なくともいずれかに基づいてユーザ3の状態を推定し、推定したユーザ3の状態から推奨される感情をユーザ3から引き出す感情として選択してもよい。また、感情選択部103は、ユーザ3の状態に近い感情をユーザ3から引き出す感情として選択してもよく、ユーザ3の状態と落差が大きい感情をユーザ3から引き出す感情として選択してもよい。  For example, the emotion selection unit 103 may select an emotion to be drawn from the user 3 based on either the user 3 image captured by the imaging device or the like and the user 3 voice collected by a microphone or the like. Specifically, the emotion selection unit 103 estimates the state of the user 3 based on at least one of the image or sound of the user 3 and extracts a recommended emotion from the estimated state of the user 3 from the user 3. You may choose. In addition, the emotion selection unit 103 may select an emotion close to the state of the user 3 as an emotion to be extracted from the user 3, or may select an emotion having a large difference from the state of the user 3 as an emotion to be extracted from the user 3.

また、感情選択部103は、画像または音声にてユーザ3に対して質問を行い、該質問に対するユーザ3からの回答に基づいて、ユーザ3から引き出す感情を選択してもよい。具体的には、感情選択部103は、ユーザ3に対して、現在の気分、体調、および最近の出来事などを質問し、該質問に対するユーザ3からの回答に基づいて、ユーザ3の状態を推定する。感情選択部103は、推定したユーザ3の状態から推奨される感情をユーザ3から引き出す感情として選択してもよい。また、感情選択部103は、ユーザ3の状態に近い感情をユーザ3から引き出す感情として選択してもよく、ユーザ3の状態と落差が大きい感情をユーザ3から引き出す感情として選択してもよい。  Moreover, the emotion selection part 103 may ask the user 3 a question with an image or a sound, and may select the emotion drawn out from the user 3 based on the answer from the user 3 to the question. Specifically, the emotion selection unit 103 asks the user 3 the current mood, physical condition, recent events, and the like, and estimates the state of the user 3 based on the answer from the user 3 to the question. To do. The emotion selection unit 103 may select a recommended emotion from the estimated state of the user 3 as an emotion to be extracted from the user 3. In addition, the emotion selection unit 103 may select an emotion close to the state of the user 3 as an emotion to be extracted from the user 3, or may select an emotion having a large difference from the state of the user 3 as an emotion to be extracted from the user 3.

また、感情選択部103は、引き出す感情に対応した複数の候補感情を表示装置等に表示し、ユーザ3によって選択された候補感情に対応する感情をユーザ3から引き出す感情として選択してもよい。具体的には、感情選択部103は、「キャッキャ(すなわち、明るく喜ぶ感情)」、「ドキドキ(すなわち、動揺する感情)」、「キュンキュン(すなわち、愛おしく思う感情)」、「ゲーッ、ムリー(すなわち、嫌がる感情)」、「今日は泣かせて(すなわち、悲しむ感情)」、および「えっ、マジ!?(すなわち、非常に驚く感情)」などの候補感情を表示装置等に表示し、引き出す感情をユーザ3に選択させてもよい。  The emotion selection unit 103 may display a plurality of candidate emotions corresponding to the emotion to be extracted on a display device or the like, and may select an emotion corresponding to the candidate emotion selected by the user 3 as an emotion to be extracted from the user 3. Specifically, the emotion selection unit 103 includes “cuckoo (that is, emotions that are bright and happy)”, “pounding (that is, emotions that are upset)”, “kyun-kun (that is, emotions that you love)”, “gae, and muly ( That is, the emotions that are displayed on the display device and other candidate emotions such as “dislike emotions”, “today cry (ie, sad emotions)”, and “uh, serious !?” (that is, very surprised emotions). May be selected by the user 3.

ここで、候補感情は、「驚く」、「悲しい」、および「楽しい」などの直接的に感情を表す語句ではなく、擬態語、擬声語、および口語表現等を用いて間接的な雰囲気にて感情を表す語句であってもよい。このような場合、感情誘導装置1は、ユーザ3が想定しなかった感情をユーザ3から引き出すことで、ユーザ3に斬新な感動を提供することができる。  Here, candidate emotions are not words that directly express emotions such as “surprise”, “sad”, and “fun”, but are expressed in an indirect atmosphere using mimetic words, onomatopoeia, and colloquial expressions. It may be a phrase that represents. In such a case, the emotion induction device 1 can provide a novel impression to the user 3 by extracting the emotion that the user 3 did not expect from the user 3.

さらに、感情選択部103は、複数の所定の感情の中からランダムに選択された感情をユーザ3から引き出す感情として選択してもよい。  Further, the emotion selection unit 103 may select an emotion randomly selected from a plurality of predetermined emotions as an emotion to be extracted from the user 3.

出力選択部105は、ユーザ3から引き出す感情に基づいて、ユーザ3への出力パターンを選択する。具体的には、出力選択部105は、感情選択部103により選択された感情に対応する出力パターンを感情テーブル記憶部107から検索し、検索された出力パターンをユーザ3への出力パターンとして選択する。  The output selection unit 105 selects an output pattern for the user 3 based on emotions drawn from the user 3. Specifically, the output selection unit 105 searches the emotion table storage unit 107 for an output pattern corresponding to the emotion selected by the emotion selection unit 103, and selects the searched output pattern as an output pattern to the user 3. .

なお、選択された感情に対応する出力パターンが複数存在する場合、出力選択部105は、選択された感情に対応する出力パターンのうちいずれかを所定の確率、またはランダムにて選択し、ユーザ3への出力パターンとしてもよい。  When there are a plurality of output patterns corresponding to the selected emotion, the output selection unit 105 selects one of the output patterns corresponding to the selected emotion at a predetermined probability or randomly, and the user 3 An output pattern may be used.

感情テーブル記憶部107は、ユーザ3から引き出す感情と、ユーザ3への出力パターンとを対応付けて記憶する。具体的には、感情テーブル記憶部107は、ユーザ3から引き出す感情と、少なくとも1つ以上の出力パターンの識別番号とが対応付けられた感情テーブルを記憶する。  The emotion table storage unit 107 stores emotions drawn from the user 3 and output patterns to the user 3 in association with each other. Specifically, the emotion table storage unit 107 stores an emotion table in which emotions drawn from the user 3 are associated with at least one or more output pattern identification numbers.

例えば、感情テーブル記憶部107は、図3に示すような感情テーブルを記憶してもよい。図3は、感情テーブル記憶部107に記憶される感情テーブルの一例を示した説明図である。  For example, the emotion table storage unit 107 may store an emotion table as shown in FIG. FIG. 3 is an explanatory diagram showing an example of an emotion table stored in the emotion table storage unit 107.

図3に示す感情テーブルには、感情として「キャッキャ(すなわち、明るく喜ぶ感情)」、「ドキドキ(すなわち、動揺する感情)」、「キュンキュン(すなわち、愛おしく思う感情)」、「ゲーッ、ムリー(すなわち、嫌がる感情)」、「今日は泣かせて(すなわち、悲しむ感情)」、および「えっ、マジ!?(すなわち、非常に驚く感情)」が設定されている。また、「キャッキャ」という感情に対応する出力パターンの識別番号(図3では、出力パターンID)として「0011」および「0012」が設定されており、「ドキドキ」という感情に対応する出力パターンの識別番号として「0021」、「0022」および「0023」が設定されている。また、「キュンキュン」という感情に対応する出力パターンの識別番号として「0031」が設定されており、「ゲーッ、ムリー」という感情に対応する出力パターンの識別番号として「0041」が設定されている。さらに、「今日は泣かせて」という感情に対応する出力パターンの識別番号として「0051」および「0052」が設定されており、「えっ、マジ!?」という感情に対応する出力パターンの識別番号として「0061」、「0062」および「0063」が設定されている。  In the emotion table shown in FIG. 3, as emotions, “cuckoo (that is, bright and happy emotions)”, “pounding (that is, emotions that are upset)”, “kyunkyung (that is, emotions that you love and love)”, “gae, muri ( That is, “Emotions to be disliked”, “Today cry (ie, sad emotions)”, and “Eh, seriously !? (ie, very surprised emotions)” are set. In addition, “0011” and “0012” are set as output pattern identification numbers (output pattern IDs in FIG. 3) corresponding to the emotion “cuckoo”, and the output pattern identification corresponding to the emotion “pounding” is identified. “0021”, “0022”, and “0023” are set as numbers. In addition, “0031” is set as the identification number of the output pattern corresponding to the emotion “Kyun Kyun”, and “0041” is set as the identification number of the output pattern corresponding to the emotion “Gae, Muree”. Further, “0051” and “0052” are set as the output pattern identification numbers corresponding to the emotion “Let me cry today”, and the output pattern identification numbers corresponding to the emotion “Eh! “0061”, “0062”, and “0063” are set.

出力制御部109は、ユーザ3への出力を制御する。具体的には、出力制御部109は、出力選択部105により選択された出力パターンに対応する出力の制御条件を出力パターン記憶部111から読み出し、読み出した制御条件に沿って出力部113による出力を制御する。なお、出力の制御条件とは、例えば、感情誘導を開始してからの経過時間、およびユーザ3の行動などである。  The output control unit 109 controls output to the user 3. Specifically, the output control unit 109 reads an output control condition corresponding to the output pattern selected by the output selection unit 105 from the output pattern storage unit 111, and outputs the output by the output unit 113 according to the read control condition. Control. Note that the output control conditions include, for example, the elapsed time since the start of emotion induction and the action of the user 3.

出力パターン記憶部111は、ユーザ3への出力パターンと、出力の制御条件とを対応付けて記憶する。具体的には、出力パターン記憶部111は、ユーザ3への出力パターンごとに、出力部113による出力と、該出力の制御条件とが対応付けられた出力パターンテーブルを記憶する。  The output pattern storage unit 111 stores an output pattern for the user 3 and an output control condition in association with each other. Specifically, the output pattern storage unit 111 stores, for each output pattern to the user 3, an output pattern table in which an output from the output unit 113 is associated with a control condition for the output.

例えば、出力パターン記憶部111は、図4Aおよび図4Bに示すような出力パターンテーブルを記憶してもよい。図4Aおよび図4Bは、出力パターン記憶部111に記憶される出力パターンテーブルの一例を示す説明図である。  For example, the output pattern storage unit 111 may store an output pattern table as shown in FIGS. 4A and 4B. 4A and 4B are explanatory diagrams illustrating an example of an output pattern table stored in the output pattern storage unit 111. FIG.

図4Aに示す出力パターンテーブルには、出力部113が備える第1〜第3の出力機器による出力と、各々の出力機器の出力の制御条件が設定されている。なお、第1の出力機器とは、表示装置であり、第2の出力機器とは、ユーザ3から内部が視認されない箱体の内部に配置されるオブジェクトを制御する触感提示装置であり、第3の出力機器とは、感情誘導装置1を使用するユーザ3が入る筐体である。  In the output pattern table shown in FIG. 4A, the output conditions of the first to third output devices included in the output unit 113 and the control conditions for the output of each output device are set. The first output device is a display device, and the second output device is a tactile sensation presentation device that controls an object placed inside a box that is not visually recognized by the user 3. The output device is a housing in which the user 3 who uses the emotion induction device 1 enters.

図4Aに示すように、まず、感情誘導を開始してからの時間が「00’00’’」である場合、第2の出力機器は、カエル形状の高触感オブジェクトを箱体内に配置するように制御される旨が設定されている。また、ユーザ3が箱体内に配置されたオブジェクトに触れた場合、第1の出力機器は、カエルの画像を表示するように制御され、かつ第3の出力機器は、コンニャク様オブジェクトを部屋の天井から落とすように制御される旨が設定されている。さらに、感情誘導を開始してからの時間が「00’10’’」である場合、第3の出力機器は、部屋の床を揺らすように制御される旨が設定されている。  As shown in FIG. 4A, first, when the time from the start of emotion induction is “00'00” ”, the second output device arranges the frog-shaped high tactile sensation object in the box. Is set to be controlled. When the user 3 touches an object placed in the box, the first output device is controlled to display a frog image, and the third output device places the Konjac object on the ceiling of the room. It is set to be controlled so as to be dropped. Further, when the time from the start of emotion induction is “00′10 ″”, it is set that the third output device is controlled to shake the floor of the room.

また、図4Bに示す出力パターンテーブルには、出力部113が備える第1〜第3の出力機器による出力と、該出力の制御条件の他の一例が設定されている。なお、図4Aと同様に、第1の出力機器とは、表示装置であり、第2の出力機器とは、ユーザ3から内部が視認されない箱体の内部に配置されるオブジェクトを制御する触感提示装置であり、第3の出力機器とは、感情誘導装置1を使用するユーザ3が入る部屋である。  In addition, in the output pattern table shown in FIG. 4B, other examples of outputs by the first to third output devices included in the output unit 113 and control conditions for the outputs are set. As in FIG. 4A, the first output device is a display device, and the second output device is a tactile sensation that controls an object placed inside a box whose inside is not visually recognized by the user 3. The third output device is a room in which the user 3 who uses the emotion induction device 1 enters.

図4Bに示すように、まず、感情誘導を開始してからの時間が「00’00’’」である場合、第1の出力機器は、映像コンテンツの再生を開始するように制御される旨が設定されている。また、感情誘導を開始してからの時間が「00’10’’」である場合、第1の出力機器は、再生中の映像コンテンツの再生を停止するように制御される旨が設定されている。  As shown in FIG. 4B, first, when the time from the start of emotion induction is “00'00” ”, the first output device is controlled to start playback of video content. Is set. In addition, when the time from the start of emotion induction is “00'10” ”, it is set that the first output device is controlled to stop the reproduction of the video content being reproduced. Yes.

出力部113は、ユーザ3に対する出力を行う出力機器を備え、ユーザ3から感情を引き出す出力を行う。出力部113が備える出力機器は、ユーザ3の五感の少なくともいずれか1つ以上に働きかけるものであれば、どのようなものも使用可能である。例えば、出力機器は、液晶表示装置および有機エレクトロルミネッセンス表示装置などの表示装置、ホログラフ再生装置、スピーカおよびヘッドフォンなどの音声出力装置、香水などを噴霧する噴霧装置、ユーザ3から内部が視認されない箱体の中に様々な触感を有するオブジェクトを配置する触感提示装置、ならびにユーザ3を驚かせる仕掛けを備える筐体などを例示することができる。  The output unit 113 includes an output device that outputs to the user 3, and performs output that extracts emotion from the user 3. Any output device provided in the output unit 113 can be used as long as it works on at least one of the five senses of the user 3. For example, the output device includes a display device such as a liquid crystal display device and an organic electroluminescence display device, a holographic reproduction device, an audio output device such as a speaker and headphones, a spray device that sprays perfume, etc., and a box whose interior is not visually recognized by the user 3 Examples include a tactile sensation presentation device in which objects having various tactile sensations are arranged, and a housing having a mechanism that surprises the user 3.

これにより、出力部113は、例えば、表示装置にて、面白い動画、楽しい動画、悲しい動画、癒される画像、気持ち悪い画像、または変顔などの画像コンテンツを出力として表示することができる。また、出力部113は、例えば、音声出力装置にて、楽しい音楽、悲しい音楽、または怖い話などの音声コンテンツを出力として再生することができる。また、出力部113は、例えば、噴霧装置にて、リラックスする香り、または不快な香りなどを有する香水を出力として噴霧することができる。さらに、出力部113は、例えば、筐体にて、筐体の天井からコンニャク様オブジェクトを落下させる、筐体の床を揺らす、または筐体の壁から人形が飛び出すなどの仕掛けを出力として作動させることができる。  Accordingly, the output unit 113 can display, for example, image content such as an interesting moving image, a pleasant moving image, a sad moving image, an image to be healed, an unpleasant image, or a funny face on the display device. In addition, the output unit 113 can reproduce, as an output, audio contents such as fun music, sad music, or a scary story, for example, using an audio output device. In addition, the output unit 113 can spray perfume having a relaxing scent or an unpleasant scent as an output, for example, with a spraying device. Further, the output unit 113 operates, for example, a device such as dropping a Konjac-like object from the ceiling of the housing, shaking the floor of the housing, or popping a doll out of the wall of the housing. be able to.

また、出力部113は、例えば、触感提示装置にて、ユーザ3に箱体内のオブジェクトを触れさせるために、ユーザ3から内部が視認されない箱体内に様々な触感を有するオブジェクトを配置することを出力として行うことができる。なお、触感提示装置において、様々な触感を有するオブジェクトは、箱体内に配置されるだけでなく、筐体の天井または壁から飛び出したり、または筐体の天井または壁から滑り落ちてきたりしてもよい。  In addition, the output unit 113 outputs, for example, the arrangement of objects having various tactile sensations in the box whose interior is not visually recognized by the user 3 in order to cause the user 3 to touch the object in the box in the tactile sensation presentation apparatus. As can be done. In the tactile sensation presentation device, objects having various tactile sensations are not only arranged in the box body, but also may protrude from the ceiling or wall of the housing or slip down from the ceiling or wall of the housing. Good.

撮像部115は、感情が引き出されたユーザ3の表情を撮像する。例えば、撮像部115は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサまたはCCD(Charge Coupled Device)イメージセンサなどの撮像素子と、撮像レンズとを備える。撮像部115は、撮像レンズを介して入射する被写体(すなわち、ユーザ3)からの光を受光して撮像素子にて光電変換を行い、画像信号に変換することで、被写体の画像を取得する。  The imaging unit 115 images the facial expression of the user 3 from which the emotion is drawn. For example, the imaging unit 115 includes an imaging element such as a complementary metal oxide semiconductor (CMOS) image sensor or a charge coupled device (CCD) image sensor, and an imaging lens. The imaging unit 115 receives light from a subject (that is, the user 3) that enters through the imaging lens, performs photoelectric conversion by the imaging device, and converts it into an image signal, thereby acquiring an image of the subject.

撮像部115がストロボ等を用いて所定のタイミングにてユーザ3の表情を撮像する場合、撮像部115は、後述するスコア算出部117によって算出された類似スコアが閾値以上になった時に、ユーザ3の表情を撮像してもよい。また、撮像部115が継続してユーザ3の表情を撮像する場合、撮像部115は、後述するスコア算出部117によって算出された類似スコアが閾値以上の時のユーザ3の画像を保存してもよい。  When the imaging unit 115 captures the facial expression of the user 3 at a predetermined timing using a strobe or the like, the imaging unit 115 detects the user 3 when a similarity score calculated by a score calculation unit 117 described later is equal to or greater than a threshold value. The facial expression may be imaged. Further, when the imaging unit 115 continuously captures the facial expression of the user 3, the imaging unit 115 may store the image of the user 3 when the similarity score calculated by the score calculation unit 117 described later is equal to or greater than a threshold value. Good.

スコア算出部117は、ユーザの画像または音声の少なくともいずれかに基づいて、ユーザの感情と、ユーザ3から引き出す感情との類似の程度を表す類似スコアを算出する。具体的には、スコア算出部117は、ユーザ3の画像に基づいてユーザ3の表情を推定し、ユーザ3の音声に基づいてユーザ3の発話内容を推定する。次に、スコア算出部117は、ユーザ3の表情および発話内容が表すユーザ3の感情と、ユーザ3から引き出す感情との類似の程度を表す類似スコアを算出する。  The score calculation unit 117 calculates a similarity score representing the degree of similarity between the user's emotion and the emotion to be extracted from the user 3 based on at least one of the user's image and sound. Specifically, the score calculation unit 117 estimates the facial expression of the user 3 based on the user 3 image, and estimates the utterance content of the user 3 based on the voice of the user 3. Next, the score calculation unit 117 calculates a similarity score that represents the degree of similarity between the emotion of the user 3 expressed by the facial expression and utterance content of the user 3 and the emotion to be extracted from the user 3.

なお、スコア算出部117による表情の推定、および発話内容の推定は、例えば、機械学習アルゴリズムによる画像認識および音声認識等のパターン認識技術を応用することで実行することができる。また、スコア算出部117による類似スコアは、例えば、感情ごとの特徴を示す特徴情報を設定し、ユーザ3の表情および発話内容が特徴情報に対してどの程度適合しているかを数値化することで算出することができる。  The estimation of facial expressions and the estimation of utterance contents by the score calculation unit 117 can be executed by applying a pattern recognition technique such as image recognition and voice recognition based on a machine learning algorithm, for example. In addition, the similarity score by the score calculation unit 117 is, for example, by setting feature information indicating features for each emotion, and quantifying how much the facial expression and utterance content of the user 3 matches the feature information. Can be calculated.

画像編集部119は、ユーザ3からの入力に基づいて、撮像されたユーザ3の画像を編集する。具体的には、画像編集部119は、撮像部115によって撮像されたユーザ3の画像を表示装置等に表示させることで、ユーザ3からの編集内容の入力を受け付け、ユーザ3が入力した編集内容に基づいて、撮像されたユーザ3の画像を編集する。また、画像編集部119は、ユーザ3に対して、ユーザ3の画像を編集するための編集素材を提供してもよい。これらの編集素材は、例えば、編集素材記憶部121に記憶される。  The image editing unit 119 edits the captured image of the user 3 based on the input from the user 3. Specifically, the image editing unit 119 receives an input of editing content from the user 3 by displaying an image of the user 3 captured by the imaging unit 115 on a display device or the like, and the editing content input by the user 3 Based on the above, the captured image of the user 3 is edited. Further, the image editing unit 119 may provide the editing material for editing the user 3 image to the user 3. These editing materials are stored in the editing material storage unit 121, for example.

撮像された画像に対して、ユーザ3が行うことが可能な編集内容としては、例えば、文字等の書き込み、背景および画像枠等の追加、イラストの追加、ならびにグレースケール、セピア、ぼかし、およびモザイクなどのフィルタを用いたエフェクト処理などを例示することができる。また、画像編集部119が提供する編集素材としては、背景、画像枠、イラスト、および各種フィルタなどを例示することができる。  Editing contents that can be performed by the user 3 on the captured image include, for example, writing characters and the like, adding backgrounds and image frames, adding illustrations, and grayscale, sepia, blurring, and mosaic. An effect process using a filter such as the above can be exemplified. Further, examples of the editing material provided by the image editing unit 119 include a background, an image frame, an illustration, and various filters.

ここで、画像編集部119が提供する編集素材は、ユーザ3から引き出す感情に応じたものであってもよい。例えば、ユーザ3から引き出す感情が「驚く」である場合、「驚く」という感情と関連深いエクスクラメーションマーク、爆発、および衝撃などのイラスト等を編集素材として提供してもよい。また、ユーザ3から引き出す感情が「悲しい」である場合、「悲しみ」の感情と関連深い雫、雨、および影などのイラスト等を編集素材として提供してもよい。ユーザ3から引き出す感情が「楽しい」である場合、「楽しい」という感情と関連深い音符、花、虹および星などのイラスト等を編集素材として提供してもよい。  Here, the editing material provided by the image editing unit 119 may correspond to emotions drawn from the user 3. For example, when the emotion drawn out from the user 3 is “surprise”, illustrations such as exclamation marks, explosions, and shocks closely related to the emotion “surprise” may be provided as the editing material. Further, when the emotion drawn from the user 3 is “sad”, illustrations such as hail, rain, and shadow that are closely related to the emotion of “sadness” may be provided as editing material. When the emotion drawn from the user 3 is “fun”, illustrations such as musical notes, flowers, rainbows and stars that are closely related to the emotion of “fun” may be provided as editing material.

編集素材記憶部121は、ユーザ3が撮像された画像を編集する際に画像編集部119により提供される背景、画像枠、イラスト、および各種フィルタなどの編集素材を記憶する。また、編集素材記憶部121は、編集素材の各々をユーザ3から引き出す感情と対応付けて記憶してもよい。  The editing material storage unit 121 stores editing materials such as a background, an image frame, an illustration, and various filters provided by the image editing unit 119 when the user 3 edits the captured image. The editing material storage unit 121 may store each of the editing materials in association with emotions drawn from the user 3.

なお、上述した感情テーブル記憶部107、出力パターン記憶部111および編集素材記憶部121は、例えば、HDD(Hard Disk Drive)装置、フラッシュメモリ、およびSSD(Solid State Drive)装置などのデータ格納用のストレージ装置によって構成することができる。  Note that the emotion table storage unit 107, the output pattern storage unit 111, and the editing material storage unit 121 described above are for data storage such as a HDD (Hard Disk Drive) device, a flash memory, and an SSD (Solid State Drive) device. It can be configured by a storage device.

印刷部123は、感情が引き出されたユーザ3の表情を撮像した画像をシール紙等に印刷する。具体的には、印刷部123は、画像編集部119によって編集されたユーザ3の画像を所定のレイアウトにてシール紙に印刷する。なお、シール紙に印刷されるユーザ3の画像は、1つであってもよく、複数であってもよい。また、シール紙に印刷されるユーザ3の画像が複数である場合、それぞれの画像は、同一の画像であってもよく、異なる画像であってもよい。これによれば、ユーザ3は、感情が引き出された表情を撮像した画像をその場で印刷し、シールとして入手することができる。  The printing unit 123 prints an image obtained by capturing the facial expression of the user 3 from which the emotion is drawn on a sticker sheet or the like. Specifically, the printing unit 123 prints the image of the user 3 edited by the image editing unit 119 on a sticker sheet with a predetermined layout. In addition, the image of the user 3 printed on the sticker paper may be one or plural. Further, when there are a plurality of images of the user 3 printed on the sticker paper, the respective images may be the same image or different images. According to this, the user 3 can print the image which imaged the facial expression from which the emotion was drawn out on the spot, and can obtain it as a sticker.

通信部125は、ネットワーク5を介して、感情が引き出されたユーザ3の表情を撮像した画像を所定のサーバに送信する。また、ユーザ3の画像が送信された所定のサーバのアドレスは、リンク情報としてユーザ3に対して通知される。これによれば、ユーザ3は、感情が引き出された表情を撮像した画像を画像データとして入手することができるため、感情が引き出された表情をより容易に閲覧および複製することができる。なお、通信部125は、具体的には、公衆回線網などのネットワーク5に接続するための通信デバイス等で構成された通信インタフェースである。通信部125は、例えば、有線によるケーブル通信を行うケーブル通信装置で構成されていてもよく、有線または無線LAN(Local Area Network)対応通信装置で構成されていてもよい。  The communication unit 125 transmits an image obtained by capturing the facial expression of the user 3 from which the emotion has been extracted to a predetermined server via the network 5. In addition, the address of a predetermined server to which the image of the user 3 is transmitted is notified to the user 3 as link information. According to this, since the user 3 can obtain an image obtained by capturing a facial expression from which emotion is extracted as image data, the user 3 can more easily view and duplicate the facial expression from which emotion is extracted. The communication unit 125 is specifically a communication interface configured with a communication device or the like for connecting to the network 5 such as a public line network. The communication unit 125 may be configured by, for example, a cable communication device that performs wired cable communication, or may be configured by a wired or wireless LAN (Local Area Network) compatible communication device.

以上にて、本実施形態に係る感情誘導システムが含む感情誘導装置1の構成について具体的に説明した。本実施形態に係る感情誘導システムによれば、ユーザ3から自然な表情を引き出すことが可能である。また、本実施形態に係る感情誘導システムによれば、自然な感情が引き出されたユーザ3の表情を撮像装置にて撮像することも可能である。  The configuration of the emotion guidance device 1 included in the emotion guidance system according to the present embodiment has been specifically described above. According to the emotion guidance system according to the present embodiment, a natural expression can be extracted from the user 3. Moreover, according to the emotion guidance system which concerns on this embodiment, it is also possible to image with the imaging device the facial expression of the user 3 from whom the natural emotion was drawn.

なお、感情誘導装置1が行う情報処理は、ソフトウェアとハードウェアとの協働によって実現される。感情誘導装置1は、ハードウェアとして、例えば、ブリッジ、および内部バス等により相互に接続されたCPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)を備える。  Information processing performed by the emotion guidance device 1 is realized by cooperation between software and hardware. The emotion induction device 1 includes, as hardware, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) that are connected to each other via a bridge and an internal bus.

CPUは、演算処理装置および制御装置として機能し、ROM等に記憶された各種プログラムに従って、感情誘導装置1の動作全般を制御する。ROMは、CPUが使用するプログラム、演算パラメータを記憶し、RAMは、CPUの実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらのハードウェアと、ソフトウェアとを協働させることによって、感情誘導装置1は、感情選択部103、出力選択部105、出力制御部109、スコア算出部117、および画像編集部119等の機能を実現することができる。  The CPU functions as an arithmetic processing device and a control device, and controls the overall operation of the emotion induction device 1 according to various programs stored in a ROM or the like. The ROM stores programs and calculation parameters used by the CPU, and the RAM temporarily stores programs used in the execution of the CPU, parameters that change as appropriate during the execution, and the like. By cooperating these hardware and software, the emotion induction device 1 has functions of the emotion selection unit 103, the output selection unit 105, the output control unit 109, the score calculation unit 117, the image editing unit 119, and the like. Can be realized.

なお、これらの感情誘導装置1にて実行される情報処理の一部または全部は、感情誘導装置1とネットワーク5を介して接続された情報処理サーバにて実行されてもよい。具体的には、感情選択部103、出力選択部105、出力制御部109、スコア算出部117、および画像編集部119等の機能の一部または全部は、感情誘導装置1とネットワーク5を介して接続された情報処理サーバにて実行されてもよい。  A part or all of the information processing executed by these emotion guiding devices 1 may be executed by an information processing server connected to the emotion guiding device 1 via the network 5. Specifically, some or all of the functions of the emotion selection unit 103, the output selection unit 105, the output control unit 109, the score calculation unit 117, the image editing unit 119, etc. are sent via the emotion induction device 1 and the network 5. It may be executed by a connected information processing server.

また、感情誘導装置1に内蔵されるCPU、ROMおよびRAMなどのハードウェアに対して、上述した感情誘導装置1の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。  In addition, a computer program for causing hardware such as CPU, ROM, and RAM incorporated in the emotion induction device 1 to perform the same functions as the components of the emotion induction device 1 described above can be created. A storage medium storing the computer program is also provided.

[1.3.感情誘導装置の動作]
続いて、図5〜図10を参照して、本実施形態に係る感情誘導システムが含む感情誘導装置1の動作について説明する。なお、以下で説明する感情誘導装置1の動作は、あくまで一例であって、本実施形態に係る感情誘導装置1の動作が以下に限定されるわけではない。
[1.3. Operation of emotion induction device]
Then, with reference to FIGS. 5-10, operation | movement of the emotion guidance apparatus 1 which the emotion guidance system which concerns on this embodiment contains is demonstrated. Note that the operation of the emotion induction device 1 described below is merely an example, and the operation of the emotion induction device 1 according to the present embodiment is not limited to the following.

図5は、本実施形態に係る感情誘導装置1の動作の概要を説明するフローチャート図である。  FIG. 5 is a flowchart for explaining an outline of the operation of the emotion guidance device 1 according to this embodiment.

図5に示すように、感情誘導装置1の動作は、大きく分けて5つの処理動作を含む。まず、感情選択部103は、ユーザ3から引き出す感情を選択する(S100)。次に、出力選択部105は、選択された感情に対する出力パターンを選択する(S110)。続いて、出力制御部109は、選択された出力パターンに従って、ユーザ3への出力を制御する(S120)。次に、撮像部115は、出力を受けて感情が引き出されたユーザ3の表情を撮像する(S130)。さらに、撮像された画像は、画像編集部119によって編集された後、印刷部123または通信部125の少なくともいずれかを介して、ユーザ3に提供される(S140)。  As shown in FIG. 5, the operation of the emotion induction device 1 is roughly divided into five processing operations. First, the emotion selection unit 103 selects an emotion to be drawn from the user 3 (S100). Next, the output selection unit 105 selects an output pattern for the selected emotion (S110). Subsequently, the output control unit 109 controls output to the user 3 according to the selected output pattern (S120). Next, the imaging unit 115 captures the facial expression of the user 3 from which the emotion has been extracted in response to the output (S130). Further, the captured image is edited by the image editing unit 119 and then provided to the user 3 via at least one of the printing unit 123 and the communication unit 125 (S140).

以下では、図6〜図10を参照して、上記で概要を説明した感情誘導装置1の動作をより詳細に説明する。  Below, with reference to FIGS. 6-10, operation | movement of the emotion guidance apparatus 1 which demonstrated the outline | summary above is demonstrated in detail.

まず、図6を参照して、感情誘導装置1の感情選択に関する動作について説明する。図6は、本実施形態に係る感情誘導装置1の感情選択に関する動作を説明するフローチャート図である。  First, with reference to FIG. 6, the operation | movement regarding the emotion selection of the emotion guidance apparatus 1 is demonstrated. FIG. 6 is a flowchart illustrating an operation related to emotion selection of the emotion guidance device 1 according to the present embodiment.

図6に示すように、まず、ユーザ3からの入力により、ユーザ3から引き出す感情を決定する選択モードが選択される(S101)。質問モードが選択された場合、感情選択部103は、表示装置等にユーザ3への質問を表示し(S102)、ユーザ3からの質問への回答を受け付ける(S103)。感情選択部103は、引き出す感情が決定されるまで質問(S102)および回答(S103)のループを繰り返した後、引き出す感情を決定する(S108)。また、自動モードが選択された場合、感情選択部103は、ユーザ3の画像および音声を取得し(S104)、取得したユーザ3の画像および音声に基づいて、ユーザ3から引き出す感情を選択する(S105)。これにより、引き出す感情が決定される(S108)。さらに、入力モードが選択された場合、感情選択部103は、表示装置等に候補感情を表示させ(S106)、ユーザ3からの候補感情の選択を受け付ける(S107)。これにより、ユーザ3の入力によって候補感情の中から引き出す感情が決定される(S108)。  As shown in FIG. 6, first, a selection mode for determining an emotion to be drawn from the user 3 is selected by an input from the user 3 (S101). When the question mode is selected, the emotion selection unit 103 displays a question to the user 3 on a display device or the like (S102), and accepts an answer to the question from the user 3 (S103). The emotion selection unit 103 repeats the question (S102) and answer (S103) loop until the emotion to be extracted is determined, and then determines the emotion to be extracted (S108). When the automatic mode is selected, the emotion selection unit 103 acquires the image and sound of the user 3 (S104), and selects the emotion to be drawn from the user 3 based on the acquired image and sound of the user 3 (S104). S105). Thereby, the emotion to be drawn is determined (S108). Further, when the input mode is selected, the emotion selection unit 103 displays candidate emotions on a display device or the like (S106), and accepts selection of candidate emotions from the user 3 (S107). Thereby, the emotion drawn out from the candidate emotions by the input of the user 3 is determined (S108).

次に、図7を参照して、感情誘導装置1の出力選択に関する動作について説明する。図7は、本実施形態に係る感情誘導装置1の出力選択に関する動作を説明するフローチャート図である。  Next, with reference to FIG. 7, the operation | movement regarding the output selection of the emotion guidance apparatus 1 is demonstrated. FIG. 7 is a flowchart illustrating an operation related to output selection of the emotion guidance device 1 according to the present embodiment.

図7に示すように、まず、出力選択部105は、引き出す感情に合致する出力パターンを感情テーブル記憶部107から検索する(S111)。次に、出力選択部105は、引き出す感情に合致する出力パターンが複数存在するか否かを判断する(S112)。引き出す感情に合致する出力パターンが複数存在する場合(S112/Yes)、出力選択部105は、該当する複数の出力パターンからランダムに出力パターンを選択し(S113)、ユーザ3への出力を制御する出力パターンを決定する(S115)。一方、引き出す感情に合致する出力パターンが1つ存在する場合(S112/No)、出力選択部105は、該当する出力パターンを選択し(S114)、ユーザ3への出力を制御する出力パターンを決定する(S115)。  As shown in FIG. 7, first, the output selection unit 105 searches the emotion table storage unit 107 for an output pattern that matches the emotion to be extracted (S111). Next, the output selection unit 105 determines whether there are a plurality of output patterns that match the emotion to be extracted (S112). When there are a plurality of output patterns that match the emotion to be extracted (S112 / Yes), the output selection unit 105 randomly selects an output pattern from the plurality of corresponding output patterns (S113), and controls the output to the user 3 An output pattern is determined (S115). On the other hand, when there is one output pattern that matches the emotion to be extracted (S112 / No), the output selection unit 105 selects the corresponding output pattern (S114), and determines the output pattern for controlling the output to the user 3 (S115).

続いて、図8を参照して、感情誘導装置1の出力制御に関する動作について説明する。図8は、本実施形態に係る感情誘導装置1の出力制御に関する動作を説明するフローチャート図である。  Then, with reference to FIG. 8, the operation | movement regarding the output control of the emotion guidance apparatus 1 is demonstrated. FIG. 8 is a flowchart for explaining operations related to output control of the emotion guidance device 1 according to the present embodiment.

図8に示すように、まず、出力制御部109は、出力パターンから各出力機器の出力の制御条件を読み出す(S121)。次に、出力制御部109は、各出力機器において出力の制御条件が満たされているか否かを判断し(S122)、出力の制御条件が満たされている場合(S122/Yes)、対応する出力機器を制御し、制御条件を満たした出力をユーザ3に対して実行させる(S123)。出力の制御条件が満たされていない場合(S122/No)、出力制御部109は、待機し、再度、出力の制御条件が満たされているか否かを判断する(S122)。なお、出力制御部109は、全ての出力が実行されるか、または所定時間が経過した場合、動作を終了する。  As shown in FIG. 8, first, the output control unit 109 reads the output control conditions of each output device from the output pattern (S121). Next, the output control unit 109 determines whether or not the output control condition is satisfied in each output device (S122). If the output control condition is satisfied (S122 / Yes), the corresponding output is determined. The device is controlled to cause the user 3 to execute an output that satisfies the control conditions (S123). When the output control condition is not satisfied (S122 / No), the output control unit 109 stands by and determines again whether the output control condition is satisfied (S122). Note that the output control unit 109 ends the operation when all outputs are executed or when a predetermined time has elapsed.

次に、図9を参照して、感情誘導装置1の撮像に関する動作について説明する。図9は、本実施形態に係る感情誘導装置1の撮像に関する動作を説明するフローチャート図である。なお、図9で示す撮像に関する動作は、撮像部115がユーザ3を継続して撮像している場合の動作である。  Next, with reference to FIG. 9, an operation related to imaging of the emotion induction device 1 will be described. FIG. 9 is a flowchart illustrating an operation related to imaging of the emotion induction device 1 according to the present embodiment. Note that the operation relating to imaging illustrated in FIG. 9 is an operation when the imaging unit 115 continuously captures the user 3.

図9に示すように、まず、撮像部115は、ユーザ3の画像を撮像する(S131)。ここで、スコア算出部117は、入力部101等を介して、撮像時のユーザ3の画像および音声を取得する(S132)。次に、スコア算出部117は、ユーザ3の画像からユーザ3の表情を推定し(S133)、また、ユーザ3の音声からユーザ3の発話内容を推定する(S134)。続いて、スコア算出部117は、ユーザ3から引き出す感情と、推定したユーザ3の表情および発話内容との類似スコアを算出する(S135)。さらに、撮像部115は、類似スコアが閾値以上である画像が所定枚数以上あるか否かを判断する(S136)。類似スコアが閾値以上である画像が所定枚数以上ある場合(S136/Yes)、撮像部115は、類似スコアが閾値以上である画像を所定枚数選択し(S137)、選択したユーザ3の画像を記憶する(S139)。類似スコアが閾値以上である画像が所定枚数未満である場合(S136/No)、撮像部115は、類似スコアが高い順に所定枚数の画像を選択し(S138)、選択したユーザ3の画像を記憶する(S139)。  As shown in FIG. 9, first, the imaging unit 115 captures an image of the user 3 (S131). Here, the score calculation unit 117 acquires the image and sound of the user 3 at the time of imaging via the input unit 101 or the like (S132). Next, the score calculation unit 117 estimates the facial expression of the user 3 from the image of the user 3 (S133), and estimates the utterance content of the user 3 from the voice of the user 3 (S134). Subsequently, the score calculation unit 117 calculates a similarity score between the emotion drawn from the user 3 and the estimated facial expression and utterance content of the user 3 (S135). Further, the imaging unit 115 determines whether or not there are a predetermined number or more of images whose similarity score is equal to or greater than a threshold (S136). When there are a predetermined number or more of images whose similarity score is equal to or greater than the threshold (S136 / Yes), the imaging unit 115 selects a predetermined number of images whose similarity score is equal to or greater than the threshold (S137), and stores the image of the selected user 3 (S139). When the number of images having a similarity score equal to or greater than the threshold is less than the predetermined number (S136 / No), the imaging unit 115 selects a predetermined number of images in descending order of the similarity score (S138), and stores the selected user 3 image. (S139).

さらに、図10を参照して、感情誘導装置1の画像の提供に関する動作について説明する。図10は、本実施形態に係る感情誘導装置1の画像の提供に関する動作を説明するフローチャート図である。  Furthermore, with reference to FIG. 10, the operation | movement regarding provision of the image of the emotion guidance apparatus 1 is demonstrated. FIG. 10 is a flowchart illustrating an operation related to image provision of the emotion guidance device 1 according to the present embodiment.

図10に示すように、まず、感情誘導装置1は、記憶された所定枚数のユーザ3の画像を表示装置等に表示させる(S141)。次に、感情誘導装置1は、編集する画像の選択をユーザ3から受け付ける(S142)。続いて、画像編集部119は、引き出した感情に対応する編集素材を表示装置等に表示させ(S143)、選択された画像へのユーザ3の編集を受け付ける(S144)。さらに、画像編集部119は、編集された画像を記憶する(S145)。  As shown in FIG. 10, the emotion induction device 1 first displays a predetermined number of stored images of the user 3 on a display device or the like (S141). Next, emotion induction device 1 accepts selection of an image to be edited from user 3 (S142). Subsequently, the image editing unit 119 displays an editing material corresponding to the extracted emotion on a display device or the like (S143), and accepts editing of the selected image by the user 3 (S144). Further, the image editing unit 119 stores the edited image (S145).

ここで、感情誘導装置1は、編集された画像をデータで提供するか否かをユーザ3に確認する(S146)。編集された画像をデータで提供する場合(S146/Yes)、編集された画像を通信部125にて所定のサーバに送信し、該画像へのリンク情報をユーザ3に通知する(S147)。一方、編集された画像をデータで提供しない場合(S146/No)、編集された画像を所定のサーバに送信する処理(S147)は、スキップされる。次に、感情誘導装置1は、編集された画像を印刷するか否かをユーザ3に確認する(S148)。編集された画像を印刷する場合(S148/Yes)、印刷部123にて編集された画像をシール紙等に印刷する(S149)。一方、編集された画像を印刷しない場合(S148/No)、編集された画像を印刷する処理(S148)は、スキップされる。  Here, the emotion induction device 1 confirms with the user 3 whether or not to provide the edited image as data (S146). When the edited image is provided as data (S146 / Yes), the edited image is transmitted to a predetermined server via the communication unit 125, and the link information to the image is notified to the user 3 (S147). On the other hand, when the edited image is not provided as data (S146 / No), the process of transmitting the edited image to a predetermined server (S147) is skipped. Next, the emotion induction device 1 confirms with the user 3 whether or not to print the edited image (S148). When printing the edited image (S148 / Yes), the image edited by the printing unit 123 is printed on a sticker sheet or the like (S149). On the other hand, when the edited image is not printed (S148 / No), the process of printing the edited image (S148) is skipped.

なお、編集された画像をデータで提供せず(S146/No)、かつ編集された画像を印刷しない場合(S148/No)、感情誘導装置1は、再度、編集された画像の提供方法を確認する処理(S146、S148)を実行してもよい。  If the edited image is not provided as data (S146 / No) and the edited image is not printed (S148 / No), the emotion induction device 1 confirms the method of providing the edited image again. Processing (S146, S148) may be executed.

以上にて、本実施形態に係る感情誘導システムが含む感情誘導装置1について詳細に説明した。本実施形態に係る感情誘導システムによれば、ユーザ3から自然な感情を引き出すことが可能である。また、感情誘導システムは、自然な感情が引き出されたユーザ3の活きた表情を撮像することが可能である。  The emotion guidance device 1 included in the emotion guidance system according to the present embodiment has been described in detail above. According to the emotion guidance system according to the present embodiment, it is possible to extract natural emotion from the user 3. In addition, the emotion guidance system can capture an active facial expression of the user 3 from which natural emotions are drawn.

なお、上記の実施形態では、感情誘導システムは、自然な感情が引き出されたユーザ3の表情を撮像するものとしたが、本技術はかかる例に限定されない。例えば、感情誘導システムは、自然な感情が引き出されたユーザ3の音声を録音してもよい。  In the above embodiment, the emotion induction system images the facial expression of the user 3 from which natural emotions are drawn, but the present technology is not limited to such an example. For example, the emotion induction system may record the voice of the user 3 from whom a natural emotion is drawn.

<2.第2の実施形態>
[2.1.感情誘導システムの概要]
次に、図11および図12を参照して、本開示の第2の実施形態に係る感情誘導システムの概要について説明する。図11は、本実施形態に係る感情誘導システムの概要を説明する説明図であり、図12は、本実施形態に係る感情誘導システムが含む感情誘導装置の概要を説明する説明図である。
<2. Second Embodiment>
[2.1. Outline of emotion induction system]
Next, with reference to FIG. 11 and FIG. 12, an overview of the emotion guidance system according to the second embodiment of the present disclosure will be described. FIG. 11 is an explanatory diagram for explaining the outline of the emotion guidance system according to this embodiment, and FIG. 12 is an explanatory diagram for explaining the outline of the emotion guidance device included in the emotion guidance system according to this embodiment.

図11に示すように、感情誘導システムは、移動体に備えられた感情誘導装置2をユーザ3が指定した場所に配車する情報処理システムである。具体的には、感情誘導システムは、感情誘導装置2と、ユーザ3からの感情誘導装置2の配車要求を管理する情報処理サーバ6と、各ユーザ3が所持する情報処理端末7とを公衆回線網等のネットワーク5で接続した構成を有する。  As shown in FIG. 11, the emotion guidance system is an information processing system that dispatches the emotion guidance device 2 provided in a moving body to a location designated by the user 3. Specifically, the emotion guidance system includes an emotion guidance device 2, an information processing server 6 that manages a vehicle allocation request for the emotion guidance device 2 from the user 3, and an information processing terminal 7 that each user 3 possesses. It has a configuration connected by a network 5 such as a network.

情報処理端末7は、感情誘導装置2の配車を要求する配車要求を情報処理サーバ6に送信する。配車要求は、例えば、ユーザ3が感情誘導装置2の配車を希望する場所(配車場所ともいう)および日時(配車日時ともいう)を含む。また、配車要求には、ユーザ3が引き出されたい感情に関する情報が含まれていてもよい。なお、情報処理端末7は、例えば、スマートフォン、携帯電話、およびパーソナルコンピュータなどであってもよい。  The information processing terminal 7 transmits a dispatch request for requesting the dispatch of the emotion guidance device 2 to the information processing server 6. The dispatch request includes, for example, a place (also referred to as a dispatch place) and a date and time (also referred to as a dispatch date / time) where the user 3 desires to dispatch the emotion guidance device 2. Further, the dispatch request may include information related to emotions that the user 3 wants to be pulled out. Note that the information processing terminal 7 may be, for example, a smartphone, a mobile phone, a personal computer, or the like.

情報処理サーバ6は、情報処理端末7から送信された配車要求を管理する。また、情報処理サーバ6は、配車要求の配車場所および配車日時に対して、配車可能な感情誘導装置2に該配車要求を送信する。また、情報処理サーバ6は、感情誘導装置2から該感情誘導装置2の位置情報を取得し、配車日時が近づいた際に、感情誘導装置2が接近している旨を情報処理端末7に通知してもよい。  The information processing server 6 manages the vehicle allocation request transmitted from the information processing terminal 7. In addition, the information processing server 6 transmits the allocation request to the emotion guidance device 2 that can be allocated for the allocation location and allocation date / time of the allocation request. Further, the information processing server 6 acquires the position information of the emotion guidance device 2 from the emotion guidance device 2 and notifies the information processing terminal 7 that the emotion guidance device 2 is approaching when the dispatch date and time approaches. May be.

感情誘導装置2は、自動車、スクータ、およびバイクなどの移動体に備えられ、移動体により任意の場所に移動可能に設けられる。情報処理サーバ6から配車要求を受信した感情誘導装置2は、運転者の運転により、配車要求の配車日時に間に合うように配車場所に配車される。  The emotion induction device 2 is provided in a moving body such as an automobile, a scooter, and a motorcycle, and is provided so as to be movable to an arbitrary place by the moving body. The emotion guidance device 2 that has received the dispatch request from the information processing server 6 is dispatched to the dispatch location by the driver's driving in time for the dispatch date and time of the dispatch request.

このような感情誘導装置2について、図12を参照して、より具体的に説明する。図12に示すように、感情誘導装置2は、例えば、移動体4の背面側に撮像部115および出力部113を備え、遮光カーテン127にて囲んだ内部にてユーザ3から感情を引き出す出力を行ってもよい。また、感情誘導装置2は、遮光カーテン127にて囲んだ内部にて、感情が引き出されたユーザ3の表情を撮像することも可能である。すなわち、感情誘導装置2は、移動体4に備えられ、ユーザ3から感情を引き出す出力を行うプリントシール機であってもよい。  Such an emotion induction device 2 will be described more specifically with reference to FIG. As shown in FIG. 12, the emotion induction device 2 includes, for example, an imaging unit 115 and an output unit 113 on the back side of the moving body 4, and outputs an output that extracts emotion from the user 3 inside the light shielding curtain 127. You may go. In addition, the emotion induction device 2 can also capture the facial expression of the user 3 from which the emotion is drawn inside the light-shielding curtain 127. That is, the emotion induction device 2 may be a print sticker that is provided in the moving body 4 and that outputs an output that extracts emotion from the user 3.

本実施形態に係る感情誘導システムによれば、ユーザ3は、いつでもどこでも希望する場所および日時にて感情誘導装置2によって感情を引き出す出力を受けることができる。また、ユーザ3は、感情が引き出された表情を感情誘導装置2によってその場で撮像することも可能である。  According to the emotion induction system according to the present embodiment, the user 3 can receive an output for extracting an emotion by the emotion induction device 2 at a desired place and date / time anytime and anywhere. In addition, the user 3 can also capture the facial expression from which the emotion is drawn on the spot using the emotion induction device 2.

なお、配車要求を情報処理サーバ6に送信するユーザと、感情誘導装置2によって感情が引き出されるユーザとは、同じであってもよいが、異なっていてもよい。配車要求を送信したユーザと、感情が引き出されるユーザとが異なる場合、配車要求を送信したユーザは、感情が引き出されるユーザに対して、引き出す感情を伏せることにより、より強く感情を引き出させることができる。  Note that the user who transmits the dispatch request to the information processing server 6 and the user whose emotion is drawn out by the emotion guidance device 2 may be the same or different. If the user who sent the dispatch request is different from the user whose emotions are drawn, the user who sent the dispatch request may cause the emotions to be drawn more strongly by concealing the emotions to be pulled out to the user from whom the emotions are drawn. it can.

[2.2.感情誘導システムの構成]
続いて、図13Aおよび図13Bを参照して、本実施形態に係る感情誘導システムの構成を説明する。図13Aは、本実施形態に係る感情誘導システムに含まれる感情誘導装置2および情報処理端末7の機能構成を説明するブロック図である。また、図13Bは、本実施形態に係る感情誘導システムに含まれる情報処理サーバ6の機能構成を説明するブロック図である。
[2.2. Configuration of emotion induction system]
Then, with reference to FIG. 13A and FIG. 13B, the structure of the emotion guidance system which concerns on this embodiment is demonstrated. FIG. 13A is a block diagram illustrating functional configurations of the emotion guidance device 2 and the information processing terminal 7 included in the emotion guidance system according to the present embodiment. FIG. 13B is a block diagram illustrating a functional configuration of the information processing server 6 included in the emotion guidance system according to the present embodiment.

図13Aに示すように、感情誘導装置2は、位置検出部201と、出力部113と、撮像部115と、入力部101と、制御部120と、通信部125とを備える。また、情報処理端末7は、位置検出部701と、入力部703と、表示部705と、制御部707と、通信部709とを備える。  As illustrated in FIG. 13A, the emotion induction device 2 includes a position detection unit 201, an output unit 113, an imaging unit 115, an input unit 101, a control unit 120, and a communication unit 125. The information processing terminal 7 includes a position detection unit 701, an input unit 703, a display unit 705, a control unit 707, and a communication unit 709.

(感情誘導装置)
入力部101、出力部113、撮像部115、印刷部123、および通信部125については、本開示の第1の実施形態にて説明した構成と実質的に同様であるので、ここでの説明は省略する。
(Emotion induction device)
Since the input unit 101, the output unit 113, the imaging unit 115, the printing unit 123, and the communication unit 125 are substantially the same as the configurations described in the first embodiment of the present disclosure, the description here will be given. Omitted.

位置検出部201は、感情誘導装置2の位置情報を取得する。例えば、位置検出部201は、複数の人工衛星から送信される時刻情報付きの信号から感情誘導装置2の位置を算出するGNSS(Global Navigation Satellite System)センサであってもよい。また、位置検出部201は、GNSSによる測位を補助する情報をさらにネットワーク等から受信するA−GNSS(Assisted Global Navigation Satellite System)であってもよい。さらに、位置検出部201は、移動体通信網における基地局からの距離、またはWi−Fi(登録商標)のアクセスポイントからの距離を用いた三角測量法によって、感情誘導装置2の位置情報を算出するものであってもよい。  The position detection unit 201 acquires position information of the emotion guidance device 2. For example, the position detection unit 201 may be a GNSS (Global Navigation Satellite System) sensor that calculates the position of the emotion induction device 2 from signals with time information transmitted from a plurality of artificial satellites. Further, the position detection unit 201 may be an A-GNSS (Assisted Global Navigation Satellite System) that further receives information assisting positioning by GNSS from a network or the like. Furthermore, the position detection unit 201 calculates the position information of the emotion induction device 2 by triangulation using the distance from the base station in the mobile communication network or the distance from the Wi-Fi (registered trademark) access point. You may do.

制御部210は、感情誘導装置2の動作全般を制御する。具体的には、制御部210は、本開示の第1の実施形態にて説明した感情選択部103、出力選択部105、出力制御部109、スコア算出部117、画像編集部119等の機能を実行する。  The control unit 210 controls the overall operation of the emotion induction device 2. Specifically, the control unit 210 has the functions of the emotion selection unit 103, the output selection unit 105, the output control unit 109, the score calculation unit 117, the image editing unit 119, and the like described in the first embodiment of the present disclosure. Run.

(情報処理端末)
位置検出部701は、情報処理端末7の位置情報を取得する。例えば、位置検出部701は、複数の人工衛星から送信される時刻情報付きの信号から情報処理端末7の位置を算出するGNSSセンサであってもよい。また、位置検出部701は、GNSSによる測位を補助する情報をさらにネットワーク等から受信するA−GNSSであってもよい。さらに、位置検出部701は、移動体通信網における基地局からの距離、またはWi−Fiのアクセスポイントからの距離を用いた三角測量法によって、情報処理端末7の位置情報を算出するものであってもよい。
(Information processing terminal)
The position detection unit 701 acquires position information of the information processing terminal 7. For example, the position detection unit 701 may be a GNSS sensor that calculates the position of the information processing terminal 7 from signals with time information transmitted from a plurality of artificial satellites. The position detection unit 701 may be an A-GNSS that further receives information for assisting positioning by GNSS from a network or the like. Further, the position detection unit 701 calculates the position information of the information processing terminal 7 by triangulation using the distance from the base station in the mobile communication network or the distance from the Wi-Fi access point. May be.

入力部703は、タッチパネル、キーボード、ボタン、マイクロフォン、スイッチおよびレバーなどの情報が入力される入力装置等を含む。また、入力部703は、入力された情報に基づいて入力信号を生成し、制御部707に出力するための入力制御回路なども含む。  The input unit 703 includes an input device for inputting information such as a touch panel, a keyboard, a button, a microphone, a switch, and a lever. The input unit 703 also includes an input control circuit for generating an input signal based on the input information and outputting it to the control unit 707.

表示部705は、例えば、CRT(Cathod Ray Tube)表示装置、液晶表示装置、有機EL(Organic ElectroLuminessennce)表示装置などの表示装置を含む。表示部705は、情報処理サーバ6へ配車要求を入力するための入力画面、および情報処理サーバ6からの通知画面等を表示する。  The display unit 705 includes, for example, a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display device, or an organic EL (Organic ElectroLuminescence) display device. The display unit 705 displays an input screen for inputting a dispatch request to the information processing server 6, a notification screen from the information processing server 6, and the like.

制御部707は、CPU、ROM、およびRAMなどを備え、情報処理端末7の動作全般を制御する。例えば、制御部707は、ROM等に記憶された各種プログラムに従って、CPUにより演算処理することで、情報処理端末7の動作全般を制御する。なお、演算処理の実行において適宜変化するパラメータ等は、RAMに一時記憶される。  The control unit 707 includes a CPU, a ROM, a RAM, and the like, and controls the overall operation of the information processing terminal 7. For example, the control unit 707 controls the overall operation of the information processing terminal 7 by performing arithmetic processing by the CPU according to various programs stored in the ROM or the like. Note that parameters and the like that change as appropriate during execution of the arithmetic processing are temporarily stored in the RAM.

通信部709は、例えば、公衆回線網などのネットワーク5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信部709は、有線によるケーブル通信を行うケーブル通信装置であってもよく、有線または無線LAN対応通信装置であってもよい。  The communication unit 709 is a communication interface configured by a communication device or the like for connecting to the network 5 such as a public line network. The communication unit 709 may be a cable communication device that performs wired cable communication, or may be a wired or wireless LAN compatible communication device.

(情報処理サーバ)
また、図13Bに示すように、情報処理サーバ6は、通信部610と、制御部600と、ユーザ情報記憶部620と、配車管理情報記憶部630と、配車要求記憶部640と、地図情報記憶部650とを備える。また、制御部600は、ユーザ登録部601と、認証部602と、配車検索部603と、配車要求管理部604と、配車状況通知部605とを備える。
(Information processing server)
As shown in FIG. 13B, the information processing server 6 includes a communication unit 610, a control unit 600, a user information storage unit 620, a vehicle allocation management information storage unit 630, a vehicle allocation request storage unit 640, and a map information storage. Part 650. The control unit 600 includes a user registration unit 601, an authentication unit 602, a vehicle allocation search unit 603, a vehicle allocation request management unit 604, and a vehicle allocation status notification unit 605.

通信部610は、例えば、公衆回線網などのネットワーク5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信部610は、有線によるケーブル通信を行うケーブル通信装置であってもよく、有線または無線LAN対応通信装置であってもよい。  The communication unit 610 is a communication interface configured by a communication device for connecting to the network 5 such as a public line network. Further, the communication unit 610 may be a cable communication device that performs wired cable communication, or may be a wired or wireless LAN compatible communication device.

ユーザ登録部601は、ユーザ3の各種情報をユーザ情報記憶部620に登録する。具体的には、ユーザ登録部601は、ユーザ3のプロフィールに関する情報を情報処理端末7から受信し、ユーザ情報記憶部620に登録する。ユーザ3のプロフィールに関する情報とは、例えば、ユーザ3の画像、名前、年齢、職業、ユーザ名、パスワード、および一言コメントなどである。ユーザ3のプロフィールに関する情報のうち、ユーザ3の画像、名前、年齢、職業、および一言コメントについては、後述する配車要求への参加申請、および参加者を募集する配車要求を行う際に、ユーザ3のプロフィール情報として使用されてもよい。  The user registration unit 601 registers various information of the user 3 in the user information storage unit 620. Specifically, the user registration unit 601 receives information related to the profile of the user 3 from the information processing terminal 7 and registers it in the user information storage unit 620. The information related to the profile of the user 3 includes, for example, an image, a name, an age, an occupation, a user name, a password, and a single comment of the user 3. Among the information related to the profile of the user 3, the user 3's image, name, age, occupation, and a single comment, when making a request for participation in a vehicle allocation request to be described later and a vehicle allocation request for recruiting participants, 3 may be used as profile information.

ユーザ情報記憶部620は、ユーザ3の各種情報を記憶する。例えば、ユーザ情報記憶部620は、ユーザ3の画像、名前、年齢、職業、ユーザ名、パスワード、および一言コメントなどを紐付けて記憶する。また、ユーザ情報記憶部620は、ユーザ3が配車要求を送信した回数、ならびにユーザ3の配車要求の場所および日時などの履歴情報をさらに記憶してもよい。  The user information storage unit 620 stores various information of the user 3. For example, the user information storage unit 620 stores the image, name, age, occupation, user name, password, and single comment of the user 3 in association with each other. The user information storage unit 620 may further store history information such as the number of times that the user 3 has transmitted a vehicle allocation request and the location and date / time of the user 3 vehicle allocation request.

認証部602は、情報処理端末7から受信したログイン情報に基づいて、ユーザ3が登録されたユーザ3であることを認証する。具体的には、認証部602は、ユーザ名およびパスワードを含むログイン情報を情報処理端末7から受信し、ユーザ情報記憶部620に記憶されたユーザ名およびパスワードと一致するか否かを判断する。ユーザ名およびパスワードが一致した場合、認証部602は、ログイン情報を送信したユーザ3が登録されたユーザ3であることを認証する。ユーザ名およびパスワードが一致しなかった場合、認証部602は、ログイン情報を送信したユーザ3に認証に失敗したことを通知する。  The authentication unit 602 authenticates that the user 3 is the registered user 3 based on the login information received from the information processing terminal 7. Specifically, the authentication unit 602 receives login information including the user name and password from the information processing terminal 7 and determines whether or not the user name and password stored in the user information storage unit 620 match. When the user name and the password match, the authentication unit 602 authenticates that the user 3 who transmitted the login information is the registered user 3. When the user name and the password do not match, the authentication unit 602 notifies the user 3 who transmitted the login information that the authentication has failed.

配車検索部603は、情報処理端末7から感情誘導装置2の配車要求を受信した場合、配車要求に対応して配車可能な感情誘導装置2を検索する。具体的には、配車検索部603は、配車要求の場所および日時に対して、配車可能な感情誘導装置2を配車管理情報記憶部630に記憶された情報に基づいて検索する。  When the vehicle allocation search unit 603 receives a vehicle allocation request for the emotion guidance device 2 from the information processing terminal 7, the vehicle allocation search unit 603 searches for the emotion guidance device 2 that can be allocated in response to the vehicle allocation request. Specifically, the vehicle allocation search unit 603 searches for the emotion guidance device 2 that can be allocated for the location and date / time of the vehicle allocation request based on the information stored in the vehicle allocation management information storage unit 630.

例えば、配車要求において、すぐに感情誘導装置2を配車するよう要求されている場合、配車検索部603は、配車場所に所定時間以内(例えば、15分以内)に到着可能であり、かつ他のユーザを応対していない感情誘導装置2を検索する。  For example, when it is requested to dispatch the emotion induction device 2 immediately in the vehicle allocation request, the vehicle allocation search unit 603 can arrive at the vehicle allocation location within a predetermined time (for example, within 15 minutes), and other The emotion induction device 2 that does not respond to the user is searched.

また、例えば、配車要求において、場所および日時を指定されて感情誘導装置2を配車するよう要求されている場合、配車検索部603は、配車場所を担当エリアとしており、かつ配車日時の前後の間(例えば、配車日時の前後15分間の間)に配車要求が入っていない感情誘導装置2を検索する。  In addition, for example, in the vehicle allocation request, when the location and date / time are specified and the emotion induction device 2 is requested to be allocated, the vehicle allocation search unit 603 uses the vehicle allocation location as the area in charge and before and after the vehicle allocation date / time. A search is made for an emotion induction device 2 that has not received a vehicle allocation request (for example, for 15 minutes before and after the vehicle allocation date and time).

ユーザ3からの配車要求には、少なくとも感情誘導装置2を配車する場所および日時が含まれる。また、配車要求には、ユーザ3の人数、感情誘導装置2の種類の指定、引き出されたい感情が含まれていてもよい。なお、引き出されたい感情は、「キャッキャ(すなわち、明るく喜ぶ感情)」、「ドキドキ(すなわち、動揺する感情)」、「キュンキュン(すなわち、愛おしく思う感情)」、「ゲーッ、ムリー(すなわち、嫌がる感情)」、「今日は泣かせて(すなわち、悲しむ感情)」、および「えっ、マジ!?(すなわち、非常に驚く感情)」などのキーワードで表現されてもよい。  The allocation request from the user 3 includes at least the location and date / time at which the emotion induction device 2 is allocated. In addition, the dispatch request may include the number of users 3, designation of the type of emotion guidance device 2, and emotions to be drawn. The emotions that we want to draw out are “Kakkya (ie, emotions that are bright and happy)”, “Pounding (ie, emotions that are upset)”, “Kunkyung (ie, emotions that you love and love)”, “Gae, Muri (ie, I hate them) Emotions), “Today cry (ie, sad emotions)”, and “Eh, seriously !? (ie, very surprised emotions)”.

また、感情誘導装置2がユーザ3の表情を撮像する撮像部を備える場合、ユーザ3は、配車要求と前後して、撮像の際の背景および画像枠、ならびにエフェクトなどの編集素材などの撮像設定を情報処理サーバ6に送信してもよい。当該撮像設定は、情報処理サーバ6を介して感情誘導装置2に送信され、すぐに撮像することができるように、あらかじめ感情誘導装置2に設定される。また、当該撮像設定は、ユーザ3の引き出されたい感情に基づいて、情報処理サーバ6によって設定されてもよい。  In addition, when the emotion induction device 2 includes an imaging unit that captures the facial expression of the user 3, the user 3 sets the imaging settings such as the background and image frame at the time of imaging and editing materials such as effects before and after the request for dispatch. May be transmitted to the information processing server 6. The imaging setting is transmitted to the emotion induction device 2 via the information processing server 6 and is set in the emotion induction device 2 in advance so that the imaging can be performed immediately. Further, the imaging setting may be set by the information processing server 6 based on the emotion that the user 3 wants to draw.

配車管理情報記憶部630は、配車検索部603が配車要求に対応して配車可能な感情誘導装置2を検索するために必要な感情誘導装置2の情報を記憶する。具体的には、配車管理情報記憶部630は、感情誘導装置2の各々の状態を記憶する。例えば、配車管理情報記憶部630は、感情誘導装置2がユーザ3に接客していない状態(空車ともいう)であるのか、ユーザ3を接客している状態(接客中ともいう)であるのか、または配車要求に応じて配車場所に向かっているのか(配車中ともいう)を記憶する。また、配車管理情報記憶部630は、感情誘導装置2の各々に送信された配車要求の場所および日時を記憶する。さらに、配車管理情報記憶部630は、感情誘導装置2の各々の現在位置、および担当エリア等を記憶してもよい。  The vehicle allocation management information storage unit 630 stores information on the emotion induction device 2 necessary for the vehicle allocation search unit 603 to search for the emotion induction device 2 that can be allocated in response to a vehicle allocation request. Specifically, the vehicle allocation management information storage unit 630 stores each state of the emotion guidance device 2. For example, the vehicle allocation management information storage unit 630 is in a state where the emotion guidance device 2 is not serving the user 3 (also referred to as an empty vehicle) or a state where the user 3 is serving the customer (also referred to as customer service), Alternatively, it is stored whether the vehicle is heading to the place of dispatch in response to the dispatch request (also referred to as during dispatch). The vehicle allocation management information storage unit 630 stores the location and date / time of the vehicle allocation request transmitted to each of the emotion guidance devices 2. Furthermore, the vehicle allocation management information storage unit 630 may store the current position of each emotion guidance device 2, the assigned area, and the like.

配車要求管理部604は、配車要求に対して配車される感情誘導装置2が決定した場合、該配車要求を配車要求記憶部640に記憶し、かつ配車管理情報記憶部630に記憶された感情誘導装置2の情報を更新する。  The dispatch request management unit 604 stores the dispatch request in the dispatch request storage unit 640 and the emotion guide stored in the dispatch management information storage unit 630 when the emotion guidance device 2 to be dispatched in response to the dispatch request is determined. The information of the device 2 is updated.

また、配車要求管理部604は、配車要求に対して配車される感情誘導装置2が決定した場合、配車要求を送信したユーザ3に対して、配車される感情誘導装置2の情報を送信する。送信される感情誘導装置2の情報としては、例えば、感情誘導装置2の識別番号、感情誘導装置2の種類、運転者名、および感情誘導装置2の現在位置などである。さらに、配車要求管理部604は、検索された感情誘導装置2に対して、配車要求があった旨を通知し、配車場所および配車日時を含む配車要求を送信する。  Further, when the sentiment guidance device 2 to be dispatched in response to the dispatch request is determined, the dispatch request management unit 604 transmits information on the sentiment guidance device 2 to be dispatched to the user 3 who has transmitted the dispatch request. The sent information of the emotion induction device 2 includes, for example, the identification number of the emotion induction device 2, the type of the emotion induction device 2, the driver name, and the current position of the emotion induction device 2. Furthermore, the vehicle allocation request management unit 604 notifies the searched emotion guidance device 2 that there is a vehicle allocation request, and transmits a vehicle allocation request including the vehicle allocation location and the vehicle allocation date and time.

配車要求記憶部640は、配車される感情誘導装置2が決定した配車要求を記憶する。具体的には、配車要求記憶部640は、配車要求と、配車される感情誘導装置2、および配車要求を送信したユーザ3とを対応付けて記憶する。なお、感情誘導装置2の配車が完了した場合、配車が完了した配車要求は、配車要求記憶部640から削除されてもよい。  The dispatch request storage unit 640 stores the dispatch request determined by the sentiment guidance device 2 to be dispatched. Specifically, the vehicle allocation request storage unit 640 stores the vehicle allocation request, the sentiment guidance device 2 to be allocated, and the user 3 who has transmitted the vehicle allocation request in association with each other. In addition, when the dispatch of the emotion guidance device 2 is completed, the dispatch request for which the dispatch has been completed may be deleted from the dispatch request storage unit 640.

配車状況通知部605は、配車要求の配車日時の所定時間前(例えば、10分前など)から感情誘導装置2が配車場所に到着するまでの間、配車要求を送信したユーザ3に対して、配車中の感情誘導装置2の接近情報を通知する。具体的には、配車状況通知部605は、配車日時の所定時間前になった場合、配車中の感情誘導装置2から位置情報を取得し、取得した位置情報から感情誘導装置2の到着までの時間、および到着予定時刻などを算出する。また、配車状況通知部605は、配車要求を送信したユーザ3に対して、接近情報として、配車中の感情誘導装置2の位置情報、算出した感情誘導装置2の到着までの時間、および到着予定時刻などを通知する。なお、配車状況通知部605は、感情誘導装置2の位置と、配車場所との差が十分小さくなり、閾値以下となった場合、接近情報の通知を終了してもよい。  The dispatch status notifying unit 605 sends the dispatch request to the user 3 who has transmitted the dispatch request from a predetermined time before the dispatch date and time of the dispatch request (for example, 10 minutes before) until the emotion induction device 2 arrives at the dispatch location. The approach information of the emotion guidance device 2 during dispatch is notified. Specifically, the vehicle allocation status notifying unit 605 acquires position information from the emotion induction device 2 during vehicle allocation when a predetermined time before the vehicle allocation date and time, and from the acquired position information to the arrival of the emotion induction device 2 Time, estimated arrival time, etc. are calculated. In addition, the dispatch status notifying unit 605 provides the location information of the emotion guiding device 2 during dispatch, the calculated time to arrival of the emotion guiding device 2, and the arrival schedule as approach information to the user 3 who has transmitted the dispatch request. Notify time etc. In addition, the dispatch status notification unit 605 may end the notification of the approach information when the difference between the position of the emotion guidance device 2 and the dispatch location is sufficiently small and is equal to or less than the threshold value.

例えば、配車状況通知部605は、配車要求を送信したユーザ3に対して、図14で示すような画像にて接近情報を通知してもよい。図14は、配車中の感情誘導装置2の接近情報を通知する画像の一例である。  For example, the dispatch status notifying unit 605 may notify the approach information with an image as shown in FIG. 14 to the user 3 who has transmitted the dispatch request. FIG. 14 is an example of an image for notifying the approach information of the emotion guidance device 2 during dispatch.

図14に示すように、配車中の感情誘導装置2の接近情報を通知する画像800には、例えば、配車場所の位置を示す画像803と、配車中の感情誘導装置2の位置を示す画像805とが表示される。また、接近情報を通知する画像800には、配車場所の位置と、配車中の感情誘導装置2の位置とから算出された到着予定時刻「21:32」を知らせる画像801が表示されてもよい。  As shown in FIG. 14, for example, an image 800 for notifying the approach information of the emotion guidance device 2 during dispatch is an image 803 showing the position of the dispatch location and an image 805 showing the location of the emotion guidance device 2 during dispatch. Is displayed. In addition, in the image 800 for notifying the approach information, an image 801 for notifying the estimated arrival time “21:32” calculated from the position of the dispatch location and the position of the emotion guidance device 2 during dispatch may be displayed. .

地図情報記憶部650は、地図情報を記憶する。配車状況通知部605は、地図情報記憶部650に記憶された地図情報を用いることで、感情誘導装置2の到着までの時間、および到着予定時刻をより正確に算出することができる。また、地図情報記憶部650は、渋滞情報、および渋滞予測情報などをさらに記憶してもよい。  The map information storage unit 650 stores map information. The dispatch status notifying unit 605 can more accurately calculate the time until arrival of the emotion induction device 2 and the estimated arrival time by using the map information stored in the map information storage unit 650. The map information storage unit 650 may further store traffic jam information, traffic jam prediction information, and the like.

以上の構成を備える本実施形態に係る感情誘導システムによれば、ユーザ3は、希望する場所および日時にて感情誘導装置2による感情を引き出す出力を受けることができる。また、ユーザ3は、感情が引き出された表情を感情誘導装置2によってその場で撮像することも可能である。  According to the emotion guidance system according to the present embodiment having the above configuration, the user 3 can receive an output for extracting emotions from the emotion guidance device 2 at a desired place and date. In addition, the user 3 can also capture the facial expression from which the emotion is drawn on the spot using the emotion induction device 2.

さらに、本実施形態に係る感情誘導システムでは、ユーザ3が他のユーザと共に感情を引き出す出力を受け、感情が引き出された表情を他のユーザと一緒に撮像することが可能な仕組みを提供してもよい。  Furthermore, the emotion guidance system according to the present embodiment provides a mechanism that allows the user 3 to receive an output that extracts emotions together with other users, and to capture the facial expression from which the emotions are extracted together with the other users. Also good.

例えば、ユーザ3は、配車場所がユーザ3の周囲の所定範囲内である配車要求を確認し、該配車要求に対する参加申請を情報処理サーバ6に送信してもよい。このような場合、配車要求管理部604は、配車要求を送信したユーザに対して、ユーザ3からの参加申請をユーザ3のプロフィール情報と共に送信する。配車要求を送信したユーザがユーザ3からの参加申請を承認した場合、配車要求管理部604は、ユーザ3に参加申請が承認された旨を通知する。  For example, the user 3 may confirm a vehicle allocation request in which the vehicle allocation location is within a predetermined range around the user 3, and may transmit a participation application for the vehicle allocation request to the information processing server 6. In such a case, the vehicle allocation request management unit 604 transmits a participation application from the user 3 together with the profile information of the user 3 to the user who transmitted the vehicle allocation request. When the user who transmitted the vehicle allocation request approves the participation application from the user 3, the vehicle allocation request management unit 604 notifies the user 3 that the participation application has been approved.

これにより、ユーザ3は、配車要求の配車場所に向かうことで、配車要求を送信したユーザと共に感情誘導装置2による感情を引き出す出力を受けることができる。  Thereby, the user 3 can receive the output which extracts the emotion by the emotion guidance apparatus 2 with the user who transmitted the vehicle allocation request | requirement by heading to the vehicle allocation location of a vehicle allocation request | requirement.

例えば、ユーザ3は、図15で示すような画像により、ユーザ3の周囲の所定範囲内に存在する感情誘導装置2の位置、および配車場所を確認することができる。図15は、ユーザ3の周囲の所定範囲内における感情誘導装置2の位置を示す画像の一例である。  For example, the user 3 can confirm the position of the emotion guidance device 2 and the location of the vehicle in the predetermined range around the user 3 by using an image as shown in FIG. FIG. 15 is an example of an image showing the position of the emotion guidance device 2 within a predetermined range around the user 3.

図15に示すように、ユーザ3の周囲の所定範囲内に存在する感情誘導装置2の位置を示す画像810には、例えば、ユーザの現在位置を示す画像811が表示され、感情誘導装置2の位置を示す画像813、817、819が表示される。また、感情誘導装置2の位置を示す画像813、817、819には、それぞれ感情誘導装置2の状態を表す画像が表示され、参加申請を送信することが可能な感情誘導装置2を把握することができるようになっている。なお、配車中の感情誘導装置2には、配車場所を示す画像815も併せて表示される。これにより、参加申請を送信しようとするユーザ3は、配車要求に参加するために向かう配車場所を把握することができる。このような画像810は、例えば、配車要求管理部604によって生成されてもよい。  As shown in FIG. 15, for example, an image 811 indicating the current position of the user is displayed on the image 810 indicating the position of the emotion guiding device 2 existing within a predetermined range around the user 3. Images 813, 817, and 819 indicating the positions are displayed. In addition, the images 813, 817, and 819 indicating the position of the emotion induction device 2 are each displayed with an image representing the state of the emotion induction device 2, and the emotion induction device 2 capable of transmitting a participation application is grasped. Can be done. It should be noted that an image 815 showing the place of dispatch is also displayed on the emotion guidance device 2 during dispatch. Thereby, the user 3 who is going to transmit a participation application can grasp | ascertain the vehicle allocation place which goes to participate in a vehicle allocation request | requirement. Such an image 810 may be generated by the vehicle allocation request management unit 604, for example.

なお、参加申請を送信したユーザ3が配車日時に間に合わなかった場合、配車要求を送信したユーザ、および参加申請を送信したユーザ3は、別々に撮像し、それぞれの撮像画像が合成されてもよい。  In addition, when the user 3 who transmitted the participation application is not in time for the dispatch date and time, the user who transmitted the dispatch request and the user 3 who transmitted the participation application may capture images separately, and the respective captured images may be combined. .

また、例えば、ユーザ3は、参加者を募集する配車要求を情報処理サーバ6に送信してもよい。このような場合、配車要求管理部604は、参加者を募集する配車要求を他のユーザが閲覧可能に制御し、配車要求への参加者を募ることができる。他のユーザが該配車要求の募集に応じた場合、配車検索部603は、配車要求の場所および日時に配車可能な感情誘導装置2を検索し、配車要求管理部604は、検索された感情誘導装置2に配車要求を送信する。また、配車要求管理部604は、参加者を募集する配車要求を送信したユーザ3、および募集に応じたユーザに対して、配車される感情誘導装置2の情報を送信する。なお、配車要求の参加募集に応募可能なユーザ数は、一人に限定されず、複数人であってもよい。  Further, for example, the user 3 may transmit a vehicle allocation request for recruiting participants to the information processing server 6. In such a case, the vehicle allocation request management unit 604 can control the vehicle allocation request for recruiting participants to be viewable by other users, and can solicit participants for the vehicle allocation request. When another user responds to the request for the vehicle allocation request, the vehicle allocation search unit 603 searches for the emotion induction device 2 that can be allocated at the location and the date and time of the vehicle allocation request, and the vehicle allocation request management unit 604 A dispatch request is transmitted to the device 2. Further, the dispatch request management unit 604 transmits information on the sentiment guidance device 2 to be dispatched to the user 3 who has transmitted the dispatch request for recruiting participants and the user who has accepted the recruitment. In addition, the number of users who can apply for participation request for a dispatch request is not limited to one person, and may be a plurality of users.

なお、配車要求管理部604は、参加者を募集する配車要求をすべてのユーザに閲覧可能に制御するのではなく、特定のユーザにのみ閲覧可能に制御してもよい。例えば、配車要求管理部604は、参加者を募集する配車要求における配車場所から、所定の距離内に存在するユーザにのみ、該参加者を募集する配車要求を閲覧可能に制御してもよい。  In addition, the vehicle allocation request management unit 604 may control the allocation request for recruiting participants so that it can be viewed only by a specific user, instead of being controlled so that it can be viewed by all users. For example, the vehicle allocation request management unit 604 may control the vehicle allocation request for recruiting participants only to users who are within a predetermined distance from the vehicle allocation location in the vehicle allocation request for recruiting participants.

また、配車要求管理部604は、参加者を募集する配車要求にてユーザ3が引き出されたい感情と、引き出されたい感情が一致するユーザにのみ、該参加者を募集する配車要求が閲覧可能になるように制御してもよい。さらに、配車要求管理部604は、引き出されたい感情に基づいて、参加者を募集する配車要求と、配車要求の参加募集へ応募しようとするユーザとを自動的にマッチングしてもよい。なお、募集に応じるユーザの引き出されたい感情は、例えば、参加者を募集する配車要求を閲覧する際にユーザに入力させればよい。  In addition, the vehicle allocation request management unit 604 can view the vehicle allocation request for recruiting the participants only to the users whose emotions the user 3 wants to withdraw and the emotions to be withdrawn match in the vehicle allocation request for recruiting the participants. You may control so that it may become. Furthermore, the vehicle allocation request management unit 604 may automatically match a vehicle allocation request for recruiting a participant with a user who intends to apply for participation in the vehicle allocation request based on the emotion to be extracted. In addition, what is necessary is just to make a user input the emotion which a user who responds to a recruitment wants to draw, for example, when browsing a dispatch request for recruiting participants.

[2.3.感情誘導システムの動作]
続いて、図16A〜図18を参照して、本実施形態に係る感情誘導システムの動作について説明する。
[2.3. Behavior of emotion induction system]
Then, with reference to FIG. 16A-FIG. 18, operation | movement of the emotion guidance system which concerns on this embodiment is demonstrated.

まず、図16Aおよび図16Bを参照して、本実施形態に係る感情誘導システムの基本的な動作について説明する。図16Aおよび図16Bは、本実施形態に係る感情誘導システムの動作を説明するシーケンス図である。  First, the basic operation of the emotion guidance system according to the present embodiment will be described with reference to FIGS. 16A and 16B. 16A and 16B are sequence diagrams illustrating the operation of the emotion guidance system according to the present embodiment.

図16Aに示すように、まず、情報処理端末7(すなわち、ユーザ3)からユーザ登録情報が情報処理サーバ6に送信される(S201)。情報処理サーバ6は、送信されたユーザ登録情報をユーザ情報記憶部620に登録し(S202)、ユーザ登録の完了を情報処理端末7に通知する(S203)。  As shown in FIG. 16A, first, user registration information is transmitted from the information processing terminal 7 (ie, user 3) to the information processing server 6 (S201). The information processing server 6 registers the transmitted user registration information in the user information storage unit 620 (S202), and notifies the information processing terminal 7 of the completion of user registration (S203).

続いて、情報処理端末7からログイン情報が情報処理サーバ6に送信される(S204)。情報処理サーバ6は、ログイン情報に基づいて、ユーザ認証を行い(S205)、ユーザ認証が完了した場合、認証完了を情報処理端末7に通知する(S206)。次に、情報処理端末7は、感情誘導装置2の配車要求を情報処理サーバ6に送信する(S207)。  Subsequently, login information is transmitted from the information processing terminal 7 to the information processing server 6 (S204). The information processing server 6 performs user authentication based on the login information (S205), and when the user authentication is completed, notifies the information processing terminal 7 of the authentication completion (S206). Next, the information processing terminal 7 transmits a dispatch request for the emotion guidance device 2 to the information processing server 6 (S207).

情報処理サーバ6は、配車要求の場所および日時に配車可能な感情誘導装置2を検索し、配車する感情誘導装置2を選択する(S208)。続いて、情報処理サーバ6は、送信された配車要求と、配車する感情誘導装置2とを対応付けて記憶する(S210)。また、情報処理サーバ6は、感情誘導装置2に配車要求を送信し(S211)、配車する感情誘導装置2の情報を情報処理端末7に通知する(S212)。なお、情報処理端末7は、ユーザ登録後のいずれかのタイミングで撮像画像の背景、および編集素材等の撮像設定を情報処理サーバ6に送信してもよい(S209)。該撮像設定は、例えば、配車要求と同時に感情誘導装置2に送信されてもよい。  The information processing server 6 searches the emotion guidance device 2 that can be dispatched at the place and date / time of the dispatch request, and selects the emotion guidance device 2 to dispatch (S208). Subsequently, the information processing server 6 stores the transmitted allocation request and the sentiment guidance device 2 to be allocated in association with each other (S210). In addition, the information processing server 6 transmits a dispatch request to the emotion guidance device 2 (S211), and notifies the information processing terminal 7 of information on the emotion guidance device 2 to be dispatched (S212). The information processing terminal 7 may transmit the background of the captured image and the imaging settings such as the editing material to the information processing server 6 at any timing after user registration (S209). For example, the imaging setting may be transmitted to the emotion induction device 2 at the same time as the vehicle allocation request.

次に、図16Bに示すように、情報処理サーバ6は、配車予定時刻の所定時間前になったか否かを判断し(S221)、配車予定時刻の所定時間前になった場合、情報処理サーバ6は、配車される感情誘導装置2に現在位置の位置情報を送信するよう要求する(S222)。感情誘導装置2は、現在位置の位置情報を情報処理サーバ6に送信する(S224)。なお、感情誘導装置2は、当該タイミングにて受信していた撮像画像の背景、および編集素材等の撮像設定を反映してもよい(S223)。  Next, as shown in FIG. 16B, the information processing server 6 determines whether or not a predetermined time before the scheduled dispatch time (S221). 6 requests the sentiment guidance device 2 to be dispatched to transmit the position information of the current position (S222). The emotion guidance device 2 transmits the position information of the current position to the information processing server 6 (S224). Note that the emotion induction device 2 may reflect the imaging settings such as the background of the captured image received at the timing and the editing material (S223).

続いて、情報処理サーバ6は、感情誘導装置2が配車場所に到着する時間を演算し(S225)、配車される感情誘導装置2の位置情報、および到着予定時刻を情報処理端末7に通知する(S226)。情報処理端末7は、通知された感情誘導装置2の位置情報、および到着予定時刻を表示する(S227)。なお、S222〜S227の処理(ただし、S223の処理は除く)は、感情誘導装置2が配車場所に到達するまで、所定の間隔(例えば、1〜3分毎)にて繰り返し実行されてもよい。  Subsequently, the information processing server 6 calculates the time when the emotion guiding device 2 arrives at the dispatch location (S225), and notifies the information processing terminal 7 of the position information of the emotion guiding device 2 to be dispatched and the estimated arrival time. (S226). The information processing terminal 7 displays the notified position information of the emotion guiding device 2 and the estimated arrival time (S227). In addition, the process of S222-S227 (however, except the process of S223) may be repeatedly performed at predetermined intervals (for example, every 1 to 3 minutes) until the emotion induction device 2 reaches the dispatch location. .

次に、図17Aおよび図17Bを参照して、ユーザ3が配車要求に対する参加申請を送信した場合の本実施形態に係る感情誘導システムの動作について説明する。図17Aおよび図17Bは、本実施形態に係る感情誘導システムのユーザ3が配車要求に対する参加申請を送信した場合の動作を説明するシーケンス図である。なお、図17Aおよび図17Bにおいて、各ユーザのユーザ登録およびユーザ認証は、完了しているものとする。  Next, with reference to FIG. 17A and FIG. 17B, operation | movement of the emotion guidance system which concerns on this embodiment when the user 3 transmits the participation application with respect to a vehicle allocation request | requirement is demonstrated. FIG. 17A and FIG. 17B are sequence diagrams for explaining the operation when the user 3 of the emotion guidance system according to the present embodiment transmits a participation application for a dispatch request. In FIGS. 17A and 17B, it is assumed that user registration and user authentication for each user have been completed.

図17Aに示すように、まず、情報処理端末7B(すなわち、参加申請を送信するユーザ)は、情報処理端末7Bの周囲の感情誘導装置2の位置情報を情報処理サーバ6に要求する(S231)。情報処理サーバ6は、感情誘導装置2の位置情報を検索し(S232)、感情誘導装置2の位置情報を情報処理端末7Bに送信する(S233)。これにより、感情誘導装置2の位置と、該感情誘導装置2に対する配車要求が情報処理端末7Bに表示され、ユーザは、周囲の感情誘導装置2に送信された配車要求を確認することができる(S234)。  As illustrated in FIG. 17A, first, the information processing terminal 7B (that is, a user who transmits a participation application) requests the information processing server 6 for position information of the emotion guidance device 2 around the information processing terminal 7B (S231). . The information processing server 6 searches the positional information of the emotion guiding device 2 (S232), and transmits the positional information of the emotion guiding device 2 to the information processing terminal 7B (S233). Thereby, the position of the emotion induction device 2 and the vehicle allocation request for the emotion induction device 2 are displayed on the information processing terminal 7B, and the user can confirm the vehicle allocation request transmitted to the surrounding emotion induction device 2 ( S234).

ここで、配車要求に対する参加申請が情報処理端末7Bから情報処理サーバ6に送信された(S235)場合、情報処理サーバ6は、配車要求に対する参加申請と、申請したユーザのプロフィール情報とを情報処理端末7A(すなわち、配車要求を送信したユーザ3)に送信する(S236)。情報処理端末7Aから参加申請に対する承認が情報処理サーバ6に送信された(S237)場合、情報処理サーバ6は、配車要求に対する参加申請の承認を記憶し(S238)、情報処理端末7Bに参加申請の承認を通知する(S239)。  Here, when the participation application for the vehicle allocation request is transmitted from the information processing terminal 7B to the information processing server 6 (S235), the information processing server 6 processes the participation application for the vehicle allocation request and the profile information of the applied user. It transmits to the terminal 7A (that is, the user 3 who transmitted the vehicle allocation request) (S236). When the approval for the participation application is transmitted from the information processing terminal 7A to the information processing server 6 (S237), the information processing server 6 stores the approval of the participation application for the vehicle allocation request (S238) and applies to the information processing terminal 7B. Is notified (S239).

次に、図17Bに示すように、情報処理サーバ6は、配車予定時刻の所定時間前になったか否かを判断し(S221)、配車予定時刻の所定時間前になった場合、情報処理サーバ6は、配車される感情誘導装置2に現在位置の位置情報を送信するよう要求する(S222)。感情誘導装置2は、現在位置の位置情報を情報処理サーバ6に送信する(S224)。なお、感情誘導装置2は、当該タイミングにて受信していた撮像画像の背景、および編集素材等の撮像設定を反映させてもよい(S223)。  Next, as shown in FIG. 17B, the information processing server 6 determines whether or not a predetermined time before the scheduled dispatch time (S221). 6 requests the sentiment guidance device 2 to be dispatched to transmit the position information of the current position (S222). The emotion guidance device 2 transmits the position information of the current position to the information processing server 6 (S224). The emotion induction device 2 may reflect the background of the captured image received at the timing and the imaging settings such as the editing material (S223).

続いて、情報処理サーバ6は、感情誘導装置2が配車場所に到着する時間を演算し(S225)、配車される感情誘導装置2の位置情報、および到着予定時刻を情報処理端末7Aおよび7Bに通知する(S226A、S226B)。情報処理端末7Aおよび7Bは、通知された感情誘導装置2の位置情報、および到着予定時刻を表示する(S227A、S227B)。なお、S222〜S227A、S227Bの処理(ただし、S223の処理は除く)は、感情誘導装置2が配車場所に到達するまで、所定の間隔(例えば、1〜3分毎)にて繰り返し実行されてもよい。  Subsequently, the information processing server 6 calculates the time at which the emotion guiding device 2 arrives at the dispatch location (S225), and sends the position information of the sent emotion guiding device 2 to be dispatched and the estimated arrival time to the information processing terminals 7A and 7B. Notification is made (S226A, S226B). The information processing terminals 7A and 7B display the notified position information of the emotion guiding device 2 and the estimated arrival time (S227A, S227B). Note that the processing of S222 to S227A and S227B (excluding the processing of S223) is repeatedly executed at a predetermined interval (for example, every 1 to 3 minutes) until the emotion induction device 2 reaches the dispatch location. Also good.

また、図17Bでは、図の便宜上、S226AおよびS226Bの処理は、異なるタイミングで実行されるように示したが、S226AおよびS226Bの処理は、同じタイミングで実行されてもよい。  In FIG. 17B, for convenience of illustration, the processing of S226A and S226B is shown to be executed at different timings, but the processing of S226A and S226B may be executed at the same timing.

ここで、図18を参照して、ユーザ3が参加者を募集する配車要求を送信した場合の本実施形態に係る感情誘導システムの動作について説明する。図18は、本実施形態に係る感情誘導システムのユーザ3が参加者を募集する配車要求を送信した場合の動作を説明するシーケンス図である。  Here, with reference to FIG. 18, operation | movement of the emotion guidance system which concerns on this embodiment when the user 3 transmits the dispatch request which recruits participants is demonstrated. FIG. 18 is a sequence diagram illustrating an operation when the user 3 of the emotion guidance system according to the present embodiment transmits a vehicle allocation request for recruiting participants.

なお、図18において、各ユーザのユーザ登録およびユーザ認証は、完了しているものとする。また、図18で示した処理以降の配車予定時刻の所定時間前になってからの処理については、図17Bを参照して説明した処理と同様であるため、ここでの説明は省略する。  In FIG. 18, it is assumed that user registration and user authentication for each user have been completed. Further, the processing after a predetermined time before the scheduled dispatch time after the processing shown in FIG. 18 is the same as the processing described with reference to FIG. 17B, and thus description thereof is omitted here.

図18に示すように、まず、情報処理端末7A(すなわち、参加者を募集する配車要求を送信するユーザ3)は、参加者を募集する配車要求を情報処理サーバ6に送信する(S241)。次に、情報処理サーバ6は、送信された配車要求を記憶する(S242)。ここで、情報処理端末7Bから参加者を募集している配車要求の閲覧を要求された(S243)場合、情報処理サーバ6は、参加者を募集している配車要求の情報を情報処理端末7Bに送信する(S244)。これにより、参加者を募集している配車要求の情報が情報処理端末7Bに表示され、ユーザは、参加者を募集している配車要求を確認することができる(S245)。  As shown in FIG. 18, first, the information processing terminal 7A (that is, the user 3 who transmits a dispatch request for recruiting participants) transmits a dispatch request for recruiting participants to the information processing server 6 (S241). Next, the information processing server 6 stores the transmitted vehicle allocation request (S242). Here, when the information processing terminal 7B requests browsing of a dispatch request for recruiting participants (S243), the information processing server 6 displays information on the dispatch request for recruiting participants in the information processing terminal 7B. (S244). Thereby, the information on the dispatch request for recruiting participants is displayed on the information processing terminal 7B, and the user can confirm the dispatch request for recruiting participants (S245).

ここで、情報処理端末7Bから配車要求の参加募集への応募が送信された(S246)場合、情報処理サーバ6は、送信された参加募集への応募を情報処理端末7Aに送信する(S247)。また、情報処理サーバ6は、配車要求の場所および日時に配車可能な感情誘導装置2を検索し、配車する感情誘導装置2を選択する(S248)。続いて、情報処理サーバ6は、配車要求と、配車する感情誘導装置2とを対応付けて記憶する(S249)。また、情報処理サーバ6は、感情誘導装置2に配車要求を送信し(S250)、配車する感情誘導装置2の情報を情報処理端末7Aおよび7Bに通知する(S251A、S251B)。  Here, when the application for participation request of the dispatch request is transmitted from the information processing terminal 7B (S246), the information processing server 6 transmits the transmitted application for participation invitation to the information processing terminal 7A (S247). . Further, the information processing server 6 searches for the emotion guidance device 2 that can be dispatched at the location and date / time of the dispatch request, and selects the emotion guidance device 2 to be dispatched (S248). Subsequently, the information processing server 6 stores the vehicle allocation request and the emotion guidance device 2 to be allocated in association with each other (S249). The information processing server 6 transmits a vehicle allocation request to the emotion guidance device 2 (S250), and notifies the information processing terminals 7A and 7B of information on the emotion guidance device 2 to be allocated (S251A, S251B).

なお、情報処理端末7Aは、いずれかのタイミングで撮像画像の背景、および編集素材等の撮像設定を情報処理サーバ6に送信してもよい。該撮像設定は、例えば、配車要求と同時に感情誘導装置2に送信される。  Note that the information processing terminal 7A may transmit the imaging settings such as the background of the captured image and the editing material to the information processing server 6 at any timing. The imaging setting is transmitted to the emotion induction device 2 at the same time as a vehicle allocation request, for example.

また、図18では、図の便宜上、S250、S251AおよびS251Bの処理は、異なるタイミングで実行されるように示したが、S250、S251AおよびS251Bの処理は、同じタイミングで実行されてもよい。  In FIG. 18, for the sake of convenience, the processes of S250, S251A, and S251B are shown to be executed at different timings, but the processes of S250, S251A, and S251B may be executed at the same timing.

以上にて、本実施形態に係る感情誘導システムの動作について詳細に説明した。本実施形態に係る感情誘導システムによれば、ユーザ3は、希望する場所および日時にて感情誘導装置2による感情を引き出す出力を受けることができる。また、本実施形態に係る感情誘導システムによれば、ユーザ3は、他のユーザと共に感情を引き出す出力を受け、感情が引き出された表情を他のユーザと一緒に撮像することも可能である。  The operation of the emotion guidance system according to this embodiment has been described in detail above. According to the emotion guidance system according to the present embodiment, the user 3 can receive an output for extracting emotions from the emotion guidance device 2 at a desired place and date. Moreover, according to the emotion guidance system which concerns on this embodiment, the user 3 can also receive the output which extracts an emotion with another user, and can image the facial expression from which the emotion was pulled out with the other user.

[2.4.ハードウェア構成]
以下では、図19を参照して、本実施形態に係る情報処理サーバ6のハードウェア構成の一例について説明する。図19は、本実施形態に係る情報処理サーバ6のハードウェア構成例を示したブロック図である。なお、本実施形態に係る情報処理サーバ6による情報処理は、ソフトウェアとハードウェアとの協働によって実現される。
[2.4. Hardware configuration]
Hereinafter, an example of a hardware configuration of the information processing server 6 according to the present embodiment will be described with reference to FIG. FIG. 19 is a block diagram illustrating a hardware configuration example of the information processing server 6 according to the present embodiment. Information processing by the information processing server 6 according to the present embodiment is realized by cooperation of software and hardware.

図19に示すように、情報処理サーバ6は、CPU661と、ROM663と、RAM665と、ブリッジ671と、内部バス667および669と、インタフェース673と、入力装置675と、出力装置677と、ストレージ装置679と、ドライブ681と、接続ポート683と、通信装置685と、を備える。  As illustrated in FIG. 19, the information processing server 6 includes a CPU 661, a ROM 663, a RAM 665, a bridge 671, internal buses 667 and 669, an interface 673, an input device 675, an output device 677, and a storage device 679. A drive 681, a connection port 683, and a communication device 685.

CPU661は、演算処理装置および制御装置として機能し、ROM663等に記憶された各種プログラムに従って、情報処理サーバ6の動作全般を制御する。ROM663は、CPU661が使用するプログラム、演算パラメータを記憶し、RAM665は、CPU661の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。例えば、CPU661は、制御部600等の機能を実行してもよい。  The CPU 661 functions as an arithmetic processing unit and a control unit, and controls the overall operation of the information processing server 6 according to various programs stored in the ROM 663 and the like. The ROM 663 stores programs and calculation parameters used by the CPU 661, and the RAM 665 temporarily stores programs used in the execution of the CPU 661, parameters that change as appropriate in the execution, and the like. For example, the CPU 661 may execute functions of the control unit 600 and the like.

これらCPU661、ROM663およびRAM665は、ブリッジ671、内部バス667および669等により相互に接続されている。また、CPU661、ROM663およびRAM665は、インタフェース673を介して入力装置675、出力装置677、ストレージ装置679、ドライブ681、接続ポート683および通信装置685とも接続されている。  The CPU 661, ROM 663, and RAM 665 are connected to each other by a bridge 671, internal buses 667 and 669, and the like. The CPU 661, ROM 663, and RAM 665 are also connected to an input device 675, an output device 677, a storage device 679, a drive 681, a connection port 683, and a communication device 685 via an interface 673.

入力装置675は、タッチパネル、キーボード、マウス、ボタン、マイクロフォン、スイッチおよびレバーなどの各種情報が入力される入力装置を含む。また、入力装置675は、入力された情報に基づいて入力信号を生成し、CPU661に出力するための入力制御回路なども含む。  The input device 675 includes an input device for inputting various information such as a touch panel, a keyboard, a mouse, a button, a microphone, a switch, and a lever. The input device 675 also includes an input control circuit for generating an input signal based on the input information and outputting it to the CPU 661.

出力装置677は、例えば、CRT(Cathod Ray Tube)表示装置、液晶表示装置、有機EL(Organic ElectroLuminessennce)表示装置などの表示装置、およびスピーカおよびヘッドフォンなどの音声出力装置を含む。  The output device 677 includes, for example, a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display device, an organic EL (Organic ElectroLuminescence) display device, and an audio output device such as a speaker and headphones.

ストレージ装置679は、情報処理サーバ6の記憶部の一例として構成されるデータ格納用の装置である。ストレージ装置679は、記憶媒体、記憶媒体にデータを記憶する記憶装置、記憶媒体からデータを読み出す読み出し装置、および記憶されたデータを削除する削除装置を含んでもよい。ストレージ装置679は、例えば、ユーザ情報記憶部620、配車管理情報記憶部630、配車要求記憶部640、および地図情報記憶部650等の機能を実行してもよい。  The storage device 679 is a data storage device configured as an example of a storage unit of the information processing server 6. The storage device 679 may include a storage medium, a storage device that stores data in the storage medium, a reading device that reads data from the storage medium, and a deletion device that deletes stored data. The storage device 679 may execute functions such as a user information storage unit 620, a vehicle allocation management information storage unit 630, a vehicle allocation request storage unit 640, and a map information storage unit 650, for example.

ドライブ681は、記憶媒体用リードライタであり、情報処理サーバ6に内蔵、または外付けされる。例えば、ドライブ681は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記憶されている情報を読み出し、RAM663に出力する。また、ドライブ681は、リムーバブル記憶媒体に情報を書き込むことも可能である。  The drive 681 is a storage medium reader / writer, and is built in or externally attached to the information processing server 6. For example, the drive 681 reads information stored in a mounted removable storage medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs the information to the RAM 663. The drive 681 can also write information to a removable storage medium.

接続ポート683は、例えば、USBポート、イーサネット(登録商標)ポート、IEEE80671規格ポート、および光オーディオ端子等のような外部接続機器を接続するための接続ポートで構成された接続インタフェースである。  The connection port 683 is a connection interface including connection ports for connecting external connection devices such as a USB port, an Ethernet (registered trademark) port, an IEEE 80671 standard port, and an optical audio terminal, for example.

通信装置685は、例えば、公衆回線網などのネットワーク5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置685は、有線によるケーブル通信を行うケーブル通信装置であってもよく、有線または無線LAN対応通信装置であってもよい。例えば、通信装置685は、通信部610の機能を実行してもよい。  The communication device 685 is a communication interface configured by a communication device for connecting to the network 5 such as a public line network, for example. The communication device 685 may be a cable communication device that performs wired cable communication, or may be a wired or wireless LAN compatible communication device. For example, the communication device 685 may execute the function of the communication unit 610.

また、情報処理サーバ6に内蔵されるCPU、ROMおよびRAMなどのハードウェアを上述した情報処理サーバ6の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。  Further, it is possible to create a computer program for causing hardware such as a CPU, a ROM, and a RAM built in the information processing server 6 to exhibit functions equivalent to those of the information processing server 6 described above. A storage medium storing the computer program is also provided.

<3.まとめ>
以上にて、説明したように、本開示の第1の実施形態に係る感情誘導システムによれば、ユーザ3から自然な表情を引き出すことが可能である。また、本開示の第1の実施形態に係る感情誘導システムによれば、自然な感情が引き出されたユーザ3の表情を撮像装置にて撮像することも可能である。
<3. Summary>
As described above, according to the emotion induction system according to the first embodiment of the present disclosure, it is possible to draw a natural expression from the user 3. Moreover, according to the emotion guidance system which concerns on 1st Embodiment of this indication, it is also possible to image with the imaging device the facial expression of the user 3 from whom the natural emotion was drawn.

また、本開示の第2の実施形態に係る感情誘導システムによれば、ユーザ3は、希望する場所および日時にて感情誘導装置2による感情を引き出す出力を受けることができる。また、本開示の第2の実施形態に係る感情誘導システムによれば、ユーザ3は、他のユーザと共に感情を引き出す出力を受け、感情が引き出された表情を他のユーザと一緒に撮像することも可能である。  Moreover, according to the emotion guidance system which concerns on 2nd Embodiment of this indication, the user 3 can receive the output which extracts the emotion by the emotion guidance apparatus 2 in the desired place and date. In addition, according to the emotion guidance system according to the second embodiment of the present disclosure, the user 3 receives an output that extracts emotion together with other users, and images the facial expression from which the emotion is extracted together with the other users. Is also possible.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。  The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。  Further, the effects described in the present specification are merely illustrative or exemplary and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザから引き出す感情を選択する感情選択部と、
選択された感情に応じて前記ユーザへの出力を制御する出力制御部と、
を備える感情誘導システム。
(2)
前記感情選択部は、前記ユーザの画像または音声の少なくともいずれかに基づいて、前記ユーザから引き出す感情を選択する、前記(1)に記載の感情誘導システム。
(3)
前記感情選択部は、前記ユーザに対する質問、および前記質問への回答に基づいて、前記ユーザから引き出す感情を選択する、前記(1)に記載の感情誘導システム。
(4)
前記出力は、前記ユーザの五感の少なくともいずれか1つ以上に働きかけることで、選択された感情を前記ユーザから引き出す、前記(1)〜(3)のいずれか一項に記載の感情誘導システム。
(5)
前記出力制御部は、前記選択された感情に応じて、触感または形状の少なくともいずれかが互いに異なるオブジェクトの中から、前記ユーザから内部が視認されない箱体の内部に提供されるオブジェクトを制御する、前記(1)〜(4)のいずれか一項に記載の感情誘導システム。
(6)
前記選択された感情が引き出された前記ユーザを撮像する撮像部をさらに備える、前記(1)〜(5)のいずれか一項に記載の感情誘導システム。
(7)
前記ユーザの画像または音声の少なくともいずれかに基づいて、前記選択された感情と、前記ユーザの感情との類似の程度を表す類似スコアを算出するスコア算出部をさらに備え、
前記撮像部は、前記類似スコアが閾値以上の時の前記ユーザの画像を取得する、前記(6)に記載の感情誘導システム。
(8)
前記ユーザからの入力に基づいて、撮像された前記ユーザの画像を編集する画像編集部をさらに備え、
撮像された前記ユーザの画像は、前記選択された感情に応じた編集素材にて編集される、前記(6)または(7)に記載の感情誘導システム。
(9)
移動体に備えられ、前記ユーザに対して、前記選択された感情に応じた出力を行う感情誘導装置をさらに含む、前記(1)〜(8)のいずれか一項に記載の感情誘導システム。(10)
前記感情誘導装置の配車要求を登録し、前記配車要求に含まれる配車場所および配車日時に配車可能な前記感情誘導装置に、前記配車要求を送信する配車要求管理部、を備える情報処理サーバをさらに含む、前記(9)に記載の感情誘導システム。
(11)
前記配車要求は、前記ユーザから引き出す感情に関する情報をさらに含む、前記(10)に記載の感情誘導システム。
(12)
前記感情誘導装置は、前記選択された感情が引き出された前記ユーザを撮像する撮像部をさらに備え、
前記配車要求は、撮像設定に関する情報をさらに含む、前記(10)または(11)に記載の感情誘導システム。
(13)
前記情報処理サーバは、前記配車要求を送信した前記感情誘導装置から該感情誘導装置の位置情報を取得し、前記配車要求を登録したユーザに対して、前記感情誘導装置の接近情報を通知する配車状況通知部をさらに備える、前記(10)〜(12)のいずれか一項に記載の感情誘導システム。
(14)
前記配車要求管理部は、他のユーザからの前記配車要求に対する参加申請を受け付け、前記配車要求を登録したユーザに前記参加申請を送信する、前記(10)〜(13)のいずれか一項に記載の感情誘導システム。
(15)
前記配車要求管理部は、参加者を募集する配車要求を登録し、前記配車要求の募集に応じた参加者がいる場合、前記配車要求に含まれる配車場所および配車日時に配車可能な前記感情誘導装置に、前記配車要求を送信する、前記(10)〜(14)のいずれか一項に記載の感情誘導システム。
(16)
前記配車要求管理部は、前記ユーザから引き出す感情と、前記参加者から引き出す感情が一致するように、前記参加者が閲覧可能な前記配車要求を制御する、前記(15)に記載の感情誘導システム。
(17)
ユーザから引き出す感情を選択することと、
演算処理装置によって、選択された感情に応じて前記ユーザへの出力を制御することと、
を含む感情誘導方法。
The following configurations also belong to the technical scope of the present disclosure.
(1)
An emotion selector that selects emotions to be drawn from the user;
An output control unit for controlling output to the user according to the selected emotion;
Emotion induction system with
(2)
The emotion induction system according to (1), wherein the emotion selection unit selects an emotion to be extracted from the user based on at least one of the user's image or sound.
(3)
The emotion induction system according to (1), wherein the emotion selection unit selects an emotion to be extracted from the user based on a question to the user and an answer to the question.
(4)
The emotion output system according to any one of (1) to (3), wherein the output works to at least one of the five senses of the user to extract a selected emotion from the user.
(5)
The output control unit controls an object provided in a box whose inside is not visually recognized by the user from among objects having at least one of tactile sensation and shape different from each other according to the selected emotion. The emotion induction system according to any one of (1) to (4).
(6)
The emotion induction system according to any one of (1) to (5), further including an imaging unit that images the user from which the selected emotion is drawn.
(7)
A score calculating unit that calculates a similarity score representing a degree of similarity between the selected emotion and the user's emotion based on at least one of the user's image and sound;
The emotion induction system according to (6), wherein the imaging unit acquires an image of the user when the similarity score is a threshold value or more.
(8)
An image editing unit that edits the captured image of the user based on an input from the user;
The emotion induction system according to (6) or (7), wherein the captured image of the user is edited with an editing material corresponding to the selected emotion.
(9)
The emotion induction system according to any one of (1) to (8), further including an emotion induction device that is provided in a moving body and outputs an output corresponding to the selected emotion to the user. (10)
An information processing server further comprising: a vehicle allocation request management unit that registers a vehicle allocation request of the emotion guidance device and transmits the vehicle allocation request to the emotion guidance device that can be allocated at a vehicle allocation location and a vehicle allocation date and time included in the vehicle allocation request. The emotion induction system according to (9) above.
(11)
The emotion guidance system according to (10), wherein the dispatch request further includes information on emotions to be drawn from the user.
(12)
The emotion induction device further includes an imaging unit that images the user from which the selected emotion is drawn,
The said dispatch request | requirement is an emotion guidance system as described in said (10) or (11) which further contains the information regarding imaging setting.
(13)
The information processing server acquires position information of the emotion guidance device from the emotion guidance device that has transmitted the vehicle allocation request, and notifies the user who has registered the vehicle allocation request of approach information of the emotion guidance device The emotion induction system according to any one of (10) to (12), further including a situation notification unit.
(14)
The said dispatch request management part receives the participation application with respect to the said dispatch request from another user, and transmits the said participation application to the user who registered the said dispatch request, In any one of said (10)-(13) The described emotion induction system.
(15)
The dispatch request management unit registers a dispatch request for recruiting participants, and when there is a participant in response to the recruitment of the dispatch request, the emotion induction that can be dispatched at the dispatch location and the dispatch date / time included in the dispatch request The emotion guidance system according to any one of (10) to (14), wherein the dispatch request is transmitted to a device.
(16)
The emotion guidance system according to (15), wherein the dispatch request management unit controls the dispatch request that can be browsed by the participant so that the emotion drawn from the user matches the emotion drawn from the participant. .
(17)
Selecting emotions to draw from users,
Controlling the output to the user according to the selected emotion by the arithmetic processing unit;
Emotion induction method including.

1、2 感情誘導装置
3 ユーザ
4 移動体
6 情報処理サーバ
7 情報処理端末
103 感情選択部
105 出力選択部
107 感情テーブル記憶部
109 出力制御部
111 出力パターン記憶部
113 出力部
115 撮像部
117 スコア算出部
119 画像編集部
121 編集素材記憶部
123 印刷部
125 通信部
DESCRIPTION OF SYMBOLS 1, 2 Emotion guidance device 3 User 4 Mobile body 6 Information processing server 7 Information processing terminal 103 Emotion selection part 105 Output selection part 107 Emotion table memory | storage part 109 Output control part 111 Output pattern memory | storage part 113 Output part 115 Imaging part 117 Score calculation 119 Image editing unit 121 Editing material storage unit 123 Printing unit 125 Communication unit

Claims (17)

ユーザから引き出す感情を選択する感情選択部と、
選択された感情に応じて前記ユーザへの出力を制御する出力制御部と、
を備える感情誘導システム。
An emotion selector that selects emotions to be drawn from the user;
An output control unit for controlling output to the user according to the selected emotion;
Emotion induction system with
前記感情選択部は、前記ユーザの画像または音声の少なくともいずれかに基づいて、前記ユーザから引き出す感情を選択する、請求項1に記載の感情誘導システム。  The emotion induction system according to claim 1, wherein the emotion selection unit selects an emotion to be extracted from the user based on at least one of the user's image or sound. 前記感情選択部は、前記ユーザに対する質問、および前記質問への回答に基づいて、前記ユーザから引き出す感情を選択する、請求項1に記載の感情誘導システム。  The emotion induction system according to claim 1, wherein the emotion selection unit selects an emotion to be extracted from the user based on a question to the user and an answer to the question. 前記出力は、前記ユーザの五感の少なくともいずれか1つ以上に働きかけることで、選択された感情を前記ユーザから引き出す、請求項1に記載の感情誘導システム。  The emotion output system according to claim 1, wherein the output works to at least one or more of the five senses of the user to extract a selected emotion from the user. 前記出力制御部は、前記選択された感情に応じて、触感または形状の少なくともいずれかが互いに異なるオブジェクトの中から、前記ユーザから内部が視認されない箱体の内部に提供されるオブジェクトを制御する、請求項1に記載の感情誘導システム。  The output control unit controls an object provided in a box whose inside is not visually recognized by the user from among objects having at least one of tactile sensation and shape different from each other according to the selected emotion. The emotion induction system according to claim 1. 前記選択された感情が引き出された前記ユーザを撮像する撮像部をさらに備える、請求項1に記載の感情誘導システム。  The emotion guidance system according to claim 1, further comprising an imaging unit that images the user from which the selected emotion is drawn. 前記ユーザの画像または音声の少なくともいずれかに基づいて、前記選択された感情と、前記ユーザの感情との類似の程度を表す類似スコアを算出するスコア算出部をさらに備え、
前記撮像部は、前記類似スコアが閾値以上の時の前記ユーザの画像を取得する、請求項6に記載の感情誘導システム。
A score calculating unit that calculates a similarity score representing a degree of similarity between the selected emotion and the user's emotion based on at least one of the user's image and sound;
The emotion induction system according to claim 6, wherein the imaging unit acquires an image of the user when the similarity score is equal to or greater than a threshold value.
前記ユーザからの入力に基づいて、撮像された前記ユーザの画像を編集する画像編集部をさらに備え、
撮像された前記ユーザの画像は、前記選択された感情に応じた編集素材にて編集される、請求項6に記載の感情誘導システム。
An image editing unit that edits the captured image of the user based on an input from the user;
The emotion induction system according to claim 6, wherein the captured image of the user is edited with an editing material corresponding to the selected emotion.
移動体に備えられ、前記ユーザに対して、前記選択された感情に応じた出力を行う感情誘導装置をさらに含む、請求項1に記載の感情誘導システム。  The emotion induction system according to claim 1, further comprising an emotion induction device that is provided in a moving body and outputs an output corresponding to the selected emotion to the user. 前記感情誘導装置の配車要求を登録し、前記配車要求に含まれる配車場所および配車日時に配車可能な前記感情誘導装置に、前記配車要求を送信する配車要求管理部、を備える情報処理サーバをさらに含む、請求項9に記載の感情誘導システム。  An information processing server further comprising: a vehicle allocation request management unit that registers a vehicle allocation request of the emotion guidance device and transmits the vehicle allocation request to the emotion guidance device that can be allocated at a vehicle allocation location and a vehicle allocation date and time included in the vehicle allocation request. The emotion induction system according to claim 9, comprising: 前記配車要求は、前記ユーザから引き出す感情に関する情報をさらに含む、請求項10に記載の感情誘導システム。  The emotion guidance system according to claim 10, wherein the dispatch request further includes information on emotions to be drawn from the user. 前記感情誘導装置は、前記選択された感情が引き出された前記ユーザを撮像する撮像部をさらに備え、
前記配車要求は、撮像設定に関する情報をさらに含む、請求項10に記載の感情誘導システム。
The emotion induction device further includes an imaging unit that images the user from which the selected emotion is drawn,
The emotion guidance system according to claim 10, wherein the dispatch request further includes information related to imaging settings.
前記情報処理サーバは、前記配車要求を送信した前記感情誘導装置から該感情誘導装置の位置情報を取得し、前記配車要求を登録したユーザに対して、前記感情誘導装置の接近情報を通知する配車状況通知部をさらに備える、請求項10に記載の感情誘導システム。  The information processing server acquires position information of the emotion guidance device from the emotion guidance device that has transmitted the vehicle allocation request, and notifies the user who has registered the vehicle allocation request of approach information of the emotion guidance device The emotion induction system according to claim 10, further comprising a situation notification unit. 前記配車要求管理部は、他のユーザからの前記配車要求に対する参加申請を受け付け、前記配車要求を登録したユーザに前記参加申請を送信する、請求項10に記載の感情誘導システム。  The emotion guidance system according to claim 10, wherein the dispatch request management unit accepts a participation request for the dispatch request from another user and transmits the participation request to a user who has registered the dispatch request. 前記配車要求管理部は、参加者を募集する配車要求を登録し、前記配車要求の募集に応じた参加者がいる場合、前記配車要求に含まれる配車場所および配車日時に配車可能な前記感情誘導装置に、前記配車要求を送信する、請求項10に記載の感情誘導システム。  The dispatch request management unit registers a dispatch request for recruiting participants, and when there is a participant in response to the recruitment of the dispatch request, the emotion induction that can be dispatched at the dispatch location and the dispatch date / time included in the dispatch request The emotion induction system according to claim 10, wherein the dispatch request is transmitted to a device. 前記配車要求管理部は、前記ユーザから引き出す感情と、前記参加者から引き出す感情が一致するように、前記参加者が閲覧可能な前記配車要求を制御する、請求項15に記載の感情誘導システム。  The emotion dispatch system according to claim 15, wherein the dispatch request management unit controls the dispatch request that can be browsed by the participant so that an emotion drawn from the user matches an emotion drawn from the participant. ユーザから引き出す感情を選択することと、
演算処理装置によって、選択された感情に応じて前記ユーザへの出力を制御することと、
を含む感情誘導方法。
Selecting emotions to draw from users,
Controlling the output to the user according to the selected emotion by the arithmetic processing unit;
Emotion induction method including.
JP2017541448A 2015-09-25 2016-06-22 Emotion guidance systems, emotion guidance methods, and programs Active JP6753407B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015187891 2015-09-25
JP2015187891 2015-09-25
PCT/JP2016/068574 WO2017051577A1 (en) 2015-09-25 2016-06-22 Emotional response inducement system and emotional response inducement method

Publications (2)

Publication Number Publication Date
JPWO2017051577A1 true JPWO2017051577A1 (en) 2018-07-26
JP6753407B2 JP6753407B2 (en) 2020-09-09

Family

ID=58385889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017541448A Active JP6753407B2 (en) 2015-09-25 2016-06-22 Emotion guidance systems, emotion guidance methods, and programs

Country Status (2)

Country Link
JP (1) JP6753407B2 (en)
WO (1) WO2017051577A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200219135A1 (en) * 2017-10-30 2020-07-09 Kolon Industries, Inc. Device, system and method for providing service relating to advertising and product purchase by using artificial-intelligence technology
JP6748170B2 (en) * 2018-10-04 2020-08-26 株式会社スクウェア・エニックス Video game processing program, video game processing device, and video game processing method
JP7189434B2 (en) * 2019-01-11 2022-12-14 ダイキン工業株式会社 Spatial control system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031131A (en) * 2003-07-07 2005-02-03 Nikon Corp Automatic imaging apparatus
JP2008027086A (en) * 2006-07-19 2008-02-07 Sony Computer Entertainment Inc Facial expression inducing device, facial expression inducing method, and facial expression inducing system
JP2012235219A (en) * 2011-04-28 2012-11-29 Hideyuki Miura Smile-inducing photographing device
WO2015115203A1 (en) * 2014-01-28 2015-08-06 ソニー株式会社 Image capturing device, image capturing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031131A (en) * 2003-07-07 2005-02-03 Nikon Corp Automatic imaging apparatus
JP2008027086A (en) * 2006-07-19 2008-02-07 Sony Computer Entertainment Inc Facial expression inducing device, facial expression inducing method, and facial expression inducing system
JP2012235219A (en) * 2011-04-28 2012-11-29 Hideyuki Miura Smile-inducing photographing device
WO2015115203A1 (en) * 2014-01-28 2015-08-06 ソニー株式会社 Image capturing device, image capturing method, and program

Also Published As

Publication number Publication date
JP6753407B2 (en) 2020-09-09
WO2017051577A1 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
KR102393817B1 (en) Pre-integration of unsolicited content into human-to-computer dialogs
JP2019220194A (en) Information processing device, information processing method and program
CN109463004A (en) The far field of digital assistants service extends
JP2018014094A (en) Virtual robot interaction method, system, and robot
CN105379234A (en) Application gateway for providing different user interfaces for limited distraction and non-limited distraction contexts
CN105308641B (en) Information processing apparatus, information processing method, and program
CN107825429A (en) Interface and method
JP7070638B2 (en) Information processing system and information processing method
KR20140079749A (en) Content selection in a pen-based computing system
CN110598576A (en) Sign language interaction method and device and computer medium
US9525841B2 (en) Imaging device for associating image data with shooting condition information
CN109409063A (en) A kind of information interacting method, device, computer equipment and storage medium
JP6888854B1 (en) Remote work support system and remote work support method
WO2017051577A1 (en) Emotional response inducement system and emotional response inducement method
CN109313935A (en) Information processing system, storage medium and information processing method
JP6973380B2 (en) Information processing device and information processing method
US20210176539A1 (en) Information processing device, information processing system, information processing method, and program
CN111506183A (en) Intelligent terminal and user interaction method
JP7130290B2 (en) information extractor
JP7096626B2 (en) Information extraction device
JP2017130170A (en) Conversation interlocking system, conversation interlocking device, conversation interlocking method, and conversation interlocking program
JPWO2021229692A5 (en)
CN111443794A (en) Reading interaction method, device, equipment, server and storage medium
WO2022091230A1 (en) Information extraction device
JP6754815B2 (en) Augmented reality systems, augmented reality terminals and methods

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200803

R151 Written notification of patent or utility model registration

Ref document number: 6753407

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151