JP6753407B2 - 感情誘導システム、感情誘導方法、およびプログラム - Google Patents

感情誘導システム、感情誘導方法、およびプログラム Download PDF

Info

Publication number
JP6753407B2
JP6753407B2 JP2017541448A JP2017541448A JP6753407B2 JP 6753407 B2 JP6753407 B2 JP 6753407B2 JP 2017541448 A JP2017541448 A JP 2017541448A JP 2017541448 A JP2017541448 A JP 2017541448A JP 6753407 B2 JP6753407 B2 JP 6753407B2
Authority
JP
Japan
Prior art keywords
emotion
user
vehicle allocation
allocation request
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017541448A
Other languages
English (en)
Other versions
JPWO2017051577A1 (ja
Inventor
育英 細田
育英 細田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017051577A1 publication Critical patent/JPWO2017051577A1/ja
Application granted granted Critical
Publication of JP6753407B2 publication Critical patent/JP6753407B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本開示は、感情誘導システム、感情誘導方法、およびプログラムに関する。
近年、ユーザの感情に働きかける装置に関する技術が提案されている。
例えば、特許文献1には、被撮影者の表情を所望の表情に誘導するために、被撮影者の表情と所望の表情との類似度に応じた誘導オブジェクトを撮像画像上に表示させる技術が開示されている。
特開2008−27086号公報
しかし、特許文献1に開示された技術は、誘導オブジェクトによって被撮影者の表情を誘導するものであり、被撮影者は、誘導に従って自分で表情を作る必要があった。そのため、被撮影者の表情は、どうしても作為的なものとなってしまう。したがって、特許文献1に開示された技術では、被撮影者から自然な表情および感情を引き出すことは、困難であった。
そこで、本開示では、ユーザから自然な感情を引き出すことが可能な、新規かつ改良された感情誘導システム、感情誘導方法、およびプログラムを提案する。
本開示によれば、ユーザから引き出す感情を選択する感情選択部と、選択された感情に応じて前記ユーザへの出力を制御する出力制御部と、を備える感情誘導システムが提供される。
また、本開示によれば、ユーザから引き出す感情を選択することと、演算処理装置によって、選択された感情に応じて前記ユーザへの出力を制御することと、を含む感情誘導方法。
本開示によれば、ユーザから引き出す感情に応じて、適切に出力を制御することが可能である。
以上説明したように本開示によれば、ユーザから自然な感情を引き出すことが可能である。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係る感情誘導システムの具体例を説明した説明図である。 同実施形態に係る感情誘導装置の機能構成を説明するブロック図である。 感情テーブル記憶部に記憶される感情テーブルの一例を示した説明図である。 出力パターン記憶部に記憶される出力パターンテーブルの一例を示す説明図である。 出力パターン記憶部に記憶される出力パターンテーブルの一例を示す説明図である。 同実施形態に係る感情誘導装置の動作の概要を説明するフローチャート図である。 同実施形態に係る感情誘導装置の感情選択に関する動作を説明するフローチャート図である。 同実施形態に係る感情誘導装置の出力選択に関する動作を説明するフローチャート図である。 同実施形態に係る感情誘導装置の出力制御に関する動作を説明するフローチャート図である。 同実施形態に係る感情誘導装置の撮像に関する動作を説明するフローチャート図である。 同実施形態に係る感情誘導装置の画像の提供に関する動作を説明するフローチャート図である。 本開示の第2の実施形態に係る感情誘導システムの概要を説明する説明図である。 同実施形態に係る感情誘導システムが含む感情誘導装置の概要を説明する説明図である。 同実施形態に係る感情誘導システムに含まれる感情誘導装置および情報処理端末の機能構成を説明するブロック図である。 同実施形態に係る感情誘導システムに含まれる情報処理サーバの機能構成を説明するブロック図である。 配車中の感情誘導装置の接近情報を通知する画像の一例である。 ユーザの周囲の所定範囲内における感情誘導装置の位置を示す画像の一例である。 同実施形態に係る感情誘導システムの動作を説明するシーケンス図である。 同実施形態に係る感情誘導システムの動作を説明するシーケンス図である。 同実施形態に係る感情誘導システムのユーザが配車要求に対する参加申請を送信した場合の動作を説明するシーケンス図である。 同実施形態に係る感情誘導システムのユーザが配車要求に対する参加申請を送信した場合の動作を説明するシーケンス図である。 同実施形態に係る感情誘導システムのユーザが参加者を募集する配車要求を送信した場合の動作を説明するシーケンス図である。 同実施形態に係る情報処理サーバ6のハードウェア構成例を示したブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1.1.感情誘導システムの概要
1.2.感情誘導装置の構成
1.3.感情誘導装置の動作
2.第2の実施形態
2.1.感情誘導システムの概要
2.2.感情誘導システムの構成
2.3.感情誘導システムの動作
2.4.ハードウェア構成
3.まとめ
<1.第1の実施形態>
[1.1.感情誘導システムの概要]
まず、図1を参照して、本開示の第1の実施形態に係る感情誘導システムの概要について説明する。図1は、本実施形態に係る感情誘導システムの具体例を説明した説明図である。
本実施形態に係る感情誘導システムは、ユーザ3から感情を引き出す出力を行う感情誘導装置1の出力を制御する。感情誘導装置1は、ユーザ3から引き出す感情に応じて、ユーザ3への出力を制御することにより、ユーザ3から自然な感情を引き出す装置である。
感情誘導装置1によって制御される出力は、ユーザ3の五感の少なくとも1つ以上に働きかけ、人間の一般的な反応として感情を引き出すものである。感情誘導装置1によって制御される出力は、どのようなものであってもよいが、例えば、視覚に働きかける動画、聴覚に働きかける音声、嗅覚に働きかける香り、および触覚に働きかけるオブジェクトなどを用いることができる。
具体的には、感情誘導装置1は、表示装置31を備え、ユーザ3から引き出す感情に応じて、表示装置31に表示される画像を制御してもよい。感情誘導装置1は、表示装置31に表示される画像をユーザ3に視認させることにより、視覚によってユーザ3から感情を引き出すことができる。例えば、ユーザ3から「楽しい」という感情を引き出す場合、感情誘導装置1は、表示装置31にショートコント、および一発ギャグなどのコンテンツを表示させてもよい。
具体的には、感情誘導装置1は、ユーザ3から内部が視認されない箱体51を備え、ユーザ3から引き出す感情に応じて、箱体51の内部に配置されるオブジェクトを制御してもよい。感情誘導装置1は、ユーザ3に箱体51の内部に手を挿し入れさせ、ユーザ3に箱体51内部のオブジェクトを触れさせることにより、触感によってユーザ3から感情を引き出すことができる。例えば、ユーザ3から「驚く」という感情を引き出す場合、感情誘導装置1は、箱体51の内部にカエルの形状を有する弾性オブジェクト53を配置してもよい。例えば、ユーザ3から「心地よい」という感情を引き出す場合、感情誘導装置1は、箱体51の内部にネコの形状を有するぬいぐるみ状オブジェクトを配置してもよい。
また、感情誘導装置1は、撮像装置11を備え、感情が引き出されたユーザ3の表情を撮像装置11によって撮像してもよい。例えば、感情誘導装置1は、図1に示すように、筐体41に各種ストロボ21、23と、撮像装置11と、表示装置31と、を備えるプリントシール機であってもよい。
この構成によれば、感情誘導装置1は、出力装置にて自然な感情が引き出されたユーザ3の表情を撮像装置11にて撮像することができる。また、感情誘導装置1は、撮像された画像を表示装置31に表示し、ユーザ3が撮像された画像に対して書き込みなどの編集を行うことができるようにしてもよい。
このような感情誘導装置1によれば、ユーザ3から自然な感情を引き出すことが可能である。また、感情誘導装置1は、自然な感情が引き出されたユーザ3の活きた表情を撮像することが可能である。したがって、感情誘導装置1は、普段は表に出ないユーザ3の新しい表情、変顔などの表情を撮像することも可能である。
[1.2.感情誘導装置の構成]
次に、図2〜図4Bを参照して、本実施形態に係る感情誘導システムの構成を説明する。図2は、本実施形態に係る感情誘導装置1を含む感情誘導システムの機能構成を説明するブロック図である。
図2に示すように、感情誘導装置1は、入力部101と、感情選択部103と、出力選択部105と、出力制御部109と、感情テーブル記憶部107と、出力パターン記憶部111と、出力部113と、撮像部115と、スコア算出部117と、画像編集部119と、編集素材記憶部121と、印刷部123と、通信部125と、を備える。
入力部101は、ユーザ3からの情報入力を受け付ける入力装置、またはユーザ3の状態に関する情報を取得する測定装置を備え、入力または測定された情報に基づいて入力信号を生成する。入力部101が備える入力装置としては、例えば、タッチパネル、キーボード、マウス、ボタン、マイクロフォン、スイッチおよびレバーなどを例示することができる。また、入力部101が備える測定装置としては、ユーザ3の状態を画像にて取得する撮像装置、およびユーザ3の状態を音声にて取得するマイクロフォンなどを例示することができる。
感情選択部103は、ユーザ3から引き出す感情を選択する。具体的には、感情選択部103は、まず、引き出す感情を決定するための選択モードをユーザ3に選択させ、選択された選択モードに従って、ユーザ3から引き出す感情を選択する。感情選択部103が用いる選択モードとしては、種々の選択モードが挙げられるが、例えば、感情選択部103は、以下で説明する選択モードに従って、ユーザ3から引き出す感情を選択してもよい。
例えば、感情選択部103は、撮像装置等により撮像したユーザ3の画像、およびマイクロフォン等により収音したユーザ3の音声のいずれかに基づいて、ユーザ3から引き出す感情を選択してもよい。具体的には、感情選択部103は、ユーザ3の画像または音声の少なくともいずれかに基づいてユーザ3の状態を推定し、推定したユーザ3の状態から推奨される感情をユーザ3から引き出す感情として選択してもよい。また、感情選択部103は、ユーザ3の状態に近い感情をユーザ3から引き出す感情として選択してもよく、ユーザ3の状態と落差が大きい感情をユーザ3から引き出す感情として選択してもよい。
また、感情選択部103は、画像または音声にてユーザ3に対して質問を行い、該質問に対するユーザ3からの回答に基づいて、ユーザ3から引き出す感情を選択してもよい。具体的には、感情選択部103は、ユーザ3に対して、現在の気分、体調、および最近の出来事などを質問し、該質問に対するユーザ3からの回答に基づいて、ユーザ3の状態を推定する。感情選択部103は、推定したユーザ3の状態から推奨される感情をユーザ3から引き出す感情として選択してもよい。また、感情選択部103は、ユーザ3の状態に近い感情をユーザ3から引き出す感情として選択してもよく、ユーザ3の状態と落差が大きい感情をユーザ3から引き出す感情として選択してもよい。
また、感情選択部103は、引き出す感情に対応した複数の候補感情を表示装置等に表示し、ユーザ3によって選択された候補感情に対応する感情をユーザ3から引き出す感情として選択してもよい。具体的には、感情選択部103は、「キャッキャ(すなわち、明るく喜ぶ感情)」、「ドキドキ(すなわち、動揺する感情)」、「キュンキュン(すなわち、愛おしく思う感情)」、「ゲーッ、ムリー(すなわち、嫌がる感情)」、「今日は泣かせて(すなわち、悲しむ感情)」、および「えっ、マジ!?(すなわち、非常に驚く感情)」などの候補感情を表示装置等に表示し、引き出す感情をユーザ3に選択させてもよい。
ここで、候補感情は、「驚く」、「悲しい」、および「楽しい」などの直接的に感情を表す語句ではなく、擬態語、擬声語、および口語表現等を用いて間接的な雰囲気にて感情を表す語句であってもよい。このような場合、感情誘導装置1は、ユーザ3が想定しなかった感情をユーザ3から引き出すことで、ユーザ3に斬新な感動を提供することができる。
さらに、感情選択部103は、複数の所定の感情の中からランダムに選択された感情をユーザ3から引き出す感情として選択してもよい。
出力選択部105は、ユーザ3から引き出す感情に基づいて、ユーザ3への出力パターンを選択する。具体的には、出力選択部105は、感情選択部103により選択された感情に対応する出力パターンを感情テーブル記憶部107から検索し、検索された出力パターンをユーザ3への出力パターンとして選択する。
なお、選択された感情に対応する出力パターンが複数存在する場合、出力選択部105は、選択された感情に対応する出力パターンのうちいずれかを所定の確率、またはランダムにて選択し、ユーザ3への出力パターンとしてもよい。
感情テーブル記憶部107は、ユーザ3から引き出す感情と、ユーザ3への出力パターンとを対応付けて記憶する。具体的には、感情テーブル記憶部107は、ユーザ3から引き出す感情と、少なくとも1つ以上の出力パターンの識別番号とが対応付けられた感情テーブルを記憶する。
例えば、感情テーブル記憶部107は、図3に示すような感情テーブルを記憶してもよい。図3は、感情テーブル記憶部107に記憶される感情テーブルの一例を示した説明図である。
図3に示す感情テーブルには、感情として「キャッキャ(すなわち、明るく喜ぶ感情)」、「ドキドキ(すなわち、動揺する感情)」、「キュンキュン(すなわち、愛おしく思う感情)」、「ゲーッ、ムリー(すなわち、嫌がる感情)」、「今日は泣かせて(すなわち、悲しむ感情)」、および「えっ、マジ!?(すなわち、非常に驚く感情)」が設定されている。また、「キャッキャ」という感情に対応する出力パターンの識別番号(図3では、出力パターンID)として「0011」および「0012」が設定されており、「ドキドキ」という感情に対応する出力パターンの識別番号として「0021」、「0022」および「0023」が設定されている。また、「キュンキュン」という感情に対応する出力パターンの識別番号として「0031」が設定されており、「ゲーッ、ムリー」という感情に対応する出力パターンの識別番号として「0041」が設定されている。さらに、「今日は泣かせて」という感情に対応する出力パターンの識別番号として「0051」および「0052」が設定されており、「えっ、マジ!?」という感情に対応する出力パターンの識別番号として「0061」、「0062」および「0063」が設定されている。
出力制御部109は、ユーザ3への出力を制御する。具体的には、出力制御部109は、出力選択部105により選択された出力パターンに対応する出力の制御条件を出力パターン記憶部111から読み出し、読み出した制御条件に沿って出力部113による出力を制御する。なお、出力の制御条件とは、例えば、感情誘導を開始してからの経過時間、およびユーザ3の行動などである。
出力パターン記憶部111は、ユーザ3への出力パターンと、出力の制御条件とを対応付けて記憶する。具体的には、出力パターン記憶部111は、ユーザ3への出力パターンごとに、出力部113による出力と、該出力の制御条件とが対応付けられた出力パターンテーブルを記憶する。
例えば、出力パターン記憶部111は、図4Aおよび図4Bに示すような出力パターンテーブルを記憶してもよい。図4Aおよび図4Bは、出力パターン記憶部111に記憶される出力パターンテーブルの一例を示す説明図である。
図4Aに示す出力パターンテーブルには、出力部113が備える第1〜第3の出力機器による出力と、各々の出力機器の出力の制御条件が設定されている。なお、第1の出力機器とは、表示装置であり、第2の出力機器とは、ユーザ3から内部が視認されない箱体の内部に配置されるオブジェクトを制御する触感提示装置であり、第3の出力機器とは、感情誘導装置1を使用するユーザ3が入る筐体である。
図4Aに示すように、まず、感情誘導を開始してからの時間が「00’00’’」である場合、第2の出力機器は、カエル形状の高触感オブジェクトを箱体内に配置するように制御される旨が設定されている。また、ユーザ3が箱体内に配置されたオブジェクトに触れた場合、第1の出力機器は、カエルの画像を表示するように制御され、かつ第3の出力機器は、コンニャク様オブジェクトを部屋の天井から落とすように制御される旨が設定されている。さらに、感情誘導を開始してからの時間が「00’10’’」である場合、第3の出力機器は、部屋の床を揺らすように制御される旨が設定されている。
また、図4Bに示す出力パターンテーブルには、出力部113が備える第1〜第3の出力機器による出力と、該出力の制御条件の他の一例が設定されている。なお、図4Aと同様に、第1の出力機器とは、表示装置であり、第2の出力機器とは、ユーザ3から内部が視認されない箱体の内部に配置されるオブジェクトを制御する触感提示装置であり、第3の出力機器とは、感情誘導装置1を使用するユーザ3が入る部屋である。
図4Bに示すように、まず、感情誘導を開始してからの時間が「00’00’’」である場合、第1の出力機器は、映像コンテンツの再生を開始するように制御される旨が設定されている。また、感情誘導を開始してからの時間が「00’10’’」である場合、第1の出力機器は、再生中の映像コンテンツの再生を停止するように制御される旨が設定されている。
出力部113は、ユーザ3に対する出力を行う出力機器を備え、ユーザ3から感情を引き出す出力を行う。出力部113が備える出力機器は、ユーザ3の五感の少なくともいずれか1つ以上に働きかけるものであれば、どのようなものも使用可能である。例えば、出力機器は、液晶表示装置および有機エレクトロルミネッセンス表示装置などの表示装置、ホログラフ再生装置、スピーカおよびヘッドフォンなどの音声出力装置、香水などを噴霧する噴霧装置、ユーザ3から内部が視認されない箱体の中に様々な触感を有するオブジェクトを配置する触感提示装置、ならびにユーザ3を驚かせる仕掛けを備える筐体などを例示することができる。
これにより、出力部113は、例えば、表示装置にて、面白い動画、楽しい動画、悲しい動画、癒される画像、気持ち悪い画像、または変顔などの画像コンテンツを出力として表示することができる。また、出力部113は、例えば、音声出力装置にて、楽しい音楽、悲しい音楽、または怖い話などの音声コンテンツを出力として再生することができる。また、出力部113は、例えば、噴霧装置にて、リラックスする香り、または不快な香りなどを有する香水を出力として噴霧することができる。さらに、出力部113は、例えば、筐体にて、筐体の天井からコンニャク様オブジェクトを落下させる、筐体の床を揺らす、または筐体の壁から人形が飛び出すなどの仕掛けを出力として作動させることができる。
また、出力部113は、例えば、触感提示装置にて、ユーザ3に箱体内のオブジェクトを触れさせるために、ユーザ3から内部が視認されない箱体内に様々な触感を有するオブジェクトを配置することを出力として行うことができる。なお、触感提示装置において、様々な触感を有するオブジェクトは、箱体内に配置されるだけでなく、筐体の天井または壁から飛び出したり、または筐体の天井または壁から滑り落ちてきたりしてもよい。
撮像部115は、感情が引き出されたユーザ3の表情を撮像する。例えば、撮像部115は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサまたはCCD(Charge Coupled Device)イメージセンサなどの撮像素子と、撮像レンズとを備える。撮像部115は、撮像レンズを介して入射する被写体(すなわち、ユーザ3)からの光を受光して撮像素子にて光電変換を行い、画像信号に変換することで、被写体の画像を取得する。
撮像部115がストロボ等を用いて所定のタイミングにてユーザ3の表情を撮像する場合、撮像部115は、後述するスコア算出部117によって算出された類似スコアが閾値以上になった時に、ユーザ3の表情を撮像してもよい。また、撮像部115が継続してユーザ3の表情を撮像する場合、撮像部115は、後述するスコア算出部117によって算出された類似スコアが閾値以上の時のユーザ3の画像を保存してもよい。
スコア算出部117は、ユーザの画像または音声の少なくともいずれかに基づいて、ユーザの感情と、ユーザ3から引き出す感情との類似の程度を表す類似スコアを算出する。具体的には、スコア算出部117は、ユーザ3の画像に基づいてユーザ3の表情を推定し、ユーザ3の音声に基づいてユーザ3の発話内容を推定する。次に、スコア算出部117は、ユーザ3の表情および発話内容が表すユーザ3の感情と、ユーザ3から引き出す感情との類似の程度を表す類似スコアを算出する。
なお、スコア算出部117による表情の推定、および発話内容の推定は、例えば、機械学習アルゴリズムによる画像認識および音声認識等のパターン認識技術を応用することで実行することができる。また、スコア算出部117による類似スコアは、例えば、感情ごとの特徴を示す特徴情報を設定し、ユーザ3の表情および発話内容が特徴情報に対してどの程度適合しているかを数値化することで算出することができる。
画像編集部119は、ユーザ3からの入力に基づいて、撮像されたユーザ3の画像を編集する。具体的には、画像編集部119は、撮像部115によって撮像されたユーザ3の画像を表示装置等に表示させることで、ユーザ3からの編集内容の入力を受け付け、ユーザ3が入力した編集内容に基づいて、撮像されたユーザ3の画像を編集する。また、画像編集部119は、ユーザ3に対して、ユーザ3の画像を編集するための編集素材を提供してもよい。これらの編集素材は、例えば、編集素材記憶部121に記憶される。
撮像された画像に対して、ユーザ3が行うことが可能な編集内容としては、例えば、文字等の書き込み、背景および画像枠等の追加、イラストの追加、ならびにグレースケール、セピア、ぼかし、およびモザイクなどのフィルタを用いたエフェクト処理などを例示することができる。また、画像編集部119が提供する編集素材としては、背景、画像枠、イラスト、および各種フィルタなどを例示することができる。
ここで、画像編集部119が提供する編集素材は、ユーザ3から引き出す感情に応じたものであってもよい。例えば、ユーザ3から引き出す感情が「驚く」である場合、「驚く」という感情と関連深いエクスクラメーションマーク、爆発、および衝撃などのイラスト等を編集素材として提供してもよい。また、ユーザ3から引き出す感情が「悲しい」である場合、「悲しみ」の感情と関連深い雫、雨、および影などのイラスト等を編集素材として提供してもよい。ユーザ3から引き出す感情が「楽しい」である場合、「楽しい」という感情と関連深い音符、花、虹および星などのイラスト等を編集素材として提供してもよい。
編集素材記憶部121は、ユーザ3が撮像された画像を編集する際に画像編集部119により提供される背景、画像枠、イラスト、および各種フィルタなどの編集素材を記憶する。また、編集素材記憶部121は、編集素材の各々をユーザ3から引き出す感情と対応付けて記憶してもよい。
なお、上述した感情テーブル記憶部107、出力パターン記憶部111および編集素材記憶部121は、例えば、HDD(Hard Disk Drive)装置、フラッシュメモリ、およびSSD(Solid State Drive)装置などのデータ格納用のストレージ装置によって構成することができる。
印刷部123は、感情が引き出されたユーザ3の表情を撮像した画像をシール紙等に印刷する。具体的には、印刷部123は、画像編集部119によって編集されたユーザ3の画像を所定のレイアウトにてシール紙に印刷する。なお、シール紙に印刷されるユーザ3の画像は、1つであってもよく、複数であってもよい。また、シール紙に印刷されるユーザ3の画像が複数である場合、それぞれの画像は、同一の画像であってもよく、異なる画像であってもよい。これによれば、ユーザ3は、感情が引き出された表情を撮像した画像をその場で印刷し、シールとして入手することができる。
通信部125は、ネットワーク5を介して、感情が引き出されたユーザ3の表情を撮像した画像を所定のサーバに送信する。また、ユーザ3の画像が送信された所定のサーバのアドレスは、リンク情報としてユーザ3に対して通知される。これによれば、ユーザ3は、感情が引き出された表情を撮像した画像を画像データとして入手することができるため、感情が引き出された表情をより容易に閲覧および複製することができる。なお、通信部125は、具体的には、公衆回線網などのネットワーク5に接続するための通信デバイス等で構成された通信インタフェースである。通信部125は、例えば、有線によるケーブル通信を行うケーブル通信装置で構成されていてもよく、有線または無線LAN(Local Area Network)対応通信装置で構成されていてもよい。
以上にて、本実施形態に係る感情誘導システムが含む感情誘導装置1の構成について具体的に説明した。本実施形態に係る感情誘導システムによれば、ユーザ3から自然な表情を引き出すことが可能である。また、本実施形態に係る感情誘導システムによれば、自然な感情が引き出されたユーザ3の表情を撮像装置にて撮像することも可能である。
なお、感情誘導装置1が行う情報処理は、ソフトウェアとハードウェアとの協働によって実現される。感情誘導装置1は、ハードウェアとして、例えば、ブリッジ、および内部バス等により相互に接続されたCPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)を備える。
CPUは、演算処理装置および制御装置として機能し、ROM等に記憶された各種プログラムに従って、感情誘導装置1の動作全般を制御する。ROMは、CPUが使用するプログラム、演算パラメータを記憶し、RAMは、CPUの実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらのハードウェアと、ソフトウェアとを協働させることによって、感情誘導装置1は、感情選択部103、出力選択部105、出力制御部109、スコア算出部117、および画像編集部119等の機能を実現することができる。
なお、これらの感情誘導装置1にて実行される情報処理の一部または全部は、感情誘導装置1とネットワーク5を介して接続された情報処理サーバにて実行されてもよい。具体的には、感情選択部103、出力選択部105、出力制御部109、スコア算出部117、および画像編集部119等の機能の一部または全部は、感情誘導装置1とネットワーク5を介して接続された情報処理サーバにて実行されてもよい。
また、感情誘導装置1に内蔵されるCPU、ROMおよびRAMなどのハードウェアに対して、上述した感情誘導装置1の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
[1.3.感情誘導装置の動作]
続いて、図5〜図10を参照して、本実施形態に係る感情誘導システムが含む感情誘導装置1の動作について説明する。なお、以下で説明する感情誘導装置1の動作は、あくまで一例であって、本実施形態に係る感情誘導装置1の動作が以下に限定されるわけではない。
図5は、本実施形態に係る感情誘導装置1の動作の概要を説明するフローチャート図である。
図5に示すように、感情誘導装置1の動作は、大きく分けて5つの処理動作を含む。まず、感情選択部103は、ユーザ3から引き出す感情を選択する(S100)。次に、出力選択部105は、選択された感情に対する出力パターンを選択する(S110)。続いて、出力制御部109は、選択された出力パターンに従って、ユーザ3への出力を制御する(S120)。次に、撮像部115は、出力を受けて感情が引き出されたユーザ3の表情を撮像する(S130)。さらに、撮像された画像は、画像編集部119によって編集された後、印刷部123または通信部125の少なくともいずれかを介して、ユーザ3に提供される(S140)。
以下では、図6〜図10を参照して、上記で概要を説明した感情誘導装置1の動作をより詳細に説明する。
まず、図6を参照して、感情誘導装置1の感情選択に関する動作について説明する。図6は、本実施形態に係る感情誘導装置1の感情選択に関する動作を説明するフローチャート図である。
図6に示すように、まず、ユーザ3からの入力により、ユーザ3から引き出す感情を決定する選択モードが選択される(S101)。質問モードが選択された場合、感情選択部103は、表示装置等にユーザ3への質問を表示し(S102)、ユーザ3からの質問への回答を受け付ける(S103)。感情選択部103は、引き出す感情が決定されるまで質問(S102)および回答(S103)のループを繰り返した後、引き出す感情を決定する(S108)。また、自動モードが選択された場合、感情選択部103は、ユーザ3の画像および音声を取得し(S104)、取得したユーザ3の画像および音声に基づいて、ユーザ3から引き出す感情を選択する(S105)。これにより、引き出す感情が決定される(S108)。さらに、入力モードが選択された場合、感情選択部103は、表示装置等に候補感情を表示させ(S106)、ユーザ3からの候補感情の選択を受け付ける(S107)。これにより、ユーザ3の入力によって候補感情の中から引き出す感情が決定される(S108)。
次に、図7を参照して、感情誘導装置1の出力選択に関する動作について説明する。図7は、本実施形態に係る感情誘導装置1の出力選択に関する動作を説明するフローチャート図である。
図7に示すように、まず、出力選択部105は、引き出す感情に合致する出力パターンを感情テーブル記憶部107から検索する(S111)。次に、出力選択部105は、引き出す感情に合致する出力パターンが複数存在するか否かを判断する(S112)。引き出す感情に合致する出力パターンが複数存在する場合(S112/Yes)、出力選択部105は、該当する複数の出力パターンからランダムに出力パターンを選択し(S113)、ユーザ3への出力を制御する出力パターンを決定する(S115)。一方、引き出す感情に合致する出力パターンが1つ存在する場合(S112/No)、出力選択部105は、該当する出力パターンを選択し(S114)、ユーザ3への出力を制御する出力パターンを決定する(S115)。
続いて、図8を参照して、感情誘導装置1の出力制御に関する動作について説明する。図8は、本実施形態に係る感情誘導装置1の出力制御に関する動作を説明するフローチャート図である。
図8に示すように、まず、出力制御部109は、出力パターンから各出力機器の出力の制御条件を読み出す(S121)。次に、出力制御部109は、各出力機器において出力の制御条件が満たされているか否かを判断し(S122)、出力の制御条件が満たされている場合(S122/Yes)、対応する出力機器を制御し、制御条件を満たした出力をユーザ3に対して実行させる(S123)。出力の制御条件が満たされていない場合(S122/No)、出力制御部109は、待機し、再度、出力の制御条件が満たされているか否かを判断する(S122)。なお、出力制御部109は、全ての出力が実行されるか、または所定時間が経過した場合、動作を終了する。
次に、図9を参照して、感情誘導装置1の撮像に関する動作について説明する。図9は、本実施形態に係る感情誘導装置1の撮像に関する動作を説明するフローチャート図である。なお、図9で示す撮像に関する動作は、撮像部115がユーザ3を継続して撮像している場合の動作である。
図9に示すように、まず、撮像部115は、ユーザ3の画像を撮像する(S131)。ここで、スコア算出部117は、入力部101等を介して、撮像時のユーザ3の画像および音声を取得する(S132)。次に、スコア算出部117は、ユーザ3の画像からユーザ3の表情を推定し(S133)、また、ユーザ3の音声からユーザ3の発話内容を推定する(S134)。続いて、スコア算出部117は、ユーザ3から引き出す感情と、推定したユーザ3の表情および発話内容との類似スコアを算出する(S135)。さらに、撮像部115は、類似スコアが閾値以上である画像が所定枚数以上あるか否かを判断する(S136)。類似スコアが閾値以上である画像が所定枚数以上ある場合(S136/Yes)、撮像部115は、類似スコアが閾値以上である画像を所定枚数選択し(S137)、選択したユーザ3の画像を記憶する(S139)。類似スコアが閾値以上である画像が所定枚数未満である場合(S136/No)、撮像部115は、類似スコアが高い順に所定枚数の画像を選択し(S138)、選択したユーザ3の画像を記憶する(S139)。
さらに、図10を参照して、感情誘導装置1の画像の提供に関する動作について説明する。図10は、本実施形態に係る感情誘導装置1の画像の提供に関する動作を説明するフローチャート図である。
図10に示すように、まず、感情誘導装置1は、記憶された所定枚数のユーザ3の画像を表示装置等に表示させる(S141)。次に、感情誘導装置1は、編集する画像の選択をユーザ3から受け付ける(S142)。続いて、画像編集部119は、引き出した感情に対応する編集素材を表示装置等に表示させ(S143)、選択された画像へのユーザ3の編集を受け付ける(S144)。さらに、画像編集部119は、編集された画像を記憶する(S145)。
ここで、感情誘導装置1は、編集された画像をデータで提供するか否かをユーザ3に確認する(S146)。編集された画像をデータで提供する場合(S146/Yes)、編集された画像を通信部125にて所定のサーバに送信し、該画像へのリンク情報をユーザ3に通知する(S147)。一方、編集された画像をデータで提供しない場合(S146/No)、編集された画像を所定のサーバに送信する処理(S147)は、スキップされる。次に、感情誘導装置1は、編集された画像を印刷するか否かをユーザ3に確認する(S148)。編集された画像を印刷する場合(S148/Yes)、印刷部123にて編集された画像をシール紙等に印刷する(S149)。一方、編集された画像を印刷しない場合(S148/No)、編集された画像を印刷する処理(S148)は、スキップされる。
なお、編集された画像をデータで提供せず(S146/No)、かつ編集された画像を印刷しない場合(S148/No)、感情誘導装置1は、再度、編集された画像の提供方法を確認する処理(S146、S148)を実行してもよい。
以上にて、本実施形態に係る感情誘導システムが含む感情誘導装置1について詳細に説明した。本実施形態に係る感情誘導システムによれば、ユーザ3から自然な感情を引き出すことが可能である。また、感情誘導システムは、自然な感情が引き出されたユーザ3の活きた表情を撮像することが可能である。
なお、上記の実施形態では、感情誘導システムは、自然な感情が引き出されたユーザ3の表情を撮像するものとしたが、本技術はかかる例に限定されない。例えば、感情誘導システムは、自然な感情が引き出されたユーザ3の音声を録音してもよい。
<2.第2の実施形態>
[2.1.感情誘導システムの概要]
次に、図11および図12を参照して、本開示の第2の実施形態に係る感情誘導システムの概要について説明する。図11は、本実施形態に係る感情誘導システムの概要を説明する説明図であり、図12は、本実施形態に係る感情誘導システムが含む感情誘導装置の概要を説明する説明図である。
図11に示すように、感情誘導システムは、移動体に備えられた感情誘導装置2をユーザ3が指定した場所に配車する情報処理システムである。具体的には、感情誘導システムは、感情誘導装置2と、ユーザ3からの感情誘導装置2の配車要求を管理する情報処理サーバ6と、各ユーザ3が所持する情報処理端末7とを公衆回線網等のネットワーク5で接続した構成を有する。
情報処理端末7は、感情誘導装置2の配車を要求する配車要求を情報処理サーバ6に送信する。配車要求は、例えば、ユーザ3が感情誘導装置2の配車を希望する場所(配車場所ともいう)および日時(配車日時ともいう)を含む。また、配車要求には、ユーザ3が引き出されたい感情に関する情報が含まれていてもよい。なお、情報処理端末7は、例えば、スマートフォン、携帯電話、およびパーソナルコンピュータなどであってもよい。
情報処理サーバ6は、情報処理端末7から送信された配車要求を管理する。また、情報処理サーバ6は、配車要求の配車場所および配車日時に対して、配車可能な感情誘導装置2に該配車要求を送信する。また、情報処理サーバ6は、感情誘導装置2から該感情誘導装置2の位置情報を取得し、配車日時が近づいた際に、感情誘導装置2が接近している旨を情報処理端末7に通知してもよい。
感情誘導装置2は、自動車、スクータ、およびバイクなどの移動体に備えられ、移動体により任意の場所に移動可能に設けられる。情報処理サーバ6から配車要求を受信した感情誘導装置2は、運転者の運転により、配車要求の配車日時に間に合うように配車場所に配車される。
このような感情誘導装置2について、図12を参照して、より具体的に説明する。図12に示すように、感情誘導装置2は、例えば、移動体4の背面側に撮像部115および出力部113を備え、遮光カーテン127にて囲んだ内部にてユーザ3から感情を引き出す出力を行ってもよい。また、感情誘導装置2は、遮光カーテン127にて囲んだ内部にて、感情が引き出されたユーザ3の表情を撮像することも可能である。すなわち、感情誘導装置2は、移動体4に備えられ、ユーザ3から感情を引き出す出力を行うプリントシール機であってもよい。
本実施形態に係る感情誘導システムによれば、ユーザ3は、いつでもどこでも希望する場所および日時にて感情誘導装置2によって感情を引き出す出力を受けることができる。また、ユーザ3は、感情が引き出された表情を感情誘導装置2によってその場で撮像することも可能である。
なお、配車要求を情報処理サーバ6に送信するユーザと、感情誘導装置2によって感情が引き出されるユーザとは、同じであってもよいが、異なっていてもよい。配車要求を送信したユーザと、感情が引き出されるユーザとが異なる場合、配車要求を送信したユーザは、感情が引き出されるユーザに対して、引き出す感情を伏せることにより、より強く感情を引き出させることができる。
[2.2.感情誘導システムの構成]
続いて、図13Aおよび図13Bを参照して、本実施形態に係る感情誘導システムの構成を説明する。図13Aは、本実施形態に係る感情誘導システムに含まれる感情誘導装置2および情報処理端末7の機能構成を説明するブロック図である。また、図13Bは、本実施形態に係る感情誘導システムに含まれる情報処理サーバ6の機能構成を説明するブロック図である。
図13Aに示すように、感情誘導装置2は、位置検出部201と、出力部113と、撮像部115と、入力部101と、制御部120と、通信部125とを備える。また、情報処理端末7は、位置検出部701と、入力部703と、表示部705と、制御部707と、通信部709とを備える。
(感情誘導装置)
入力部101、出力部113、撮像部115、印刷部123、および通信部125については、本開示の第1の実施形態にて説明した構成と実質的に同様であるので、ここでの説明は省略する。
位置検出部201は、感情誘導装置2の位置情報を取得する。例えば、位置検出部201は、複数の人工衛星から送信される時刻情報付きの信号から感情誘導装置2の位置を算出するGNSS(Global Navigation Satellite System)センサであってもよい。また、位置検出部201は、GNSSによる測位を補助する情報をさらにネットワーク等から受信するA−GNSS(Assisted Global Navigation Satellite System)であってもよい。さらに、位置検出部201は、移動体通信網における基地局からの距離、またはWi−Fi(登録商標)のアクセスポイントからの距離を用いた三角測量法によって、感情誘導装置2の位置情報を算出するものであってもよい。
制御部210は、感情誘導装置2の動作全般を制御する。具体的には、制御部210は、本開示の第1の実施形態にて説明した感情選択部103、出力選択部105、出力制御部109、スコア算出部117、画像編集部119等の機能を実行する。
(情報処理端末)
位置検出部701は、情報処理端末7の位置情報を取得する。例えば、位置検出部701は、複数の人工衛星から送信される時刻情報付きの信号から情報処理端末7の位置を算出するGNSSセンサであってもよい。また、位置検出部701は、GNSSによる測位を補助する情報をさらにネットワーク等から受信するA−GNSSであってもよい。さらに、位置検出部701は、移動体通信網における基地局からの距離、またはWi−Fiのアクセスポイントからの距離を用いた三角測量法によって、情報処理端末7の位置情報を算出するものであってもよい。
入力部703は、タッチパネル、キーボード、ボタン、マイクロフォン、スイッチおよびレバーなどの情報が入力される入力装置等を含む。また、入力部703は、入力された情報に基づいて入力信号を生成し、制御部707に出力するための入力制御回路なども含む。
表示部705は、例えば、CRT(Cathod Ray Tube)表示装置、液晶表示装置、有機EL(Organic ElectroLuminessennce)表示装置などの表示装置を含む。表示部705は、情報処理サーバ6へ配車要求を入力するための入力画面、および情報処理サーバ6からの通知画面等を表示する。
制御部707は、CPU、ROM、およびRAMなどを備え、情報処理端末7の動作全般を制御する。例えば、制御部707は、ROM等に記憶された各種プログラムに従って、CPUにより演算処理することで、情報処理端末7の動作全般を制御する。なお、演算処理の実行において適宜変化するパラメータ等は、RAMに一時記憶される。
通信部709は、例えば、公衆回線網などのネットワーク5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信部709は、有線によるケーブル通信を行うケーブル通信装置であってもよく、有線または無線LAN対応通信装置であってもよい。
(情報処理サーバ)
また、図13Bに示すように、情報処理サーバ6は、通信部610と、制御部600と、ユーザ情報記憶部620と、配車管理情報記憶部630と、配車要求記憶部640と、地図情報記憶部650とを備える。また、制御部600は、ユーザ登録部601と、認証部602と、配車検索部603と、配車要求管理部604と、配車状況通知部605とを備える。
通信部610は、例えば、公衆回線網などのネットワーク5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信部610は、有線によるケーブル通信を行うケーブル通信装置であってもよく、有線または無線LAN対応通信装置であってもよい。
ユーザ登録部601は、ユーザ3の各種情報をユーザ情報記憶部620に登録する。具体的には、ユーザ登録部601は、ユーザ3のプロフィールに関する情報を情報処理端末7から受信し、ユーザ情報記憶部620に登録する。ユーザ3のプロフィールに関する情報とは、例えば、ユーザ3の画像、名前、年齢、職業、ユーザ名、パスワード、および一言コメントなどである。ユーザ3のプロフィールに関する情報のうち、ユーザ3の画像、名前、年齢、職業、および一言コメントについては、後述する配車要求への参加申請、および参加者を募集する配車要求を行う際に、ユーザ3のプロフィール情報として使用されてもよい。
ユーザ情報記憶部620は、ユーザ3の各種情報を記憶する。例えば、ユーザ情報記憶部620は、ユーザ3の画像、名前、年齢、職業、ユーザ名、パスワード、および一言コメントなどを紐付けて記憶する。また、ユーザ情報記憶部620は、ユーザ3が配車要求を送信した回数、ならびにユーザ3の配車要求の場所および日時などの履歴情報をさらに記憶してもよい。
認証部602は、情報処理端末7から受信したログイン情報に基づいて、ユーザ3が登録されたユーザ3であることを認証する。具体的には、認証部602は、ユーザ名およびパスワードを含むログイン情報を情報処理端末7から受信し、ユーザ情報記憶部620に記憶されたユーザ名およびパスワードと一致するか否かを判断する。ユーザ名およびパスワードが一致した場合、認証部602は、ログイン情報を送信したユーザ3が登録されたユーザ3であることを認証する。ユーザ名およびパスワードが一致しなかった場合、認証部602は、ログイン情報を送信したユーザ3に認証に失敗したことを通知する。
配車検索部603は、情報処理端末7から感情誘導装置2の配車要求を受信した場合、配車要求に対応して配車可能な感情誘導装置2を検索する。具体的には、配車検索部603は、配車要求の場所および日時に対して、配車可能な感情誘導装置2を配車管理情報記憶部630に記憶された情報に基づいて検索する。
例えば、配車要求において、すぐに感情誘導装置2を配車するよう要求されている場合、配車検索部603は、配車場所に所定時間以内(例えば、15分以内)に到着可能であり、かつ他のユーザを応対していない感情誘導装置2を検索する。
また、例えば、配車要求において、場所および日時を指定されて感情誘導装置2を配車するよう要求されている場合、配車検索部603は、配車場所を担当エリアとしており、かつ配車日時の前後の間(例えば、配車日時の前後15分間の間)に配車要求が入っていない感情誘導装置2を検索する。
ユーザ3からの配車要求には、少なくとも感情誘導装置2を配車する場所および日時が含まれる。また、配車要求には、ユーザ3の人数、感情誘導装置2の種類の指定、引き出されたい感情が含まれていてもよい。なお、引き出されたい感情は、「キャッキャ(すなわち、明るく喜ぶ感情)」、「ドキドキ(すなわち、動揺する感情)」、「キュンキュン(すなわち、愛おしく思う感情)」、「ゲーッ、ムリー(すなわち、嫌がる感情)」、「今日は泣かせて(すなわち、悲しむ感情)」、および「えっ、マジ!?(すなわち、非常に驚く感情)」などのキーワードで表現されてもよい。
また、感情誘導装置2がユーザ3の表情を撮像する撮像部を備える場合、ユーザ3は、配車要求と前後して、撮像の際の背景および画像枠、ならびにエフェクトなどの編集素材などの撮像設定を情報処理サーバ6に送信してもよい。当該撮像設定は、情報処理サーバ6を介して感情誘導装置2に送信され、すぐに撮像することができるように、あらかじめ感情誘導装置2に設定される。また、当該撮像設定は、ユーザ3の引き出されたい感情に基づいて、情報処理サーバ6によって設定されてもよい。
配車管理情報記憶部630は、配車検索部603が配車要求に対応して配車可能な感情誘導装置2を検索するために必要な感情誘導装置2の情報を記憶する。具体的には、配車管理情報記憶部630は、感情誘導装置2の各々の状態を記憶する。例えば、配車管理情報記憶部630は、感情誘導装置2がユーザ3に接客していない状態(空車ともいう)であるのか、ユーザ3を接客している状態(接客中ともいう)であるのか、または配車要求に応じて配車場所に向かっているのか(配車中ともいう)を記憶する。また、配車管理情報記憶部630は、感情誘導装置2の各々に送信された配車要求の場所および日時を記憶する。さらに、配車管理情報記憶部630は、感情誘導装置2の各々の現在位置、および担当エリア等を記憶してもよい。
配車要求管理部604は、配車要求に対して配車される感情誘導装置2が決定した場合、該配車要求を配車要求記憶部640に記憶し、かつ配車管理情報記憶部630に記憶された感情誘導装置2の情報を更新する。
また、配車要求管理部604は、配車要求に対して配車される感情誘導装置2が決定した場合、配車要求を送信したユーザ3に対して、配車される感情誘導装置2の情報を送信する。送信される感情誘導装置2の情報としては、例えば、感情誘導装置2の識別番号、感情誘導装置2の種類、運転者名、および感情誘導装置2の現在位置などである。さらに、配車要求管理部604は、検索された感情誘導装置2に対して、配車要求があった旨を通知し、配車場所および配車日時を含む配車要求を送信する。
配車要求記憶部640は、配車される感情誘導装置2が決定した配車要求を記憶する。具体的には、配車要求記憶部640は、配車要求と、配車される感情誘導装置2、および配車要求を送信したユーザ3とを対応付けて記憶する。なお、感情誘導装置2の配車が完了した場合、配車が完了した配車要求は、配車要求記憶部640から削除されてもよい。
配車状況通知部605は、配車要求の配車日時の所定時間前(例えば、10分前など)から感情誘導装置2が配車場所に到着するまでの間、配車要求を送信したユーザ3に対して、配車中の感情誘導装置2の接近情報を通知する。具体的には、配車状況通知部605は、配車日時の所定時間前になった場合、配車中の感情誘導装置2から位置情報を取得し、取得した位置情報から感情誘導装置2の到着までの時間、および到着予定時刻などを算出する。また、配車状況通知部605は、配車要求を送信したユーザ3に対して、接近情報として、配車中の感情誘導装置2の位置情報、算出した感情誘導装置2の到着までの時間、および到着予定時刻などを通知する。なお、配車状況通知部605は、感情誘導装置2の位置と、配車場所との差が十分小さくなり、閾値以下となった場合、接近情報の通知を終了してもよい。
例えば、配車状況通知部605は、配車要求を送信したユーザ3に対して、図14で示すような画像にて接近情報を通知してもよい。図14は、配車中の感情誘導装置2の接近情報を通知する画像の一例である。
図14に示すように、配車中の感情誘導装置2の接近情報を通知する画像800には、例えば、配車場所の位置を示す画像803と、配車中の感情誘導装置2の位置を示す画像805とが表示される。また、接近情報を通知する画像800には、配車場所の位置と、配車中の感情誘導装置2の位置とから算出された到着予定時刻「21:32」を知らせる画像801が表示されてもよい。
地図情報記憶部650は、地図情報を記憶する。配車状況通知部605は、地図情報記憶部650に記憶された地図情報を用いることで、感情誘導装置2の到着までの時間、および到着予定時刻をより正確に算出することができる。また、地図情報記憶部650は、渋滞情報、および渋滞予測情報などをさらに記憶してもよい。
以上の構成を備える本実施形態に係る感情誘導システムによれば、ユーザ3は、希望する場所および日時にて感情誘導装置2による感情を引き出す出力を受けることができる。また、ユーザ3は、感情が引き出された表情を感情誘導装置2によってその場で撮像することも可能である。
さらに、本実施形態に係る感情誘導システムでは、ユーザ3が他のユーザと共に感情を引き出す出力を受け、感情が引き出された表情を他のユーザと一緒に撮像することが可能な仕組みを提供してもよい。
例えば、ユーザ3は、配車場所がユーザ3の周囲の所定範囲内である配車要求を確認し、該配車要求に対する参加申請を情報処理サーバ6に送信してもよい。このような場合、配車要求管理部604は、配車要求を送信したユーザに対して、ユーザ3からの参加申請をユーザ3のプロフィール情報と共に送信する。配車要求を送信したユーザがユーザ3からの参加申請を承認した場合、配車要求管理部604は、ユーザ3に参加申請が承認された旨を通知する。
これにより、ユーザ3は、配車要求の配車場所に向かうことで、配車要求を送信したユーザと共に感情誘導装置2による感情を引き出す出力を受けることができる。
例えば、ユーザ3は、図15で示すような画像により、ユーザ3の周囲の所定範囲内に存在する感情誘導装置2の位置、および配車場所を確認することができる。図15は、ユーザ3の周囲の所定範囲内における感情誘導装置2の位置を示す画像の一例である。
図15に示すように、ユーザ3の周囲の所定範囲内に存在する感情誘導装置2の位置を示す画像810には、例えば、ユーザの現在位置を示す画像811が表示され、感情誘導装置2の位置を示す画像813、817、819が表示される。また、感情誘導装置2の位置を示す画像813、817、819には、それぞれ感情誘導装置2の状態を表す画像が表示され、参加申請を送信することが可能な感情誘導装置2を把握することができるようになっている。なお、配車中の感情誘導装置2には、配車場所を示す画像815も併せて表示される。これにより、参加申請を送信しようとするユーザ3は、配車要求に参加するために向かう配車場所を把握することができる。このような画像810は、例えば、配車要求管理部604によって生成されてもよい。
なお、参加申請を送信したユーザ3が配車日時に間に合わなかった場合、配車要求を送信したユーザ、および参加申請を送信したユーザ3は、別々に撮像し、それぞれの撮像画像が合成されてもよい。
また、例えば、ユーザ3は、参加者を募集する配車要求を情報処理サーバ6に送信してもよい。このような場合、配車要求管理部604は、参加者を募集する配車要求を他のユーザが閲覧可能に制御し、配車要求への参加者を募ることができる。他のユーザが該配車要求の募集に応じた場合、配車検索部603は、配車要求の場所および日時に配車可能な感情誘導装置2を検索し、配車要求管理部604は、検索された感情誘導装置2に配車要求を送信する。また、配車要求管理部604は、参加者を募集する配車要求を送信したユーザ3、および募集に応じたユーザに対して、配車される感情誘導装置2の情報を送信する。なお、配車要求の参加募集に応募可能なユーザ数は、一人に限定されず、複数人であってもよい。
なお、配車要求管理部604は、参加者を募集する配車要求をすべてのユーザに閲覧可能に制御するのではなく、特定のユーザにのみ閲覧可能に制御してもよい。例えば、配車要求管理部604は、参加者を募集する配車要求における配車場所から、所定の距離内に存在するユーザにのみ、該参加者を募集する配車要求を閲覧可能に制御してもよい。
また、配車要求管理部604は、参加者を募集する配車要求にてユーザ3が引き出されたい感情と、引き出されたい感情が一致するユーザにのみ、該参加者を募集する配車要求が閲覧可能になるように制御してもよい。さらに、配車要求管理部604は、引き出されたい感情に基づいて、参加者を募集する配車要求と、配車要求の参加募集へ応募しようとするユーザとを自動的にマッチングしてもよい。なお、募集に応じるユーザの引き出されたい感情は、例えば、参加者を募集する配車要求を閲覧する際にユーザに入力させればよい。
[2.3.感情誘導システムの動作]
続いて、図16A〜図18を参照して、本実施形態に係る感情誘導システムの動作について説明する。
まず、図16Aおよび図16Bを参照して、本実施形態に係る感情誘導システムの基本的な動作について説明する。図16Aおよび図16Bは、本実施形態に係る感情誘導システムの動作を説明するシーケンス図である。
図16Aに示すように、まず、情報処理端末7(すなわち、ユーザ3)からユーザ登録情報が情報処理サーバ6に送信される(S201)。情報処理サーバ6は、送信されたユーザ登録情報をユーザ情報記憶部620に登録し(S202)、ユーザ登録の完了を情報処理端末7に通知する(S203)。
続いて、情報処理端末7からログイン情報が情報処理サーバ6に送信される(S204)。情報処理サーバ6は、ログイン情報に基づいて、ユーザ認証を行い(S205)、ユーザ認証が完了した場合、認証完了を情報処理端末7に通知する(S206)。次に、情報処理端末7は、感情誘導装置2の配車要求を情報処理サーバ6に送信する(S207)。
情報処理サーバ6は、配車要求の場所および日時に配車可能な感情誘導装置2を検索し、配車する感情誘導装置2を選択する(S208)。続いて、情報処理サーバ6は、送信された配車要求と、配車する感情誘導装置2とを対応付けて記憶する(S210)。また、情報処理サーバ6は、感情誘導装置2に配車要求を送信し(S211)、配車する感情誘導装置2の情報を情報処理端末7に通知する(S212)。なお、情報処理端末7は、ユーザ登録後のいずれかのタイミングで撮像画像の背景、および編集素材等の撮像設定を情報処理サーバ6に送信してもよい(S209)。該撮像設定は、例えば、配車要求と同時に感情誘導装置2に送信されてもよい。
次に、図16Bに示すように、情報処理サーバ6は、配車予定時刻の所定時間前になったか否かを判断し(S221)、配車予定時刻の所定時間前になった場合、情報処理サーバ6は、配車される感情誘導装置2に現在位置の位置情報を送信するよう要求する(S222)。感情誘導装置2は、現在位置の位置情報を情報処理サーバ6に送信する(S224)。なお、感情誘導装置2は、当該タイミングにて受信していた撮像画像の背景、および編集素材等の撮像設定を反映してもよい(S223)。
続いて、情報処理サーバ6は、感情誘導装置2が配車場所に到着する時間を演算し(S225)、配車される感情誘導装置2の位置情報、および到着予定時刻を情報処理端末7に通知する(S226)。情報処理端末7は、通知された感情誘導装置2の位置情報、および到着予定時刻を表示する(S227)。なお、S222〜S227の処理(ただし、S223の処理は除く)は、感情誘導装置2が配車場所に到達するまで、所定の間隔(例えば、1〜3分毎)にて繰り返し実行されてもよい。
次に、図17Aおよび図17Bを参照して、ユーザ3が配車要求に対する参加申請を送信した場合の本実施形態に係る感情誘導システムの動作について説明する。図17Aおよび図17Bは、本実施形態に係る感情誘導システムのユーザ3が配車要求に対する参加申請を送信した場合の動作を説明するシーケンス図である。なお、図17Aおよび図17Bにおいて、各ユーザのユーザ登録およびユーザ認証は、完了しているものとする。
図17Aに示すように、まず、情報処理端末7B(すなわち、参加申請を送信するユーザ)は、情報処理端末7Bの周囲の感情誘導装置2の位置情報を情報処理サーバ6に要求する(S231)。情報処理サーバ6は、感情誘導装置2の位置情報を検索し(S232)、感情誘導装置2の位置情報を情報処理端末7Bに送信する(S233)。これにより、感情誘導装置2の位置と、該感情誘導装置2に対する配車要求が情報処理端末7Bに表示され、ユーザは、周囲の感情誘導装置2に送信された配車要求を確認することができる(S234)。
ここで、配車要求に対する参加申請が情報処理端末7Bから情報処理サーバ6に送信された(S235)場合、情報処理サーバ6は、配車要求に対する参加申請と、申請したユーザのプロフィール情報とを情報処理端末7A(すなわち、配車要求を送信したユーザ3)に送信する(S236)。情報処理端末7Aから参加申請に対する承認が情報処理サーバ6に送信された(S237)場合、情報処理サーバ6は、配車要求に対する参加申請の承認を記憶し(S238)、情報処理端末7Bに参加申請の承認を通知する(S239)。
次に、図17Bに示すように、情報処理サーバ6は、配車予定時刻の所定時間前になったか否かを判断し(S221)、配車予定時刻の所定時間前になった場合、情報処理サーバ6は、配車される感情誘導装置2に現在位置の位置情報を送信するよう要求する(S222)。感情誘導装置2は、現在位置の位置情報を情報処理サーバ6に送信する(S224)。なお、感情誘導装置2は、当該タイミングにて受信していた撮像画像の背景、および編集素材等の撮像設定を反映させてもよい(S223)。
続いて、情報処理サーバ6は、感情誘導装置2が配車場所に到着する時間を演算し(S225)、配車される感情誘導装置2の位置情報、および到着予定時刻を情報処理端末7Aおよび7Bに通知する(S226A、S226B)。情報処理端末7Aおよび7Bは、通知された感情誘導装置2の位置情報、および到着予定時刻を表示する(S227A、S227B)。なお、S222〜S227A、S227Bの処理(ただし、S223の処理は除く)は、感情誘導装置2が配車場所に到達するまで、所定の間隔(例えば、1〜3分毎)にて繰り返し実行されてもよい。
また、図17Bでは、図の便宜上、S226AおよびS226Bの処理は、異なるタイミングで実行されるように示したが、S226AおよびS226Bの処理は、同じタイミングで実行されてもよい。
ここで、図18を参照して、ユーザ3が参加者を募集する配車要求を送信した場合の本実施形態に係る感情誘導システムの動作について説明する。図18は、本実施形態に係る感情誘導システムのユーザ3が参加者を募集する配車要求を送信した場合の動作を説明するシーケンス図である。
なお、図18において、各ユーザのユーザ登録およびユーザ認証は、完了しているものとする。また、図18で示した処理以降の配車予定時刻の所定時間前になってからの処理については、図17Bを参照して説明した処理と同様であるため、ここでの説明は省略する。
図18に示すように、まず、情報処理端末7A(すなわち、参加者を募集する配車要求を送信するユーザ3)は、参加者を募集する配車要求を情報処理サーバ6に送信する(S241)。次に、情報処理サーバ6は、送信された配車要求を記憶する(S242)。ここで、情報処理端末7Bから参加者を募集している配車要求の閲覧を要求された(S243)場合、情報処理サーバ6は、参加者を募集している配車要求の情報を情報処理端末7Bに送信する(S244)。これにより、参加者を募集している配車要求の情報が情報処理端末7Bに表示され、ユーザは、参加者を募集している配車要求を確認することができる(S245)。
ここで、情報処理端末7Bから配車要求の参加募集への応募が送信された(S246)場合、情報処理サーバ6は、送信された参加募集への応募を情報処理端末7Aに送信する(S247)。また、情報処理サーバ6は、配車要求の場所および日時に配車可能な感情誘導装置2を検索し、配車する感情誘導装置2を選択する(S248)。続いて、情報処理サーバ6は、配車要求と、配車する感情誘導装置2とを対応付けて記憶する(S249)。また、情報処理サーバ6は、感情誘導装置2に配車要求を送信し(S250)、配車する感情誘導装置2の情報を情報処理端末7Aおよび7Bに通知する(S251A、S251B)。
なお、情報処理端末7Aは、いずれかのタイミングで撮像画像の背景、および編集素材等の撮像設定を情報処理サーバ6に送信してもよい。該撮像設定は、例えば、配車要求と同時に感情誘導装置2に送信される。
また、図18では、図の便宜上、S250、S251AおよびS251Bの処理は、異なるタイミングで実行されるように示したが、S250、S251AおよびS251Bの処理は、同じタイミングで実行されてもよい。
以上にて、本実施形態に係る感情誘導システムの動作について詳細に説明した。本実施形態に係る感情誘導システムによれば、ユーザ3は、希望する場所および日時にて感情誘導装置2による感情を引き出す出力を受けることができる。また、本実施形態に係る感情誘導システムによれば、ユーザ3は、他のユーザと共に感情を引き出す出力を受け、感情が引き出された表情を他のユーザと一緒に撮像することも可能である。
[2.4.ハードウェア構成]
以下では、図19を参照して、本実施形態に係る情報処理サーバ6のハードウェア構成の一例について説明する。図19は、本実施形態に係る情報処理サーバ6のハードウェア構成例を示したブロック図である。なお、本実施形態に係る情報処理サーバ6による情報処理は、ソフトウェアとハードウェアとの協働によって実現される。
図19に示すように、情報処理サーバ6は、CPU661と、ROM663と、RAM665と、ブリッジ671と、内部バス667および669と、インタフェース673と、入力装置675と、出力装置677と、ストレージ装置679と、ドライブ681と、接続ポート683と、通信装置685と、を備える。
CPU661は、演算処理装置および制御装置として機能し、ROM663等に記憶された各種プログラムに従って、情報処理サーバ6の動作全般を制御する。ROM663は、CPU661が使用するプログラム、演算パラメータを記憶し、RAM665は、CPU661の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。例えば、CPU661は、制御部600等の機能を実行してもよい。
これらCPU661、ROM663およびRAM665は、ブリッジ671、内部バス667および669等により相互に接続されている。また、CPU661、ROM663およびRAM665は、インタフェース673を介して入力装置675、出力装置677、ストレージ装置679、ドライブ681、接続ポート683および通信装置685とも接続されている。
入力装置675は、タッチパネル、キーボード、マウス、ボタン、マイクロフォン、スイッチおよびレバーなどの各種情報が入力される入力装置を含む。また、入力装置675は、入力された情報に基づいて入力信号を生成し、CPU661に出力するための入力制御回路なども含む。
出力装置677は、例えば、CRT(Cathod Ray Tube)表示装置、液晶表示装置、有機EL(Organic ElectroLuminessennce)表示装置などの表示装置、およびスピーカおよびヘッドフォンなどの音声出力装置を含む。
ストレージ装置679は、情報処理サーバ6の記憶部の一例として構成されるデータ格納用の装置である。ストレージ装置679は、記憶媒体、記憶媒体にデータを記憶する記憶装置、記憶媒体からデータを読み出す読み出し装置、および記憶されたデータを削除する削除装置を含んでもよい。ストレージ装置679は、例えば、ユーザ情報記憶部620、配車管理情報記憶部630、配車要求記憶部640、および地図情報記憶部650等の機能を実行してもよい。
ドライブ681は、記憶媒体用リードライタであり、情報処理サーバ6に内蔵、または外付けされる。例えば、ドライブ681は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記憶されている情報を読み出し、RAM663に出力する。また、ドライブ681は、リムーバブル記憶媒体に情報を書き込むことも可能である。
接続ポート683は、例えば、USBポート、イーサネット(登録商標)ポート、IEEE80671規格ポート、および光オーディオ端子等のような外部接続機器を接続するための接続ポートで構成された接続インタフェースである。
通信装置685は、例えば、公衆回線網などのネットワーク5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置685は、有線によるケーブル通信を行うケーブル通信装置であってもよく、有線または無線LAN対応通信装置であってもよい。例えば、通信装置685は、通信部610の機能を実行してもよい。
また、情報処理サーバ6に内蔵されるCPU、ROMおよびRAMなどのハードウェアを上述した情報処理サーバ6の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
<3.まとめ>
以上にて、説明したように、本開示の第1の実施形態に係る感情誘導システムによれば、ユーザ3から自然な表情を引き出すことが可能である。また、本開示の第1の実施形態に係る感情誘導システムによれば、自然な感情が引き出されたユーザ3の表情を撮像装置にて撮像することも可能である。
また、本開示の第2の実施形態に係る感情誘導システムによれば、ユーザ3は、希望する場所および日時にて感情誘導装置2による感情を引き出す出力を受けることができる。また、本開示の第2の実施形態に係る感情誘導システムによれば、ユーザ3は、他のユーザと共に感情を引き出す出力を受け、感情が引き出された表情を他のユーザと一緒に撮像することも可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザから引き出す感情を選択する感情選択部と、
選択された感情に応じて前記ユーザへの出力を制御する出力制御部と、
を備える感情誘導システム。
(2)
前記感情選択部は、前記ユーザの画像または音声の少なくともいずれかに基づいて、前記ユーザから引き出す感情を選択する、前記(1)に記載の感情誘導システム。
(3)
前記感情選択部は、前記ユーザに対する質問、および前記質問への回答に基づいて、前記ユーザから引き出す感情を選択する、前記(1)に記載の感情誘導システム。
(4)
前記出力は、前記ユーザの五感の少なくともいずれか1つ以上に働きかけることで、選択された感情を前記ユーザから引き出す、前記(1)〜(3)のいずれか一項に記載の感情誘導システム。
(5)
前記出力制御部は、前記選択された感情に応じて、触感または形状の少なくともいずれかが互いに異なるオブジェクトの中から、前記ユーザから内部が視認されない箱体の内部に提供されるオブジェクトを制御する、前記(1)〜(4)のいずれか一項に記載の感情誘導システム。
(6)
前記選択された感情が引き出された前記ユーザを撮像する撮像部をさらに備える、前記(1)〜(5)のいずれか一項に記載の感情誘導システム。
(7)
前記ユーザの画像または音声の少なくともいずれかに基づいて、前記選択された感情と、前記ユーザの感情との類似の程度を表す類似スコアを算出するスコア算出部をさらに備え、
前記撮像部は、前記類似スコアが閾値以上の時の前記ユーザの画像を取得する、前記(6)に記載の感情誘導システム。
(8)
前記ユーザからの入力に基づいて、撮像された前記ユーザの画像を編集する画像編集部をさらに備え、
撮像された前記ユーザの画像は、前記選択された感情に応じた編集素材にて編集される、前記(6)または(7)に記載の感情誘導システム。
(9)
移動体に備えられ、前記ユーザに対して、前記選択された感情に応じた出力を行う感情誘導装置をさらに含む、前記(1)〜(8)のいずれか一項に記載の感情誘導システム。(10)
前記感情誘導装置の配車要求を登録し、前記配車要求に含まれる配車場所および配車日時に配車可能な前記感情誘導装置に、前記配車要求を送信する配車要求管理部、を備える情報処理サーバをさらに含む、前記(9)に記載の感情誘導システム。
(11)
前記配車要求は、前記ユーザから引き出す感情に関する情報をさらに含む、前記(10)に記載の感情誘導システム。
(12)
前記感情誘導装置は、前記選択された感情が引き出された前記ユーザを撮像する撮像部をさらに備え、
前記配車要求は、撮像設定に関する情報をさらに含む、前記(10)または(11)に記載の感情誘導システム。
(13)
前記情報処理サーバは、前記配車要求を送信した前記感情誘導装置から該感情誘導装置の位置情報を取得し、前記配車要求を登録したユーザに対して、前記感情誘導装置の接近情報を通知する配車状況通知部をさらに備える、前記(10)〜(12)のいずれか一項に記載の感情誘導システム。
(14)
前記配車要求管理部は、他のユーザからの前記配車要求に対する参加申請を受け付け、前記配車要求を登録したユーザに前記参加申請を送信する、前記(10)〜(13)のいずれか一項に記載の感情誘導システム。
(15)
前記配車要求管理部は、参加者を募集する配車要求を登録し、前記配車要求の募集に応じた参加者がいる場合、前記配車要求に含まれる配車場所および配車日時に配車可能な前記感情誘導装置に、前記配車要求を送信する、前記(10)〜(14)のいずれか一項に記載の感情誘導システム。
(16)
前記配車要求管理部は、前記ユーザから引き出す感情と、前記参加者から引き出す感情が一致するように、前記参加者が閲覧可能な前記配車要求を制御する、前記(15)に記載の感情誘導システム。
(17)
ユーザから引き出す感情を選択することと、
演算処理装置によって、選択された感情に応じて前記ユーザへの出力を制御することと、
を含む感情誘導方法。
1、2 感情誘導装置
3 ユーザ
4 移動体
6 情報処理サーバ
7 情報処理端末
103 感情選択部
105 出力選択部
107 感情テーブル記憶部
109 出力制御部
111 出力パターン記憶部
113 出力部
115 撮像部
117 スコア算出部
119 画像編集部
121 編集素材記憶部
123 印刷部
125 通信部

Claims (18)

  1. ユーザから引き出す感情を選択する感情選択部と、
    選択された感情に応じて、触感または形状の少なくともいずれかが互いに異なるオブジェクトの中から、前記ユーザから内部が視認されない箱体の内部に提供されるオブジェクトを制御する出力制御部と、
    を備える感情誘導システム。
  2. 前記感情選択部は、前記ユーザの画像または音声の少なくともいずれかに基づいて、前記ユーザから引き出す感情を選択する、請求項1に記載の感情誘導システム。
  3. 前記感情選択部は、前記ユーザに対する質問、および前記質問への回答に基づいて、前記ユーザから引き出す感情を選択する、請求項1または2に記載の感情誘導システム。
  4. 前記出力は、前記ユーザの五感の少なくともいずれか1つ以上に働きかけることで、選択された感情を前記ユーザから引き出す、請求項1〜3のいずれか一項に記載の感情誘導システム。
  5. 前記選択された感情が引き出された前記ユーザを撮像する撮像部をさらに備える、請求項1〜のいずれか一項に記載の感情誘導システム。
  6. 前記ユーザの画像または音声の少なくともいずれかに基づいて、前記選択された感情と、前記ユーザの感情との類似の程度を表す類似スコアを算出するスコア算出部をさらに備え、
    前記撮像部は、前記類似スコアが閾値以上の時の前記ユーザの画像を取得する、請求項に記載の感情誘導システム。
  7. 前記ユーザからの入力に基づいて、撮像された前記ユーザの画像を編集する画像編集部をさらに備え、
    撮像された前記ユーザの画像は、前記選択された感情に応じた編集素材にて編集される、請求項またはに記載の感情誘導システム。
  8. ユーザから引き出す感情を選択する感情選択部と、
    選択された感情に応じて前記ユーザへの出力を制御する出力制御部と、
    移動体に備えられ、前記ユーザに対して、前記選択された感情に応じた出力を行う感情誘導装置と、
    前記感情誘導装置の配車要求を登録し、前記配車要求に含まれる配車場所および配車日時に配車可能な前記感情誘導装置に、前記配車要求を送信する配車要求管理部を有する情報処理サーバと、
    を備える感情誘導システム。
  9. 前記配車要求は、前記ユーザから引き出す感情に関する情報をさらに含む、請求項に記載の感情誘導システム。
  10. 前記感情誘導装置は、前記選択された感情が引き出された前記ユーザを撮像する撮像部をさらに備え、
    前記配車要求は、撮像設定に関する情報をさらに含む、請求項またはに記載の感情誘導システム。
  11. 前記情報処理サーバは、前記配車要求を送信した前記感情誘導装置から該感情誘導装置の位置情報を取得し、前記配車要求を登録したユーザに対して、前記感情誘導装置の接近情報を通知する配車状況通知部をさらに備える、請求項10のいずれか一項に記載の感情誘導システム。
  12. 前記配車要求管理部は、他のユーザからの前記配車要求に対する参加申請を受け付け、前記配車要求を登録したユーザに前記参加申請を送信する、請求項11のいずれか一項に記載の感情誘導システム。
  13. 前記配車要求管理部は、参加者を募集する配車要求を登録し、前記配車要求の募集に応じた参加者がいる場合、前記配車要求に含まれる配車場所および配車日時に配車可能な前記感情誘導装置に、前記配車要求を送信する、請求項12のいずれか一項に記載の感情誘導システム。
  14. 前記配車要求管理部は、前記ユーザから引き出す感情と、前記参加者から引き出す感情が一致するように、前記参加者が閲覧可能な前記配車要求を制御する、請求項13に記載の感情誘導システム。
  15. ユーザから引き出す感情を選択することと、
    演算処理装置によって、選択された感情に応じて、触感または形状の少なくともいずれかが互いに異なるオブジェクトの中から、前記ユーザから内部が視認されない箱体の内部に提供されるオブジェクトを制御することと、
    を含む感情誘導方法。
  16. コンピュータを
    ユーザから引き出す感情を選択する感情選択部、
    選択された感情に応じて、触感または形状の少なくともいずれかが互いに異なるオブジェクトの中から、前記ユーザから内部が視認されない箱体の内部に提供されるオブジェクトを制御する出力制御部、
    として機能させるためのプログラム。
  17. ユーザから引き出す感情を選択することと、
    選択された感情に応じて前記ユーザへの出力を制御することと、
    移動体に備えられる感情誘導装置であって、前記ユーザに対して、前記選択された感情に応じた出力を行う前記感情誘導装置の配車要求を登録し、前記配車要求に含まれる配車場所および配車日時に配車可能な前記感情誘導装置に、前記配車要求を送信することと、
    を含む感情誘導方法。
  18. コンピュータを
    ユーザから引き出す感情を選択する感情選択部、
    選択された感情に応じて前記ユーザへの出力を制御する出力制御部、
    移動体に備えられる感情誘導装置であって、前記ユーザに対して、前記選択された感情に応じた出力を行う前記感情誘導装置の配車要求を登録し、前記配車要求に含まれる配車場所および配車日時に配車可能な前記感情誘導装置に、前記配車要求を送信する配車要求管理部、
    として機能させるためのプログラム。
JP2017541448A 2015-09-25 2016-06-22 感情誘導システム、感情誘導方法、およびプログラム Active JP6753407B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015187891 2015-09-25
JP2015187891 2015-09-25
PCT/JP2016/068574 WO2017051577A1 (ja) 2015-09-25 2016-06-22 感情誘導システム、および感情誘導方法

Publications (2)

Publication Number Publication Date
JPWO2017051577A1 JPWO2017051577A1 (ja) 2018-07-26
JP6753407B2 true JP6753407B2 (ja) 2020-09-09

Family

ID=58385889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017541448A Active JP6753407B2 (ja) 2015-09-25 2016-06-22 感情誘導システム、感情誘導方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP6753407B2 (ja)
WO (1) WO2017051577A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020531987A (ja) * 2017-10-30 2020-11-05 コーロン インダストリーズ インク 人工知能技術を利用して広告及び商品購買に関するサービスを提供する装置、システム、及び方法
JP6748170B2 (ja) * 2018-10-04 2020-08-26 株式会社スクウェア・エニックス ビデオゲーム処理プログラム、ビデオゲーム処理装置及びビデオゲーム処理方法
JP7189434B2 (ja) * 2019-01-11 2022-12-14 ダイキン工業株式会社 空間制御システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031131A (ja) * 2003-07-07 2005-02-03 Nikon Corp 自動撮像装置
JP4877762B2 (ja) * 2006-07-19 2012-02-15 株式会社ソニー・コンピュータエンタテインメント 表情誘導装置および表情誘導方法、表情誘導システム
JP2012235219A (ja) * 2011-04-28 2012-11-29 Hideyuki Miura 笑顔等誘導撮影装置
JP6481866B2 (ja) * 2014-01-28 2019-03-13 ソニー株式会社 情報処理装置、撮像装置、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
WO2017051577A1 (ja) 2017-03-30
JPWO2017051577A1 (ja) 2018-07-26

Similar Documents

Publication Publication Date Title
US11544274B2 (en) Context-based digital assistant
CN110780707B (zh) 信息处理设备、信息处理方法与计算机可读介质
JP7070652B2 (ja) 情報処理システム、情報処理方法、およびプログラム
CN109463004A (zh) 数字助理服务的远场延伸
JP2019521449A (ja) 永続的コンパニオンデバイス構成及び配備プラットフォーム
CN108628921A (zh) 将非请求内容主动并入到人机对话中
CN105409197A (zh) 用于提供持久伙伴装置的设备和方法
CN107000210A (zh) 用于提供持久伙伴装置的设备和方法
CN105379234A (zh) 用于提供针对受限的注意力分散情景和非受限的注意力分散情景的不同用户界面的应用网关
JP2018014094A (ja) 仮想ロボットのインタラクション方法、システム及びロボット
JP7070638B2 (ja) 情報処理システムおよび情報処理方法
JP6753407B2 (ja) 感情誘導システム、感情誘導方法、およびプログラム
JP6747444B2 (ja) 情報処理システム、情報処理方法、およびプログラム
WO2018003196A1 (ja) 情報処理システム、記憶媒体、および情報処理方法
CN109409063A (zh) 一种信息交互方法、装置、计算机设备和存储介质
JP6888854B1 (ja) 遠隔勤務支援システム及び遠隔勤務支援方法
WO2020116026A1 (ja) 応答処理装置、応答処理方法及び応答処理プログラム
JP7130290B2 (ja) 情報抽出装置
JP7096626B2 (ja) 情報抽出装置
CN109168075A (zh) 一种视频信息传输方法、系统、服务器
WO2022091230A1 (ja) 情報抽出装置
JP6754815B2 (ja) 拡張現実システム、拡張現実端末および方法
JP6869216B2 (ja) 拡張現実端末
JP2017068592A (ja) ロボット、ロボット制御装置、ロボット制御方法、及びプログラム
JPWO2018163811A1 (ja) 情報処理装置、情報処理方法、並びにプログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200803

R151 Written notification of patent or utility model registration

Ref document number: 6753407

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151