JP2019162219A - 情報処理装置、ミラーデバイス、プログラム - Google Patents
情報処理装置、ミラーデバイス、プログラム Download PDFInfo
- Publication number
- JP2019162219A JP2019162219A JP2018050888A JP2018050888A JP2019162219A JP 2019162219 A JP2019162219 A JP 2019162219A JP 2018050888 A JP2018050888 A JP 2018050888A JP 2018050888 A JP2018050888 A JP 2018050888A JP 2019162219 A JP2019162219 A JP 2019162219A
- Authority
- JP
- Japan
- Prior art keywords
- observer
- image
- voice
- character
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Mirrors, Picture Frames, Photograph Stands, And Related Fastening Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
観察者の鏡像に対応する観察者画像を取得し、且つ、音声を出力可能なミラーデバイスと接続される情報処理装置であって、
前記ミラーデバイスから前記観察者画像を取得する手段を備え、
前記観察者画像に基づいて、前記鏡像に写った観察者の状態を判定する手段を備え、
前記判定の結果に基づいて、擬人化キャラクタの音声を生成する手段を備え、
前記生成された音声を前記ミラーデバイスに送信する手段を備える、
情報処理装置である。
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。図2は、図1の情報処理システムの機能ブロック図である。
ミラーデバイス10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
ミラーデバイス10は、ディスプレイ18と、ハーフミラー19と、を備える。ミラーデバイス10は、ディスプレイ18を介して画像を観察者に提示し、且つ、ハーフミラー19を介して鏡像を観察者に提示する。つまり、ミラーデバイス10は、観察者に対して、画像及び鏡像を同時に提示することができる。
観察者がハーフミラー19に視線を向けると、ハーフミラー19を透過したディスプレイ18の光が観察者の目に入射する。これにより、観察者は、ディスプレイ18に表示された画像と、ハーフミラー19に写った鏡像(例えば、観察者自身の像)と、を同時に観察することができる。
ミラーデバイス10の構成について説明する。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーションのプログラム
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
入力デバイスは、カメラ15と、マイクロホン17と、入力装置(一例として、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せ)と、を含む。
出力デバイスは、スピーカ16と、ディスプレイ18と、を含む。
カメラ15は、例えば、COMS(Complementary Metal Oxide Semiconductor)カメラ、又は、赤外線カメラである。
図1を参照して、サーバ30の構成について説明する。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
・情報処理において参照されるデータベース
・情報処理の実行結果
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
観察者OBJがハーフミラー19を見ながら化粧を開始すると、ミラーデバイス10は、化粧中の観察者OBJの顔の画像IMG1を取得する。ハーフミラー19には、化粧中の観察者OBJの顔の鏡像MI1が写る。鏡像MI1は、画像IMG1に対応する。ミラーデバイス10は、画像IMG1(つまり、化粧中の観察者OBJの顔)に応じた音声SC1(例えば、「もっと明るい色が良いよ」という擬人化キャラクタの音声)を再生する。
観察者OBJが化粧を終了すると、ミラーデバイス10は、化粧後の観察者OBJの顔の画像IMG2を取得する。ハーフミラー19には、化粧後の観察者OBJの顔の鏡像MI2が写る。鏡像MI2は、画像IMG2に対応する。ミラーデバイス10は、画像IMG2(つまり、化粧後の観察者OBJの顔)に応じた音声SC2(例えば、「似合ってるね」という擬人化キャラクタの音声)を再生する。
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
本実施形態の観察者情報データベースについて説明する。図4は、本実施形態の観察者情報データベースのデータ構造を示す図である。
観察者情報データベースは、「観察者ID」フィールドと、「パスワード」フィールドと、「観察者名」フィールドと、「観察者属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
本実施形態のキャラクタ情報マスタについて説明する。図5は、本実施形態のキャラクタ情報マスタのデータ構造を示す図である。
キャラクタ情報マスタは、「キャラクタID」フィールドと、「キャラクタパラメータ」フィールドと、「リアクション」フィールドと、を含む。
「キャラクタパラメータ」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、「性格」フィールドと、を含む。
本実施形態のパターンマッチングテーブルについて説明する。図6は、本実施形態のパターンマッチングテーブルのデータ構造を示す図である。
パターンマッチングテーブルは、「パターンファイル」フィールドと、「状態」フィールドと、「リアクションファイル」フィールドと、を含む。各フィールドは、互いに関連付けられている。
パターンマッチングテーブルは、キャラクタIDに関連付けられている。
・化粧の画像パターン
・表情の画像パターン
・肌の状態の画像パターン
・顔の形状の画像パターン
・性格の画像パターン
・衣服の画像パターン
・体型の画像パターン
・化粧の状態(一例として、化粧の色合い、使用頻度が高い化粧アイテム)
・表情の状態(一例として、喜怒哀楽、驚き、イライラ、及び、疑心暗記)
・肌の状態(一例として、肌の透明度、肌の健康状態、肌の明るさ、肌のきめ細かさ、肌のハリ、ニキビの状態、隈の状態、皺の状態、及び、毛穴の状態)
・顔の状態(一例として、2次元状態(具体的には、輪郭、目の形状、鼻の形状、口の形状、瞼の形状、及び、眉毛の形状)、並びに、3次元状態(具体的には、ほうれい線の状態、たるみの状態、及び、Eラインの状態))
・性格
・衣服の状態(一例として、衣服の組合せと観察者OBJとの相性、及び、皺の状態)
・体型の状態(一例として、体つき)
本実施形態のログ情報データベースについて説明する。図7は、本実施形態のログ情報データベースのデータ構造を示す図である。
ログ情報データベースは、「ログID」フィールドと、「日時」フィールドと、「入力」フィールドと、「状態」フィールドと、「出力」フィールドと、を含む。各フィールドは、互いに関連付けられている。
ログ情報データベースは、観察者IDに関連付けられる。
本実施形態の情報処理について説明する。図8は、本実施形態の情報処理のシーケンス図である。図9〜図11は、図8の情報処理における出力例を示す図である。図12は、図8のリアクションの生成の詳細なフローチャートである。
具体的には、プロセッサ12は、ディスプレイ18に画面P100(図9)を表示する。画面P100は、ハーフミラー19に写った鏡像MI0(例えば、化粧を開始する前の観察者OBJの顔の像)に重畳して表示される。
表示オブジェクトA100には、現在の日時に関する情報が表示される。
フィールドオブジェクトF100は、複数の擬人化キャラクタの中から少なくとも1人の擬人化キャラクタの指定を受け付けるためのオブジェクトである。フィールドオブジェクトF100には、複数の擬人化キャラクタのキャラクタ情報(例えば、キャラクタ名、性別、年齢、及び、職業)が表示される。各キャラクタ情報には、キャラクタIDが割り当てられている。
操作オブジェクトB100は、フィールドオブジェクトF100において指定されたキャラクタ情報に割り当てられたキャラクタIDをサーバ30に送信するための指示を受け付けるためのオブジェクトである。
具体的には、プロセッサ32は、ステップS100においてミラーデバイス10から送信されたキャラクタIDを、観察者OBJに対するリアクションを示すべきキャラクタのキャラクタIDとして決定する。
プロセッサ32は、キャラクタIDを決定したことを示す通知をミラーデバイス10に送信する。
具体的には、プロセッサ12は、カメラ15を起動させる。
カメラ15が観察者OBJの顔の画像(以下「観察者画像」という)を撮像すると、プロセッサ12は、カメラ15によって撮像された観察者画像を記憶装置11に記憶する。観察者画像は、観察者OBJが観察する鏡像MI0に対応する。例えば、カメラ15は、鏡像MI0に対応する画像が撮像可能な位置に配置されている。
具体的には、プロセッサ12は、リアクションリクエストデータをサーバ30に送信する。リアクションリクエストデータは、以下の情報を含む。
・ステップS101で記憶装置11に記憶された観察者画像を含む。
・ステップS102の実行日時に関する情報
具体的には、プロセッサ32は、リアクションリクエストデータに含まれる観察者画像の特徴量に基づいて、観察者画像の画像パターンを特定する。
具体的には、プロセッサ32は、ステップS300において決定したキャラクタIDに関連付けられたパターンマッチングテーブル(図6)を参照して、観察者画像の画像パターンと同一、又は、類似の画像パターンが記述された画像パターンファイルを特定する。「類似の画像パターン」とは、例えば、観察者画像の画像パターンとの特徴量の差分が所定以下である画像パターンである。
具体的には、記憶装置31には、状態判定モデルが記憶されている。状態判定モデルの入力及び出力は、以下のとおりである。
・入力:画像パターン
・出力:観察者の状態
具体的には、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「音声」フィールドの音声リアクションファイルを参照して、音声リアクションとして出力すべき音声リアクションデータを生成する。
具体的には、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「AR」フィールドのARリアクションファイルを参照して、ARリアクションとして出力すべきARリアクションデータを生成する。
具体的には、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「テキスト」フィールドのテキストリアクションファイルを参照して、テキストリアクションとして出力すべきテキストリアクションデータを生成する。
具体的には、プロセッサ32は、ステップS100においてミラーデバイス10から送信された観察者IDに関連付けられたログ情報データベース(図7)を特定する。
プロセッサ32は、特定したログ情報データベースに新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「ログID」フィールドには、プロセッサ32が任意に決定した新規ログIDが格納される。
・「日時」フィールドには、リアクションリクエストデータに含まれるステップS102の実行日時に関する情報が格納される。
・「入力画像」フィールドには、リアクションリクエストデータに含まれる観察者画像が格納される。
・「解析結果」フィールドには、ステップS3010において特定された画像パターンが格納される。
・「状態」フィールドには、ステップS3012において決定された状態コードが格納される。
・「キャラクタID」フィールドには、S300において決定したキャラクタIDが格納される。
・「リアクション」フィールドには、ステップS3013〜S3015において生成されたリアクションデータ(音声リアクションデータ、ARリアクションデータ、及び、テキストリアクションデータ)が格納される。
具体的には、プロセッサ32は、ミラーデバイス10にリアクションレスポンスデータを送信する。リアクションレスポンスデータは、ステップS3013〜S3015において生成されたリアクションデータを含む。
具体的には、プロセッサ12は、ディスプレイ18に画面P101(図10)を表示する。画面P101は、ハーフミラー19に写った鏡像MI1(例えば、化粧中の観察者OBJの顔の像)に重畳して表示される。
表示オブジェクトA100には、現在の日時に関する情報が表示される。
したがって、観察者OBJの化粧が進行する度に、ステップS103において、擬人化キャラクタのリアクションが観察者OBJに提示される。
画像オブジェクトIMG102は、ステップS3014でせいせいされたARリアクションデータに基づく画像(例えば、化粧の方法を提案する化粧ナビゲーション画像)である。
画像パターンが衣服の画像パターンである場合、観察者OBJが身に付けた衣服に対する擬人化キャラクタの反応を、音声、AR画像、及び、テキスト、を介して体験することができる。
画像パターンが体型の画像パターンである場合、観察者OBJの体型に対する擬人化キャラクタの反応を、音声、AR画像、及び、テキスト、を介して体験することができる。
画像パターンが表情の画像パターンである場合、観察者OBJの表情に対する擬人化キャラクタの反応を、音声、AR画像、及び、テキスト、を介して体験することができる。
本実施形態の変形例について説明する。
変形例1について説明する。変形例1は、複数のキャラクタの中から選択されたn(n≧2)人のキャラクタに対応する音声コンテンツを出力する例である。図13は、変形例1の情報処理における出力例を示す図である。
変形例2について説明する。変形例2は、第1観察者OBJ1と類似する第2観察者OBJ2の情報を参照して、第1観察者OBJ1の画像に対するリアクションを提示する例である。図14は、変形例2のリアクションの生成の詳細なフローチャートである。
具体的には、プロセッサ32は、観察者情報データベース(図4)を参照して、ステップS100においてミラーデバイス10から送信された観察者ID(以下「第1観察者ID」という)に関連付けられた観察者属性情報を特定する。
プロセッサ32は、観察者情報データベースの「観察者属性」フィールドを参照して、第1観察者属性情報と同一又は類似の観察者属性情報に関連付けられた少なくとも1つの観察者ID(以下「第2観察者ID」という)を特定する。「類似の観察者属性情報」とは、例えば、第1観察者IDに関連付けられた観察者属性情報との差分が所定以下である観察者属性情報である。
プロセッサ32は、特定した第2観察者IDに関連付けられたログ情報データベース(図7)を参照して、所定条件に該当するレコード(例えば、「日時」フィールドの情報が、ステップS3220の実行日時から一定期間内に含まれるレコード)を特定する。
プロセッサ32は、特定したレコードのうち、「キャラクタID」フィールドに、ステップS300で決定されたキャラクタIDが格納されたレコードの情報を、参照観察者情報として特定する。
具体的には、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「音声」フィールドの音声リアクションファイルと、ステップS3220において特定された参照観察者情報の「リアクション」フィールドの情報と、を参照して、音声リアクションとして出力すべき音声リアクションデータを生成する。
具体的には、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「AR」フィールドのARリアクションファイルと、ステップS3220において特定された参照観察者情報の「リアクション」フィールドの情報と、を参照して、ARリアクションとして出力すべきARリアクションデータを生成する。
具体的には、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「テキスト」フィールドのテキストリアクションファイルと、ステップS3220において特定された参照観察者情報の「リアクション」フィールドの情報と、を参照して、テキストリアクションとして出力すべきテキストリアクションデータを生成する。
ステップS303の後、ミラーデバイス10は、ステップS103を実行する。
変形例3について説明する。変形例3は、観察者OBJの体組成に応じたリアクションを提示する例である。
プロセッサ12は、リアクションリクエストデータに、更に、体組成情報を含める。
・入力:画像パターン及び体組成
・出力:観察者の状態
変形例4について説明する。変形例4は、観察者OBJの変化に応じたリアクションを提示する例である。
プロセッサ32は、比較の結果に基づく文脈(例えば、「昨日より良くなったね」)の音声リアクションデータ、ARリアクションデータ、及び、テキストリアクションデータを生成する。
変形例5について説明する。変形例5は、観察者OBJと統計値との比較結果に応じたリアクションを提示する例である。
・化粧の美しさに関する統計情報
・衣服の美しさに関する統計情報
・体型の美しさに関する統計情報
・表情の美しさに関する統計情報
プロセッサ32は、計算の結果に基づく文脈(例えば、「他の人よりスッキリしているよ」)の音声リアクションデータ、ARリアクションデータ、及び、テキストリアクションデータを生成する。
変形例6について説明する。変形例6は、観察者OBJの音声に応じたリアクションを提示する例である。
プロセッサ12は、リアクションリクエストデータに、更に、音声情報を含める。
変形例7について説明する。変形例7は、画像から特定される観察者OBJの状態の傾向に基づいて、擬人化キャラクタの音声を提供する例である。図15は、変形例7の概要の説明図である。
サーバ30は、ログ情報データベース(図7)の「出力」フィールドの情報に基づいて、嗜好モデルを更新する。その結果、嗜好モデルには、観察者OBJの顔の視覚的な嗜好が記述される。
嗜好モデルに記述される傾向は、例えば、以下を含む。
・明るい色のチークを使用する頻度が多い。
・月曜日は暗い表情をする頻度が多い。
・入力:状態コード
・出力:音声リアクションデータ
・ARリアクションの生成(図12のステップS3014及び図14のステップS3222)
・テキストリアクションの生成(図12のステップS3015及び図14のステップS3223)
変形例8について説明する。変形例8は、擬人化キャラクタの音声に応じた観察者OBJの反応の傾向に基づいて、擬人化キャラクタの音声を提供する例である。図16は、変形例8の概要の説明図である。
観察者OBJが、音声SCmが再生されたにもかかわらず表情を変えなかった(つまり、擬人化キャラクタの音声に反する反応を示した)場合、ミラーデバイス10は、擬人化キャラクタの音声に反する反応を示した観察者OBJの顔の画像IMGn(n=m+1)(つまり、擬人化キャラクタの音声に反する反応を示した観察者OBJの顔の状態)に応じた音声SCn(例えば、「もっと笑ってみて」という擬人化キャラクタの音声)を再生する。
サーバ30は、ログ情報データベース(図7)のm番目のレコードの「入力」フィールドの情報と、n番目のレコードの「出力」フィールドの情報と、の関係に基づいて、嗜好モデルを更新する。その結果、嗜好モデルには、擬人化キャラクタの音声が示す文脈を観察者OBJが受け入れたか否かによって決まる観察者OBJの嗜好が記述される。
嗜好モデルに記述される傾向は、例えば、以下を含む。
・明るい色のチークの使用を推奨しても、暗い色のチークを使用する頻度が多い。
・月曜日は軽く褒める音声を提供しても、観察者OBJの表情の変化は少ない。
・入力:状態コード
・出力:音声リアクションデータ
・ARリアクションの生成(図12のステップS3014及び図14のステップS3222)
・テキストリアクションの生成(図12のステップS3015及び図14のステップS3223)
変形例9について説明する。変形例9は、擬人化キャラクタと観察者OBJの組合せに応じた擬人化キャラクタの音声を生成する例である。
プロセッサ32は、特定したパターンマッチングテーブルを参照して、ステップS3012において決定した状態コードに関連付けられた「音声」フィールドの音声リアクションファイルを特定する。
プロセッサ32は、特定した音声リアクションファイルを参照して、音声リアクションとして出力すべき音声リアクションデータを生成する。
変形例10について説明する。変形例10は、擬人化キャラクタの性格と観察者OBJの性格に応じた擬人化キャラクタの音声を生成する例である。
・入力:画像の特徴量(例えば、顔の各パーツの配置)
・出力:人の性格
プロセッサ32は、特定したパターンマッチングテーブルを参照して、ステップS3012において決定した状態コードに関連付けられた「音声」フィールドの音声リアクションファイルを特定する。
プロセッサ32は、特定した音声リアクションファイルを参照して、音声リアクションとして出力すべき音声リアクションデータを生成する。
本実施形態について小括する。
観察者の鏡像に対応する観察者画像を取得し、且つ、音声を出力可能なミラーデバイス10と接続される情報処理装置(例えば、サーバ30)であって、
ミラーデバイス10から観察者画像を取得する手段(例えば、ステップS301の処理を実行するプロセッサ32)を備え、
観察者画像に基づいて、鏡像に写った観察者の状態を判定する手段(例えば、ステップS3012の処理を実行するプロセッサ32)を備え、
判定の結果に基づいて、擬人化キャラクタの音声を生成する手段(例えば、ステップS3013の処理を実行するプロセッサ32)を備え、
生成された音声をミラーデバイス10に送信する手段(例えば、ステップS303の処理を実行するプロセッサ32)を備える、
情報処理装置。
特に、観察者は、ミラーデバイス10が自身の状態に応じて語りかけてくれるような体験をすることができる。その結果、観察者は、ミラーデバイス10に対して、親近感を覚える。このことは、観察者に対して、ミラーデバイス10を使用することの動機づけを与えるので、観察者は、ミラーデバイスを頻繁に使用するようになる。
観察者画像の特徴量を解析することにより、観察者画像の画像パターンを特定する手段(例えば、ステップS3010の処理を実行するプロセッサ32)を備え、
判定する手段は、特定された画像パターンに基づいて、観察者の状態を判定する、
情報処理装置である。
観察者を識別する観察者識別情報と、観察者の属性に関する観察者属性情報と、特定された画像パターンと、を関連付けて記憶する手段(例えば、図4の観察者情報データベース及び図7のログ情報データベース)を備え、
前記特定する手段は、第1観察者の観察者属性情報と同一又は類似の観察者属性情報に関連付けられた第2観察者識別情報を特定する手段を備え、
前記判定する手段は、前記第1観察者の観察者画像から特定された第1画像パターンと、前記第2観察者識別情報に関連付けられた第2画像パターンと、に基づいて、前記第1観察者の状態を判定する、
情報処理装置である。
判定する手段は、観察者の状態の変化を判定する、
情報処理装置である。
判定する手段は、観察者の顔に施された化粧の評価を判定する、
情報処理装置である。
判定する手段は、観察者が身に付けている衣服の評価を判定する、
情報処理装置である。
衣服を身に着けた観察者の状態に応じた擬人化キャラクタの音声が観察者に提供される。これにより、観察者は、擬人化キャラクタの音声とインタラクションを行いながら衣服を選択することができる。このように、衣服の選択という行動に全く新しいユーザ体験が生まれる。その結果、衣服に対する観察者の意識も向上することが期待される。
判定する手段は、観察者の体型の評価を判定する、
情報処理装置である。
判定する手段は、観察者の表情の評価を判定する、
情報処理装置である。
複数の擬人化キャラクタの中から少なくとも1つの擬人化キャラクタを指定する指示を受け付ける手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
生成する手段は、受け付けられた指示によって指定された擬人化キャラクタの音声を出力する、
情報処理装置である。
受け付ける手段が複数の擬人化キャラクタを指定する指示を受け付けた場合、生成する手段は、複数の擬人化キャラクタの音声を生成する、
情報処理装置である。
ミラーデバイスから観察者の音声を取得する手段を備え、
生成する手段は、判定の結果及び観察者の音声に応じた擬人化キャラクタの音声を出力する、
情報処理装置である。
生成する手段は、判定の結果に応じた助言又は誘導を提示するための擬人化キャラクタの音声を生成する、
情報処理装置である。
生成する手段は、観察者の状態の傾向が記述された嗜好モデルを参照して、擬人化キャラクタの音声を生成する、
情報処理装置である。
情報処理装置である。
生成する手段は、擬人化キャラクタのパラメータ、及び、観察者の属性に関する観察者属性情報の組合せと、判定の結果と、に基づいて、擬人化キャラクタの音声を生成する、
情報処理装置である。
画像の特徴量を入力とし、且つ、性格を出力とする性格判定モデルを参照して、観察者画像に応じた観察者の性格を判定する手段を備え、
生成する手段は、擬人化キャラクタの性格に関する情報、及び、判定された観察者の性格の組合せと、判定された観察者の状態と、に基づいて、擬人化キャラクタの音声を生成する、
情報処理装置である。
観察者の鏡像を写すミラー(例えば、ハーフミラー19)を備え、
ミラーに写った鏡像に対応する観察者画像を撮像するカメラ15を備え、
カメラ15によって撮像された観察者画像に基づいて判定された観察者の状態に応じた擬人化キャラクタの音声を出力するスピーカ16を備える、
ミラーデバイス10である。
コンピュータ(例えば、プロセッサ12又は32)を、上記各手段として機能させるためのプログラムである。
その他の変形例について説明する。
例えば、サーバ30が行う情報処理は、ミラーデバイス10が行ってもよい。この場合、ミラーデバイス10の記憶装置11及びプロセッサ12は、サーバ30の記憶装置31及びプロセッサ32の機能を代替する。
・ハーフミラー19は、光を全反射する鏡によって代替される。
・ステップS3014〜S3015(図12)、及び、S3222〜S3223(図14)は省略される。
1 :キャラクタ
2 :キャラクタ
10 :ミラーデバイス
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :カメラ
16 :スピーカ
17 :マイクロホン
18 :ディスプレイ
19 :ハーフミラー
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
Claims (18)
- 観察者の鏡像に対応する観察者画像を取得し、且つ、音声を出力可能なミラーデバイスと接続される情報処理装置であって、
前記ミラーデバイスから前記観察者画像を取得する手段を備え、
前記観察者画像に基づいて、前記鏡像に写った観察者の状態を判定する手段を備え、
前記判定の結果に基づいて、擬人化キャラクタの音声を生成する手段を備え、
前記生成された音声を前記ミラーデバイスに送信する手段を備える、
情報処理装置。 - 前記観察者画像の特徴量を解析することにより、前記観察者画像の画像パターンを特定する手段を備え、
前記判定する手段は、前記特定された画像パターンに基づいて、前記観察者の状態を判定する、
請求項1に記載の情報処理装置。 - 観察者を識別する観察者識別情報と、観察者の属性に関する観察者属性情報と、前記特定された画像パターンと、を関連付けて記憶する手段を備え、
前記特定する手段は、第1観察者の観察者属性情報と同一又は類似の観察者属性情報に関連付けられた第2観察者識別情報を特定する手段を備え、
前記判定する手段は、前記第1観察者の観察者画像から特定された第1画像パターンと、前記第2観察者識別情報に関連付けられた第2画像パターンと、に基づいて、前記第1観察者の状態を判定する、
請求項2に記載の情報処理装置。 - 前記判定する手段は、前記観察者の状態の変化を判定する、
請求項1〜3の何れかに記載の情報処理装置。 - 前記判定する手段は、前記観察者の顔に施された化粧の評価を判定する、
請求項1〜4の何れかに記載の情報処理装置。 - 前記判定する手段は、前記観察者が身に付けている衣服の評価を判定する、
請求項1〜5の何れかに記載の情報処理装置。 - 前記判定する手段は、前記観察者の体型の評価を判定する、
請求項1〜6の何れかに記載の情報処理装置。 - 前記判定する手段は、前記観察者の表情の評価を判定する、
請求項1〜7の何れかに記載の情報処理装置。 - 複数の擬人化キャラクタの中から少なくとも1つの擬人化キャラクタを指定する指示を受け付ける手段を備え、
前記生成する手段は、前記受け付けられた指示によって指定された擬人化キャラクタの音声を出力する、
請求項1〜8の何れかに記載の情報処理装置。 - 前記受け付ける手段が複数の擬人化キャラクタを指定する指示を受け付けた場合、前記生成する手段は、複数の擬人化キャラクタの音声を生成する、
請求項9に記載の情報処理装置。 - 前記ミラーデバイスから前記観察者の音声を取得する手段を備え、
前記生成する手段は、前記判定の結果及び前記観察者の音声に応じた前記擬人化キャラクタの音声を出力する、
請求項1〜10の何れかに記載の情報処理装置。 - 前記生成する手段は、前記判定の結果に応じた助言又は誘導を提示するための前記擬人化キャラクタの音声を生成する、
請求項1〜11の何れかに記載の情報処理装置。 - 前記生成する手段は、前記観察者の状態の傾向が記述された嗜好モデルを参照して、前記擬人化キャラクタの音声を生成する、
請求項1〜12の何れかに記載の情報処理装置。 - 前記生成する手段は、前記擬人化キャラクタの音声に対して前記観察者が示した反応の傾向が記述された嗜好モデルを参照して、前記擬人化キャラクタの音声を生成する、
請求項13に記載の情報処理装置。 - 前記生成する手段は、前記擬人化キャラクタのパラメータ、及び、前記観察者の属性に関する観察者属性情報の組合せと、前記判定の結果と、に基づいて、擬人化キャラクタの音声を生成する、
請求項1〜14の何れかに記載の情報処理装置。 - 画像の特徴量を入力とし、且つ、性格を出力とする性格判定モデルを参照して、前記観察者画像に応じた前記観察者の性格を判定する手段を備え、
前記生成する手段は、前記擬人化キャラクタの性格に関する情報、及び、前記判定された観察者の性格の組合せと、前記判定された観察者の状態と、に基づいて、擬人化キャラクタの音声を生成する、
請求項1〜15の何れかに記載の情報処理装置。 - 観察者の鏡像を写すミラーを備え、
前記ミラーに写った鏡像に対応する観察者画像を撮像するカメラを備え、
前記カメラによって撮像された前記観察者画像に基づいて判定された前記観察者の状態に応じた擬人化キャラクタの音声を出力するスピーカを備える、
ミラーデバイス。 - コンピュータを、請求項1〜16の何れかに記載の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018050888A JP6583754B2 (ja) | 2018-03-19 | 2018-03-19 | 情報処理装置、ミラーデバイス、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018050888A JP6583754B2 (ja) | 2018-03-19 | 2018-03-19 | 情報処理装置、ミラーデバイス、プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019151688A Division JP2019212325A (ja) | 2019-08-22 | 2019-08-22 | 情報処理装置、ミラーデバイス、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019162219A true JP2019162219A (ja) | 2019-09-26 |
JP6583754B2 JP6583754B2 (ja) | 2019-10-02 |
Family
ID=68066401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018050888A Active JP6583754B2 (ja) | 2018-03-19 | 2018-03-19 | 情報処理装置、ミラーデバイス、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6583754B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021126502A (ja) * | 2020-02-11 | 2021-09-02 | アイコン・エーアイ・インコーポレーテッドICON AI Inc. | ディスプレイを備えて人工知能ボイスアシスタントと連動するスマートメイクミラーデバイス |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003108362A (ja) * | 2001-07-23 | 2003-04-11 | Matsushita Electric Works Ltd | コミュニケーション支援装置およびコミュニケーション支援システム |
JP2005070721A (ja) * | 2003-08-27 | 2005-03-17 | Akihiko Shigeta | 音響出力機能付き化粧用品 |
JP2007087097A (ja) * | 2005-09-22 | 2007-04-05 | Oki Electric Ind Co Ltd | 自動取引装置 |
JP2007133728A (ja) * | 2005-11-11 | 2007-05-31 | Kenwood Corp | エージェント装置、エージェント機能付車載用ナビゲーション装置、エージェント出力方法 |
JP2009213751A (ja) * | 2008-03-12 | 2009-09-24 | Sony Ericsson Mobilecommunications Japan Inc | 化粧評価プログラム、化粧評価方法および化粧評価装置 |
JP2010086036A (ja) * | 2008-09-29 | 2010-04-15 | Fujifilm Corp | 診断装置及び診断方法 |
JP2012181688A (ja) * | 2011-03-01 | 2012-09-20 | Sony Corp | 情報処理装置、情報処理方法、情報処理システムおよびプログラム |
JP2017117090A (ja) * | 2015-12-22 | 2017-06-29 | 株式会社アイ・ビジネスセンター | 対話システムおよびプログラム |
JP2017167273A (ja) * | 2016-03-15 | 2017-09-21 | 株式会社東芝 | 声質嗜好学習装置、声質嗜好学習方法及びプログラム |
JP2017224281A (ja) * | 2016-04-21 | 2017-12-21 | ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. | ヘルストラッキングデバイス |
-
2018
- 2018-03-19 JP JP2018050888A patent/JP6583754B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003108362A (ja) * | 2001-07-23 | 2003-04-11 | Matsushita Electric Works Ltd | コミュニケーション支援装置およびコミュニケーション支援システム |
JP2005070721A (ja) * | 2003-08-27 | 2005-03-17 | Akihiko Shigeta | 音響出力機能付き化粧用品 |
JP2007087097A (ja) * | 2005-09-22 | 2007-04-05 | Oki Electric Ind Co Ltd | 自動取引装置 |
JP2007133728A (ja) * | 2005-11-11 | 2007-05-31 | Kenwood Corp | エージェント装置、エージェント機能付車載用ナビゲーション装置、エージェント出力方法 |
JP2009213751A (ja) * | 2008-03-12 | 2009-09-24 | Sony Ericsson Mobilecommunications Japan Inc | 化粧評価プログラム、化粧評価方法および化粧評価装置 |
JP2010086036A (ja) * | 2008-09-29 | 2010-04-15 | Fujifilm Corp | 診断装置及び診断方法 |
JP2012181688A (ja) * | 2011-03-01 | 2012-09-20 | Sony Corp | 情報処理装置、情報処理方法、情報処理システムおよびプログラム |
JP2017117090A (ja) * | 2015-12-22 | 2017-06-29 | 株式会社アイ・ビジネスセンター | 対話システムおよびプログラム |
JP2017167273A (ja) * | 2016-03-15 | 2017-09-21 | 株式会社東芝 | 声質嗜好学習装置、声質嗜好学習方法及びプログラム |
JP2017224281A (ja) * | 2016-04-21 | 2017-12-21 | ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. | ヘルストラッキングデバイス |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021126502A (ja) * | 2020-02-11 | 2021-09-02 | アイコン・エーアイ・インコーポレーテッドICON AI Inc. | ディスプレイを備えて人工知能ボイスアシスタントと連動するスマートメイクミラーデバイス |
Also Published As
Publication number | Publication date |
---|---|
JP6583754B2 (ja) | 2019-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112034977B (zh) | Mr智能眼镜内容交互、信息输入、应用推荐技术的方法 | |
JP2024028390A (ja) | 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置 | |
Bailenson et al. | The effect of behavioral realism and form realism of real-time avatar faces on verbal disclosure, nonverbal disclosure, emotion recognition, and copresence in dyadic interaction | |
CN109844854A (zh) | 单词流注释 | |
KR20170085422A (ko) | 가상 에이전트 동작 방법 및 장치 | |
WO2020148920A1 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
KR102351008B1 (ko) | 감정 인식 장치 및 감정 인식 방법 | |
KR102532908B1 (ko) | 딥러닝 및 가상현실을 이용한 심리 상담 제공 장치, 방법 및 프로그램 | |
Cunningham et al. | Manipulating video sequences to determine the components of conversational facial expressions | |
JP7479618B2 (ja) | 情報処理プログラム、情報処理方法、情報処理装置 | |
KR20190048144A (ko) | 발표 및 면접 훈련을 위한 증강현실 시스템 | |
Nijholt | Capturing obstructed nonverbal cues in augmented reality interactions: a short survey | |
Morandell et al. | Avatars in assistive homes for the elderly: a user-friendly way of interaction? | |
JP6583754B2 (ja) | 情報処理装置、ミラーデバイス、プログラム | |
JP2019212325A (ja) | 情報処理装置、ミラーデバイス、プログラム | |
US20230282080A1 (en) | Sound-based attentive state assessment | |
CN111654752A (zh) | 多媒体信息播放方法、装置及相关设备 | |
JP2020160641A (ja) | 仮想人物選定装置、仮想人物選定システム及びプログラム | |
WO2019208152A1 (ja) | 情報処理装置及びプログラム | |
Ochs et al. | From emotions to interpersonal stances: Multi-level analysis of smiling virtual characters | |
Nijholt | Social augmented reality: A multiperspective survey | |
Heck | Presentation adaptation for multimodal interface systems: three essays on the effectiveness of user-centric content and modality adaptation | |
JP7138998B1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム | |
WO2022201267A1 (ja) | 動画像分析プログラム | |
WO2022230136A1 (ja) | 動画像分析システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20180405 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180501 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180524 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20180625 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180727 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180727 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180918 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6583754 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |