JP2019162219A - 情報処理装置、ミラーデバイス、プログラム - Google Patents

情報処理装置、ミラーデバイス、プログラム Download PDF

Info

Publication number
JP2019162219A
JP2019162219A JP2018050888A JP2018050888A JP2019162219A JP 2019162219 A JP2019162219 A JP 2019162219A JP 2018050888 A JP2018050888 A JP 2018050888A JP 2018050888 A JP2018050888 A JP 2018050888A JP 2019162219 A JP2019162219 A JP 2019162219A
Authority
JP
Japan
Prior art keywords
observer
image
voice
character
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018050888A
Other languages
English (en)
Other versions
JP6583754B2 (ja
Inventor
国忠 遠藤
Kunitada Endo
国忠 遠藤
優 堀江
Masaru Horie
優 堀江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Novera Inc
Original Assignee
Novera Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Novera Inc filed Critical Novera Inc
Priority to JP2018050888A priority Critical patent/JP6583754B2/ja
Publication of JP2019162219A publication Critical patent/JP2019162219A/ja
Application granted granted Critical
Publication of JP6583754B2 publication Critical patent/JP6583754B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Mirrors, Picture Frames, Photograph Stands, And Related Fastening Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】鏡像を観察する観察者に対して、視覚情報が反映されたインタラクションを提供する。【解決手段】情報処理装置は、観察者OBJの鏡像MI1に対応する観察者画像IMG1を取得し、且つ、音声SC1を出力可能なミラーデバイス10と接続される。情報処理装置は、ミラーデバイス10から観察者画像IMG1を取得する手段を備え、観察者画像IMG1に基づいて、鏡像MI1に写った観察者の状態を判定する手段を備え、判定の結果に基づいて、擬人化キャラクタの音声SC1を生成する手段を備え、生成された音声SC1をミラーデバイス10に送信する手段を備える。【選択図】図3

Description

本発明は、情報処理装置、ミラーデバイス、及び、プログラムに関する。
近年、音声認識技術が実装されたスマートスピーカが注目されている。スマートスピーカは、ユーザが発話した音声コマンドを解析し、且つ、解析結果に応じた動作(例えば、音声出力)を行う。
例えば、特許文献1の音声認識端末装置は、ユーザが発話した音声コマンドを取得し、取得した音声コマンドを音声認識サーバに送信して音声認識処理を要求する。音声認識端末装置は、音声認識サーバから応答メッセージを受信した場合、取得した応答メッセージに基づく出力処理を実行する。
スマートスピーカでは、スマートスピーカに実装されたコンピュータとユーザとの間で対話形式のインタラクションが発生する。その結果、ユーザは、スマートスピーカと会話するように、スマートスピーカを使用することができる。
特開2015−135420号公報
一般に、人の日常生活において、鏡は欠かせないデバイスである。特に、女性は、美容行動(例えば、化粧、衣服の確認、又は、表情の確認)のために鏡を頻繁に使用する。ところが、ユーザは、鏡像を観察するために鏡を使用するので、鏡とユーザとの間でインタラクションは発生しない。
例えば、ユーザと鏡との間でインタラクションを発生させる方法として、鏡に特許文献1の技術を実装する方法が考えられる。この場合、ユーザが音声コマンドを発話すると、鏡が音声コマンドに応じた出力処理を行う。その結果、ユーザが発した音声コマンドを介して、ユーザと鏡との間で、インタラクションが発生する。このインタラクションは、音声入力と音声出力によるインタラクションである。
一方、美容行動を行う人は、視覚情報を重視している。例えば、女性が鏡に写った鏡像を見ながら化粧を行うのは、化粧が施された顔を視覚的に確認するためである。
しかし、鏡に特許文献1の技術を実装したとしても、音声入力と音声出力によるインタラクションであるため、鏡に写った観察者が重視する視覚情報がインタラクションに介在しない。つまり、出力される音声には、観察者が重視する情報が反映されない。
このように、従来の音声認識技術では、鏡像を観察する観察者にとって重要な視覚情報が反映されたインタラクションを発生させることはできない。
本発明の目的は、鏡像を観察する観察者に対して、視覚情報が反映されたインタラクションを提供することである。
本発明の一態様は、
観察者の鏡像に対応する観察者画像を取得し、且つ、音声を出力可能なミラーデバイスと接続される情報処理装置であって、
前記ミラーデバイスから前記観察者画像を取得する手段を備え、
前記観察者画像に基づいて、前記鏡像に写った観察者の状態を判定する手段を備え、
前記判定の結果に基づいて、擬人化キャラクタの音声を生成する手段を備え、
前記生成された音声を前記ミラーデバイスに送信する手段を備える、
情報処理装置である。
本発明によれば、鏡像を観察する観察者に対して、視覚情報が反映されたインタラクションを提供することができる。
本実施形態の情報処理システムの構成を示すブロック図である。 図1の情報処理システムの機能ブロック図である。 本実施形態の概要の説明図である。 本実施形態の観察者情報データベースのデータ構造を示す図である。 本実施形態のキャラクタ情報マスタのデータ構造を示す図である。 本実施形態のパターンマッチングテーブルのデータ構造を示す図である。 本実施形態のログ情報データベースのデータ構造を示す図である。 本実施形態の情報処理のシーケンス図である。 図8の情報処理における出力例を示す図である。 図8の情報処理における出力例を示す図である。 図8の情報処理における出力例を示す図である。 図8のリアクションの生成の詳細なフローチャートである。 変形例1の情報処理における出力例を示す図である。 変形例2のリアクションの生成の詳細なフローチャートである。 変形例7の概要の説明図である。 変形例8の概要の説明図である。
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。図2は、図1の情報処理システムの機能ブロック図である。
図1に示すように、情報処理システム1は、ミラーデバイス10と、サーバ30とを備える。
ミラーデバイス10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
ミラーデバイス10は、サーバ30にリクエストを送信する情報処理装置の一例である。
ミラーデバイス10は、ディスプレイ18と、ハーフミラー19と、を備える。ミラーデバイス10は、ディスプレイ18を介して画像を観察者に提示し、且つ、ハーフミラー19を介して鏡像を観察者に提示する。つまり、ミラーデバイス10は、観察者に対して、画像及び鏡像を同時に提示することができる。
ハーフミラー19は、ディスプレイ18に対して、外側に配置される(図1)。
観察者がハーフミラー19に視線を向けると、ハーフミラー19を透過したディスプレイ18の光が観察者の目に入射する。これにより、観察者は、ディスプレイ18に表示された画像と、ハーフミラー19に写った鏡像(例えば、観察者自身の像)と、を同時に観察することができる。
サーバ30は、ミラーデバイス10から送信されたリクエストに応じたレスポンスをミラーデバイス10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。
(1−1)ミラーデバイスの構成
ミラーデバイス10の構成について説明する。
図2に示すように、ミラーデバイス10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、カメラ15と、スピーカ16と、マイクロホン17と、ディスプレイ18と、ハーフミラー19と、を備える。
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーションのプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、ミラーデバイス10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
入出力インタフェース13は、ミラーデバイス10に接続される入力デバイスから観察者の指示を取得し、かつ、ミラーデバイス10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、カメラ15と、マイクロホン17と、入力装置(一例として、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せ)と、を含む。
出力デバイスは、スピーカ16と、ディスプレイ18と、を含む。
通信インタフェース14は、ミラーデバイス10とサーバ30との間の通信を制御するように構成される。
カメラ15は、画像を撮像するように構成される。
カメラ15は、例えば、COMS(Complementary Metal Oxide Semiconductor)カメラ、又は、赤外線カメラである。
スピーカ16は、プロセッサ12によって作成された音声コンテンツを出力するように構成される。
マイクロホン17は、音声(例えば、観察者の音声)を入力するように構成される。プロセッサ12は、マイクロホン17によって入力された観察者の音声を解析することにより、観察者の音声の文脈を特定する。プロセッサ12は、特定した文脈を観察者の指示として取り扱う。これにより、ミラーデバイス10は、観察者の音声に応じた挙動を示す。
ディスプレイ18は、プロセッサ12によって生成された画像を表示するように構成される。
ハーフミラー19は、鏡像(例えば、観察者自身の像)を写すように構成される。
(1−2)サーバの構成
図1を参照して、サーバ30の構成について説明する。
図1に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。
入出力インタフェース33は、サーバ30に接続される入力デバイスから観察者の指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
通信インタフェース34は、サーバ30とミラーデバイス10との間の通信を制御するように構成される。
(2)実施形態の概要
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
図3に示すように、本実施形態は、観察者OBJが、ミラーデバイス10のハーフミラー19に写った鏡像を観察しながら、美容行動(例えば、化粧)をする場合に適用可能である。
観察者OBJが化粧をするときに、ミラーデバイス10の前に立つと、化粧前の観察者OBJの顔の鏡像MI0がハーフミラー19に写る。
観察者OBJがハーフミラー19を見ながら化粧を開始すると、ミラーデバイス10は、化粧中の観察者OBJの顔の画像IMG1を取得する。ハーフミラー19には、化粧中の観察者OBJの顔の鏡像MI1が写る。鏡像MI1は、画像IMG1に対応する。ミラーデバイス10は、画像IMG1(つまり、化粧中の観察者OBJの顔)に応じた音声SC1(例えば、「もっと明るい色が良いよ」という擬人化キャラクタの音声)を再生する。
観察者OBJが化粧を終了すると、ミラーデバイス10は、化粧後の観察者OBJの顔の画像IMG2を取得する。ハーフミラー19には、化粧後の観察者OBJの顔の鏡像MI2が写る。鏡像MI2は、画像IMG2に対応する。ミラーデバイス10は、画像IMG2(つまり、化粧後の観察者OBJの顔)に応じた音声SC2(例えば、「似合ってるね」という擬人化キャラクタの音声)を再生する。
このように、ミラーデバイス10は、観察者OBJの状態に応じた音声コンテンツを再生する。これにより、ミラーデバイス10は、美容行動中の観察者OBJにとって、音声によって対話する対象者(いわゆる、パートナー)として振る舞う。その結果、観察者OBJは、擬人化キャラクタの声による反応を聞きながら、美容行動を行うことができる。このように、観察者OBJに対して、新しい美容行動のユーザ体験を提供することができる。
特に、鏡像MI1を観察している観察者OBJにとって重要な視覚情報である画像IMG1に応じて、聴覚情報である音声SC1〜SC2を再生することにより、観察者OBJは、自身が重視している情報に応じた出力を得ることができる。これは、観察者OBJが、ミラーデバイス10に対して意識的にコマンドを与えることなく、自身が重視している視覚情報を無意識に与えるだけで、当該視覚情報に応じた出力が得られることを意味する。
(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(3−1)観察者情報データベース
本実施形態の観察者情報データベースについて説明する。図4は、本実施形態の観察者情報データベースのデータ構造を示す図である。
図4に示すように、観察者情報データベースには、観察者に関する観察者情報が格納される。
観察者情報データベースは、「観察者ID」フィールドと、「パスワード」フィールドと、「観察者名」フィールドと、「観察者属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
「観察者ID」フィールドには、観察者OBJを識別する観察者ID(「観察者識別情報」の一例)が格納される。
「パスワード」フィールドには、観察者OBJがサーバ30にログインするときの認証のためのパスワードが格納される。「パスワード」フィールドの情報は、観察者情報をサーバ30に登録するときに、観察者OBJの任意で決定される。
「観察者名」フィールドには、観察者OBJの名前に関する情報が格納される。「観察者名」フィールドの情報は、観察者情報をサーバ30に登録するときに、観察者OBJの任意で決定される。
「観察者属性」フィールドには、観察者の属性に関する観察者属性情報が格納される。「観察者属性」フィールドの情報は、観察者情報をサーバ30に登録するときに、観察者OBJの任意で決定される。「観察者属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、を含む。
「性別」フィールドには、観察者の性別に関する情報が格納される。
「年齢」フィールドには、観察者の年齢に関する情報が格納される。
「職業」フィールドには、観察者の職業に関する情報が格納される。
(3−2)キャラクタ情報マスタ
本実施形態のキャラクタ情報マスタについて説明する。図5は、本実施形態のキャラクタ情報マスタのデータ構造を示す図である。
図5のキャラクタ情報マスタには、擬人化キャラクタに関するキャラクタ情報が格納される。「擬人化キャラクタ」とは、ミラーデバイス10のユーザにとって、コンピュータ空間において擬人化された人物であって、且つ、音声によってユーザとコミュニケーションを取ることができる仮想的な人物である。
キャラクタ情報マスタは、「キャラクタID」フィールドと、「キャラクタパラメータ」フィールドと、「リアクション」フィールドと、を含む。
「キャラクタID」フィールドには、擬人化キャラクタを識別するキャラクタID(「キャラクタ識別情報」の一例)が格納される。
「キャラクタパラメータ」フィールドには、擬人化キャラクタに設定されたキャラクタパラメータが格納される。
「キャラクタパラメータ」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、「性格」フィールドと、を含む。
「性別」フィールドには、擬人化キャラクタの性別に関する情報が格納される。
「年齢」フィールドには、擬人化キャラクタの年齢に関する情報が格納される。
「職業」フィールドには、擬人化キャラクタの職業に関する情報が格納される。
「性格」フィールドには、擬人化キャラクタの性格に関する情報が格納される。
(3−3)パターンマッチングテーブル
本実施形態のパターンマッチングテーブルについて説明する。図6は、本実施形態のパターンマッチングテーブルのデータ構造を示す図である。
図6に示すように、パターンマッチングテーブルには、コンテンツと、画像の特徴量のパターン(以下「画像パターン」という)との関連性に関するパターンマッチング情報が格納される。
パターンマッチングテーブルは、「パターンファイル」フィールドと、「状態」フィールドと、「リアクションファイル」フィールドと、を含む。各フィールドは、互いに関連付けられている。
パターンマッチングテーブルは、キャラクタIDに関連付けられている。
「パターンファイル」フィールドには、画像パターンが記述された画像パターンファイルが格納される。画像パターンは、例えば、以下の何れかである。
・化粧の画像パターン
・表情の画像パターン
・肌の状態の画像パターン
・顔の形状の画像パターン
・性格の画像パターン
・衣服の画像パターン
・体型の画像パターン
「状態」フィールドには、観察者画像の特徴量に基づいて判定される観察者OBJの状態を識別する状態コードが格納される。状態コードは、例えば、以下の少なくとも1つの状態を示す。
・化粧の状態(一例として、化粧の色合い、使用頻度が高い化粧アイテム)
・表情の状態(一例として、喜怒哀楽、驚き、イライラ、及び、疑心暗記)
・肌の状態(一例として、肌の透明度、肌の健康状態、肌の明るさ、肌のきめ細かさ、肌のハリ、ニキビの状態、隈の状態、皺の状態、及び、毛穴の状態)
・顔の状態(一例として、2次元状態(具体的には、輪郭、目の形状、鼻の形状、口の形状、瞼の形状、及び、眉毛の形状)、並びに、3次元状態(具体的には、ほうれい線の状態、たるみの状態、及び、Eラインの状態))
・性格
・衣服の状態(一例として、衣服の組合せと観察者OBJとの相性、及び、皺の状態)
・体型の状態(一例として、体つき)
「リアクションファイル」フィールドには、コンテンツファイルが格納される。「リアクションファイル」フィールドは、「音声」フィールドと、「AR」フィールドと、「テキスト」フィールドと、を含む。
「音声」フィールドには、音声リアクションファイルが格納される。音声リアクションファイルには、擬人化キャラクタの音声リアクションに関する音声情報が記述された音声リアクションファイルが記述されている。
「AR」フィールドには、ARリアクションファイルが格納される。ARリアクションファイルには、擬人化キャラクタの仮想現実(Augmented Reality)リアクションに関するAR情報が記述されている。
「テキスト」フィールドには、テキストリアクションファイルが格納される。テキストリアクションファイルには、擬人化キャラクタのテキストによる反応の基礎となる情報が記述されたテキストリアクションファイルが記述されている。
(3−4)ログ情報データベース
本実施形態のログ情報データベースについて説明する。図7は、本実施形態のログ情報データベースのデータ構造を示す図である。
図7に示すように、ログ情報データベースには、観察者OBJがミラーデバイス10を使用する度にミラーデバイス10によって収集されるログ情報が格納される。
ログ情報データベースは、「ログID」フィールドと、「日時」フィールドと、「入力」フィールドと、「状態」フィールドと、「出力」フィールドと、を含む。各フィールドは、互いに関連付けられている。
ログ情報データベースは、観察者IDに関連付けられる。
「ログID」フィールドには、ログ情報を識別するログID(「ログ識別情報」の一例)が格納される。
「日時」フィールドには、ログ情報の日時に関する情報が格納される。
「ログ」フィールドには、ミラーデバイス10によって取得された情報が格納される。「ログ」フィールドは、「入力画像」フィールドと、「解析結果」フィールドと、を含む。
「入力画像」フィールドには、ミラーデバイス10によって取得された画像の観察者画像が格納される。
「解析結果」フィールドには、観察者画像に対する画像解析の結果を示すファイル(以下「解析結果ファイル」という)が格納される。解析結果ファイルには、観察者画像の特徴量が記述される。
「状態」フィールドには、解析結果ファイルに対応する観察者OBJの状態を識別する状態コードが格納される。
「出力」フィールドには、「入力」フィールドの情報に対応する反応に関するリアクション情報が格納される。「出力」フィールドは、「キャラクタID」フィールドと、「出力コンテンツ」フィールドと、を含む。
「キャラクタID」フィールドには、「入力」フィールドの情報に対応する反応を示した擬人化キャラクタのキャラクタIDが格納される。
「出力コンテンツ」フィールドには、「入力」フィールドの情報に対応する反応に関するリアクション情報が記述されたリアクションファイルが格納される。
(4)情報処理
本実施形態の情報処理について説明する。図8は、本実施形態の情報処理のシーケンス図である。図9〜図11は、図8の情報処理における出力例を示す図である。図12は、図8のリアクションの生成の詳細なフローチャートである。
図8に示すように、ミラーデバイス10は、キャラクタの指定の受付(S100)を実行する。
具体的には、プロセッサ12は、ディスプレイ18に画面P100(図9)を表示する。画面P100は、ハーフミラー19に写った鏡像MI0(例えば、化粧を開始する前の観察者OBJの顔の像)に重畳して表示される。
画面P100は、表示オブジェクトA100と、フィールドオブジェクトF100と、操作オブジェクトB100と、を含む。
表示オブジェクトA100には、現在の日時に関する情報が表示される。
フィールドオブジェクトF100は、複数の擬人化キャラクタの中から少なくとも1人の擬人化キャラクタの指定を受け付けるためのオブジェクトである。フィールドオブジェクトF100には、複数の擬人化キャラクタのキャラクタ情報(例えば、キャラクタ名、性別、年齢、及び、職業)が表示される。各キャラクタ情報には、キャラクタIDが割り当てられている。
操作オブジェクトB100は、フィールドオブジェクトF100において指定されたキャラクタ情報に割り当てられたキャラクタIDをサーバ30に送信するための指示を受け付けるためのオブジェクトである。
観察者OBJが、フィールドオブジェクトF100に表示されたキャラクタ情報の少なくとも1つを指定し、且つ、操作オブジェクトB100を操作すると、プロセッサ12は、観察者OBJによって指定されたキャラクタ情報に割り当てられたキャラクタIDと、観察者OBJの観察者IDと、をサーバ30に送信する。
ステップS100の後、サーバ30は、キャラクタの決定(S300)を実行する。
具体的には、プロセッサ32は、ステップS100においてミラーデバイス10から送信されたキャラクタIDを、観察者OBJに対するリアクションを示すべきキャラクタのキャラクタIDとして決定する。
プロセッサ32は、キャラクタIDを決定したことを示す通知をミラーデバイス10に送信する。
ステップS300の後、ミラーデバイス10は、画像の取得(S101)を実行する。
具体的には、プロセッサ12は、カメラ15を起動させる。
カメラ15が観察者OBJの顔の画像(以下「観察者画像」という)を撮像すると、プロセッサ12は、カメラ15によって撮像された観察者画像を記憶装置11に記憶する。観察者画像は、観察者OBJが観察する鏡像MI0に対応する。例えば、カメラ15は、鏡像MI0に対応する画像が撮像可能な位置に配置されている。
ステップS101の後、ミラーデバイス10は、リアクションリクエスト(S102)を実行する。
具体的には、プロセッサ12は、リアクションリクエストデータをサーバ30に送信する。リアクションリクエストデータは、以下の情報を含む。
・ステップS101で記憶装置11に記憶された観察者画像を含む。
・ステップS102の実行日時に関する情報
ステップS102の後、サーバ30は、リアクションの生成(S301)を実行する。
図12に示すように、サーバ30は、画像解析(S3010)を実行する。
具体的には、プロセッサ32は、リアクションリクエストデータに含まれる観察者画像の特徴量に基づいて、観察者画像の画像パターンを特定する。
ステップS3010の後、サーバ30は、パターンマッチング(S3011)を実行する。
具体的には、プロセッサ32は、ステップS300において決定したキャラクタIDに関連付けられたパターンマッチングテーブル(図6)を参照して、観察者画像の画像パターンと同一、又は、類似の画像パターンが記述された画像パターンファイルを特定する。「類似の画像パターン」とは、例えば、観察者画像の画像パターンとの特徴量の差分が所定以下である画像パターンである。
ステップS3012の後、サーバ30は、状態の判定(S3012)を実行する。
具体的には、記憶装置31には、状態判定モデルが記憶されている。状態判定モデルの入力及び出力は、以下のとおりである。
・入力:画像パターン
・出力:観察者の状態
プロセッサ32は、記憶装置31に記憶された状態判定モデルに、ステップS3011で特定した画像パターンファイルを入力することにより、当該画像パターンファイルに対応する観察者OBJの状態を識別する状態コードを決定する。
ステップS3012の後、サーバ30は、音声リアクションの生成(S3013)を実行する。
具体的には、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「音声」フィールドの音声リアクションファイルを参照して、音声リアクションとして出力すべき音声リアクションデータを生成する。
ステップS3013の後、サーバ30は、ARリアクションの生成(S3014)を実行する。
具体的には、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「AR」フィールドのARリアクションファイルを参照して、ARリアクションとして出力すべきARリアクションデータを生成する。
ステップS3014の後、サーバ30は、テキストリアクションの生成(S3015)を実行する。
具体的には、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「テキスト」フィールドのテキストリアクションファイルを参照して、テキストリアクションとして出力すべきテキストリアクションデータを生成する。
ステップS3015の後、サーバ30は、データベースの更新(S302)を実行する。
具体的には、プロセッサ32は、ステップS100においてミラーデバイス10から送信された観察者IDに関連付けられたログ情報データベース(図7)を特定する。
プロセッサ32は、特定したログ情報データベースに新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「ログID」フィールドには、プロセッサ32が任意に決定した新規ログIDが格納される。
・「日時」フィールドには、リアクションリクエストデータに含まれるステップS102の実行日時に関する情報が格納される。
・「入力画像」フィールドには、リアクションリクエストデータに含まれる観察者画像が格納される。
・「解析結果」フィールドには、ステップS3010において特定された画像パターンが格納される。
・「状態」フィールドには、ステップS3012において決定された状態コードが格納される。
・「キャラクタID」フィールドには、S300において決定したキャラクタIDが格納される。
・「リアクション」フィールドには、ステップS3013〜S3015において生成されたリアクションデータ(音声リアクションデータ、ARリアクションデータ、及び、テキストリアクションデータ)が格納される。
ステップS302の後、サーバ30は、リアクションレスポンス(S303)を実行する。
具体的には、プロセッサ32は、ミラーデバイス10にリアクションレスポンスデータを送信する。リアクションレスポンスデータは、ステップS3013〜S3015において生成されたリアクションデータを含む。
ステップS303の後、ミラーデバイス10は、リアクション(S103)を実行する。
具体的には、プロセッサ12は、ディスプレイ18に画面P101(図10)を表示する。画面P101は、ハーフミラー19に写った鏡像MI1(例えば、化粧中の観察者OBJの顔の像)に重畳して表示される。
画面P101は、表示オブジェクトA100を含む。
表示オブジェクトA100には、現在の日時に関する情報が表示される。
プロセッサ12は、リアクションレスポンスデータに含まれる音声リアクションデータに基づく音声(例えば、「もっと明るい色が良いよ」という音声)をスピーカ16から出力する。この音声は、ステップS101で取得された画像に基づいて生成されている。これにより、観察者OBJは、化粧中の自身の顔の状態に応じた助言や誘導を、擬人化キャラクタの音声を介して得ることができる。
ステップS101〜S103、及び、S301〜S303は、観察者OBJが情報処理の終了の指示(例えば、情報処理を終了させることを意味する音声の発話)を行うまで継続的に実行される。
したがって、観察者OBJの化粧が進行する度に、ステップS103において、擬人化キャラクタのリアクションが観察者OBJに提示される。
例えば、プロセッサ12は、ディスプレイ18に画面P102(図11)を表示する。画面P102は、ハーフミラー19に写った鏡像MI2(例えば、図10に対して、化粧が進行した後の観察者OBJの顔の像)に重畳して表示される。
画面P102は、表示オブジェクトA100及びA102と、画像オブジェクトIMG102と、を含む。
表示オブジェクトA102には、ステップS3015で生成されたテキストリアクションデータに対応するテキストが表示される。
画像オブジェクトIMG102は、ステップS3014でせいせいされたARリアクションデータに基づく画像(例えば、化粧の方法を提案する化粧ナビゲーション画像)である。
プロセッサ12は、リアクションレスポンスデータに含まれる音声リアクションデータに基づく音声(例えば、「もっと明るい色が良いよ」という音声)をスピーカ16から出力する。この音声は、ステップS101で取得された画像に基づいて生成されている。
これにより、観察者OBJは、化粧が進行した後の自身の顔に対する擬人化キャラクタの反応を、音声、AR画像、及び、テキスト、を介して体験することができる。
画像パターンが衣服の画像パターンである場合、観察者OBJが身に付けた衣服に対する擬人化キャラクタの反応を、音声、AR画像、及び、テキスト、を介して体験することができる。
画像パターンが体型の画像パターンである場合、観察者OBJの体型に対する擬人化キャラクタの反応を、音声、AR画像、及び、テキスト、を介して体験することができる。
画像パターンが表情の画像パターンである場合、観察者OBJの表情に対する擬人化キャラクタの反応を、音声、AR画像、及び、テキスト、を介して体験することができる。
本実施形態によれば、サーバ30は、観察者OBJに対して意見や助言を提供するパートナーに相当する擬人化キャラクタとして振る舞うように、ミラーデバイス10を制御する。例えば、サーバ30は、観察者OBJに対して、観察者OBJがより美しくなるための助言や誘導を含むリアクションを提示する。つまり、擬人化キャラクタは、観察者OBJにとって、他の誰よりも観察者OBJのことを魅力的だと思っている仮想的なパートナー、又は、他の誰よりも観察者OBjの魅力を引き出せる仮想的なパートナーとして振る舞う。これにより、観察者OBJは、このようなパートナーから、自身の美しさに関する客観的な反応を体験しながら、美容行動(例えば、化粧、衣服のコーディネート、体型管理、及び、体組成管理の少なくとも1つの行動)を取ることができる。
特に、本実施形態では、擬人化キャラクタの画像を表示しないことが好ましい。擬人化キャラクタと観察者OBJとのコミュニケーションを音声又はテキストによって実現することにより、擬人化キャラクタのリアクションが観察者OBJに強く印象付けられる。その結果、観察者OBJは、擬人化キャラクタに対して身近感を覚える。
(5)変形例
本実施形態の変形例について説明する。
(5−1)変形例1
変形例1について説明する。変形例1は、複数のキャラクタの中から選択されたn(n≧2)人のキャラクタに対応する音声コンテンツを出力する例である。図13は、変形例1の情報処理における出力例を示す図である。
変形例1では、ステップS100(図8)において、観察者OBJがフィールドオブジェクトF100に表示されたキャラクタ情報の中から複数のキャラクタ情報を指定した場合、プロセッサ12は、観察者OBJによって指定されたキャラクタ情報に割り当てられた複数のキャラクタIDと、観察者OBJの観察者IDと、をサーバ30に送信する。
ステップS300(図8)において、プロセッサ32は、ステップS100においてミラーデバイス10から送信された複数のキャラクタIDを、観察者OBJに対するリアクションを示すべきキャラクタのキャラクタIDとして決定する。
ステップS3011(図12)において、プロセッサ32は、ステップS300において決定した複数のキャラクタIDに関連付けられたパターンマッチングテーブル(図6)を参照して、観察者画像の画像パターンと類似する画像パターンが記述された画像パターンファイルをキャラクタID毎に特定する。
ステップS3013〜S3015(図12)において、プロセッサ32は、ステップS3011において特定したキャラクタID毎に、音声リアクションデータ、ARリアクションデータ、及び、テキストリアクションデータを生成する。
ステップS103(図8)において、プロセッサ12は、ディスプレイ18に画面P110(図13)を表示する。画面P110は、ハーフミラー19に写った鏡像MI1(例えば、化粧中の観察者OBJの顔の像)に重畳して表示される。
プロセッサ12は、リアクションレスポンスデータに含まれる複数の音声リアクションデータに基づく音声(例えば、キャラクタ1(キャラクタID:CHA001)の音声「もっと明るい色が良いよ」、及び、キャラクタ2(キャラクタID:CHA002)の音声「暗い色の方が似合うよ」)をスピーカ16から出力する。
変形例1によれば、観察者OBJは、化粧中の自身の顔の鏡像MI1に対して、複数の擬人化キャラクタ同士が会話をしているような反応を体験することができる。
(5−2)変形例2
変形例2について説明する。変形例2は、第1観察者OBJ1と類似する第2観察者OBJ2の情報を参照して、第1観察者OBJ1の画像に対するリアクションを提示する例である。図14は、変形例2のリアクションの生成の詳細なフローチャートである。
図14に示すように、ステップS3010〜S3012(図12)の後、サーバ30は、参照観察者情報の参照(S3220)を実行する。
具体的には、プロセッサ32は、観察者情報データベース(図4)を参照して、ステップS100においてミラーデバイス10から送信された観察者ID(以下「第1観察者ID」という)に関連付けられた観察者属性情報を特定する。
プロセッサ32は、観察者情報データベースの「観察者属性」フィールドを参照して、第1観察者属性情報と同一又は類似の観察者属性情報に関連付けられた少なくとも1つの観察者ID(以下「第2観察者ID」という)を特定する。「類似の観察者属性情報」とは、例えば、第1観察者IDに関連付けられた観察者属性情報との差分が所定以下である観察者属性情報である。
プロセッサ32は、特定した第2観察者IDに関連付けられたログ情報データベース(図7)を参照して、所定条件に該当するレコード(例えば、「日時」フィールドの情報が、ステップS3220の実行日時から一定期間内に含まれるレコード)を特定する。
プロセッサ32は、特定したレコードのうち、「キャラクタID」フィールドに、ステップS300で決定されたキャラクタIDが格納されたレコードの情報を、参照観察者情報として特定する。
ステップS3220の後、サーバ30は、音声リアクションの生成(S3221)を実行する。
具体的には、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「音声」フィールドの音声リアクションファイルと、ステップS3220において特定された参照観察者情報の「リアクション」フィールドの情報と、を参照して、音声リアクションとして出力すべき音声リアクションデータを生成する。
ステップS3221の後、サーバ30は、ARリアクションの生成(S3222)を実行する。
具体的には、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「AR」フィールドのARリアクションファイルと、ステップS3220において特定された参照観察者情報の「リアクション」フィールドの情報と、を参照して、ARリアクションとして出力すべきARリアクションデータを生成する。
ステップS3222の後、サーバ30は、テキストリアクションの生成(S3223)を実行する。
具体的には、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「テキスト」フィールドのテキストリアクションファイルと、ステップS3220において特定された参照観察者情報の「リアクション」フィールドの情報と、を参照して、テキストリアクションとして出力すべきテキストリアクションデータを生成する。
ステップS3223の後、サーバ30は、ステップS302〜S303(図8)を実行する。
ステップS303の後、ミラーデバイス10は、ステップS103を実行する。
変形例2によれば、第1観察者の属性と同一又は類似の第2観察者のログ情報を参照して、レスポンスデータが生成される。これにより、第1観察者は、擬人化キャラクタの多様な反応を体験することができる。
(5−3)変形例3
変形例3について説明する。変形例3は、観察者OBJの体組成に応じたリアクションを提示する例である。
変形例3のパターンマッチングテーブル(図6)の「パターンファイル」フィールドには、画像パターンファイルに加えて、体組成パターンファイルが格納される。体組成パターンファイルには、体組成に関する体組成パターンが記述されている。
プロセッサ12は、ステップS102(図8)において、体組成計測装置(不図示)から、観察者OBJの体組成(例えば、体重、及び、体脂肪の少なくとも1つ)に関する体組成情報を取得する。
プロセッサ12は、リアクションリクエストデータに、更に、体組成情報を含める。
プロセッサ32は、ステップS3011(図12)において、リアクションリクエストデータに含まれる体組成情報と同一、又は、類似の体組成情報が記述された体組成パターンファイルを特定する。「類似の体組成情報」とは、例えば、リアクションリクエストデータに含まれる体組成情報との差分が所定以下である体組成情報である。
記憶装置31に記憶された状態判定モデルの入力及び出力は、以下のとおりである。
・入力:画像パターン及び体組成
・出力:観察者の状態
プロセッサ32は、記憶装置31に記憶された状態判定モデルに、ステップS3011で特定した画像パターンファイル及び体組成パターンファイルを入力することにより、当該パターンファイルに対応する観察者OBJの状態を識別する状態コードを決定する。
ステップS3013(図12)において、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「音声」フィールドの音声リアクションファイルを参照して、音声リアクションとして出力すべき音声リアクションデータを生成する。
ステップS3014(図12)において、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「AR」フィールドのARリアクションファイルを参照して、ARリアクションとして出力すべきARリアクションデータを生成する。
ステップS3015(図12)において、プロセッサ32は、ステップS3012において決定した状態コードに関連付けられた「テキスト」フィールドのテキストリアクションファイルを参照して、テキストリアクションとして出力すべきテキストリアクションデータを生成する。
変形例3によれば、観察者OBJの画像及び体組成の両方に応じたリアクションが提示される。これにより、より多様なリアクションを観察者OBJに提示することができる。
(5−4)変形例4
変形例4について説明する。変形例4は、観察者OBJの変化に応じたリアクションを提示する例である。
変形例4のプロセッサ32は、ステップS3013(図12)において、「解析結果」フィールドの情報(つまり、過去の解析結果に関する解析結果ファイル)と、ステップS3010の解析結果と、を比較することにより、過去の解析結果(例えば、過去の化粧の評価)と、現在の解析結果(例えば、現在の化粧の評価)とを比較する。
プロセッサ32は、比較の結果に基づく文脈(例えば、「昨日より良くなったね」)の音声リアクションデータ、ARリアクションデータ、及び、テキストリアクションデータを生成する。
変形例4によれば、観察者OBJの変化に応じたリアクションが提示される。これにより、観察者OBJは、自身の変化を客観的に知ることができる。
(5−5)変形例5
変形例5について説明する。変形例5は、観察者OBJと統計値との比較結果に応じたリアクションを提示する例である。
変形例5の記憶装置31には、統計情報が格納されている。統計情報は、以下の少なくとも1つを含む。
・化粧の美しさに関する統計情報
・衣服の美しさに関する統計情報
・体型の美しさに関する統計情報
・表情の美しさに関する統計情報
プロセッサ32は、ステップS3013(図12)において、ステップS3010の解析結果と、記憶装置31に記憶された統計情報と、を比較することにより、解析結果(例えば、現在の化粧の評価)と、統計情報(例えば、化粧の美しさに関する統計情報)と、の差を計算する。
プロセッサ32は、計算の結果に基づく文脈(例えば、「他の人よりスッキリしているよ」)の音声リアクションデータ、ARリアクションデータ、及び、テキストリアクションデータを生成する。
変形例5によれば、観察者OBJの変化に応じたリアクションが提示される。これにより、観察者OBJは、自身の状態と、統計結果との差を客観的に知ることができる。その結果、ミラーデバイス10を使用することの観察者OBJの意欲が促進される。
(5−6)変形例6
変形例6について説明する。変形例6は、観察者OBJの音声に応じたリアクションを提示する例である。
変形例6の記憶装置31には、音声パターンファイルが格納される。音声パターンファイルには、音声の文脈と周波数との関連性に関する音声パターンが記述されている。
マイクロホン17は、ステップS102(図8)において、観察者OBJの音声(例えば、「どうやればいいと思う?」という音声)に関する音声情報を取得する。
プロセッサ12は、リアクションリクエストデータに、更に、音声情報を含める。
プロセッサ32は、ステップS3011(図12)において、記憶装置31に記憶された音声パターンファイルを参照して、リアクションリクエストデータに含まれる音声情報の意味を解釈する。
プロセッサ32は、ステップS3013(図12)において、ステップS3010の解析結果と、ステップS3012の判定の結果と、に応じた文脈(例えば、「昨日使っていた化粧品を使った方が良いよ」)の音声リアクションデータ、ARリアクションデータ、及び、テキストリアクションデータを生成する。
変形例6によれば、観察者OBJの画像及び音声の両方に応じたリアクションが提示される。これにより、観察者OBJは、擬人化キャラクタと会話をしている感覚で、ミラーデバイス10を使用することができる。
(5−7)変形例7
変形例7について説明する。変形例7は、画像から特定される観察者OBJの状態の傾向に基づいて、擬人化キャラクタの音声を提供する例である。図15は、変形例7の概要の説明図である。
図15に示すように、観察者OBJが鏡像MI0を見ながら明るい色の化粧を施すと、ミラーデバイス10は、明るい色の化粧が施された顔の画像IMG3を取得する。ハーフミラー19には、観察者OBJの顔の鏡像MI3が写る。鏡像MI3は、画像IMG3に対応する。
サーバ30には、観察者OBJの嗜好に関する嗜好モデルが記憶されている。観察者OBJの嗜好とは、顔の画像から特定される観察者OBJの傾向(つまり、観察者OBJの顔の視覚的な傾向)を意味する。
サーバ30は、ログ情報データベース(図7)の「出力」フィールドの情報に基づいて、嗜好モデルを更新する。その結果、嗜好モデルには、観察者OBJの顔の視覚的な嗜好が記述される。
嗜好モデルに記述される傾向は、例えば、以下を含む。
・明るい色のチークを使用する頻度が多い。
・月曜日は暗い表情をする頻度が多い。
嗜好モデルの入力及び出力は、例えば、以下のとおりである。
・入力:状態コード
・出力:音声リアクションデータ
サーバ30は、音声リアクションの作成(図12のステップS3013又は図14のステップS3221)において、音声リアクションファイル(図6)の代わりに、ステップS3012において決定した状態コードを嗜好モデルに入力することにより、音声リアクションデータを生成する。
このように、ミラーデバイス10は、観察者OBJの状態の傾向に応じた音声コンテンツを再生する。これにより、観察者OBJは、擬人化キャラクタを、自分のことを自分よりも客観視できるパートナーとして感じることができる。このように、観察者OBJに対して、新しい美容行動のユーザ体験を提供することができる。
変形例7の嗜好モデルは、音声リアクションの生成だけでなく、以下の処理にも適用可能である。
・ARリアクションの生成(図12のステップS3014及び図14のステップS3222)
・テキストリアクションの生成(図12のステップS3015及び図14のステップS3223)
(5−8)変形例8
変形例8について説明する。変形例8は、擬人化キャラクタの音声に応じた観察者OBJの反応の傾向に基づいて、擬人化キャラクタの音声を提供する例である。図16は、変形例8の概要の説明図である。
図16に示すように、観察者OBJがハーフミラー19を見ると、ミラーデバイス10は、化粧中の観察者OBJの顔の画像IMGm(mは、1〜n−1の整数の少なくとも1つ)を取得する。ハーフミラー19には、観察者OBJの顔の鏡像MImが写る。鏡像MImは、画像IMGmに対応する。ミラーデバイス10は、画像IMGmに応じた音声SCm(例えば、「いい笑顔だね」という擬人化キャラクタの音声)を再生する。
観察者OBJが、音声SCmが再生されたにもかかわらず表情を変えなかった(つまり、擬人化キャラクタの音声に反する反応を示した)場合、ミラーデバイス10は、擬人化キャラクタの音声に反する反応を示した観察者OBJの顔の画像IMGn(n=m+1)(つまり、擬人化キャラクタの音声に反する反応を示した観察者OBJの顔の状態)に応じた音声SCn(例えば、「もっと笑ってみて」という擬人化キャラクタの音声)を再生する。
具体的には、サーバ30には、観察者OBJの嗜好に関する嗜好モデルが記憶されている。観察者OBJの嗜好とは、擬人化キャラクタの音声に応じて観察者OBJが示す反応の傾向を意味する。
サーバ30は、ログ情報データベース(図7)のm番目のレコードの「入力」フィールドの情報と、n番目のレコードの「出力」フィールドの情報と、の関係に基づいて、嗜好モデルを更新する。その結果、嗜好モデルには、擬人化キャラクタの音声が示す文脈を観察者OBJが受け入れたか否かによって決まる観察者OBJの嗜好が記述される。
嗜好モデルに記述される傾向は、例えば、以下を含む。
・明るい色のチークの使用を推奨しても、暗い色のチークを使用する頻度が多い。
・月曜日は軽く褒める音声を提供しても、観察者OBJの表情の変化は少ない。
嗜好モデルの入力及び出力は、例えば、以下のとおりである。
・入力:状態コード
・出力:音声リアクションデータ
サーバ30は、音声リアクションの作成(図12のステップS3013又は図14のステップS3221)において、音声リアクションファイル(図6)の代わりに、ステップS3012において決定した状態コードを嗜好モデルに入力することにより、音声リアクションデータを生成する。
このように、ミラーデバイス10は、擬人化キャラクタの音声に応じた観察者OBJの反応に基づく音声コンテンツを再生する。これにより、観察者OBJは、擬人化キャラクタを、自分のことを自分よりも客観視できるパートナーとして感じることができる。このように、観察者OBJに対して、新しい美容行動のユーザ体験を提供することができる。
変形例8の嗜好モデルは、音声リアクションの生成だけでなく、以下の処理にも適用可能である。
・ARリアクションの生成(図12のステップS3014及び図14のステップS3222)
・テキストリアクションの生成(図12のステップS3015及び図14のステップS3223)
(5−9)変形例9
変形例9について説明する。変形例9は、擬人化キャラクタと観察者OBJの組合せに応じた擬人化キャラクタの音声を生成する例である。
変形例9のパターンマッチングテーブル(図6)は、キャラクタパラメータ(図5)と、観察者属性情報(図4)の組合せに関連付けられる。
ステップS3013(図12)又S3221(図14)において、プロセッサ32は、ステップS300で決定された擬人化キャラクタのキャラクタIDに関連付けられたキャラクタパラメータ、及び、ステップS100において送信された観察者IDに関連付けられた観察者属性情報の組合せに関連付けられたパターンマッチングテーブルを特定する。
プロセッサ32は、特定したパターンマッチングテーブルを参照して、ステップS3012において決定した状態コードに関連付けられた「音声」フィールドの音声リアクションファイルを特定する。
プロセッサ32は、特定した音声リアクションファイルを参照して、音声リアクションとして出力すべき音声リアクションデータを生成する。
変形例9によれば、擬人化キャラクタのパラメータと観察者OBJの観察者属性との関係(例えば、相性)に応じた擬人化キャラクタの音声を提供することができる。その結果、観察者OBJは、擬人化キャラクタのより多様な音声を体験することができる。
(5−10)変形例10
変形例10について説明する。変形例10は、擬人化キャラクタの性格と観察者OBJの性格に応じた擬人化キャラクタの音声を生成する例である。
変形例9のパターンマッチングテーブル(図6)は、「性格」フィールド(図5)の情報、及び、観察者の性格の組合せに関連付けられる。
記憶装置31には、性格判定モデルが記憶されている。性格判定モデルの入出力は以下のとおりである。
・入力:画像の特徴量(例えば、顔の各パーツの配置)
・出力:人の性格
プロセッサ32は、S3012において、観察者OBJの状態を判定した後、記憶装置31に記憶された性格判定モデルに、ステップS3011で特定した画像パターンファイルを入力することにより、当該画像パターンファイルに対応する観察者OBJの性格を判定する。
ステップS3013(図12)又S3221(図14)において、プロセッサ32は、判定された性格、及び、擬人化キャラクタの性格に関する情報の組合せに関連付けられたパターンマッチングテーブルを特定する。
プロセッサ32は、特定したパターンマッチングテーブルを参照して、ステップS3012において決定した状態コードに関連付けられた「音声」フィールドの音声リアクションファイルを特定する。
プロセッサ32は、特定した音声リアクションファイルを参照して、音声リアクションとして出力すべき音声リアクションデータを生成する。
変形例10によれば、擬人化キャラクタの性格及び観察者OBJの性格の組合せ(例えば、相性)に応じた擬人化キャラクタの音声を提供することができる。その結果、観察者OBJは、擬人化キャラクタのより多様な音声を体験することができる。
(6)本実施形態の小括
本実施形態について小括する。
本実施形態の第1態様は、
観察者の鏡像に対応する観察者画像を取得し、且つ、音声を出力可能なミラーデバイス10と接続される情報処理装置(例えば、サーバ30)であって、
ミラーデバイス10から観察者画像を取得する手段(例えば、ステップS301の処理を実行するプロセッサ32)を備え、
観察者画像に基づいて、鏡像に写った観察者の状態を判定する手段(例えば、ステップS3012の処理を実行するプロセッサ32)を備え、
判定の結果に基づいて、擬人化キャラクタの音声を生成する手段(例えば、ステップS3013の処理を実行するプロセッサ32)を備え、
生成された音声をミラーデバイス10に送信する手段(例えば、ステップS303の処理を実行するプロセッサ32)を備える、
情報処理装置。
第1態様によれば、ミラーデバイス10を介して、観察者画像に基づいて判定された観察者の状態に応じた擬人化キャラクタの音声が観察者に対して提供される。これにより、観察者に対して、視覚情報が反映されたインタラクションを提供することができる。
特に、観察者は、ミラーデバイス10が自身の状態に応じて語りかけてくれるような体験をすることができる。その結果、観察者は、ミラーデバイス10に対して、親近感を覚える。このことは、観察者に対して、ミラーデバイス10を使用することの動機づけを与えるので、観察者は、ミラーデバイスを頻繁に使用するようになる。
本実施形態の第2態様は、
観察者画像の特徴量を解析することにより、観察者画像の画像パターンを特定する手段(例えば、ステップS3010の処理を実行するプロセッサ32)を備え、
判定する手段は、特定された画像パターンに基づいて、観察者の状態を判定する、
情報処理装置である。
第2態様によれば、ミラーデバイス10を介して、観察者画像の画像パターンに基づいて判定された観察者の状態に応じた擬人化キャラクタの音声が観察者に対して提供される。これにより、観察者に対して、視覚情報が反映されたインタラクションを提供することができる。
本実施形態の第3態様は、
観察者を識別する観察者識別情報と、観察者の属性に関する観察者属性情報と、特定された画像パターンと、を関連付けて記憶する手段(例えば、図4の観察者情報データベース及び図7のログ情報データベース)を備え、
前記特定する手段は、第1観察者の観察者属性情報と同一又は類似の観察者属性情報に関連付けられた第2観察者識別情報を特定する手段を備え、
前記判定する手段は、前記第1観察者の観察者画像から特定された第1画像パターンと、前記第2観察者識別情報に関連付けられた第2画像パターンと、に基づいて、前記第1観察者の状態を判定する、
情報処理装置である。
第3態様によれば、擬人化キャラクタの音声を提供すべき第1観察者の状態を判定するときに、第1観察者の第1画像パターンだけでなく、属性が第1観察者と類似する第2観察者の第2画像パターンを参照する。これにより、第1観察者の状態の判定の精度を向上させることができる。このように、第1観察者の実際の状態により適したインタラクションを提供することができる。
本実施形態の第4態様は、
判定する手段は、観察者の状態の変化を判定する、
情報処理装置である。
第4態様によれば、観察者の状態の変化に応じた擬人化キャラクタの音声が観察者に提供される。これにより、観察者OBJは、自身の変化を客観的に知ることができる。
本実施形態の第5態様は、
判定する手段は、観察者の顔に施された化粧の評価を判定する、
情報処理装置である。
第5態様によれば、化粧を施した観察者の顔の状態に応じた擬人化キャラクタの音声が観察者に提供される。これにより、観察者は、擬人化キャラクタの音声とインタラクションを行いながら化粧を行うことができる。このように、化粧という美容行動に全く新しいユーザ体験が生まれる。その結果、観察者の美容意識も向上することが期待される。
本実施形態の第6態様は、
判定する手段は、観察者が身に付けている衣服の評価を判定する、
情報処理装置である。
第6態様によれば、
衣服を身に着けた観察者の状態に応じた擬人化キャラクタの音声が観察者に提供される。これにより、観察者は、擬人化キャラクタの音声とインタラクションを行いながら衣服を選択することができる。このように、衣服の選択という行動に全く新しいユーザ体験が生まれる。その結果、衣服に対する観察者の意識も向上することが期待される。
本実施形態の第7態様は、
判定する手段は、観察者の体型の評価を判定する、
情報処理装置である。
第7態様によれば、観察者の体型に応じた擬人化キャラクタの音声が観察者に提供される。これにより、観察者は、擬人化キャラクタの音声とインタラクションを行いながら体型を確認択することができる。このように、体型の管理という行動に全く新しいユーザ体験が生まれる。その結果、体験に対する観察者の意識も向上することが期待される。
第8態様は、
判定する手段は、観察者の表情の評価を判定する、
情報処理装置である。
第8態様によれば、観察者の表情に応じた擬人化キャラクタの音声が観察者に提供される。これにより、観察者は、擬人化キャラクタの音声とインタラクションを行いながら表情を観察することができる。このように、表情の確認という行動に全く新しいユーザ体験が生まれる。その結果、表情に対する観察者の意識も向上することが期待される。
本実施形態の第9態様は、
複数の擬人化キャラクタの中から少なくとも1つの擬人化キャラクタを指定する指示を受け付ける手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
生成する手段は、受け付けられた指示によって指定された擬人化キャラクタの音声を出力する、
情報処理装置である。
第9態様によれば、観察者の任意の擬人化キャラクタの音声が観察者に提供される。これにより、観察者がより大きな親近感をミラーデバイス10に覚えるようになる。
本実施形態の第10態様は、
受け付ける手段が複数の擬人化キャラクタを指定する指示を受け付けた場合、生成する手段は、複数の擬人化キャラクタの音声を生成する、
情報処理装置である。
第10態様によれば、複数の擬人化キャラクタの音声が観察者に提供される。これにより、観察者は、複数の擬人化キャラクタとコミュニケーションを取るような感覚で、鏡像を観察することができる。
本実施形態の第11態様は、
ミラーデバイスから観察者の音声を取得する手段を備え、
生成する手段は、判定の結果及び観察者の音声に応じた擬人化キャラクタの音声を出力する、
情報処理装置である。
第11態様によれば、観察者画像及び観察者の音声の両方に応じた擬人化キャラクタの音声が観察者に提供される。これにより、観察者は、より現実のコミュニケーションに近い感覚で、鏡像を観察することができる。
本実施形態の第12態様は、
生成する手段は、判定の結果に応じた助言又は誘導を提示するための擬人化キャラクタの音声を生成する、
情報処理装置である。
第12態様によれば、ミラーデバイス10を使用する観察者OBJに対して、魅力を引き出すための行動を促すことができる。
本実施形態の第13態様は、
生成する手段は、観察者の状態の傾向が記述された嗜好モデルを参照して、擬人化キャラクタの音声を生成する、
情報処理装置である。
第13態様によれば、観察者OBJの状態の傾向に応じた音声コンテンツが提供される。これにより、観察者OBJは、擬人化キャラクタを、自分のことを自分よりも客観視できるパートナーとして感じることができる。このように、観察者OBJに対して、新しい美容行動のユーザ体験を提供することができる。
生成する手段は、擬人化キャラクタの音声に対して観察者が示した反応の傾向が記述された嗜好モデルを参照して、擬人化キャラクタの音声を生成する、
情報処理装置である。
第14態様によれば、擬人化キャラクタの音声に応じた観察者OBJの反応に基づく音声コンテンツが提供される。これにより、観察者OBJは、擬人化キャラクタを、自分のことを自分よりも客観視できるパートナーとして感じることができる。このように、観察者OBJに対して、新しい美容行動のユーザ体験を提供することができる。
本実施形態の第15態様は、
生成する手段は、擬人化キャラクタのパラメータ、及び、観察者の属性に関する観察者属性情報の組合せと、判定の結果と、に基づいて、擬人化キャラクタの音声を生成する、
情報処理装置である。
第15態様によれば、擬人化キャラクタのパラメータと観察者OBJの観察者属性との関係(例えば、相性)に応じた擬人化キャラクタの音声を提供することができる。その結果、観察者OBJは、擬人化キャラクタのより多様な音声を体験することができる。
本実施形態の第16態様は、
画像の特徴量を入力とし、且つ、性格を出力とする性格判定モデルを参照して、観察者画像に応じた観察者の性格を判定する手段を備え、
生成する手段は、擬人化キャラクタの性格に関する情報、及び、判定された観察者の性格の組合せと、判定された観察者の状態と、に基づいて、擬人化キャラクタの音声を生成する、
情報処理装置である。
第16態様によれば、擬人化キャラクタの性格及び観察者OBJの性格の組合せ(例えば、相性)に応じた擬人化キャラクタの音声を提供することができる。その結果、観察者OBJは、擬人化キャラクタのより多様な音声を体験することができる。
本実施形態の第17態様は、
観察者の鏡像を写すミラー(例えば、ハーフミラー19)を備え、
ミラーに写った鏡像に対応する観察者画像を撮像するカメラ15を備え、
カメラ15によって撮像された観察者画像に基づいて判定された観察者の状態に応じた擬人化キャラクタの音声を出力するスピーカ16を備える、
ミラーデバイス10である。
第17態様によれば、観察者の状態に応じた擬人化キャラクタの音声がミラーデバイス10に送信される。これにより、観察者に対して、視覚情報が反映されたインタラクションを提供することができる。
本実施形態の第18態様は、
コンピュータ(例えば、プロセッサ12又は32)を、上記各手段として機能させるためのプログラムである。
(7)その他の変形例
その他の変形例について説明する。
記憶装置11は、ネットワークNWを介して、ミラーデバイス10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
上記の情報処理の各ステップは、ミラーデバイス10及びサーバ30の何れでも実行可能である。
例えば、サーバ30が行う情報処理は、ミラーデバイス10が行ってもよい。この場合、ミラーデバイス10の記憶装置11及びプロセッサ12は、サーバ30の記憶装置31及びプロセッサ32の機能を代替する。
ミラーデバイス10の構成(図2)について、マイクロホン17、及び、ディスプレイ18は省略可能である。この場合、本実施形態とは以下の点が異なる。
・ハーフミラー19は、光を全反射する鏡によって代替される。
・ステップS3014〜S3015(図12)、及び、S3222〜S3223(図14)は省略される。
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
1 :情報処理システム
1 :キャラクタ
2 :キャラクタ
10 :ミラーデバイス
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :カメラ
16 :スピーカ
17 :マイクロホン
18 :ディスプレイ
19 :ハーフミラー
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース

Claims (18)

  1. 観察者の鏡像に対応する観察者画像を取得し、且つ、音声を出力可能なミラーデバイスと接続される情報処理装置であって、
    前記ミラーデバイスから前記観察者画像を取得する手段を備え、
    前記観察者画像に基づいて、前記鏡像に写った観察者の状態を判定する手段を備え、
    前記判定の結果に基づいて、擬人化キャラクタの音声を生成する手段を備え、
    前記生成された音声を前記ミラーデバイスに送信する手段を備える、
    情報処理装置。
  2. 前記観察者画像の特徴量を解析することにより、前記観察者画像の画像パターンを特定する手段を備え、
    前記判定する手段は、前記特定された画像パターンに基づいて、前記観察者の状態を判定する、
    請求項1に記載の情報処理装置。
  3. 観察者を識別する観察者識別情報と、観察者の属性に関する観察者属性情報と、前記特定された画像パターンと、を関連付けて記憶する手段を備え、
    前記特定する手段は、第1観察者の観察者属性情報と同一又は類似の観察者属性情報に関連付けられた第2観察者識別情報を特定する手段を備え、
    前記判定する手段は、前記第1観察者の観察者画像から特定された第1画像パターンと、前記第2観察者識別情報に関連付けられた第2画像パターンと、に基づいて、前記第1観察者の状態を判定する、
    請求項2に記載の情報処理装置。
  4. 前記判定する手段は、前記観察者の状態の変化を判定する、
    請求項1〜3の何れかに記載の情報処理装置。
  5. 前記判定する手段は、前記観察者の顔に施された化粧の評価を判定する、
    請求項1〜4の何れかに記載の情報処理装置。
  6. 前記判定する手段は、前記観察者が身に付けている衣服の評価を判定する、
    請求項1〜5の何れかに記載の情報処理装置。
  7. 前記判定する手段は、前記観察者の体型の評価を判定する、
    請求項1〜6の何れかに記載の情報処理装置。
  8. 前記判定する手段は、前記観察者の表情の評価を判定する、
    請求項1〜7の何れかに記載の情報処理装置。
  9. 複数の擬人化キャラクタの中から少なくとも1つの擬人化キャラクタを指定する指示を受け付ける手段を備え、
    前記生成する手段は、前記受け付けられた指示によって指定された擬人化キャラクタの音声を出力する、
    請求項1〜8の何れかに記載の情報処理装置。
  10. 前記受け付ける手段が複数の擬人化キャラクタを指定する指示を受け付けた場合、前記生成する手段は、複数の擬人化キャラクタの音声を生成する、
    請求項9に記載の情報処理装置。
  11. 前記ミラーデバイスから前記観察者の音声を取得する手段を備え、
    前記生成する手段は、前記判定の結果及び前記観察者の音声に応じた前記擬人化キャラクタの音声を出力する、
    請求項1〜10の何れかに記載の情報処理装置。
  12. 前記生成する手段は、前記判定の結果に応じた助言又は誘導を提示するための前記擬人化キャラクタの音声を生成する、
    請求項1〜11の何れかに記載の情報処理装置。
  13. 前記生成する手段は、前記観察者の状態の傾向が記述された嗜好モデルを参照して、前記擬人化キャラクタの音声を生成する、
    請求項1〜12の何れかに記載の情報処理装置。
  14. 前記生成する手段は、前記擬人化キャラクタの音声に対して前記観察者が示した反応の傾向が記述された嗜好モデルを参照して、前記擬人化キャラクタの音声を生成する、
    請求項13に記載の情報処理装置。
  15. 前記生成する手段は、前記擬人化キャラクタのパラメータ、及び、前記観察者の属性に関する観察者属性情報の組合せと、前記判定の結果と、に基づいて、擬人化キャラクタの音声を生成する、
    請求項1〜14の何れかに記載の情報処理装置。
  16. 画像の特徴量を入力とし、且つ、性格を出力とする性格判定モデルを参照して、前記観察者画像に応じた前記観察者の性格を判定する手段を備え、
    前記生成する手段は、前記擬人化キャラクタの性格に関する情報、及び、前記判定された観察者の性格の組合せと、前記判定された観察者の状態と、に基づいて、擬人化キャラクタの音声を生成する、
    請求項1〜15の何れかに記載の情報処理装置。
  17. 観察者の鏡像を写すミラーを備え、
    前記ミラーに写った鏡像に対応する観察者画像を撮像するカメラを備え、
    前記カメラによって撮像された前記観察者画像に基づいて判定された前記観察者の状態に応じた擬人化キャラクタの音声を出力するスピーカを備える、
    ミラーデバイス。
  18. コンピュータを、請求項1〜16の何れかに記載の各手段として機能させるためのプログラム。
JP2018050888A 2018-03-19 2018-03-19 情報処理装置、ミラーデバイス、プログラム Active JP6583754B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018050888A JP6583754B2 (ja) 2018-03-19 2018-03-19 情報処理装置、ミラーデバイス、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018050888A JP6583754B2 (ja) 2018-03-19 2018-03-19 情報処理装置、ミラーデバイス、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019151688A Division JP2019212325A (ja) 2019-08-22 2019-08-22 情報処理装置、ミラーデバイス、プログラム

Publications (2)

Publication Number Publication Date
JP2019162219A true JP2019162219A (ja) 2019-09-26
JP6583754B2 JP6583754B2 (ja) 2019-10-02

Family

ID=68066401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018050888A Active JP6583754B2 (ja) 2018-03-19 2018-03-19 情報処理装置、ミラーデバイス、プログラム

Country Status (1)

Country Link
JP (1) JP6583754B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021126502A (ja) * 2020-02-11 2021-09-02 アイコン・エーアイ・インコーポレーテッドICON AI Inc. ディスプレイを備えて人工知能ボイスアシスタントと連動するスマートメイクミラーデバイス

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108362A (ja) * 2001-07-23 2003-04-11 Matsushita Electric Works Ltd コミュニケーション支援装置およびコミュニケーション支援システム
JP2005070721A (ja) * 2003-08-27 2005-03-17 Akihiko Shigeta 音響出力機能付き化粧用品
JP2007087097A (ja) * 2005-09-22 2007-04-05 Oki Electric Ind Co Ltd 自動取引装置
JP2007133728A (ja) * 2005-11-11 2007-05-31 Kenwood Corp エージェント装置、エージェント機能付車載用ナビゲーション装置、エージェント出力方法
JP2009213751A (ja) * 2008-03-12 2009-09-24 Sony Ericsson Mobilecommunications Japan Inc 化粧評価プログラム、化粧評価方法および化粧評価装置
JP2010086036A (ja) * 2008-09-29 2010-04-15 Fujifilm Corp 診断装置及び診断方法
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
JP2017117090A (ja) * 2015-12-22 2017-06-29 株式会社アイ・ビジネスセンター 対話システムおよびプログラム
JP2017167273A (ja) * 2016-03-15 2017-09-21 株式会社東芝 声質嗜好学習装置、声質嗜好学習方法及びプログラム
JP2017224281A (ja) * 2016-04-21 2017-12-21 ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. ヘルストラッキングデバイス

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108362A (ja) * 2001-07-23 2003-04-11 Matsushita Electric Works Ltd コミュニケーション支援装置およびコミュニケーション支援システム
JP2005070721A (ja) * 2003-08-27 2005-03-17 Akihiko Shigeta 音響出力機能付き化粧用品
JP2007087097A (ja) * 2005-09-22 2007-04-05 Oki Electric Ind Co Ltd 自動取引装置
JP2007133728A (ja) * 2005-11-11 2007-05-31 Kenwood Corp エージェント装置、エージェント機能付車載用ナビゲーション装置、エージェント出力方法
JP2009213751A (ja) * 2008-03-12 2009-09-24 Sony Ericsson Mobilecommunications Japan Inc 化粧評価プログラム、化粧評価方法および化粧評価装置
JP2010086036A (ja) * 2008-09-29 2010-04-15 Fujifilm Corp 診断装置及び診断方法
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
JP2017117090A (ja) * 2015-12-22 2017-06-29 株式会社アイ・ビジネスセンター 対話システムおよびプログラム
JP2017167273A (ja) * 2016-03-15 2017-09-21 株式会社東芝 声質嗜好学習装置、声質嗜好学習方法及びプログラム
JP2017224281A (ja) * 2016-04-21 2017-12-21 ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. ヘルストラッキングデバイス

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021126502A (ja) * 2020-02-11 2021-09-02 アイコン・エーアイ・インコーポレーテッドICON AI Inc. ディスプレイを備えて人工知能ボイスアシスタントと連動するスマートメイクミラーデバイス

Also Published As

Publication number Publication date
JP6583754B2 (ja) 2019-10-02

Similar Documents

Publication Publication Date Title
CN112034977B (zh) Mr智能眼镜内容交互、信息输入、应用推荐技术的方法
JP2024028390A (ja) 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
Bailenson et al. The effect of behavioral realism and form realism of real-time avatar faces on verbal disclosure, nonverbal disclosure, emotion recognition, and copresence in dyadic interaction
CN109844854A (zh) 单词流注释
KR20170085422A (ko) 가상 에이전트 동작 방법 및 장치
WO2020148920A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
KR102351008B1 (ko) 감정 인식 장치 및 감정 인식 방법
KR102532908B1 (ko) 딥러닝 및 가상현실을 이용한 심리 상담 제공 장치, 방법 및 프로그램
Cunningham et al. Manipulating video sequences to determine the components of conversational facial expressions
JP7479618B2 (ja) 情報処理プログラム、情報処理方法、情報処理装置
KR20190048144A (ko) 발표 및 면접 훈련을 위한 증강현실 시스템
Nijholt Capturing obstructed nonverbal cues in augmented reality interactions: a short survey
Morandell et al. Avatars in assistive homes for the elderly: a user-friendly way of interaction?
JP6583754B2 (ja) 情報処理装置、ミラーデバイス、プログラム
JP2019212325A (ja) 情報処理装置、ミラーデバイス、プログラム
US20230282080A1 (en) Sound-based attentive state assessment
CN111654752A (zh) 多媒体信息播放方法、装置及相关设备
JP2020160641A (ja) 仮想人物選定装置、仮想人物選定システム及びプログラム
WO2019208152A1 (ja) 情報処理装置及びプログラム
Ochs et al. From emotions to interpersonal stances: Multi-level analysis of smiling virtual characters
Nijholt Social augmented reality: A multiperspective survey
Heck Presentation adaptation for multimodal interface systems: three essays on the effectiveness of user-centric content and modality adaptation
JP7138998B1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022201267A1 (ja) 動画像分析プログラム
WO2022230136A1 (ja) 動画像分析システム

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180405

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180501

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180524

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180727

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180727

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190822

R150 Certificate of patent or registration of utility model

Ref document number: 6583754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350