JP6089898B2 - 画像処理装置および記憶媒体 - Google Patents

画像処理装置および記憶媒体 Download PDF

Info

Publication number
JP6089898B2
JP6089898B2 JP2013081081A JP2013081081A JP6089898B2 JP 6089898 B2 JP6089898 B2 JP 6089898B2 JP 2013081081 A JP2013081081 A JP 2013081081A JP 2013081081 A JP2013081081 A JP 2013081081A JP 6089898 B2 JP6089898 B2 JP 6089898B2
Authority
JP
Japan
Prior art keywords
image
user
unit
additional
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013081081A
Other languages
English (en)
Other versions
JP2014203377A5 (ja
JP2014203377A (ja
Inventor
佐古 曜一郎
曜一郎 佐古
博幸 花谷
博幸 花谷
林 和則
和則 林
鎌田 恭則
恭則 鎌田
隆俊 中村
隆俊 中村
智也 大沼
智也 大沼
丹下 明
明 丹下
今 孝安
孝安 今
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013081081A priority Critical patent/JP6089898B2/ja
Priority to CN201410131039.7A priority patent/CN104104864A/zh
Priority to US14/243,127 priority patent/US9881402B2/en
Publication of JP2014203377A publication Critical patent/JP2014203377A/ja
Publication of JP2014203377A5 publication Critical patent/JP2014203377A5/ja
Application granted granted Critical
Publication of JP6089898B2 publication Critical patent/JP6089898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、画像処理装置および記憶媒体に関する。
実空間に存在する物体(実物体)を撮像した撮像画像に、仮想物体を合成する技術に関し、以下のような技術が開示されている。
例えば、下記特許文献1には、カメラの映像と付加画像を合成する画像合成部を備えた画像構成装置により、ペン等による指示位置、指示領域および指示情報の特徴量に応じて適切な付加画像を生成し、表示部に合成・表示する技術が開示されている。
また、下記特許文献2には、基となる画像の情報と、基となる画像の上に重ねる装飾品の画像の情報とに基づいて画像を合成することで、的確なシミュレーション画像を提示する画像処理装置が開示されている。
また、下記特許文献3には、ゲームセンタ等に設置される写真シール作製装置が開示されている。具体的には、利用者が編集画像表示部に表示されている編集画像上でタッチペンをタップすると、編集画像表示部に表示されている装飾画像が合成されたスタンプ画像として編集画像上の指定された位置に合成されるとともに、編集画像内の人物の画像の外縁に合成される。
特開平11−144024号公報 特開2007−133599号公報 特開2009−211362号公報
しかしながら、上記いずれの特許文献においても、ユーザの生体情報、感情情報、嗜好情報等といったユーザの状況に応じた付加画像(装飾画像)を、対象物に重ね合わせることについては何ら言及されていない。
そこで、本開示では、撮像対象物を仮想的に装飾するための付加画像を、ユーザ状況を反映して自動的に生成することが可能な、新規かつ改良された画像処理装置および記憶媒体を提案する。
本開示によれば、撮像画像に基づいて、撮像された対象物を認識する認識部と、前記対象物を視認しているユーザのユーザ状況、および前記認識部による認識結果に応じて、前記対象物を装飾するための付加画像を生成する画像生成部と、を備える、画像処理装置を提案する。
本開示によれば、コンピュータを、撮像画像に基づいて、撮像された対象物を認識する認識部と、前記対象物を視認しているユーザのユーザ状況、および前記認識部による認識結果に応じて、前記対象物を装飾するための付加画像を生成する画像生成部と、として機能させるための、プログラムが記憶された、記憶媒体を提案する。
以上説明したように本開示によれば、撮像対象物を仮想的に装飾するための付加画像を、ユーザ状況を反映して自動的に生成することが可能となる。
本開示の一実施形態による装飾システムの概要を説明するための図である。 本実施形態によるHMDの外観構成の一例を示す図である。 本実施形態によるHMDの内部構成の一例を示すブロック図である。 本実施形態によるサーバの内部構成の一例を示すブロック図である。 本実施形態による第1の装飾処理を示すフローチャートである。 本実施形態による第1の装飾を説明するための図である。 本実施形態による第2の装飾処理を示すフローチャートである。 本実施形態による第2の装飾処理による付加画像の変化を説明するための図である。 本実施形態による第2の装飾処理による付加画像の変化を説明するための図である。 本実施形態による第3の装飾処理を示すフローチャートである。 本実施形態による第3の装飾処理を示すフローチャートである。 他の実施形態による装飾システムの動作処理を示すフローチャートである。 他の実施形態による対象物の状況に応じた装飾を説明するための図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による装飾システムの概要
2.基本構成
2−1.HMDの基本構成
2−1−1.HMDの外観構成例
2−1−2.HMDの内部構成例
2−2.サーバの基本構成
3.動作処理
3−1.第1の装飾処理
3−2.第2の装飾処理
3−3.第3の装飾処理
4.他の実施形態
5.まとめ
<<1.本開示の一実施形態による装飾システムの概要>>
まず、本開示の一実施形態による装飾システムの概要について、図1を参照して説明する。
図1は、本開示の一実施形態による装飾システムの概要を説明するための図である。図1に示すように、ユーザAは、眼鏡型のHMD(Head Mounted Display)1を装着している。HMD1は、例えば両側頭部から後頭部にかけて半周回するようなフレームの構造の装着ユニットを有し、両耳殻にかけられることでユーザAに装着される。また、HMD1は、装着状態において、ユーザAの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示部2が配置される構成となっている。表示部2は透過型であってもよく、HMD1により表示部2がスルー状態、即ち透明または半透明の状態とされることで、ユーザAは、HMD1を眼鏡のように常時装着していても通常の生活には支障がない。なおHMD1の具体的な外観構成については、図2を参照して後述する。
また、HMD1は、無線通信によりネットワーク上のサーバ30と接続し、データの送受信を行う。本開示の一実施形態による装飾システムは、図1に示すように、HMD1およびサーバ30を含む。
(背景)
ここで、昨今、上記特許文献3に開示されているように、様々な装飾を自分たちの姿に重ね合わせてプリントすることや、携帯電話端末やスマートフォン、鞄等に装飾用のシールやビーズ、自分のアイデンティティーを示すシールやビーズを貼ることが日常的に行われている。また、携帯電話端末やスマートフォン、鞄等に、装飾用のシールやビーズの他、好きなマスコット人形やぬいぐるみ等を取り付けたりすることも日常的に行われている。
しかしながら、このような装飾用のシール、ビーズ、ぬいぐるみ等の装飾品は実物体であるので、他の装飾品に変更したい場合は、現在の装飾品を取り外して新たな装飾品を取り付けるといった手間がかかっていた。また、新たな装飾品を探して購入する手間もかかるので、日替わり、時間替わり、週替わり等、気軽に適宜変更することは困難であった。
また、日常的に行われる装飾としては、上記携帯電話端末やスマートフォン等の所有物に対する装飾の他、ケーキ等の食べ物に対する装飾もある。特に誕生日やクリスマス等では、豪華あるいは華やかに見せるために、ケーキに様々な飾りやトッピングが施される。しかしながら、飾りについては食用でない場合も多く、食べ進めるうちに取り除くか、切り分ける時に取り外す必要があり、装飾を目で見て楽しみながら食べ進めることは困難である。また、誕生日ではケーキにローソクを立てて火をつけ、主役が火を吹き消すといったセレモニーが行われるが、実際にケーキを食べる際にはローソクを取り除くので、ケーキに穴が開いて見栄えが悪くなったり、また、ローソクのロウが垂れることが不快だったりする。
また、装飾品が実物体ではなく仮想物体(装飾品の画像)である場合、上記所有物や食べ物の撮像画像に、装飾品の画像を合成することで仮想的に装飾することが考えられるが、通常、装飾品の画像は予め設定されたり、ユーザにより任意に選択されたりすることが想定される。
そこで、上記事情を一着眼点にして本開示の各実施形態による装飾システムを創作するに至った。本開示の各実施形態による装飾システムでは、撮像対象物を装飾する仮想的な装飾品である付加画像を、ユーザ状況を反映して自動的に生成し、生成した付加画像を対象物に重ね合わせるよう表示制御する。
これにより、本開示による装飾システムは、例えばユーザの好み、体調、気分、行動等のユーザ状況に応じた装飾を行うための付加画像を自動的に生成し、対象物に重ね合わせて表示することで、利便性を向上させることができる。特に、このようなユーザ状況をリアルタイムで付加画像に反映させることで、装飾品の取り外しや購入の手間を省いて、よりユーザのニーズに合致した仮想的な装飾を実現することができる。
具体的には、図1に示すように、HMD1がユーザAに装着された状態で、ユーザAが視認する方向を被写体方向として撮像するように、前方に向けて設けられた撮像レンズ(図2に示す撮像レンズ3a)で、被写体である対象物40を撮像し、撮像画像をサーバ30に送信する。
次いで、サーバ30(画像処理装置)は、HMD1から送信された撮像画像から対象物40(ケーキ)を認識し、対象物40を装飾するための付加画像(例えば付加画像D1〜D4)を生成し、生成した付加画像D1〜D4をHMD1(画像表示端末)に送信する。
ここで、サーバ30は、付加画像D1〜D4を、ユーザAのユーザ状況に応じて生成する。本明細書において、ユーザ状況とは、例えばユーザAの生体情報、感情情報、嗜好情報、行動状況(行動予定も含む)、または環境情報を示す。
生体情報とは、ユーザAの性別、年齢、生年月日、血液型、脈拍、心拍、脳波、体温または発汗量等を含み、予めユーザAにより登録されたり、HMD1によりリアルタイムで実測されたりする。
また、感情情報とは、ユーザAの現在の感情(気持ち、気分)を示す情報であって、例えばHMD1によりリアルタイムで実測されたユーザの脈拍、心拍、脳波、体温、発汗量、またはユーザAの顔を撮像した撮像画像に基づくユーザAの表情等により判断される。
また、嗜好情報とは、ユーザAの各種好みを示す情報であって、予めユーザAにより登録される他、ユーザAの各種ライフログの解析結果に基づくユーザAの商品購入履歴や、飲食履歴、行動履歴等に基づいて判断される。ライフログには、ユーザAが利用しているSNS(Social
Networking Service)におけるユーザAの投稿記事や、ブログ記事等が含まれる。
また、行動状況とは、ユーザAの現在の行動または行動予定を示す情報であって、例えばHMD1に設けられたジャイロセンサ、加速度センサ、地磁気センサ、位置測位部、撮像センサ等によりリアルタイムで実測された検知結果に基づいて現在の行動が判断される。また、ユーザAのスケジュール情報等に基づいて、行動予定が判断される。
また、環境情報とは、ユーザAが現在置かれている環境を示す情報であって、例えば、HMD1に設けられたGPS(Global Positioning System)で測位される現在位置情報や、日にち情報、時刻情報、天気情報等である。
以上説明したユーザ状況を示す各種情報は、予めサーバ30に記憶されていたり、HMD1からサーバ30に送信されたりする。サーバ30は、上述したように、ユーザAのユーザ状況に応じて、付加画像D1〜D4を生成する。
図1に示す例では、サーバ30は、例えばユーザAの嗜好情報に基づいて、対象物40(ケーキ)を、ユーザAの好みのキャラクターや色合い、好きな物(例えば花やリボン)で装飾するための付加画像D2〜D4を生成する。また、サーバ30は、ユーザAの生体情報に基づいて、現在の日にちがユーザAの誕生日である場合、対象物40(ケーキ)を、誕生日を祝うメッセージで装飾するための付加画像D1を生成する。
そして、サーバ30により生成された付加画像D1〜D4を受信したHMD1は、図1に示すように、付加画像D1〜D4を対象物40に重ね合わせるよう、表示部2に表示する。なおHMD1は、表示部2をスルー状態(透過または半透過)に制御した上で、付加画像D1〜D4を、実空間に存在する対象物40に重ね合うよう表示部2に表示してもよいし、対象物40を撮像した撮像画像に付加画像D1〜D4を合成した合成画像を非透過に制御した表示部2に表示してもよい。これにより、HMD1は、対象物40(ケーキ)に、ユーザAのユーザ状況に応じた仮想的な装飾を施すことが可能となる。
また、付加画像D1〜D4は、HMD1またはサーバ30により、対象物40の状況の変化に応じて随時変化されることで、実際に装飾が施されているような感覚をユーザに提供することができる。例えば、図1に示すように、対象物40がケーキ等の食べ物である場合に、ユーザAがケーキを食べ進めると、HMD1またはサーバ30は、飲食の進行に応じて、飾りやトッピングの付加画像D1〜D4の表示位置を移動させたり、取り除いたりする。これにより、ユーザAは、食べ物に施された装飾を目で楽しみながら飲食を行うことができる。
以上、本開示の一実施形態による装飾システムについて概要を説明した。続いて、本実施形態による装飾システムに含まれるHMD1およびサーバ30の基本構成について説明する。
<<2.基本構成>>
<2−1.HMDの基本構成>
(2−1−1.HMDの外観構成例)
まず、図2を用いてHMD1の外観構成について具体的に説明する。図2は、本実施形態によるHMD1の外観構成の一例を示す図である。
図2に示すように、HMD1は、装着状態において、ユーザAの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示部2が配置される構成となっている。
また、HMD1には、ユーザAに装着された状態で、ユーザが視認する方向を被写体方向として撮像するように、前方に向けて撮像レンズ3aが配置されている。さらに、撮像レンズ3aによる撮像方向に対して照明を行う発光部4aが設けられる。発光部4aは例えばLED(Light Emitting Diode)により形成される。
また、図2では左耳側しか示されていないが、装着状態でユーザの右耳孔および左耳孔に挿入できる一対のイヤホンスピーカ5aが設けられる。また、右眼用の表示部2の右方と、左眼用の表示部2の左方に、外部音声を集音するマイクロホン6a、6bが配置される。
なお、図2に示すHMD1の外観は一例であり、HMD1をユーザが装着するための構造は多様に考えられる。HMD1は、一般に眼鏡型、あるいは頭部装着型とされる装着ユニットで形成されればよく、少なくとも本実施の形態としては、ユーザの眼の前方に近接して表示部2が設けられていればよい。また表示部2は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成でもよい。
また、撮像レンズ3a、照明を行う発光部4aは、図1に示す例では右眼側に前方に向けて配置されているが、左眼側に配置されてもよいし、両側に配置されてもよい。
また、イヤホンスピーカ5aは、左右のステレオスピーカとせずに、一方の耳にのみ装着するために1つ設けられるのみでもよい。また、マイクロホンも、マイクロホン6a、6bのうちの一方でもよい。
さらに、マイクロホン6a、6bやイヤホンスピーカ5aを備えない構成も考えられる。また発光部4aを設けない構成も考えられる。
以上、図2に示すHMD1の外観構成について説明した。なお本明細書では、ユーザが所有する画像表示端末の一例としてHMD1を用いるが、本開示による画像表示端末はHMD1に限定されない。例えば、画像表示端末は、スマートフォン、携帯電話端末、PDA(Personal Digital Assistants)、PC(Personal Computer)、タブレット端末等であってもよい。
(2−1−2.HMDの内部構成例)
続いて、図3を用いてHMD1の内部構成について具体的に説明する。図3は、本実施形態によるHMD1の内部構成の一例を示すブロック図である。図3に示すように、本実施形態によるHMD1は、表示部2、撮像部3、照明部4、音声出力部5、音声入力部6、主制御部10、撮像制御部11、撮像信号処理部12、撮像画像解析部13、照明制御部14、音声信号処理部15、表示制御部17、音声制御部18、状況検知部19、通信部21、およびストレージ部22を有する。
(主制御部10)
主制御部10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、インタフェース部を備えたマイクロコンピュータにより構成され、HMD1の各構成を制御する。
また、主制御部10は、撮像部3により対象物を撮像し、撮像信号処理部12および撮像画像解析部13で処理された撮像画像を、通信部21を介してサーバ30に送信するよう制御する。また、主制御部10は、状況検知部19により検知された各種検知結果を、撮像画像とともに、通信部21を介してサーバ30に送信するよう制御する。
また、主制御部10は、通信部21によりサーバ30から受信した付加画像を表示制御部17に供給し、対象物に重ね合うよう表示部2に表示させる。
(撮像部)
撮像部3(撮像センサ)は、図2に示した撮像レンズ3a、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
本実施形態による撮像部3は、仮想的な装飾の対象となる対象物を撮像し、撮像画像を撮像信号処理部12に出力する。
(撮像制御部)
撮像制御部11は、主制御部10からの指示に基づいて、撮像部3および撮像信号処理部12の動作を制御する。例えば撮像制御部11は、撮像部3、撮像信号処理部12の動作のオン/オフを制御する。また撮像制御部11は撮像部3に対して、オートフォーカス、自動露出調整、絞り調整、ズームなどの動作を実行させるための制御(モータ制御)を行うものとされる。また撮像制御部11はタイミングジェネレータを備え、固体撮像素子および撮像信号処理部12のサンプルホールド/AGC回路、ビデオA/Dコンバータに対しては、タイミングジェネレータにて生成されるタイミング信号により信号処理動作を制御する。また、このタイミング制御により撮像フレームレートの可変制御も可能とされる。
さらに撮像制御部11は、固体撮像素子および撮像信号処理部12における撮像感度や信号処理の制御を行う。例えば撮像感度制御として固体撮像素子から読み出される信号のゲイン制御を行ったり、黒レベル設定制御や、デジタルデータ段階の撮像信号処理の各種係数制御、ぶれ補正処理における補正量制御などを行うことができる。
(撮像信号処理部)
撮像信号処理部12は、撮像部3の固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/D(アナログ/デジタル)コンバータを備える。これにより、撮像信号処理部12は、デジタルデータとしての撮像信号を得る。また、撮像信号処理部12は、撮像信号に対してホワイトバランス処理、輝度処理、色信号処理、ぶれ補正処理なども行う。
(撮像画像解析部)
撮像画像解析部13は、外界状況を検知するための構成の一例である。具体的には、撮像画像解析部13は、撮像部3により撮像され、撮像信号処理部12により処理された画像データ(撮像画像)を解析し、画像データに含まれる画像の情報を得る。
具体的には、例えば撮像画像解析部13は、画像データ(撮像画像)に対して点検出、線・輪郭検出、領域分割等の解析を行い、解析結果を主制御部10に出力する。撮像画像の解析結果は、撮像画像とともに、サーバ30に送信されてもよい。また、継続的に撮像される撮像画像の解析結果を主制御部10に出力することで、主制御部10は、ユーザによるジェスチャー入力を認識することができる。
(照明部、照明制御部)
照明部4は、図2に示した発光部4aとその発光部4a(例えばLED)を発光させる発光回路から成る。照明制御部14は、主制御部10の制御に応じて、照明部4に発光動作を実行させる。照明部4における発光部4aが図2に示したように前方に対する照明を行うものとして取り付けられていることで、照明部4はユーザの視界方向に対する照明動作を行うことになる。
(音声入力部、音声信号処理部)
音声入力部6は、図2に示したマイクロホン6a、6bと、そのマイクロホン6a、6bで得られた音声信号を増幅処理するマイクアンプ部やA/D変換器を有し、音声データを音声信号処理部15に出力する。音声信号処理部15は、音声入力部6で得られた音声データに対して、ノイズ除去、音源分離等の処理を行う。そして処理した音声データを主制御部10に供給する。本実施形態によるHMD1が音声入力部6および音声信号処理部15を備えることで、例えばユーザによる音声入力を可能にする。
(状況検知部)
状況検知部19は、外界状況を検知するための構成の一例である。具体的には、状況検知部19は、ジャイロセンサ、加速度センサ、地磁気センサ、位置測位部(例えばGPS測位部)、または生体センサ等を含む。状況検知部19は、検知結果を主制御部10に出力する。また、生体センサは、HMD1を装着しているユーザAの脈拍、心拍、脳波、体温または発汗量等を検知可能な各種生体センサである。
(表示制御部)
表示制御部17は、主制御部10の制御に従って、表示部2に表示するための所定の画像データを処理する画像処理部として機能する。具体的には、表示制御部17は、例えばビデオプロセッサ、デジタルシグナルプロセッサ、D/A変換器などを含み、表示画像データの生成、生成した表示画像データの輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整等を行う。
また、表示制御部17は、主制御部10の制御に応じて、所定の画像データを表示部2に表示するための駆動制御部としても機能する。具体的には、表示制御部17は、例えば液晶ディスプレイとされる表示部2に画像データを表示させるための画素駆動回路を含む。また、表示制御部17(駆動制御部)は、表示部2の各画素の透過率を制御し、表示部2をスルー状態(透過、半透過状態)または非スルー状態にすることもできる。
本実施形態による表示制御部17(画像処理部)は、主制御部10の制御に従って、対象物を仮想的に装飾するための付加画像を、実空間に存在する対象物に対応する位置、または対象物を撮像した撮像画像上の所定の位置に表示するよう調整する。具体的には、表示制御部17(画像処理部)は、対象物を継続的に撮像した撮像画像を逐次表示部2に表示し、当該撮像画像中の対象物画像に対応する適切な位置に付加画像を重ね合わせて表示するよう制御する。すなわち、表示制御部17(画像処理部)は、撮像画像に付加画像を重畳した合成画像を表示部2に表示するよう制御する。
若しくは、表示制御部17(画像処理部)は、表示部2をスルー状態に制御した上で、HMD1がユーザAに装着された状態でユーザAがスルー状態の表示部2を介して対象物を視認した際に、実空間に存在する対象物に対応する適切な位置に付加画像が表示されるよう制御する。この場合、表示制御部17(画像処理部)は、主制御部10の制御に従って、対象物を撮像した撮像画像の解析結果(対象物の特徴点、線、輪郭、領域等の検出結果)に基づいて、実物体である対象物に対応する適切な位置に付加画像が表示されるよう制御することができる。
(表示部)
表示部2は、図1、図2に示したように、装着状態において、ユーザAの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に配置される左眼用と右眼用の一対の表示部により構成される。また、表示部2は、表示制御部17による制御に従って、撮像部3により撮像された対象物の撮像画像をリアルタイムで表示したり、対象物を仮想的に装飾する付加画像を表示したりする。また、表示部2は、表示制御部17により、スルー状態(透過または半透過)または非スルー状態(非透過)に制御され得る。
(音声制御部)
音声制御部18は、主制御部10の制御に応じて、音声信号データの生成、生成した音声信号データの音量調整、音質調整、音響エフェクト等を行う。また、音声制御部18は、主制御部10の制御に応じて、所定の音声信号データを音声出力部5から出力するための制御を行う。
(音声出力部)
音声出力部5は、図2に示した一対のイヤホンスピーカ5aと、そのイヤホンスピーカ5aに対するアンプ回路を有する。また、音声出力部5は、いわゆる骨伝導スピーカとして構成されてもよい。音声出力部5は、音声制御部18による制御に従って、音声信号データを出力(再生)する。
(ストレージ部)
ストレージ部22は、所定の記録媒体に対してデータの記録再生を行う部位とされる。ストレージ部22は、例えばHDD(Hard Disc Drive)として実現される。もちろん記録媒体としては、フラッシュメモリ等の固体メモリ、固定メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなど各種考えられ、ストレージ部22としては採用する記録媒体に応じて記録再生を実行できる構成とされればよい。
また、本実施形態によるストレージ部22は、HMD1がユーザAに装着されている間に、撮像部3により継続的に撮像した撮像画像や、音声入力部6により継続的に集音した音声信号データを、ライフログとして記憶可能である。また、ストレージ部22は、HMD1がユーザAに装着されている間に、生体センサや位置測位部(いずれも状況検知部19の一例)により継続的に検知された検知結果を、ライフログとして記憶可能である。また、ストレージ部22には、予めユーザAにより登録されたユーザAの嗜好情報や生体情報(性別、年齢、生年月日等)が記憶されていてもよい。
(通信部)
通信部21は外部機器との間でのデータの送受信を行う。通信部21は、例えば無線LAN(Local Area Network)、Wi−Fi(Wireless Fidelity、登録商標)、赤外線通信、Bluetooth(登録商標)等の方式で、外部機器と直接、またはネットワークアクセスポイントを介して無線通信する。
例えば通信部21は、図1に示すサーバ30と無線通信する。
以上、本実施形態によるHMD1の内部構成について詳細に説明した。なお、音声系の構成として、音声出力部5、音声入力部6、音声信号処理部15、音声制御部18を示したが、これらは必ずしも全てを備える必要はない。
上記構成により、本実施形態によるHMD1は、表示部2において、実物体の対象物または実物体の対象物を撮像した対象物画像に対応する適切な位置に、ユーザ状況に応じた装飾用の付加画像を表示し、ユーザ状況に応じて対象物を仮想的に装飾することができる。例えば、HMD1は、ユーザAの嗜好に応じて、ユーザAが好む装飾を仮想的に施すことができる。
<2−2.サーバの基本構成>
次に、本実施形態による装飾システムに含まれるサーバ30の構成について図4を参照して説明する。図4は、本実施形態によるサーバ30の内部構成の一例を示すブロック図である。
図4に示すように、サーバ30は、主制御部31、記憶部32、および通信部33を有する。
(主制御部)
主制御部31は、例えばCPU、ROM、RAM、不揮発性メモリ、インタフェース部を備えたマイクロコンピュータにより構成され、サーバ30の各構成を制御する。
また、本実施形態による主制御部31は、図4に示すように、認識部31a、画像生成部31b、および画像処理部31cとして機能する。認識部31aは、通信部33を介してHMD1から送信された撮像画像に基づいて、撮像された対象物を認識する。具体的には、例えば認識部31aは、撮像画像に対して点検出、線・輪郭検出、領域分割等の解析を行い、対象物の形や大きさ等の特徴量データまたは局所特徴量データを抽出する。そして、認識部31aは、記憶部32に記憶されているモデルデータベースに登録されている各実物体の特徴量データまたは局所特徴量データと、撮像画像から抽出した特徴量データまたは局所特徴量データを比較し、類似度が所定値よりも高いものを認識結果とする。これにより、認識部31aは、撮像画像に含まれる対象物が何であるかを認識することができる。
認識部31aは、認識結果を画像生成部31bに供給する。また、認識部31aは、認識結果に、撮像画像に写る対象物が何であるかを示す情報と、撮像画像の解析結果である特徴量データまたは局所特徴量データとを含めて画像生成部31bに供給してもよい。
画像生成部31bは、対象物を視認しているユーザの状況(ユーザ状況)、および認識部31aによる認識結果に応じて、対象物を装飾するための付加画像を生成する。ここで、「対象物を視認しているユーザ」とは、対象物を撮像した撮像画像をサーバ30に送信したHMD1の装着者であって、図1に示す例では、HMD1を装着して対象物40を視認しているユーザAである。また、ユーザ状況とは、上述したように、例えばユーザAの生体情報、感情情報、嗜好情報、行動状況、または環境情報を示し、サーバ30の記憶部32や、ネットワーク上、またはHMD1等から取得される。そして、画像生成部31bは、認識された対象物に対して、ユーザ状況に応じた仮想的な装飾を行うための付加画像を生成する。生成する付加画像は、記憶部32に記憶されている素材画像を組み合わせたり変形したり、また、ネットワーク上から取得したフリー素材を用いて生成され得る。また、サーバ30は、付加画像を生成する際にユーザA(HMD1)に対して課金し、課金料(ユーザAの納金料)に応じて画像生成部31bにより生成する付加画像のバリエーションを増やすことも可能である。
画像生成部31bは、例えば認識部31aにより対象物が飲食物であると認識された場合、飲食物に対してデコレーションするための付加画像を生成する。具体的には、対象物が、図1に示すようなケーキであると認識された場合、画像生成部31bは、ケーキの上面や側面に対してデコレーションするための付加画像を生成する。この際、画像生成部31bは、ユーザ状況に応じたケーキ装飾用の付加画像として、例えば嗜好情報に基づくユーザAの好み(好きなキャラクター、色、物等)に合う付加画像を生成する。また、画像生成部31bは、日にちに応じて、バレンタイン、ホワイトデー、クリスマス、または雛祭り等のイベント用の付加画像を追加生成してもよい。また、画像生成部31bは、生体情報に基づくユーザAの誕生日や、嗜好情報に含まれるユーザAの特定の記念日(SNSへの投稿記事やブログ記事の解析結果等から自動的に判断してもよい。)に応じて、誕生日や記念日を祝うメッセージの付加画像を生成してもよい。また、画像生成部31bは、撮像画像から複数のケーキ(対象物)が認識された場合、最もユーザAに近い場所に在るケーキ(対象物)がユーザAのケーキであると判断し、ユーザAのケーキにだけ装飾を行ってもよい。さらに、画像生成部31bは、ユーザAのケーキだけ他のケーキより大きく見えるような装飾を行ってもよい。
また、画像生成部31bは、対象物が、携帯電話端末、スマートフォン、PDA、携帯音楽プレーヤ、デジタルカメラ等のモバイル端末や、カバン、コップ、ペン立て、花瓶、自動車、電柱等の様々な物体である場合も、各物体に対してデコレーションするための付加画像を生成する。具体的には、対象物がスマートフォンであると認識された場合、画像生成部31bは、付加画像として、スマートフォンの各面を装飾するシール画像や、スマートフォンに取り付けられているように見えるストラップ画像を生成する。この際、画像生成部31bは、ユーザ状況に応じたスマートフォン装飾用の付加画像として、例えば嗜好情報に基づくユーザAの好み(好きなキャラクター、色、物等)に合うシール画像やストラップ画像を生成する。また、画像生成部31bは、ユーザAの複数の持ち物を、ユーザAの好みの色で装飾するための付加画像を生成してもよい。例えば撮像画像からユーザAが把持するスマートフォン、音楽プレーヤ、およびカバンが認識された場合、全て同じ色で装飾する付加画像を生成することで、ユーザAの持ち物の色を揃えることができる。
さらに、画像生成部31bは、ユーザAの生体情報(脈拍、体温、発汗量等により判断されるユーザAの体調等)、感情情報(脈拍、心拍、脳波等により判断されるユーザAの気分等)に応じてスマートフォンを装飾する付加画像を生成することもできる。例えば、ユーザAの体温が所定温度以上で熱があるとき(体調が悪いとき)や、気分が沈んでいるときは、画像生成部31bは、リラックス効果や心を落ち着かせる効果がある装飾や落ち着いた色合い(暖色系や薄い色、淡い色)の装飾を行うための付加画像を生成する。一方、ユーザAの気分が高揚しているとき等は、画像生成部31bは、より華やかで、さらに気分を上げる効果がある装飾(派手な装飾、濃い色、金銀を含むラメ色等)を行うための付加画像を生成する。
また、画像生成部31bは、ユーザAの環境情報に応じてスマートフォンを装飾する付加画像を生成することもできる。環境情報とは、ユーザAが置かれている環境を示す情報であって、例えば天気(雨、晴れ、曇り、雪、台風等)、時刻(朝、昼、晩の時間帯等)、場所(山、海、街、テーマパーク等)等の情報である。具体的には、画像生成部31bは、天気が雨であれば傘やカエル、合羽、寒色系の色の付加画像を生成し、天気が雪であれば雪だるまや雪の結晶の付加画像を生成し、時刻が夜の時間帯であれば月や星、蛍光色等の付加画像を生成し、また、場所が海であれば海の生物等の付加画像を生成する。
また、画像生成部31bは、対象物が車であると認識された場合、車の凹みや汚れを隠すよう装飾する付加画像を生成してもよい。
また、対象物が人間であると認識された場合、画像生成部31bは、人間を装飾するための付加画像を生成する。具体的には、画像生成部31bは、人間の頭部や胴体、顔、足、手等を装飾する付加画像として、髪型、服装(メガネ、帽子、靴等のファッションアイテムを含む)、化粧、アクセサリー等の画像を生成する。この際、画像生成部31bは、ユーザ状況に応じた人間装飾用の付加画像として、例えば嗜好情報に基づくユーザAの好み(好みの異性のタイプの髪型、ファッション、好きなキャラクター、色、物等)に合う付加画像を生成する。これにより、例えばHMD1を装着する男性ユーザが、HMD1の表示部2を介して女性を見ている際に、男性ユーザの好みの髪型画像や服装画像、化粧画像等が女性に重畳されて表示される。また、撮像画像から認識された女性はメガネをかけているが、男性ユーザの好みが「メガネをかけていない女性」である場合、画像生成部31bは、メガネをかけている女性の顔をメガネなしの顔に装飾するための付加画像(女性の顔画像からメガネを削除したもの)を生成する。
また、対象物が動物であると認識された場合、画像生成部31bは、動物を装飾するための付加画像を生成する。具体的には、画像生成部31bは、動物の頭部や胴体等を装飾する付加画像として、ペット用の服装(メガネ、帽子、靴等のファッションアイテムを含む)の画像を生成する。この際、画像生成部31bは、ユーザ状況に応じた動物装飾用の付加画像として、例えば嗜好情報に基づくユーザAの好み(好みのファッション、好きなキャラクター、色、物等)に合う付加画像を生成する。
以上、画像生成部31bによる対象物を仮想的に装飾する、ユーザ状況に応じた付加画像の具体例について詳細に説明した。なお上述した付加画像は、静止画像に限定されず、動画像であってもよい。
また、本実施形態による画像生成部31bは、付加画像を生成する際、上述したユーザ状況に加えて、対象物の経過状況を参照してもよい。例えば、画像生成部31bは、対象物が分割、合体、または変形した場合、付加画像の少なくとも一部を追加、消滅、または変化させる。また、画像生成部31bは、対象物として認識されたスマートフォンや携帯電話、コップ等が古い物(時間が経過している物)である場合、仮想的な装飾(シール、ストラップ等)も古く見える(時間が経過しているように見える)よう付加画像を生成する。
また、画像生成部31bは、生成した付加画像を、通信部33を介してHMD1に送信、または画像処理部31cに供給する。HMD1に送信された付加画像は、HMD1の主制御部10および表示制御部17(画像処理部)の調整により、表示部2において、実空間に存在する対象物に対応する適切な位置、または対象物を撮像した撮像画像上の適切な位置に表示される。
画像処理部31cは、画像生成部31bにより生成された付加画像を、実空間に存在する対象物に対応する位置、または対象物を撮像した撮像画像上の所定の位置に表示するよう調整する。画像処理部31cは、付加画像の表示位置も調整した上で、通信部33を介してHMD1に対して、付加画像と、当該付加画像の表示位置情報を送信する。これにより、HMD1は、主制御部10および表示制御部17(画像処理部)により表示位置の調整を行うことなく、上記表示位置情報に従って付加画像を表示部2に表示すればよい。または、HMD1は、サーバ30の画像処理部31cにより生成された合成画像(撮像画像上の所定の位置に付加画像が合成された画像)を表示部2に表示すればよい。
また、画像処理部31cは、対象物の状況に応じて、対象物を仮想的に装飾する付加画像を動かしてもよい。例えば画像処理部31cは、継続的に撮像された撮像画像に基づいて、対象物が動いている(揺れている)と判断された場合、対象物の動きに応じて、対象物を装飾するための付加画像も動かす。また、画像処理部31cは、対象物がユーザAに把持されている場合、ユーザAの動き(HMD1に設けられたジャイロセンサによる検知結果や、撮像画像の解析結果に基づくユーザAの動き)に応じて、対象物を装飾する付加画像を動かしてもよい。よって、例えばHMD1を装着しているユーザAが電車に乗っている際に電車の揺れに応じて対象物や対象物を把持しているユーザAが動くと、HMD1の表示部2に表示された対象物の付加画像(例えばストラップ画像)も動くので、仮想的な装飾が、より現実的に知覚される。また、例えば対象物が自動車である場合、画像処理部31cは、自動車のホイールを装飾するための付加画像が、ホイールの回転に合せて回るよう表示位置を調整してもよい。
以上説明した画像処理部31cによる付加画像の表示位置の調整処理は、HMD1の表示制御部17(画像処理部)により実行されてもよい。
(記憶部)
記憶部32は、所定の記録媒体に対してデータの記録再生を行う部位とされる。記憶部32は、例えばHDDとして実現される。もちろん記録媒体としては、フラッシュメモリ等の固体メモリ、固定メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなど各種考えられ、記憶部32としては採用する記録媒体に応じて記録再生を実行できる構成とされればよい。
また、本実施形態による記憶部32は、各ユーザのユーザ状況、各HMD1から送信された撮像画像、撮像画像から対象物を認識する際に用いられるモデルデータベース、および付加画像を生成するための素材画像等を記憶する。また、記憶部32は、画像生成部31bにより生成され、撮像画像に重畳表示される付加画像を格納し、他ユーザ(他ユーザが装着しているHMD)と共有可能な領域として用いられてもよい。
(通信部)
通信部33は外部機器との間でのデータの送受信を行う。通信部33は、例えば無線LAN(Local Area Network)等の方式で、外部機器と直接、またはネットワークアクセスポイントを介して無線通信する。
例えば通信部33は、少なくとも1以上のHMD1と無線通信し、ユーザAが所有するHMD1(画像表示端末)に設けられた撮像部3により撮像された撮像画像を受信したり、画像生成部31bにより生成した付加画像をHMD1に送信したりする。
<<3.動作処理>>
以上、本実施形態による装飾システムに含まれるHMD1およびサーバ30の基本構成について具体的に説明した。続いて、本実施形態による装飾システムの動作処理について、図5〜図10Bを参照して具体的に説明する。
<3−1.第1の装飾処理>
図5は、本実施形態による第1の装飾処理を示すフローチャートである。図5に示すように、まず、ステップS103において、HMD1は、撮像部3で対象物の撮像を開始する。撮像された撮像画像は、HMD1からサーバ30に送信される。
次いで、ステップS106において、サーバ30の認識部31aは、HMD1から送信された撮像画像を解析し、対象物を認識する。ここで、図6に、本実施形態による第1の装飾を説明するための図を示す。図6左に示す撮像画像P1がHMD1により撮像された場合、サーバ30の認識部31aは、撮像画像P1を解析し、局所特徴量データのモデルデータとの比較等により、対象物40を抽出し、対象物40がケーキであると認識する。認識部31aは、認識結果を画像生成部31bに供給する。
次に、ステップS109において、サーバ30の画像生成部31bは、HMD1の装着者であるユーザA(対象物を視認しているユーザA)のユーザ状況を取得する。ユーザ状況は、サーバ30の記憶部32から取得されてもよいし、HMD1から取得されてもよい。
続いて、ステップS112において、サーバ30の画像生成部31bは、認識部31aによる認識結果と、ユーザ状況とに基づいて、対象物を装飾するための付加画像を生成する。具体的には、画像生成部31bは、認識部31aにより対象物40がケーキであると認識された場合、ケーキの上面や側面をデコレーションするための付加画像を生成する。この際、画像生成部31bは、ユーザAのユーザ状況に応じたケーキデコレーション用の付加画像を生成する。例えば画像生成部31bは、ユーザAの嗜好情報(ユーザ状況の一例)に基づき、好きなキャラクターや物(例えば花やリボン)で装飾するための付加画像D2〜D4(図6右を参照)を生成する。また、画像生成部31bは、ユーザAの生体情報(ユーザ状況の一例)に基づいて、現在の日にちが生体情報に含まれるユーザAの誕生日と一致する場合、誕生日を祝うメッセージで装飾するための付加画像D1(図6右を参照)を生成する。
画像生成部31bにより生成された付加画像は、HMD1に送信される。
次いで、ステップS115において、HMD1の表示制御部17(画像処理部)は、サーバ30から送信された付加画像D1〜D4を、図6右に示すように、表示部2において対象物40(実物体または撮像画像)に対応する適切な位置に表示するよう表示位置を調整する。これにより、付加画像D1〜D4による対象物40に対する仮想的な装飾が実現される。
次に、ステップS118において、HMD1の主制御部10は、対象物40に対する装飾(付加画像D1〜D4)を、他ユーザと共有するか否かを判断する。他ユーザと共有するか否かは、HMD1においてユーザにより共有モードに設定されたか否かに基づいて判断されてもよい。また、他ユーザとは、特定の他ユーザであってもよいし、不特定の他ユーザであってもよい。
次いで、他ユーザと共有しないと判断された場合(S118/No)、ステップS121において、対象物40を装飾するための付加画像D1〜D4は、ユーザAのHMD1のみに表示される。
一方、他ユーザと共有すると判断された場合(S118/Yes)、ステップS124において、HMD1から、またはサーバ30から、他ユーザのHMDに対して、ユーザAのHMD1で表示されている付加画像D1〜D4を共有表示させるための情報が送信される。他ユーザのHMDは、図1〜図3を参照して説明した本実施形態によるHMD1と同様の基本構成を有する。
そして、ステップS127において、他ユーザのHMDで、対象物40に付加画像D1〜D4が重畳表示され、装飾表示の共有(共有表示)が実現される。ここで、共有表示とは、例えばユーザAのHMD1で撮像された対象物40の撮像画像P1に対象物40を装飾するための付加画像D1〜D4が合成された画像を、他ユーザのHMDの表示部に表示させることであってもよい。または、共有表示とは、他ユーザがユーザAの周辺に居て、同じ対象物40を見ている場合、他ユーザのHMDで撮像された対象物40を装飾するよう、他ユーザのHMDの表示部において、付加画像D1〜D4を適切な位置に表示させることであってもよい。さらに、上記S124では、HMD1またはサーバ30から、他ユーザのHMDに対して、付加画像D1〜D4を共有表示させるための情報が送信されるが、本実施形態はこれに限定されず、他ユーザのHMDからサーバ30の記憶部32にアクセスしてもよい。この場合、記憶部32は、画像生成部31bにより生成され、撮像画像に重畳表示される付加画像D1〜D4を格納し、他ユーザ(他ユーザが装着しているHMD)と共有可能な領域として用いられる。
以上、本実施形態による第1の装飾処理について具体的に説明した。なお上記S112では、サーバ30の画像生成部31bにより生成された付加画像をHMD1に送信したが、本実施形態による装飾処理はこれに限定されず、例えば生成された付加画像をサーバ30の画像処理部31cに供給してもよい。画像処理部31cは、付加画像の表示位置を調整し、表示位置情報を出力する。そして、サーバ30は、生成された付加画像と、表示位置情報とを、HMD1に送信する。これによりHMD1の表示制御部17は、サーバ30から送信された表示位置情報に従って、表示部2において、対象物40に対応する適切な位置に付加画像D1〜D4を表示することができる。
<3−2.第2の装飾処理>
次に、本実施形態による第2の装飾処理について図7〜図9を参照して説明する。第2の装飾処理では、対象物の分割、合体、または変形等の変化に応じた付加画像の処理を示す。本実施形態によるHMD1の撮像部3は、継続的に対象物40を撮影し、対象物40に対する仮想的な装飾がリアルタイムで行われている。したがって、対象物40が図1に示すようなケーキ等の飲食物の場合、飲食物は食事の進行に応じて減っていくので、HMD1は対象物40の変化に応じて仮想的な装飾も変化させることで、装飾をより現実的に知覚させることができる。
具体的には、図8を参照して後述するように、食事の進行により変化した対象物40’に応じて、付加画像D2(図6参照)が削除され、さらに、付加画像D1(図6参照)の一部が削除された付加画像D1’がリアルタイムで表示される。このような対象物の変化による付加画像の少なくとも一部の消滅や変化は、HMD1の表示制御部17(画像処理部)により行われてもよいし、サーバ30の画像生成部31bで新たに生成されてもよい。また、本実施形態による表示制御部17(画像処理部)または画像生成部31bは、ユーザ状況(行動状況、環境情報、生体情報、使用状況等)の変化に応じて、付加画像の少なくとも一部を追加、消滅、または変化させてもよい。なおユーザの使用状況とは、ユーザによる対象物の使用状況であるので、上記対象物の経過状況と同様である。例えばユーザの行動状況に基づく食事の進行に基づいて、表示制御部17(画像処理部)または画像生成部31bは、変化する対象物に応じて当該対象物を仮想的に装飾する付加画像の少なくとも一部をリアルタイムで消滅または変化させる。またユーザの環境情報に基づく日時や場所の変化に応じて、表示制御部17(画像処理部)または画像生成部31bは、対象物を仮想的に装飾する付加画像の少なくとも一部をリアルタイムで追加、消滅または変化させる。またユーザの生体情報に基づくユーザの体調や気分の変化に応じて、表示制御部17(画像処理部)または画像生成部31bは、対象物を仮想的に装飾する付加画像の少なくとも一部をリアルタイムで追加、消滅または変化させる。
一方、食事の進行に応じて図8に示すように仮想的な装飾が削除されると、仮想的な装飾をより現実的に知覚することはできるが、華やかな装飾を楽しめなくなる。そこで第2の装飾処理では、装飾のコンセプトを維持(継続)するよう仮想的な装飾を変化させることで、食事が進行しても最初のコンセプトに基づく装飾を提供し続けることも可能となる。以下、図7を参照してこのような第2の装飾処理について具体的に説明する。
図7は、本実施形態による第2の装飾処理を示すフローチャートである。図7に示すように、まず、ステップS133において、HMD1は、撮像部3で対象物の撮像を開始する。撮像された撮像画像は、HMD1からサーバ30に送信される。
次いで、ステップS136において、サーバ30の認識部31aは、HMD1から送信された撮像画像を解析し、対象物を認識する。例えば、第2の装飾処理においても、図6左に示す撮像画像P1がHMD1により撮像された場合、サーバ30の認識部31aは、撮像画像P1を解析し、対象物40がケーキであると認識する。認識部31aは、認識結果を画像生成部31bに供給する。
次に、ステップS139において、サーバ30の画像生成部31bは、HMD1の装着者であるユーザA(対象物を視認しているユーザA)のユーザ状況を取得する。ユーザ状況は、サーバ30の記憶部32から取得されてもよいし、HMD1から取得されてもよい。
次いで、ステップS142において、サーバ30の画像生成部31bは、認識部31aによる認識結果と、ユーザ状況とに基づいて、対象物を装飾するための、所定のコンセプトに応じた付加画像を生成する。所定のコンセプトとは、対象物の装飾の意図、目的、またはメインテーマ等であって、ユーザ状況に基づいて画像生成部31bにより決定される。例えばユーザAの嗜好情報から、ユーザAがクマ(特定のキャラクターの一例)と花を好むことが判明し、さらにユーザAの生年月日(生体情報に含まれる)から現在の日にちが誕生日当日であることが判明すると、画像生成部31bは、「クマと花による誕生日祝い」が装飾のコンセプトとして決定される。そして、画像生成部31bは、当該コンセプトにしたがって、図6右に示すような、対象物40(ケーキ)を装飾するための付加画像D1〜D4を生成する。画像生成部31bにより生成された付加画像は、HMD1に送信される。
続いて、ステップS145において、HMD1の表示制御部17(画像処理部)は、サーバ30から送信された付加画像D1〜D4を、図6右に示すように、表示部2において対象物40(実物体または撮像画像)に対応する適切な位置に表示するよう表示位置を調整する。これにより、付加画像D1〜D4による対象物40に対する仮想的な装飾が実現される。
次に、ステップS148において、サーバ30の認識部31aは、対象物40が分割(小分けを含む)、合体、または変形等の変化が起きたか否かを判断する。本実施形態において、HMD1は、対象物40を継続的に撮像し、撮像画像を逐次サーバ30に送信するので、サーバ30の認識部31aは、逐次送信される撮像画像を解析して、リアルタイムで対象物40の変化を判断することができる。具体的には、例えば図8左に示すように、食事の進行により変化した対象物40’の撮像画像P2に基づいて、認識部31aは対象物40に変化が起きたことを判断することができる。
変化が起きたと判断された場合(S148/Yes)、ステップS151において、サーバ30の画像生成部31bは、コンセプトを維持した装飾表示を行うか否かを判断する。コンセプトを維持するか否かは、HMD1においてユーザによりコンセプト維持モードに設定されたか否かに基づいて判断されてもよいし、上記S142において所定のコンセプトに応じた付加画像を生成したか否かに応じて判断されてもよい。
コンセプトを維持した装飾表示を行わない場合(S151/No)、ステップS154において、HMD1の表示制御部17(画像処理部)は、図8右に示すように、表示部2において、変化した対象物40’に応じて、一部が削除された付加画像D1’、D4’を表示する。一部が削除された付加画像D1’、D4’は、サーバ30の画像生成部31bにより生成(編集)されてもよいし、HMD1の表示制御部17(画像処理部)により付加画像D1、D4に基づいて生成(編集)されてもよい。
一方、コンセプトを維持した装飾表示を行う場合(S151/Yes)、ステップS157において、サーバ30の画像生成部31bは、変化した対象物40’を装飾するための所定のコンセプト(上記S142で決定したコンセプト)に応じた付加画像を生成する。例えば、図8右に示す例では、所定のコンセプトが上述した「クマと花による誕生日祝い」の場合、花の付加画像D2(図6参照)が削除され、誕生日を祝うメッセージを含む付加画像D1’も一部が削除されてしまうので、コンセプトが維持できていない。そこで、画像生成部31bは、変化した対象物40’に対して、所定のコンセプト(例えば「クマと花による誕生日祝い」)を維持する装飾を行うための付加画像(例えば図9に示す付加画像D1”、D2”)を生成する。生成された付加画像は、HMD1に送信される。
次いで、ステップS160において、HMD1の表示制御部17(画像処理部)は、図9に示すように、表示部2において、変化した対象物40’に対して、付加画像D1”、D2”を重ね合わせて表示し、コンセプトを維持する。図9に示す装飾例を、図8右に示す装飾例と比較すると、付加画像D1”には誕生日を祝うメッセージが欠けることなく表現され、また、図8右に示す例では削除されていた花の付加画像D2が、対象物40’上に、付加画像D2”として新たに重畳表示されている。これにより、HMD1は、対象物40が変化した対象物40’に対しても、「クマと花による誕生日祝い」という所定のコンセプトを維持した仮想的な装飾を実現することができる。なお図9に示す例では、付加画像D4’が一部削除された状態のままであるが、コンセプトの維持には特に影響はなく、対象物40’の状態に合わせて一部削除された状態とすることで、装飾をより現実的に知覚させることができる。
<3−3.第3の装飾処理>
上記第2の装飾処理では、何ら装飾がされていない対象物40(ケーキ)に対して、ユーザ状況に応じて所定のコンセプトを決定し、所定のコンセプトに応じた付加画像を生成していた。しかしながら、実物体である対象物に既に何等かのコンセプトに応じた装飾が実際に施されている場合も想定され、この場合、対象物に分割、合体、変形等の変化が生じると、装飾が崩れたり、排除されたりする。例えばケーキに特定のキャラクターをメインにデコレーションがされている場合に、ケーキを切り分けたり食べ進めたりすると、特定のキャラクターの装飾(食用または非食用の装飾)が排除されたり、切り分けられて崩れたりしてしまう。そこで、本実施形態による装飾システムは、実物体である対象物に既に何等かのコンセプトに応じた装飾が実際に施されている場合に、対象物に分割、合体、変形等の変化が生じた際、当該コンセプトを維持するよう仮想的な装飾を施す。これにより、対象物に分割、合体、変形等の変化が生じた場合でも、対象物の装飾のコンセプトを維持することができる。以下、図10Aおよび図10Bを参照して具体的に説明する。
図10A、図10Bは、本実施形態による第3の装飾処理を示すフローチャートである。図10Aに示すように、まず、ステップS233において、HMD1は、撮像部3で対象物の撮像を開始する。撮像された撮像画像は、HMD1からサーバ30に送信される。
次いで、ステップS236において、サーバ30の認識部31aは、HMD1から送信された撮像画像を解析し、対象物を認識する。
次に、ステップS239において、サーバ30の認識部31aは、撮像画像の解析結果に基づいて、実物体である対象物に実際に施されている装飾のコンセプトを抽出する。例えば、対象物がケーキであって、当該ケーキに特定のキャラクターがデザインされたクッキーや砂糖菓子、非食用の装飾品(特定のキャラクター人形)が実際に装飾されている場合、コンセプトとして、「特定のキャラクターによる装飾」が抽出される。
続いて、ステップS240において、サーバ30の主制御部31は、追加装飾表示を行うか否かを判断する。追加装飾表示を行うか否かは、例えばHMD1においてユーザAにより追加装飾が指示されたか否かに応じて判断される。
追加装飾表示を行わない場合(S240/No)、ステップS241において、サーバ30の主制御部31は、追加装飾表示なしとして、画像生成部31bによる付加画像の生成は行わない。したがって、HMD1を装着するユーザAは、実物体である対象物を実際の装飾のまま視認する。
一方、追加装飾表示を行う場合(S240/Yes)、ステップS242において、サーバ30の画像生成部31bは、上記S239において抽出された対象物のコンセプトに沿った付加画像を生成する。例えば、「特定のキャラクーによる装飾」がコンセプトとして抽出されている場合、画像生成部31bは、当該特定のキャラクターに関連する装飾を行うための付加画像を生成する。生成された付加画像はHMD1に送信される。
次いで、ステップS245において、HMD1の表示制御部17(画像処理部)は、サーバ30から送信された付加画像を、表示部2において、対象物に対応する適切な位置に表示する。これにより、HMD1を装着するユーザAは、実物体である対象物を実際の装飾に仮想的な装飾が追加された状態で視認することができる。
続いて、図10Bに示すステップS248において、サーバ30の認識部31aは、対象物40が分割、合体、または変形等の変化が起きたか否かを判断する。本実施形態において、HMD1は、対象物40を継続的に撮像し、撮像画像を逐次サーバ30に送信するので、サーバ30の認識部31aは、逐次送信される撮像画像を解析して、リアルタイムで対象物40の変化を判断することができる。
変化が起きたと判断された場合(S248/Yes)、ステップS251において、サーバ30の画像生成部31bは、対象物のコンセプトを維持した装飾表示を行うか否かを判断する。対象物のコンセプトを維持するか否かは、HMD1においてユーザによりコンセプト維持モードに設定されたか否かに基づいて判断されてもよいし、上記S239において対象物のコンセプトが抽出できたか否かに応じて判断されてもよい。
コンセプトを維持した装飾表示を行わない場合(S251/No)、ステップS254において、HMD1の表示制御部17(画像処理部)によるコンセプト維持用の付加画像の重畳表示は行われない。若しくは、上記S245において追加装飾表示が行われている場合、表示制御部17(画像処理部)は、追加された付加画像の一部または全部を、対象物の変化(分割/変形)に応じて削除して表示する。
一方、コンセプトを維持した装飾表示を行う場合(S251/Yes)、ステップS257において、サーバ30の画像生成部31bは、変化した対象物を装飾するための対象物のコンセプト(上記S239で決定したコンセプト)に応じた付加画像を生成する。
例えば対象物がケーキであって、対象物のコンセプトが「特定キャラクターによる装飾」である場合、切り分けられた各ケーキ又は途中まで食べられたケーキにおいて、特定のキャラクターの装飾が排除されたり崩れたりしていることが想定される。この場合、画像生成部31bは、特定のキャラクターによる装飾を維持するための付加画像を生成する。例えば、画像生成部31bは、最初にケーキに実際に装飾されていた特定のキャラクターがデザインされたクッキーや砂糖菓子、非食用の装飾品(特定のキャラクター人形)の画像(撮像画像)を、付加画像として生成する。また、画像生成部31bは、対象物のケーキが複数に切り分けられている場合、装飾用の付加画像を複数生成し、切り分けられた各ケーキを同じ特定のキャラクターの画像で装飾できるようにしてもよい。生成された付加画像は、HMD1に送信される。
次いで、ステップS260において、HMD1の表示制御部17(画像処理部)は、サーバ30から送信された付加画像(対象物のコンセプトを維持するための付加画像)を、表示部2において、変化した対象物に対応する適切な位置に重ね合わせて表示する。これにより、HMD1は、実際に装飾が施されている対象物が変化した場合にも、例えば「特定のキャラクターによる装飾」という対象物のコンセプトを維持するための仮想的な装飾を実現することができる。
<<4.他の実施形態>>
以上説明した本開示の一実施形態による装飾システム(特に第1、第2の装飾処理)では、撮像された対象物を認識し、対象物を視認しているユーザAのユーザ状況(ユーザAの嗜好情報や生体情報等)に応じた装飾を行うための付加画像を生成していた。しかし、本実施形態による装飾システムは上述した例に限定されず、例えば対象物の状況に応じた装飾を行うための付加画像を生成することもできる。
すなわち、第1のユーザがHMD1を介して第2のユーザ(対象物)を視認している場合に、第2のユーザのユーザ状況(対象物の状況)に応じた装飾を行うための付加画像が生成され、当該付加画像がHMD1の表示部2において第2のユーザに重畳表示される。これにより、第2のユーザの趣味嗜好や体調等が反映された装飾を他人(第1のユーザ)に見せることができ、第2のユーザにとって、自分の趣味嗜好や体調等に合った装飾で他人から見られることができる。以下、このような対象物の状況に応じた装飾を行う本開示の他の実施形態による装飾システムについて、図11および図12を参照して説明する。
図11は、他の実施形態による装飾システムの動作処理を示すフローチャートである。図11に示すように、ステップS303において、HMD1は、撮像部3で対象物の撮像を開始する。撮像された撮像画像は、HMD1からサーバ30に送信される。
次いで、ステップS306において、サーバ30の認識部31aは、HMD1から送信された撮像画像を解析し、対象物を認識する。ここで、図12に、他の実施形態による対象物の状況に応じた装飾を説明するための図を示す。図12左に示す撮像画像P3がHMD1により撮像された場合、サーバ30の認識部31aは、撮像画像P3を解析し、局所特徴量データのモデルデータとの比較等により、対象物42を抽出し、対象物42が人物(他ユーザ)であると認識する。また、認識部31aは、撮像画像P3を解析し、対象物43、44を抽出し、対象物43、44が他ユーザの所有物であると認識する。認識部31aは、認識結果を画像生成部31bに供給する。
次に、ステップS309において、サーバ30の画像生成部31bは、対象物42(他ユーザ)の状況(ユーザ状況)を取得する。他ユーザのユーザ状況は、サーバ30の記憶部32から取得されてもよいし、他ユーザがHMDを装着している場合は当該HMDから取得されてもよい。なお他ユーザの識別は、例えば認識部31aにより撮像画像に含まれる他ユーザの顔画像を用いた顔認識により行われる。
続いて、ステップS312において、サーバ30の画像生成部31bは、認識部31aによる認識結果と、対象物の状況とに基づいて、対象物を装飾するための付加画像を生成する。具体的には、画像生成部31bは、認識部31aにより対象物42が人物(他ユーザ)であると認識された場合、人物の頭部や胴体、手足、さらに人物の所有物を装飾するための付加画像を生成する。この際、画像生成部31bは、対象物42の状況(他ユーザのユーザ状況)に応じた装飾用の付加画像を生成する。例えば画像生成部31bは、他ユーザの嗜好情報(ユーザ状況の一例)に基づき、好きなアーティストやキャラクターで装飾するための付加画像D10、D12、D13を生成する。図12右に示すように、付加画像D10は他ユーザ(対象物42)が好きなキャラクターのストラップ画像、付加画像D12は他ユーザが好きなキャラクターのシール画像、付加画像D13は他ユーザが好きなアーティストと同じ髪型画像である。
その他、画像生成部31bは、他ユーザの行動予定(ユーザ状況の一例である行動情報に含まれる)に基づき、行動後の状態を想定した付加画像を生成することもできる。例えば、他ユーザが美容院でパーマやカラーリングを行う予定の場合(美容院のWeb予約情報や他ユーザのスケジュール情報により判断される)、予定されているパーマやカラーリング後の髪型画像を生成する。
画像生成部31bにより生成された付加画像は、HMD1に送信される。
次いで、ステップS315において、HMD1の表示制御部17(画像処理部)は、サーバ30から送信された付加画像D10〜D13を、図12右に示すように、表示部2において対象物42〜44に対応する適切な位置に表示するよう表示位置を調整する。これにより、対象物42(他ユーザ)の状況に応じた付加画像D10〜D13による仮想的な装飾が実現される。
なお他ユーザ(対象物42)も本実施形態によるHMDを装着している場合、他ユーザが自分の所有物(対象物43、44)を視認すると、HMDにより他ユーザ自身の趣味嗜好(ユーザ状況)に応じた仮想的な装飾が行われ得る(上記第1、第2の装飾処理参照)。したがって、このようなHMDを装着している他ユーザ(対象物42)を視認しているユーザAは、HMD1により、他ユーザの趣味嗜好に応じた仮想的な装飾が行われることにより(図11に示す装飾処理)、実質的に他ユーザと仮想的な装飾を共有することができる。
<<5.まとめ>>
上述したように、本実施形態による装飾システムでは、撮像された対象物に対して、対象物を視認しているユーザのユーザ状況を反映した仮想的な装飾を、ユーザが装着するHMD1の表示部2を用いてリアルタイムで実現することができる。具体的には、対象物に対して、例えばユーザの好み、体調、気分、行動等のユーザ状況に合った仮想的な装飾が行われるので、ユーザの満足度が増す。
また、本実施形態による装飾システムによれば、このようなユーザの状況に応じた仮想的な装飾を他ユーザ(特定/不特定の他ユーザ)と共有することも可能である。
また、本実施形態による装飾システムによれば、対象物に分割、変形、合体等の変化が生じた場合、変化に応じてリアルタイムで仮想的な装飾の一部または全部を削除等することで、仮想的な装飾を、実空間に存在する実際の装飾であるかのようにユーザに知覚させることができる。
また、本実施形態による装飾システムによれば、ユーザ状況に基づく所定のコンセプトで仮想的に装飾した対象物に分割、変形、合体等の変化が生じた場合でも、所定のコンセプトを維持するための付加画像をリアルタイムで対象物に重畳表示することができるので、ユーザの満足度がさらに向上する。
また、本実施形態による装飾システムによれば、既に実際に装飾が施されている対象物に分割、変形、合体等の変化が生じた場合でも、リアルタイムで対象物のコンセプトを維持するための付加画像を対象物に重畳表示することができるので、利便性がさらに向上する。
また、本開示の他の実施形態による装飾システムによれば、対象物が他ユーザである場合、他ユーザのユーザ状況に応じた装飾を他ユーザ(実物体または撮像画像)に重ね合わせることができるので、ユーザは他ユーザの趣味嗜好等が反映された仮想的な装飾を楽しむことができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、HMD1またはサーバ30に内蔵されるCPU、ROM、およびRAM等のハードウェアに、上述したHMD1またはサーバ30の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、上記各実施形態では、HMD1(画像表示端末の一例)とサーバ30(画像処理装置の一例)を含む装飾システム(クラウド型)について説明したが、本開示による装飾システムは、HMD1とサーバ30を含む構成に限定されない。例えば、サーバ30の認識部31a、画像生成部31b、画像処理部31cの機能と、記憶部32に記憶されている各データを、HMD1が有する構成により、HMD1単体で上記各実施形態による装飾システムを実現することができる。
なお、本技術は以下のような構成も取ることができる。
(1)
撮像画像に基づいて、撮像された対象物を認識する認識部と、
前記対象物を視認しているユーザの状況、および前記認識部による認識結果に応じて、前記対象物を装飾するための付加画像を生成する画像生成部と、
を備える、画像処理装置。
(2)
前記ユーザの状況は、前記ユーザの生体情報、感情情報、嗜好情報、行動状況、または環境情報である、前記(1)に記載の画像処理装置。
(3)
前記画像処理装置は、
前記ユーザが所有する画像表示端末に設けられた撮像部により撮像された前記撮像画像を受信する受信部と、
前記画像生成部により生成した前記付加画像を前記画像表示端末に送信する送信部と、
を備える、前記(1)または(2)に記載の画像処理装置。
(4)
前記受信部は、前記ユーザの状況を前記画像表示端末から受信する、前記(3)に記載の画像処理装置。
(5)
前記対象物が飲食物であると認識された場合、前記ユーザの行動状況に基づく飲食の進行に応じて、前記画像生成部または画像処理部により前記付加画像の少なくとも一部を消滅または変化させる、前記(1)〜(4)のいずれか1項に記載の画像処理装置。
(6)
前記画像生成部または画像処理部は、前記ユーザが置かれている環境情報に応じて、前記付加画像の少なくとも一部を追加、消滅、または変化させる、前記(1)〜(4)のいずれか1項に記載の画像処理装置。
(7)
前記画像生成部または画像処理部は、前記ユーザの生体情報または使用状況に応じて、前記付加画像の少なくとも一部を追加、消滅、または変化させる、前記(1)〜(4)のいずれか1項に記載の画像処理装置。
(8)
前記画像生成部または画像処理部は、前記ユーザ状況に加えて、前記対象物の経過状況に応じて、前記付加画像の少なくとも一部を追加、消滅、または変化させる、前記(1)〜(7)のいずれか1項に記載の画像処理装置。
(9)
前記画像処理装置は、前記付加画像、または前記付加画像を前記撮像画像に重畳した画像を他ユーザと共有可能な記憶媒体をさらに備える、前記(1)〜(8)のいずれか1項に記載の画像処理装置
(10)
前記画像処理装置は、前記付加画像を、実空間に存在する前記対象物に対応する位置、または前記対象物を撮像した前記撮像画像上の所定の位置に表示するよう調整する画像処理部をさらに備える、前記(1)〜(9)のいずれか1項に記載の画像処理装置。
(11)
前記付加画像は、前記ユーザが所有する画像表示端末に送信され、当該画像表示端末が有する画像処理部により、実空間に存在する前記対象物に対応する位置、または前記対象物を撮像した前記撮像画像上の所定の位置に表示されるよう調整される、前記(1)〜(9)のいずれか1項に記載の画像処理装置。
(12)
前記画像生成部は、前記対象物が他ユーザまたは他ユーザの所有物であると認識された場合、前記他ユーザのユーザ状況に応じて、前記対象物を装飾するための付加画像を生成する、前記(1)〜(11)のいずれか1項に記載の画像処理装置。
(13)
前記画像生成部は、前記ユーザによる納金に応じて、前記対象物を装飾するための付加画像の種類を増加させる、前記(1)〜(12)のいずれか1項に記載の画像処理装置。
(14)
前記画像生成部は、前記対象物が分割、合体、または変形した場合、分割、合体、または変形前の前記対象物を装飾していた前記付加画像のコンセプトを維持するよう、分割、合体、または変形後の前記対象物を装飾するための付加画像を生成する、前記(1)〜(13)のいずれか1項に記載の画像処理装置。
(15)
前記対象物が飲食物である場合、飲食の進行に応じて、前記画像生成部または画像処理部により、前記付加画像の前記コンセプトを維持しつつ、少なくとも一部を消滅または変化させる、前記(14)に記載の画像処理装置。
(16)
前記画像生成部は、前記対象物が分割、合体、または変形した場合、分割、合体、または変形前の前記対象物の装飾コンセプトを維持するよう、分割、合体、または変形後の前記対象物を装飾するための付加画像を生成する、前記(1)〜(13)のいずれか1項に記載の画像処理装置。
(17)
コンピュータを、
撮像画像に基づいて、撮像された対象物を認識する認識部と、
前記対象物を視認しているユーザの状況、および前記認識部による認識結果に応じて、前記対象物を装飾するための付加画像を生成する画像生成部と、
として機能させるための、プログラムが記憶された、記憶媒体。
1 HMD(Head Mounted Display)
2 表示部
3 撮像部
3a 撮像レンズ
4 照明部
4a 発光部
5 音声出力部
5a イヤホンスピーカ
6 音声入力部
6a、6b マイクロホン
10 主制御部
11 撮像制御部
12 撮像信号処理部
13 撮像画像解析部
14 照明制御部
15 音声信号処理部
17 表示制御部
18 音声制御部
19 状況検知部
21 通信部
22 ストレージ部
30 サーバ
31 主制御部
31a 認識部
31b 画像生成部
31c 画像処理部
32 記憶部
33 通信部
40、40’ 対象物(ケーキ)
42 対象物(他ユーザ)
43 対象物(他ユーザの所有物)
44 対象物(他ユーザの所有物)
P1〜P3 撮像画像
D1〜D4、D1’、D1”、D2”、D4’、D10、D12、D13 付加画像
A ユーザ


Claims (16)

  1. 撮像画像に基づいて、撮像された対象物を認識する認識部と、
    前記対象物を視認しているユーザの状況、および前記認識部による認識結果に応じて、前記対象物を装飾するための付加画像を生成する画像生成部と、
    を備え
    前記画像生成部は、前記対象物が分割、合体、または変形した場合、分割、合体、または変形前の前記対象物のコンセプトを維持するよう、分割、合体、または変形後の前記対象物を装飾するための付加画像を生成する、画像処理装置。
  2. 前記画像生成部は、前記対象物が分割、合体、または変形した場合、分割、合体、または変形前の前記対象物を装飾していた前記付加画像のコンセプトを維持するよう、分割、合体、または変形後の前記対象物を装飾するための付加画像を生成する、請求項に記載の画像処理装置。
  3. 前記対象物が飲食物である場合、飲食の進行に応じて、前記画像生成部または画像処理部により、前記付加画像の前記コンセプトを維持しつつ、少なくとも一部を消滅または変化させる、請求項に記載の画像処理装置。
  4. 前記ユーザの状況は、前記ユーザの生体情報、感情情報、嗜好情報、行動状況、または環境情報である、請求項1〜3のいずれか1項に記載の画像処理装置。
  5. 前記画像処理装置は、
    前記ユーザが所有する画像表示端末に設けられた撮像部により撮像された前記撮像画像を受信する受信部と、
    前記画像生成部により生成した前記付加画像を前記画像表示端末に送信する送信部と、
    を備える、請求項1〜4のいずれか1項に記載の画像処理装置。
  6. 前記受信部は、前記ユーザの状況を前記画像表示端末から受信する、請求項に記載の画像処理装置。
  7. 前記対象物が飲食物であると認識された場合、前記ユーザの行動状況に基づく飲食の進行に応じて、前記画像生成部または画像処理部により前記付加画像の少なくとも一部を消滅または変化させる、請求項1〜のいずれか1項に記載の画像処理装置。
  8. 前記画像生成部または画像処理部は、前記ユーザが置かれている環境情報に応じて、前記付加画像の少なくとも一部を追加、消滅、または変化させる、請求項1〜のいずれか1項に記載の画像処理装置。
  9. 前記画像生成部または画像処理部は、前記ユーザの生体情報または使用状況に応じて、前記付加画像の少なくとも一部を追加、消滅、または変化させる、請求項1〜のいずれか1項に記載の画像処理装置。
  10. 前記画像生成部または画像処理部は、前記ユーザの状況に加えて、前記対象物の経過状況に応じて、前記付加画像の少なくとも一部を追加、消滅、または変化させる、請求項1〜のいずれか1項に記載の画像処理装置。
  11. 前記画像処理装置は、前記付加画像、または前記付加画像を前記撮像画像に重畳した画像を他ユーザと共有可能な記憶媒体をさらに備える、請求項1〜10のいずれか1項に記載の画像処理装置。
  12. 前記画像処理装置は、前記付加画像を、実空間に存在する前記対象物に対応する位置、または前記対象物を撮像した前記撮像画像における所定の位置に表示するよう調整する画像処理部をさらに備える、請求項1〜11のいずれか1項に記載の画像処理装置。
  13. 前記付加画像は、前記ユーザが所有する画像表示端末に送信され、当該画像表示端末が有する画像処理部により、実空間に存在する前記対象物に対応する位置、または前記対象物を撮像した前記撮像画像における所定の位置に表示されるよう調整される、請求項1〜11のいずれか1項に記載の画像処理装置。
  14. 前記画像生成部は、前記対象物が他ユーザまたは他ユーザの所有物であると認識された場合、前記他ユーザのユーザ状況に応じて、前記対象物を装飾するための付加画像を生成する、請求項1〜13のいずれか1項に記載の画像処理装置。
  15. 前記画像生成部は、前記ユーザによる納金に応じて、前記対象物を装飾するための付加画像の種類を増加させる、請求項1〜14のいずれか1項に記載の画像処理装置。
  16. コンピュータを、
    撮像画像に基づいて、撮像された対象物を認識する認識部と、
    前記対象物を視認しているユーザの状況、および前記認識部による認識結果に応じて、前記対象物を装飾するための付加画像を生成する画像生成部と、
    として機能させるためのプログラムが記憶され
    前記画像生成部は、前記対象物が分割、合体、または変形した場合、分割、合体、または変形前の前記対象物のコンセプトを維持するよう、分割、合体、または変形後の前記対象物を装飾するための付加画像を生成する、記憶媒体。
JP2013081081A 2013-04-09 2013-04-09 画像処理装置および記憶媒体 Active JP6089898B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013081081A JP6089898B2 (ja) 2013-04-09 2013-04-09 画像処理装置および記憶媒体
CN201410131039.7A CN104104864A (zh) 2013-04-09 2014-04-02 图像处理器和存储介质
US14/243,127 US9881402B2 (en) 2013-04-09 2014-04-02 Image processor and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013081081A JP6089898B2 (ja) 2013-04-09 2013-04-09 画像処理装置および記憶媒体

Publications (3)

Publication Number Publication Date
JP2014203377A JP2014203377A (ja) 2014-10-27
JP2014203377A5 JP2014203377A5 (ja) 2016-02-18
JP6089898B2 true JP6089898B2 (ja) 2017-03-08

Family

ID=51654116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013081081A Active JP6089898B2 (ja) 2013-04-09 2013-04-09 画像処理装置および記憶媒体

Country Status (3)

Country Link
US (1) US9881402B2 (ja)
JP (1) JP6089898B2 (ja)
CN (1) CN104104864A (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014191718A (ja) 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
JP6488661B2 (ja) * 2014-11-17 2019-03-27 セイコーエプソン株式会社 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
CN105607253B (zh) 2014-11-17 2020-05-12 精工爱普生株式会社 头部佩戴型显示装置以及控制方法、显示系统
JP6620420B2 (ja) * 2015-05-22 2019-12-18 セイコーエプソン株式会社 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6439935B2 (ja) * 2015-05-07 2018-12-19 パナソニックIpマネジメント株式会社 表示制御方法、ヘッドマウントディスプレイ、およびプログラム
JP2017016466A (ja) * 2015-07-02 2017-01-19 富士通株式会社 端末制御方法、画像生成方法、端末制御プログラム、及び端末
EP3376772B1 (en) 2015-11-12 2023-01-25 Panasonic Intellectual Property Corporation of America Display method, program and display device
CN106961511B (zh) * 2016-01-11 2019-10-01 阿里巴巴集团控股有限公司 一种图像处理方法及装置
JP6739254B2 (ja) * 2016-07-01 2020-08-12 株式会社コーエーテクモゲームス プログラム、情報処理装置、情報処理方法、及びサーバ装置
US10242643B2 (en) * 2016-07-18 2019-03-26 Microsoft Technology Licensing, Llc Constrained head-mounted display communication
JP6480900B2 (ja) * 2016-09-08 2019-03-13 ヤフー株式会社 生成装置、生成方法、及び生成プログラム
US10325382B2 (en) * 2016-09-28 2019-06-18 Intel Corporation Automatic modification of image parts based on contextual information
WO2018099436A1 (en) * 2016-12-01 2018-06-07 Huang Sin Ger A system for determining emotional or psychological states
US10387730B1 (en) * 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
US11480790B2 (en) * 2017-06-14 2022-10-25 Hewlett-Packard Development Company, L.P. Display adjustments
JP7028116B2 (ja) * 2018-09-11 2022-03-02 株式会社デンソー 車両用装飾画像合成装置
US11972529B2 (en) 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
JP2021159594A (ja) * 2020-04-02 2021-10-11 キヤノン株式会社 頭部装着装置及びその制御装置
CN112053449A (zh) 2020-09-09 2020-12-08 脸萌有限公司 基于增强现实的显示方法、设备及存储介质
WO2023188033A1 (ja) * 2022-03-29 2023-10-05 日本電気株式会社 情報処理装置、表示制御方法、および表示制御プログラム
WO2023188034A1 (ja) * 2022-03-29 2023-10-05 日本電気株式会社 情報処理装置、表示制御方法、および表示制御プログラム
WO2024004440A1 (ja) * 2022-06-30 2024-01-04 ソニーグループ株式会社 生成装置、生成方法、再生装置、及び再生方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5943049A (en) * 1995-04-27 1999-08-24 Casio Computer Co., Ltd. Image processor for displayed message, balloon, and character's face
JPH11144024A (ja) 1996-11-01 1999-05-28 Matsushita Electric Ind Co Ltd 画像合成装置、画像合成方法及び媒体
JP2001245269A (ja) * 2000-02-25 2001-09-07 Sony Corp コミュニケーション・データ作成装置及び作成方法、コミュニケーション・データ再生装置及び再生方法、並びに、プログラム記憶媒体
US20030070145A1 (en) * 2001-10-09 2003-04-10 Chris Barnes Visual funeral planning system
JP2003281297A (ja) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology 情報提示装置および情報提示方法
US20120036046A1 (en) * 2010-08-09 2012-02-09 Decopac, Inc. Decorating System for Edible Products
JP2006227838A (ja) * 2005-02-16 2006-08-31 Nec Corp 画像処理装置及び画像処理プログラム
JP2007133599A (ja) 2005-11-09 2007-05-31 Toshiba Corp 画像処理装置
US7979067B2 (en) * 2007-02-15 2011-07-12 Yahoo! Inc. Context avatar
JP4911077B2 (ja) 2008-03-04 2012-04-04 フリュー株式会社 写真シール作成装置および写真シール作成方法、並びに、プログラム
WO2009123972A2 (en) * 2008-03-31 2009-10-08 Wms Gaming, Inc. Integrating video broadcasts into wagering games
US8223196B2 (en) * 2009-06-10 2012-07-17 Disney Enterprises, Inc. Projector systems and methods for producing digitally augmented, interactive cakes and other food products
KR101184876B1 (ko) * 2010-02-11 2012-09-20 삼성전자주식회사 영상과 상호작용이 가능한 캐릭터의 동적 효과를 생성하는 방법 및 장치
JP2011186007A (ja) * 2010-03-04 2011-09-22 Meiji Univ 表示制御装置及び情報表示装置
US9256711B2 (en) * 2011-07-05 2016-02-09 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for providing health information to employees via augmented reality display
US8634660B2 (en) * 2011-09-07 2014-01-21 Intellectual Ventures Fund 83 Llc Event classification method using lit candle detection

Also Published As

Publication number Publication date
US9881402B2 (en) 2018-01-30
CN104104864A (zh) 2014-10-15
US20140300633A1 (en) 2014-10-09
JP2014203377A (ja) 2014-10-27

Similar Documents

Publication Publication Date Title
JP6089898B2 (ja) 画像処理装置および記憶媒体
US11288723B2 (en) Information processing device and information processing method
US10019962B2 (en) Context adaptive user interface for augmented reality display
Wendt The Allure of the Selfie. Instagram and the New Self Portrait
CN104113683B (zh) 信息处理设备和存储介质
WO2019176236A1 (ja) 情報処理装置、情報処理方法、および記録媒体
TW200827769A (en) Display device and display method
Robinson et al. There's not an app for that: Mobile user experience design for life
CN110956531A (zh) 一种服饰管理和搭配系统及方法
Stelzig Wordsworth’s Invigorating Hell: London in Book 7 of the Prelude (1805)
Smith The Ghost Variations
Zhu The Sincere Gaze: Art and Realism in Jia Zhangke's Films
Yaeger Editor's Column:“Black Men Dressed in Gold”—Eudora Welty, Empty Objects, and the Neobaroque
Todd Creation
Stiglegger Seduction and Genre
Katz Disaster Management
Windle Capote’s Swans: Effeminacy, Friendship, and Style in Douglas McGrath’s Infamous
Chung Sin Yunbok's Kisaeng Imagery: Subtle Expression of Emotions under the Women's Beautiful Facade
Barnham Sort Code.
Summers Post-Apocalyptic Shine in the Afro-Future
TUMOLO Italian Brooklyn: Photographs by Martha Cooper.
Kisner The Natural
VO Author’s Note
Danesi et al. The Kiss in Images
Barker Dee's Hiding Place

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170123

R151 Written notification of patent or utility model registration

Ref document number: 6089898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250