JP6982203B2 - キャラクタ画像生成装置、キャラクタ画像生成方法及びプログラム - Google Patents

キャラクタ画像生成装置、キャラクタ画像生成方法及びプログラム Download PDF

Info

Publication number
JP6982203B2
JP6982203B2 JP2021026614A JP2021026614A JP6982203B2 JP 6982203 B2 JP6982203 B2 JP 6982203B2 JP 2021026614 A JP2021026614 A JP 2021026614A JP 2021026614 A JP2021026614 A JP 2021026614A JP 6982203 B2 JP6982203 B2 JP 6982203B2
Authority
JP
Japan
Prior art keywords
information
real object
character image
character
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021026614A
Other languages
English (en)
Other versions
JP2021082344A (ja
Inventor
健治 横田
修 水田
義浩 伊藤
祥一 大川
和彦 増崎
あかり 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019078844A external-priority patent/JP6843178B2/ja
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2021026614A priority Critical patent/JP6982203B2/ja
Publication of JP2021082344A publication Critical patent/JP2021082344A/ja
Application granted granted Critical
Publication of JP6982203B2 publication Critical patent/JP6982203B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、キャラクタ画像生成装置、キャラクタ画像生成方法及びプログラムに関し、特に実空間を認識して複合現実感提示を行う技術に関する。
実空間に配置された特定のマーカを撮像することにより装置の位置及び姿勢を推定し、撮像画像中に3DCGのキャラクタ等を重畳表示することで、あたかも該マーカを基準に定まる平面上にキャラクタが存在するかの如く複合現実感提示を行うものがあった(特許文献1)。
一方、特許文献1に記載の技術では実空間に異質なマーカを配置することになるため、好適な現実感が提示できない可能性があった。故に、近年では、マーカを配置することなく撮像画像中の平面を認識し、該平面について複合現実感提示を行う手法が採用されつつある。
特許第5469409号公報
Tango、[online]、[平成29年1月10日検索]、インターネット、<URL:https://get.google.com/tango/>
しかしながら、撮像画像によっては必ずしも所望の面がキャラクタの配置される平面として認識されず、例えば床面ではなくテーブル上にキャラクタが立っている等、現実感の欠如した提示がなされる場合がある。
本発明は、上述の問題点に鑑みてなされたものであり、実空間に存在する実オブジェクトの特性を考慮した、好適な複合現実感提示を行うキャラクタ画像生成装置、キャラクタ画像生成方法及びプログラムを提供することを目的とする。
前述の目的を達成するために、本発明のキャラクタ画像生成装置は、実オブジェクトを含む実空間を記述した空間情報と、実オブジェクトの特性を示す特性情報とを取得する第1の取得手段と、所定の情報を取得する第2の取得手段と、実空間に対応して構築される3次元空間を描画する描画手段であって、実オブジェクトの特性に応じた表示態様で、3次元空間中の仮想キャラクタを描画したキャラクタ画像を生成する描画手段と、を有するキャラクタ画像生成装置であって、描画手段は、第2の取得手段により取得された所定の情報と関連する特性実オブジェクトを特性情報に基づいて特定し、該実オブジェクトの特性に応じた表示態様で仮想キャラクタを描画したキャラクタ画像を生成することを特徴とする。
このような構成により本発明によれば、実空間に存在する実オブジェクトの特性を考慮した、好適な複合現実感提示を行うことが可能となる。
本発明の実施形態及び変形例に係るキャラクタ画像生成システムの構成を示したシステム図 本発明の実施形態及び変形例に係る端末装置10のハードウェア構成図 本発明の実施形態及び変形例に係る端末装置10のソフトウェア構成図 本発明の実施形態及び変形例に係るサーバ20のソフトウェア構成図 本発明の実施形態及び変形例に係り生成される各種画像を説明するための図 本発明の実施形態及び変形例1に係る端末装置10で実行される、表示処理を例示したフローチャート 本発明の実施形態及び変形例に係り生成される各種画像を説明するための別の図
[実施形態]
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、キャラクタ画像生成装置の一例としての、撮像画像に基づく実空間計測が可能な端末装置に、本発明を適用した例を説明する。しかし、本発明は、実空間に存在する実オブジェクトの特性に応じた表示態様のキャラクタ画像を生成することが可能な任意の機器に適用可能である。また、本明細書において、「場所記述情報」とは、任意の位置で撮像された画像における特徴点の分布をスクリーン座標として記録した情報を指し、また「3次元空間情報(あるいは単に空間情報)」とは、端末装置の移動や姿勢変化と、これに伴い撮像された撮像画像とに基づいて構築された、実空間中の特徴点とその位置(空間座標)を示す情報の集合を指すものとする。
《システム構成》
図1は、本発明の実施形態に係るキャラクタ画像生成システムの構成を示したシステム図である。図1に示されるように、本実施形態のキャラクタ画像生成システムは、ユーザへのキャラクタ画像の提示を行う端末装置10、後述の実オブジェクトの特性把握に係る解析を行うサーバ20、及びこれら装置間での通信接続と情報通信とを実現する、移動通信網や無線LAN等であってよいネットワーク30で構成される。図1の例では、1つのサーバ20に対し、1つの端末装置10が接続される構成を示しているが、本発明の実施はこれに限られるものではなく、複数の端末装置10が1つのサーバ20に接続可能に構成されるものであってよいことは言うまでもない。
〈端末装置10のハードウェア構成〉
図2は、本実施形態による端末装置10の概略的なハードウェア構成図である。端末装置10は、例えば、スマートフォンといった携帯型の通信端末である。スピーカ101は、制御部100から出力する音声信号を音声に変換する。マイク102は、音声を音声信号に変換して制御部100に出力する。撮像部103は、レンズ及びCCDセンサを有し、画像情報を取得して制御部100に出力する。ディスプレイ105は、本実施形態では、タッチセンシティブディスプレイであり、ユーザへの情報の提示に加え、ユーザ操作の入力部としても機能する。なお、ディスプレイがタッチセンシティブディスプレイではない場合、別に、入力部を設ける。深さセンサ106は、オブジェクトまでの距離(深さ)を測定して測定結果を深さ情報として制御部100に出力する。通信部107は、移動通信網や無線LANであってよいネットワーク30を介した通信処理を行う。地磁気センサ108は、地磁気を検出して端末の基準方向の現在の向きを示す方位情報を制御部100に出力する。加速度センサ109は、加速度を検出して加速度情報を制御部100に出力する。ジャイロセンサ110は、角速度を検出して角速度情報を制御部100に出力する。
制御部100は、端末装置全体の制御部であり、1つ以上のプロセッサとメモリ部と、を備えている。なお、メモリ部は、プロセッサが一時的なデータの保存用として使用するRAMや、プロセッサが実行するオペレーティングシステム及びアプリケーションと、電源断となっても保持すべきデータとが格納されるフラッシュメモリを有する。
〈端末装置10のソフトウェア構成〉
図3は、本発明の実施形態に係る端末装置10において実現される機能構成モジュールを示したソフトウェア構成図である。これら機能構成モジュールは、制御部100により対応するプログラムがメモリ展開されて実行されることにより実現される。
場所記述情報生成モジュール111は、例えば、非特許文献1に記載された技術に基づき場所記述情報を生成する。場所記述情報とは、撮像部103が撮像している画像から端末装置の3次元空間位置と撮像部103の撮像方向を判定するための情報である。まず、非特許文献1に記載された場所記述情報の生成について説明する。端末装置10のユーザは、場所記述情報の取得を開始すると、撮像部103により画像を撮像しながら、その位置や、撮像方向を変化させる。場所記述情報生成モジュール111は、場所記述情報の取得の間、その開始時の位置を原点とし、加速度情報及び角速度情報に基づき、(暫定的な)端末装置の位置や撮像方向の向き(姿勢)を判定し続ける。また、場所記述情報生成モジュール111は、撮像部103が撮像している画像内の特徴点を求める。このとき、場所記述情報生成モジュール111は、3次元空間における端末装置の位置や撮像方向と、画像内の同じ特徴点の位置、つまり、特徴点のスクリーン座標を判定する。これにより、場所記述情報生成モジュール111は、3次元空間内の各位置及び各撮像方向において、撮像部103が撮像している画像内のどの位置に各特徴点が見えるかを示す場所記述情報を生成する。よって、場所記述情報生成モジュール111は、既に生成した場所記述情報と、撮像部103が撮像している画像の特徴点とを比較することで、そのときの(最終的な)端末装置の3次元空間位置と撮像部103の撮像方向を判定することができる。なお、3次元空間位置の原点は、場所記述情報を開始したときの位置であるものとする。また、場所記述情報生成モジュール111は、既に保存している場所記述情報と、撮像部103が撮像している画像の特徴点との比較により端末装置の3次元空間位置と撮像部103の撮像方向を判定すると同時に、撮像部103が撮像している画像の特徴点に基づき当該既に保存している場所記述情報の更新も行う。
上述した様に、場所記述情報は、端末装置の位置及び撮像方向と、撮像部103が撮像した画像内にある各オブジェクトの各特徴点のスクリーン座標における位置との関係を示す情報であるため、場所記述情報に基づき、各特徴点の3次元空間位置の座標を示す3次元空間情報を生成することができる。即ち、場所記述情報のうちの異なる位置及び撮像方向の組み合わせに対応する情報につき、同一の特徴点のスクリーン座標での移動を考慮することで奥行き方向の情報を得、該特徴点の3次元空間位置を導出することができる。本実施形態では構成モジュール112が、場所記述情報に基づき、実空間に存在する特徴点の3次元位置を示す3次元空間情報を構成する。3次元空間情報は、特徴点の空間座標の分布を示す点群データであってよく、各点について3次元座標、あるいはこれに加えて色情報等を管理するものであってよい。
なお、3次元空間情報に係る空間位置の原点は、例えば、場所記述情報生成モジュール111が場所記述情報の生成を開始したときの端末装置10の位置と同一であってよい。構成する3次元空間情報の座標系は、その縦方向(y軸)が、地磁気センサ108により判明する鉛直方向と平行になるように定められることが好ましい。また、構成モジュール112は、場所空間情報の更新と同期して、既に保存している3次元空間情報の対応する特徴点の3次元位置の情報を更新する。
ここで、3次元空間情報は、実測値である加速度情報及び角速度情報に基づき、実空間と略同一のスケールを示す態様にて構成され、実空間内に存在する実オブジェクトの寸法等を取得可能に構成されるものとして説明するが、所定の縮尺で構成されるものであってもよいことは容易に理解されよう。また、本実施形態の端末装置10は加速度センサ109及びジャイロセンサ110を有しているため、3次元空間情報から実オブジェクトの寸法を取得可能であるが、本発明の実施はこれらのセンサを有することを要件とするものではない。即ち、撮像画像103が撮像した画像情報に対応する画像内の特徴点のそれぞれにつき、深さセンサ106から取得された深さ情報に基づいても、該特徴点までの奥行き方向の距離を取得できるため、異なる姿勢位置にて撮像された複数の画像情報に対応する画像間の相関関係と、深さ情報とを考慮することでも、実空間と同一とみなすスケールの3次元空間情報を構成することは可能である。
キャラクタ制御モジュール113は、複合現実感の提示の一例としてディスプレイ105に表示される仮想キャラクタについて、その動作制御を行う。仮想キャラクタは、その外観を示す3次元モデルが予め保存されており、該3次元モデル用に、あるいは汎用的に設けられたモーションデータに基づき、その動作を制御することができる。また仮想キャラクタの制御は、視覚的に提示される動作に限られるものではなく、例えば音声提示、意思決定等に係る制御を含むものであってよい。なお、本実施形態では仮想キャラクタは、実空間に対応して設けられた所定の3次元空間(以下、ワールドとして識別する)に配置し、描画することでキャラクタ画像として視覚化することができる。該ワールドは、3次元空間情報により把握される実空間とも対応するが、点群データで構成される3次元空間情報とは別に構築され、描画用に設けられるものである。無論、3次元空間情報から把握される障害物の形状や配置の情報は、ワールドにも反映され、仮想キャラクタの行動や表示制限に考慮される。ワールドの座標系原点は、3次元空間情報と対応する位置に設けられるものであってもよいし、3次元空間情報の座標系とワールド座標系の相対関係(あるいは座標変換マトリクス)が規定される場合には異なっていてもよい。
視点決定モジュール114は、場所記述情報生成モジュール111により判定された端末装置10の位置及び姿勢の情報に基づき、ワールドを描画する視点を決定する。ワールドを描画する視点は、実空間における端末装置10の位置と対応するワールド中の位置に、端末装置10の姿勢と対応する視線方向を有するよう決定される。ここで、視点に係る視野角の情報は、撮像部103の画角に対応するよう定められるものであってよい。
描画モジュール115は、ワールドに配置され、場所記述情報生成モジュール111による動作制御がなされた仮想キャラクタを、視点決定モジュール114により決定された視点について描画し、キャラクタ画像を生成する。具体的には描画モジュール115は、図5(a)に示すような、最終的にディスプレイ105に表示される画像のうちの仮想キャラクタに係る領域の画像を描画する。
合成モジュール116は、撮像部103により取得された画像情報に対応する撮像画像に対し、該撮像画像に対応して描画モジュール115により生成されたキャラクタ画像を合成し、複合現実感提示に係る提示用画像を生成する。該合成により、図5(b)のように実空間を示す撮像画像が、仮想キャラクタが実空間内に存在する状態の提示用画像(図5(c))となり、ディスプレイ105を介してユーザに提示される。
このように本実施形態では、撮像部103により取得された画像情報に対応する撮像画像と描画モジュール115に生成されたキャラクタ画像とを合成することで、提示用画像を生成する。故に、キャラクタ画像の描画において、実空間に存在する実オブジェクトによって仮想キャラクタが遮蔽される領域については、キャラクタ画像上に現わされなくてよい。具体的には、深さ情報もしくは3次元空間情報により、仮想オブジェクトの手前に実オブジェクトが存在すると判断可能である場合には、該実オブジェクトに相当する仮想オブジェクトをワールドに配置し、描画モジュール115は該仮想オブジェクトの描画は行わず、かつ仮想キャラクタのうちの該仮想オブジェクトにより遮蔽される部分については仮想キャラクタの描画を行わない制御を行う(例えば図7(a))。このようにすることで、撮像画像と合成した際に、実オブジェクトと仮想キャラクタとの前後関係が整合した、現実感のある画像提示(図7(b))が可能となる。
〈サーバ20のソフトウェア構成〉
本実施形態のサーバ20のハードウェア構成は、端末装置10との通信及び所定の処理を実行可能に構成されるものであればよいため、省略する。以下、本実施形態のサーバ20において実現される機能構成モジュールを示したソフトウェア構成について、図4を用いて説明する。これら機能構成モジュールは、端末装置10と同様に、不図示のサーバ20が有する制御部、フラッシュメモリ、RAM等により実現されるものとする。
解析モジュール201は、端末装置10において撮像された1以上の撮像画像に基づき、撮像範囲に存在する実オブジェクトに係る解析を行う。本実施形態では解析モジュール201は、実オブジェクトがいずれであるかの特定を行う特定モジュール202と、実オブジェクトの特性を把握し、特性情報を出力する特性把握モジュール203とを有する。ここで、実オブジェクトの特性には、例えば椅子やテーブルのように、種別や形状から把握される通常の用途を示す情報(所謂アフォーダンス)が含まれる。またこの他、例えば照明器具や送風機等、その機能が実施されることで他の実オブジェクトに影響を与え得る実オブジェクトである場合には、特性には該影響を仮想キャラクタに生じさせるために必要となる各種のパラメータが含まれるものであってよい。
また特定モジュール202により行われる実オブジェクトがいずれであるかの特定は、寸法・形状・色情報等に基づく、予め3次元形状やテクスチャパターン等が登録されたデータベースとの対比、あるいは種々の学習を経て構築されるニューラルネットワークに基づく解析を含むものであってよい。
また、解析モジュール201により参照される、実オブジェクトの情報及び実オブジェクトの特性情報は、その全てが予めサーバ20に保持されているものである必要はなく、例えばユーザが端末装置10において、撮像された画像中の所望の実オブジェクトの領域を指定し、いずれの実オブジェクトであるか、あるいは実オブジェクトの特性がいずれであるかを入力し、これがサーバ20に伝送され、解析において使用可能に保持されるものとしてもよい。
例えば実オブジェクトが椅子である場合、特定モジュール202は撮像画像中の実オブジェクトと推定される領域の特定と、該領域の画像情報に基づき、実オブジェクトの種別が椅子であること、あるいはいずれの椅子(商品)であるかを特定する。そして特性把握モジュール203は、特定結果も考慮し、特性情報として、「該オブジェクトに対して仮想キャラクタの着座が可能であること(加えて、いずれの面が座面であるか)」や「該オブジェクト上に仮想キャラクタは登らないこと」を示す情報を出力する。
また例えば実オブジェクトが照明器具である場合、特定モジュール202は撮像画像中の実オブジェクトと推定される領域の特定と、実オブジェクトの種別が照明であること、あるいはいずれの照明器具(商品)であるかを特定する。そして特性把握モジュール203は、特定結果も考慮し、特性情報として、「該オブジェクトがワールドにおける光源を定義すること」、「該オブジェクトにより仮想キャラクタの輝度表現または陰影表現が変更されること」、さらに、輝度変化等の影響導出に必要となる光源の輝度、照射方向、光源種類(直接照明、間接照明)の少なくともいずれかの情報を出力する。ここで、影響導出に必要となる各種情報は、例えば撮像画像中の輝度分布や周囲の色情報等に基づき解析されるものであってよい。
なお、このように解析モジュール201により取得される、入力された撮像画像中の実オブジェクトの領域の情報、及び該実オブジェクトの特性情報は、サーバ20が有する不図示の通信部により、ネットワーク30を介して端末装置10に解析結果として返送される。解析結果は、例えば3次元空間情報と関連付けて管理されるものであってよく、これにより、特徴点が所定の実オブジェクトの一部を構成するか、特徴点に係る実オブジェクトの特性がいずれであるかが把握可能となる。
《表示処理》
このような構成をもつ本実施形態の端末装置10の表示処理について、図6のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部100が、例えばフラッシュメモリに記憶されている対応する処理プログラムを読み出し、RAMに展開して実行することにより各モジュールを動作させ、実現することができる。本表示処理は、例えば複合現実感提示に係る所定のアプリケーションが起動された際に開始され、ディスプレイ105に表示されるフレームごとに繰り返し実行されるものとして説明する。
S601で、撮像部103及び深さセンサ106は制御部100の制御の下、表示するフレームに係る撮像及びセンシングを行い、画像情報、加速度情報、角速度情報及び深さ情報を取得する。
以下、端末装置10において行われる端末装置10の場所記述情報生成、位置姿勢判定及び3次元空間情報の構成に係る処理(S602〜S604)と、サーバ20に行わせる撮像範囲の実オブジェクトの解析に係る処理(S605〜S606)とは、並行して実行されるものとする。
S602で、場所記述情報生成モジュール111は、既に保存されている場所記述情報が存在するか否かを判断する。場所記述情報生成モジュール111は、既に保存されている場所記述情報が存在すると判断する場合には、処理をS603に移す。また場所記述情報生成モジュール111は、保存されている場所記述情報が存在していないと判断する場合には、端末装置10の位置及び姿勢を初期値(原点位置かつ回転なし)として定め、処理をS604に移す。
S603で、場所記述情報生成モジュール111は、表示フレームに係り取得された画像情報、加速度情報、角速度情報、及び既に保存されている場所記述情報に基づき、端末装置10の位置及び姿勢を判定する。なお、本実施形態では簡単のため、既に保存されている場所記述情報に、現在の撮像範囲の少なくとも一部の特徴点の情報が含まれているものとして説明する。少なくとも一部の特徴点が既に保存されている場所記述情報に含まれていない場合には、保存されている3場所記述情報が存在していない場合と同様に、位置及び姿勢を初期値として定めればよい。
S604で、構成モジュール112は、表示フレームに係り取得された画像情報に基づき更新された場所空間情報に対応して、3次元空間情報を構成または更新する。3次元空間情報の構成は、3次元空間情報がまだ構成されていない段階ではその生成から、構成されている段階では場所空間情報の更新に対応して行われる。
一方、サーバ20に行わせる実オブジェクトの解析に係る処理については、制御部100はS605で、表示フレームに係り取得された画像情報を通信部107を介してサーバ20に解析要求と共に送信する。その後、制御部100はS606で、該要求に係る解析結果が返送されるまで待機し、解析結果が受信されると処理をS607に移す。なお、解析要求と共に送信する画像情報は撮像範囲の全体を示している必要はなく、例えばユーザの要求に応じて、特定の実オブジェクトに係る行動を優先的に仮想キャラクタに生じさせるよう、該実オブジェクトに係る所望の小領域の指示入力を受け付け、該小領域の画像情報を送信するようにしてもよい。このようにすることで、解析要求に係る情報量を削減し、また解析の処理量も低減することができるため、処理の高速化が実現できる。
S607で、構成モジュール111は、受信した解析結果(実オブジェクトの領域の情報、及び該実オブジェクトの特性情報)を3次元空間情報の対応する特徴点に関連付ける。なお、本実施形態では3次元空間情報と解析結果とを統合するものとして説明するが、本発明の実施はこれに限られるものではなく、互いの情報が関連付けられた状態となっていればよい。
S608で、キャラクタ制御モジュール113は、表示フレームに対応する仮想キャラクタの状態を決定し、仮想キャラクタを該状態に制御してワールドに配置するための種々の処理を行う。このとき、キャラクタ制御モジュール113は、仮想キャラクタを配置する位置と対応する、実空間中の位置周辺に存在する実オブジェクトの特性に応じて、仮想キャラクタの挙動を制御するものであってよい。なお、仮想キャラクタの挙動制御は、例えば表示フレームの撮像範囲に含まれた全ての実オブジェクトについて、その特性に基づく挙動を同時に開始させる必要はなく、仮想キャラクタとの相対関係(仮想キャラクタの配置位置と対応する実空間の位置の距離)に応じた順序(例えば距離の近い順)や所定の優先度に応じて、順次行われるものであってよい。また、1つの実オブジェクトについて特定の動作を行う場合には、該動作が頻繁に生じぬよう、撮像範囲に含まれていたとしても所定期間は動作を生じないよう制御してもよい。
S609で、描画モジュール115は、表示フレームに係る端末装置10の位置及び姿勢の情報に基づき視点決定モジュール114により決定された視点についてワールドを描画し、キャラクタ画像を生成する。光源として特性把握がなされた実オブジェクトが撮像環境に存在する場合、ワールドには該実オブジェクトに係る特性情報に基づく光源が定義され、描画モジュール115は該光源に起因する輝度演算を行う。
S610で、合成モジュール116は、表示フレームに係り取得された画像情報に対応する撮像画像に、生成されたキャラクタ画像を合成して提示用画像を生成する。
S611で、制御部100は、提示用画像をディスプレイ105に表示させ、表示フレームに係る表示処理を完了する。
このように、本実施形態の表示処理ではS608及びS609の処理により、実空間に存在する実オブジェクトの特性に応じて仮想キャラクタの表示態様を制御することができる。実オブジェクトの特性に応じた仮想キャラクタの制御は、例えば次のように行われるものであってよい。
(1)実オブジェクトのアフォーダンスに起因する制御
上述たように実オブジェクトの用途に係る特性情報が取得される場合、撮像環境に存在する実オブジェクトを単に障害物としてではなく把握することができるため、該特性情報に応じた行動をとらせるよう、仮想キャラクタを制御できる。例えば、実オブジェクトが椅子や座布団等であり、着座用途であることが把握できる場合には、仮想キャラクタを該実オブジェクト上に着座させるよう、挙動制御するものであってよい。あるいは、実オブジェクトがテーブル等であり、着座用途ではなく、物体載置用途であることが把握できる場合には、仮想キャラクタを該実オブジェクト上に配置しないがキャラクタの装着品等は配置可能とする、仮想キャラクタが該実オブジェクトを避けて歩行する等、挙動制御するものであってよい。また例えば実オブジェクトが絵画や造形物等であり、観賞用途であることが把握できる場合には、仮想キャラクタは該実オブジェクトに注視するよう挙動制御するものであってもよい。
(2)他の実オブジェクトに影響を及ぼす特性に起因する制御
実オブジェクトが機能を果たすことによって他の実オブジェクトに影響を及ぼす特性情報が取得される場合、撮像環境に存在する実オブジェクトに起因する変化が生じるよう、仮想キャラクタの描写を制御することができる。例えば、実オブジェクトが照明器具であり、機能することにより周囲の実オブジェクトの輝度変化や陰影変化を生じさせるとの特性が把握できる場合には、該実オブジェクトの影響を受ける所定の範囲に仮想キャラクタが配置される場合において、仮想キャラクタの位置と該実オブジェクトの位置及び光源特性の情報に基づき、仮想キャラクタの輝度やキャラクタに係り発生させる陰影の状態を制御するものであってよい。また例えば、実オブジェクトが空調機器であり、機能することによりカーテン等の周囲の実オブジェクトの動き(揺れ)を生じさせるとの特性が把握できる場合には、該実オブジェクトの影響を受ける所定の範囲に仮想キャラクタが配置される場合において、毛髪や被服等の挙動を制御するものであってよい。もちろん、このように他の実オブジェクトに影響を及ぼすか否かは、照明器具や空調機器の運転状況にもよるものであるため、解析モジュール201は、その運転状況によって特性情報を変更する、あるいは特性情報に応じた制御を行うか否かの情報を付加することにより解析結果を送出し、端末装置10における挙動制御は適応的に行われるものであってよい。
なお、これら制御はあくまで例示に過ぎず、仮想キャラクタの配置位置と対応する実空間の位置あるいはその周辺に存在する実オブジェクトの特性に応じて、その他の挙動制御が行われるものであってよい。また実オブジェクトと対応する位置に仮想キャラクタを配置している状態に限らず、例えば特性が把握された実オブジェクトの特徴点が3次元空間情報に含まれる場合、これに起因して仮想キャラクタの行動を発生させるよう、挙動制御は行われるものであってよい。即ち、アプリケーションが実行された際に、端末装置10の周囲に椅子が存在していることが既に把握されているのであれば、仮想キャラクタを該椅子方向に移動させ、着座させるよう挙動制御を行うものであってよい。
また、例えば窓のように、種別が特定されたとしてもその物自体の特性は他の実オブジェクトに影響を与えるものではないが、外光が入射する等によって照明器具と同等の影響を他の実オブジェクトに与えている状態にある場合は、特性把握モジュール203は画像情報の輝度分布に基づきこれを把握し、他の実オブジェクトに照明効果を与える実オブジェクトとして、特性情報を出力するよう構成されてもよい。
また照明器具や空調機器のように、その運転状況により他の実オブジェクトに変化を生じさせる特性を有する実オブジェクトに限らず、解析により運転状態等が判別可能な実オブジェクトについては、その状態に応じて特性情報を異ならせ、仮想キャラクタの挙動に変化が生じるよう構成してもよい。例えば、テレビ受像機であれば画面に対応する領域の画像情報に基づき、その運転状態や視聴されている番組等を解析可能であるため、仮想キャラクタに番組案内や観賞動作等の挙動を開始させるように構成してもよい。
また本実施形態では、解析モジュール201が画像情報に基づいて解析を行い、実オブジェクトを特定し、その特性情報を端末装置10に返送する態様について説明したが、本発明の実施はこれに限られるものではない。実オブジェクトの特定は、商品リストからの選択、商品名の入力等、端末装置10においてなされたユーザ操作に基づいて行われ、該商品に係る特性情報がサーバ20から取得可能に構成されるものであってもよい。
また、任意の実オブジェクトについての特性情報は必ずしも一定である必要はなく、例えば時間帯、日時、あるいは所定のタイミングにおいて更新され、仮想キャラクタに異なる挙動を生じさせるよう構成されるものであってもよい。
また、本実施形態のキャラクタ画像生成システムでは、ユーザへの複合現実感提示のために端末装置10とサーバ20とで機能を分離し、実オブジェクトの特性解析のみをサーバ20に実行させるものとして説明したが、機能の分離態様はこれに限られるものではない。即ち、本発明は、3次元空間情報の構成、実オブジェクトの特性解析、キャラクタ画像の生成が1以上の機器により実行されるものであれば実現可能である。
以上説明したように、本実施形態のキャラクタ画像生成装置によれば、実空間に存在する実オブジェクトの特性を考慮した、好適な複合現実感提示を行うことができる。
[変形例1]
上述した実施形態では、仮想キャラクタを配置する位置と対応する、実空間中の位置周辺の実オブジェクトの特性に応じて、キャラクタ制御モジュール113が仮想キャラクタの挙動制御を行うものとして説明したが、本発明の実施はこれに限られるものではない。
仮想キャラクタの挙動制御は、例えば通信部107を介して所定の情報取得がなされたこと、あるいはスケジューラ等のアプリケーション実行により所定の情報出力がなされたことに応じて、該情報と関連する特性を有する実オブジェクトに係る動作を行うように行われるものであってもよい。ここで、所定の情報は、仮想キャラクタを介して提示を行うものとして予め定められた種別の情報(付加情報)であり、例えば天気予報、放送番組情報、あるいは展示物の解説情報等の所定の外部機器から供給されるものや、スケジュール情報や検索結果情報等の端末装置10で起動された他のアプリケーションから取得可能なものであってよい。また、付加情報と関連する特性は、該付加情報に付された実オブジェクトにつき把握される特性を示す情報に基づき把握されるものであってもよいし、データ構造、配信元、文字列等を解析することにより把握されるものであってもよい。この他、付加情報は、ユーザの発した音声情報を含むものであってよい。
本変形例ではキャラクタ制御モジュール113は、既に3次元空間情報と関連付けられて管理されている実オブジェクトの特性と関連する付加情報が取得された場合に、仮想キャラクタを該実オブジェクトと対応する位置に移動させ、付加情報について予め定められた行動を行わせるように挙動制御を行う。例えば、実オブジェクトとしてテレビ受像機を示す特性情報が管理されている場合、付加情報として放送番組情報を受信すると、キャラクタ制御モジュール113は仮想キャラクタをテレビ受像機と対応するワールド中の位置に移動させ、テレビ受像機を指さしながら、「現在放送中の番組及びその情報」、「ユーザ趣向に合致する番組の開始時間の案内」等を音声を伴い提示するよう、挙動制御を行えばよい。また例えば、実オブジェクトとして所定の展示物を示す特性情報が管理されている場合、付加情報として解説情報を取得すると、キャラクタ制御モジュール113は、展示物と対応するワールド中の位置に仮想キャラクタを立ち止まらせ、展示物の解説を開始するよう、挙動制御を行えばよい。また例えば、実オブジェクトとして時計や玄関ドアを示す特性情報が管理されている場合、付加情報として外出予定に係るスケジュール情報を取得すると、キャラクタ制御モジュール113は仮想キャラクタを対応するワールド中の位置に移動させ、予定の通知や移動を促す通知を行うよう、挙動制御を行えばよい。
このようにすることで、ただ観賞目的ではなく、ユーザの利用環境や配置されている実オブジェクトの特性に応じた、より付加価値の高い複合現実感提示を行うことができる。
[変形例2]
上述した実施形態及び変形例では、描画モジュール115により生成されたキャラクタ画像と撮像画像とが合成されることにより、複合現実感を提示する提示用画像が生成されてディスプレイ105に表示されるものとして説明したが、キャラクタ画像の提示はこれに限られるものではない。即ち、上述した態様は、ディスプレイ105に表示された提示用画像を介して、仮想キャラクタが実空間に存在するとの認識を与えるものであったが、例えばHMP(Head-Mounted Projector)やグラス型デバイス等、光学透過方式を採用する機器をディスプレイ105に代わり使用する態様であってもよい。この場合、キャラクタ画像のキャラクタに係る画素のみを、光学透過方式でユーザに視認可能に構成すればよく、ユーザは実世界を直接観察しながら、仮想キャラクタが実空間に存在するかの如く認識することができる。換言すれば、本発明の実施においてキャラクタ画像と撮像画像との合成は必須ではなく、提示方式に従って採用される要素であることは容易に理解されよう。なお、グラス型デバイス等を用いる場合は、位置及び姿勢の判定につき、該デバイス自体、あるいは該デバイスと対応する位置に撮像部103が設けられていることが好ましい。
[変形例3]
上述した実施形態及び変形例では、表示フレームに係り取得された撮像画像に基づいて実オブジェクトの特性把握がなされるものとして説明したが、ユーザの観察する空間内の存在する実オブジェクトの特性把握は、ユーザの視点や端末装置10とは異なる位置に設けられた撮像装置により得られた撮像画像に基づいて行われるものであってよい。
同様に、表示フレームに係り取得された画像情報、加速度情報及び角速度情報に基づいて判定された位置及び姿勢とは異なる視点について、ワールドの描画を行い、キャラクタ画像を生成するものとしてもよい。即ち、変形例2に示したように撮像画像とキャラクタ画像との合成を要件としない態様においては、観賞するユーザの眼球位置と撮像部103の設置位置とは必ずしも一致しないため、これらの相対的な位置関係と、推定された位置及び姿勢の情報に基づき定まる視点につき、ワールドの描画は行われるものであってよい。
[その他の実施形態]
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。また本発明に係るキャラクタ画像生成装置は、1以上のコンピュータを該装置として機能させるプログラムによっても実現可能である。該プログラムは、コンピュータが読み取り可能な記録媒体に記録されることにより、あるいは電気通信回線を通じて、提供/配布することができる。
10:端末装置、20:サーバ、30:ネットワーク、100:制御部、101:スピーカ、102:マイク、103:撮像部、105:ディスプレイ、106:深さセンサ、107:通信部、108:地磁気センサ、109:加速度センサ、110:ジャイロセンサ、111:場所記述情報生成モジュール、112:構成モジュール、113:キャラクタ制御モジュール、114:視点決定モジュール、115:描画モジュール、116:合成モジュール、201:解析モジュール、202:特定モジュール、203:特性把握モジュール

Claims (9)

  1. オブジェクトを含む実空間を記述した空間情報と、前記実オブジェクトの特性を示す特性情報とを取得する第1の取得手段と、
    定の情報を取得する第2の取得手段と、
    前記実空間に対応して構築される3次元空間を描画する描画手段であって、前記実オブジェクトの特性に応じた表示態様で、前記3次元空間中の仮想キャラクタを描画したキャラクタ画像を生成する描画手段と、を有するキャラクタ画像生成装置であって、
    前記描画手段は、前記第2の取得手段により取得された前記所定の情報と関連する特性前記実オブジェクトを前記特性情報に基づいて特定し、該実オブジェクトの特性に応じた表示態様で前記仮想キャラクタを描画したキャラクタ画像を生成する
    ことを特徴とするキャラクタ画像生成装置。
  2. 前記描画手段により生成されたキャラクタ画像を介して前記所定の情報を提示する提示手段をさらに有することを特徴とする請求項1に記載のキャラクタ画像生成装置。
  3. 前記第2の取得手段は、ユーザの発した音声情報に基づいて前記所定の情報を取得することを特徴とする請求項1または2に記載のキャラクタ画像生成装置。
  4. 前記実オブジェクトは、稼動状態が変化する機器であり、
    前記キャラクタ画像生成装置は、前記実オブジェクトの稼動状態を取得し、取得した該稼動状態に応じて前記実オブジェクトの特性を変更する変更手段をさらに有し、
    前記描画手段は、前記変更手段により前記実オブジェクトの特性が変更された場合に、変更後の該特性に応じて、前記仮想キャラクタの表示態様を異ならせる
    ことを特徴とする請求項1乃至のいずれか1項に記載のキャラクタ画像生成装置。
  5. 前記描画手段はさらに、ユーザの要求、または前記仮想キャラクタと前記実オブジェクトとの相対関係に応じて、特性が前記仮想キャラクタの表示態様に参照される前記実オブジェクトを特定する請求項1乃至4のいずれか1項に記載のキャラクタ画像生成装置。
  6. 前記描画手段は、同一の前記実オブジェクトの特性に応じた表示態様で前記仮想キャラクタを描画したキャラクタ画像を生成する頻度を制限することを特徴とする請求項1乃至5のいずれか1項に記載のキャラクタ画像生成装置。
  7. 前記第1の取得手段は、ユーザによる選択に基づいて前記特性情報を取得することを特徴とする請求項1乃至6のいずれか1項に記載のキャラクタ画像生成装置。
  8. オブジェクトを含む実空間を記述した空間情報と、前記実オブジェクトの特性を示す特性情報とを取得する第1の取得工程と、
    定の情報を取得する第2の取得工程と、
    前記実空間に対応して構築される3次元空間を描画する描画工程であって、前記実オブジェクトの特性に応じた表示態様で、前記3次元空間中の仮想キャラクタを描画したキャラクタ画像を生成する描画工程と、を有するキャラクタ画像生成方法であって、
    前記描画工程において、前記第2の取得工程において取得された前記所定の情報と関連する特性前記実オブジェクトを前記特性情報に基づいて特定し、該実オブジェクトの特性に応じた表示態様で前記仮想キャラクタを描画したキャラクタ画像が生成される
    ことを特徴とするキャラクタ画像生成方法。
  9. コンピュータを、請求項1乃至のいずれか1項に記載のキャラクタ画像生成装置の各手段として機能させるためのプログラム。
JP2021026614A 2019-04-17 2021-02-22 キャラクタ画像生成装置、キャラクタ画像生成方法及びプログラム Active JP6982203B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021026614A JP6982203B2 (ja) 2019-04-17 2021-02-22 キャラクタ画像生成装置、キャラクタ画像生成方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019078844A JP6843178B2 (ja) 2019-04-17 2019-04-17 キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム及び記録媒体
JP2021026614A JP6982203B2 (ja) 2019-04-17 2021-02-22 キャラクタ画像生成装置、キャラクタ画像生成方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019078844A Division JP6843178B2 (ja) 2019-04-17 2019-04-17 キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JP2021082344A JP2021082344A (ja) 2021-05-27
JP6982203B2 true JP6982203B2 (ja) 2021-12-17

Family

ID=79170181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021026614A Active JP6982203B2 (ja) 2019-04-17 2021-02-22 キャラクタ画像生成装置、キャラクタ画像生成方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6982203B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7354185B2 (ja) * 2021-06-18 2023-10-02 ヤフー株式会社 表示制御装置、表示制御方法および表示制御プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076312A (ja) * 2001-09-06 2003-03-14 Hideo Nagaoka キャラクタ表示装置
JP2003090729A (ja) * 2001-09-20 2003-03-28 Mitsubishi Electric Corp ナビゲーション装置
JP6056178B2 (ja) * 2012-04-11 2017-01-11 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
JP6119254B2 (ja) * 2013-01-11 2017-04-26 カシオ計算機株式会社 通信装置、ar表示システム及びプログラム

Also Published As

Publication number Publication date
JP2021082344A (ja) 2021-05-27

Similar Documents

Publication Publication Date Title
JP6517255B2 (ja) キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システム
CN110022470B (zh) 使用合成图像训练对象检测算法的方法和系统和存储介质
US10320437B2 (en) System and method for immersive and interactive multimedia generation
US9865094B2 (en) Information processing apparatus, display control method, and program
CN105190482B (zh) 缩放手势的检测
KR102065687B1 (ko) 무선 손목 컴퓨팅과 3d 영상화, 매핑, 네트워킹 및 인터페이스를 위한 제어 장치 및 방법
KR101818024B1 (ko) 각각의 사용자의 시점에 대해 공유된 디지털 인터페이스들의 렌더링을 위한 시스템
JP6348741B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
CN107004279A (zh) 自然用户界面相机校准
CN105190483A (zh) 检测用至少两个控制对象执行的手势
CN111510701A (zh) 虚拟内容的显示方法、装置、电子设备及计算机可读介质
JP7073481B2 (ja) 画像表示システム
JP2013101529A (ja) 情報処理装置、表示制御方法、およびプログラム
US20210407213A1 (en) Augmented reality eyewear with 3d costumes
JP2018124515A (ja) コンピュータプログラム、端末および方法
JP6982203B2 (ja) キャラクタ画像生成装置、キャラクタ画像生成方法及びプログラム
CN110223327A (zh) 用于提供位置信息或移动信息以用于控制车辆的至少一种功能的方法和系统
JP6843178B2 (ja) キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム及び記録媒体
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2019160332A (ja) コンピュータプログラム、端末および方法
JP7441289B1 (ja) コンピュータプログラム、情報処理端末、及びその制御方法
KR20180058199A (ko) 영상 회의를 위한 전자 장치 및 그의 동작 방법
JP7488210B2 (ja) 端末及びプログラム
US20230071828A1 (en) Information processing apparatus, information processing system, and information processing method
JP2024071199A (ja) コンピュータプログラム、情報処理端末、及びその制御方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210222

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211118

R150 Certificate of patent or registration of utility model

Ref document number: 6982203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150