JP7490943B2 - 表示制御装置、表示制御システム、プログラムおよび表示制御方法 - Google Patents

表示制御装置、表示制御システム、プログラムおよび表示制御方法 Download PDF

Info

Publication number
JP7490943B2
JP7490943B2 JP2019188060A JP2019188060A JP7490943B2 JP 7490943 B2 JP7490943 B2 JP 7490943B2 JP 2019188060 A JP2019188060 A JP 2019188060A JP 2019188060 A JP2019188060 A JP 2019188060A JP 7490943 B2 JP7490943 B2 JP 7490943B2
Authority
JP
Japan
Prior art keywords
picture
image data
area
image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019188060A
Other languages
English (en)
Other versions
JP2021064130A (ja
Inventor
篤 伊藤
宣之 岸
真奈 赤池
聖子 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019188060A priority Critical patent/JP7490943B2/ja
Publication of JP2021064130A publication Critical patent/JP2021064130A/ja
Application granted granted Critical
Publication of JP7490943B2 publication Critical patent/JP7490943B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、表示制御装置、表示制御システム、プログラムおよび表示制御方法に関する。
従来、ユーザにより絵が描かれた用紙を読み取り、当該絵の特徴量や用紙の情報に基づき、ユーザの描いた絵に対する動きを決定して表示するという技術が開示されている。
しかしながら、従来の技術によれば、ユーザの描いた絵と用紙の情報のみから動作を与えることができるという点では手軽だが、より自然な動きを付与することには課題があった。
本発明は、上記に鑑みてなされたものであって、ユーザにより描かれた絵の画像データに対してより自然な動きを付与することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、ユーザにより絵が描かれる領域に設けられている生物の骨格を模したガイド情報を用いて前記ユーザにより描かれた絵の画像データと、前記ガイド情報に対応した変形動作を前記絵の画像データに与える動作情報とを入力する入力部と、前記動作情報に基づく変形動作を、2次元平面に投影した表示領域にて前記絵の画像データにさせるよう制御する画像制御部と、を備え、前記ガイド情報は、前記絵が描かれる領域の枠に比べて目立たない色で形成されている、ことを特徴とする。
本発明によれば、ユーザにより描かれた絵の画像データに対してより自然な動きを付与することができる、という効果を奏する。
図1は、実施形態に係る表示制御システムの一例の構成を示すブロック図である。 図2は、3次元の座標系を持つ画像データ空間について概略的に示す図である。 図3は、PCの一例の構成を示すブロック図である。 図4は、PCの機能を説明するための一例の機能ブロック図である。 図5は、変形ルールDBの一例を示す図である。 図6は、変形ルールの一例を示す図である。 図7は、図6の変形ルールを数値データの形で表した図である。 図8は、絵DBの一例を示す図である。 図9は、表示制御処理の全体的な流れを示す一例のフローチャートである。 図10は、手書き描画を行うための用紙の例を示す図である。 図11は、原稿画像データからの抽出例を示す図である。 図12は、パラメータの決定手法を例示的に示す図である。 図13は、画像取得部による画像データ空間の投影について示す図である。 図14は、ステップS15におけるアニメーション表示処理の流れを示すフローチャートである。 図15は、ステップS15におけるアニメーション表示処理を概略的に示す図である。 図16は、ユーザオブジェクトの変形例を示す図である。
以下に添付図面を参照して、表示制御装置、表示制御システム、プログラムおよび表示制御方法の実施の形態を詳細に説明する。
図1は、実施形態に係る表示制御システムの一例の構成を示すブロック図である。図1において、表示制御システム1は、表示制御装置であるパーソナルコンピュータ(PC)10と、1以上のプロジェクタ装置(PJ)11、11、11と、画像入力装置であるスキャナ装置20とを含む。PC10は、スキャナ装置20で原稿21を読み取って得られた画像データに対して所定の画像処理を施して表示画像データとし、プロジェクタ装置(PJ)11、11、11に供給する。プロジェクタ装置11、11、11は、PC10から供給された表示画像データに従い、画像13、13、13をスクリーン12に投射する表示装置である。
なお、図1のように複数のプロジェクタ装置(PJ)11、11、11による画像13、13、13を1のスクリーン12に投射する場合、各画像13、13、13の隣接部分に重複部分を設けると好ましい。図1の例では、カメラ14によりスクリーン12に投射された画像13、13、13を撮像し、PC10が、撮像画像データに基づき各画像13、13、13、あるいは、各プロジェクタ装置(PJ)11、11、11を制御して、重複部分の画像を調整している。
このような構成において、例えば、ユーザ24が手書きにて絵22を描いた原稿21を作成し、この原稿21の画像をスキャナ装置20に読み取らせる。スキャナ装置20は、原稿21の画像を読み取って得た原稿画像データをPC10に供給する。PC10は、スキャナ装置20から供給された原稿画像データから絵22に対応する部分のデータを抽出し、抽出した絵の画像データをユーザ画像として保持する。
一方、PC10は、3次元の座標系を持つ画像データ空間を生成する。そして、PC10は、ユーザ画像に対してこの画像データ空間内の座標を与えて当該ユーザ画像を当該画像データ空間内のデータとする。以下では、この3次元の画像データ空間内のユーザ画像を、ユーザオブジェクトと呼ぶ。PC10は、この、ユーザオブジェクトを含む3次元の画像データ空間を2次元の画像データ平面に投影し、投影して生成された画像データを、プロジェクタ装置(PJ)11、11、11の台数分に分割して、各プロジェクタ装置(PJ)11、11、11に供給する。
ここで、PC10は、ユーザオブジェクトに対して、画像データ空間内での動きを与えることができる。例えば、PC10は、ユーザオブジェクトの元になるユーザ画像の特徴量を求め、求めた特徴量に基づき、動きに関する各パラメータを生成する。PC10は、このパラメータをユーザ画像に適用して、ユーザオブジェクトに対して画像データ空間内での動きを与える。
このようにすることで、ユーザ24は、自身が手書きにて作成した絵22による画像を、3次元の画像データ空間内で動く画像として観察することができる。また、PC10は、複数のユーザオブジェクトを同一の画像データ空間内に含めることができる。したがって、ユーザ24は、上述の操作を繰り返すことで、例えば異なる複数の絵22による画像を、それぞれ、3次元の画像データ空間内で動く画像として観察することができる。
図2は、PC10により生成される、実施形態に係る、3次元の座標系を持つ画像データ空間について概略的に示す。実施形態では、3次元の座標系として、互いに直交する3の座標軸(x軸、y軸、z軸)を持つ直交座標系を用いる。以下では、図2に示されるように、x軸、y軸およびz軸を、それぞれ高さ、幅および奥行方向の軸とし、PC10は、高さ、幅および奥行の各軸による3次元の座標系を持つ画像データ空間30を生成するものとして説明する。図2の例では、この画像データ空間30内に、ユーザ画像による各ユーザオブジェクト40、40、40、40および40が含まれている。
PC10は、この画像データ空間30に対して、それぞれ値が予め定められた高さH、幅Wおよび奥行Dからなる空間である定義領域31を設定する。ユーザ画像による各ユーザオブジェクト40、40、…の動きは、この定義領域31内に制限される。図2の例では、各ユーザオブジェクト40、40、…の元になる絵22として、水中や陸上に棲息する生物を想定しており、定義領域31は、仮想的な棲息領域と見做すことができる。以下では、特に記載の無い限り、定義領域31を仮想棲息領域31と呼ぶ。
図3は、実施形態に適用可能なPC10の一例の構成を示す。図3のPC10において、バス100に対してCPU(Central Processing Unit)110、ROM(Read Only Memory)111、RAM(Random Access Memory)112および表示制御部113が接続される。PC10において、さらに、バス100に対してストレージ114、データI/F115および通信I/F116が接続される。
CPU110は、ROM111およびストレージ114に予め記憶されるプログラムに従い、RAM112をワークメモリとして用いて、このPC10の全体を制御する。表示制御部113は、モニタ120が接続され、CPU110により生成された表示制御信号を、モニタ120が表示可能な信号に変換して出力する。また、表示制御部113は、表示制御信号を、プロジェクタ装置11、11および11が表示可能な信号に変換してそれぞれ出力することができる。
ストレージ114は、データを不揮発に記憶することが可能な記憶媒体であって、例えばハードディスクドライブが用いられる。これに限らず、ストレージ114として、例えばフラッシュメモリなどの不揮発性の半導体メモリを用いてもよい。ストレージ114は、上述のCPU110が実行するためのプログラムや各種のデータが格納される。
データI/F115は、外部の機器との間でのデータの入出力を制御する。例えば、データI/F115は、スキャナ装置20に対するインタフェースとして用いられる。また、データI/F115は、マウスなどのポインティングデバイスや図示されないキーボード(KBD)からの信号が入力される。さらに、CPU110で生成された表示制御信号を、このデータI/F115から出力して、例えば各プロジェクタ装置11、11および11に供給してもよい。このようなデータI/F115としては、USB(Universal Serial Bus)やBluetooth(登録商標)といったインタフェースを適用することができる。
通信I/F116は、インターネットやLAN(Local Area Network)といったネットワークを介した通信を制御する。
図4は、実施形態に係るPC10の機能を説明するための一例の機能ブロック図である。PC10は、入力部130と、画像取得部131と、3D空間生成部132と、領域設定部133と、変形ルール判定部134と、パラメータ生成部135と、画像制御部136と、記憶部137とを含む。
入力部130は、ユーザ24による手書きで描画された描画部分を含む画像が入力される。例えば、入力部130は、データI/F115の機能を含み、ユーザ24が手書きで描画した描画部分の絵22を含む原稿21の画像がスキャナ装置20で読み取られた原稿画像データが入力される。そして、入力部130は、入力された原稿画像データから、絵22の部分の画像データを抽出し、ユーザ画像として取得する。
3D空間生成部132は、図2を用いて説明した、高さ、幅および奥行の3軸からなる3次元の座標軸による画像データ空間30を生成する。3D空間生成部132は、例えば、RAM112上のアドレス空間として画像データ空間30を生成する。領域設定部133は、3D空間生成部132で生成された画像データ空間30内に、予め定められた値に従い、高さH、幅Wおよび奥行Dの定義領域31(仮想棲息領域31)を設定する。
画像取得部131は、画像データ空間30に対して所定に視点を設定して、設定した視点から画像データ空間30を2次元の画像データ平面に投影し、プロジェクタ装置11~11で投射させるための画像データを取得する。
変形ルール判定部134は、入力部130で取得されたユーザ画像に基づき、ユーザオブジェクト自身の変形ルール(動作情報の一例)を判定する。パラメータ生成部135は、入力部130で取得されたユーザ画像に基づき、当該ユーザ画像によるユーザオブジェクトの動きに関する性能を決めるパラメータを生成する。
画像制御部136は、変形ルール判定部134により判定された変形ルールと、パラメータ生成部135で生成されたパラメータとに従い、画像データ空間30内でのユーザオブジェクトの動きを制御する。換言すれば、画像制御部136は、画像データ空間30における仮想棲息領域31内での座標をユーザオブジェクトに与え、この座標を、時間の経過に伴い連続して変化させる制御を行う。
記憶部137は、RAM112に対応し、ユーザオブジェクトの元になるユーザ画像を格納する絵DB(データベース)137a、ユーザオブジェクトを変形させて動きを与える変形ルールDB(データベース)137bなどを記憶する。これに限らず、ストレージ114を記憶部137として用いてもよい。例えば、変形ルール判定部134やパラメータ生成部135は、この記憶部137に記憶されるユーザ画像を用いて、変形ルールの判定やパラメータの生成を行う。
ここで、図5は変形ルールDB137bの一例を示す図である。図5に示すように、変形ルールDB137bは、変形ルールと、当該変形ルールの識別番号である変形ルールIDと、ガイド情報と、当該ガイド情報の識別番号であるガイドIDと、を紐づけている。
変形ルールとは、ユーザ画像を変形することで画像に動きを付けるためのルールを定めたものである。すなわち、変形ルールとは、ユーザ画像をフレームごとにどのように変形するかを決定するための情報である。なお、フレームとは、ユーザにより描かれた絵をアニメーション動画にさせるときの一枚一枚の静止画であり、現在何枚目の静止画であるかを表す数値として、本実施形態では、「frameNo」(フレームナンバー)という表現を用いる。
ここで、図6は変形ルールの一例を示す図である。図6に示すように、一つのフレームごとの変形ルールは、グリッドの集合で表される。グリッドとは、ユーザにより描かれた絵が包含される所定の範囲に設定されている一連の点(x座標とy座標を持つもの)の集合であり、デフォルトの状態(変形無しの状態)では格子状に整列している。この点の位置をどのように変えるかを定義しておくことで、一枚の絵の変形のルールを定めることができる。
また、図7は、図6の変形ルールを数値データの形で表した図である。図7に示す例は、グリッドを座標(x座標,y座標)の形で表したものである。
すなわち、変形ルールは、点(座標)の位置を変更した複数のグリッドを遷移することによりユーザ画像を変形させることで、画像に動きを付けるものである。
なお、変形ルールDB137bは、一つの変形ルールに対して複数のガイド情報を紐づけてもよいし、複数の変形ルールに対して一つのガイド情報を紐づけてもよい。
また、変形ルールDB137bは、変形ルールとガイド情報とを1対1で紐付ける場合、変形ルールIDとガイドIDを同一にすることができるので、変形ルールIDとガイドIDとの何れか一方を省略してもよい。
ここで、図8は絵DB137aの一例を示す図である。図8に示すように、絵DB137aは、後述するタイトルにかかる画像と、ユーザ画像と、ガイドIDと、各種パラメータ(移動速度、回転角速度、変形速度、優先移動速度)と、を紐づけている。
また、画像制御部136は、記憶部137に記憶されるユーザ画像に対して仮想棲息領域31内の座標を与えることで、当該ユーザ画像を、画像データ空間30内にユーザオブジェクトとして含ませることができる。さらに、画像制御部136は、ユーザオブジェクトに対して変形ルールやパラメータに従い変形処理や移動処理などを施す。
なお、上述したPC10に含まれる入力部130、画像取得部131、3D空間生成部132、領域設定部133、変形ルール判定部134、パラメータ生成部135および画像制御部136は、例えばストレージ114に予め記憶され、CPU110上で動作する表示制御プログラムによって実現される。この表示制御プログラムは、インストール可能な形式また実行可能な形式のファイルでCD(Compact Disk)、フレキシブルディスク(FD)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、実施形態のPC10で実行される表示制御プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、当該ネットワークを介してダウンロードさせることにより提供するように構成してもよい。また、実施形態のPC10で実行される表示制御プログラムをインターネットなどのネットワークを経由して提供または配布するように構成してもよい。さらに、実施形態の表示制御プログラムを、ROM111などに予め組み込んで提供するように構成してもよい。
実施形態のPC10で実行される表示制御プログラムは、上述した各部(入力部130、画像取得部131、3D空間生成部132、領域設定部133、変形ルール判定部134、パラメータ生成部135および画像制御部136)を含むモジュール構成となっている。実際のハードウェアとしては、CPU110がストレージ114やROM111などの記憶媒体から表示制御プログラムを読み出して実行することにより、上述した各部がRAM112などの主記憶装置上にロードされ、入力部130、画像取得部131、3D空間生成部132、領域設定部133、変形ルール判定部134、パラメータ生成部135および画像制御部136が主記憶装置上に生成されるようになっている。
次に、実施形態による表示制御処理について、より詳細に説明する。
図9は、実施形態による表示制御処理の全体的な流れを示す一例のフローチャートである。このフローチャートによる処理の実行に先立って、ユーザによる手書きの絵が作成される。ここでは、ユーザは、予めフォーマットが定められた用紙に対して手書きの描画を行うものとする。
図10は、実施形態に係る、手書き描画を行うための用紙の例を示す図である。用紙は、媒体の一例であり、絵を描くための専用の用紙である。図10に示される用紙200において、画像データ空間30内に含ませたいユーザオブジェクト(ユーザ画像)の元となる絵22(図1参照)を手書き描画する描画領域210と、描画領域210に絵22を描画するためのガイドとなるガイド情報212と、描画領域210においてガイド情報212に従って描画された絵22に対するタイトルを記入するタイトル記入領域211と、ガイド情報212の識別番号であるガイドIDが埋め込まれたQRコード(登録商標)214と、が配される。
また、用紙200の四隅のうち3の隅に、マーカ220、220および220が配される。用紙200の画像をスキャナ装置20で読み取った原稿画像から、これらマーカ220、220および220を検出することで、用紙200の向きおよび大きさを知ることができる。なお、マーカ220、220および220は、用紙200に設けられなくてもよい。
ガイド情報212は、描画領域210に絵22を描画するためのガイドとなるものである。ガイド情報212は、例えば、図10に示すように、生物の骨格を模している。なお、ガイド情報212は、ユーザが絵22を書き易くするための補助情報であり、このガイド212により、ユーザはこれをヒントとしつつも、絵の形自体は強制されずに、創造性を発揮あるいは刺激されながら、自由に絵を描くことが可能となる。
なお、図10に示す例では、ガイド情報212として生物の骨格を模したガイドを挙げたが、これに限るものではなく、例えば生物の足跡や生物の影など、様々な形状のものでもよい。ガイド情報212は、適切な変形ルールを適用すればいいので、足跡などで位置が書き手に伝わればよい。
なお、ガイド情報212と描画領域210の枠との違いは、ガイド情報212は描画領域210の枠に比べて目立たない色で形成されている。このようにガイド情報212を目立たない色で形成することにより、ガイド情報212を消す処理を省略できるので、絵22を描いた原稿21(図1参照)をスキャンしたときにそのまま使えるようにすることができる。
ユーザは、上述のような用紙200の描画領域210のガイド情報212に沿って、マーカーペン等を用いて手書きして絵を作成する。
図9のフローチャートにおいて、用紙200にユーザの手書き描画による絵22が描画された原稿21がスキャナ装置20により読み取られると、PC10の入力部130は、スキャナ装置20で読み取られた原稿画像データを入力する(ステップS10)。
次に、入力部130は、入力された原稿画像データから、ユーザ画像などを抽出する(ステップS11)。以下において、ステップS11の処理について詳述する。
より詳細には、入力部130は、原稿画像データから各マーカ220~220を検出する。入力部130は、検出された各マーカ220~220の原稿画像データ上の位置に基づき、原稿画像データの方向および大きさを判定する。
例えば、入力部130は、原稿画像データの四隅のうち、マーカ220~220が存在しない隅を検出し、検出された隅の位置に基づき原稿画像データの向きを判定する。図10の例では、マーカ220~220が存在しない隅が原稿画像データの右下隅であると判定する。また、これにより、各マーカ220~220の原稿画像データ上での位置も確定できる。入力部130は、さらに、各マーカ220~220間の距離を計測し、計測された距離と、ストレージ114などに予め記憶される対応する既知の距離とを比較する。この比較結果に基づき、原稿画像データにおける縦横方向のサイズの歪みを修正することができる。
入力部130は、上述のようにして取得した原稿画像データの向きとサイズとに基づき、原稿画像データから描画領域210とタイトル記入領域211とQRコード214とを抽出する。ここで、図11は原稿画像データからの抽出例を示す図である。図11に示すように、描画領域210、タイトル記入領域211、QRコード214が原稿画像データから抽出される。
入力部130は、さらに、描画領域210の画像データから絵22の部分を抽出する。例えば、入力部130は、描画領域210の画像データの各画素が白色(用紙200の地の色)か、白色以外かの2値判定を行い、絵22の部分を抽出する。この絵22の部分を含み、底辺の方向が描画領域210の底辺の方向と平行な最小の矩形領域213の画像データを、ユーザ画像とする。入力部130は、ユーザ画像を記憶部137に記憶させる。
また、入力部130は、さらに、タイトル記入領域211の画像データからタイトル23を抽出する。例えば、入力部130は、タイトル記入領域211の画像データの各画素が白色(用紙200の地の色)か、白色以外かの2値判定を行い、タイトル23を抽出する。入力部130は、タイトル23を記憶部137に記憶させる。
さらに、入力部130は、QRコード214を読み取り、ガイド情報212の識別番号であるガイドIDを得る。
次に、変形ルール判定部134は、ステップS11で得たガイドIDに紐づけられている変形ルールIDを変形ルールDB137bから取得して変形ルールを判定する(ステップS12)。実施形態では、仮想棲息領域31内での各ユーザオブジェクトに対して変形ルールを割り当て、各ユーザオブジェクトの仮想棲息領域31内での動作を、この変形ルールに基づき制御する。
ステップS12において変形ルールが判定されると、処理が図9のステップS13に移行される。
次に、パラメータ生成部135は、ユーザ画像によるユーザオブジェクトに対して、当該ユーザオブジェクトの画像データ空間30内での動作に関する性能(以下、動作性能と呼ぶ)を決定するパラメータpを画像特徴から生成、決定する(ステップS13)。ユーザオブジェクトの画像データ空間30内での動作(移動や変形)は、ここで生成、決定されたパラメータpに従い制御されることになる。
ここで、実施形態で決定するパラメータpについて説明する。実施形態では、パラメータ生成部135は、ユーザオブジェクト毎に、下記の4種類の動作性能のパラメータp~pを決定する。
(1)p:移動速度
(2)p:回転角速度
(3)p:変形速度
(4)p:優先移動方向
これらのうち、パラメータpの移動速度は、ユーザオブジェクトの画像データ空間30内における移動速度を制御するためのパラメータである。
また、パラメータpの回転角速度は、ユーザオブジェクトの垂直方向すなわち進行方向に対して上下方向の回転動作に対する角加速度の範囲を与えるためのパラメータである。
また、パラメータpの変形速度は、ユーザオブジェクトの変形にかかる変形速度を制御するためのパラメータである。
また、パラメータpの優先移動方向は、ユーザオブジェクトの移動にかかる方向を制御するためのパラメータである。
次に、ユーザ画像からユーザ画像のパラメータp~p毎の特徴量c~cを求める方法について説明する。画像の特徴量は、ユーザ画像における色分布やエッジ量、面積、縦横比などに基づき求めることが可能である。
図12は、パラメータの決定手法を例示的に示す図である。パラメータ生成部135は、図12に示すような特徴量(色分布、エッジ量、面積、縦横比)を取得するとともに、パラメータp~p毎の計算式を取得する。そして、パラメータ生成部135は、パラメータp~p毎の計算式に対して、取得した特徴量(色分布、エッジ量、面積、縦横比)を算入してパラメータ(移動速度、回転角速度、変形速度、優先移動速度)の値を決定する。
パラメータ生成部135は、このようにして決定した各パラメータp~pを、ガイドIDと合わせて記憶部137の絵DB137aに対して記憶する。
図9のフローチャートの説明に戻り、ステップS13でパラメータ生成部135により各パラメータp~pが決定されると、処理がステップS14に移行される。
次に、画像制御部136は、ユーザ画像によるユーザオブジェクトに対して、当該ユーザオブジェクトが仮想棲息領域31内に最初に表示される際の初期座標を設定する(ステップS14)。なお、以下では、特に記載のない限り、ユーザオブジェクトが仮想棲息領域31内に最初に表示されることを、「登場する」と記述する。
ここで、実施形態に係る、画像取得部131による画像データ空間30の投影について、図13を用いて説明する。3次元の座標軸を持つ画像データ空間30をディスプレイやスクリーンに表示する場合には、画像データ空間30を所定の視点から2次元の平面に投影する必要がある。実施形態では、各ユーザオブジェクトの動きが画像データ空間30における仮想棲息領域31内に制限されるため、仮想棲息領域31が投影の対象となる。
図13(a)において、上下方向が画像データ空間30の奥行きの方向を示し、左右方向が画像データ空間30の幅の方向を示しているものとする。実施形態では、画像取得部131は、図13(a)に示されるように、仮想棲息領域31外の視点231から視野角θで仮想棲息領域31の奥行き方向を見た場合の、高さHおよび幅Wがなす面に、仮想棲息領域31を投影する。さらに、実施形態では、投影を透視投影を用いて行い、視点231の位置および視野角θを、仮想棲息領域31において、視点231に対して死角となる、左側の死角領域240と右側の死角領域240とのうち少なくとも一方が形成されるように設定する。
例えば、視点231に対して左右に死角領域240および240が形成される場合、図13(b)に例示されるように、仮想棲息領域31の高さH、幅Wによる面のうち、死角領域240および240を除いた幅Wの範囲内の面が投影されることになる。すなわち、仮想棲息領域31において、死角領域240および240の部分は、画像データとしては存在するが、2次元平面に投影した投影画像上(表示領域上)には表示されない部分である。すなわち、死角領域240および240内の画像は、仮想棲息領域31が2次元平面に投影された画像では見ることができない。
実施形態では、画像制御部136は、ユーザオブジェクトが仮想棲息領域31内に登場する際の初期座標を、死角領域240および240のうち何れかの内部に設定する。死角領域240または240内に初期座標が設定されたユーザオブジェクトは、画像制御部136による制御により、死角領域240または240内から、幅Wの領域に進行することになる。したがって、新たに作成されたユーザオブジェクトは、投影画像の端(左右何れかの端)から徐々に姿を登場させるような動きに見えるため、新たに作成されたユーザオブジェクトが投影画像内の何も表示されていない部分に突然登場するといった、違和感を避けることができる。
また、投影に透視投影を用いる場合には、ユーザオブジェクトは、仮想棲息領域31の手前側で最も大きい画像として投影され、奥行方向に進むに従いより小さい画像として投影されることになる。死角領域240および240は、奥行の手前側に形成されるため、新たに作成されたユーザオブジェクトがより大きい画像として投影され、より注目され易くなる。
次に、画像制御部136は、ステップS14で初期座標が設定されたユーザオブジェクトを変形ルールとパラメータに基づいて変形させながら動かし、ユーザオブジェクトの動作を開始させるアニメーション表示処理を実行する(ステップS15)。ステップS10~S15の処理は、原稿がなくなるまで(ステップS16のNo)、繰り返される。
ここで、図14はステップS15におけるアニメーション表示処理の流れを示すフローチャート、図15はステップS15におけるアニメーション表示処理を概略的に示す図である。
図14に示すように、まず、画像制御部136は、絵DB137aの各ユーザオブジェクトについて、ガイドIDから変形ルールを決定する(ステップS21)。すなわち、画像制御部136は、図15に示すように、変形ルールDB137bを参照してガイド情報に基づくガイドIDから変形ルールを決定する。なお、画像制御部136は、複数の変形ルールがある場合、複数の変形ルールの中からランダムに決定する。
次に、画像制御部136は、フレーム番号frameNo=0とする(ステップS22)。
続いて、画像制御部136は、フレーム番号から変形ルールのグリッド番号を決定する(ステップS23)。すなわち、画像制御部136は、図15に示すように、絵DB137aを参照し、例えば、フレーム番号にパラメータの1つである変形速度を乗じた値に対して、変形ルールのグリッド数で割った余りに1を加算した数をグリッド番号とする。このように、フレーム番号にパラメータの1つである変形速度を乗じた値を用いることにより、変形のスピードを変えることができる。
続いて、画像制御部136は、ユーザオブジェクトに対して変形を行う(ステップS24)。すなわち、画像制御部136は、図15に示すように、フレーム番号とグリッド番号とに基づいて、ユーザオブジェクトに対して変形を行って変形画像を生成する。ここで、図16はユーザオブジェクトの変形例を示す図である。図16に示すように、画像制御部136は、点の位置を変更した複数のグリッドにより変形することでアニメーション動作を実行させる。まず、図16に示すように、画像制御部136は、線で囲まれた部分領域である各四角形(セル)に対して、グリッド0の画像を貼り付ける。次いで、画像制御部136は、点の位置を変更した別のグリッド番号(図16ではグリッド1)のセルに対して、対応するグリッド0のセルの画像を貼り付ける。画像制御部136は、この処理を全てのセルに適用することで変形画像(図16では変形画像1)を生成する。図16には、参考までに、別のグリッド番号により変形した別のフレームの変形画像も記載している。
続いて、画像制御部136は、ユーザオブジェクトの表示位置や向きをパラメータから決定する(ステップS25)。すなわち、画像制御部136は、図15に示すように、絵DB137aを参照し、ユーザオブジェクトの表示位置や向きをパラメータから決定する。
続いて、画像制御部136は、ユーザオブジェクトをプロジェクタ装置(PJ)11、11、11によりスクリーン12に表示する(ステップS26)。すなわち、画像制御部136は、図15に示すように、ステップS24で生成した変形画像をステップS25で決定した表示位置や向きにしてスクリーン12に投影する。
続いて、画像制御部136は、一定時間sleepした後(ステップS27)、フレーム番号に1インクリメントして(ステップS28)、ステップS23に戻る。
このように本実施形態によれば、ユーザにより描かれた絵の画像データを、ガイド情報に対応した変形動作を絵の画像データに与える動作情報に従って動作させることにより、より自然な動きを付与することができる。
また、媒体にガイド情報を設けることによって、フリーハンドに比べてユーザはどんな絵を描くかのイメージを持ちやすくなり、キャラクターの彩色のみをするような塗り絵に比べ、ユーザの創造性を発揮させやすくなる。
なお、上述では、実施形態による表示制御システム1が、仮想棲息領域31を2次元の平面に投影する際に、投影される画像を複数に分割した画像13、13、13を複数のプロジェクタ装置11、11、11によりスクリーン12に対してそれぞれ投射するようにしているが、これはこの例に限定されない。例えば、投影画像を分割せずに、1の画像として1のプロジェクタ装置11によりスクリーン12に投射してもよい。
また、上述では、3次元の画像データ空間内をユーザオブジェクトが移動する様子を2次元の画像データ平面に投影(表示)するようにしたが、本実施形態の適用は、必ずしも3次元の画像データ空間領域に限定されるものではない。例えば、ユーザオブジェクトが2次元の画像データ平面内を移動するようにしてもよい。ここで、水中や陸上に棲息する生物らしい動作を表現するには、2次元的な動きよりも3次元的な動きを用いた方がより現実的な表現が可能であるため、3次元の画像データ空間領域を利用する方が好適であるといえる。
さらに、上述では、ユーザオブジェクトが水中や陸上に棲息する生物を表す画像に基づくものとしたが、これはこの例に限定されない。例えば、ユーザオブジェクトは、車や電車などの人工物の画像に基づくものでもよい。
さらにまた、上述では、ユーザがマーカーペン等を用いて用紙に手書きして絵を作成する方法で説明したが、ユーザによる絵の作成方法は、この例に限定されない。例えば、ユーザによる手書きの絵は、マーカーペンと用紙を利用する代わりに、電子ペンとタブレット端末や、あるいは指(すなわち指による接触操作)とタブレット端末等を利用して作成してもよい。つまり、手書きの描画とは、ユーザにとって紙とペンを用いて描画を行うときと同等の操作感あるいは操作方法で描画が行えるような作成方法であればよく、どのような媒体を利用するかに限定されない。
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や従来の回路モジュール等のデバイスを含むものとする。
実施形態に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。ある実施形態では、PC10は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。同様に、PC10は、互いに通信するように構成された複数のコンピューティングデバイスを含むことができる。
明細書中の各種DBは、機械学習の学習効果によって生成されたものでもよい。また、取引内容の記載に含まれうるキーワードと勘定項目とを機械学習にて分類付けすることで、対応テーブルを使用しなくてもよい。
ここで、機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり、コンピュータが、データ識別等の判断に必要なアルゴリズムを、事前に取り込まれる学習データから自律的に生成し、新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、さらに、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。
なお、上述の実施形態は、本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。
1 表示制御システム
10 表示制御装置
11、11、11 表示装置
20 画像入力装置
22 絵
130 入力部
136 画像制御部
200 媒体
212 ガイド情報
特許第6361146号公報

Claims (8)

  1. ユーザにより絵が描かれる領域に設けられている生物の骨格を模したガイド情報を用いて前記ユーザにより描かれた絵の画像データと、前記ガイド情報に対応した変形動作を前記絵の画像データに与える動作情報とを入力する入力部と、
    前記動作情報に基づく変形動作を、2次元平面に投影した表示領域にて前記絵の画像データにさせるよう制御する画像制御部と、
    を備え、
    前記ガイド情報は、前記絵が描かれる領域の枠に比べて目立たない色で形成されている、
    ことを特徴とする表示制御装置。
  2. 前記画像制御部は、さらに、前記絵の画像データを解析して得られる、前記絵の画像データの特徴情報と前記動作情報とに基づき、前記絵の画像データを変形動作させる、
    ことを特徴とする請求項1に記載の表示制御装置。
  3. 前記画像制御部は、前記動作情報として、前記絵の画像データを動作させるときの各絵の画像データの動作情報を選択することで、前記絵の画像データに動作を与える、
    ことを特徴とする請求項1または2に記載の表示制御装置。
  4. 前記絵の画像データごとの動作情報は、前記絵の画像データを包含するよう構成される一連の点の各位置の変化を定義した情報である、
    ことを特徴とする請求項3に記載の表示制御装置。
  5. 前記画像制御部は、前記絵の画像データを包含するよう構成される一連の点の各位置を変更した点の集合により形成される領域における部分領域に対して、当該部分領域に対応する位置変更前の状態の点の集合により形成される領域における部分領域の前記絵の画像データを貼り付ける処理を、全ての部分領域に適用することで前記絵の画像データに動作を与える、
    ことを特徴とする請求項4に記載の表示制御装置。
  6. ユーザにより絵が描かれる領域に設けられている生物の骨格を模したガイド情報を用いて前記ユーザにより描かれた絵の画像データと、前記ガイド情報に対応した変形動作を前記絵の画像データに与える動作情報とを入力する入力部と、
    前記動作情報に基づく変形動作を、2次元平面に投影した表示領域にて前記絵の画像データにさせるよう制御する画像制御部と、
    前記絵の画像データを表示する表示部を有する表示装置と、
    を備え、
    前記ガイド情報は、前記絵が描かれる領域の枠に比べて目立たない色で形成されている、
    ことを特徴とする表示制御システム。
  7. コンピュータを、
    ユーザにより絵が描かれる領域に設けられている生物の骨格を模したガイド情報を用いて前記ユーザにより描かれた絵の画像データと、前記ガイド情報に対応した変形動作を前記絵の画像データに与える動作情報とを入力する入力手段と、
    前記動作情報に基づく変形動作を、2次元平面に投影した表示領域にて前記絵の画像データにさせるよう制御する画像制御手段と、
    として機能させ、
    前記ガイド情報は、前記絵が描かれる領域の枠に比べて目立たない色で形成されている、
    プログラム。
  8. 表示制御装置における表示制御方法であって、
    ユーザにより絵が描かれる領域に設けられている生物の骨格を模したガイド情報を用いて前記ユーザにより描かれた絵の画像データと、前記ガイド情報に対応した変形動作を前記絵の画像データに与える動作情報とを入力する入力ステップと、
    前記動作情報に基づく変形動作を、2次元平面に投影した表示領域にて前記絵の画像データにさせるよう制御する画像制御ステップと、
    を含み、
    前記ガイド情報は、前記絵が描かれる領域の枠に比べて目立たない色で形成されている、
    ことを特徴とする表示制御方法。
JP2019188060A 2019-10-11 2019-10-11 表示制御装置、表示制御システム、プログラムおよび表示制御方法 Active JP7490943B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019188060A JP7490943B2 (ja) 2019-10-11 2019-10-11 表示制御装置、表示制御システム、プログラムおよび表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019188060A JP7490943B2 (ja) 2019-10-11 2019-10-11 表示制御装置、表示制御システム、プログラムおよび表示制御方法

Publications (2)

Publication Number Publication Date
JP2021064130A JP2021064130A (ja) 2021-04-22
JP7490943B2 true JP7490943B2 (ja) 2024-05-28

Family

ID=75486312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019188060A Active JP7490943B2 (ja) 2019-10-11 2019-10-11 表示制御装置、表示制御システム、プログラムおよび表示制御方法

Country Status (1)

Country Link
JP (1) JP7490943B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008186441A (ja) 2007-01-04 2008-08-14 Shinsedai Kk 画像処理装置及び画像処理システム
JP2017037443A (ja) 2015-08-07 2017-02-16 チームラボ株式会社 お絵かき画像表示システム
JP6361146B2 (ja) 2013-05-09 2018-07-25 株式会社リコー 表示制御プログラム、表示制御方法および表示制御装置、ならびに、表示システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008186441A (ja) 2007-01-04 2008-08-14 Shinsedai Kk 画像処理装置及び画像処理システム
JP6361146B2 (ja) 2013-05-09 2018-07-25 株式会社リコー 表示制御プログラム、表示制御方法および表示制御装置、ならびに、表示システム
JP2017037443A (ja) 2015-08-07 2017-02-16 チームラボ株式会社 お絵かき画像表示システム

Also Published As

Publication number Publication date
JP2021064130A (ja) 2021-04-22

Similar Documents

Publication Publication Date Title
JP7020511B2 (ja) 画像処理システム、画像処理装置およびプログラム
US8395620B2 (en) Method and system for tracking of a subject
JP5299173B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
US20150002419A1 (en) Recognizing interactions with hot zones
JP4851504B2 (ja) デジタル・イメージ・キャプチャを用いて対話型エンタテインメントのためにアセットを生成する方法
US9519988B2 (en) Subspace clothing simulation using adaptive bases
KR101723823B1 (ko) 인터랙티브 공간증강 체험전시를 위한 동적 객체와 가상 객체 간의 인터랙션 구현 장치
JP2002042165A (ja) 画像生成装置、方法および記録媒体
US10964083B1 (en) Facial animation models
US9892485B2 (en) System and method for mesh distance based geometry deformation
JP7490943B2 (ja) 表示制御装置、表示制御システム、プログラムおよび表示制御方法
JPH06222899A (ja) マルチウィンドウ表示方式
JP7174397B2 (ja) 映像表示システム,映像表示方法,及びコンピュータプログラム
US10445940B2 (en) Modeling interactions between simulated characters and real-world objects for more realistic augmented reality
JP7451929B2 (ja) 表示制御装置、表示制御システム、プログラムおよび表示制御方法
CN111652980A (zh) 一种基于粒子系统的复杂虚拟现实模拟系统
US11941499B2 (en) Training using rendered images
US20220284667A1 (en) Image processing method and image processing device for generating 3d content by means of 2d images
JPH05101161A (ja) アニメーシヨン作成装置
Grabbe VR Images as Arrays of Activity: The Virtual Image Representation in the Range of Detection and Collision
JP2009093609A (ja) 画像処理用プログラム、当該プログラムを記録したコンピュータ読み取り可能な記録媒体、画像処理装置、画像処理方法
Kagawa et al. A method to improve usability of image editing operation by haptic interaction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240429

R150 Certificate of patent or registration of utility model

Ref document number: 7490943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150