JP2020135017A - 画像データ処理の方法およびプログラム、および画像データ処理を行うコンピュータ - Google Patents

画像データ処理の方法およびプログラム、および画像データ処理を行うコンピュータ Download PDF

Info

Publication number
JP2020135017A
JP2020135017A JP2019023485A JP2019023485A JP2020135017A JP 2020135017 A JP2020135017 A JP 2020135017A JP 2019023485 A JP2019023485 A JP 2019023485A JP 2019023485 A JP2019023485 A JP 2019023485A JP 2020135017 A JP2020135017 A JP 2020135017A
Authority
JP
Japan
Prior art keywords
image
movable object
virtual camera
cpu
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019023485A
Other languages
English (en)
Other versions
JP2020135017A5 (ja
Inventor
和也 荒木
Kazuya Araki
和也 荒木
池田 洋一
Yoichi Ikeda
洋一 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2019023485A priority Critical patent/JP2020135017A/ja
Publication of JP2020135017A publication Critical patent/JP2020135017A/ja
Publication of JP2020135017A5 publication Critical patent/JP2020135017A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】複数のオブジェクトおよび仮想カメラを含む3次元仮想空間において、1つのオブジェクトが別のオブジェクトの後ろに隠れた際に、隠れたオブジェクトの状態を把握できるようにする。【解決手段】第1オブジェクト、第2オブジェクト、および仮想カメラを含むゲーム空間において、第1オブジェクト、第2オブジェクト、および仮想カメラの位置を特定し、第1オブジェクトの深度情報を更新して第1オブジェクトを描画し、第2オブジェクトの深度情報を更新して第2オブジェクトを描画し、第2オブジェクトの形状に基づいて第3オブジェクトを定義し、第3オブジェクトの位置を、第2オブジェクトの位置に基づく特定位置に指定し、第2オブジェクトの第1オブジェクトと重なる部分が描画されないように、かつ第3オブジェクトが配される特定位置の深度情報を更新しないように、第3オブジェクトを描画する。【選択図】図5

Description

本発明は、3次元仮想空間を2次元画像として表示する画像データ処理の方法およびプログラム、および画像データ処理を行うコンピュータに関する。
複数のオブジェクトを含む3次元仮想空間を構築し、3次元仮想空間内の仮想カメラで撮像して2次元画像として表示するシステムでは、深度バッフア(Zバッフア)を用い、各ピクセルが深度情報を持つように構成され、この深度情報により、3次元仮想空間における複数のオブジェクトの間の深さ方向の位置関係が決定される。
このような3次元仮想空間では、仮想カメラから見て手前側に位置するオブジェクト(オブジェクトA)と、遠方側に位置する別のオブジェクト(オブジェクトB)とが含まれている場合、例えば、3次元仮想空間内のオブジェクトBの位置によっては、オブジェクトBの一部または全体がオブジェクトAにより隠されて表示されなくなる場合が生じ得る。
特許文献1には、ゲーム装置において構築される3次元仮想空間において、或るオブジェクトが別のオブジェクトにより完全に隠されてしまった時に、隠されてしまったオブジェクトの位置を示す技術が開示されている。例えば、特許文献1の第0117段落および図29を参照すると、ゲーム装置の仮想カメラ(視点位置510)の視野において、プレーヤキャラクタ(プレーヤキャラクタ412)が、壁を表すオブジェクト(三次元オブジェクト410)の裏側へ移動したことにより、仮想カメラからプレーヤキャラクタが見えなくなった場面が示されている。このような場合、特許文献1に記載の技術では、ゲーム装置は、所定のマーク用の画像(マーク画像430)を生成して、そのマーク画像430を、隠れたプレーヤキャラクタの存在する位置に対応する位置、具体的には、視点位置510(仮想カメラ)から見たときの三次元オブジェクト410(壁)の前面の一部に、表示する。
特開2001−276420号
特許文献1に記載の技術では、或るオブジェクトの裏側に隠れた位置に、目印画像を容易に表示する上で、改善の余地がある。
本発明は、このような従来技術の有する課題を解決するために、目印画像の描画態様の自由度を向上させるべくなされたものである。
上記課題を解決するための本発明の第1の態様は、画像の処理をコンピュータにより行う方法であって、
第1オブジェクト、第2オブジェクト、および仮想カメラを含む3次元仮想空間を定義するステップと、
前記3次元仮想空間において、前記第1オブジェクトの位置、前記第2オブジェクトの位置、および前記仮想カメラの位置を特定するステップと、
前記仮想カメラから前記第1オブジェクトまでの深度情報を更新して、前記第1オブジェクトを描画するステップと、
前記仮想カメラから前記第2オブジェクトまでの深度情報を更新して、前記第2オブジェクトを描画するステップと、
前記第2オブジェクトの形状に基づいて生成される第3オブジェクトを定義するステップと、
前記第3オブジェクトの位置を、前記第2オブジェクトの位置に基づいた特定位置に指定するステップと、
前記第2オブジェクトが前記第1オブジェクトよりも前記仮想カメラから遠い位置にあり且つ前記第2オブジェクトと前記第1オブジェクトとの重なり部分がある場合に、前記第2オブジェクトの前記重なり部分が描画されないように、かつ、前記仮想カメラから前記特定位置までの深度情報を更新しないように、前記第3オブジェクトを前記特定位置に描画するステップと
を含む方法である。
本発明により、目印画像の描画態様の自由度を向上させることができる。
図1は、本発明の一実施形態に係るハードウェア構成の一例を示すブロック図である。 図2は、本発明の一実施形態に係るサーバの構成の一例を示すブロック図である。 図3は、本発明の一実施形態に係るサーバのハードウェア構成の一例を表すブロック図である。 図4は、本発明の一実施形態に係るユーザ端末のハードウェア構成の一例を表すブロック図である。 図5は、本発明の画像データ処理の第1実施形態における処理の流れを、表示の対象となる例示の複数のオブジェクトを用いて概略的に示す図である。 図6は、図5に示す画像データ処理の第1実施形態のフローチャートである。 図7は、本発明の画像データ処理の第2実施形態における処理の流れを、表示の対象となる例示の複数のオブジェクトを用いて概略的に示す図である。 図8は、図7に示す画像データ処理の第2実施形態のフローチャートである。
以下において、本発明に係る実施形態を、図面を参照して説明する。なお、本発明は、以下に説明する実施形態に限定されるものではなく、特許請求の範囲の記載に基づいて解釈されるべきである。また、当業者であれば、他の類似の実施形態を構成することができること、および本発明の範囲から逸脱することなく適宜に実施形態の構成の変更や追加を行うことができることに、留意すべきである。
[システムのハードウェア構成の概要]
図1は、本発明の一実施形態の基本的ハードウェア構成の概要を示す概念図であり、ハードウェア構成は、サーバ20と、ネットワーク40と、ネットワーク40を介してサーバ20と通信可能に接続できる各ユーザのユーザ端末30(この例ではユーザ端末A、B、およびCを含む)とを含む。なお、以下の説明では、単にユーザ端末30と記載している場合、ユーザ端末A、B、およびCの何れかを指す。
サーバ20は、例えば、図2に示すように、ゲームサーバ21とデータベースサーバ22とから構成されている。
ゲームサーバ21は、ゲームサービスを受ける各ユーザのユーザ端末30からのネットワーク40を介したアクセスを受け付けて、各ユーザのゲーム情報をデータベースサーバ22に蓄積して管理し、各ユーザにネットワーク40を介したゲームサービスを提供する。
データベースサーバ22は、各ユーザのゲーム履歴や獲得ポイント等のゲーム情報を蓄積して管理するためのサーバである。
なお、ここでは、サーバ20が、ゲームサーバ21とデータベースサーバ22とにより構成される例を示すが、これに限定されるものではない。例えば、各サーバの有する各機能を複数のサーバに分散して持たせて複数台のサーバとして構成することもできる。また、ユーザの認証を行うための認証サーバや、ユーザが課金対象のアイテムをゲーム内で購入した場合に課金管理を行う課金管理サーバを別体として構成してもよい。
また、ゲームサービスを利用する多数のユーザの多数のユーザ端末30からの巨大なアクセスにも耐え得るサーバシステムの構築が求められる場合には、複数のゲームサーバ21やデータベースサーバ22を設けて負荷分散型のシステム構成としてもよい。この場合、複数のゲームサーバ21やデータベースサーバ22間の負荷を調整するためのロードバランサを設けることが望ましい。
ネットワーク40は、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網等の通信網を含み、有線/無線を問わない。
なお、提供されるゲームは、例えば、SNSプラットフォーム上で提供されるソーシャルゲームとすることができるが、SNSプラットフォームとは独立したゲームとして構築してもよい。提供されるゲームとしては、例えば、ボールを用いるスポーツのゲーム、冒険などを行うロールプレイングゲーム、人や動物などを育てる育成ゲーム、格闘やレースなどのような他のユーザとの対戦型のゲーム、恋愛ゲーム、シューティングゲームなど、任意の形式のゲームを採用することができる。
各ユーザのユーザ端末30には、ウェブサイト閲覧機能を有するウェブブラウザが搭載されており、ゲームサーバから送信されたウェブページ情報をユーザ端末30の画面に表示することができるようになっている。このユーザ端末30としては、例えば、携帯電話端末、PHS(Personal Handy-phone System)端末、携帯情報端末(PDA:Personal Digital Assistant)、スマートフォン、パーソナルコンピュータまたはタブレット型コンピュータなど、様々な端末を採用できる。
[ゲームサーバ等の構成]
ゲームサーバの具体的構成の一例を、図3に基づいて以下説明する。図3に示すように、ゲームサーバ10(図1および図2のサーバ20に含まれるゲームサーバ21に対応)は、主に、CPU(Central Processing Unit)110、ROM(Read Only Memory)120及びRAM(Random Access Memory)130等の主記憶装置、補助記憶装置140、通信制御部150、入出力制御部160を備えており、これらはアドレスバス、データバス、コントロールバス等を含むバスライン170を介して相互に接続されている。なお、バスライン170と各構成要素との間には適宜インタフェース回路(不図示)が介在している場合もある。
CPU110は、ゲームサーバ全体の制御を行う。ROM120は、ゲームサーバの動作制御に必要なプログラム等を記憶している。RAM130は、各種プログラム及びデータを記憶するとともに、CPU110に対して作業領域を提供する。
補助記憶装置140は、ゲームプログラム等のアプリケーションソフトウェアや各種データ等を格納する、例えば、ハードディスクドライブ等の記憶装置である。ゲームサーバを起動させるためのプログラムも、この補助記憶装置140に記憶されており、当該プログラムはゲームサーバの起動時に補助記憶装置140からバスライン170を介してRAM130へとロードされる。
通信制御部150は、ネットワーク40と接続される通信インターフェース150aを備え、ネットワーク40を介した各ユーザのユーザ端末30との間の通信を制御する。また、ゲームがSNSプラットフォーム上で提供されるソーシャルゲームの場合には、通信制御部150は、SNSサーバ(不図示)との間の通信を制御する。
入出力制御部160は、データベースサーバと通信可能に接続されており、CPU110がデータベースサーバに対してデータ(レコード)の読み書きを実行するときに入出力制御を行う。
データベースサーバは、各ユーザのゲーム情報を記憶する領域を有する記憶装置として、例えばRAID(Redundant Arrays of Inexpensive Disks)構成の大容量ハードディスク装置を具備する。このデータベースサーバは、例えば、各ユーザを一意に識別する識別情報(ユーザID)に基づいて、各ユーザの各種ゲーム情報(ユーザ名、レベル、ゲーム内ポイント、所持アイテムなど)を管理するするリレーショナルデータベース、オブジェクトデータベース又はオブジェクト関係データベース等として構築することができる。
次に、本実施の一実施形態に係るゲームサーバにアクセスしてゲームサービスの提供を受けるユーザのユーザ端末30の構成を説明する。
[端末装置の構成]
ユーザ端末30として携帯端末を例に取り、図4に基づきその構成を説明する。図4に示すように、ユーザ端末30は、主に、CPU310と、主記憶装置としてのROM320及びRAM330と、画像処理部340と、表示部350と、サウンド処理部360と、音声入力部370と、音声出力部380と、補助記憶装置390と、操作入力部400と、通信制御部410とを備えており、構成要素310〜340、360および390〜410はバスライン420を介して相互に接続されている。なお、バスライン420と各構成要素との間にはインタフェース回路(不図示)が適宜介在している。
CPU310は、ユーザ端末30全体の制御を行う。ROM320には、ユーザ端末30の動作制御に必要なプログラム等が記憶されている。また、RAM330には、ROM320または補助記憶装置390からロードされた各種プログラムやデータが記憶され、CPU310に対して作業領域を提供する。HTML等で記述されたゲーム画面データを表示するウェブブラウザは、ROM320または補助記憶装置390に記憶されており、RAM330にロードされてCPU310によって実行される。また、ウェブブラウザのブラウザ機能を拡張するための様々なプラグインソフトウェアを、ウェブブラウザと共にROM320または補助記憶装置390に記憶するようにしてもよい。
画像処理部340は、CPU310からの画像表示命令に基づいて表示部350を駆動し、当該表示部350の画面に画像を表示させる。表示部350としては、液晶ディスプレイ等の種々の表示装置を採用できる。
サウンド処理部360は、音声入力部370から音声が入力されたときにアナログ音声信号をデジタル音声信号に変換するとともに、CPU310からの発音指示に基づいてアナログ音声信号を生成して音声出力部380に出力する。音声入力部370は、ユーザ端末30に内蔵されたマイクロフォンからなり、電話通信する場合や録音を行う場合などに用いられる。音声出力部380は、電話通信時の受話スピーカおよび電話着信音やゲーム実行時の効果音などを出力するスピーカからなる。
補助記憶装置390は、各種プログラムやデータ等を格納する記憶装置である。補助記憶装置390としては、携帯電話端末の内部メモリとして、例えばフラッシュメモリ等を用いることができ、また、携帯電話端末の外部メモリとして、例えばメモリカードリーダライタ等を用いることができる。
操作入力部400は、ユーザの操作入力を受け入れて当該操作入力に対応した入力信号を、バスライン420を介してCPU310に出力するものである。操作入力部400の例としては、ユーザ端末30の本体に設けられた方向指示ボタン、決定ボタン、英数文字等入力ボタンなどの物理的ボタンがある。なお、表示部350をタッチスクリーンとして構成している場合には、当該タッチパネルが操作入力部400となる。
通信制御部410は、通信インタフェース410aを備え、ゲーム操作時等にデータ通信するための通信制御機能および携帯電話端末として音声データを送受信するための通信制御機能等を有している。ここで、データ通信用の通信制御機能には、例えば、無線LAN接続機能、無線LANや携帯電話回線網を介したインターネット接続機能、近距離無線通信機能などが含まれる。通信制御部410は、CPU310からの命令に基づいてユーザ端末30を無線LANやインターネット等に接続するための接続信号を発信するとともに、通信相手側から送信されてきた情報を受信してCPU310へ供給する。
なお、ユーザ端末30には、GPS(Global Positioning System)信号受信回路、CCD(Charge Coupled Device)イメージセンサ等の撮像装置(カメラ)、3軸加速度センサなどが備えられていてもよく、例えば、GPS位置情報などをゲーム内で活用してもよい。
[画像データ処理の第1実施形態]
次に、本発明の画像データ処理の方法、装置、およびプログラムの第1実施形態について、図5および図6を参照して説明する。図5は、本発明の画像データ処理の第1実施形態における処理の流れを、表示の対象となる例示の複数のオブジェクトを用いて概略的に示す図であり、図6は、図5に示す画像データ処理の第1実施形態のフローチャートである。
本実施形態における3次元仮想空間は、背景や前景などのような固定的なオブジェクト、キャラクタや乗り物などのような可動のオブジェクト、および仮想カメラを含む。また、本実施形態では、深度バッフア(Zバッフア)を用いる。即ち、各オブジェクトの位置により、各オブジェクトの位置と仮想カメラの位置との間の距離が決定され、従って、仮想カメラと各オブジェクトと間の距離的関係が決定される。仮想カメラの位置と1つのオブジェクトとの間の距離は、そのオブジェクトに関する深度値が小さいほど近く、深度値が大きいほど遠い。
図5において、1は、3次元仮想空間における第1オブジェクトであり、本実施形態では前景を構成するオブジェクトである。図5の(A)に示す第1オブジェクト1は、その基礎を構成するポリゴンにテクスチャを付加(マッピング)し、仮想カメラから見たときの状態を示している(以下、前景オブジェクト1という)。ユーザ端末30の表示部350での前景オブジェクト1の見え方は、仮想カメラの位置に応じて変化し得る。
ここでは、3次元仮想空間における前景オブジェクト1の位置は固定されているものとする。例えば、3次元仮想空間が街並みを表すゲーム空間である場合、前景オブジェクト1は、人(プレーヤキャラクタ)などの一部または全部が隠され得る有限の大きさの障害物、例えば、塀や生垣などであり得る。なお、この例では、前景オブジェクト1の位置は固定されているものとしたが、前景オブジェクト1は可動のオブジェクト、例えば、列車や自動車などのような乗り物などである場合もある。
2は、3次元仮想空間における背景を構成するオブジェクトであり、その基礎を構成するポリゴンにテクスチャを付加し、仮想カメラにより撮像したときの状態を示す(以下、背景オブジェクト2という)。ユーザ端末30の表示部350での背景オブジェクト2の見え方は仮想カメラの位置に応じて変化し得る。ここでは、3次元仮想空間における背景オブジェクト2の位置は固定されているものとする。なお、図5では、背景オブジェクト2を空白部分として示しているが、これは、単に、図を簡素化するためである。また、背景オブジェクト2は、ポリゴンおよびテクスチャを用いて構成される場合以外に、2次元の平面のイメージデータである場合や、位置や模様などのデータを含まない単なる空白の空間である場合もある。
3は、前景オブジェクト1の後方に位置することができる第2オブジェクトであり、本実施形態では、前景オブジェクト1と背景オブジェクト2との間に位置しているところが示されている。ここでは、第2オブジェクト3は、CPUから又はCPUを介してのユーザからの命令に応答して動くことができる可動オブジェクトである。図5の(A)では、テクスチャを付加していないポリゴンの状態の可動オブジェクト3を示す(以下、可動オブジェクト3という)。図5の(A)は、可動オブジェクト3の一部(下半分)が前景オブジェクト1に隠れた状態を示しており、図5の(A’)は、図5の(A)の状態における可動オブジェクト3の、隠れた部分を含めての全体、即ち、前景オブジェクト1が無い場合の可動オブジェクト3の状態を示す。例えば、3次元仮想空間がゲーム空間である場合、可動オブジェクト3は、ユーザ(ゲームのプレーヤ)により動かされる人(プレーヤキャラクタ)などであり得る。
図5の3’は、図5の(A)のポリゴンの状態である可動オブジェクト3にテクスチャを付加(マッピング)した状態を示す(以下、可動オブジェクト3’という)。
図5の(B)は、可動オブジェクト3の露出部分(前景オブジェクト1により隠されていない部分)に対応するテクスチャ(図5の(B)における左上側の長方形として示す)が作成され、そのテクスチャが可動オブジェクト3の露出部分へマッピングされた状態を示す。
上記の説明から理解できるように、この例では、前景オブジェクト1に関する深度値(Z=aとする)は、可動オブジェクト3(3’)に関する深度値(Z=cとする)より小さく、可動オブジェクト3(3’)に関する深度値(Z=c)は、背景オブジェクト2に関する深度値(Z=bとする)より小さい(a<c<b)。従って、図5の(B)に示すように、前景オブジェクト1、可動オブジェクト3’、および背景オブジェクト2は、この順に並んで表示され、重なった部分に関しては、前景オブジェクト1、可動オブジェクト3’、背景オブジェクト2の順に優先的に表示される。本発明の画像データ処理では、このように作成される画像に対して更に処理を行うが、その処理については図6を参照して説明する。
図5の(C)は、図5の(B)の状態における可動オブジェクト3’の隠された部分を含めての全体、より具体的には、前景オブジェクト1が無い場合の、テクスチャがマッピングされた可動オブジェクト3’の正面の形状を示す(以下、可動オブジェクト3’の2次元画像という)。
図5の(D)の4は、第2オブジェクト3(より具体的には、図5の(C)に示す可動オブジェクト3’の2次元画像)に基づいて作成される第3オブジェクトであり、この新たに作成される第3オブジェクト4は、後に可動オブジェクト3’のシルエットおよび輪郭線を形成することになるマスク用の画像である(以下、輪郭用画像4という)。なお、この例におけるシルエットとは、可動オブジェクト3’全体のうちの、前景オブジェクト1に隠された部分を陰影として表現した画部部分のことである。
この輪郭用画像4は、可動オブジェクト3’を仮想カメラから見た際の2次元画像を拡大することにより作成される。従って、可動オブジェクト3’の2次元画像と輪郭用画像4とは実質的に相似となる。輪郭用画像4の色(またはテクスチャ)は、可動オブジェクト3’および他のオブジェクトと輪郭用画像4との区別を可能とするように設定する。輪郭用画像4を作成する際の可動オブジェクト3’の2次元画像の拡大の倍率は、可動オブジェクト3’の2次元画像を僅かに大きくする程度とする。具体例としては、可動オブジェクト3’の2次元画像に輪郭線(例えば、3〜4ピクセル程度の幅の輪郭線)が加わった程度の大きさとする。画像の拡大の方法は任意であり、例えば、可動オブジェクト3’の2次元画像のピクセルの補間を行うデータ処理を行うことにより、輪郭用画像4を構成することができる。また、例えば、可動オブジェクト3’の2次元画像の輪郭部分に輪郭線(例えば、3〜4ピクセル程度の幅)に相応する面積を付加するという方法を用いることもできる。この輪郭用画像4自体は深度情報を有さない。
図5の(E)は、図5の(B)の状態に配された可動オブジェクト3’の位置に合わせて、図5の(D)に示す輪郭用画像4を付加したときの状態を示す。図5の(E)では、輪郭用画像4の外観は、4’で示すように変化している。より具体的には、図5の(E)では、図5の(B)における可動オブジェクト3’の隠されていない部分が、輪郭用画像4を付加した後も隠されていない状態に維持され、可動オブジェクト3’の隠された部分に対応する部分は、元の輪郭用画像4の状態を維持し(即ち、シルエットとして表示され)、可動オブジェクト3’の輪郭となる部分も元の輪郭用画像4の状態を維持している。このような表示を実現する構成については、図6を参照して説明する。
なお、図5の(A)ないし(E)のうち、(A)ないし(D)は、画像処理の工程を説明するための図であり、実際にユーザ端末30の表示部350で表示されるのは、(E)に示す状態を表す画像である。この(E)に示す画像を得るための構成は本発明の1つの特徴である。
次に、図5に示す画像データ処理の第1実施形態について、図6のフローチャートを参照して説明する。最初に、第1実施形態で用いるハードウェアについて簡単に説明する。ユーザ端末30の制御部であるCPU310は、入力装置である操作入力部400から、画像として表示部350で表示されるオブジェクトに関連する命令、例えば、3次元仮想空間においてオブジェクトを動かす命令を受け取る。命令を受け取ったCPU310は、RAM330及び/又は補助記憶装置390(以下、記憶装置という)に記憶されたプログラムに基づいて、命令に応じた動作を画像処理部340に行わせることによりデータ(画像)を作成し、その画像を表示部350で表示させる。なお、画像の作成処理では、主にCPU310と画像処理部340とが処理部として働くが、以下の説明では、CPU310と画像処理部340とを含む処理部を単にCPU310という。
次に、第1実施形態での処理のステップについて説明する。図6のスタートの前の処理ステップ(以下、前処理ステップという)として、前景オブジェクト1および背景オブジェクト2を作成しておく。前景オブジェクト1および背景オブジェクト2の作成ステップは、基本的には、従来技術におけるオブジェクトの作成ステップと同様でよい。前景オブジェクト1および背景オブジェクト2を構成する各ピクセルについて、少なくとも、縦横方向の位置の情報および深度情報と、テクスチャのデータと、ステンシル情報とが記憶装置に格納されている。
更に、前処理ステップでは、可動オブジェクト3の基礎的データも作成しておく。この例における可動オブジェクト3の基礎的データとは、テクスチャを付加する前の状態の可動オブジェクト3を構成するデータであり、ポリゴンのデータを含む。
ステンシル情報は、ピクセルに対する描画の可否を識別するデータである。ステンシル情報は、例えば、当該ピクセルに対して別のテクスチャを適用して描画する場合に、元のテクスチャを維持するか又は別のテクスチャに変更するかなどを指定する場合に用いられる。ステンシル情報を用いる構成は、本発明の1つの特徴である。
図6ステップS601において、CPU310は、ユーザ端末30の操作入力部400から入力された命令、例えば、3次元仮想空間における仮想カメラの位置や視野を決定する命令に応じて、3次元仮想空間に配される前景オブジェクト1および背景オブジェクト2に関して、それらを構成するデータに基づき各ピクセルについての深度情報などを更新し、テクスチャが付加された状態で表示する。このとき、前景オブジェクト1および背景オブジェクト2に関するステンシル情報のビットは0に設定する。この処理により、前景オブジェクト1および背景オブジェクト2は、テクスチャの変更を可能(テクスチャ変更可)とするように設定されるが、前処理ステップでテクスチャが既に付加されているので、そのテクスチャを維持することとなる。
ステップS602において、CPU310は、可動オブジェクト3の動きを指示する命令を操作入力部400から受け取り、その命令に応じて、可動オブジェクト3を構成する基礎的データに基づいて可動オブジェクト3を作成する(図5の(A’)を参照)。このとき、CPU310は、可動オブジェクト3に関するステンシル情報の全てのビットを0に設定し、可動オブジェクト3に対してテクスチャ変更可の状態とする。
この例では、前景オブジェクト1に関する深度値(Z=a)と、可動オブジェクト3に関する深度値(Z=c)と、背景オブジェクト2に関する深度値(Z=b)との関係がa<c<bである。従って、ステップS603において、CPU310は、深度値に基づいて、基礎的データで構成される可動オブジェクト3(テクスチャを付加する前の可動オブジェクト)を、前景オブジェクト1の後方であり且つ背景オブジェクト2の前方である位置に配置する(図5の(A)を参照)。なお、このステップS603の処理はCPU310および記憶装置の中で行われるものであり、図5の(A)の状態に対応する画像は表示部350には表示されない。
ステップS604において、CPU310は、可動オブジェクト3の、前景オブジェクト1に隠れない部分(露出部分)を特定し、その露出部分に対応するテクスチャを作成してマッピングする(図5の(B)を参照)。ここでは、テクスチャがマッピングされた可動オブジェクト3を、可動オブジェクト3’と表す。この露出部分へのマッピングの処理と実質的に並列に、CPU310は、可動オブジェクト3の、前景オブジェクト1に隠れた部分を含めての可動オブジェク3全体を表すポリゴンを作成し、それにテクスチャをマッピングする(図5の(C)を参照)。ステップS604の処理もまた、CPU310および記憶装置の中で行われるものであり、図5の(B)および(C)の状態に対応する画像は表示部350には表示されない。
ステップS605において、CPU310は、可動オブジェクト3’全体を仮想カメラから見た際の2次元の形状に基づいて、輪郭用画像4を作成する(図5の(D)を参照)。図5と関連して説明したように、輪郭用画像4は、可動オブジェクト3’の2次元画像(テクスチャ)を拡大することにより作成される。輪郭用画像4の色(またはテクスチャ)は、可動オブジェクト3’および前景オブジェクト1と輪郭用画像4とを区別可能なように設定する。輪郭用画像4の面積は、可動オブジェクト3’の2次元画像の面積よりも僅かに大きく、例えば、可動オブジェクト3’の2次元画像の輪郭部分に輪郭線(例えば、3〜4ピクセル程度の幅)の面積を付加した大きさである。この輪郭用画像4自体は、深度情報やステンシル情報などを含まない。
ステップS606において、CPU310は、可動オブジェクト3’の露出部分、即ち、前景オブジェクト1と重なることにより見えなくなっている部分以外の部分を特定し、その特定した露出部分に関するステンシル情報のビットを0から1に変更する。即ち、CPU310は、露出部分に関するステンシル情報を変更することにより、可動オブジェクト3’の露出部分のテクスチャが変更されないように設定する(テクスチャ変更不可と設定する)。なお、可動オブジェクト3’の全体が露出している場合、即ち、隠れた部分が無い場合には、可動オブジェクト3’全体に関するステンシル情報のビットを0から1に変更することになる。
ステップS607において、CPU310は、作成した輪郭用画像4と、前景オブジェクト1に隠れている部分も含めての可動オブジェクト3’の全体とを位置合わせし、輪郭用画像4を、可動オブジェクト3’全体(隠れている部分を含む)を覆うように貼り付ける。画像の貼り付けは、例えば、2つの画像の重心を合わせる方法など、任意の適切な方法で行うことができる。輪郭用画像4が貼り付けられた画像において、可動オブジェクト3’の露出部分に関するステンシル情報が、ステップS606において0から1へと変更されているので、即ち、テクスチャ変更不可と設定されているので、露出部分では輪郭用画像4が表示されず元のテクスチャが表示され、また、他の部分に関するステンシル情報は0なので、当該他の部分のうちの輪郭用画像4が貼り付けられた部分は、輪郭用画像4の色(テクスチャ)に書き換えられて表示される(図5の(E)の4’を参照)。これにより、可動オブジェクト3’に輪郭を付加するとともに、可動オブジェクト3’の前景オブジェクト1と重なることにより見えなくなっている部分をシルエットとして表示させることができ、両者を容易に描画することができる。また、可動オブジェクト3’の露出部分、および、見えなくなっている部分に対する視認性が向上するので、可動オブジェクト3’の視認性を全体として違和感なく向上させることができる。
ステップS608において、CPU310は、ステップS607で作成された画像を表示部350で表示する。ここで、上記のように、輪郭用画像4自体は深度情報を含まないので、可動オブジェクト3’の露出部分に関する深度情報は変更されず、更に、可動オブジェクト3’の露出部分の輪郭線の部分に関する深度情報も変更されず(この部分に関しては背景オブジェクト2に関する深度情報(Z=b)を維持する)、かつ可動オブジェクト3’の隠れている部分を覆っている部分、即ち、シルエットの部分およびシルエットの周囲の輪郭線を表す部分に関する深度情報も変更されない(この部分に関しては前景オブジェクト1に関する深度情報(Z=a)を維持する)。
本実施形態では、3次元仮想空間において前景オブジェクト1、背景オブジェクト2、および可動オブジェクト3’を表示する画像に、輪郭用画像4、即ち、可動オブジェクト3’全体の形および位置を常に把握できるようにする画像を付加しても、表示されている各オブジェクトと関連する深度情報が変更されないので、処理による装置に対しての負荷が過剰に大きくならない利点がある。
ステップS609において、CPU310は、可動オブジェクト3と関連する次の命令を受け取っているか否かを判断する。命令を受け取っていた場合には、ステップS601へ戻り、上記のステップを反復する。命令を受け取っていない場合には、CPU310は、この画像データ処理を終了し、別の新たな処理へ進む。
[画像データ処理の第2実施形態]
次に、本発明の画像データ処理の第2実施形態について、図7および図8を参照して説明する。図7は、本発明の画像データ処理の一実施形態における処理の流れを、表示の対象となる例示の複数のオブジェクトを用いて概略的に示す図であり、図8は、図7に示す画像データ処理の一実施形態に対応するフローチャートである。第2実施形態は、第1実施形態の一部を変更した構成からなる実施形態である。
図7の(A)ないし(D)により示す処理ステップは、図5の(A)ないし(D)により示す処理ステップと同じであるので、説明を省略する。ただし、以下で説明するように、図7の(D)の4で示す第3オブジェクト(輪郭用画像4)は、後に可動オブジェクト3’の輪郭線の画像を形成することになるが、可動オブジェクト3’のシルエットの画像は形成しない。
図7の(E)は、図7の(B)の状態に配された可動オブジェクト3’の位置に合わせて、図7の(D)に示す輪郭用画像4を付加したときの状態を示す。図7の(E)では、輪郭用画像4の外観は、4’で示すように変化している。より具体的には、図7の(E)では、図7の(B)における可動オブジェクト3’の露出部分(隠されていない部分)が、輪郭用画像4を付加した後も隠されていない状態に維持され、且つ可動オブジェクト3’の隠されている部分の周囲の部分、具体的には、可動オブジェクト3’の下半分の輪郭線のように見える部分が、前景オブジェクト1の上に表示されている。このような表示を実現する構成については、図8を参照して説明する。
なお、図5の場合と同様に、図7の(A)ないし(E)のうち、(A)ないし(D)は、画像処理の工程を説明するための図であり、実際にユーザ端末30の表示部350で表示されるのは、(E)に示す状態を表す画像である。この(E)に示す画像を得るための構成は本発明の1つの特徴である。
次に、図7に示す画像データ処理の第2実施形態について、図8のフローチャートを参照して説明する。第2実施形態で用いるハードウェアは、第1実施形態で用いるハードウェアと実質的に同じであるので、説明を省略する。
図8のスタートの前の処理ステップ(以下、前処理ステップという)は、第1実施形態における前処理ステップと同じであるので詳細には説明しないが、簡単に説明すると、前処理ステップでは、前景オブジェクト1および背景オブジェクト2を作成し、且つ可動オブジェクト3の基礎的データを作成する。
この例における可動オブジェクト3の基礎的データも、第1実施形態の場合と同様に、テクスチャを付加する前の状態の可動オブジェクト3を構成するデータであり、ポリゴンのデータを含む。ステンシル情報を用いる構成は、本発明の1つの特徴である。
図8のステップS801は、図6のステップS601と同じであるので、説明を省略する。
ステップS802は図6のステップS602と同じであるが、簡単に説明すると、CPU310は、可動オブジェクト3の動きを指示する命令を操作入力部400から受け取り、その命令に応じて、可動オブジェクト3を構成する基礎的データに基づいて可動オブジェクト3を作成する(図5の(A’)を参照)。このとき、CPU310は、可動オブジェクト3に関するステンシル情報のビットを0に設定し、可動オブジェクト3に対してテクスチャ変更可の状態とする。
図8のステップS803ないしステップS805は、図6のステップS603ないしステップS605と同じであるので、説明を省略する。
ステップS806において、CPU310は、可動オブジェクト3’の露出部分(図7の(B)における可動オブジェクト3’の見えている部分)、即ち、前景オブジェクト1と重なることにより見えなくなっている部分以外の部分を特定し、その特定した部分に関するステンシル情報のビットを0から1に変更する。即ち、CPU310は、露出部分に関するステンシル情報を変更することにより、可動オブジェクト3’の露出部分についてテクスチャ変更不可と設定する。
更に、CPU310は、可動オブジェクト3’と前景オブジェクト1とが重なる部分(重複部分)を特定し、その重複部分に対応する前景オブジェクト1の部分(即ち、可動オブジェクト3’を隠している部分)に関するステンシル情報のビットを、0から1に変更する。即ち、CPU310は、前景オブジェクト1における可動オブジェクト3’と重なっている部分に関するステンシル情報を変更することにより、その部分についてテクスチャ変更不可と設定する。
図8のステップS807は、図5のステップS607と同じである。即ち、CPU310は、作成した輪郭用画像4と、前景オブジェクト1に隠れている部分も含めての可動オブジェクト3’の全体とを位置合わせし、輪郭用画像4を、可動オブジェクト3’全体(隠れている部分を含む)を覆うように貼り付ける。
輪郭用画像4が貼り付けられた画像において、可動オブジェクト3’の露出部分に対応する部分は、ステップS806において、ステンシル情報が0から1へと変更されているので、即ち、テクスチャ変更不可と設定されているので、元のテクスチャが表示される。更に、前景オブジェクト1における、可動オブジェクト3’と前景オブジェクト1との重複部分についても、ステンシル情報が0から1へと変更されているので、即ち、テクスチャ変更不可と設定されているので、元のテクスチャが表示される(図7の(E)の4’を参照)。その結果として、可動オブジェクト3’全体(隠れている部分を含む)に輪郭線が付加された形の画像が形成される。
ステップS808において、CPU310は、ステップS807で作成された画像を表示部350で表示する。ここで、上記のように、可動オブジェクト3’の露出部分と、前景オブジェクト1における可動オブジェクト3’との重複部分とは、ステンシル情報以外のデータは変更されず(従って、これらの部分に関する深度情報は変更されず)、更に、輪郭用画像4自体は深度情報を含まないので、可動オブジェクト3’の全体(隠れている部分を含む)の輪郭線の部分に関する深度情報も変更されない。即ち、可動オブジェクト3’の露出部分の輪郭線の部分に関しては、背景オブジェクト2に関する深度情報(Z=b)を維持し、前景オブジェクト1における可動オブジェクト3’との重複部分の輪郭線の部分に関しては、前景オブジェクト1に関する深度情報(Z=a)を維持する。これにより、可動オブジェクト3’に輪郭を付加し、これを常に視認できるように表示させることによって、可動オブジェクト3’の露出部分、および、見えなくなっている部分に対する視認性が向上する。従って、可動オブジェクト3’の視認性を全体として違和感なく向上させることができる。
このように、本実施形態では、3次元仮想空間において前景オブジェクト1、背景オブジェクト2、および可動オブジェクト3’を表示する画像に、輪郭用画像4、即ち、可動オブジェクト3’全体の形および位置を常に把握できるようにする画像を付加しても、表示されている各オブジェクトに関する深度情報が変更されないので、装置に対する処理の負荷が過剰に大きくならない利点がある。
ステップS809において、CPU310は、可動オブジェクト3と関連する次の命令を受け取っているか否かを判断する。命令を受け取っていた場合には、ステップS801へ戻り、上記の動作を反復する。命令を受け取っていない場合には、CPU310は、この画像データ処理を終了し、別の新たな処理へ進む。
第1実施形態および第2実施形態のそれぞれにおいて、ユーザ端末030の記憶装置は、ユーザ端末30に上記の画像データ処理を行わせるためのプログラムを記憶している。なお、上記の実施形態では、本発明の画像データ処理をユーザ端末30で行う構成としたが、ユーザ端末30とサーバ20との間での通信速度が十分に速い場合には、画像データ処理を行わせるためのプログラムをサーバ20の記憶装置に記憶し、サーバ20においてユーザ端末30での操作に応答して画像データ処理を行い、サーバ20で作成した画像をユーザ端末30へ送信してユーザ端末3で表示させる構成とすることや、本発明の画像データ処理をユーザ端末30とサーバ20とで分散して行う構成とすることも可能である。
また、第1実施形態および第2実施形態のそれぞれでは、前景オブジェクト1の後ろに可動オブジェクト3を配し、可動オブジェクト3へテクスチャをマッピングするステップ(ステップS604およびS804)において、深度情報を用いて、前景オブジェクト1と可動オブジェクト3との重複部分に表示される画像の優先度を決定していたが、このテクスチャのマッピングのステップは、この例示の方法には限定されない。例えば、ステップS604およびS804のそれぞれにおいて、最初に、前景オブジェクト1に関するステンシル情報を0から1に変更し、次に、可動オブジェクト3のテクスチャをマッピングする。このようにした場合、前景オブジェクト1のテクスチャは元(直前)のテクスチャに固定され、可動オブジェクト3の露出部分(前景オブジェクト1との重複部分以外の部分)のみに、可動オブジェクト3に対するテクスチャがマッピングされることになる。その後、前景オブジェクト1に関するステンシル情報を再び1から0に変更する。このような構成の場合も、図5の(B)および図7の(B)に示す状態を形成することができる。その後のステップ(ステップS605およびS805からのステップ)は、第1実施形態および第2実施形態のそれぞれのステップと同じとすることができる。
以上の開示について、以下を付記する。
(項目1)
画像の処理をコンピュータにより行う方法であって、
第1オブジェクト、第2オブジェクト、および仮想カメラを含む3次元仮想空間を定義するステップと、
前記3次元仮想空間において、前記第1オブジェクトの位置、前記第2オブジェクトの位置、および前記仮想カメラの位置を特定するステップと、
前記仮想カメラから前記第1オブジェクトまでの深度情報を更新して、前記第1オブジェクトを描画するステップと、
前記仮想カメラから前記第2オブジェクトまでの深度情報を更新して、前記第2オブジェクトを描画するステップと、
前記第2オブジェクトの形状に基づいて生成される第3オブジェクトを定義するステップと、
前記第3オブジェクトの位置を、前記第2オブジェクトの位置に基づいた特定位置に指定するステップと、
前記第2オブジェクトが前記第1オブジェクトよりも前記仮想カメラから遠い位置にあり且つ前記第2オブジェクトと前記第1オブジェクトとの重なり部分がある場合に、前記第2オブジェクトの前記重なり部分が描画されないように、かつ、前記仮想カメラから前記特定位置までの深度情報を更新しないように、前記第3オブジェクトを前記特定位置に描画するステップと
を含む方法。
これにより、第2オブジェクトの視認性を容易に向上させることができる。
(項目2)
項目1に記載の方法であって、
前記深度情報に基づいて、前記第2オブジェクトのうち、前記第1オブジェクトよりも、前記仮想カメラから遠い位置にある前記重なり部分を特定するステップと、
前記第2オブジェクトのうち、前記重なり部分以外の部分を、前記第3オブジェクトによって描画されない部分として定義するステップと
を含む方法。
これにより、第2オブジェクトのうち第1オブジェクトに隠れている部分の視認性を、さらに向上させることができる。
(項目3)
項目2に記載の方法であって、
前記重なり部分については、ステンシルバッファにステンシル情報を書き込まず、
前記第2オブジェクトのうち、前記重なり部分以外の部分については、ステンシルバッファにステンシル情報を書き込む、
方法。
これにより、第2オブジェクトのうち第1オブジェクトに隠れている部分の視認性を、容易に向上させることができる。
(項目4)
項目1に記載の方法であって、
前記第2オブジェクトと前記第1オブジェクトとの前記重なり部分の有無に関わらず、前記第2オブジェクトが配置される領域を特定するステップと、
前記領域を、前記第3オブジェクトによって描画されない部分として定義するステップと
を含む方法。
これにより、第2オブジェクトのうち第1オブジェクトに隠れている部分の視認性を、容易に向上させることができる。
(項目5)
項目4に記載の方法であって、
前記領域については、ステンシルバッファにステンシル情報を書き込む、
方法。
これにより、第2オブジェクトのうち第1オブジェクトに隠れている部分の視認性を、容易に向上させることができる。
(項目6)
項目1〜5のいずれかに記載の方法であって、
前記第3オブジェクトは、前記第2オブジェクトと相似形であり、
前記第3オブジェクトの位置は、前記第2オブジェクトの位置と一致する、方法。
これにより、第2オブジェクトのうち第1オブジェクトに隠れている部分の視認性を、違和感なく向上させることができる。
(項目7)
項目1ないし6の何れかに記載の方法をコンピュータに実行させるプログラム。
(項目8)
プロセッサの制御により、請求項1ないし6の何れかに記載の方法を実行するコンピュータ。
10、20 サーバ
21 ゲームサーバ
22 データベースサーバ
30、A、B、C ユーザ端末
40 ネットワーク
110 CPU
120 ROM
130 RAM
140 補助記憶装置
150 通信制御部
160 入出力制御部
170 バスライン
310 CPU
320 ROM
330 RAM
340 画像処理部
350 表示部
360 サウンド処理部
370 音声入力部
380 音声出力部
390 補助記憶装置
400 操作入力部
410 通信制御部
420 バスライン

Claims (8)

  1. 画像の処理をコンピュータにより行う方法であって、
    第1オブジェクト、第2オブジェクト、および仮想カメラを含む3次元仮想空間を定義するステップと、
    前記3次元仮想空間において、前記第1オブジェクトの位置、前記第2オブジェクトの位置、および前記仮想カメラの位置を特定するステップと、
    前記仮想カメラから前記第1オブジェクトまでの深度情報を更新して、前記第1オブジェクトを描画するステップと、
    前記仮想カメラから前記第2オブジェクトまでの深度情報を更新して、前記第2オブジェクトを描画するステップと、
    前記第2オブジェクトの形状に基づいて生成される第3オブジェクトを定義するステップと、
    前記第3オブジェクトの位置を、前記第2オブジェクトの位置に基づいた特定位置に指定するステップと、
    前記第2オブジェクトが前記第1オブジェクトよりも前記仮想カメラから遠い位置にあり且つ前記第2オブジェクトと前記第1オブジェクトとの重なり部分がある場合に、前記第2オブジェクトの前記重なり部分が描画されないように、かつ、前記仮想カメラから前記特定位置までの深度情報を更新しないように、前記第3オブジェクトを前記特定位置に描画するステップと
    を含む方法。
  2. 請求項1に記載の方法であって、
    前記深度情報に基づいて、前記第2オブジェクトのうち、前記第1オブジェクトよりも、前記仮想カメラから遠い位置にある前記重なり部分を特定するステップと、
    前記第2オブジェクトのうち、前記重なり部分以外の部分を、前記第3オブジェクトによって描画されない部分として定義するステップと
    を含む方法。
  3. 請求項2に記載の方法であって、
    前記重なり部分については、ステンシルバッファにステンシル情報を書き込まず、
    前記第2オブジェクトのうち、前記重なり部分以外の部分については、ステンシルバッファにステンシル情報を書き込む、
    方法。
  4. 請求項1に記載の方法であって、
    前記第2オブジェクトと前記第1オブジェクトとの前記重なり部分の有無に関わらず、前記第2オブジェクトが配置される領域を特定するステップと、
    前記領域を、前記第3オブジェクトによって描画されない部分として定義するステップと
    を含む方法。
  5. 請求項4に記載の方法であって、
    前記領域については、ステンシルバッファにステンシル情報を書き込む、
    方法。
  6. 請求項1〜5のいずれかに記載の方法であって、
    前記第3オブジェクトは、前記第2オブジェクトと相似形であり、
    前記第3オブジェクトの位置は、前記第2オブジェクトの位置と一致する、方法。
  7. 請求項1〜6の何れかに記載の方法をコンピュータに実行させるプログラム。
  8. プロセッサの制御により、請求項1ないし6の何れかに記載の方法を実行するコンピュータ。
JP2019023485A 2019-02-13 2019-02-13 画像データ処理の方法およびプログラム、および画像データ処理を行うコンピュータ Pending JP2020135017A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019023485A JP2020135017A (ja) 2019-02-13 2019-02-13 画像データ処理の方法およびプログラム、および画像データ処理を行うコンピュータ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019023485A JP2020135017A (ja) 2019-02-13 2019-02-13 画像データ処理の方法およびプログラム、および画像データ処理を行うコンピュータ

Publications (2)

Publication Number Publication Date
JP2020135017A true JP2020135017A (ja) 2020-08-31
JP2020135017A5 JP2020135017A5 (ja) 2022-09-20

Family

ID=72278617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019023485A Pending JP2020135017A (ja) 2019-02-13 2019-02-13 画像データ処理の方法およびプログラム、および画像データ処理を行うコンピュータ

Country Status (1)

Country Link
JP (1) JP2020135017A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256865A (ja) * 2002-03-01 2003-09-12 Celsys:Kk 立体オブジェクトデータからの漫画的表現の2次元画像の生成方法および生成プログラム
JP2003290550A (ja) * 2002-04-03 2003-10-14 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP2005100109A (ja) * 2003-09-25 2005-04-14 Namco Ltd 画像生成情報、情報記憶媒体及び画像生成装置
JP2007080020A (ja) * 2005-09-15 2007-03-29 Matsushita Electric Ind Co Ltd ステンシルによるウィンドウ処理装置及び方法
JP2014021570A (ja) * 2012-07-12 2014-02-03 Sony Computer Entertainment Inc 動画像生成装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256865A (ja) * 2002-03-01 2003-09-12 Celsys:Kk 立体オブジェクトデータからの漫画的表現の2次元画像の生成方法および生成プログラム
JP2003290550A (ja) * 2002-04-03 2003-10-14 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP2005100109A (ja) * 2003-09-25 2005-04-14 Namco Ltd 画像生成情報、情報記憶媒体及び画像生成装置
JP2007080020A (ja) * 2005-09-15 2007-03-29 Matsushita Electric Ind Co Ltd ステンシルによるウィンドウ処理装置及び方法
JP2014021570A (ja) * 2012-07-12 2014-02-03 Sony Computer Entertainment Inc 動画像生成装置

Similar Documents

Publication Publication Date Title
US20210170278A1 (en) Image rendering method, device, and storage medium
KR102595150B1 (ko) 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체
JP6281495B2 (ja) 情報処理装置、端末装置、情報処理方法及びプログラム
JP6281496B2 (ja) 情報処理装置、端末装置、情報処理方法及びプログラム
KR101101114B1 (ko) 배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법
JP2010237970A (ja) ネットワークシステム、サーバ、プログラム、及び情報記憶媒体
KR20200137001A (ko) 가상 애완동물의 정보 디스플레이 방법, 장치, 단말기, 서버, 기록 매체, 및 시스템
JP4205747B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
CN109448050B (zh) 一种目标点的位置的确定方法及终端
WO2018103633A1 (zh) 一种图像处理的方法及装置
CN112156464A (zh) 虚拟对象的二维形象展示方法、装置、设备及存储介质
WO2022247204A1 (zh) 游戏的显示控制方法、非易失性存储介质及电子装置
JP7216493B2 (ja) ゲームシステム及びプログラム
TWI803224B (zh) 聯絡人信息展示方法、裝置、電子設備、計算機可讀儲存媒體及計算機程式産品
JP5565591B2 (ja) ゲーム装置及びプログラム
WO2021208432A1 (zh) 交互方法、装置、交互系统、电子设备及存储介质
US11151795B2 (en) Systems and methods of creating virtual pop-up spaces
CN112206519A (zh) 实现游戏场景环境变化的方法、装置、存储介质及计算机设备
CN109126136B (zh) 三维虚拟宠物的生成方法、装置、设备及存储介质
JP2020135017A (ja) 画像データ処理の方法およびプログラム、および画像データ処理を行うコンピュータ
WO2022004422A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
CN113134235A (zh) 地图元素添加方法、装置、终端及存储介质
JP2014112390A (ja) ネットワークシステム、サーバ、プログラム、及び情報記憶媒体
US20240127543A1 (en) Context conversion systems and methods for geometric modeling
JP2023135565A (ja) 仮想現実空間の提供方法

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190306

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230614