JP2004089693A - Information processing system, information output limitation method, computer program, recording medium, and semiconductor device - Google Patents
Information processing system, information output limitation method, computer program, recording medium, and semiconductor device Download PDFInfo
- Publication number
- JP2004089693A JP2004089693A JP2003168142A JP2003168142A JP2004089693A JP 2004089693 A JP2004089693 A JP 2004089693A JP 2003168142 A JP2003168142 A JP 2003168142A JP 2003168142 A JP2003168142 A JP 2003168142A JP 2004089693 A JP2004089693 A JP 2004089693A
- Authority
- JP
- Japan
- Prior art keywords
- information
- output
- sound
- data
- instruction information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、ディスプレイに表示される画像やスピーカから出力される音を表す情報を生成して利用者に提供する情報処理システムに関する。特に、利用者に提供する情報の出力形態を制限する仕組みに関する。
【0002】
【従来の技術】
画像や音を表す情報を生成して、これを利用者に対して提供するエンタテインメント装置が知られている。エンタテインメント装置では、所定のシナリオの進行に従ってディスプレイに画像を表示させたり、スピーカを鳴動させて音を出したりする。通常は、画像や音が、シナリオにおいて予め決められた形態で出力される。
最近は、半導体技術の発展により、エンタテインメント装置の性能が飛躍的に向上している。この性能向上に伴って、ディスプレイに表示される画像の種類及び量も増加している。音についても同様に、多種多様な音を同時に出力することが可能になっている。
【0003】
【発明が解決しようとする課題】
しかし、エンタテインメント装置の利用者にとって、ディスプレイに表示される多種多様な画像や、スピーカから出力される複雑な音が、必ずしも心地良いものであるとは限らない。例えばエンタテインメント装置を用いて緊迫したゲームを行う場合、利用者によっては、これらの多種多様な画像や音が、ゲームに集中する上で妨げに感じる場合もある。ゲームの場合には、利用者の感情が、その利用者の好み(嗜好)、体調、ゲーム環境などの要因に左右されるためである。
【0004】
本発明の目的は、画像、音等の情報を利用者が快適に視聴できるようにするための具体的な仕組みを提供することにある。
【0005】
【課題を解決するための手段】
本発明は、情報処理システム、情報の出力制限方法、記録媒体及びコンピュータプログラムを提供する。
【0006】
本発明の情報処理システムは、情報出力を行う出力装置との接続を可能にするインタフェース手段、情報の出力形態に対する制限要求を検知する制限要求検知手段、検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、生成された指示情報に従ってその出力形態が制限された情報を表現するための出力用データを生成するデータ生成手段、及び、生成された出力用データを前記出力装置宛に出力する出力手段を具備するものである。
「情報の出力形態」とは、例えば情報が画像であればディスプレイ等の表示装置における表示態様、情報が音であればスピーカにおける鳴動の態様(出力態様)をいう。それが「制限される」とは、ある時点における画像又は音が不要な画像要素と必要な画像要素、あるいは不要音と必要音とに区分けできる場合に、不要な画像要素又は音要素を低減させたり、不要な画像データと他の画素データとを合成したり、画像の輪郭をぼかして見えにくくしたりして、当該情報を目立たなくすること等をいう。「出力用データ」は、出力装置が情報出力のために認識可能な形態のデータであり、出力装置の種類によって異なるものである。
【0007】
データ生成手段は、その出力形態が制限された画像と音の少なくとも一方を含む情報を表現するための出力用データを生成する。ここでの処理を容易にするため、指示情報には前記出力形態の制限の程度を表す第1パラメータを含め、画像又は音にはその出力の必要性の程度を表す第2パラメータを予め割り当てておく。そして、データ生成手段で、第1パラメータと第2パラメータとの比較結果に基づいて出力用データを生成する。より具体的には、第2パラメータを予め制限対象となる画像又は音の構成要素毎にメモリに記憶しておき、指示情報の受領を契機にこのメモリから該当する構成要素についての第2パラメータを読み出し、読み出した第2パラメータにより特定される必要性の程度が第1パラメータにより特定される制限の程度よりも低い構成要素の出力を制限することにより、出力用データを生成する。
【0008】
前記指示情報が画像の出力形態を制限させるものである場合、データ生成手段は、当該画像の構成要素数の低減、個々の構成要素に割り当てられている色の変更、個々の構成要素と所定の画素データとの合成、個々の構成要素の消去、の少なくともいずれかを行うことにより、必要性の程度が前記制限の程度よりも低い構成要素の出力を制限するようにする。また、前記指示情報が音の出力形態を制限させるものである場合、データ生成手段は、出力装置から出力される音量が小さくなるように必要性の程度が前記制限の程度よりも低い音要素の出力を制限するようにする。
【0009】
本発明の情報の出力制限方法は、情報出力を行う出力装置とコンピュータとを接続し、該コンピュータに於いて、情報の出力形態に対する制限要求を検知する処理、検知した前記制限要求に応じた所定の指示情報を生成する処理、生成された指示情報に従ってその出力形態が制限された情報を表現するための出力用データを生成する処理、及び、生成された出力用データを前記出力装置宛に出力する処理を実行することを特徴とする。
本発明のコンピュータプログラムは、情報出力を行う出力装置と接続可能なコンピュータに、前記制限要求検知手段、前記指示情報生成手段、前記データ生成手段、及び、前記出力手段を構築するためのコンピュータプログラムであり、本発明の記録媒体は、このコンピュータプログラムが記録されているコンピュータ読み取り可能な記録媒体である。
【0010】
本発明の半導体デバイスは、情報出力を行う出力装置と接続可能なコンピュータに搭載されるデバイスであって、前記コンピュータの構成部品と協働で、該コンピュータ内に、前記制限要求検知手段、前記指示情報生成手段、前記データ生成手段、及び、前記出力手段を構築するものである。
【0011】
本発明は、また、以下のような第2の情報処理システム、第2の情報の出力制限方法、第2の記録媒体及び第2のコンピュータプログラムを提供する。
【0012】
第2の情報処理システムは、利用者への情報出力を行う出力装置及び利用者による操作情報を入力する入力装置との接続を可能にするインタフェース手段、所定のシナリオに従ってその内容が変化するエンタテインメント情報を生成する情報生成手段、生成されるエンタテインメント情報の出力形態に対する制限要求を前記入力装置から入力される操作情報に基づいて検知する制限要求検知手段、検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、生成された指示情報に従ってその出力形態が制限されたエンタテインメント情報を表現するための出力用データを生成するデータ生成手段、及び、生成された出力用データを前記出力装置宛に出力する出力手段を具備するものである。
エンタテインメント情報とは、例えば娯楽用の動画、静止画あるいは音に関する情報をいう。その出力形態、それが制限されることについては、前述のとおりである。
【0013】
データ生成手段は、その出力形態が制限された画像及び音の少なくとも一方を含むエンタテインメント情報を表現するための出力用データを生成するように構成される。
【0014】
制限要求検知手段は、例えば、入力装置から入力される操作情報を所定の基準情報と比較することにより前記シナリオにおける特定状態が発生したかどうかを判定し、特定状態が発生したと判定できる場合に前記制限要求を検知した旨を表す情報を出力する。
【0015】
シナリオは、例えば、利用者による移動体操作ゲームのシナリオであり、入力装置は、利用者の操作によって変化する移動体の速度、移動方向、利用者の視点又は利用者の視野の少なくとも1つを表す操作情報を入力するものである。車両によるレースゲーム等がこれに該当する。
【0016】
第2の出力制限方法は、利用者への情報出力を行う出力装置及び利用者による操作情報を入力する入力装置とコンピュータとを接続し、該コンピュータに於いて、所定のシナリオに従ってその内容が変化するエンタテインメント情報を生成する処理、生成されるエンタテインメント情報の出力形態に対する制限要求を前記入力装置から入力される操作情報に基づいて検知する処理、検知した前記制限要求に応じた所定の指示情報を生成する処理、生成された指示情報に従ってその出力形態が制限されたエンタテインメント情報を表現するための出力用データを生成する処理、及び、生成された出力用データを前記出力装置宛に出力する処理を実行することを特徴とする。
【0017】
第2のコンピュータプログラムは、利用者への情報出力を行う出力装置及び利用者による操作情報を入力する入力装置と接続可能なコンピュータに、上記の第2の情報処理システムが備える情報生成手段、制限要求検知手段、指示情報生成手段、データ生成手段、及び、出力手段を構築するためのコンピュータプログラムであり、第2の記録媒体は、このようなコンピュータプログラムが記録されている、コンピュータ読み取り可能な記録媒体である。
【0018】
第2の半導体デバイスは、利用者への情報出力を行う出力装置及び利用者による操作情報を入力する入力装置と接続可能なコンピュータに搭載されるデバイスであって、前記コンピュータの構成部品と協働で、該コンピュータ内に、上記の第2の情報処理システムが備える情報生成手段、制限要求検知手段、指示情報生成手段、データ生成手段、及び、出力手段を構築するものである。
【0019】
【発明の実施の形態】
以下、本発明を、エンタテインメント装置に適用した場合の実施形態を説明する。エンタテインメント装置は、所定のシナリオに従って画像と音の少なくとも一方を含むエンタテインメント情報を生成し、これをディスプレイやスピーカ等の出力装置に出力する情報処理システムの一つである。この実施形態では、エンタテインメント情報が、画像と音とを伴うゲームシナリオに基づくビデオゲーム情報である場合の例を挙げる。
【0020】
<エンタテインメント装置の構成>
図1は、この実施形態によるエンタテインメント装置のハードウェア構成図である。
エンタテインメント装置1は、複数の半導体デバイス及びメカニカル部品と、コンピュータプログラムとの協働によって、ビデオゲームのための処理、特に、出力形態が制限される情報の処理を行う。半導体デバイスとしては、CPU(Central Processing Unit)10、描画処理ユニット(GPU(Graphic Processing Unit))31、音声処理ユニット(SPU(Sound Processing Unit))21が挙げられる。これらは、バスBを通じて相互にデータの送受ができるようになっている。CPU10にはメインメモリ11が接続され、GPU31にはフレームメモリ32が接続され、SPU21にはサウンドメモリ22が接続されている。バスBには、また、DMAC(Direct Memory Access Controller)12、MPEG(Moving Picture Experts Group)デコーダ(MDEC)13、ROM(Read Only Memory)18のようなデバイスのほか、メディアドライブ14、入力部16、通信制御部(ATM)17のようなメカニカル部品も接続されており、これらの協働動作によって、エンタテインメント情報を利用者に提供できるようになっている。
【0021】
CPU10は、エンタテインメント装置1が搭載するOS(Operating System)とゲーム用のコンピュータプログラム(以下、「ゲームプログラム」と称する)とを実行することにより、エンタテインメント装置1内に、ゲームの実行を可能にするための環境及び種々の機能を構築する。CPU10は、また、ゲームの進行に応じて画像を描画する必要性が発生すると、複数の基本図形(ポリゴン)で構成された3次元オブジェクトデータ(ポリゴンの頂点(代表点)の座標値など)を読み出し、座標演算などの処理を行う。このような処理をジオメトリ処理という。このジオメトリ処理により、描画順にポリゴンを定義したディスプレイリストを生成する。ディスプレイリストは、描画命令と共にGPU31に送られる。
なお、以後の説明では、必要に応じて、描画の対象及びその制限の対象となるものを「オブジェクト」と称する。
【0022】
メインメモリ11は、CPU10に読み取られるゲームプログラム及び/又はデータを一時的に記録するためのRAM(Random Access Memory)である。DMAC12は、バスBに接続されている各構成要素を対象としてDMA(Direct Memory Access)転送制御を行う。MPEGデコーダ13は、CPU10と並列に動作可能なもので、MPEG方式あるいはJPEG(Joint Photographic Experts Group)方式などの方式で圧縮されたデータを伸張する。メディアドライブ14は、CD−ROM(Compact Disk Read Only Memory)やDVD−ROM(Digital Versatile Disk Read Only Memory)などの記録媒体15を離脱自在に装着するとともに、装着された記録媒体15にアクセスして、記録されているゲームプログラムやデータをメインメモリ11に読み出す。
【0023】
入力部16は、操作装置23とのインタフェースとなる接続端子19を有する。この接続端子19には、入力装置の一例となる操作装置23を接続することができる。操作装置23には複数の操作ボタンが設けられており、操作装置23はゲームを行う利用者によるボタン操作を利用者からの指示として受け付け、これを入力部16に通知する。
【0024】
ATM17は、エンタテインメント装置1が電話回線やLAN(Local Area Network)などのネットワークを介して外部装置と接続された場合、この外部装置との間でのデータ送受信を制御するインタフェースである。ROM18は、起動プログラムやOSが記録されている不揮発性のメモリである。
【0025】
SPU21は、CPU10からの命令に従って、サウンドメモリ22に記録されている音データを読み出し、合成処理を行うことによりオーディオ信号を生成する。生成されたオーディオ信号は、SPU21の出力側に備えられるインタフェース手段を介して、出力装置の一例となる専用スピーカあるいはディスプレイと一体化されたスピーカに送られる。サウンドメモリ22は、各種音データを記録している。但し、音データは、サウンドメモリ22のみに記録されている場合のほか、記録媒体15の側にも記録されていてよい。この場合、SPU21は、CPU10の指示に従って、サウンドメモリ22及び/又は記録媒体15から得た音データに対して合成処理を行う。
【0026】
GPU31は、図示しない内部メモリ領域に複数の描画コンテクスト(graphic context)を保持している。描画コンテクストとは、描画命令に応じて使用される描画設定条件をいう。GPU31は描画命令とディスプレイリストとをCPU10から受け取ると、描画命令に応じた描画コンテクストを読み出し、これを用いてフレームメモリ32にポリゴンを描画するための処理を行う。このような処理をレンダリング処理という。なお、レンダリング処理においてテクスチャマッピングを行う場合、フレームメモリ32のオフスクリーン領域に予め使用するテクスチャパターンが配置され、このテクスチャパターンが用いられる。レンダリング処理によって描画された画像は、CRTC(Cathode Ray Tube Controller)33及びコネクタ等のインタフェース手段を通じてディスプレイに出力され、表示される。
【0027】
<機能構成>
次に、エンタテインメント装置1において、CPU10がメインメモリ11又はメディアドライブ14に装着されている記録媒体15に記録されたゲームプログラムを読み出して実行することにより構築される機能と、GPU31及びSPU21が単独、あるいはCPU10との協働によって構築される機能について説明する。GPU31及びSPU21は、各々プロセッサとメモリを有する一種のコンピュータであり、当該ユニットにおいて固有となる処理については、メモリ内のプログラムをプロセッサが読み取って実行するようになっている。
ここでは、利用者が快適に画像や音を視聴できるようにするために構築される機能の例を挙げる。この機能の構成例を図2に示す。
【0028】
図2において、入力制御部111は、入力部16を介して利用者の指示の入力を受け付けるとともに、その指示の内容を解析して、ディスプレイに表示される画像の表示態様、スピーカから出力される音の出力態様に対する制限要求を検知し、その結果を指示情報生成部112、オブジェクト区別部113、音データ区別部116に通知する。指示情報生成部112は、入力制御部111から送られた解析結果に従って、画像を制御したり、音を制御するための指示情報を必要に応じて生成し、これをオブジェクト区別部113、音データ区別部116に送出する。指示情報の内容については、後述する。描画制御部114は、レンダリング処理を行うことにより、その表示態様が制限された画像を表現するための画像データを生成してディスプレイ宛に出力するものであり、音制御部117は、音データ合成処理等を行うことにより、その出力態様が制限された音を表現するための音データを生成してスピーカ宛に出力するものである。画像データはオブジェクトデータ記録部115の記録情報に基づいて生成され、音データは音データ記録部118の記録情報に基づいて生成される。
【0029】
なお、図2の機能構成は、図1のハードウエア構成との関係では、入力制御部111、指示情報生成部112、オブジェクト区別部113及び音データ区別部116が、CPU10により構築され、描画制御部114がCPU10とGPU31との協働によって構築され、音制御部117がCPU10とSPU21との協働によって構築される。オブジェクトデータ記録部115及び音データ記録部118は、メインメモリ11、サウンドメモリ22あるいは、CPU10等がアクセス可能な図示しない外部記憶装置に形成される。
【0030】
ここで、指示情報生成部112により生成される指示情報について説明する。指示情報は、表示される画像を制御するためのオブジェクト指示情報と、出力される音を制御するための音指示情報とに分類される。また、オブジェクト指示情報と音指示情報は、共に2つの種類に分類することができる。一つは、ゲームの開始時又はゲーム進行中にディスプレイに表示可能な特定の画面を介して利用者から入力された指示に従って生成される指示情報である。もう一つは、利用者の操作とゲーム進行状況との関連から判断されて生成される指示情報である。
この結果、指示情報生成部112により生成される指示情報の種類は、4種類となる。以降、特定の画面を介して利用者から入力された指示に従って生成された指示情報のうち、オブジェクト指示情報を「第1オブジェクト指示情報」、音指示情報を「第1音指示情報」と称し、利用者の操作とゲーム進行状況との関連から判断されて生成された指示情報のうち、オブジェクト指示情報を「第2オブジェクト指示情報」、音指示情報を「第2音指示情報」と称する。
【0031】
指示情報生成部112は、上述した4種類の指示情報を生成するが、第2オブジェクト指示情報と第2音指示情報を生成する際には、ゲームシナリオに基づくゲームの進行状況を判断するためのデータが必要となる。このデータはゲーム固有のものであり、ゲームが実行される際に記録媒体15から読み出され、指示情報生成部112に保持される。但し、指示情報生成部112が、判定の際に、随時、メインメモリ11や記録媒体15に保持されているデータを参照するようにしてもよい。
【0032】
オブジェクト区別部113は、入力制御部111より利用者の指示を解析した結果を受け取ると共に、指示情報生成部112より、第1オブジェクト指示情報又は第2オブジェクト指示情報を受け取る。そして、受け取った解析結果に従ってジオメトリ処理を行う。
指示情報生成部112から第1オブジェクト指示情報を受け取った場合、オブジェクト区別部113は、これから表示しようとするオブジェクトに対して表示制限の要否を判定する。その際、オブジェクトデータ記録部115に記録されているポリゴン判定テーブルを参照する。その後、判定結果に従った描画命令と共にジオメトリ処理の結果を描画制御部114に出力する。
一方、第2オブジェクト指示情報を受け取った場合、オブジェクト区別部113は、所定条件に従った判定処理を行い、この判定結果に従った描画命令と共にジオメトリ処理の結果を描画制御部114に出力する。ここでいう所定条件とは、第2オブジェクト指示情報と第2音指示情報とを生成する際に必要とされるデータと同様にゲーム固有のものである。このため、所定条件は、ゲームが実行される際に記録媒体15から読み出され、オブジェクト区別部113の図示しないメモリ領域に保持される。但し、オブジェクト区別部113が、判定の際に随時、メインメモリ11や記録媒体15に保持されている所定条件を参照するようにしてもよい。
【0033】
描画制御部114は、オブジェクト区別部113から受け取った描画命令とジオメトリ処理の結果とに従ってレンダリング処理を行う。描画命令には前述した判定結果が反映されているため、描画制御部114は、必ずしも全てのオブジェクトを利用者が明確に視認できるように描画するとは限らない。このような利用者から視認不可能な又は曖昧に視認されるようなオブジェクトのレンダリング処理の仕方については後述する。
なお、描画制御部114は、レンダリング処理を行う際、オブジェクトデータ記録部115に記録されている3次元オブジェクトデータを参照する。レンダリング処理により生成された画像データは、ビデオ出力用の信号に変換され、ビデオ出力として、CRTC33を通じてディスプレイに供給される。
【0034】
オブジェクトデータ記録部115には、オブジェクト区別部113がオブジェクトに対して表示制限の要否を判定する際に参照するポリゴン判定テーブルと、描画制御部114がレンダリング処理を行う際に参照する3次元オブジェクトデータとが記録されている。これらの記録情報は、記録媒体15に記録されているプログラムの読み込み及びこれの実行の際に、記録媒体15からオブジェクトデータ記録部115に読み込まれる。
【0035】
音データ区別部116は、入力制御部111より利用者の指示を解析した結果を受け取ると共に、指示情報生成部112より、第1音指示情報又は第2音指示情報を受け取る。音データ区別部116は、受け取った解析結果を音制御部117に出力する。また、指示情報生成部112より第1音指示情報を受け取った場合は、これから出力しようとする音要素に対して出力形態の制限の要否を判定する。その際、音データ記録部118に記録されている音要素判定テーブルを参照する。その後、判定結果に従った音出力命令と共に、入力制御部111から送られた解析結果を音制御部117に出力する。
一方、第2音指示情報を受け取った場合、音データ区別部116は、所定条件に従った判定処理を行い、この判定結果に従った音出力命令と共に、入力制御部111から送られた解析結果を音制御部117に出力する。ここでいう所定条件とは、第2オブジェクト指示情報と第2音指示情報とを生成する際に必要とされるデータと同様にゲーム固有のものである。このため、所定条件は、ゲームが実行される際に記録媒体15から読み出され、音データ区別部116に保持される。但し、音データ区別部116が、判定の際に随時、メインメモリ11や記録媒体15に保持されている所定条件を参照するようにしてもよい。
【0036】
音制御部117は、音データ区別部116から受け取った音出力命令と解析結果とに従って音データの合成を行う。音データの合成には前述した判定結果が反映されているため、必ずしも全ての音要素が聞き取れるように出力されるとは限らない。音制御部117は、音データの合成を行う際、音データ記録部118に記録されている音データを用いる。音の種類には、音声、バックミュージック、効果音などが挙げられる。合成後の音データは使用されるスピーカに対応する信号に変換され、オーディオ出力としてそのスピーカに供給される。
【0037】
音データ記録部118は、音データ区別部116が音要素に対して出力形態の制限の要否を判定する際に参照する音要素判定テーブルと、音制御部117が合成処理を行う際に参照する音データとが記録されている。これらの記録情報は、記録媒体15に記録されているプログラムの読み込み及びこれの実行の際に、記録媒体15から音データ記録部118に読み込まれる。
【0038】
(ポリゴン判定テーブル・音要素判定テーブル)
オブジェクトデータ記録部115に記録されているポリゴン判定テーブルと、音データ記録部118に記録されている音要素判定テーブルについて、より詳しく説明する。
図3は、ポリゴン判定テーブルの一例を示す。通常、一つのオブジェクトは複数のポリゴンを用いて描画される。図3では、この一つのオブジェクトについての例を示している。すなわち、このポリゴン判定テーブルに示されているN個のポリゴン(ポリゴン番号1〜N)が、1つのオブジェクトを描画する際に必要とされるポリゴンである。このテーブルには、各ポリゴンを識別するためのポリゴン番号毎に、制限の程度を表すパラメータである「描画情報」、「重要度」、「制限方法」とが記録されている。
「描画情報」には、ポリゴンの頂点座標、色、テクスチャ座標が含まれる。
「重要度」は、対応するポリゴンがゲーム進行上どれくらい重要であるかを示すパラメータ(値)である。この実施形態では、重要度が0〜100の数値で示され、重要度が高いものほど数値が大きくなるようになっている。「制限方法」は、対応するポリゴンの表示をどのように制限するかを示す情報である。同図に示されているように、「制限方法」には、「フォグ」、「カラー」、「ポリゴン数」がある。これらの制限の具体的な手法については後述する。
ポリゴン判定テーブルには、前述したようにポリゴン毎の描画情報が含まれている。このため、図3に示されるポリゴン判定テーブルは、前述した3次元オブジェクトデータを含んだテーブル形式をとっている。
ポリゴン判定テーブルの重要度は、ゲームのクリエータによってオーサリング処理されるときに、ゲームの醍醐味などを考慮した上で決定される。
【0039】
図4は、音要素判定テーブルの一例を示す。この実施形態では、ある音、例えば、効果音などを生成する場合に、複数の音データを合成する処理が必要とされる。
図4は、ある音を生成する際に必要とされる音データを音要素番号で識別し、この音要素番号毎に「重要度」と「音量」とが記録されている。ここでいう「重要度」は、対応する音要素がゲーム進行上どれくらい重要であるかを表すパラメータ(値)である。前述のポリゴンの場合と同様に、重要度が0〜100の数値で表され、重要度が高いものほど数値が大きくなるようになっている。「音量」は、対応する音要素を出力する際にどれだけの音量で出力するのかを表すパラメータである。「音量」は、0〜100の数値で示され、0が最小音量、100が最大音量を示す。
音要素判定テーブルの重要度は、ゲームのクリエータによってオーサリング処理されるときに、ゲームの醍醐味などを考慮した上で決定される。
【0040】
<画像・音制御動作1>
次に、エンタテインメント装置1において利用者からの指示に応じて、表示される画像や出力される音を制御するための処理手順を説明する。図5は、利用者からの指示を受け付けてから、実際に画像や音を制御するまでの処理手順を説明するための図である。
まず、エンタテインメント装置1のメディアドライブ14に所望のゲームプログラム(各種データを含む)が記録されている記録媒体15が装着され、電源が投入されると所定のスタート画面がディスプレイに表示される。このスタート画面には、ゲームの開始を指示するための選択肢や、ゲーム進行における各種設定を行うオプション設定のための選択肢などが表示される。この複数の選択肢の中からオプション設定のための選択肢が選択され、更に、画像や音を制御するための選択肢が選択されると、図6に示されるようなメニュー画面が表示される(ステップS101)。
なお、このメニュー画面は、エンタテインメント装置1の電源投入に応じてのみ表示されるのではなく、利用者が操作装置23を所定の手順で操作することによって、ゲーム進行中であっても表示される。
【0041】
利用者は、このメニュー画面を参照しながら操作装置23を操作することにより、画像の制限のオン/オフ(YES/NO)、音の制限のオン/オフ(YES/NO)の指示を行うことができる(ステップS102)。更に、利用者は、画像と音の制限量を、それぞれに対応して表示されているゲージのポインタを移動させることによって指示することができる。全ての指示が完了すると、利用者は、メニュー画面右下に表示されている「OK」を選択する。
【0042】
利用者により「OK」が選択されると、入力制御部111は、利用者がメニュー画面を参照して行った指示を入力部16を介して受け取る。入力制御部111は、メニュー画面に従って入力された指示の内容を解析する(ステップS103)。ここで、入力制御部111は、入力した指示が画像また音の少なくとも一方を制御するための指示である場合、解析結果を指示情報生成部112に通知する(ステップS104:YES)。これと共に、ゲームを進行させるため、次の画面を表示させるための処理を行う。なお、入力制御部111は、入力された指示の内容が、画像及び音のいずれも制限しない旨の指示である場合、解析結果を指示情報生成部112には通知しない(ステップS104:NO)。
指示内容が画像又は音の少なくとも一方を制御する指示である場合(ステップS104:YES)、指示情報生成部112は、制限対象に応じて第1オブジェクト指示情報又は第1音指示情報の少なくとも一方を生成する(ステップS105)。なお、以下の説明では、第1オブジェクト指示情報と第1音指示情報とが共に生成されたものとする。指示情報生成部112は、入力制御部111からの解析結果に従って、制御対象に対応するゲージ上でポインタが示す値を、0〜100の値で表される重要度に変換し、これらを第1オブジェクト指示情報と第1音指示情報として出力する。
【0043】
具体的には、画像の制限が指示されている場合、指示情報生成部112は、解析結果に従って画像に対応するゲージ上でポインタの示す値を、0〜100の重要度に変換する。この重要度は、第1オブジェクト指示情報としてオブジェクト区別部113に送られる。指示情報生成部112は、音の制限が指示されている場合、解析結果に従って音に対応するゲージ上でポインタの示す値を、0〜100の重要度に変換する。この重要度は、第1音指示情報として音データ区別部116に送られる。
この後、第1オブジェクト指示情報を受け取ったオブジェクト区別部113、及び/又は、第1音指示情報を受け取った音データ区別部116において、制限判定処理が行われる(ステップS106)。
【0044】
オブジェクト区別部113は、第1オブジェクト指示情報を受け取った場合、表示されるオブジェクト毎にそのオブジェクトを表示するために必要なポリゴンの表示制限の要否を判定する。この際、オブジェクトデータ記録部115に記録されているポリゴン判定テーブルが参照される。オブジェクト区別部113は、第1オブジェクト指示情報より高い数値の重要度に対応するポリゴンは表示し、それ以外は、そのポリゴンに対応する制限方法に従って表示を制限すると判定する。判定結果は、描画制御部114に送られる。
例えば、第1オブジェクト指示情報が70を示す場合、オブジェクト区別部113は、図3に示されるオブジェクトにおいては、ポリゴン番号2とポリゴン番号3のポリゴンのみを通常に表示させ、それ以外のポリゴンは対応する制限方法に従って表示制限を行うと判定する。但し、ポリゴン番号5〜N−1までの重要度は図示されていないが、いずれも70未満と仮定する。
【0045】
音データ区別部116は、第1音指示情報を受け取った場合、出力される音毎にその音を出力するために必要な音要素の出力形態の制限の要否を判定する。この際、音データ記録部118に記録されている音要素判定テーブルが参照される。音データ区別部116は、第1音指示情報より高い数値の重要度に対応する音要素は通常に出力し、それ以外は対応する音量に従って出力形態の制限をすることを判定する。判定結果は、音制御部117に送られる。
例えば、第1音指示情報が70を示す場合、音データ区別部116は、図4に示される音においては、音要素番号2と音要素番号Mの音要素のみを通常に出力させ、それ以外の音要素についてはそれぞれ対応する音量にしたがって出力制御すると判定する。但し、音要素番号4〜M−1までの重要度は図示されていないが、いずれも70未満とする。
このような制限判定が行われた後、画像の表示と音の出力が、描画制御部114と音制御部117により行われる(ステップS107)。
【0046】
描画制御部114は、オブジェクトデータ記録部115に記録されている描画情報(3次元オブジェクトデータ)を用いてレンダリング処理を行う。その際、オブジェクト区別部113から送られた判定結果に従って、ポリゴンの表示制限を行う。
表示制限は、上述したポリゴン判定テーブルに記録された方法により行われる。レンダリング処理により生成されたデータは、ビデオ出力用の信号に変換され、CRTC33を通じてディスプレイに供給される。
音制御部117は、音データ記録部118に記録されている音データの合成を行う。その際、音データ区別部116から送られた判定結果に従って、音出力の制限を行う。この場合の制限は、音要素判定テーブルに記録された「音量」に従って、通常の出力されるべき音量より小さくなるように制御する。合成された音データは、スピーカに供給される。
【0047】
以上の処理により、利用者からの指示に応じて、表示される画像や出力される音が制限される。これにより、利用者は、自分の好みや体調に応じて表示される画像や出力される音を制御することでき、快適にゲームを楽しむことができる。
【0048】
なお、オブジェクト区別部113及び音データ区別部116において判定された結果は、ゲーム進行中は継続して有効となる。これを変更するには、前述したように、利用者が操作装置23を所定の手順で操作してメニュー画面を表示させ、このメニュー画面を介して指示をする必要がある。
【0049】
<画像出力形態の制限方法の具体例>
次に、オブジェクト(画像)の出力形態を制限する手法をいくつか説明する。
(1)ポリゴン数制御
オブジェクトを構成するポリゴン数を制限する。前述したように、一つのオブジェクトは複数種類のポリゴンで構成される。このため、ある条件を満たすポリゴンについては、それを描画しないように制御することにより、オブジェクトを構成する全ポリゴン数を減少させる。
(2)カラー変更
オブジェクトに付される色を変更する。オブジェクトに設定されている色を、例えばそのオブジェクトが表示される位置の周辺の色や背景の色と同系色に変更する。また、オブジェクトの輪郭を不鮮明にぼかすようにしてもよい。この場合、表示されたオブジェクトは、利用者からの焦点深度が浅くなり、利用者はオブジェクトに焦点が合っていないように感じるという効果がある。
(3)フォグ
描画されるオブジェクトにフォグ(fog)をかける。対象となるオブジェクトの描画領域にフォグとなるオブジェクトを描画する。また、予め対象となるオブジェクトとフォグとなるオブジェクトとを合成し、これを描画する。フォグとなるオブジェクトの色や透過率を変化させることにより、表示される対象オブジェクトを利用者から視認不能にすることができる。
(4)表示せず
オブジェクト自体を全く描画せず、これにより画面上に全く表示されないようにする。
以上、これらの画像制限方法によりディスプレイに表示されるオブジェクトが、利用者にとってぼやけて見えたり、認識不能となる。
【0050】
<画像・音制御動作2>
次に、利用者の操作とゲーム進行の状況との関連からエンタテインメント装置1が、表示される画像や出力される音を制御するための処理手順を説明する。図7は、この処理手順を説明するための図である。
指示情報生成部112は、ゲームが開始されると、利用者の操作とゲーム進行の状況を随時監視する(ステップS201)。指示情報生成部112は、監視中に特定の状態が発生したと判定すると、第2オブジェクト指示情報及び/又は第2音指示情報を生成する(ステップS202)。
【0051】
ゲームが、利用者による移動体操作ゲーム、例えば利用者が車を運転するレースゲームである場合、指示情報生成部112は、入力される操作装置23の操作状況に基づいて、移動体である車の現在の速度、移動方向、ディスプレイに表示されている利用者の視野、視点などの要素を監視する。これらの要素が所定の条件を満足した場合に、前述の特定状態の発生と判断される。従って、監視される要素や、特定状態は、ゲーム固有のものである。指示情報生成部112は、発生した特定状態を示す第2オブジェクト指示情報及び/又は第2音指示情報を生成する。但し、情報生成は特定状態に基づいているため、必ずしも第2オブジェクト指示情報と第2音指示情報とが共に生成されるとは限らない。なお、以下の説明では、第2オブジェクト指示情報と第2音指示情報とが共に生成されたものとする。
【0052】
生成された第2オブジェクト指示情報はオブジェクト区別部113に、第2音指示情報は音データ区別部116に送られ、それぞれにおいて制限要求を検知したかどうかを判定する制限判定処理が行われる(ステップS203)。
オブジェクト区別部113は、第2オブジェクト指示情報を受け取ると、この第2オブジェクト指示情報に示される特定状態に応じ、予め保持している所定条件に従ってオブジェクト毎に表示制限の要否を判定する。更に、オブジェクト区別部113は、表示制限する必要があると判定されたオブジェクトに対して、オブジェクトデータ記録部115に記録されているポリゴン判定テーブルを参照していずれのポリゴンを制限するのかを判定する。例えば、表示制御対象であるオブジェクトを構成するポリゴンが図3に示されるものである場合、オブジェクト区別部113は、基準重要度を80とし、各ポリゴンの重要度と比較して表示制御の要否を判定する。判定結果は、描画制御部114に送られる。
なお、このような所定条件に従った制限要否の判定、及びその結果の具体例は後にレースゲームでの俯瞰図を参照して説明する。
【0053】
音データ区別部116は、第2音指示情報を受け取ると、この第2音指示情報に示される特定状態に応じ、予め保持している所定条件に従って音要素毎に出力形態の制限の要否を判定する。例えば、出力制御対象である音を構成する音要素が図4に示されるものである場合、音データ区別部116は、基準重要度を80とし、各音要素の重要度と比較して出力制御の要否を判定する。判定結果は、音制御部117に送られる。
描画制御部114は、オブジェクト区別部113から送られた判定結果に従って画像の表示を制限するための処理を、音制御部117は、音データ区別部116から送られた判定結果に従って音の出力を制限するための処理を行う(ステップS204)。この処理は、前述した図5のステップS107の処理と同様であるので説明は省略する。
以上の処理により利用者の操作とゲーム進行状況との関係に従って表示される画像や出力される音が制限される。これにより利用者は、快適にゲームを楽しむことができる。
【0054】
次に、図5又は図7に示される手順に従って制限処理がなされた場合の画面例を説明する。
図8は、上記のレースゲームの一場面である。この画面には、レースコースである道路201が画面中心に下部から上方に伸びるように表示されている。この道路201沿いには、建築物202a〜202hが、更に、その外側に樹木203a〜203fが位置するように表示されている。また、画面上部には背景の一部として山並み204a、204bが表示されている。このような図8に示される画面は、指示情報生成部112によりいずれの指示情報も生成されていない場合にディスプレイに表示される画面である。なお、道路201、建築物202a〜202h、樹木203a〜203f、及び山並み204a、204bはそれぞれをオブジェクトとして定義することができる。
しかし、図5又は図7に示される手順に従って制限処理がなされた場合、ディスプレイには本来図8に示されるような画面が表示されるはずだが、図9に示されるような画面が表示される。
【0055】
図9では、道路201の中央を示すセンターラインの色が変更されている。これは、前述したカラー変更により道路201の他の部分と同じ色に変更されている。建築物202a〜202gは、道路201に沿った面に位置する窓が横方向につながっており、道路201の方向と垂直な面に位置する窓が無くなっている。これは、ポリゴン数制御、カラー変更及びフォグを組み合わせて行われた処理の結果である。建築物202hは、フォグにより消されている。樹木203a〜203fは、ポリゴン数制御により簡素化したものが表示されている。山並み204aは、カラー変更により輪郭がぼやけるように表示されている。
【0056】
このように、この実施形態のエンタテインメント装置1によれば、利用者が快適に画像を視認したり、音を聞き取ることが可能となる。
【0057】
ここで、このエンタテインメント装置1による情報の出力制限の手法の理解を容易にするため、具体例をいくつか紹介する。
<具体例1>
図10は、レースゲームの一場面のコースを上から見たところである。道路201を中心に建物(四角)と樹木(円)のオブジェクトが存在する。四角又は円内の数値は、各オブジェクトの重要度を示す値である。これらの数値はゲームのクリエータによって設定されている値である。
ここで、利用者から画像制限の指示がなされ、前述した図5に示される手順に従った処理がなされた場合に表示されるオブジェクトは図11に示されるようになる。ここでは、利用者からの指示を重要度に変換すると75という数値になった場合を示している。すなわち、重要度が75を越えるオブジェクトのみが表示されている。
以上は、利用者からの指示に従って表示される画像を制御した具体例である。
【0058】
<具体例2>
図12は、図10と同様の場面を示している。ここでは、利用者の視点が2本の矢印の交点で示されている。また、四角又は円内の数値は、利用者の視点からオブジェクトまでの距離を相対的に示す数値である。
ここで、ゲーム進行中に指示情報生成部112が特定状態の発生を検出した場合を想定する。特に、利用者の操作する車の速度が所定の速度以下になったため、指示情報生成部112が特定状態の発生と判断した場合を仮定する。これにより前述した図7に示される手順に従って処理がなされた場合に表示されるオブジェクトは、図13に示されるようになる。手順に従った処理においては、オブジェクト区別部113が、特定状態の発生(車速が遅い)に応じて、所定条件に従って各オブジェクトの表示判定を行っている。また、この所定条件とは、視点からの距離が1.8より近いオブジェクトのみを表示させるというものである。なお、道路201は常に視点からの距離が0であると仮定され、視点の位置にかかわらず表示される。以上は、利用者の操作とゲーム進行状況との関係に従って表示される画像が制御された具体例である。
【0059】
<具体例3>
図14は、具体例1と具体例2とを組み合わせた場合を説明するための図面である。すなわち、利用者からの指示に従って表示される画像を制御すると共に、利用者の操作とゲーム進行状況との関係に従っても画像を制御している状態を示す図面である。
同図では、重要度が75を越えて、且つ、視点からの距離が1.8より近いオブジェクトのみが表示される状態を示している。
【0060】
<具体例4>
図15は、図10〜図14と同様にコースを上から見た場合の図面である。ここでは、ゲーム進行中に指示情報生成部112が特定状態として車速が所定の増加率で増した場合を検出し、検出された特定状態に従って画像が制御された場合が示されている。オブジェクト区別部113は、この特定状態の検出に応じ、所定条件に従って画像の表示を制御している。所定条件は、視点からの距離1.0から2.0までに位置するオブジェクトのみを表示させるというものである。このような画像制限により、視点に近すぎるオブジェクトの表示を避けることができる。通常、利用者は、スピードが速いときに視点から近いオブジェクトが表示されると遠くの様子を知る障害になる。従って、このような利用者にとっての不都合を解消することができ、利用者に対して快適な操作環境を提供することができる。なお、この具体例4における画像制限方法には、オブジェクト自体を描画しない方法やフォグを適用することができる。
【0061】
<具体例5>
図16は、図11において表示されないオブジェクトにフォグをかけることにより目立たなくした例を示している。四角又は円内には、0〜3までの数値で重要度が示されている。ここでは、数値の小さい方を重要度が高いと仮定する。
フォグはオブジェクト本来の色とフォグカラーの混ぜ合わせにより行われる。図16では一種類の混ぜ合わせしかないように描かれているが混ぜ合わせ係数を重要度と制限指数の差に応じて変化させれば連続的にフォグの濃さを変えることができる。
下の式は、混ぜ合わせ係数を変化させるための計算式の一例である。
Alpha = ( Importance − Limitation ) / Depth
if ( Alpha > 1) Alpha = 1
if ( Alpha < 0) Alpha = 0
COL = COLfog*Alpha + COLobj*( 1 − Alpha )
Alpha:α値(不透明度)
Importance:オブジェクトに付された重要度
Limitation:利用者から指示された制限度合いを0〜3の数値に変換した値
Depth:フォグがかかり始めるところからオブジェクトが見えなくなるところまでの指数の差
COLfog:フォグに付されている色(色分解値)
COLobj:オブジェクトに付されている色(色分解値)
0<Alpha<1のときは、そのままの数値を用いてCOLが計算される。
ImportanceがLimitationより小さいときは、COL=COLobj、Limitation+Depthより大きいときは、COL=COLfog、中間ではCOLfogとCOLobjとが混ぜ合わされた色になる。
【0062】
<具体例6>
図17は、具体例5と同様の処理を、利用者の視点からの距離について行った結果を示す図である。この場合、視点から遠くに位置するオブジェクトほどフォグの比率が高まり、目立たなくなる。
【0063】
<具体例7>
図18及び図19は、カラー変更により画像を制限する具体例を説明するための図面である。図18はカラールックアップテーブルを示し、図19は画面に表示されているオブジェクト1とオブジェクト2、及び、各オブジェクトに割り当てられている色番号と背景に割り当てられている色番号が示されている。
すなわち、この画面に示され得るオブジェクトと背景は、割り当てられた色番号からそれに対応するRGB値に変換され、そのRGB値に従ってレンダリング処理が行われる。例えば、オブジェクト1とオブジェクト2の一部にそれぞれ割り当てられた0番は(0,0,0)(黒)、1番は(0,0,255)(青)である。
そこで、オブジェクトに割り当てられた色を下記の式に従って変更する。
Alpha = ( Distance 1 − Distance 2 ) / Depth
if ( Alpha > 1) Alpha = 1
if ( Alpha < 0) Alpha = 0
COL = COLfog*Alpha + COLobj*( 1 − Alpha )
Distance 1:視点からオブジェクトまでの距離
Distance 2:視点からフォグがかかりはじめる点までの距離
他の変数は、具体例5で参照したものと同様。
オブジェクト1は色番号0〜5までの色が割り当てられている。また、オブジェクト1の背景に割り当てられた色番号は6である。そこで上の式にしたがって0〜5までのカラーを変更する。例えば0番の色(0,0,0)をCOLobj、6番の色をCOLbg、Distance 1は2.5、Distance 2は1.8、深さは1.0とすると
Alpha = ( 2.5 − 1.8 ) / 1.0 = 0.7
if ( Alpha > 1) Alpha = 1
if ( Alpha < 0) Alpha = 0
COL = (0,0,255)*0.7 + (0,0,0)( 1 − 0.7 ) = (0,0,178)
となる。同様に色番号1番から5番のカラーも変更するとオブジェクト1は背景の色と距離に応じた近さになり、目立たなくなる。またオブジェクト2を描画するときはその距離に応じて色番号0番から3番を変更する。またオブジェクトが別の背景の上にあるときはその背景の色を使って上記の計算をすればよい。
【0064】
このようないくつかの具体例を用いることにより、多様な画像制限が可能となる。
なお、フォグとカラー変更を組み合わせるなどの、複数の制限方法を組み合わせて一つのフォグを目立たなくすることもできる。
また、具体例3と具体例4では車速に応じた画像制御について説明したが、音に対しても制限することもできる。例えば、車速が遅い場合にはバックミュージックや風景に関する音を大きくし、車速が早くなった場合にはエンジン音を大きくするように制御することも可能である。
【0065】
この実施形態では4種類の指示情報を指示情報生成部112が生成しているが、必要に応じていずれか1つまたは複数の指示情報に制限することもできる。
また、各ポリゴンの制限方法を利用者が設定するようにしてもよい。但し、その場合には遊技の遊興性を損なわない程度に利用者の指示を受け付けるようにすることが必要となる。また、各制限方法は、ポリゴン判定テーブルで特定せずに、フローチャートなどを用いてアルゴリズミックに選択するようにしてもよい。図5及び/又は図7に示されている処理は、ネットワークを介してダウンロードしたゲームプログラムをCPU10等において実行することによっても実現可能である。
【0066】
また、以上は、エンタテインメント装置を例に挙げて、その構成例、動作例、その使用例について説明したが、本発明の情報処理システムは、この実施形態の例に限定されるものではない。エンタテインメント装置以外の電子機器、装置、コンピュータシステムにも同様に適用できるものである。個人ユースの映像再生機のような、ゲームとは無関係の装置にも適用可能であるが、但し、このような装置に適用した場合、上記の特定状態は、利用者の操作とゲーム進行状況から判断されるのではなく、提供される映像、音楽、シナリオの進行状況に従って判断されることになる。
【0067】
また、この実施形態では、図2に示された機能ブロックのうち、情報処理に関する主たる機能は、CPU10、SPU21及びGPU31のような半導体デバイスと、これらに読み込まれるコンピュータプログラムとにより実現されているが、これらの機能を全て有する1チップの半導体デバイスで実現することもできる。この場合、コンピュータプログラムは、当該チップに搭載されるメモリに事前に記録されているものであってもよく、事後的に当該メモリに記録されるようなものであってもよい。
また、上記の機能を汎用のコンピュータにおいて実現することもできる。この場合は、そのコンピュータが読み取り可能な記録媒体に、上記の機能を実現するためのコンピュータプログラムを記録しておき、システム構築時にこのコンピュータプログラムを、そのコンピュータにインストールするようにすればよい。また、このようなコンピュータプログラムをネットワークを通じてコンピュータにダウンロードするようにしてもよい。
【0068】
【発明の効果】
以上説明したように、この発明によれば、利用者が快適に情報を視聴することができる情報処理システム及びそれを実現するための物を提供することができる。
【図面の簡単な説明】
【図1】この発明の実施形態であるエンタテインメント装置のハードウェア構成を示すブロック図。
【図2】この実施形態における画像・音制御に係る機能構成を示す機能ブロック図。
【図3】この実施形態におけるポリゴン判定テーブルの一例を示す図。
【図4】この実施形態における音要素判定テーブルの一例を示す図。
【図5】利用者からの指示を受け付けてから、実際に画像や音を制御するまでの処理手順を説明するための図。
【図6】利用者からの指示を受け付けるためのメニュー画面の一例を示す図。
【図7】利用者の操作とゲーム進行の状況との関連から表示される画像や出力される音を制御するための処理手順を説明するための図。
【図8】画像制御が行われない状態でディスプレイに表示される画面例を示す図。
【図9】画像制御が行われた状態でディスプレイに表示される画面例を示す図。
【図10】レースゲームの一場面のコースを上から見た図。
【図11】図10において重要度に従って画像制限がなされた場合を示す図。
【図12】図10と同様の画面を利用者の視点からの距離を表すようにした図。
【図13】図12において、視点からの距離に従って画像制限がなされた場合を示す図。
【図14】図10において、重要度と視点からの距離とに従って画像制限がなされた場合を示す図。
【図15】図10において、特定状態の発生に応じて画像制限がなされた場合を示す図。
【図16】図11において表示されないオブジェクトをフォグをかけることにより目立たなくした場合を示す図。
【図17】図13において表示されないオブジェクトをフォグをかけることにより目立たなくした場合を示す図。
【図18】カラールックアップテーブルの一例を示す図。
【図19】カラー変更により画像を制限する際の処理を説明するための図。
【符号の説明】
10 CPU
11 メインメモリ
12 DMAC
13 MDEC
14 メディアドライブ
15 記録媒体
16 入力部
17 ATM
18 ROM
19 接続端子
21 SPU
22 サウンドメモリ
23 操作装置
31 GPU
32 フレームメモリ
33 CRTC
111 入力制御部
112 指示情報生成部
113 オブジェクト区別部
114 描画制御部
115 オブジェクトデータ記録部
116 音データ区別部
117 音制御部
118 音データ記録部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing system that generates information representing an image displayed on a display or sound output from a speaker and provides the information to a user. In particular, the present invention relates to a mechanism for limiting the output form of information provided to a user.
[0002]
[Prior art]
There is known an entertainment apparatus that generates information representing an image or sound and provides the information to a user. In the entertainment apparatus, an image is displayed on a display as a predetermined scenario progresses, and a sound is produced by sounding a speaker. Normally, images and sounds are output in a predetermined format in the scenario.
Recently, with the development of semiconductor technology, the performance of entertainment devices has been dramatically improved. With this performance improvement, the types and amounts of images displayed on the display are also increasing. Similarly, it is possible to output a wide variety of sounds at the same time.
[0003]
[Problems to be solved by the invention]
However, for users of entertainment devices, various images displayed on the display and complex sounds output from the speakers are not always comfortable. For example, when playing an intense game using an entertainment device, depending on the user, these various images and sounds may feel disturbed when concentrating on the game. This is because in the case of a game, the user's emotions depend on factors such as the user's preference (preference), physical condition, and game environment.
[0004]
An object of the present invention is to provide a specific mechanism for enabling a user to comfortably view information such as images and sounds.
[0005]
[Means for Solving the Problems]
The present invention provides an information processing system, an information output restriction method, a recording medium, and a computer program.
[0006]
An information processing system according to the present invention includes an interface unit that enables connection with an output device that outputs information, a restriction request detection unit that detects a restriction request for an information output form, and a predetermined instruction according to the detected restriction request Instruction information generating means for generating information, data generating means for generating output data for expressing information whose output form is limited in accordance with the generated instruction information, and the generated output data for the output device Output means for outputting to the destination.
The “information output form” means, for example, a display mode on a display device such as a display if the information is an image, and a ringing mode (output mode) on the speaker if the information is sound. “Restricted” means that an unnecessary image element or sound element is reduced when an image or sound at a certain point in time can be divided into an unnecessary image element and a necessary image element, or an unnecessary sound and a necessary sound. Or combining unnecessary image data with other pixel data, or blurring the outline of the image to make it difficult to see, thereby making the information inconspicuous. “Output data” is data in a form that can be recognized by the output device for outputting information, and varies depending on the type of the output device.
[0007]
The data generation means generates output data for expressing information including at least one of an image and a sound whose output form is limited. In order to facilitate the processing here, the instruction information includes a first parameter indicating the degree of restriction of the output form, and a second parameter indicating the degree of necessity of the output is assigned to the image or sound in advance. deep. Then, the data generation means generates output data based on the comparison result between the first parameter and the second parameter. More specifically, the second parameter is stored in advance in the memory for each component of the image or sound to be restricted, and when the instruction information is received, the second parameter for the corresponding component is stored from this memory. The data for output is generated by limiting the output of the constituent elements that are read and the degree of necessity specified by the read second parameter is lower than the limit specified by the first parameter.
[0008]
When the instruction information restricts the output form of the image, the data generation means reduces the number of components of the image, changes the color assigned to each component, By combining with pixel data and / or erasing individual components, the output of components whose degree of necessity is lower than the limit is limited. Further, when the instruction information restricts the output form of the sound, the data generation means is a sound element whose degree of necessity is lower than the degree of restriction so that the volume output from the output device is reduced. Try to limit the output.
[0009]
In the information output restriction method of the present invention, an output device for outputting information is connected to a computer, and in the computer, a process for detecting a restriction request for an information output form, and a predetermined response according to the detected restriction request. Generating the instruction information, generating the output data for expressing the information whose output form is limited according to the generated instruction information, and outputting the generated output data to the output device The process which performs is performed.
The computer program of the present invention is a computer program for constructing the restriction request detection means, the instruction information generation means, the data generation means, and the output means in a computer connectable to an output device that outputs information. The recording medium of the present invention is a computer-readable recording medium on which the computer program is recorded.
[0010]
The semiconductor device of the present invention is a device mounted on a computer connectable to an output device that outputs information, and in cooperation with the components of the computer, the restriction request detecting means, the instruction The information generating means, the data generating means, and the output means are constructed.
[0011]
The present invention also provides the following second information processing system, second information output restriction method, second recording medium, and second computer program.
[0012]
The second information processing system includes an output device that outputs information to a user, interface means that enables connection with an input device that inputs operation information by the user, and entertainment information whose contents change according to a predetermined scenario. Information generating means for generating a restriction request detecting means for detecting a restriction request for the output form of the generated entertainment information based on operation information input from the input device, and predetermined instruction information corresponding to the detected restriction request Information generating means for generating output data, data generating means for generating output data for representing entertainment information whose output form is limited in accordance with the generated instruction information, and the output device for generating the generated output data Output means for outputting to the destination.
Entertainment information refers to, for example, information relating to entertainment videos, still images, or sounds. The output form and its limitation are as described above.
[0013]
The data generation means is configured to generate output data for expressing entertainment information including at least one of an image and a sound whose output form is limited.
[0014]
For example, the restriction request detection unit determines whether or not a specific state in the scenario has occurred by comparing operation information input from the input device with predetermined reference information, and can determine that the specific state has occurred. Information indicating that the restriction request has been detected is output.
[0015]
The scenario is, for example, a scenario of a moving body operation game by a user, and the input device displays at least one of the speed of the moving body, the moving direction, the user's viewpoint, or the user's field of view that changes according to the user's operation. The operation information to be input is input. This applies to racing games using vehicles.
[0016]
In the second output restriction method, an output device for outputting information to a user and an input device for inputting operation information by the user are connected to a computer, and the contents of the computer change according to a predetermined scenario. Processing for generating entertainment information to be generated, processing for detecting a restriction request for an output form of the generated entertainment information based on operation information input from the input device, and generation of predetermined instruction information corresponding to the detected restriction request A process of generating output data for expressing entertainment information whose output form is limited according to the generated instruction information, and a process of outputting the generated output data to the output device It is characterized by doing.
[0017]
The second computer program includes an information generation means provided in the second information processing system, a restriction on a computer connectable to an output device for outputting information to a user and an input device for inputting operation information by the user. A computer program for constructing request detection means, instruction information generation means, data generation means, and output means, and the second recording medium is a computer-readable record in which such a computer program is recorded It is a medium.
[0018]
The second semiconductor device is a device mounted on a computer that can be connected to an output device that outputs information to a user and an input device that inputs operation information by the user, and cooperates with components of the computer. Thus, information generating means, restriction request detecting means, instruction information generating means, data generating means, and output means included in the second information processing system are constructed in the computer.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment when the present invention is applied to an entertainment device will be described. An entertainment device is one of information processing systems that generates entertainment information including at least one of an image and sound according to a predetermined scenario, and outputs this to an output device such as a display or a speaker. In this embodiment, an example is given in which the entertainment information is video game information based on a game scenario involving images and sounds.
[0020]
<Configuration of entertainment device>
FIG. 1 is a hardware configuration diagram of an entertainment apparatus according to this embodiment.
The
[0021]
The
In the following description, a drawing target and a restriction target are referred to as an “object” as necessary.
[0022]
The main memory 11 is a RAM (Random Access Memory) for temporarily recording a game program and / or data read by the
[0023]
The
[0024]
The
[0025]
The
[0026]
The
[0027]
<Functional configuration>
Next, in the
Here, examples of functions constructed to allow the user to comfortably view images and sounds will be given. A configuration example of this function is shown in FIG.
[0028]
In FIG. 2, the input control unit 111 receives an input of a user instruction via the
[0029]
2 is related to the hardware configuration of FIG. 1, the input control unit 111, the instruction
[0030]
Here, the instruction information generated by the instruction
As a result, there are four types of instruction information generated by the instruction
[0031]
The instruction
[0032]
The
When the first object instruction information is received from the instruction
On the other hand, when the second object instruction information is received, the
[0033]
The
The
[0034]
The object
[0035]
The sound
On the other hand, when the second sound instruction information is received, the sound
[0036]
The
[0037]
The sound
[0038]
(Polygon determination table / sound element determination table)
The polygon determination table recorded in the object
FIG. 3 shows an example of the polygon determination table. Usually, one object is drawn using a plurality of polygons. FIG. 3 shows an example of this one object. That is, the N polygons (
The “drawing information” includes polygon vertex coordinates, color, and texture coordinates.
The “importance” is a parameter (value) indicating how important the corresponding polygon is in the progress of the game. In this embodiment, the importance is indicated by a numerical value of 0 to 100, and the higher the importance, the larger the numerical value. The “restriction method” is information indicating how to limit the display of the corresponding polygon. As shown in the figure, the “limit method” includes “fog”, “color”, and “number of polygons”. Specific methods for these restrictions will be described later.
As described above, the polygon determination table includes drawing information for each polygon. For this reason, the polygon determination table shown in FIG. 3 has a table format including the aforementioned three-dimensional object data.
The degree of importance of the polygon determination table is determined in consideration of the taste of the game when the authoring process is performed by the game creator.
[0039]
FIG. 4 shows an example of a sound element determination table. In this embodiment, when generating a certain sound, for example, a sound effect, a process for synthesizing a plurality of sound data is required.
In FIG. 4, sound data necessary for generating a certain sound is identified by a sound element number, and “importance” and “volume” are recorded for each sound element number. The “importance” here is a parameter (value) indicating how important the corresponding sound element is in the progress of the game. As in the case of the polygon described above, the importance is represented by a numerical value of 0 to 100, and the higher the importance, the larger the numerical value. “Volume” is a parameter indicating how much sound is output when a corresponding sound element is output. “Volume” is indicated by a numerical value of 0 to 100, with 0 indicating the minimum volume and 100 indicating the maximum volume.
The importance of the sound element determination table is determined in consideration of the best of the game when the authoring process is performed by the game creator.
[0040]
<Image /
Next, a processing procedure for controlling the displayed image and the output sound in response to an instruction from the user in the
First, when a
This menu screen is not displayed only when the
[0041]
The user operates the
[0042]
When “OK” is selected by the user, the input control unit 111 receives an instruction given by the user with reference to the menu screen via the
When the instruction content is an instruction to control at least one of the image and the sound (step S104: YES), the instruction
[0043]
Specifically, when the restriction on the image is instructed, the instruction
Thereafter, a restriction determination process is performed in the
[0044]
When the
For example, when the first object instruction information indicates 70, the
[0045]
When the sound
For example, when the first sound instruction information indicates 70, the sound
After such restriction determination is performed, image display and sound output are performed by the
[0046]
The
The display restriction is performed by the method recorded in the polygon determination table described above. Data generated by the rendering process is converted into a video output signal and supplied to the display through the
The
[0047]
With the above processing, the displayed image and the output sound are limited in accordance with an instruction from the user. Thereby, the user can control the displayed image and the output sound according to his / her preference and physical condition, and can enjoy the game comfortably.
[0048]
Note that the results determined by the
[0049]
<Specific example of image output mode restriction method>
Next, some techniques for limiting the output form of an object (image) will be described.
(1) Polygon number control
Limit the number of polygons that make up an object. As described above, one object is composed of a plurality of types of polygons. For this reason, the polygons that satisfy a certain condition are controlled not to be drawn, thereby reducing the total number of polygons constituting the object.
(2) Color change
Change the color attached to the object. For example, the color set for the object is changed to a color similar to the color around the position where the object is displayed or the background color. The outline of the object may be blurred. In this case, the displayed object has a shallow depth of focus from the user, and the user feels as if the object is out of focus.
(3) Fog
Apply fog to the object to be drawn. The fog object is drawn in the drawing area of the target object. In addition, a target object and a fog object are synthesized in advance and drawn. By changing the color and transmittance of the fog object, the target object to be displayed can be made invisible to the user.
(4) Not displayed
The object itself is not drawn at all, thereby preventing it from being displayed on the screen at all.
As described above, the objects displayed on the display by these image restriction methods appear blurred or unrecognizable to the user.
[0050]
<Image /
Next, the processing procedure for the
When the game is started, the instruction
[0051]
When the game is a moving body operation game by the user, for example, a racing game in which the user drives a car, the instruction
[0052]
The generated second object instruction information is sent to the
When the
Note that the determination of necessity of restriction according to such a predetermined condition and a specific example of the result will be described later with reference to an overhead view in a racing game.
[0053]
When the sound
The
With the above processing, the displayed image and the output sound are limited according to the relationship between the user's operation and the game progress status. Thereby, the user can enjoy the game comfortably.
[0054]
Next, an example of a screen when the restriction process is performed according to the procedure shown in FIG. 5 or FIG. 7 will be described.
FIG. 8 is a scene of the above racing game. On this screen, a
However, when the restriction process is performed according to the procedure shown in FIG. 5 or 7, the screen as shown in FIG. 8 should be originally displayed on the display, but the screen as shown in FIG. 9 is displayed. .
[0055]
In FIG. 9, the color of the center line indicating the center of the
[0056]
Thus, according to the
[0057]
Here, in order to facilitate understanding of the information output restriction method by the
<Specific example 1>
FIG. 10 shows a course of a race game as viewed from above. There are buildings (squares) and trees (circles) around the
Here, an image restriction instruction is given from the user, and the object displayed when the processing according to the procedure shown in FIG. 5 is performed is as shown in FIG. Here, the case where the numerical value of 75 is obtained by converting the instruction from the user into the importance level is shown. That is, only objects whose importance exceeds 75 are displayed.
The above is a specific example in which an image displayed in accordance with an instruction from a user is controlled.
[0058]
<Specific example 2>
FIG. 12 shows a scene similar to FIG. Here, the user's viewpoint is indicated by the intersection of two arrows. The numerical value in the square or circle is a numerical value that relatively indicates the distance from the user's viewpoint to the object.
Here, it is assumed that the instruction
[0059]
<Specific example 3>
FIG. 14 is a diagram for explaining a case where the specific example 1 and the specific example 2 are combined. That is, it is a diagram showing a state in which an image displayed is controlled according to a user's operation and a game progress status in accordance with an instruction from the user.
This figure shows a state in which only objects whose importance exceeds 75 and whose distance from the viewpoint is closer than 1.8 are displayed.
[0060]
<Specific Example 4>
FIG. 15 is a drawing when the course is viewed from the top as in FIGS. 10 to 14. Here, a case where the instruction
[0061]
<Specific Example 5>
FIG. 16 shows an example in which an object not displayed in FIG. 11 is made inconspicuous by applying fog. The importance is indicated by a numerical value from 0 to 3 in the square or circle. Here, it is assumed that the smaller the numerical value, the higher the importance.
The fog is performed by mixing the original color of the object and the fog color. In FIG. 16, although only one type of mixing is depicted, if the mixing coefficient is changed according to the difference between the importance level and the limiting index, the fog density can be changed continuously.
The following formula is an example of a calculation formula for changing the mixing coefficient.
Alpha = (Importance-Limitation) / Depth
if (Alpha> 1) Alpha = 1
if (Alpha <0) Alpha = 0
COL = COLfog * Alpha + COLobj * (1-Alpha)
Alpha: α value (opacity)
Importance: Importance attached to the object
Limitation: Value obtained by converting the degree of restriction specified by the user into a numerical value of 0 to 3
Depth: Index difference from where fog starts to where the object disappears
COLfog: Color attached to fog (color separation value)
COLOBj: Color attached to the object (color separation value)
When 0 <Alpha <1, COL is calculated using the numerical value as it is.
When Importance is smaller than Limitation, COL = Colobj, when it is greater than Limitation + Depth, COL = COLfog, and in the middle, COLfog and COLobj are mixed.
[0062]
<Specific Example 6>
FIG. 17 is a diagram illustrating a result of performing the same processing as in the specific example 5 with respect to the distance from the user's viewpoint. In this case, as the object is located farther from the viewpoint, the fog ratio increases and becomes inconspicuous.
[0063]
<Specific example 7>
18 and 19 are diagrams for explaining a specific example in which an image is limited by color change. FIG. 18 shows a color lookup table, and FIG. 19 shows the
That is, the object and the background that can be displayed on this screen are converted from the assigned color number into the corresponding RGB value, and the rendering process is performed according to the RGB value. For example, the
Therefore, the color assigned to the object is changed according to the following formula.
Alpha = (Distance 1-Distance 2) / Depth
if (Alpha> 1) Alpha = 1
if (Alpha <0) Alpha = 0
COL = COLfog * Alpha + COLobj * (1-Alpha)
Distance 1: Distance from viewpoint to object
Distance 2: Distance from the viewpoint to the point where fog starts
Other variables are the same as those referred to in Example 5.
The
Alpha = (2.5-1.8) /1.0=0.7
if (Alpha> 1) Alpha = 1
if (Alpha <0) Alpha = 0
COL = (0,0,255) * 0.7 + (0,0,0) (1-0.7) = (0,0,178)
It becomes. Similarly, if the
[0064]
By using some of these specific examples, various image restrictions are possible.
Note that a single fog can be made inconspicuous by combining a plurality of limiting methods such as combining fog and color change.
Further, in specific example 3 and specific example 4, the image control according to the vehicle speed has been described, but it can also be limited to sound. For example, it is possible to increase the sound related to the back music or landscape when the vehicle speed is low, and to increase the engine sound when the vehicle speed increases.
[0065]
In this embodiment, the instruction
Further, the user may set a method for limiting each polygon. However, in that case, it is necessary to accept the user's instructions to the extent that the playability of the game is not impaired. Further, each restriction method may be selected algorithmically using a flowchart or the like without being specified in the polygon determination table. The processing shown in FIG. 5 and / or FIG. 7 can also be realized by executing a game program downloaded via a network in the
[0066]
In the above, an entertainment apparatus is taken as an example, and its configuration example, operation example, and usage example have been described. However, the information processing system of the present invention is not limited to the example of this embodiment. The present invention can be similarly applied to electronic devices other than entertainment devices, devices, and computer systems. It can also be applied to devices that are unrelated to the game, such as a video player for personal use. However, when applied to such a device, the specific state described above is based on the user's operation and the progress of the game. It is not determined, but is determined according to the progress of the provided video, music, and scenario.
[0067]
In this embodiment, the main functions related to information processing among the functional blocks shown in FIG. 2 are realized by semiconductor devices such as the
Further, the above functions can be realized by a general-purpose computer. In this case, a computer program for realizing the above functions may be recorded on a computer-readable recording medium, and this computer program may be installed in the computer at the time of system construction. Further, such a computer program may be downloaded to a computer through a network.
[0068]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an information processing system in which a user can comfortably view information and an object for realizing the information processing system.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of an entertainment apparatus according to an embodiment of the present invention.
FIG. 2 is a functional block diagram showing a functional configuration related to image / sound control in this embodiment.
FIG. 3 is a diagram showing an example of a polygon determination table in this embodiment.
FIG. 4 is a diagram showing an example of a sound element determination table in this embodiment.
FIG. 5 is a diagram for explaining a processing procedure from when an instruction from a user is received until an image or sound is actually controlled;
FIG. 6 is a diagram showing an example of a menu screen for receiving an instruction from a user.
FIG. 7 is a diagram for explaining a processing procedure for controlling an image to be displayed and an output sound based on a relation between a user operation and a game progress state;
FIG. 8 is a diagram showing an example of a screen displayed on the display in a state where image control is not performed.
FIG. 9 is a diagram showing an example of a screen displayed on the display in a state where image control is performed.
FIG. 10 is a top view of a course of a race game.
FIG. 11 is a diagram showing a case where image restriction is performed according to importance in FIG. 10;
12 is a diagram showing a screen similar to FIG. 10 representing a distance from a user's viewpoint. FIG.
13 is a diagram showing a case where image restriction is performed according to the distance from the viewpoint in FIG.
FIG. 14 is a diagram illustrating a case where image restriction is performed according to importance and distance from a viewpoint in FIG. 10;
FIG. 15 is a diagram illustrating a case where image restriction is performed according to the occurrence of a specific state in FIG. 10;
FIG. 16 is a diagram showing a case where an object that is not displayed in FIG. 11 is made inconspicuous by fogging.
FIG. 17 is a diagram showing a case where an object not displayed in FIG. 13 is made inconspicuous by applying fog;
FIG. 18 is a diagram illustrating an example of a color lookup table.
FIG. 19 is a diagram for explaining processing when an image is limited by color change;
[Explanation of symbols]
10 CPU
11 Main memory
12 DMAC
13 MDEC
14 Media drive
15 Recording media
16 Input section
17 ATM
18 ROM
19 Connection terminal
21 SPU
22 Sound memory
23 Operating device
31 GPU
32 frame memory
33 CRTC
111 Input controller
112 Instruction information generation unit
113 Object distinction part
114 Drawing control unit
115 Object data recording unit
116 Sound data distinction part
117 Sound control unit
118 Sound data recording unit
Claims (22)
情報の出力形態に対する制限要求を検知する制限要求検知手段、
検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、
生成された指示情報に従ってその出力形態が制限された情報を表現するための出力用データを生成するデータ生成手段、及び、
生成された出力用データを前記出力装置宛に出力する出力手段
を具備することを特徴とする、情報処理システム。Interface means for enabling connection with an output device for outputting information;
Limit request detection means for detecting a limit request for the output form of information,
Instruction information generating means for generating predetermined instruction information according to the detected restriction request;
Data generating means for generating output data for expressing information whose output form is limited according to the generated instruction information; and
An information processing system comprising output means for outputting the generated output data to the output device.
請求項1記載の情報処理システム。The data generation means generates output data for expressing information including at least one of an image and a sound whose output form is limited,
The information processing system according to claim 1.
前記データ生成手段は、前記第1パラメータと前記第2パラメータとの比較結果に基づいて前記出力用データを生成することを特徴とする、
請求項2記載の情報処理システム。The instruction information includes a first parameter indicating the degree of restriction of the output form, and the image or sound is pre-assigned a second parameter indicating the degree of necessity of the output,
The data generation means generates the output data based on a comparison result between the first parameter and the second parameter.
The information processing system according to claim 2.
前記データ生成手段は、前記指示情報の受領を契機に前記メモリから該当する構成要素についての第2パラメータを読み出し、読み出した第2パラメータにより特定される必要性の程度が前記第1パラメータにより特定される制限の程度よりも低い構成要素の出力を制限することにより、前記出力用データを生成することを特徴とする、
請求項3記載の情報処理システム。The second parameter is stored in advance for each component of the image or sound to be restricted,
The data generation means reads the second parameter for the corresponding component from the memory upon receipt of the instruction information, and the degree of necessity specified by the read second parameter is specified by the first parameter. Generating the output data by restricting the output of the component lower than the degree of restriction,
The information processing system according to claim 3.
前記データ生成手段は、当該画像の構成要素数の低減、個々の構成要素に割り当てられている色の変更、個々の構成要素と所定の画素データとの合成、個々の構成要素の消去、の少なくともいずれかを行うことにより、前記必要性の程度が前記制限の程度よりも低い構成要素の出力を制限することを特徴とする、
請求項4記載の情報処理システム。When the instruction information restricts the output form of the image,
The data generation means includes at least the reduction of the number of components of the image, the change of the color assigned to each component, the synthesis of each component and predetermined pixel data, and the deletion of each component. By performing any of the above, the output of a component whose degree of necessity is lower than the degree of restriction is characterized.
The information processing system according to claim 4.
前記データ生成手段は、前記出力装置から出力される音量が小さくなるように前記必要性の程度が前記制限の程度よりも低い音要素の出力を制限することを特徴とする、
請求項4記載の情報処理システム。When the instruction information restricts the output form of sound,
The data generating means limits the output of sound elements whose degree of necessity is lower than the degree of restriction so that the volume output from the output device is small.
The information processing system according to claim 4.
該コンピュータに於いて、
情報の出力形態に対する制限要求を検知する処理、
検知した前記制限要求に応じた所定の指示情報を生成する処理、
生成された指示情報に従ってその出力形態が制限された情報を表現するための出力用データを生成する処理、及び、
生成された出力用データを前記出力装置宛に出力する処理
を実行することを特徴とする、情報の出力制限方法。Connect an output device that outputs information and a computer,
In the computer,
Processing to detect a restriction request for the output form of information,
Processing for generating predetermined instruction information in response to the detected restriction request;
Processing for generating output data for expressing information whose output form is limited in accordance with the generated instruction information; and
A method for restricting output of information, wherein a process of outputting the generated output data to the output device is executed.
情報の出力形態に対する制限要求を検知する制限要求検知手段、
検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、
生成された指示情報に従ってその出力形態が制限された情報を表現するための出力用データを生成するデータ生成手段、及び、
生成された出力用データを前記出力装置宛に出力する出力手段
を構築するためのコンピュータプログラム。To a computer that can be connected to an output device that outputs information,
Limit request detection means for detecting a limit request for the output form of information,
Instruction information generating means for generating predetermined instruction information according to the detected restriction request;
Data generating means for generating output data for expressing information whose output form is limited according to the generated instruction information; and
A computer program for constructing output means for outputting generated output data to the output device.
コンピュータ読み取り可能な記録媒体。The computer program according to claim 8 is recorded,
Computer-readable recording medium.
前記コンピュータが有する他の構成部品と協働で、該コンピュータ内に、
情報の出力形態に対する制限要求を検知する制限要求検知手段、
検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、
生成された指示情報に従ってその出力形態が制限された情報を表現するための出力用データを生成するデータ生成手段、及び、
生成された出力用データを前記出力装置宛に出力する出力手段を構築する、
半導体デバイス。It is mounted on a computer that can be connected to an output device that outputs information,
In cooperation with other components of the computer,
Limit request detection means for detecting a limit request for the output form of information,
Instruction information generating means for generating predetermined instruction information according to the detected restriction request;
Data generating means for generating output data for expressing information whose output form is limited according to the generated instruction information; and
Constructing an output means for outputting the generated output data to the output device;
Semiconductor device.
所定のシナリオに従ってその内容が変化するエンタテインメント情報を生成する情報生成手段、
生成されるエンタテインメント情報の出力形態に対する制限要求を前記入力装置から入力される操作情報に基づいて検知する制限要求検知手段、
検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、
生成された指示情報に従ってその出力形態が制限されたエンタテインメント情報を表現するための出力用データを生成するデータ生成手段、及び、
生成された出力用データを前記出力装置宛に出力する出力手段
を具備することを特徴とする、情報処理システム。Interface means for enabling connection with an output device for outputting information to a user and an input device for inputting operation information by the user;
Information generating means for generating entertainment information whose contents change according to a predetermined scenario;
Restriction request detecting means for detecting a restriction request for the output form of the generated entertainment information based on operation information input from the input device;
Instruction information generating means for generating predetermined instruction information according to the detected restriction request;
Data generating means for generating output data for expressing entertainment information whose output form is limited in accordance with the generated instruction information; and
An information processing system comprising output means for outputting the generated output data to the output device.
請求項11記載の情報処理システム。The data generation means generates output data for expressing entertainment information including at least one of an image and a sound whose output form is limited,
The information processing system according to claim 11.
請求項11記載の情報処理システム。The restriction request detection means determines whether or not a specific state has occurred in the scenario by comparing operation information input from the input device with predetermined reference information, and can determine that a specific state has occurred. Outputting information indicating that the restriction request has been detected;
The information processing system according to claim 11.
前記入力装置が、利用者の操作によって変化する移動体の速度、移動方向、利用者の視点又は利用者の視野の少なくとも1つを表す操作情報を入力するものであることを特徴とする、
請求項13記載の情報処理システム。The scenario is a scenario of a mobile operation game by a user,
The input device is for inputting operation information representing at least one of a speed of a moving body, a moving direction, a user's viewpoint, or a user's field of view, which is changed by a user's operation,
The information processing system according to claim 13.
前記データ生成手段は、前記第1パラメータと前記第2パラメータとの比較結果に基づいて前記出力用データを生成することを特徴とする、
請求項11記載の情報処理システム。The instruction information includes a first parameter indicating the degree of restriction of the output form, and the image or sound is pre-assigned a second parameter indicating the degree of necessity of the output,
The data generation means generates the output data based on a comparison result between the first parameter and the second parameter.
The information processing system according to claim 11.
前記データ生成手段は、前記指示情報の受領を契機に前記メモリから該当する構成要素についての第2パラメータを読み出し、読み出した第2パラメータにより特定される必要性の程度が前記第1パラメータにより特定される制限の程度よりも低い構成要素の出力を制限することにより、前記出力用データを生成することを特徴とする、
請求項15記載の情報処理システム。The second parameter is stored in advance for each component of the image or sound to be restricted,
The data generation means reads the second parameter for the corresponding component from the memory upon receipt of the instruction information, and the degree of necessity specified by the read second parameter is specified by the first parameter. Generating the output data by restricting the output of the component lower than the degree of restriction,
The information processing system according to claim 15.
前記データ生成手段は、当該画像の構成要素数の低減、個々の構成要素に割り当てられている色の変更、個々の構成要素と所定の画素データとの合成、個々の構成要素の消去、の少なくともいずれかを行うことにより、前記必要性の程度が前記制限の程度よりも低い構成要素の出力を制限することを特徴とする、
請求項16記載の情報処理システム。When the instruction information restricts the output form of the image,
The data generation means includes at least the reduction of the number of components of the image, the change of the color assigned to each component, the synthesis of each component and predetermined pixel data, and the deletion of each component. By performing any of the above, the output of a component whose degree of necessity is lower than the degree of restriction is characterized.
The information processing system according to claim 16.
前記データ生成手段は、前記出力装置から出力される音量が小さくなるように前記必要性の程度が前記制限の程度よりも低い音要素の出力を制限することを特徴とする、
請求項16記載の情報処理システム。When the instruction information restricts the output form of sound,
The data generating means limits the output of sound elements whose degree of necessity is lower than the degree of restriction so that the volume output from the output device is small.
The information processing system according to claim 16.
該コンピュータに於いて、
所定のシナリオに従ってその内容が変化するエンタテインメント情報を生成する処理、
生成されるエンタテインメント情報の出力形態に対する制限要求を前記入力装置から入力される操作情報に基づいて検知する処理、
検知した前記制限要求に応じた所定の指示情報を生成する処理、
生成された指示情報に従ってその出力形態が制限されたエンタテインメント情報を表現するための出力用データを生成する処理、及び、
生成された出力用データを前記出力装置宛に出力する処理
を実行することを特徴とする、情報の出力制限方法。Connecting an output device for outputting information to a user and an input device for inputting operation information by the user and a computer;
In the computer,
Processing to generate entertainment information whose contents change according to a predetermined scenario,
A process of detecting a restriction request for an output form of the generated entertainment information based on operation information input from the input device;
Processing for generating predetermined instruction information in response to the detected restriction request;
Processing for generating output data for representing entertainment information whose output form is limited in accordance with the generated instruction information; and
A method for restricting output of information, wherein a process of outputting the generated output data to the output device is executed.
所定のシナリオに従ってその内容が変化するエンタテインメント情報を生成する情報生成手段、
生成されるエンタテインメント情報の出力形態に対する制限要求を前記入力装置から入力される操作情報に基づいて検知する制限要求検知手段、
検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、
生成された指示情報に従ってその出力形態が制限されたエンタテインメント情報を表現するための出力用データを生成するデータ生成手段、及び、
生成された出力用データを前記出力装置宛に出力する出力手段
を構築するためのコンピュータプログラム。To a computer that can be connected to an output device that outputs information to the user and an input device that inputs operation information by the user,
Information generating means for generating entertainment information whose contents change according to a predetermined scenario;
Restriction request detecting means for detecting a restriction request for the output form of the generated entertainment information based on operation information input from the input device;
Instruction information generating means for generating predetermined instruction information according to the detected restriction request;
Data generating means for generating output data for expressing entertainment information whose output form is limited in accordance with the generated instruction information; and
A computer program for constructing output means for outputting generated output data to the output device.
コンピュータ読み取り可能な記録媒体。The computer program according to claim 20 is recorded,
Computer-readable recording medium.
前記コンピュータが有する他の構成部品と協働で、該コンピュータ内に、
所定のシナリオに従ってその内容が変化するエンタテインメント情報を生成する情報生成手段、
生成されるエンタテインメント情報の出力形態に対する制限要求を前記入力装置から入力される操作情報に基づいて検知する制限要求検知手段、
検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、
生成された指示情報に従ってその出力形態が制限されたエンタテインメント情報を表現するための出力用データを生成するデータ生成手段、及び、
生成された出力用データを前記出力装置宛に出力する出力手段
を構築する、半導体デバイス。Installed in a computer that can be connected to an output device that outputs information to the user and an input device that inputs operation information by the user,
In cooperation with other components of the computer,
Information generating means for generating entertainment information whose contents change according to a predetermined scenario;
Restriction request detecting means for detecting a restriction request for the output form of the generated entertainment information based on operation information input from the input device;
Instruction information generating means for generating predetermined instruction information according to the detected restriction request;
Data generating means for generating output data for expressing entertainment information whose output form is limited in accordance with the generated instruction information; and
A semiconductor device that constructs output means for outputting generated output data to the output device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003168142A JP2004089693A (en) | 2000-06-06 | 2003-06-12 | Information processing system, information output limitation method, computer program, recording medium, and semiconductor device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000169820 | 2000-06-06 | ||
JP2003168142A JP2004089693A (en) | 2000-06-06 | 2003-06-12 | Information processing system, information output limitation method, computer program, recording medium, and semiconductor device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001168766A Division JP2002102532A (en) | 2000-06-06 | 2001-06-04 | Information processing system and method, computer program, storage medium and semiconductor device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004089693A true JP2004089693A (en) | 2004-03-25 |
Family
ID=32071469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003168142A Pending JP2004089693A (en) | 2000-06-06 | 2003-06-12 | Information processing system, information output limitation method, computer program, recording medium, and semiconductor device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004089693A (en) |
-
2003
- 2003-06-12 JP JP2003168142A patent/JP2004089693A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3068205B2 (en) | Image processing apparatus, game machine using this processing apparatus, image processing method, and medium | |
JP4177381B2 (en) | Image generation method, image generation apparatus, and image generation program | |
KR100292148B1 (en) | Command input method and recording medium | |
JP3306397B2 (en) | Entertainment device, image generation method, and storage medium | |
US20050237323A1 (en) | Three-dimensional image generating apparatus, storage medium storing a three-dimensional image generating program, and three-dimensional image generating method | |
EP0836871A2 (en) | Video game machine for playing video ball game and storage medium storing video ball game program | |
US7330769B2 (en) | Parameterized interactive control of multiple wave table sound generation for video games and other applications | |
JP3145064B2 (en) | Video game machine and medium recording video game program | |
JP2000279637A (en) | Game device, game display control method, and computer- readable record medium | |
US8072458B2 (en) | Storage medium having game program stored thereon and game apparatus | |
JP2006068138A (en) | Game apparatus and image processing program | |
US20040157661A1 (en) | Game apparatus, game message displaying method and storage medium storing game program | |
US20010036860A1 (en) | Character display method, information recording medium and entertainment apparatus | |
JP2002102532A (en) | Information processing system and method, computer program, storage medium and semiconductor device | |
JP6012388B2 (en) | Audio output system, audio output program, audio output control method, and information processing apparatus | |
JP2012050791A (en) | Character display device, character display method, and program | |
JP3084557B2 (en) | Fluid image simple display method, image display device, recording medium | |
JP2992499B2 (en) | Image processing method and apparatus, recording medium | |
JP4485991B2 (en) | Image processing apparatus, image processing method, and program | |
JP2004089693A (en) | Information processing system, information output limitation method, computer program, recording medium, and semiconductor device | |
KR20020092773A (en) | Entertainment apparatus having image and sound controlling system | |
US6208358B1 (en) | Image processing device, image processing method and storage medium | |
JPH10230075A (en) | Game device | |
JP4563482B2 (en) | GAME DEVICE AND GAME PROGRAM | |
JP2000102675A (en) | Object display, and storage medium readable out with computer and memorizing game system and game program |