JP2004089693A - Information processing system, information output limitation method, computer program, recording medium, and semiconductor device - Google Patents

Information processing system, information output limitation method, computer program, recording medium, and semiconductor device Download PDF

Info

Publication number
JP2004089693A
JP2004089693A JP2003168142A JP2003168142A JP2004089693A JP 2004089693 A JP2004089693 A JP 2004089693A JP 2003168142 A JP2003168142 A JP 2003168142A JP 2003168142 A JP2003168142 A JP 2003168142A JP 2004089693 A JP2004089693 A JP 2004089693A
Authority
JP
Japan
Prior art keywords
information
output
sound
data
instruction information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003168142A
Other languages
Japanese (ja)
Inventor
Hidenao Umagoe
馬越 英尚
Masaaki Oka
岡 正昭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2003168142A priority Critical patent/JP2004089693A/en
Publication of JP2004089693A publication Critical patent/JP2004089693A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide technology enabling users to comfortably recognize pictures visually and listen to sound. <P>SOLUTION: An indication information generating part 112 generates first object indication information and/or first sound indication information so as to control the pictures displayed and/or the sound output according to an analysis result sent from an input control part 111. The indication information generating part 112 also generates second object indication information and/or second sound indication information, which indicates occurrence of a specified state, according to relation between user's operation and game progress states. An object discrimination part 113 performs limitation judging processing corresponding to the first or the second object indication information. A picture drawing control part 114 performs object drawing processing according to the judged result. A sound data discrimination part 116 performs limitation judging processing corresponding to the first or the second sound indication information. A sound control part 117 performs composition of sound data based on the judged result. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、ディスプレイに表示される画像やスピーカから出力される音を表す情報を生成して利用者に提供する情報処理システムに関する。特に、利用者に提供する情報の出力形態を制限する仕組みに関する。
【0002】
【従来の技術】
画像や音を表す情報を生成して、これを利用者に対して提供するエンタテインメント装置が知られている。エンタテインメント装置では、所定のシナリオの進行に従ってディスプレイに画像を表示させたり、スピーカを鳴動させて音を出したりする。通常は、画像や音が、シナリオにおいて予め決められた形態で出力される。
最近は、半導体技術の発展により、エンタテインメント装置の性能が飛躍的に向上している。この性能向上に伴って、ディスプレイに表示される画像の種類及び量も増加している。音についても同様に、多種多様な音を同時に出力することが可能になっている。
【0003】
【発明が解決しようとする課題】
しかし、エンタテインメント装置の利用者にとって、ディスプレイに表示される多種多様な画像や、スピーカから出力される複雑な音が、必ずしも心地良いものであるとは限らない。例えばエンタテインメント装置を用いて緊迫したゲームを行う場合、利用者によっては、これらの多種多様な画像や音が、ゲームに集中する上で妨げに感じる場合もある。ゲームの場合には、利用者の感情が、その利用者の好み(嗜好)、体調、ゲーム環境などの要因に左右されるためである。
【0004】
本発明の目的は、画像、音等の情報を利用者が快適に視聴できるようにするための具体的な仕組みを提供することにある。
【0005】
【課題を解決するための手段】
本発明は、情報処理システム、情報の出力制限方法、記録媒体及びコンピュータプログラムを提供する。
【0006】
本発明の情報処理システムは、情報出力を行う出力装置との接続を可能にするインタフェース手段、情報の出力形態に対する制限要求を検知する制限要求検知手段、検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、生成された指示情報に従ってその出力形態が制限された情報を表現するための出力用データを生成するデータ生成手段、及び、生成された出力用データを前記出力装置宛に出力する出力手段を具備するものである。
「情報の出力形態」とは、例えば情報が画像であればディスプレイ等の表示装置における表示態様、情報が音であればスピーカにおける鳴動の態様(出力態様)をいう。それが「制限される」とは、ある時点における画像又は音が不要な画像要素と必要な画像要素、あるいは不要音と必要音とに区分けできる場合に、不要な画像要素又は音要素を低減させたり、不要な画像データと他の画素データとを合成したり、画像の輪郭をぼかして見えにくくしたりして、当該情報を目立たなくすること等をいう。「出力用データ」は、出力装置が情報出力のために認識可能な形態のデータであり、出力装置の種類によって異なるものである。
【0007】
データ生成手段は、その出力形態が制限された画像と音の少なくとも一方を含む情報を表現するための出力用データを生成する。ここでの処理を容易にするため、指示情報には前記出力形態の制限の程度を表す第1パラメータを含め、画像又は音にはその出力の必要性の程度を表す第2パラメータを予め割り当てておく。そして、データ生成手段で、第1パラメータと第2パラメータとの比較結果に基づいて出力用データを生成する。より具体的には、第2パラメータを予め制限対象となる画像又は音の構成要素毎にメモリに記憶しておき、指示情報の受領を契機にこのメモリから該当する構成要素についての第2パラメータを読み出し、読み出した第2パラメータにより特定される必要性の程度が第1パラメータにより特定される制限の程度よりも低い構成要素の出力を制限することにより、出力用データを生成する。
【0008】
前記指示情報が画像の出力形態を制限させるものである場合、データ生成手段は、当該画像の構成要素数の低減、個々の構成要素に割り当てられている色の変更、個々の構成要素と所定の画素データとの合成、個々の構成要素の消去、の少なくともいずれかを行うことにより、必要性の程度が前記制限の程度よりも低い構成要素の出力を制限するようにする。また、前記指示情報が音の出力形態を制限させるものである場合、データ生成手段は、出力装置から出力される音量が小さくなるように必要性の程度が前記制限の程度よりも低い音要素の出力を制限するようにする。
【0009】
本発明の情報の出力制限方法は、情報出力を行う出力装置とコンピュータとを接続し、該コンピュータに於いて、情報の出力形態に対する制限要求を検知する処理、検知した前記制限要求に応じた所定の指示情報を生成する処理、生成された指示情報に従ってその出力形態が制限された情報を表現するための出力用データを生成する処理、及び、生成された出力用データを前記出力装置宛に出力する処理を実行することを特徴とする。
本発明のコンピュータプログラムは、情報出力を行う出力装置と接続可能なコンピュータに、前記制限要求検知手段、前記指示情報生成手段、前記データ生成手段、及び、前記出力手段を構築するためのコンピュータプログラムであり、本発明の記録媒体は、このコンピュータプログラムが記録されているコンピュータ読み取り可能な記録媒体である。
【0010】
本発明の半導体デバイスは、情報出力を行う出力装置と接続可能なコンピュータに搭載されるデバイスであって、前記コンピュータの構成部品と協働で、該コンピュータ内に、前記制限要求検知手段、前記指示情報生成手段、前記データ生成手段、及び、前記出力手段を構築するものである。
【0011】
本発明は、また、以下のような第2の情報処理システム、第2の情報の出力制限方法、第2の記録媒体及び第2のコンピュータプログラムを提供する。
【0012】
第2の情報処理システムは、利用者への情報出力を行う出力装置及び利用者による操作情報を入力する入力装置との接続を可能にするインタフェース手段、所定のシナリオに従ってその内容が変化するエンタテインメント情報を生成する情報生成手段、生成されるエンタテインメント情報の出力形態に対する制限要求を前記入力装置から入力される操作情報に基づいて検知する制限要求検知手段、検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、生成された指示情報に従ってその出力形態が制限されたエンタテインメント情報を表現するための出力用データを生成するデータ生成手段、及び、生成された出力用データを前記出力装置宛に出力する出力手段を具備するものである。
エンタテインメント情報とは、例えば娯楽用の動画、静止画あるいは音に関する情報をいう。その出力形態、それが制限されることについては、前述のとおりである。
【0013】
データ生成手段は、その出力形態が制限された画像及び音の少なくとも一方を含むエンタテインメント情報を表現するための出力用データを生成するように構成される。
【0014】
制限要求検知手段は、例えば、入力装置から入力される操作情報を所定の基準情報と比較することにより前記シナリオにおける特定状態が発生したかどうかを判定し、特定状態が発生したと判定できる場合に前記制限要求を検知した旨を表す情報を出力する。
【0015】
シナリオは、例えば、利用者による移動体操作ゲームのシナリオであり、入力装置は、利用者の操作によって変化する移動体の速度、移動方向、利用者の視点又は利用者の視野の少なくとも1つを表す操作情報を入力するものである。車両によるレースゲーム等がこれに該当する。
【0016】
第2の出力制限方法は、利用者への情報出力を行う出力装置及び利用者による操作情報を入力する入力装置とコンピュータとを接続し、該コンピュータに於いて、所定のシナリオに従ってその内容が変化するエンタテインメント情報を生成する処理、生成されるエンタテインメント情報の出力形態に対する制限要求を前記入力装置から入力される操作情報に基づいて検知する処理、検知した前記制限要求に応じた所定の指示情報を生成する処理、生成された指示情報に従ってその出力形態が制限されたエンタテインメント情報を表現するための出力用データを生成する処理、及び、生成された出力用データを前記出力装置宛に出力する処理を実行することを特徴とする。
【0017】
第2のコンピュータプログラムは、利用者への情報出力を行う出力装置及び利用者による操作情報を入力する入力装置と接続可能なコンピュータに、上記の第2の情報処理システムが備える情報生成手段、制限要求検知手段、指示情報生成手段、データ生成手段、及び、出力手段を構築するためのコンピュータプログラムであり、第2の記録媒体は、このようなコンピュータプログラムが記録されている、コンピュータ読み取り可能な記録媒体である。
【0018】
第2の半導体デバイスは、利用者への情報出力を行う出力装置及び利用者による操作情報を入力する入力装置と接続可能なコンピュータに搭載されるデバイスであって、前記コンピュータの構成部品と協働で、該コンピュータ内に、上記の第2の情報処理システムが備える情報生成手段、制限要求検知手段、指示情報生成手段、データ生成手段、及び、出力手段を構築するものである。
【0019】
【発明の実施の形態】
以下、本発明を、エンタテインメント装置に適用した場合の実施形態を説明する。エンタテインメント装置は、所定のシナリオに従って画像と音の少なくとも一方を含むエンタテインメント情報を生成し、これをディスプレイやスピーカ等の出力装置に出力する情報処理システムの一つである。この実施形態では、エンタテインメント情報が、画像と音とを伴うゲームシナリオに基づくビデオゲーム情報である場合の例を挙げる。
【0020】
<エンタテインメント装置の構成>
図1は、この実施形態によるエンタテインメント装置のハードウェア構成図である。
エンタテインメント装置1は、複数の半導体デバイス及びメカニカル部品と、コンピュータプログラムとの協働によって、ビデオゲームのための処理、特に、出力形態が制限される情報の処理を行う。半導体デバイスとしては、CPU(Central Processing Unit)10、描画処理ユニット(GPU(Graphic Processing Unit))31、音声処理ユニット(SPU(Sound Processing Unit))21が挙げられる。これらは、バスBを通じて相互にデータの送受ができるようになっている。CPU10にはメインメモリ11が接続され、GPU31にはフレームメモリ32が接続され、SPU21にはサウンドメモリ22が接続されている。バスBには、また、DMAC(Direct Memory Access Controller)12、MPEG(Moving Picture Experts Group)デコーダ(MDEC)13、ROM(Read Only Memory)18のようなデバイスのほか、メディアドライブ14、入力部16、通信制御部(ATM)17のようなメカニカル部品も接続されており、これらの協働動作によって、エンタテインメント情報を利用者に提供できるようになっている。
【0021】
CPU10は、エンタテインメント装置1が搭載するOS(Operating System)とゲーム用のコンピュータプログラム(以下、「ゲームプログラム」と称する)とを実行することにより、エンタテインメント装置1内に、ゲームの実行を可能にするための環境及び種々の機能を構築する。CPU10は、また、ゲームの進行に応じて画像を描画する必要性が発生すると、複数の基本図形(ポリゴン)で構成された3次元オブジェクトデータ(ポリゴンの頂点(代表点)の座標値など)を読み出し、座標演算などの処理を行う。このような処理をジオメトリ処理という。このジオメトリ処理により、描画順にポリゴンを定義したディスプレイリストを生成する。ディスプレイリストは、描画命令と共にGPU31に送られる。
なお、以後の説明では、必要に応じて、描画の対象及びその制限の対象となるものを「オブジェクト」と称する。
【0022】
メインメモリ11は、CPU10に読み取られるゲームプログラム及び/又はデータを一時的に記録するためのRAM(Random Access Memory)である。DMAC12は、バスBに接続されている各構成要素を対象としてDMA(Direct Memory Access)転送制御を行う。MPEGデコーダ13は、CPU10と並列に動作可能なもので、MPEG方式あるいはJPEG(Joint Photographic Experts Group)方式などの方式で圧縮されたデータを伸張する。メディアドライブ14は、CD−ROM(Compact Disk Read Only Memory)やDVD−ROM(Digital Versatile Disk Read Only Memory)などの記録媒体15を離脱自在に装着するとともに、装着された記録媒体15にアクセスして、記録されているゲームプログラムやデータをメインメモリ11に読み出す。
【0023】
入力部16は、操作装置23とのインタフェースとなる接続端子19を有する。この接続端子19には、入力装置の一例となる操作装置23を接続することができる。操作装置23には複数の操作ボタンが設けられており、操作装置23はゲームを行う利用者によるボタン操作を利用者からの指示として受け付け、これを入力部16に通知する。
【0024】
ATM17は、エンタテインメント装置1が電話回線やLAN(Local Area Network)などのネットワークを介して外部装置と接続された場合、この外部装置との間でのデータ送受信を制御するインタフェースである。ROM18は、起動プログラムやOSが記録されている不揮発性のメモリである。
【0025】
SPU21は、CPU10からの命令に従って、サウンドメモリ22に記録されている音データを読み出し、合成処理を行うことによりオーディオ信号を生成する。生成されたオーディオ信号は、SPU21の出力側に備えられるインタフェース手段を介して、出力装置の一例となる専用スピーカあるいはディスプレイと一体化されたスピーカに送られる。サウンドメモリ22は、各種音データを記録している。但し、音データは、サウンドメモリ22のみに記録されている場合のほか、記録媒体15の側にも記録されていてよい。この場合、SPU21は、CPU10の指示に従って、サウンドメモリ22及び/又は記録媒体15から得た音データに対して合成処理を行う。
【0026】
GPU31は、図示しない内部メモリ領域に複数の描画コンテクスト(graphic context)を保持している。描画コンテクストとは、描画命令に応じて使用される描画設定条件をいう。GPU31は描画命令とディスプレイリストとをCPU10から受け取ると、描画命令に応じた描画コンテクストを読み出し、これを用いてフレームメモリ32にポリゴンを描画するための処理を行う。このような処理をレンダリング処理という。なお、レンダリング処理においてテクスチャマッピングを行う場合、フレームメモリ32のオフスクリーン領域に予め使用するテクスチャパターンが配置され、このテクスチャパターンが用いられる。レンダリング処理によって描画された画像は、CRTC(Cathode Ray Tube Controller)33及びコネクタ等のインタフェース手段を通じてディスプレイに出力され、表示される。
【0027】
<機能構成>
次に、エンタテインメント装置1において、CPU10がメインメモリ11又はメディアドライブ14に装着されている記録媒体15に記録されたゲームプログラムを読み出して実行することにより構築される機能と、GPU31及びSPU21が単独、あるいはCPU10との協働によって構築される機能について説明する。GPU31及びSPU21は、各々プロセッサとメモリを有する一種のコンピュータであり、当該ユニットにおいて固有となる処理については、メモリ内のプログラムをプロセッサが読み取って実行するようになっている。
ここでは、利用者が快適に画像や音を視聴できるようにするために構築される機能の例を挙げる。この機能の構成例を図2に示す。
【0028】
図2において、入力制御部111は、入力部16を介して利用者の指示の入力を受け付けるとともに、その指示の内容を解析して、ディスプレイに表示される画像の表示態様、スピーカから出力される音の出力態様に対する制限要求を検知し、その結果を指示情報生成部112、オブジェクト区別部113、音データ区別部116に通知する。指示情報生成部112は、入力制御部111から送られた解析結果に従って、画像を制御したり、音を制御するための指示情報を必要に応じて生成し、これをオブジェクト区別部113、音データ区別部116に送出する。指示情報の内容については、後述する。描画制御部114は、レンダリング処理を行うことにより、その表示態様が制限された画像を表現するための画像データを生成してディスプレイ宛に出力するものであり、音制御部117は、音データ合成処理等を行うことにより、その出力態様が制限された音を表現するための音データを生成してスピーカ宛に出力するものである。画像データはオブジェクトデータ記録部115の記録情報に基づいて生成され、音データは音データ記録部118の記録情報に基づいて生成される。
【0029】
なお、図2の機能構成は、図1のハードウエア構成との関係では、入力制御部111、指示情報生成部112、オブジェクト区別部113及び音データ区別部116が、CPU10により構築され、描画制御部114がCPU10とGPU31との協働によって構築され、音制御部117がCPU10とSPU21との協働によって構築される。オブジェクトデータ記録部115及び音データ記録部118は、メインメモリ11、サウンドメモリ22あるいは、CPU10等がアクセス可能な図示しない外部記憶装置に形成される。
【0030】
ここで、指示情報生成部112により生成される指示情報について説明する。指示情報は、表示される画像を制御するためのオブジェクト指示情報と、出力される音を制御するための音指示情報とに分類される。また、オブジェクト指示情報と音指示情報は、共に2つの種類に分類することができる。一つは、ゲームの開始時又はゲーム進行中にディスプレイに表示可能な特定の画面を介して利用者から入力された指示に従って生成される指示情報である。もう一つは、利用者の操作とゲーム進行状況との関連から判断されて生成される指示情報である。
この結果、指示情報生成部112により生成される指示情報の種類は、4種類となる。以降、特定の画面を介して利用者から入力された指示に従って生成された指示情報のうち、オブジェクト指示情報を「第1オブジェクト指示情報」、音指示情報を「第1音指示情報」と称し、利用者の操作とゲーム進行状況との関連から判断されて生成された指示情報のうち、オブジェクト指示情報を「第2オブジェクト指示情報」、音指示情報を「第2音指示情報」と称する。
【0031】
指示情報生成部112は、上述した4種類の指示情報を生成するが、第2オブジェクト指示情報と第2音指示情報を生成する際には、ゲームシナリオに基づくゲームの進行状況を判断するためのデータが必要となる。このデータはゲーム固有のものであり、ゲームが実行される際に記録媒体15から読み出され、指示情報生成部112に保持される。但し、指示情報生成部112が、判定の際に、随時、メインメモリ11や記録媒体15に保持されているデータを参照するようにしてもよい。
【0032】
オブジェクト区別部113は、入力制御部111より利用者の指示を解析した結果を受け取ると共に、指示情報生成部112より、第1オブジェクト指示情報又は第2オブジェクト指示情報を受け取る。そして、受け取った解析結果に従ってジオメトリ処理を行う。
指示情報生成部112から第1オブジェクト指示情報を受け取った場合、オブジェクト区別部113は、これから表示しようとするオブジェクトに対して表示制限の要否を判定する。その際、オブジェクトデータ記録部115に記録されているポリゴン判定テーブルを参照する。その後、判定結果に従った描画命令と共にジオメトリ処理の結果を描画制御部114に出力する。
一方、第2オブジェクト指示情報を受け取った場合、オブジェクト区別部113は、所定条件に従った判定処理を行い、この判定結果に従った描画命令と共にジオメトリ処理の結果を描画制御部114に出力する。ここでいう所定条件とは、第2オブジェクト指示情報と第2音指示情報とを生成する際に必要とされるデータと同様にゲーム固有のものである。このため、所定条件は、ゲームが実行される際に記録媒体15から読み出され、オブジェクト区別部113の図示しないメモリ領域に保持される。但し、オブジェクト区別部113が、判定の際に随時、メインメモリ11や記録媒体15に保持されている所定条件を参照するようにしてもよい。
【0033】
描画制御部114は、オブジェクト区別部113から受け取った描画命令とジオメトリ処理の結果とに従ってレンダリング処理を行う。描画命令には前述した判定結果が反映されているため、描画制御部114は、必ずしも全てのオブジェクトを利用者が明確に視認できるように描画するとは限らない。このような利用者から視認不可能な又は曖昧に視認されるようなオブジェクトのレンダリング処理の仕方については後述する。
なお、描画制御部114は、レンダリング処理を行う際、オブジェクトデータ記録部115に記録されている3次元オブジェクトデータを参照する。レンダリング処理により生成された画像データは、ビデオ出力用の信号に変換され、ビデオ出力として、CRTC33を通じてディスプレイに供給される。
【0034】
オブジェクトデータ記録部115には、オブジェクト区別部113がオブジェクトに対して表示制限の要否を判定する際に参照するポリゴン判定テーブルと、描画制御部114がレンダリング処理を行う際に参照する3次元オブジェクトデータとが記録されている。これらの記録情報は、記録媒体15に記録されているプログラムの読み込み及びこれの実行の際に、記録媒体15からオブジェクトデータ記録部115に読み込まれる。
【0035】
音データ区別部116は、入力制御部111より利用者の指示を解析した結果を受け取ると共に、指示情報生成部112より、第1音指示情報又は第2音指示情報を受け取る。音データ区別部116は、受け取った解析結果を音制御部117に出力する。また、指示情報生成部112より第1音指示情報を受け取った場合は、これから出力しようとする音要素に対して出力形態の制限の要否を判定する。その際、音データ記録部118に記録されている音要素判定テーブルを参照する。その後、判定結果に従った音出力命令と共に、入力制御部111から送られた解析結果を音制御部117に出力する。
一方、第2音指示情報を受け取った場合、音データ区別部116は、所定条件に従った判定処理を行い、この判定結果に従った音出力命令と共に、入力制御部111から送られた解析結果を音制御部117に出力する。ここでいう所定条件とは、第2オブジェクト指示情報と第2音指示情報とを生成する際に必要とされるデータと同様にゲーム固有のものである。このため、所定条件は、ゲームが実行される際に記録媒体15から読み出され、音データ区別部116に保持される。但し、音データ区別部116が、判定の際に随時、メインメモリ11や記録媒体15に保持されている所定条件を参照するようにしてもよい。
【0036】
音制御部117は、音データ区別部116から受け取った音出力命令と解析結果とに従って音データの合成を行う。音データの合成には前述した判定結果が反映されているため、必ずしも全ての音要素が聞き取れるように出力されるとは限らない。音制御部117は、音データの合成を行う際、音データ記録部118に記録されている音データを用いる。音の種類には、音声、バックミュージック、効果音などが挙げられる。合成後の音データは使用されるスピーカに対応する信号に変換され、オーディオ出力としてそのスピーカに供給される。
【0037】
音データ記録部118は、音データ区別部116が音要素に対して出力形態の制限の要否を判定する際に参照する音要素判定テーブルと、音制御部117が合成処理を行う際に参照する音データとが記録されている。これらの記録情報は、記録媒体15に記録されているプログラムの読み込み及びこれの実行の際に、記録媒体15から音データ記録部118に読み込まれる。
【0038】
(ポリゴン判定テーブル・音要素判定テーブル)
オブジェクトデータ記録部115に記録されているポリゴン判定テーブルと、音データ記録部118に記録されている音要素判定テーブルについて、より詳しく説明する。
図3は、ポリゴン判定テーブルの一例を示す。通常、一つのオブジェクトは複数のポリゴンを用いて描画される。図3では、この一つのオブジェクトについての例を示している。すなわち、このポリゴン判定テーブルに示されているN個のポリゴン(ポリゴン番号1〜N)が、1つのオブジェクトを描画する際に必要とされるポリゴンである。このテーブルには、各ポリゴンを識別するためのポリゴン番号毎に、制限の程度を表すパラメータである「描画情報」、「重要度」、「制限方法」とが記録されている。
「描画情報」には、ポリゴンの頂点座標、色、テクスチャ座標が含まれる。
「重要度」は、対応するポリゴンがゲーム進行上どれくらい重要であるかを示すパラメータ(値)である。この実施形態では、重要度が0〜100の数値で示され、重要度が高いものほど数値が大きくなるようになっている。「制限方法」は、対応するポリゴンの表示をどのように制限するかを示す情報である。同図に示されているように、「制限方法」には、「フォグ」、「カラー」、「ポリゴン数」がある。これらの制限の具体的な手法については後述する。
ポリゴン判定テーブルには、前述したようにポリゴン毎の描画情報が含まれている。このため、図3に示されるポリゴン判定テーブルは、前述した3次元オブジェクトデータを含んだテーブル形式をとっている。
ポリゴン判定テーブルの重要度は、ゲームのクリエータによってオーサリング処理されるときに、ゲームの醍醐味などを考慮した上で決定される。
【0039】
図4は、音要素判定テーブルの一例を示す。この実施形態では、ある音、例えば、効果音などを生成する場合に、複数の音データを合成する処理が必要とされる。
図4は、ある音を生成する際に必要とされる音データを音要素番号で識別し、この音要素番号毎に「重要度」と「音量」とが記録されている。ここでいう「重要度」は、対応する音要素がゲーム進行上どれくらい重要であるかを表すパラメータ(値)である。前述のポリゴンの場合と同様に、重要度が0〜100の数値で表され、重要度が高いものほど数値が大きくなるようになっている。「音量」は、対応する音要素を出力する際にどれだけの音量で出力するのかを表すパラメータである。「音量」は、0〜100の数値で示され、0が最小音量、100が最大音量を示す。
音要素判定テーブルの重要度は、ゲームのクリエータによってオーサリング処理されるときに、ゲームの醍醐味などを考慮した上で決定される。
【0040】
<画像・音制御動作1>
次に、エンタテインメント装置1において利用者からの指示に応じて、表示される画像や出力される音を制御するための処理手順を説明する。図5は、利用者からの指示を受け付けてから、実際に画像や音を制御するまでの処理手順を説明するための図である。
まず、エンタテインメント装置1のメディアドライブ14に所望のゲームプログラム(各種データを含む)が記録されている記録媒体15が装着され、電源が投入されると所定のスタート画面がディスプレイに表示される。このスタート画面には、ゲームの開始を指示するための選択肢や、ゲーム進行における各種設定を行うオプション設定のための選択肢などが表示される。この複数の選択肢の中からオプション設定のための選択肢が選択され、更に、画像や音を制御するための選択肢が選択されると、図6に示されるようなメニュー画面が表示される(ステップS101)。
なお、このメニュー画面は、エンタテインメント装置1の電源投入に応じてのみ表示されるのではなく、利用者が操作装置23を所定の手順で操作することによって、ゲーム進行中であっても表示される。
【0041】
利用者は、このメニュー画面を参照しながら操作装置23を操作することにより、画像の制限のオン/オフ(YES/NO)、音の制限のオン/オフ(YES/NO)の指示を行うことができる(ステップS102)。更に、利用者は、画像と音の制限量を、それぞれに対応して表示されているゲージのポインタを移動させることによって指示することができる。全ての指示が完了すると、利用者は、メニュー画面右下に表示されている「OK」を選択する。
【0042】
利用者により「OK」が選択されると、入力制御部111は、利用者がメニュー画面を参照して行った指示を入力部16を介して受け取る。入力制御部111は、メニュー画面に従って入力された指示の内容を解析する(ステップS103)。ここで、入力制御部111は、入力した指示が画像また音の少なくとも一方を制御するための指示である場合、解析結果を指示情報生成部112に通知する(ステップS104:YES)。これと共に、ゲームを進行させるため、次の画面を表示させるための処理を行う。なお、入力制御部111は、入力された指示の内容が、画像及び音のいずれも制限しない旨の指示である場合、解析結果を指示情報生成部112には通知しない(ステップS104:NO)。
指示内容が画像又は音の少なくとも一方を制御する指示である場合(ステップS104:YES)、指示情報生成部112は、制限対象に応じて第1オブジェクト指示情報又は第1音指示情報の少なくとも一方を生成する(ステップS105)。なお、以下の説明では、第1オブジェクト指示情報と第1音指示情報とが共に生成されたものとする。指示情報生成部112は、入力制御部111からの解析結果に従って、制御対象に対応するゲージ上でポインタが示す値を、0〜100の値で表される重要度に変換し、これらを第1オブジェクト指示情報と第1音指示情報として出力する。
【0043】
具体的には、画像の制限が指示されている場合、指示情報生成部112は、解析結果に従って画像に対応するゲージ上でポインタの示す値を、0〜100の重要度に変換する。この重要度は、第1オブジェクト指示情報としてオブジェクト区別部113に送られる。指示情報生成部112は、音の制限が指示されている場合、解析結果に従って音に対応するゲージ上でポインタの示す値を、0〜100の重要度に変換する。この重要度は、第1音指示情報として音データ区別部116に送られる。
この後、第1オブジェクト指示情報を受け取ったオブジェクト区別部113、及び/又は、第1音指示情報を受け取った音データ区別部116において、制限判定処理が行われる(ステップS106)。
【0044】
オブジェクト区別部113は、第1オブジェクト指示情報を受け取った場合、表示されるオブジェクト毎にそのオブジェクトを表示するために必要なポリゴンの表示制限の要否を判定する。この際、オブジェクトデータ記録部115に記録されているポリゴン判定テーブルが参照される。オブジェクト区別部113は、第1オブジェクト指示情報より高い数値の重要度に対応するポリゴンは表示し、それ以外は、そのポリゴンに対応する制限方法に従って表示を制限すると判定する。判定結果は、描画制御部114に送られる。
例えば、第1オブジェクト指示情報が70を示す場合、オブジェクト区別部113は、図3に示されるオブジェクトにおいては、ポリゴン番号2とポリゴン番号3のポリゴンのみを通常に表示させ、それ以外のポリゴンは対応する制限方法に従って表示制限を行うと判定する。但し、ポリゴン番号5〜N−1までの重要度は図示されていないが、いずれも70未満と仮定する。
【0045】
音データ区別部116は、第1音指示情報を受け取った場合、出力される音毎にその音を出力するために必要な音要素の出力形態の制限の要否を判定する。この際、音データ記録部118に記録されている音要素判定テーブルが参照される。音データ区別部116は、第1音指示情報より高い数値の重要度に対応する音要素は通常に出力し、それ以外は対応する音量に従って出力形態の制限をすることを判定する。判定結果は、音制御部117に送られる。
例えば、第1音指示情報が70を示す場合、音データ区別部116は、図4に示される音においては、音要素番号2と音要素番号Mの音要素のみを通常に出力させ、それ以外の音要素についてはそれぞれ対応する音量にしたがって出力制御すると判定する。但し、音要素番号4〜M−1までの重要度は図示されていないが、いずれも70未満とする。
このような制限判定が行われた後、画像の表示と音の出力が、描画制御部114と音制御部117により行われる(ステップS107)。
【0046】
描画制御部114は、オブジェクトデータ記録部115に記録されている描画情報(3次元オブジェクトデータ)を用いてレンダリング処理を行う。その際、オブジェクト区別部113から送られた判定結果に従って、ポリゴンの表示制限を行う。
表示制限は、上述したポリゴン判定テーブルに記録された方法により行われる。レンダリング処理により生成されたデータは、ビデオ出力用の信号に変換され、CRTC33を通じてディスプレイに供給される。
音制御部117は、音データ記録部118に記録されている音データの合成を行う。その際、音データ区別部116から送られた判定結果に従って、音出力の制限を行う。この場合の制限は、音要素判定テーブルに記録された「音量」に従って、通常の出力されるべき音量より小さくなるように制御する。合成された音データは、スピーカに供給される。
【0047】
以上の処理により、利用者からの指示に応じて、表示される画像や出力される音が制限される。これにより、利用者は、自分の好みや体調に応じて表示される画像や出力される音を制御することでき、快適にゲームを楽しむことができる。
【0048】
なお、オブジェクト区別部113及び音データ区別部116において判定された結果は、ゲーム進行中は継続して有効となる。これを変更するには、前述したように、利用者が操作装置23を所定の手順で操作してメニュー画面を表示させ、このメニュー画面を介して指示をする必要がある。
【0049】
<画像出力形態の制限方法の具体例>
次に、オブジェクト(画像)の出力形態を制限する手法をいくつか説明する。
(1)ポリゴン数制御
オブジェクトを構成するポリゴン数を制限する。前述したように、一つのオブジェクトは複数種類のポリゴンで構成される。このため、ある条件を満たすポリゴンについては、それを描画しないように制御することにより、オブジェクトを構成する全ポリゴン数を減少させる。
(2)カラー変更
オブジェクトに付される色を変更する。オブジェクトに設定されている色を、例えばそのオブジェクトが表示される位置の周辺の色や背景の色と同系色に変更する。また、オブジェクトの輪郭を不鮮明にぼかすようにしてもよい。この場合、表示されたオブジェクトは、利用者からの焦点深度が浅くなり、利用者はオブジェクトに焦点が合っていないように感じるという効果がある。
(3)フォグ
描画されるオブジェクトにフォグ(fog)をかける。対象となるオブジェクトの描画領域にフォグとなるオブジェクトを描画する。また、予め対象となるオブジェクトとフォグとなるオブジェクトとを合成し、これを描画する。フォグとなるオブジェクトの色や透過率を変化させることにより、表示される対象オブジェクトを利用者から視認不能にすることができる。
(4)表示せず
オブジェクト自体を全く描画せず、これにより画面上に全く表示されないようにする。
以上、これらの画像制限方法によりディスプレイに表示されるオブジェクトが、利用者にとってぼやけて見えたり、認識不能となる。
【0050】
<画像・音制御動作2>
次に、利用者の操作とゲーム進行の状況との関連からエンタテインメント装置1が、表示される画像や出力される音を制御するための処理手順を説明する。図7は、この処理手順を説明するための図である。
指示情報生成部112は、ゲームが開始されると、利用者の操作とゲーム進行の状況を随時監視する(ステップS201)。指示情報生成部112は、監視中に特定の状態が発生したと判定すると、第2オブジェクト指示情報及び/又は第2音指示情報を生成する(ステップS202)。
【0051】
ゲームが、利用者による移動体操作ゲーム、例えば利用者が車を運転するレースゲームである場合、指示情報生成部112は、入力される操作装置23の操作状況に基づいて、移動体である車の現在の速度、移動方向、ディスプレイに表示されている利用者の視野、視点などの要素を監視する。これらの要素が所定の条件を満足した場合に、前述の特定状態の発生と判断される。従って、監視される要素や、特定状態は、ゲーム固有のものである。指示情報生成部112は、発生した特定状態を示す第2オブジェクト指示情報及び/又は第2音指示情報を生成する。但し、情報生成は特定状態に基づいているため、必ずしも第2オブジェクト指示情報と第2音指示情報とが共に生成されるとは限らない。なお、以下の説明では、第2オブジェクト指示情報と第2音指示情報とが共に生成されたものとする。
【0052】
生成された第2オブジェクト指示情報はオブジェクト区別部113に、第2音指示情報は音データ区別部116に送られ、それぞれにおいて制限要求を検知したかどうかを判定する制限判定処理が行われる(ステップS203)。
オブジェクト区別部113は、第2オブジェクト指示情報を受け取ると、この第2オブジェクト指示情報に示される特定状態に応じ、予め保持している所定条件に従ってオブジェクト毎に表示制限の要否を判定する。更に、オブジェクト区別部113は、表示制限する必要があると判定されたオブジェクトに対して、オブジェクトデータ記録部115に記録されているポリゴン判定テーブルを参照していずれのポリゴンを制限するのかを判定する。例えば、表示制御対象であるオブジェクトを構成するポリゴンが図3に示されるものである場合、オブジェクト区別部113は、基準重要度を80とし、各ポリゴンの重要度と比較して表示制御の要否を判定する。判定結果は、描画制御部114に送られる。
なお、このような所定条件に従った制限要否の判定、及びその結果の具体例は後にレースゲームでの俯瞰図を参照して説明する。
【0053】
音データ区別部116は、第2音指示情報を受け取ると、この第2音指示情報に示される特定状態に応じ、予め保持している所定条件に従って音要素毎に出力形態の制限の要否を判定する。例えば、出力制御対象である音を構成する音要素が図4に示されるものである場合、音データ区別部116は、基準重要度を80とし、各音要素の重要度と比較して出力制御の要否を判定する。判定結果は、音制御部117に送られる。
描画制御部114は、オブジェクト区別部113から送られた判定結果に従って画像の表示を制限するための処理を、音制御部117は、音データ区別部116から送られた判定結果に従って音の出力を制限するための処理を行う(ステップS204)。この処理は、前述した図5のステップS107の処理と同様であるので説明は省略する。
以上の処理により利用者の操作とゲーム進行状況との関係に従って表示される画像や出力される音が制限される。これにより利用者は、快適にゲームを楽しむことができる。
【0054】
次に、図5又は図7に示される手順に従って制限処理がなされた場合の画面例を説明する。
図8は、上記のレースゲームの一場面である。この画面には、レースコースである道路201が画面中心に下部から上方に伸びるように表示されている。この道路201沿いには、建築物202a〜202hが、更に、その外側に樹木203a〜203fが位置するように表示されている。また、画面上部には背景の一部として山並み204a、204bが表示されている。このような図8に示される画面は、指示情報生成部112によりいずれの指示情報も生成されていない場合にディスプレイに表示される画面である。なお、道路201、建築物202a〜202h、樹木203a〜203f、及び山並み204a、204bはそれぞれをオブジェクトとして定義することができる。
しかし、図5又は図7に示される手順に従って制限処理がなされた場合、ディスプレイには本来図8に示されるような画面が表示されるはずだが、図9に示されるような画面が表示される。
【0055】
図9では、道路201の中央を示すセンターラインの色が変更されている。これは、前述したカラー変更により道路201の他の部分と同じ色に変更されている。建築物202a〜202gは、道路201に沿った面に位置する窓が横方向につながっており、道路201の方向と垂直な面に位置する窓が無くなっている。これは、ポリゴン数制御、カラー変更及びフォグを組み合わせて行われた処理の結果である。建築物202hは、フォグにより消されている。樹木203a〜203fは、ポリゴン数制御により簡素化したものが表示されている。山並み204aは、カラー変更により輪郭がぼやけるように表示されている。
【0056】
このように、この実施形態のエンタテインメント装置1によれば、利用者が快適に画像を視認したり、音を聞き取ることが可能となる。
【0057】
ここで、このエンタテインメント装置1による情報の出力制限の手法の理解を容易にするため、具体例をいくつか紹介する。
<具体例1>
図10は、レースゲームの一場面のコースを上から見たところである。道路201を中心に建物(四角)と樹木(円)のオブジェクトが存在する。四角又は円内の数値は、各オブジェクトの重要度を示す値である。これらの数値はゲームのクリエータによって設定されている値である。
ここで、利用者から画像制限の指示がなされ、前述した図5に示される手順に従った処理がなされた場合に表示されるオブジェクトは図11に示されるようになる。ここでは、利用者からの指示を重要度に変換すると75という数値になった場合を示している。すなわち、重要度が75を越えるオブジェクトのみが表示されている。
以上は、利用者からの指示に従って表示される画像を制御した具体例である。
【0058】
<具体例2>
図12は、図10と同様の場面を示している。ここでは、利用者の視点が2本の矢印の交点で示されている。また、四角又は円内の数値は、利用者の視点からオブジェクトまでの距離を相対的に示す数値である。
ここで、ゲーム進行中に指示情報生成部112が特定状態の発生を検出した場合を想定する。特に、利用者の操作する車の速度が所定の速度以下になったため、指示情報生成部112が特定状態の発生と判断した場合を仮定する。これにより前述した図7に示される手順に従って処理がなされた場合に表示されるオブジェクトは、図13に示されるようになる。手順に従った処理においては、オブジェクト区別部113が、特定状態の発生(車速が遅い)に応じて、所定条件に従って各オブジェクトの表示判定を行っている。また、この所定条件とは、視点からの距離が1.8より近いオブジェクトのみを表示させるというものである。なお、道路201は常に視点からの距離が0であると仮定され、視点の位置にかかわらず表示される。以上は、利用者の操作とゲーム進行状況との関係に従って表示される画像が制御された具体例である。
【0059】
<具体例3>
図14は、具体例1と具体例2とを組み合わせた場合を説明するための図面である。すなわち、利用者からの指示に従って表示される画像を制御すると共に、利用者の操作とゲーム進行状況との関係に従っても画像を制御している状態を示す図面である。
同図では、重要度が75を越えて、且つ、視点からの距離が1.8より近いオブジェクトのみが表示される状態を示している。
【0060】
<具体例4>
図15は、図10〜図14と同様にコースを上から見た場合の図面である。ここでは、ゲーム進行中に指示情報生成部112が特定状態として車速が所定の増加率で増した場合を検出し、検出された特定状態に従って画像が制御された場合が示されている。オブジェクト区別部113は、この特定状態の検出に応じ、所定条件に従って画像の表示を制御している。所定条件は、視点からの距離1.0から2.0までに位置するオブジェクトのみを表示させるというものである。このような画像制限により、視点に近すぎるオブジェクトの表示を避けることができる。通常、利用者は、スピードが速いときに視点から近いオブジェクトが表示されると遠くの様子を知る障害になる。従って、このような利用者にとっての不都合を解消することができ、利用者に対して快適な操作環境を提供することができる。なお、この具体例4における画像制限方法には、オブジェクト自体を描画しない方法やフォグを適用することができる。
【0061】
<具体例5>
図16は、図11において表示されないオブジェクトにフォグをかけることにより目立たなくした例を示している。四角又は円内には、0〜3までの数値で重要度が示されている。ここでは、数値の小さい方を重要度が高いと仮定する。
フォグはオブジェクト本来の色とフォグカラーの混ぜ合わせにより行われる。図16では一種類の混ぜ合わせしかないように描かれているが混ぜ合わせ係数を重要度と制限指数の差に応じて変化させれば連続的にフォグの濃さを変えることができる。
下の式は、混ぜ合わせ係数を変化させるための計算式の一例である。
Alpha = ( Importance − Limitation ) / Depth
if ( Alpha > 1) Alpha = 1
if ( Alpha < 0) Alpha = 0
COL = COLfog*Alpha + COLobj*( 1 − Alpha )
Alpha:α値(不透明度)
Importance:オブジェクトに付された重要度
Limitation:利用者から指示された制限度合いを0〜3の数値に変換した値
Depth:フォグがかかり始めるところからオブジェクトが見えなくなるところまでの指数の差
COLfog:フォグに付されている色(色分解値)
COLobj:オブジェクトに付されている色(色分解値)
0<Alpha<1のときは、そのままの数値を用いてCOLが計算される。
ImportanceがLimitationより小さいときは、COL=COLobj、Limitation+Depthより大きいときは、COL=COLfog、中間ではCOLfogとCOLobjとが混ぜ合わされた色になる。
【0062】
<具体例6>
図17は、具体例5と同様の処理を、利用者の視点からの距離について行った結果を示す図である。この場合、視点から遠くに位置するオブジェクトほどフォグの比率が高まり、目立たなくなる。
【0063】
<具体例7>
図18及び図19は、カラー変更により画像を制限する具体例を説明するための図面である。図18はカラールックアップテーブルを示し、図19は画面に表示されているオブジェクト1とオブジェクト2、及び、各オブジェクトに割り当てられている色番号と背景に割り当てられている色番号が示されている。
すなわち、この画面に示され得るオブジェクトと背景は、割り当てられた色番号からそれに対応するRGB値に変換され、そのRGB値に従ってレンダリング処理が行われる。例えば、オブジェクト1とオブジェクト2の一部にそれぞれ割り当てられた0番は(0,0,0)(黒)、1番は(0,0,255)(青)である。
そこで、オブジェクトに割り当てられた色を下記の式に従って変更する。
Alpha = ( Distance 1 − Distance 2 ) / Depth
if ( Alpha > 1) Alpha = 1
if ( Alpha < 0) Alpha = 0
COL = COLfog*Alpha + COLobj*( 1 − Alpha )
Distance 1:視点からオブジェクトまでの距離
Distance 2:視点からフォグがかかりはじめる点までの距離
他の変数は、具体例5で参照したものと同様。
オブジェクト1は色番号0〜5までの色が割り当てられている。また、オブジェクト1の背景に割り当てられた色番号は6である。そこで上の式にしたがって0〜5までのカラーを変更する。例えば0番の色(0,0,0)をCOLobj、6番の色をCOLbg、Distance 1は2.5、Distance 2は1.8、深さは1.0とすると
Alpha = ( 2.5 − 1.8 ) / 1.0 = 0.7
if ( Alpha > 1) Alpha = 1
if ( Alpha < 0) Alpha = 0
COL = (0,0,255)*0.7 + (0,0,0)( 1 − 0.7 ) = (0,0,178)
となる。同様に色番号1番から5番のカラーも変更するとオブジェクト1は背景の色と距離に応じた近さになり、目立たなくなる。またオブジェクト2を描画するときはその距離に応じて色番号0番から3番を変更する。またオブジェクトが別の背景の上にあるときはその背景の色を使って上記の計算をすればよい。
【0064】
このようないくつかの具体例を用いることにより、多様な画像制限が可能となる。
なお、フォグとカラー変更を組み合わせるなどの、複数の制限方法を組み合わせて一つのフォグを目立たなくすることもできる。
また、具体例3と具体例4では車速に応じた画像制御について説明したが、音に対しても制限することもできる。例えば、車速が遅い場合にはバックミュージックや風景に関する音を大きくし、車速が早くなった場合にはエンジン音を大きくするように制御することも可能である。
【0065】
この実施形態では4種類の指示情報を指示情報生成部112が生成しているが、必要に応じていずれか1つまたは複数の指示情報に制限することもできる。
また、各ポリゴンの制限方法を利用者が設定するようにしてもよい。但し、その場合には遊技の遊興性を損なわない程度に利用者の指示を受け付けるようにすることが必要となる。また、各制限方法は、ポリゴン判定テーブルで特定せずに、フローチャートなどを用いてアルゴリズミックに選択するようにしてもよい。図5及び/又は図7に示されている処理は、ネットワークを介してダウンロードしたゲームプログラムをCPU10等において実行することによっても実現可能である。
【0066】
また、以上は、エンタテインメント装置を例に挙げて、その構成例、動作例、その使用例について説明したが、本発明の情報処理システムは、この実施形態の例に限定されるものではない。エンタテインメント装置以外の電子機器、装置、コンピュータシステムにも同様に適用できるものである。個人ユースの映像再生機のような、ゲームとは無関係の装置にも適用可能であるが、但し、このような装置に適用した場合、上記の特定状態は、利用者の操作とゲーム進行状況から判断されるのではなく、提供される映像、音楽、シナリオの進行状況に従って判断されることになる。
【0067】
また、この実施形態では、図2に示された機能ブロックのうち、情報処理に関する主たる機能は、CPU10、SPU21及びGPU31のような半導体デバイスと、これらに読み込まれるコンピュータプログラムとにより実現されているが、これらの機能を全て有する1チップの半導体デバイスで実現することもできる。この場合、コンピュータプログラムは、当該チップに搭載されるメモリに事前に記録されているものであってもよく、事後的に当該メモリに記録されるようなものであってもよい。
また、上記の機能を汎用のコンピュータにおいて実現することもできる。この場合は、そのコンピュータが読み取り可能な記録媒体に、上記の機能を実現するためのコンピュータプログラムを記録しておき、システム構築時にこのコンピュータプログラムを、そのコンピュータにインストールするようにすればよい。また、このようなコンピュータプログラムをネットワークを通じてコンピュータにダウンロードするようにしてもよい。
【0068】
【発明の効果】
以上説明したように、この発明によれば、利用者が快適に情報を視聴することができる情報処理システム及びそれを実現するための物を提供することができる。
【図面の簡単な説明】
【図1】この発明の実施形態であるエンタテインメント装置のハードウェア構成を示すブロック図。
【図2】この実施形態における画像・音制御に係る機能構成を示す機能ブロック図。
【図3】この実施形態におけるポリゴン判定テーブルの一例を示す図。
【図4】この実施形態における音要素判定テーブルの一例を示す図。
【図5】利用者からの指示を受け付けてから、実際に画像や音を制御するまでの処理手順を説明するための図。
【図6】利用者からの指示を受け付けるためのメニュー画面の一例を示す図。
【図7】利用者の操作とゲーム進行の状況との関連から表示される画像や出力される音を制御するための処理手順を説明するための図。
【図8】画像制御が行われない状態でディスプレイに表示される画面例を示す図。
【図9】画像制御が行われた状態でディスプレイに表示される画面例を示す図。
【図10】レースゲームの一場面のコースを上から見た図。
【図11】図10において重要度に従って画像制限がなされた場合を示す図。
【図12】図10と同様の画面を利用者の視点からの距離を表すようにした図。
【図13】図12において、視点からの距離に従って画像制限がなされた場合を示す図。
【図14】図10において、重要度と視点からの距離とに従って画像制限がなされた場合を示す図。
【図15】図10において、特定状態の発生に応じて画像制限がなされた場合を示す図。
【図16】図11において表示されないオブジェクトをフォグをかけることにより目立たなくした場合を示す図。
【図17】図13において表示されないオブジェクトをフォグをかけることにより目立たなくした場合を示す図。
【図18】カラールックアップテーブルの一例を示す図。
【図19】カラー変更により画像を制限する際の処理を説明するための図。
【符号の説明】
10 CPU
11 メインメモリ
12 DMAC
13 MDEC
14 メディアドライブ
15 記録媒体
16 入力部
17 ATM
18 ROM
19 接続端子
21 SPU
22 サウンドメモリ
23 操作装置
31 GPU
32 フレームメモリ
33 CRTC
111 入力制御部
112 指示情報生成部
113 オブジェクト区別部
114 描画制御部
115 オブジェクトデータ記録部
116 音データ区別部
117 音制御部
118 音データ記録部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing system that generates information representing an image displayed on a display or sound output from a speaker and provides the information to a user. In particular, the present invention relates to a mechanism for limiting the output form of information provided to a user.
[0002]
[Prior art]
There is known an entertainment apparatus that generates information representing an image or sound and provides the information to a user. In the entertainment apparatus, an image is displayed on a display as a predetermined scenario progresses, and a sound is produced by sounding a speaker. Normally, images and sounds are output in a predetermined format in the scenario.
Recently, with the development of semiconductor technology, the performance of entertainment devices has been dramatically improved. With this performance improvement, the types and amounts of images displayed on the display are also increasing. Similarly, it is possible to output a wide variety of sounds at the same time.
[0003]
[Problems to be solved by the invention]
However, for users of entertainment devices, various images displayed on the display and complex sounds output from the speakers are not always comfortable. For example, when playing an intense game using an entertainment device, depending on the user, these various images and sounds may feel disturbed when concentrating on the game. This is because in the case of a game, the user's emotions depend on factors such as the user's preference (preference), physical condition, and game environment.
[0004]
An object of the present invention is to provide a specific mechanism for enabling a user to comfortably view information such as images and sounds.
[0005]
[Means for Solving the Problems]
The present invention provides an information processing system, an information output restriction method, a recording medium, and a computer program.
[0006]
An information processing system according to the present invention includes an interface unit that enables connection with an output device that outputs information, a restriction request detection unit that detects a restriction request for an information output form, and a predetermined instruction according to the detected restriction request Instruction information generating means for generating information, data generating means for generating output data for expressing information whose output form is limited in accordance with the generated instruction information, and the generated output data for the output device Output means for outputting to the destination.
The “information output form” means, for example, a display mode on a display device such as a display if the information is an image, and a ringing mode (output mode) on the speaker if the information is sound. “Restricted” means that an unnecessary image element or sound element is reduced when an image or sound at a certain point in time can be divided into an unnecessary image element and a necessary image element, or an unnecessary sound and a necessary sound. Or combining unnecessary image data with other pixel data, or blurring the outline of the image to make it difficult to see, thereby making the information inconspicuous. “Output data” is data in a form that can be recognized by the output device for outputting information, and varies depending on the type of the output device.
[0007]
The data generation means generates output data for expressing information including at least one of an image and a sound whose output form is limited. In order to facilitate the processing here, the instruction information includes a first parameter indicating the degree of restriction of the output form, and a second parameter indicating the degree of necessity of the output is assigned to the image or sound in advance. deep. Then, the data generation means generates output data based on the comparison result between the first parameter and the second parameter. More specifically, the second parameter is stored in advance in the memory for each component of the image or sound to be restricted, and when the instruction information is received, the second parameter for the corresponding component is stored from this memory. The data for output is generated by limiting the output of the constituent elements that are read and the degree of necessity specified by the read second parameter is lower than the limit specified by the first parameter.
[0008]
When the instruction information restricts the output form of the image, the data generation means reduces the number of components of the image, changes the color assigned to each component, By combining with pixel data and / or erasing individual components, the output of components whose degree of necessity is lower than the limit is limited. Further, when the instruction information restricts the output form of the sound, the data generation means is a sound element whose degree of necessity is lower than the degree of restriction so that the volume output from the output device is reduced. Try to limit the output.
[0009]
In the information output restriction method of the present invention, an output device for outputting information is connected to a computer, and in the computer, a process for detecting a restriction request for an information output form, and a predetermined response according to the detected restriction request. Generating the instruction information, generating the output data for expressing the information whose output form is limited according to the generated instruction information, and outputting the generated output data to the output device The process which performs is performed.
The computer program of the present invention is a computer program for constructing the restriction request detection means, the instruction information generation means, the data generation means, and the output means in a computer connectable to an output device that outputs information. The recording medium of the present invention is a computer-readable recording medium on which the computer program is recorded.
[0010]
The semiconductor device of the present invention is a device mounted on a computer connectable to an output device that outputs information, and in cooperation with the components of the computer, the restriction request detecting means, the instruction The information generating means, the data generating means, and the output means are constructed.
[0011]
The present invention also provides the following second information processing system, second information output restriction method, second recording medium, and second computer program.
[0012]
The second information processing system includes an output device that outputs information to a user, interface means that enables connection with an input device that inputs operation information by the user, and entertainment information whose contents change according to a predetermined scenario. Information generating means for generating a restriction request detecting means for detecting a restriction request for the output form of the generated entertainment information based on operation information input from the input device, and predetermined instruction information corresponding to the detected restriction request Information generating means for generating output data, data generating means for generating output data for representing entertainment information whose output form is limited in accordance with the generated instruction information, and the output device for generating the generated output data Output means for outputting to the destination.
Entertainment information refers to, for example, information relating to entertainment videos, still images, or sounds. The output form and its limitation are as described above.
[0013]
The data generation means is configured to generate output data for expressing entertainment information including at least one of an image and a sound whose output form is limited.
[0014]
For example, the restriction request detection unit determines whether or not a specific state in the scenario has occurred by comparing operation information input from the input device with predetermined reference information, and can determine that the specific state has occurred. Information indicating that the restriction request has been detected is output.
[0015]
The scenario is, for example, a scenario of a moving body operation game by a user, and the input device displays at least one of the speed of the moving body, the moving direction, the user's viewpoint, or the user's field of view that changes according to the user's operation. The operation information to be input is input. This applies to racing games using vehicles.
[0016]
In the second output restriction method, an output device for outputting information to a user and an input device for inputting operation information by the user are connected to a computer, and the contents of the computer change according to a predetermined scenario. Processing for generating entertainment information to be generated, processing for detecting a restriction request for an output form of the generated entertainment information based on operation information input from the input device, and generation of predetermined instruction information corresponding to the detected restriction request A process of generating output data for expressing entertainment information whose output form is limited according to the generated instruction information, and a process of outputting the generated output data to the output device It is characterized by doing.
[0017]
The second computer program includes an information generation means provided in the second information processing system, a restriction on a computer connectable to an output device for outputting information to a user and an input device for inputting operation information by the user. A computer program for constructing request detection means, instruction information generation means, data generation means, and output means, and the second recording medium is a computer-readable record in which such a computer program is recorded It is a medium.
[0018]
The second semiconductor device is a device mounted on a computer that can be connected to an output device that outputs information to a user and an input device that inputs operation information by the user, and cooperates with components of the computer. Thus, information generating means, restriction request detecting means, instruction information generating means, data generating means, and output means included in the second information processing system are constructed in the computer.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment when the present invention is applied to an entertainment device will be described. An entertainment device is one of information processing systems that generates entertainment information including at least one of an image and sound according to a predetermined scenario, and outputs this to an output device such as a display or a speaker. In this embodiment, an example is given in which the entertainment information is video game information based on a game scenario involving images and sounds.
[0020]
<Configuration of entertainment device>
FIG. 1 is a hardware configuration diagram of an entertainment apparatus according to this embodiment.
The entertainment apparatus 1 performs processing for a video game, particularly processing of information whose output form is limited, in cooperation with a plurality of semiconductor devices and mechanical parts and a computer program. The semiconductor device includes a CPU (Central Processing Unit) 10, a drawing processing unit (GPU (Graphic Processing Unit)) 31, and a sound processing unit (SPU (Sound Processing Unit)) 21. These can exchange data with each other through the bus B. A main memory 11 is connected to the CPU 10, a frame memory 32 is connected to the GPU 31, and a sound memory 22 is connected to the SPU 21. The bus B includes devices such as a DMAC (Direct Memory Access Controller) 12, an MPEG (Moving Picture Experts Group) decoder (MDEC) 13, a ROM (Read Only Memory) 18, a media drive 14, and an input unit 16. A mechanical component such as a communication control unit (ATM) 17 is also connected, and entertainment information can be provided to the user through these cooperative operations.
[0021]
The CPU 10 allows the entertainment device 1 to execute a game by executing an OS (Operating System) installed in the entertainment device 1 and a game computer program (hereinafter referred to as “game program”). To build environment and various functions. When the CPU 10 needs to draw an image as the game progresses, the CPU 10 generates three-dimensional object data (such as coordinate values of polygon vertices (representative points)) composed of a plurality of basic figures (polygons). Processing such as reading and coordinate calculation is performed. Such processing is called geometry processing. By this geometry processing, a display list in which polygons are defined in the drawing order is generated. The display list is sent to the GPU 31 together with the drawing command.
In the following description, a drawing target and a restriction target are referred to as an “object” as necessary.
[0022]
The main memory 11 is a RAM (Random Access Memory) for temporarily recording a game program and / or data read by the CPU 10. The DMAC 12 performs DMA (Direct Memory Access) transfer control for each component connected to the bus B. The MPEG decoder 13 is operable in parallel with the CPU 10 and decompresses data compressed by a method such as the MPEG method or the JPEG (Joint Photographic Experts Group) method. The media drive 14 detachably mounts a recording medium 15 such as a CD-ROM (Compact Disk Read Only Memory) or a DVD-ROM (Digital Versatile Disk Read Only Memory) and accesses the mounted recording medium 15. The recorded game program and data are read into the main memory 11.
[0023]
The input unit 16 includes a connection terminal 19 that serves as an interface with the operation device 23. An operation device 23 as an example of an input device can be connected to the connection terminal 19. The operation device 23 is provided with a plurality of operation buttons. The operation device 23 accepts a button operation by the user who plays the game as an instruction from the user, and notifies the input unit 16 of this.
[0024]
The ATM 17 is an interface that controls data transmission / reception with the external device when the entertainment device 1 is connected to the external device via a network such as a telephone line or a LAN (Local Area Network). The ROM 18 is a non-volatile memory in which a boot program and OS are recorded.
[0025]
The SPU 21 reads out sound data recorded in the sound memory 22 in accordance with a command from the CPU 10, and generates an audio signal by performing synthesis processing. The generated audio signal is sent to a dedicated speaker as an example of an output device or a speaker integrated with a display via an interface unit provided on the output side of the SPU 21. The sound memory 22 records various sound data. However, the sound data may be recorded not only on the sound memory 22 but also on the recording medium 15 side. In this case, the SPU 21 performs synthesis processing on the sound data obtained from the sound memory 22 and / or the recording medium 15 in accordance with an instruction from the CPU 10.
[0026]
The GPU 31 holds a plurality of drawing contexts (graphic contexts) in an internal memory area (not shown). The drawing context is a drawing setting condition used in accordance with a drawing command. When the GPU 31 receives a drawing command and a display list from the CPU 10, the GPU 31 reads a drawing context corresponding to the drawing command, and performs processing for drawing a polygon in the frame memory 32 using this. Such processing is called rendering processing. When texture mapping is performed in the rendering process, a texture pattern to be used in advance is arranged in the off-screen area of the frame memory 32, and this texture pattern is used. An image drawn by the rendering process is output to a display through an interface means such as a CRTC (Cathode Ray Tube Controller) 33 and a connector and displayed.
[0027]
<Functional configuration>
Next, in the entertainment device 1, the CPU 10 reads out and executes a game program recorded in the recording medium 15 attached to the main memory 11 or the media drive 14, and the GPU 31 and the SPU 21 are independent. Or the function constructed | assembled by cooperation with CPU10 is demonstrated. Each of the GPU 31 and the SPU 21 is a kind of computer having a processor and a memory, and the processor reads and executes a program in the memory for processing unique to the unit.
Here, examples of functions constructed to allow the user to comfortably view images and sounds will be given. A configuration example of this function is shown in FIG.
[0028]
In FIG. 2, the input control unit 111 receives an input of a user instruction via the input unit 16, analyzes the content of the instruction, and outputs the display form of an image displayed on the display from a speaker. A restriction request for the sound output mode is detected, and the result is notified to the instruction information generation unit 112, the object discrimination unit 113, and the sound data discrimination unit 116. The instruction information generation unit 112 generates instruction information for controlling an image and controlling sound according to the analysis result sent from the input control unit 111 as necessary. The data is sent to the discrimination unit 116. The contents of the instruction information will be described later. The rendering control unit 114 performs rendering processing to generate image data for expressing an image whose display mode is limited, and outputs the image data to the display. The sound control unit 117 performs sound data synthesis. By performing processing or the like, sound data for expressing a sound whose output mode is limited is generated and output to a speaker. The image data is generated based on the recording information of the object data recording unit 115, and the sound data is generated based on the recording information of the sound data recording unit 118.
[0029]
2 is related to the hardware configuration of FIG. 1, the input control unit 111, the instruction information generation unit 112, the object discrimination unit 113, and the sound data discrimination unit 116 are constructed by the CPU 10 to control drawing. The unit 114 is constructed by the cooperation of the CPU 10 and the GPU 31, and the sound control unit 117 is constructed by the cooperation of the CPU 10 and the SPU 21. The object data recording unit 115 and the sound data recording unit 118 are formed in an external storage device (not shown) that can be accessed by the main memory 11, the sound memory 22, or the CPU 10 or the like.
[0030]
Here, the instruction information generated by the instruction information generation unit 112 will be described. The instruction information is classified into object instruction information for controlling the displayed image and sound instruction information for controlling the output sound. Both the object instruction information and the sound instruction information can be classified into two types. One is instruction information generated in accordance with an instruction input from the user via a specific screen that can be displayed on the display at the start of the game or during the game. The other is instruction information generated by judging from the relationship between the user's operation and the game progress.
As a result, there are four types of instruction information generated by the instruction information generation unit 112. Hereinafter, among the instruction information generated according to the instruction input from the user via the specific screen, the object instruction information is referred to as “first object instruction information”, and the sound instruction information is referred to as “first sound instruction information”. Of the instruction information generated by determining the relationship between the user's operation and the game progress status, the object instruction information is referred to as “second object instruction information” and the sound instruction information is referred to as “second sound instruction information”.
[0031]
The instruction information generation unit 112 generates the above-described four types of instruction information. When generating the second object instruction information and the second sound instruction information, the instruction information generation unit 112 determines the progress of the game based on the game scenario. Data is required. This data is unique to the game, and is read from the recording medium 15 when the game is executed and held in the instruction information generation unit 112. However, the instruction information generation unit 112 may refer to data held in the main memory 11 or the recording medium 15 at any time during the determination.
[0032]
The object distinguishing unit 113 receives the result of analyzing the user's instruction from the input control unit 111 and also receives the first object instruction information or the second object instruction information from the instruction information generating unit 112. Then, geometry processing is performed according to the received analysis result.
When the first object instruction information is received from the instruction information generating unit 112, the object distinguishing unit 113 determines whether display restriction is necessary for an object to be displayed. At that time, the polygon determination table recorded in the object data recording unit 115 is referred to. Thereafter, the result of the geometry processing is output to the drawing control unit 114 together with the drawing command according to the determination result.
On the other hand, when the second object instruction information is received, the object distinguishing unit 113 performs determination processing according to a predetermined condition, and outputs a result of geometry processing to the drawing control unit 114 together with a drawing command according to the determination result. The predetermined condition here is specific to the game, as is the data required when generating the second object instruction information and the second sound instruction information. Therefore, the predetermined condition is read from the recording medium 15 when the game is executed and held in a memory area (not shown) of the object distinguishing unit 113. However, the object distinguishing unit 113 may refer to a predetermined condition held in the main memory 11 or the recording medium 15 at any time during the determination.
[0033]
The drawing control unit 114 performs rendering processing according to the drawing command received from the object distinguishing unit 113 and the result of the geometry processing. Since the above-described determination result is reflected in the drawing command, the drawing control unit 114 does not always draw so that the user can clearly see all the objects. A method for rendering such an object that cannot be visually recognized by the user or is vaguely visible will be described later.
The drawing control unit 114 refers to the three-dimensional object data recorded in the object data recording unit 115 when performing the rendering process. The image data generated by the rendering process is converted into a video output signal and supplied to the display through the CRTC 33 as a video output.
[0034]
The object data recording unit 115 includes a polygon determination table that is referred to when the object distinguishing unit 113 determines whether or not display restriction is required for an object, and a three-dimensional object that the drawing control unit 114 refers to when performing rendering processing. Data is recorded. These pieces of recording information are read from the recording medium 15 into the object data recording unit 115 when the program recorded in the recording medium 15 is read and executed.
[0035]
The sound data distinction unit 116 receives the result of analyzing the user's instruction from the input control unit 111 and also receives the first sound instruction information or the second sound instruction information from the instruction information generation unit 112. The sound data distinction unit 116 outputs the received analysis result to the sound control unit 117. Further, when the first sound instruction information is received from the instruction information generation unit 112, it is determined whether or not the output form needs to be limited for the sound element to be output. At that time, the sound element determination table recorded in the sound data recording unit 118 is referred to. Thereafter, together with the sound output command according to the determination result, the analysis result sent from the input control unit 111 is output to the sound control unit 117.
On the other hand, when the second sound instruction information is received, the sound data distinction unit 116 performs a determination process according to a predetermined condition, and the analysis result sent from the input control unit 111 together with the sound output command according to the determination result. Is output to the sound control unit 117. The predetermined condition here is specific to the game, as is the data required when generating the second object instruction information and the second sound instruction information. For this reason, the predetermined condition is read from the recording medium 15 when the game is executed, and held in the sound data distinguishing unit 116. However, the sound data distinction unit 116 may refer to a predetermined condition held in the main memory 11 or the recording medium 15 at any time during the determination.
[0036]
The sound control unit 117 synthesizes sound data according to the sound output command received from the sound data distinguishing unit 116 and the analysis result. Since the determination result described above is reflected in the synthesis of the sound data, the sound data is not necessarily output so that all sound elements can be heard. The sound control unit 117 uses sound data recorded in the sound data recording unit 118 when synthesizing sound data. Sound types include voice, back music, and sound effects. The synthesized sound data is converted into a signal corresponding to the speaker to be used, and supplied to the speaker as an audio output.
[0037]
The sound data recording unit 118 is referred to when the sound data discriminating unit 116 determines whether it is necessary to limit the output form for the sound element, and is referred to when the sound control unit 117 performs synthesis processing. Sound data to be recorded. The recorded information is read from the recording medium 15 into the sound data recording unit 118 when the program recorded in the recording medium 15 is read and executed.
[0038]
(Polygon determination table / sound element determination table)
The polygon determination table recorded in the object data recording unit 115 and the sound element determination table recorded in the sound data recording unit 118 will be described in more detail.
FIG. 3 shows an example of the polygon determination table. Usually, one object is drawn using a plurality of polygons. FIG. 3 shows an example of this one object. That is, the N polygons (polygon numbers 1 to N) shown in the polygon determination table are polygons necessary for drawing one object. In this table, for each polygon number for identifying each polygon, “drawing information”, “importance”, and “restriction method” which are parameters indicating the degree of restriction are recorded.
The “drawing information” includes polygon vertex coordinates, color, and texture coordinates.
The “importance” is a parameter (value) indicating how important the corresponding polygon is in the progress of the game. In this embodiment, the importance is indicated by a numerical value of 0 to 100, and the higher the importance, the larger the numerical value. The “restriction method” is information indicating how to limit the display of the corresponding polygon. As shown in the figure, the “limit method” includes “fog”, “color”, and “number of polygons”. Specific methods for these restrictions will be described later.
As described above, the polygon determination table includes drawing information for each polygon. For this reason, the polygon determination table shown in FIG. 3 has a table format including the aforementioned three-dimensional object data.
The degree of importance of the polygon determination table is determined in consideration of the taste of the game when the authoring process is performed by the game creator.
[0039]
FIG. 4 shows an example of a sound element determination table. In this embodiment, when generating a certain sound, for example, a sound effect, a process for synthesizing a plurality of sound data is required.
In FIG. 4, sound data necessary for generating a certain sound is identified by a sound element number, and “importance” and “volume” are recorded for each sound element number. The “importance” here is a parameter (value) indicating how important the corresponding sound element is in the progress of the game. As in the case of the polygon described above, the importance is represented by a numerical value of 0 to 100, and the higher the importance, the larger the numerical value. “Volume” is a parameter indicating how much sound is output when a corresponding sound element is output. “Volume” is indicated by a numerical value of 0 to 100, with 0 indicating the minimum volume and 100 indicating the maximum volume.
The importance of the sound element determination table is determined in consideration of the best of the game when the authoring process is performed by the game creator.
[0040]
<Image / sound control operation 1>
Next, a processing procedure for controlling the displayed image and the output sound in response to an instruction from the user in the entertainment apparatus 1 will be described. FIG. 5 is a diagram for explaining a processing procedure from when an instruction from a user is received until an image or sound is actually controlled.
First, when a recording medium 15 in which a desired game program (including various data) is recorded is loaded in the media drive 14 of the entertainment apparatus 1 and the power is turned on, a predetermined start screen is displayed on the display. This start screen displays options for instructing the start of the game, options for setting options for various settings in the game progress, and the like. When an option for option setting is selected from the plurality of options, and further an option for controlling images and sounds is selected, a menu screen as shown in FIG. 6 is displayed (step S101). ).
This menu screen is not displayed only when the entertainment apparatus 1 is turned on, but is displayed even when the game is in progress by the user operating the operation apparatus 23 according to a predetermined procedure. .
[0041]
The user operates the operation device 23 while referring to the menu screen to give an instruction to turn on / off the image restriction (YES / NO) and turn on / off the sound restriction (YES / NO). (Step S102). Further, the user can instruct the limit amount of the image and the sound by moving the pointer of the gauge displayed corresponding to each. When all the instructions are completed, the user selects “OK” displayed at the lower right of the menu screen.
[0042]
When “OK” is selected by the user, the input control unit 111 receives an instruction given by the user with reference to the menu screen via the input unit 16. The input control unit 111 analyzes the content of the instruction input according to the menu screen (step S103). Here, when the input instruction is an instruction for controlling at least one of the image and the sound, the input control unit 111 notifies the instruction information generation unit 112 of the analysis result (step S104: YES). At the same time, a process for displaying the next screen is performed to advance the game. Note that the input control unit 111 does not notify the instruction information generation unit 112 of the analysis result when the content of the input instruction is an instruction indicating that neither an image nor a sound is restricted (step S104: NO).
When the instruction content is an instruction to control at least one of the image and the sound (step S104: YES), the instruction information generation unit 112 receives at least one of the first object instruction information and the first sound instruction information according to the restriction target. Generate (step S105). In the following description, it is assumed that both the first object instruction information and the first sound instruction information are generated. In accordance with the analysis result from the input control unit 111, the instruction information generation unit 112 converts the value indicated by the pointer on the gauge corresponding to the control target into an importance level represented by a value of 0 to 100, and converts these values to the first level. Output as object instruction information and first sound instruction information.
[0043]
Specifically, when the restriction on the image is instructed, the instruction information generation unit 112 converts the value indicated by the pointer on the gauge corresponding to the image into the importance of 0 to 100 according to the analysis result. This importance is sent to the object distinction unit 113 as first object instruction information. When the sound restriction is instructed, the instruction information generation unit 112 converts the value indicated by the pointer on the gauge corresponding to the sound into the importance of 0 to 100 according to the analysis result. This importance is sent to the sound data distinction unit 116 as the first sound instruction information.
Thereafter, a restriction determination process is performed in the object distinguishing unit 113 that has received the first object instruction information and / or the sound data distinguishing unit 116 that has received the first sound instruction information (step S106).
[0044]
When the object distinguishing unit 113 receives the first object instruction information, the object distinguishing unit 113 determines, for each object to be displayed, whether or not the polygon display restriction necessary for displaying the object is necessary. At this time, the polygon determination table recorded in the object data recording unit 115 is referred to. The object discriminating unit 113 displays a polygon corresponding to the importance of a numerical value higher than that of the first object instruction information, and determines that the display is limited according to the limiting method corresponding to the polygon otherwise. The determination result is sent to the drawing control unit 114.
For example, when the first object instruction information indicates 70, the object distinguishing unit 113 normally displays only polygons 2 and 3 with the object shown in FIG. 3, and other polygons are supported. It is determined that display restriction is performed according to the restriction method. However, the importance of polygon numbers 5 to N-1 is not shown, but it is assumed that all are less than 70.
[0045]
When the sound data discriminating unit 116 receives the first sound instruction information, the sound data discriminating unit 116 determines whether or not it is necessary to limit the output form of the sound elements necessary for outputting the sound for each sound to be output. At this time, the sound element determination table recorded in the sound data recording unit 118 is referred to. The sound data discriminating unit 116 determines that the sound element corresponding to the importance of the numerical value higher than the first sound instruction information is normally output, and the output form is limited according to the corresponding sound volume otherwise. The determination result is sent to the sound control unit 117.
For example, when the first sound instruction information indicates 70, the sound data distinction unit 116 normally outputs only the sound elements of the sound element number 2 and the sound element number M in the sound shown in FIG. The sound elements are determined to be output controlled according to the corresponding volume. However, the importance levels of the sound element numbers 4 to M-1 are not shown, but are all less than 70.
After such restriction determination is performed, image display and sound output are performed by the drawing control unit 114 and the sound control unit 117 (step S107).
[0046]
The drawing control unit 114 performs rendering processing using drawing information (three-dimensional object data) recorded in the object data recording unit 115. At this time, display of polygons is restricted according to the determination result sent from the object distinguishing unit 113.
The display restriction is performed by the method recorded in the polygon determination table described above. Data generated by the rendering process is converted into a video output signal and supplied to the display through the CRTC 33.
The sound control unit 117 synthesizes sound data recorded in the sound data recording unit 118. At that time, the sound output is restricted according to the determination result sent from the sound data distinction unit 116. The restriction in this case is controlled so as to be smaller than the normal sound volume to be output in accordance with the “volume” recorded in the sound element determination table. The synthesized sound data is supplied to the speaker.
[0047]
With the above processing, the displayed image and the output sound are limited in accordance with an instruction from the user. Thereby, the user can control the displayed image and the output sound according to his / her preference and physical condition, and can enjoy the game comfortably.
[0048]
Note that the results determined by the object distinguishing unit 113 and the sound data distinguishing unit 116 are continuously valid while the game is in progress. In order to change this, as described above, it is necessary for the user to operate the operation device 23 in a predetermined procedure to display the menu screen and to instruct through the menu screen.
[0049]
<Specific example of image output mode restriction method>
Next, some techniques for limiting the output form of an object (image) will be described.
(1) Polygon number control
Limit the number of polygons that make up an object. As described above, one object is composed of a plurality of types of polygons. For this reason, the polygons that satisfy a certain condition are controlled not to be drawn, thereby reducing the total number of polygons constituting the object.
(2) Color change
Change the color attached to the object. For example, the color set for the object is changed to a color similar to the color around the position where the object is displayed or the background color. The outline of the object may be blurred. In this case, the displayed object has a shallow depth of focus from the user, and the user feels as if the object is out of focus.
(3) Fog
Apply fog to the object to be drawn. The fog object is drawn in the drawing area of the target object. In addition, a target object and a fog object are synthesized in advance and drawn. By changing the color and transmittance of the fog object, the target object to be displayed can be made invisible to the user.
(4) Not displayed
The object itself is not drawn at all, thereby preventing it from being displayed on the screen at all.
As described above, the objects displayed on the display by these image restriction methods appear blurred or unrecognizable to the user.
[0050]
<Image / sound control operation 2>
Next, the processing procedure for the entertainment apparatus 1 to control the displayed image and the output sound from the relation between the user's operation and the game progress status will be described. FIG. 7 is a diagram for explaining this processing procedure.
When the game is started, the instruction information generation unit 112 monitors the user's operation and the progress of the game as needed (step S201). When the instruction information generation unit 112 determines that a specific state has occurred during monitoring, the instruction information generation unit 112 generates second object instruction information and / or second sound instruction information (step S202).
[0051]
When the game is a moving body operation game by the user, for example, a racing game in which the user drives a car, the instruction information generation unit 112 is a vehicle that is a moving body based on the operation status of the operating device 23 that is input. Monitor the current speed, direction of movement, visual field and viewpoint of the user displayed on the display. When these elements satisfy a predetermined condition, it is determined that the specific state described above has occurred. Therefore, the elements to be monitored and the specific state are game specific. The instruction information generation unit 112 generates second object instruction information and / or second sound instruction information indicating the generated specific state. However, since the information generation is based on a specific state, the second object instruction information and the second sound instruction information are not necessarily generated together. In the following description, it is assumed that both the second object instruction information and the second sound instruction information are generated.
[0052]
The generated second object instruction information is sent to the object discriminating unit 113, and the second sound instruction information is sent to the sound data discriminating unit 116, and restriction determination processing for determining whether or not a restriction request is detected in each of them is performed (step). S203).
When the object distinguishing unit 113 receives the second object instruction information, the object distinguishing unit 113 determines whether or not display restriction is necessary for each object according to a predetermined condition held in advance according to the specific state indicated by the second object instruction information. Furthermore, the object distinguishing unit 113 refers to the polygon determination table recorded in the object data recording unit 115 and determines which polygon is to be limited with respect to an object determined to be display-restricted. . For example, when the polygons constituting the object that is the display control target are those shown in FIG. 3, the object distinguishing unit 113 sets the reference importance level to 80, and the necessity of display control is compared with the importance level of each polygon. Determine. The determination result is sent to the drawing control unit 114.
Note that the determination of necessity of restriction according to such a predetermined condition and a specific example of the result will be described later with reference to an overhead view in a racing game.
[0053]
When the sound data discriminating unit 116 receives the second sound instruction information, the sound data distinguishing unit 116 determines whether or not the output form needs to be limited for each sound element according to a predetermined condition held in advance according to the specific state indicated by the second sound instruction information. judge. For example, when the sound element constituting the sound that is the object of output control is the one shown in FIG. 4, the sound data distinction unit 116 sets the reference importance to 80, and performs output control in comparison with the importance of each sound element. Whether or not is necessary is determined. The determination result is sent to the sound control unit 117.
The drawing control unit 114 performs processing for restricting image display according to the determination result sent from the object discrimination unit 113, and the sound control unit 117 outputs sound according to the determination result sent from the sound data discrimination unit 116. Processing for limiting is performed (step S204). This process is the same as the process in step S107 of FIG.
With the above processing, the displayed image and the output sound are limited according to the relationship between the user's operation and the game progress status. Thereby, the user can enjoy the game comfortably.
[0054]
Next, an example of a screen when the restriction process is performed according to the procedure shown in FIG. 5 or FIG. 7 will be described.
FIG. 8 is a scene of the above racing game. On this screen, a road 201 that is a race course is displayed so as to extend upward from the lower part around the center of the screen. Along the road 201, buildings 202a to 202h are further displayed so that trees 203a to 203f are located on the outside thereof. In addition, mountains 204a and 204b are displayed as part of the background at the top of the screen. The screen shown in FIG. 8 is a screen displayed on the display when no instruction information is generated by the instruction information generation unit 112. The road 201, the buildings 202a to 202h, the trees 203a to 203f, and the mountain ranges 204a and 204b can be defined as objects.
However, when the restriction process is performed according to the procedure shown in FIG. 5 or 7, the screen as shown in FIG. 8 should be originally displayed on the display, but the screen as shown in FIG. 9 is displayed. .
[0055]
In FIG. 9, the color of the center line indicating the center of the road 201 is changed. This is changed to the same color as other parts of the road 201 by the color change described above. In the buildings 202a to 202g, the windows located on the plane along the road 201 are connected in the lateral direction, and the windows located on the plane perpendicular to the direction of the road 201 are eliminated. This is a result of processing performed by combining polygon number control, color change, and fog. The building 202h is erased by fog. Trees 203a to 203f are displayed simplified by controlling the number of polygons. The mountain range 204a is displayed so that the outline is blurred by color change.
[0056]
Thus, according to the entertainment apparatus 1 of this embodiment, it becomes possible for a user to visually recognize an image comfortably and to hear a sound.
[0057]
Here, in order to facilitate understanding of the information output restriction method by the entertainment apparatus 1, some specific examples will be introduced.
<Specific example 1>
FIG. 10 shows a course of a race game as viewed from above. There are buildings (squares) and trees (circles) around the road 201. A numerical value in a square or circle is a value indicating the importance of each object. These numbers are those set by the game creator.
Here, an image restriction instruction is given from the user, and the object displayed when the processing according to the procedure shown in FIG. 5 is performed is as shown in FIG. Here, the case where the numerical value of 75 is obtained by converting the instruction from the user into the importance level is shown. That is, only objects whose importance exceeds 75 are displayed.
The above is a specific example in which an image displayed in accordance with an instruction from a user is controlled.
[0058]
<Specific example 2>
FIG. 12 shows a scene similar to FIG. Here, the user's viewpoint is indicated by the intersection of two arrows. The numerical value in the square or circle is a numerical value that relatively indicates the distance from the user's viewpoint to the object.
Here, it is assumed that the instruction information generation unit 112 detects the occurrence of a specific state while the game is in progress. In particular, it is assumed that the instruction information generating unit 112 determines that the specific state has occurred because the speed of the vehicle operated by the user is equal to or lower than a predetermined speed. As a result, the object displayed when processing is performed according to the procedure shown in FIG. 7 is as shown in FIG. In the process according to the procedure, the object distinguishing unit 113 performs display determination of each object according to a predetermined condition in response to the occurrence of the specific state (the vehicle speed is slow). Further, the predetermined condition is to display only objects whose distance from the viewpoint is less than 1.8. The road 201 is always assumed to have a distance from the viewpoint of 0, and is displayed regardless of the position of the viewpoint. The above is a specific example in which the displayed image is controlled according to the relationship between the user's operation and the game progress status.
[0059]
<Specific example 3>
FIG. 14 is a diagram for explaining a case where the specific example 1 and the specific example 2 are combined. That is, it is a diagram showing a state in which an image displayed is controlled according to a user's operation and a game progress status in accordance with an instruction from the user.
This figure shows a state in which only objects whose importance exceeds 75 and whose distance from the viewpoint is closer than 1.8 are displayed.
[0060]
<Specific Example 4>
FIG. 15 is a drawing when the course is viewed from the top as in FIGS. 10 to 14. Here, a case where the instruction information generation unit 112 detects a case where the vehicle speed increases at a predetermined increase rate while the game is in progress in a specific state and the image is controlled according to the detected specific state is shown. The object distinguishing unit 113 controls the display of the image according to a predetermined condition in response to the detection of the specific state. The predetermined condition is to display only objects located at a distance from the viewpoint of 1.0 to 2.0. Such an image restriction can avoid displaying an object that is too close to the viewpoint. Normally, when an object close to the viewpoint is displayed when the speed is high, the user becomes an obstacle to knowing a distant state. Therefore, such inconvenience for the user can be solved, and a comfortable operating environment can be provided to the user. Note that a method that does not draw the object itself or fog can be applied to the image restriction method in the fourth specific example.
[0061]
<Specific Example 5>
FIG. 16 shows an example in which an object not displayed in FIG. 11 is made inconspicuous by applying fog. The importance is indicated by a numerical value from 0 to 3 in the square or circle. Here, it is assumed that the smaller the numerical value, the higher the importance.
The fog is performed by mixing the original color of the object and the fog color. In FIG. 16, although only one type of mixing is depicted, if the mixing coefficient is changed according to the difference between the importance level and the limiting index, the fog density can be changed continuously.
The following formula is an example of a calculation formula for changing the mixing coefficient.
Alpha = (Importance-Limitation) / Depth
if (Alpha> 1) Alpha = 1
if (Alpha <0) Alpha = 0
COL = COLfog * Alpha + COLobj * (1-Alpha)
Alpha: α value (opacity)
Importance: Importance attached to the object
Limitation: Value obtained by converting the degree of restriction specified by the user into a numerical value of 0 to 3
Depth: Index difference from where fog starts to where the object disappears
COLfog: Color attached to fog (color separation value)
COLOBj: Color attached to the object (color separation value)
When 0 <Alpha <1, COL is calculated using the numerical value as it is.
When Importance is smaller than Limitation, COL = Colobj, when it is greater than Limitation + Depth, COL = COLfog, and in the middle, COLfog and COLobj are mixed.
[0062]
<Specific Example 6>
FIG. 17 is a diagram illustrating a result of performing the same processing as in the specific example 5 with respect to the distance from the user's viewpoint. In this case, as the object is located farther from the viewpoint, the fog ratio increases and becomes inconspicuous.
[0063]
<Specific example 7>
18 and 19 are diagrams for explaining a specific example in which an image is limited by color change. FIG. 18 shows a color lookup table, and FIG. 19 shows the objects 1 and 2 displayed on the screen, and the color numbers assigned to each object and the color numbers assigned to the background. .
That is, the object and the background that can be displayed on this screen are converted from the assigned color number into the corresponding RGB value, and the rendering process is performed according to the RGB value. For example, the number 0 assigned to a part of the object 1 and the object 2 is (0, 0, 0) (black) and the number 1 is (0, 0, 255) (blue).
Therefore, the color assigned to the object is changed according to the following formula.
Alpha = (Distance 1-Distance 2) / Depth
if (Alpha> 1) Alpha = 1
if (Alpha <0) Alpha = 0
COL = COLfog * Alpha + COLobj * (1-Alpha)
Distance 1: Distance from viewpoint to object
Distance 2: Distance from the viewpoint to the point where fog starts
Other variables are the same as those referred to in Example 5.
The object 1 is assigned colors with color numbers 0 to 5. The color number assigned to the background of the object 1 is 6. Therefore, the color from 0 to 5 is changed according to the above formula. For example, if the color 0 (0, 0, 0) is COLobj, the color 6 is COLbg, distance 1 is 2.5, distance 2 is 1.8, and the depth is 1.0.
Alpha = (2.5-1.8) /1.0=0.7
if (Alpha> 1) Alpha = 1
if (Alpha <0) Alpha = 0
COL = (0,0,255) * 0.7 + (0,0,0) (1-0.7) = (0,0,178)
It becomes. Similarly, if the color numbers 1 to 5 are also changed, the object 1 becomes close to the background color and distance and becomes inconspicuous. When the object 2 is drawn, the color numbers 0 to 3 are changed according to the distance. If the object is on a different background, the above color can be used for the above calculation.
[0064]
By using some of these specific examples, various image restrictions are possible.
Note that a single fog can be made inconspicuous by combining a plurality of limiting methods such as combining fog and color change.
Further, in specific example 3 and specific example 4, the image control according to the vehicle speed has been described, but it can also be limited to sound. For example, it is possible to increase the sound related to the back music or landscape when the vehicle speed is low, and to increase the engine sound when the vehicle speed increases.
[0065]
In this embodiment, the instruction information generation unit 112 generates four types of instruction information, but can be limited to any one or a plurality of instruction information as necessary.
Further, the user may set a method for limiting each polygon. However, in that case, it is necessary to accept the user's instructions to the extent that the playability of the game is not impaired. Further, each restriction method may be selected algorithmically using a flowchart or the like without being specified in the polygon determination table. The processing shown in FIG. 5 and / or FIG. 7 can also be realized by executing a game program downloaded via a network in the CPU 10 or the like.
[0066]
In the above, an entertainment apparatus is taken as an example, and its configuration example, operation example, and usage example have been described. However, the information processing system of the present invention is not limited to the example of this embodiment. The present invention can be similarly applied to electronic devices other than entertainment devices, devices, and computer systems. It can also be applied to devices that are unrelated to the game, such as a video player for personal use. However, when applied to such a device, the specific state described above is based on the user's operation and the progress of the game. It is not determined, but is determined according to the progress of the provided video, music, and scenario.
[0067]
In this embodiment, the main functions related to information processing among the functional blocks shown in FIG. 2 are realized by semiconductor devices such as the CPU 10, SPU 21, and GPU 31, and computer programs read by these. Also, it can be realized by a one-chip semiconductor device having all these functions. In this case, the computer program may be recorded in advance in a memory mounted on the chip, or may be recorded in the memory afterwards.
Further, the above functions can be realized by a general-purpose computer. In this case, a computer program for realizing the above functions may be recorded on a computer-readable recording medium, and this computer program may be installed in the computer at the time of system construction. Further, such a computer program may be downloaded to a computer through a network.
[0068]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an information processing system in which a user can comfortably view information and an object for realizing the information processing system.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of an entertainment apparatus according to an embodiment of the present invention.
FIG. 2 is a functional block diagram showing a functional configuration related to image / sound control in this embodiment.
FIG. 3 is a diagram showing an example of a polygon determination table in this embodiment.
FIG. 4 is a diagram showing an example of a sound element determination table in this embodiment.
FIG. 5 is a diagram for explaining a processing procedure from when an instruction from a user is received until an image or sound is actually controlled;
FIG. 6 is a diagram showing an example of a menu screen for receiving an instruction from a user.
FIG. 7 is a diagram for explaining a processing procedure for controlling an image to be displayed and an output sound based on a relation between a user operation and a game progress state;
FIG. 8 is a diagram showing an example of a screen displayed on the display in a state where image control is not performed.
FIG. 9 is a diagram showing an example of a screen displayed on the display in a state where image control is performed.
FIG. 10 is a top view of a course of a race game.
FIG. 11 is a diagram showing a case where image restriction is performed according to importance in FIG. 10;
12 is a diagram showing a screen similar to FIG. 10 representing a distance from a user's viewpoint. FIG.
13 is a diagram showing a case where image restriction is performed according to the distance from the viewpoint in FIG.
FIG. 14 is a diagram illustrating a case where image restriction is performed according to importance and distance from a viewpoint in FIG. 10;
FIG. 15 is a diagram illustrating a case where image restriction is performed according to the occurrence of a specific state in FIG. 10;
FIG. 16 is a diagram showing a case where an object that is not displayed in FIG. 11 is made inconspicuous by fogging.
FIG. 17 is a diagram showing a case where an object not displayed in FIG. 13 is made inconspicuous by applying fog;
FIG. 18 is a diagram illustrating an example of a color lookup table.
FIG. 19 is a diagram for explaining processing when an image is limited by color change;
[Explanation of symbols]
10 CPU
11 Main memory
12 DMAC
13 MDEC
14 Media drive
15 Recording media
16 Input section
17 ATM
18 ROM
19 Connection terminal
21 SPU
22 Sound memory
23 Operating device
31 GPU
32 frame memory
33 CRTC
111 Input controller
112 Instruction information generation unit
113 Object distinction part
114 Drawing control unit
115 Object data recording unit
116 Sound data distinction part
117 Sound control unit
118 Sound data recording unit

Claims (22)

情報出力を行う出力装置との接続を可能にするインタフェース手段、
情報の出力形態に対する制限要求を検知する制限要求検知手段、
検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、
生成された指示情報に従ってその出力形態が制限された情報を表現するための出力用データを生成するデータ生成手段、及び、
生成された出力用データを前記出力装置宛に出力する出力手段
を具備することを特徴とする、情報処理システム。
Interface means for enabling connection with an output device for outputting information;
Limit request detection means for detecting a limit request for the output form of information,
Instruction information generating means for generating predetermined instruction information according to the detected restriction request;
Data generating means for generating output data for expressing information whose output form is limited according to the generated instruction information; and
An information processing system comprising output means for outputting the generated output data to the output device.
前記データ生成手段は、その出力形態が制限された画像と音の少なくとも一方を含む情報を表現するための出力用データを生成することを特徴とする、
請求項1記載の情報処理システム。
The data generation means generates output data for expressing information including at least one of an image and a sound whose output form is limited,
The information processing system according to claim 1.
前記指示情報には前記出力形態の制限の程度を表す第1パラメータが含まれており、画像又は音にはその出力の必要性の程度を表す第2パラメータが予め割り当てられており、
前記データ生成手段は、前記第1パラメータと前記第2パラメータとの比較結果に基づいて前記出力用データを生成することを特徴とする、
請求項2記載の情報処理システム。
The instruction information includes a first parameter indicating the degree of restriction of the output form, and the image or sound is pre-assigned a second parameter indicating the degree of necessity of the output,
The data generation means generates the output data based on a comparison result between the first parameter and the second parameter.
The information processing system according to claim 2.
前記第2パラメータが予め制限対象となる画像又は音の構成要素毎にメモリに記憶されており、
前記データ生成手段は、前記指示情報の受領を契機に前記メモリから該当する構成要素についての第2パラメータを読み出し、読み出した第2パラメータにより特定される必要性の程度が前記第1パラメータにより特定される制限の程度よりも低い構成要素の出力を制限することにより、前記出力用データを生成することを特徴とする、
請求項3記載の情報処理システム。
The second parameter is stored in advance for each component of the image or sound to be restricted,
The data generation means reads the second parameter for the corresponding component from the memory upon receipt of the instruction information, and the degree of necessity specified by the read second parameter is specified by the first parameter. Generating the output data by restricting the output of the component lower than the degree of restriction,
The information processing system according to claim 3.
前記指示情報が画像の出力形態を制限させるものである場合、
前記データ生成手段は、当該画像の構成要素数の低減、個々の構成要素に割り当てられている色の変更、個々の構成要素と所定の画素データとの合成、個々の構成要素の消去、の少なくともいずれかを行うことにより、前記必要性の程度が前記制限の程度よりも低い構成要素の出力を制限することを特徴とする、
請求項4記載の情報処理システム。
When the instruction information restricts the output form of the image,
The data generation means includes at least the reduction of the number of components of the image, the change of the color assigned to each component, the synthesis of each component and predetermined pixel data, and the deletion of each component. By performing any of the above, the output of a component whose degree of necessity is lower than the degree of restriction is characterized.
The information processing system according to claim 4.
前記指示情報が音の出力形態を制限させるものである場合、
前記データ生成手段は、前記出力装置から出力される音量が小さくなるように前記必要性の程度が前記制限の程度よりも低い音要素の出力を制限することを特徴とする、
請求項4記載の情報処理システム。
When the instruction information restricts the output form of sound,
The data generating means limits the output of sound elements whose degree of necessity is lower than the degree of restriction so that the volume output from the output device is small.
The information processing system according to claim 4.
情報出力を行う出力装置とコンピュータとを接続し、
該コンピュータに於いて、
情報の出力形態に対する制限要求を検知する処理、
検知した前記制限要求に応じた所定の指示情報を生成する処理、
生成された指示情報に従ってその出力形態が制限された情報を表現するための出力用データを生成する処理、及び、
生成された出力用データを前記出力装置宛に出力する処理
を実行することを特徴とする、情報の出力制限方法。
Connect an output device that outputs information and a computer,
In the computer,
Processing to detect a restriction request for the output form of information,
Processing for generating predetermined instruction information in response to the detected restriction request;
Processing for generating output data for expressing information whose output form is limited in accordance with the generated instruction information; and
A method for restricting output of information, wherein a process of outputting the generated output data to the output device is executed.
情報出力を行う出力装置と接続可能なコンピュータに、
情報の出力形態に対する制限要求を検知する制限要求検知手段、
検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、
生成された指示情報に従ってその出力形態が制限された情報を表現するための出力用データを生成するデータ生成手段、及び、
生成された出力用データを前記出力装置宛に出力する出力手段
を構築するためのコンピュータプログラム。
To a computer that can be connected to an output device that outputs information,
Limit request detection means for detecting a limit request for the output form of information,
Instruction information generating means for generating predetermined instruction information according to the detected restriction request;
Data generating means for generating output data for expressing information whose output form is limited according to the generated instruction information; and
A computer program for constructing output means for outputting generated output data to the output device.
請求項8に記載されたコンピュータプログラムが記録されている、
コンピュータ読み取り可能な記録媒体。
The computer program according to claim 8 is recorded,
Computer-readable recording medium.
情報出力を行う出力装置と接続可能なコンピュータに搭載され、
前記コンピュータが有する他の構成部品と協働で、該コンピュータ内に、
情報の出力形態に対する制限要求を検知する制限要求検知手段、
検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、
生成された指示情報に従ってその出力形態が制限された情報を表現するための出力用データを生成するデータ生成手段、及び、
生成された出力用データを前記出力装置宛に出力する出力手段を構築する、
半導体デバイス。
It is mounted on a computer that can be connected to an output device that outputs information,
In cooperation with other components of the computer,
Limit request detection means for detecting a limit request for the output form of information,
Instruction information generating means for generating predetermined instruction information according to the detected restriction request;
Data generating means for generating output data for expressing information whose output form is limited according to the generated instruction information; and
Constructing an output means for outputting the generated output data to the output device;
Semiconductor device.
利用者への情報出力を行う出力装置及び利用者による操作情報を入力する入力装置との接続を可能にするインタフェース手段、
所定のシナリオに従ってその内容が変化するエンタテインメント情報を生成する情報生成手段、
生成されるエンタテインメント情報の出力形態に対する制限要求を前記入力装置から入力される操作情報に基づいて検知する制限要求検知手段、
検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、
生成された指示情報に従ってその出力形態が制限されたエンタテインメント情報を表現するための出力用データを生成するデータ生成手段、及び、
生成された出力用データを前記出力装置宛に出力する出力手段
を具備することを特徴とする、情報処理システム。
Interface means for enabling connection with an output device for outputting information to a user and an input device for inputting operation information by the user;
Information generating means for generating entertainment information whose contents change according to a predetermined scenario;
Restriction request detecting means for detecting a restriction request for the output form of the generated entertainment information based on operation information input from the input device;
Instruction information generating means for generating predetermined instruction information according to the detected restriction request;
Data generating means for generating output data for expressing entertainment information whose output form is limited in accordance with the generated instruction information; and
An information processing system comprising output means for outputting the generated output data to the output device.
前記データ生成手段は、その出力形態が制限された画像及び音の少なくとも一方を含むエンタテインメント情報を表現するための出力用データを生成することを特徴とする、
請求項11記載の情報処理システム。
The data generation means generates output data for expressing entertainment information including at least one of an image and a sound whose output form is limited,
The information processing system according to claim 11.
前記制限要求検知手段は、前記入力装置から入力される操作情報を所定の基準情報と比較することにより前記シナリオにおける特定状態が発生したかどうかを判定し、特定状態が発生したと判定できる場合に前記制限要求を検知した旨を表す情報を出力することを特徴とする、
請求項11記載の情報処理システム。
The restriction request detection means determines whether or not a specific state has occurred in the scenario by comparing operation information input from the input device with predetermined reference information, and can determine that a specific state has occurred. Outputting information indicating that the restriction request has been detected;
The information processing system according to claim 11.
前記シナリオが利用者による移動体操作ゲームのシナリオであり、
前記入力装置が、利用者の操作によって変化する移動体の速度、移動方向、利用者の視点又は利用者の視野の少なくとも1つを表す操作情報を入力するものであることを特徴とする、
請求項13記載の情報処理システム。
The scenario is a scenario of a mobile operation game by a user,
The input device is for inputting operation information representing at least one of a speed of a moving body, a moving direction, a user's viewpoint, or a user's field of view, which is changed by a user's operation,
The information processing system according to claim 13.
前記指示情報には前記出力形態の制限の程度を表す第1パラメータが含まれており、画像又は音にはその出力の必要性の程度を表す第2パラメータが予め割り当てられており、
前記データ生成手段は、前記第1パラメータと前記第2パラメータとの比較結果に基づいて前記出力用データを生成することを特徴とする、
請求項11記載の情報処理システム。
The instruction information includes a first parameter indicating the degree of restriction of the output form, and the image or sound is pre-assigned a second parameter indicating the degree of necessity of the output,
The data generation means generates the output data based on a comparison result between the first parameter and the second parameter.
The information processing system according to claim 11.
前記第2パラメータが予め制限対象となる画像又は音の構成要素毎にメモリに記憶されており、
前記データ生成手段は、前記指示情報の受領を契機に前記メモリから該当する構成要素についての第2パラメータを読み出し、読み出した第2パラメータにより特定される必要性の程度が前記第1パラメータにより特定される制限の程度よりも低い構成要素の出力を制限することにより、前記出力用データを生成することを特徴とする、
請求項15記載の情報処理システム。
The second parameter is stored in advance for each component of the image or sound to be restricted,
The data generation means reads the second parameter for the corresponding component from the memory upon receipt of the instruction information, and the degree of necessity specified by the read second parameter is specified by the first parameter. Generating the output data by restricting the output of the component lower than the degree of restriction,
The information processing system according to claim 15.
前記指示情報が画像の出力形態を制限させるものである場合、
前記データ生成手段は、当該画像の構成要素数の低減、個々の構成要素に割り当てられている色の変更、個々の構成要素と所定の画素データとの合成、個々の構成要素の消去、の少なくともいずれかを行うことにより、前記必要性の程度が前記制限の程度よりも低い構成要素の出力を制限することを特徴とする、
請求項16記載の情報処理システム。
When the instruction information restricts the output form of the image,
The data generation means includes at least the reduction of the number of components of the image, the change of the color assigned to each component, the synthesis of each component and predetermined pixel data, and the deletion of each component. By performing any of the above, the output of a component whose degree of necessity is lower than the degree of restriction is characterized.
The information processing system according to claim 16.
前記指示情報が音の出力形態を制限させるものである場合、
前記データ生成手段は、前記出力装置から出力される音量が小さくなるように前記必要性の程度が前記制限の程度よりも低い音要素の出力を制限することを特徴とする、
請求項16記載の情報処理システム。
When the instruction information restricts the output form of sound,
The data generating means limits the output of sound elements whose degree of necessity is lower than the degree of restriction so that the volume output from the output device is small.
The information processing system according to claim 16.
利用者への情報出力を行う出力装置及び利用者による操作情報を入力する入力装置とコンピュータとを接続し、
該コンピュータに於いて、
所定のシナリオに従ってその内容が変化するエンタテインメント情報を生成する処理、
生成されるエンタテインメント情報の出力形態に対する制限要求を前記入力装置から入力される操作情報に基づいて検知する処理、
検知した前記制限要求に応じた所定の指示情報を生成する処理、
生成された指示情報に従ってその出力形態が制限されたエンタテインメント情報を表現するための出力用データを生成する処理、及び、
生成された出力用データを前記出力装置宛に出力する処理
を実行することを特徴とする、情報の出力制限方法。
Connecting an output device for outputting information to a user and an input device for inputting operation information by the user and a computer;
In the computer,
Processing to generate entertainment information whose contents change according to a predetermined scenario,
A process of detecting a restriction request for an output form of the generated entertainment information based on operation information input from the input device;
Processing for generating predetermined instruction information in response to the detected restriction request;
Processing for generating output data for representing entertainment information whose output form is limited in accordance with the generated instruction information; and
A method for restricting output of information, wherein a process of outputting the generated output data to the output device is executed.
利用者への情報出力を行う出力装置及び利用者による操作情報を入力する入力装置と接続可能なコンピュータに、
所定のシナリオに従ってその内容が変化するエンタテインメント情報を生成する情報生成手段、
生成されるエンタテインメント情報の出力形態に対する制限要求を前記入力装置から入力される操作情報に基づいて検知する制限要求検知手段、
検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、
生成された指示情報に従ってその出力形態が制限されたエンタテインメント情報を表現するための出力用データを生成するデータ生成手段、及び、
生成された出力用データを前記出力装置宛に出力する出力手段
を構築するためのコンピュータプログラム。
To a computer that can be connected to an output device that outputs information to the user and an input device that inputs operation information by the user,
Information generating means for generating entertainment information whose contents change according to a predetermined scenario;
Restriction request detecting means for detecting a restriction request for the output form of the generated entertainment information based on operation information input from the input device;
Instruction information generating means for generating predetermined instruction information according to the detected restriction request;
Data generating means for generating output data for expressing entertainment information whose output form is limited in accordance with the generated instruction information; and
A computer program for constructing output means for outputting generated output data to the output device.
請求項20に記載されたコンピュータプログラムが記録されている、
コンピュータ読み取り可能な記録媒体。
The computer program according to claim 20 is recorded,
Computer-readable recording medium.
利用者への情報出力を行う出力装置及び利用者による操作情報を入力する入力装置と接続可能なコンピュータに搭載され、
前記コンピュータが有する他の構成部品と協働で、該コンピュータ内に、
所定のシナリオに従ってその内容が変化するエンタテインメント情報を生成する情報生成手段、
生成されるエンタテインメント情報の出力形態に対する制限要求を前記入力装置から入力される操作情報に基づいて検知する制限要求検知手段、
検知した前記制限要求に応じた所定の指示情報を生成する指示情報生成手段、
生成された指示情報に従ってその出力形態が制限されたエンタテインメント情報を表現するための出力用データを生成するデータ生成手段、及び、
生成された出力用データを前記出力装置宛に出力する出力手段
を構築する、半導体デバイス。
Installed in a computer that can be connected to an output device that outputs information to the user and an input device that inputs operation information by the user,
In cooperation with other components of the computer,
Information generating means for generating entertainment information whose contents change according to a predetermined scenario;
Restriction request detecting means for detecting a restriction request for the output form of the generated entertainment information based on operation information input from the input device;
Instruction information generating means for generating predetermined instruction information according to the detected restriction request;
Data generating means for generating output data for expressing entertainment information whose output form is limited in accordance with the generated instruction information; and
A semiconductor device that constructs output means for outputting generated output data to the output device.
JP2003168142A 2000-06-06 2003-06-12 Information processing system, information output limitation method, computer program, recording medium, and semiconductor device Pending JP2004089693A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003168142A JP2004089693A (en) 2000-06-06 2003-06-12 Information processing system, information output limitation method, computer program, recording medium, and semiconductor device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000169820 2000-06-06
JP2003168142A JP2004089693A (en) 2000-06-06 2003-06-12 Information processing system, information output limitation method, computer program, recording medium, and semiconductor device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001168766A Division JP2002102532A (en) 2000-06-06 2001-06-04 Information processing system and method, computer program, storage medium and semiconductor device

Publications (1)

Publication Number Publication Date
JP2004089693A true JP2004089693A (en) 2004-03-25

Family

ID=32071469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003168142A Pending JP2004089693A (en) 2000-06-06 2003-06-12 Information processing system, information output limitation method, computer program, recording medium, and semiconductor device

Country Status (1)

Country Link
JP (1) JP2004089693A (en)

Similar Documents

Publication Publication Date Title
JP3068205B2 (en) Image processing apparatus, game machine using this processing apparatus, image processing method, and medium
JP4177381B2 (en) Image generation method, image generation apparatus, and image generation program
KR100292148B1 (en) Command input method and recording medium
JP3306397B2 (en) Entertainment device, image generation method, and storage medium
US20050237323A1 (en) Three-dimensional image generating apparatus, storage medium storing a three-dimensional image generating program, and three-dimensional image generating method
EP0836871A2 (en) Video game machine for playing video ball game and storage medium storing video ball game program
US7330769B2 (en) Parameterized interactive control of multiple wave table sound generation for video games and other applications
JP3145064B2 (en) Video game machine and medium recording video game program
JP2000279637A (en) Game device, game display control method, and computer- readable record medium
US8072458B2 (en) Storage medium having game program stored thereon and game apparatus
JP2006068138A (en) Game apparatus and image processing program
US20040157661A1 (en) Game apparatus, game message displaying method and storage medium storing game program
US20010036860A1 (en) Character display method, information recording medium and entertainment apparatus
JP2002102532A (en) Information processing system and method, computer program, storage medium and semiconductor device
JP6012388B2 (en) Audio output system, audio output program, audio output control method, and information processing apparatus
JP2012050791A (en) Character display device, character display method, and program
JP3084557B2 (en) Fluid image simple display method, image display device, recording medium
JP2992499B2 (en) Image processing method and apparatus, recording medium
JP4485991B2 (en) Image processing apparatus, image processing method, and program
JP2004089693A (en) Information processing system, information output limitation method, computer program, recording medium, and semiconductor device
KR20020092773A (en) Entertainment apparatus having image and sound controlling system
US6208358B1 (en) Image processing device, image processing method and storage medium
JPH10230075A (en) Game device
JP4563482B2 (en) GAME DEVICE AND GAME PROGRAM
JP2000102675A (en) Object display, and storage medium readable out with computer and memorizing game system and game program