JP2004165750A - Information processing system, information processor and method therefor, recording medium, and program - Google Patents

Information processing system, information processor and method therefor, recording medium, and program Download PDF

Info

Publication number
JP2004165750A
JP2004165750A JP2002326269A JP2002326269A JP2004165750A JP 2004165750 A JP2004165750 A JP 2004165750A JP 2002326269 A JP2002326269 A JP 2002326269A JP 2002326269 A JP2002326269 A JP 2002326269A JP 2004165750 A JP2004165750 A JP 2004165750A
Authority
JP
Japan
Prior art keywords
image
information processing
information
game machine
dsc
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002326269A
Other languages
Japanese (ja)
Inventor
Takushi Masuda
拓士 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002326269A priority Critical patent/JP2004165750A/en
Publication of JP2004165750A publication Critical patent/JP2004165750A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Facsimiles In General (AREA)
  • Facsimile Transmission Control (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To form a picture desired by a user by an easy operation. <P>SOLUTION: When a release button is operated, a digital still camera (called DSC, hereinafter) 4-1 requests a game machine 3-1 to send image data displayed on a television receiver 6-1. The game machine 3-1 extracts requested instantaneous image data from a moving picture displayed on the television receiver 6-1, forms an image file according to the image file format standard (Exif) for digital still camera, and transmits the formed image file to the game machine 3-1. The formed image file is stored in a memory card mounted in the DSC 4-1. This may be applied to an electronic apparatus connected to a network. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、情報処理システム、情報処理装置および方法、記録媒体、並びにプログラムに関し、特に、容易な操作で、ユーザが所望する画像を作成することができるようにした情報処理システム、情報処理装置および方法、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
近年、デジタルスチルカメラが普及し、所望する被写体の画像データを容易に作成することが可能となっている。また、パーソナルコンピュータの表示画面の画像を静止画として取得する(所謂、キャプチャ)ことも可能である。
【0003】
また、ユーザに、カメラ型の撮影操作部を操作して、プロジェクタに表示された画像を撮影させ、撮影結果を採点するようにした撮影ゲーム機がある(例えば、特許文献参照)。
【0004】
【特許文献】
特開2000−70548号公報(第3−5ページ、図6乃至図11)
【0005】
【発明が解決しようとする課題】
しかしながら、従来、ユーザからの容易な操作により、パーソナルコンピュータやゲーム機により表示されている画像を、ユーザが手馴れた操作で作成することができないという課題があった。
【0006】
本発明はこのような状況に鑑みてなされたものであり、容易な操作により、ユーザが所望する画像を作成することを目的とする。
【0007】
【課題を解決するための手段】
本発明の情報処理システムは、第1の情報処理装置は、ネットワークを介して、第2の情報処理装置に対して、画像を要求する要求信号を送信する第1の送信手段と、第2の情報処理装置から画像を受信する第1の受信手段と、第1の受信手段により受信された画像を、所定のフォーマットのファイルとして記録媒体に記録する記録手段とを備え、第2の情報処理装置は、第1の情報処理装置から、要求信号を受信する第2の受信手段と、第2の受信手段により要求信号が受信されたタイミングに対応して、要求信号に含まれている第1の情報処理装置の設定情報に基づいて、第1の情報処理装置に送信する画像を作成する作成手段と、作成手段により作成された画像を第1の情報処理装置に送信する第2の送信手段とを備えることを特徴とする。
【0008】
本発明の情報処理装置は、ネットワークを介して接続された第1の他の情報処理装置から、画像の要求信号を受信する第1の受信手段と、第1の受信手段により要求信号が受信されたタイミングに対応して、要求信号に含まれている第1の他の情報処理装置の設定情報に基づいて、第1の他の情報処理装置に送信する第1の画像を作成する作成手段と、作成手段により作成された第1の画像を第1の他の情報処理装置に送信する第1の送信手段とを備えることを特徴とする情報処理装置。
【0009】
所定の表示装置への、第2の画像の表示を制御する表示制御手段をさらに設けるようにし、前記作成手段には、表示装置に表示させる第2の画像をさらに作成するようにさせることができる。
【0010】
前記作成手段には、前記第1の画像の送信要求が受信されたタイミングで前記表示装置に表示する前記第2の画像を、前記第1の他の情報処理装置に送信すべき前記第1の画像とするようにさせることができる。
【0011】
前記作成手段には、前記第1の画像の送信要求が受信されたタイミングで前記表示装置に表示する前記第2の画像を、より高解像度にした画像を、前記第1の他の情報処理装置に送信すべき前記第1の画像として作成するようにさせることができる。
【0012】
前記作成手段には、前記表示装置に表示された仮想空間内の所定のアングルからの画像を、前記第1の他の情報処理装置に送信すべき前記第1の画像として作成するようにさせることができる。
【0013】
前記第1の他の情報処理装置は、撮像装置であるようにすることができる。
【0014】
前記設定情報は、前記撮像装置のフォーカス、絞り値、シャッタスピード、フラッシュ、ズーム、および画質に関する情報のうち、1以上の情報を含むようにすることができる。
【0015】
前記作成手段により作成された前記第1の画像を、デジタルスチルカメラで再生可能なファイルフォーマットに変換する変換手段をさらに設けるようにし、前記第1の送信手段には、前記変換手段により前記デジタルスチルカメラで再生可能なファイルフォーマットに変換された前記第1の画像を前記第1の他の情報処理装置に送信するようにさせることができる。
【0016】
前記第1の画像を作成するための画像作成用データを保持する第2の他の情報処理装置に、画像作成用データの送信要求を送信する第2の送信手段と、第2の他の情報処理装置より、画像作成用データを受信する第2の受信手段とをさらに設けるようにし、前記作成手段には、第2の受信手段により受信された画像作成用データを利用して、前記第1の画像を作成するようにさせることができる。
【0017】
本発明の情報処理方法は、ネットワークを介して接続された他の情報処理装置から、画像の要求信号を受信する受信ステップと、受信ステップの処理により要求信号が受信されたタイミングに対応して、要求信号に含まれている他の情報処理装置の設定情報に基づいて、他の情報処理装置に送信する画像を作成する作成ステップと、作成ステップの処理により作成された画像を他の情報処理装置に送信する送信ステップとを含むことを特徴とする。
【0018】
本発明の記録媒体のプログラムは、ネットワークを介して接続された他の情報処理装置から、画像の要求信号を受信した場合、要求信号が受信されたタイミングに対応して、要求信号に含まれている他の情報処理装置の設定情報に基づいて、他の情報処理装置に送信する画像を作成する作成ステップを含むことを特徴とする。
【0019】
本発明のプログラムは、ネットワークを介して接続された他の情報処理装置から、画像の要求信号を受信した場合、要求信号が受信されたタイミングに対応して、要求信号に含まれている他の情報処理装置の設定情報に基づいて、他の情報処理装置に送信する画像を作成する作成ステップをコンピュータに実行させることを特徴とする。
【0020】
本発明の情報処理システムにおいては、第1の情報処理装置では、ネットワークを介して、第2の情報処理装置に対して、画像を要求する要求信号が送信され、第2の情報処理装置から画像が受信され、受信された画像が、所定のフォーマットのファイルとして記録媒体に記録される。また、第2の情報処理装置では、第1の情報処理装置から、要求信号が受信され、要求信号が受信されたタイミングに対応して、要求信号に含まれている第1の情報処理装置の設定情報に基づいて、第1の情報処理装置に送信する画像が作成され、作成された画像が第1の情報処理装置に送信される。
【0021】
本発明の情報処理装置および方法、記録媒体、並びにプログラムにおいては、ネットワークを介して接続された他の情報処理装置から、画像の要求信号が受信された場合、要求信号が受信されたタイミングに対応して、要求信号に含まれている他の情報処理装置の設定情報に基づいて、他の情報処理装置に送信する画像が作成される。
【0022】
【発明の実施の形態】
図1は、本発明を適用した情報処理システムの構成例を表している。
【0023】
図1の情報処理システムにおいては、インターネットを含むネットワーク1に対して、ゲームサーバ8、および課金サーバ9が接続されている。また、ネットワーク1には、モデム2−1を介して、ゲーム機3−1が接続されている。さらに、ネットワーク1には、モデム2−2を介して、ゲーム機3−2が接続されている。
【0024】
ゲーム機3−1には、デジタルスチルカメラ(以下の説明において、DSCと称する)4−1、スキャナ5−1、テレビジョン受像機6−1、およびプリンタ7−1が接続されている。ここで、ゲーム機3−1、DSC4−1、およびスキャナ5−1は、USB(Universal Serial Bus)コネクタを有している。DSC4−1は、ゲーム機3−1とUSB接続され、相互に通信している。同様に、スキャナ5−1とゲーム機3−1間もUSB接続されている。また、ゲーム機3−1には、映像出力端子が備えられており、テレビジョン受像機6−1の映像入力端子と、ケーブルにより接続されている。テレビジョン受像機6−1は、ゲーム機3−1から供給される映像信号を、ディスプレイに表示させる。
【0025】
ゲーム機3−2には、DSC4−2、スキャナ5−2、テレビジョン受像機6−2、およびプリンタ7−2が接続されている。ゲーム機3−2、DSC4−2、およびスキャナ5−2は、USBコネクタを有している。DSC4−2は、ゲーム機3−2と、USB接続され、相互に通信している。同様に、スキャナ5−2とゲーム機3−2間も、USB接続されている。また、ゲーム機3−2には、映像出力端子が備えられており、テレビジョン受像機6−2の映像入力端子と、ケーブルにより接続されている。テレビジョン受像機6−2は、ゲーム機3−2から供給される映像信号を、ディスプレイに表示させる。
【0026】
モデム2−1とモデム2−2は、同様の構成とされる。また、ゲーム機3−1とゲーム機3−2も同様の構成とされる。さらに、DSC4−1とDSC4−2、スキャナ5−1とスキャナ5−2、テレビジョン受像機6−1とテレビジョン受像機6−2、およびプリンタ7−1とプリンタ7−2も、それぞれ同様の構成とされる。そこで、以下の説明において、モデム2−1とモデム2−2のそれぞれを、個々に区別する必要が無い場合、まとめてモデム2と称する。また、ゲーム機3−1とゲーム機3−2のそれぞれを、個々に区別する必要が無い場合、まとめてゲーム機3と称する。さらに、DSC4−1とDSC4−2のそれぞれを、個々に区別する必要が無い場合、まとめてDSC4と称し、スキャナ5−1とスキャナ5−2のそれぞれを、個々に区別する必要が無い場合、まとめてスキャナ5と称し、テレビジョン受像機6−1とテレビジョン受像機6−2のそれぞれを、個々に区別する必要が無い場合、まとめてテレビジョン受像機6と称し、プリンタ7−1とプリンタ7−2のそれぞれを、個々に区別する必要が無い場合、まとめてプリンタ7と称する。
【0027】
また、以下の説明において、ゲーム機3−1でテレビゲームを実行するユーザと、ゲーム機3−2でテレビゲームを実行するユーザのそれぞれを、個々に区別する必要がある場合、ゲーム機3−1でテレビゲームを実行するユーザをユーザAとし、ゲーム機3−2でテレビゲームを実行するユーザを、ユーザBとする。
【0028】
図1の情報処理システムにおいては、ゲーム機3により実行されているテレビゲームの映像が、テレビジョン受像機6のディスプレイに表示される。また、DSC4のレリーズ釦が操作された場合、DSC4からゲーム機3に対して、画像の送信を要求する要求信号が送信される。ゲーム機3は、画像の送信を要求する要求信号を受信すると、予め保持している画像作成用のデータ(以下、画像作成用データと称する)をもとに、ゲームの内容に関連する画像を作成し、作成された画像をDSC4に送信する。DSC4は、受信した画像をメモリカード139(図5参照)に記録する。メモリカード139に記録される画像ファイルは、デジタルスチルカメラ用画像ファイルフォーマット規格Exifに従ったフォーマットとされる。従って、DSC4は、ゲーム機3から供給され、メモリカード139に記録された画像ファイルを、通常の撮影によりメモリカード139に記録した画像ファイルと同等に扱うことができる。
【0029】
ゲームサーバ8は、ゲーム機3−1により実行されているテレビゲームの進行状況、およびゲーム機3−2により実行されているテレビゲームの進行状況に関する情報を、ゲーム機3−1およびゲーム機3−2から取得すると共に、テレビジョン受像機6−1およびテレビジョン受像機6−2に表示させるべき画像を管理している。すなわち、例えば、ゲームの内容が、ロールプレイングゲームである場合、ゲームサーバ8は、テレビゲームの内容として設定された3次元仮想空間内において、ユーザにより操作される人型のキャラクタの仮想空間内における位置および姿勢に関する情報を取得する。そして、ユーザAにより操作されるキャラクタ(以下、ユーザAにより操作されるキャラクタをキャラクタAと称する)と、ユーザBにより操作されるキャラクタ(以下、ユーザBにより操作されるキャラクタをキャラクタBと称する)が、仮想空間内の近くに位置した場合、ゲームサーバ8は、ゲーム機3−1に指令して、テレビジョン受像機6−1に、キャラクタBを表示させると共に、ゲーム機3−2に指令して、テレビジョン受像機6−2に、キャラクタAを表示させる。
【0030】
ゲーム機3は、DSC4に供給する画像を作成するための画像作成用データを、ゲームサーバ8から取得することもできる。そこで、ゲームサーバ8は、ゲーム機3から、画像作成用データの送信を要求された場合、要求された画像作成用データをゲーム機3に送信する。
【0031】
課金サーバ9は、例えば、ゲーム機3がゲームサーバ8から取得するデータ(例えば画像作成用データ)に対して課金する。
【0032】
次に、図2は、ゲーム機3の構成例を表すブロック図である。図2において、CPU21は、ROM22に記憶されているプログラム、または記憶部29からRAM23にロードされたプログラムに従って各種の処理を実行する。RAM23にはまた、CPU21が各種の処理を実行する上において必要なデータなども適宜記憶される。
【0033】
CPU21、ROM22、およびRAM23は、バス24を介して相互に接続されている。このバス24にはまた、入出力インタフェース25も接続されている。
【0034】
入出力インタフェース25には、ゲーム中の種々の操作の入力を受け付ける操作部26、USBコネクタ28を制御するUSBコントローラ27、ハードディスクなどにより構成される記憶部29、IEEE802.11などの無線LAN規格に従って、無線通信する無線通信部30、およびターミナルアダプタなどより構成される通信部31が接続されている。USBコネクタ28には、USBケーブルを介してDSC4およびスキャナ5が接続されている。通信部31は、インターネットを含むネットワーク1を介しての通信処理を行う。また、入出力インタフェース25には、テレビジョン受像機6やプリンタ7も接続されている。
【0035】
入出力インタフェース25にはまた、必要に応じてドライブ32が接続され、磁気ディスク(フレキシブルディスクを含む)41、光ディスク(CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)を含む)42、光磁気ディスク(MD(Mini−Disk)を含む)43、或いは半導体メモリ44などが適宜装着され、それらから読み出されたコンピュータプログラム(ゲーム機3により実行されるテレビゲームのプログラムを含む)が、必要に応じて記憶部29にインストールされる。
【0036】
図3は、ゲーム機3のドライブ32により磁気ディスク41、光ディスク42、光磁気ディスク43、或いは半導体メモリ44から読み出され、記憶部29に記憶された内容の例を表している。
【0037】
ゲームプログラム61は、ゲーム機3により実行されるテレビゲームのプログラムである。ゲームデータ62は、テレビゲームのプログラムの実行に際して利用されるデータ群である。ゲームデータ62には、例えば、DSC4に供給する画像を作成するための高解像度画像作成用データ62A、低解像度画像作成用データ62B、およびキャラクタデータ62Cなどが含まれている。ここで、高解像度画像作成用データ62Aは、高解像度の画像を作成する場合に利用される、ポリゴンやテクスチャなどのデータであり、低解像度画像作成用データ62Bは、低解像度の画像を作成する場合に利用される、ポリゴンやテクスチャなどのデータである。キャラクタデータ62は、ユーザにより操作されるキャラクタに関するデータである。
【0038】
ゲームデータ62は、ユーザにより操作されるキャラクタの仮想空間内の位置や姿勢に応じて、必要なデータが、磁気ディスク41、光ディスク42、光磁気ディスク43、或いは半導体メモリ44から読み出され、記憶部29に記憶されたものである。
【0039】
次に、図4は、ゲームプログラム61の例を表している。図4において、キャラクタ情報設定プログラム81は、ユーザにより操作されるキャラクタに関する情報を設定するプログラムであり、キャラクタ位置設定プログラム81A、キャラクタ姿勢設定プログラム81B,キャラクタ能力設定プログラム81C,課題設定プログラム81D,および格闘プログラム81Eにより構成される。
【0040】
キャラクタ位置設定プログラム81Aは、3次元仮想空間内におけるキャラクタの位置に関する情報(以下、キャラクタ位置情報とも称する)を管理するプログラムである。すなわち、ユーザが操作部26を操作して、仮想空間内のキャラクタの位置を移動させた場合、キャラクタ位置設定プログラム81Aは、操作部26から入力された操作情報に基づいて、仮想空間内におけるキャラクタの位置座標を演算する。
【0041】
キャラクタ姿勢設定プログラム81Bは、3次元仮想空間内におけるキャラクタの姿勢に関する情報(以下、キャラクタ姿勢情報とも称する)を管理するプログラムである。すなわち、ユーザが操作部26を操作して、仮想空間内のキャラクタの姿勢を変化させた場合、キャラクタ姿勢設定プログラム81Bは、操作部26から入力された操作情報に基づいて、仮想空間内におけるキャラクタの姿勢を演算する。キャラクタの姿勢は、基本的に、通常の人間がとり得る姿勢(立位、座位、横臥位など)と同様であっても良い。
【0042】
キャラクタ位置設定プログラム81Aおよびキャラクタ姿勢設定プログラム81Bにより管理されているキャラクタ位置情報およびキャラクタ姿勢情報は、更新される度に、ゲームサーバ8に送信される。これにより、ゲームサーバ8は、ネットワーク1上で同一のゲームを行っている複数のユーザにより操作されている各キャラクタの位置や姿勢を管理する。
【0043】
キャラクタ能力設定プログラム81Cは、ユーザにより操作されるキャラクタの能力に関する情報を管理するプログラムである。すなわち、例えば、ロールプレイングゲームの場合、キャラクタは、仮想空間の中で、種々の敵に遭遇し、対戦したりして、体力値、攻撃値、所持金などを増減させてゆく。そこで、キャラクタ能力設定プログラム81Cは、キャラクタの体力値、攻撃値、所持金など、キャラクタの能力に関する情報(以下、キャラクタ能力情報とも称する)に変更がある場合、変更後の値を算出し、キャラクタ能力情報を更新する。
【0044】
課題設定プログラム81Dは、キャラクタに与える課題を設定するプログラムである。すなわち、課題設定プログラム81Dは、キャラクタ能力情報に基づいて、敵の強さをキャラクタの能力に最適な強さに設定する。
【0045】
格闘プログラム81Eは、キャラクタと敵の対戦を実行するプログラムである。
【0046】
画像作成プログラム82は、キャラクタ情報設定プログラム81による設定に従って、テレビジョン受像機6のディスプレイに表示させる画像を生成すると共に、DSC4に送信する画像を生成するプログラムである。画像作成プログラム82は、表示画像作成プログラム82A、視点画像作成プログラム82B、および符号化プログラム82Cを含んでいる。
【0047】
表示画像作成プログラム82Aは、テレビジョン受像機6のディスプレイに表示させる画像、およびテレビジョン受像機6のディスプレイに表示させる画像と同一アングルで、より高解像度にした画像を作成するプログラムである。なお、テレビジョン受像機6のディスプレイに表示させる画像と同一アングルで、より高解像度にした画像は、DSC4に供給される。視点画像作成プログラム82Bは、ユーザにより操作されるキャラクタの視点から見た場合の、仮想空間内のアングルに対応する画像を作成するプログラムである。なお、キャラクタの視点から見た場合の、仮想空間内のアングルに対応する画像は、DSC4に供給される。符号化プログラム82Cは、表示画像作成プログラム82A、または視点画像作成プログラム82Bにより作成された画像のうち、DSC4に送信する画像をJPEG(Joint Photographic Experts Group)などの規格により符号化するプログラムである。
【0048】
表示制御プログラム83は、画像作成プログラム82により作成された表示用の画像の、テレビジョン受像機6のディスプレイへの表示を制御する。
【0049】
画像ファイル作成プログラム84は、画像作成プログラム82により作成された、DSC4への供給用の画像を元に、デジタルスチルカメラ用画像ファイルフォーマット規格(Exif(Exchangeable image file format))に従って画像ファイルを作成するプログラムである。画像ファイル作成プログラム84により作成された画像ファイルは、DSC4以外の機種のデジタルスチルカメラにおいても再生(表示)することができる。
【0050】
通信制御プログラム85は、ゲーム機3とDSC4間の通信、ゲーム機3とスキャナ5間の通信、ゲーム機3とプリンタ7間の通信、およびゲーム機3とゲームサーバ8間の通信を制御するプログラムである。
【0051】
次に、図5は、DSC4の内部の構成例を表すブロック図である。
【0052】
図示せぬ被写体からの光は、レンズや絞り機構等により構成されるDSC4のレンズ部111を介してCCD(Charge Coupled Device)112に入射され、光電変換される。
【0053】
CCD112が出力する映像信号はCDS回路(Correlated Double Sampling circuit)113に供給されている。CDS回路113は、入力信号に相関二重サンプリングを施してノイズ成分を除去し、その信号をAGC回路(Automatic Gain Control circuit)114に出力する。AGC回路114は、入力信号のゲインを調整した後、その信号をA/D(Analog / Digital)変換器115に出力する。A/D変換器115は、入力されたアナログ信号をデジタル信号に変換し、DSP(Digital Signal Processor)116に出力する。
【0054】
DSP116は、内蔵する画像調整処理部121により、入力信号に基づいてAF(Auto Focus)、AE(Auto Exposure)、およびAWB(Auto White Balance)等の制御信号を生成し、その制御信号を、バス130を介してCPU(Central Processing Unit)131に供給する。また、DSP116は、内蔵する画像圧縮・伸張処理部122により、入力された画像信号を圧縮したり、さらに伸張したりする。その際、画像圧縮・伸張処理部122は、DSP116に内蔵されるSDRAM(Synchronous Dynamic Random Access Memory)コントローラ123に制御されたSDRAM117に映像信号を一時的に保持させながら、処理を行う。
【0055】
画像圧縮・伸張処理部122により圧縮された画像データは、バス130を介して、RAM(Random Access Memory)133等に供給される。
【0056】
CPU131は、ROM(Read Only Memory)132に記憶されているプログラム、またはフラッシュメモリ135からRAM133にロードされたプログラムに従って各部を制御したり、各種の処理を実行したりする。RAM133にはまた、CPU131が各種の処理を実行する上において必要なデータなども適宜記憶される。
【0057】
CPU131には、また、ユーザの操作を受け付ける外部操作入力部134が接続されている。外部操作入力部134は、レリーズ釦やメニューボタン等の各種のボタン、絞り値、シャッタスピード、ズーム、フォーカスなどを設定するダイヤル、並びにつまみ(いずれも図示せず)等で構成されており、ユーザが操作することにより、各種のユーザからの操作を受け付け、その操作情報をCPU131に供給する。CPU131は、その操作情報に基づいて、各種の処理を実行する。
【0058】
CPU131、ROM132、およびRAM133は、バス130を介して相互に接続されている。このバス130にはまた、不揮発性の半導体メモリ等で構成されるフラッシュメモリ135、LCD(Liquid Crystal Display)137に表示させる画像を制御する表示制御部136、メモリカード139等が装着されるメモリI/F(InterFace)138、図示せぬUSBケーブルが接続されるUSBコネクタ141を制御するUSBコントローラ140、他の装置と、IEEE801.11などの無線通信規格により無線通信を行い、例えば、CPU131に制御されて、CCD112において取り込まれた画像データを他の装置に供給したり、他の装置から画像データを受信する無線通信部142、並びにストロボ143が接続されている。
【0059】
表示制御部136は、図示せぬVRAM(Video Random Access Memory)が内蔵されている。表示制御部136は、CCD112より取り込んだ画像データを、内蔵するVRAMに記憶させ、そのVRAMに記憶されている画像データに対応する画像や、他のメモリ(RAM133、フラッシュメモリ135、メモリI/F138に接続されたメモリカード139等)に記憶されている画像データに対応する画像を、LCD137に表示させる。
【0060】
バス130にはまた、必要に応じて、図示せぬインタフェースを介して、ドライブ144が接続され、ドライブ144に装着された磁気ディスク145、光ディスク146、光磁気ディスク147、或いは半導体メモリ148などから読み出されたコンピュータプログラムが、フラッシュメモリ135等にインストールされる。また、メモリI/F138に適宜装着されるメモリカード139から読み出されたコンピュータプログラムも、必要に応じてフラッシュメモリ135等にインストールされる。
【0061】
CPU131は、外部操作入力部134より入力されたユーザからの操作情報や、画像調整処理部121より供給された制御情報、または、各種のプログラムを実行することにより得られた情報等に基づいて、CDS回路113、AGC回路114、およびA/D変換器115の動作を制御する。
【0062】
また、CPU131は、CCD112の動作を制御するTG(Timing Generator)151およびVドライバ152を制御する。TG151およびVドライバ152は、CCD112に接続されており、シリアルコントロールバスを介してCPU131に制御されて、CCD112の動作を制御する。
【0063】
さらに、CPU131は、レンズ部111の動作を制御するアイリスシャッタドライバ153を制御し、シャッタスピードを調整したり、絞り機構を調整したりする。
【0064】
DSC4は、ゲーム機3に接続しない状態においては、静止画や動画の撮影を行い、撮影した静止画または動画を、メモリカード139に記録することができる。また、DSC4は、メモリカード139に記録された画像ファイルをLCD137に表示させることができる。
【0065】
次に、図6は、ゲームサーバ8の構成例を表すブロック図である。
【0066】
図6において、CPU201は、ROM202に記憶されているプログラム、または記憶部209からRAM203にロードされたプログラムに従って各種の処理を実行する。RAM203にはまた、CPU201が各種の処理を実行する上において必要なデータなども適宜記憶される。
【0067】
CPU201、ROM202、およびRAM203は、バス204を介して相互に接続されている。このバス204にはまた、入出力インタフェース205も接続されている。
【0068】
入出力インタフェース205には、キーボードおよびマウス等により構成される操作部206、スピーカなどよりなる音声出力部207、CRT(Cathode−Ray Tube)、LCDなどよりなるディスプレイ208、ハードディスクなどにより構成される記憶部209、およびモデム、ターミナルアダプタなどより構成される通信部210が接続されている。通信部210は、インターネットを含むネットワーク1を介しての通信処理を行う。
【0069】
入出力インタフェース205にはまた、必要に応じてドライブ211が接続され、磁気ディスク221、光ディスク222、光磁気ディスク223、或いは半導体メモリ224などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部209にインストールされる。
【0070】
次に、図7のフローチャートを参照して、画像取得処理、すなわち、DSC4が、ゲーム機3から、画像を取得する処理について説明する。
【0071】
図7のステップS101において、DSC4のCPU131は、外部操作入力部134から入力される操作情報に基づいて、ユーザから画像取得の指示が入力されたか否かを判定し、画像取得の指示が入力されるまでステップS101の処理を繰り返して待機する。外部操作入力部134には、レリーズ釦が含まれており、ユーザは、レリーズ釦を押下することにより、画像取得の指示を入力することができる。そこで、ステップS101で、CPU131は、このレリーズ釦が押下されたか否かを判定することにより、ユーザから画像取得の指示が入力されたか否かを判定する。そして、画像取得の指示が入力された場合、処理はステップS102に進む。
【0072】
ステップS102において、DSC4のCPU131は、ゲーム機3に、画像を要求する要求信号およびDSC4の設定情報を送信する。すなわち、DSC4の外部操作入力部134は、撮影時のフォーカス、絞り値、シャッタスピード、ストロボ発光の有無、ズーム、および取得する画像データの画質等の設定を受け付けることができる。そこで、CPU131は、ステップS102において、画像要求する要求信号、および上記したフォーカス、絞り値、シャッタスピード、フラッシュ発光の有無、ズーム、および取得する画像データの画質等の各種設定情報をUSBコントローラ140およびUSBコネクタ141を介して、ゲーム機3に送信する。図8は、ステップS102において、DSC4からゲーム機3に送信されるDSC4の設定情報の例を表している。
【0073】
図8において、DSC4の設定情報301は、フォーカス情報301A、絞り値301B、シャッタスピード情報301C、フラッシュ情報301D、ズーム情報301E、および画質情報301F等の情報を含んでいる。
【0074】
フォーカス情報301Aは、DSC4のレンズから被写体までの焦点距離の設定情報である。絞り値301Bは、DSC4に設定された絞り値である。シャッタスピード情報301Cは、DSC4に設定されたシャッタスピードに関する情報である。フラッシュ情報301Dは、DSC4のストロボ143の発光の状態(発光させるか否か)の設定に関する情報である。ズーム情報301Eは、DSC4に設定された光学ズームおよびデジタルズームに関する情報である。画質情報301Fは、DSC4に設定された、作成する画像データの画質に関する情報である。DSC4は、撮影する画像データの画質を、例えば3段階(高画質、普通画質、低画質)で設定することができる。そこで、例えば、DSC4の設定が「高画質」である場合、画質情報301Fとして、「高画質」を示す情報が記述される。
【0075】
ゲーム機3のCPU21(通信制御プログラム85)は、ステップS111において、DSC4がステップS102で送信したDSC4の設定情報301、および画像の送信要求をUSBコネクタ28およびUSBコントローラ27を介して受信する。ステップS112において、ゲーム機3のCPU21(画像作成プログラム82)は、記録画像作成処理を実行して、DSC4に送信するための画像データを作成する。なお、CPU21(画像作成プログラム82)は、ステップS111で受信したDSC4の設定情報301に基づいて、画像データを作成する。作成された画像データは、例えばJPEGの規格に従って符号化されている。
【0076】
なお、ゲーム機3のCPU21は、ステップS111で画像の送信要求を受信した後、ただちにステップS112の処理を実行する。従って、DSC4のレリーズ釦が押下されてから、画像データが作成されるまでのタイムラグを少なくすることができ、結果的に、ユーザは、進行中のゲームにおいて、所望する瞬間の画像を得ることができる(シャッタチャンスを逃さないようにすることができる)。
【0077】
ステップS112で作成される画像データは、テレビジョン受像機6に表示させる動画から1フレームを抽出し、そのフレームを静止画の画像データとしたものを用いることができる。また、ステップS112において、テレビジョン受像機6に表示させる動画のフレームより、高解像度にした静止画の画像データを作成するようにしても良い。さらに、ゲームプログラム61により作成される仮想空間内において、ユーザにより操作されるキャラクタの視点に対応するアングルの静止画を画像データとして作成するようにしても良い。ステップS112の処理の詳細な説明は、図17および図18のフローチャートを参照して後述する。
【0078】
ステップS112の処理の後、ステップS113において、ゲーム機3のCPU21(通信制御プログラム85)は、ステップS112で作成された画像データを、USBコントローラ27およびUSBコネクタ28を介して、DSC4に送信する。
【0079】
ステップS103において、DSC4のCPU131は、ゲーム機3がステップS113で送信した画像データを、USBコネクタ141およびUSBコントローラ140を介して受信する。受信された画像データは、一旦フラッシュメモリ135に記憶される。
【0080】
ステップS103の後、ステップS104において、DSC4のCPU131は、ステップS103でフラッシュメモリ135に記憶された画像データを、RAM133に読み出し、Exifファイル規定に従って、画像ファイルを作成する。すなわち、ゲーム機3から供給された画像データは、JPEGの規格により符号化されただけのデータであり、撮影日時、ファイル名、フォーカス(レンズの焦点距離)、絞り値、シャッタスピード、およびストロボの発光状態などの情報は含まれていない。そこで、DSC4のCPU131は、撮影日時、ファイル名、フォーカス(レンズの焦点距離)、絞り値、シャッタスピード、およびストロボの発光状態などの情報をRAM133に読み出し、画像データに、撮影日時、ファイル名、フォーカス(レンズの焦点距離)、絞り値、シャッタスピード、およびストロボの発光状態などの情報を付加して、Exifファイル規定に従って、画像ファイルを作成する。その後、処理はステップS105に進む。
【0081】
ステップS105において、DSC4のCPU131は、ステップS104でExifファイル規定に従って作成した画像ファイルをメモリインタフェース138を介して、メモリカード139に記憶させる。
【0082】
以上のようにして、画像取得処理が実行される。
【0083】
ところで、図7の画像取得処理においては、Exifファイル規定に従った画像ファイルの作成は、DSC4が行っている(ステップS104)が、Exifファイル規定に従った画像ファイルの作成は、ゲーム機3が実行するようにしても良い。
【0084】
一般的に、DSC4により撮影および作成された画像ファイルのファイル名は、「DSC00001.JPG」、「DSC00002.JPG」、「DSC00003.JPG」、「DSC00004.JPG」、「DSC00005.JPG」のように、数字の部分が連番になっている。そこで、ゲーム機3がExifファイル規定に従った画像ファイルの作成を実行する場合、ゲーム機3は、作成する画像ファイルのファイル名を、DSC4のメモリカード139に記録されている画像ファイルのファイル名と連番になるように、作成する必要がある。
【0085】
従って、ゲーム機3は、DSC4のメモリカード139に記録されている画像ファイルのファイル名のうち、最も数字が大きいファイル名を取得する必要がある。最も数字が大きいファイル名は、最新の画像ファイルのファイル名である。ゲーム機3がDSC4からファイル名を取得するタイミングは、例えば、図7のステップS102およびステップS111でも良い.すなわち、DSC4からゲーム機3に対して、画像の送信を要求する際に、DSC4の設定情報301と共に、最も数字が大きいファイル名を送信するようにしても良い。また、ゲーム機3がDSC4からファイル名を取得するタイミングは、DSC4とゲーム機3が接続された直後でも良い。DSC4とゲーム機3が接続された直後に、DSC4からゲーム機3に、最も数字が大きいファイル名を送信する場合の処理の例について、図9のフローチャートを参照して説明する。
【0086】
図9のステップS161において、ゲーム機3のCPU21は、USBコントローラ27およびUSBコネクタ28を介してDSC4が接続されたか否かを判定し、DSC4が接続されるまで待機する。そして、DSC4が接続された場合、処理はステップS162に進む。
【0087】
ステップS162において、ゲーム機3のCPU21(通信制御プログラム85)は、USBケーブルを介して、DSC4に、最新の画像ファイルのファイル名を要求する。なお、最も数字が大きいファイル名は、最新の画像ファイルのファイル名である。
【0088】
DSC4のCPU131は、ステップS151において、ゲーム機3がステップS162で送信した要求を受信する。ステップS152において、DSC4のCPU131は、メモリインタフェース138を介して、メモリカード139より最新の画像ファイルのファイル名を読み出し、これをUSBコントローラ140およびUSBコネクタ141を介して、ゲーム機3に送信する。
【0089】
ステップS163において、ゲーム機3のCPU21は、ステップS152でDSC4が送信したファイル名を、USBコネクタ28およびUSBコントローラ27を介して受信し、ステップS164において、受信したファイル名に含まれている数字の部分を記憶部29に記憶させる。例えば、受信したファイル名が「DSC00005.JPG」である場合、CPU21は、「00005」を記憶部29に記憶させる。
【0090】
以上の処理により、DSC4のメモリカード139に記録された画像ファイルのファイル名のうち、最も数字の大きいファイル名が、ゲーム機3に供給される。
【0091】
次に、図10のフローチャートを参照して、ゲーム機3がExifファイル規定に従った画像ファイルの作成を実行する場合の画像取得処理について説明する。
【0092】
図10のステップS201において、DSC4のCPU131は、外部操作入力部134(レリーズ釦)から入力される操作情報に基づいて、ユーザから画像取得の指示が入力されたか否かを判定し、画像取得の指示が入力されるまでステップS201の処理を繰り返して待機する。そして、画像取得の指示が入力された場合、処理はステップS202に進む。
【0093】
ステップS202において、DSC4のCPU131は、DSC4の設定情報301を、USBコントローラ140およびUSBコネクタ141を介して、ゲーム機3に送信すると共に、画像を送信するように要求する。
【0094】
ゲーム機3のCPU21(通信制御プログラム85)は、ステップS211において、DSC4がステップS202で送信したDSC4の設定情報301、および画像の送信要求を、27USBコネクタ28およびUSBコントローラを介して受信する。ステップS212において、ゲーム機3のCPU21(画像作成プログラム82)は、記録画像作成処理を実行して、DSC4に送信するための画像データを作成する。なお、ステップS212の処理は、図7のステップS112の処理と同様の内容である。
【0095】
ステップS213において、ゲーム機3のCPU21(画像ファイル作成プログラム84)は、Exifファイル規定に従って、画像ファイルを作成する。すなわち、ステップS212で作成された画像データは、JPEGの規格により符号化されただけのデータであり、撮影日時、ファイル名、フォーカス(レンズの焦点距離)、絞り値、シャッタスピード、およびストロボの発光状態などの情報は含まれていない。
【0096】
そこで、ゲーム機3のCPU21(画像ファイル作成プログラム84)は、設定情報301より、フォーカス(レンズの焦点距離)、絞り値、シャッタスピード、およびストロボの発光状態などの情報を読み出し、また、内蔵する時計(図示せず)より、撮影日時を取得する。さらに、CPU21(画像ファイル作成プログラム84)は、図9のステップS164の処理により記憶部29に記憶されたファイル名の値を読み出し、その値を1だけインクリメントしたファイル名を作成する(詳細な説明は、図11のフローチャートを参照して後述する)。その後、CPU21は、ステップS212の処理により作成された画像データに、撮影日時、ファイル名、フォーカス(レンズの焦点距離)、絞り値、シャッタスピード、およびストロボの発光状態などの情報を付加して、Exifファイル規定に従って、画像ファイルを作成する。その後、処理はステップS214に進む。
【0097】
ステップS214において、ゲーム機3のCPU21(通信制御プログラム85)は、ステップS213で作成された画像ファイルを、USBコントローラ27およびUSBコネクタ28を介して、DSC4に送信する。
【0098】
ステップS203において、DSC4のCPU131は、ゲーム機3がステップS214で送信した画像データを、USBコネクタ141およびUSBコントローラ140を介して受信する。受信された画像データは、一旦フラッシュメモリ135に記憶される。
【0099】
ステップS203の後、ステップS204において、DSC4のCPU131は、ステップS203でフラッシュメモリ135に記憶された画像データを、RAM133に読み出し、メモリインタフェース138を介して、メモリカード139に記憶させる。なお、CPU131は、メモリカード139に画像ファイルを記憶させる際、メモリカード139内に設けられた、画像ファイル記録用のディレクトリに、画像ファイルを記憶させる。
【0100】
以上のようにして、ゲーム機3がExifファイル規定に従った画像ファイルの作成を実行する場合の画像取得処理が実行される。
【0101】
ここで、図10のステップS213において、ゲーム機3がファイル名を作成する処理について、図11のフローチャートを参照して説明する。
【0102】
図11のステップS231において、ゲーム機3のCPU21(画像ファイル作成プログラム84)は、図9のステップS164において、記憶部29に記憶されたファイル名の値を読み出す。ステップS232において、ゲーム機3のCPU21(画像ファイル作成プログラム84)は、ステップS231で読み出した値を1だけインクリメントする。例えば、ファイル名の値として、記憶部29に「00005」が記憶されていた場合、ステップS231でこの値「00005」が読み出され、ステップS232で、1インクリメントされて「00006」に設定される。
【0103】
ステップS233において、ゲーム機3のCPU21(画像ファイル作成プログラム84)は、ステップS232でインクリメントされた値を利用して新たなファイル名を作成する。例えば、ステップS232でインクリメントされて、「00006」に設定された場合、ステップS233で、新たなファイル名「DSC00006.JPG」が作成される。ステップS234において、ゲーム機3のCPU21(画像ファイル作成プログラム84)は、図10のステップS212で作成された画像データを元に作られる画像ファイルのファイル名を、ステップS233で作成されたファイル名に設定する。
【0104】
以上のようにして、画像ファイルのファイル名が設定される。なお、ステップS232において、インクリメントされた値が、最新の画像ファイルのファイル名の値として、記憶部29に記憶される。従って、次回、画像ファイルのファイル名が作成されるときは、今回作成されたファイル名をさらに1インクリメントした値となる。
【0105】
ところで、本発明においては、図7のステップS112、または図10のステップS212の処理において、テレビジョン受像機6に表示される画像と同様のアングルからの画像を、静止画の画像データとして作成することも可能であり、また、ゲームプログラム61により作成される3次元仮想空間内において、ユーザにより操作されるキャラクタの視点に対応するアングルからの画像データを作成することも可能である。図12乃至図15を参照して、作成される画像データのアングルについて、さらに詳細に説明する。
【0106】
図12は、テレビジョン受像機6のディスプレイに表示される画面の例を表している。図12において、テレビジョン受像機6のディスプレイ351には、3次元仮想空間としての表示画像352、およびキャラクタ情報表示欄356が表示される。図12においては、表示画像352内には、ユーザにより操作されるキャラクタ353、並びに木354および家355が表示されている。キャラクタ353、木354、および家355は、いずれも、3次元仮想空間内に立体的に表示されている。ここで、家355において、ドアが表示されている面を面Aとし、窓が表示されている面を面Bとする。また、面Aのうち、ドアの上方を点Pとする。なお、「面A」、「面B」、「点P」などの文字、およびそれらの文字の直近に示されている矢印は、いずれも、実際のディスプレイ351には表示されていない。
【0107】
キャラクタ情報表示欄356には、キャラクタ353の体力値、攻撃力、アイテムなど、ユーザがゲームを行う上で必要となる、キャラクタ353に関する情報が表示されている。
【0108】
テレビジョン受像機6のディスプレイ351に、図12のような画像が表示されている時に、表示画像と同一アングルの画像データを作成した場合、作成された画像データは、図13のようになる。図13において、作成された画像データである記録画像371は、図12の表示画像352と同一の画像である。ただし、例えば、記録画像371の画素数を、図12の表示画像352の画素数より多くして、より高解像度な画像データを作成することも可能である。また、図12の表示画像352のうち一部分の範囲内だけを切り出して拡大した画像データを作成するようにすることも可能である。
【0109】
次に、図14は、図12のようにディスプレイ351に表示されていた場合に、キャラクタ353の視点に対応するアングルの画像データを作成するモードに設定した場合のディスプレイ351の表示例である。図14において、木354、家355、およびキャラクタ情報表示欄356は、図12と同一である。図14においては、カメラ381が表示され、キャラクタ353が、カメラ381を構えた状態に変化している。なお、図14においても、「面A」、「面B」、「点P」などの文字、およびそれらの文字の直近に示されている矢印は、いずれも、実際のディスプレイ351には表示されていない。
【0110】
図14のような画像がディスプレイ351に表示されている場合、作成される画像データは、例えば、図15のようになる。図15において、作成された画像データである記録画像391は、木354および家355から構成されている。この記録画像391は、仮想空間内におけるキャラクタ353の視点から撮影した場合の画像データである。キャラクタ353は、仮想空間内において、家355の面Aの略正面に位置しているので、キャラクタ353の視点から家355を見た場合、面Aが正面となり、キャラクタ353からは面Bを見ることができない。そこで、記録画像391においても、キャラクタ353からの視点に合わせて、面Aが正面にあり、面Bは描画されない。
【0111】
このように、キャラクタ353の視点からの画像データを作成するようにすることも可能である。なお、図15の記録画像391は、家355に焦点を合わせた設定で作成されたものであり、木354は、焦点が合っていないように、ぼかして描画されている。
【0112】
次に、図16のフローチャートを参照して、ゲーム機3の画像取得方法設定処理、すなわち、作成する画像データのアングルを設定する処理について説明する。
【0113】
ゲーム機3は、デフォルトで、例えば、図13のようにディスプレイ351と同一のアングルからの画像を作成するモード(以下の説明において、ディスプレイ351と同一のアングルからの画像を作成するモードを、表示画像取得モードと称する)に設定されており、ゲーム機3にDSC4が接続されたとき、ステップS301において、ゲーム機3のCPU21(画像作成プログラム82)は、表示画像取得モードに設定する。
【0114】
ユーザは、操作部26を操作することにより、キャラクタの視点に対応するアングルの画像を取得するモード(以下の説明において、キャラクタの視点に対応するアングルの画像を取得するモードをキャラクタ視点モードと称する)に設定を変更することができる。そこで、ステップS302において、ゲーム機3のCPU21(画像作成プログラム82)は、操作部26からの操作情報に基づいて、設定変更の指示が入力されたか否かを判定し、設定変更の指示が入力されるまで滝する。そして、設定変更の指示が入力された場合、処理はステップS303に進む。
【0115】
ステップS303において、ゲーム機3のCPU21(画像作成プログラム82)は、キャラクタ視点モードに設定する。その後、処理はステップS304に進む。ステップS304において、ゲーム機3のCPU21(画像作成プログラム82)は、操作部26からの操作情報に基づいて、設定変更の指示が入力されたか否かを判定し、設定変更の指示が入力されるまで待機する。そして、設定変更の指示が入力された場合、処理はステップS301に戻り、ゲーム機3のCPU21(画像作成プログラム82)は、表示画像取得モードに設定する。
【0116】
以降、同様にして、ステップS301乃至ステップS304の処理が繰り返され、表示画像取得モードおよびキャラクタ視点モードのいずれかに設定される。
【0117】
そして、図7のステップS112の処理、または図10のステップS212の処理において、画像データを作成する場合、図16のフローチャートにより設定されたモードに従って、ディスプレイ351と同一のアングル、またはキャラクタ353の視点に対応するアングルの画像データが作成される。
【0118】
次に、図17および図18のフローチャートを参照して、ゲーム機3の記録画像作成処理、すなわち、図7のステップS112の処理、および図10のステップS212の処理について詳細に説明する。
【0119】
図17のステップS321において、ゲーム機3のCPU21(画像作成プログラム82)は、表示画像取得モードであるか否かを判定し、表示画像取得モードである場合、処理はステップS322に進む。
【0120】
ステップS322において、ゲーム機3のCPU21(表示画像作成プログラム82A)は、DSC4からの設定情報301に含まれているズーム情報301Eに基づいて、作成する画像の範囲を設定する。すなわち、例えば、図12に示される表示画像352全体をアングルとして画像データを作成することも可能であるが、図19の枠Bや枠Cの点線で囲まれた範囲内だけを画像データを作成することも可能である。図19においては、枠Aは、表示画像352全体を選択した場合であり、枠Bおよび枠Cは、点Oを中心として、点線の範囲内だけを画像データを作成する範囲として指定した場合の例である。ステップS322の処理の後、処理はステップS323に進む。
【0121】
ステップS323において、ゲーム機3のCPU21(表示画像作成プログラム82A)は、DSC4からの設定情報301に含まれているフラッシュ情報301Dに基づいて、作成する画像の光源の位置を設定する。ステップS323の処理の後、処理はステップS324に進む。
【0122】
ゲーム機3のCPU21(表示画像作成プログラム82A)は、ステップS324において、DSC4からの設定情報301に含まれているフォーカス情報301Aに基づいて、作成する画像データの焦点距離を設定し、ステップS325において、設定情報301に含まれている絞り値301B、およびステップS324で設定された焦点距離に基づいて、作成する画像のボケ量を設定する。ここで、ボケ量について説明する。
【0123】
通常のDSCにより撮影された画像においては、焦点距離が合っている被写体は輪郭がボケず、焦点距離が合っていない被写体は輪郭がボケている。そこで、ゲーム機3により提供される3次元仮想空間内においても、仮想空間内の構造物のうち、焦点距離が合っている被写体の輪郭をボケないようにし、焦点距離が合っていない被写体の輪郭はボケるように、画像を作成することができる。本明細書においては、この輪郭のぼけ具合をボケ量と称する。そこで、ステップS325において、ゲーム機3のCPU21(表示画像作成プログラム82A)は、ステップS324で設定された焦点距離および、絞り値301Bに基づいて、ボケ量を設定する。なお、焦点距離に応じたボケ量の設定については、例えば、特開平10−222694号公報に記載されたものを利用することができる。ステップS325の処理の後、処理はステップS326に進む。
【0124】
例えば、キャラクタ353などの構造物は、仮想空間内において位置や姿勢を変化させることができる。そこで、シャッタスピードが遅い場合、時間にともなって変化する構造物の位置を反映した画像を作成することができる。本発明においては、シャッタスピードに応じて、時間に伴って変化する複数枚の画像を作成し、作成した複数枚の画像を合成することにより、時間にともなって変化する構造物の位置を反映した画像を作成する。そこで、ステップS326において、ゲーム機3のCPU21(表示画像作成プログラム82A)は、設定情報301に含まれているシャッタスピード情報301Cに基づいて、合成画像枚数を特定する。なお、ステップS326で特定される画像の枚数は、シャッタスピードが遅いほど多くなり、最低でも1枚以上とされる。
【0125】
ステップS326の後、ステップS327において、ゲーム機3のCPU21(表示画像作成プログラム82A)は、DSC4からの設定情報301に含まれている画質情報301Fに基づいて、記憶部29に記憶された高解像度画像作成用データ62Aまたは低解像度画像作成用データ62Bのうち、画像データの作成に必要な画像作成用データを読み出す。
【0126】
ステップS328において、ゲーム機3のCPU21(表示画像作成プログラム82A)は、ステップS327で読み出した画像作成用データを利用して、ステップS326で特定された枚数分の画像データを作成する。なお、ステップS328で作成される1枚以上の画像データは、ステップS322で設定されたアングル、ステップS323で設定された光源の位置、およびステップS325で設定されたボケ量に従って作成される。
【0127】
ステップS328の処理の後、ステップS329において、ゲーム機3のCPU21(表示画像作成プログラム82A)は、ステップS328で作成された画像データの、対応する画素値同士を全て足し算する。ステップS330において、ゲーム機3のCPU21(表示画像作成プログラム82A)は、ステップS329で枚数分だけ足し算された各画素値を、合成画像枚数で割り算する。ステップS329およびステップS330の処理により合成画像が作成される。ステップS330の処理の後、処理はステップS341に進む。なお、ステップS328において、画像データが1枚しか作成されなかった場合、ステップS329およびステップS330の処理はスキップされ、処理はステップS341に進む。
【0128】
ステップS321において、ゲーム機3のCPU21(画像作成プログラム82)が、表示画像取得モードではない(キャラクタ視点モードである)と判定した場合、処理は図18のステップS331に進む。ステップS331において、ゲーム機3のCPU21(視点画像作成プログラム82B)は、キャラクタ位置設定プログラム81Aおよびキャラクタ姿勢設定プログラム81Bにより設定されたキャラクタ位置情報およびキャラクタ姿勢情報に基づいて、キャラクタ353の視点(仮想空間内におけるカメラ381の座標および向き)を特定する。
【0129】
ステップS332において、ゲーム機3のCPU21(視点画像作成プログラム82B)は、DSC4からの設定情報301に含まれているズーム情報301E、およびステップS331で特定されたキャラクタ353の視点に基づいて、作成する画像のアングルを設定する。例えば、キャラクタ353が、図14に示されるようにカメラ381を構えた状態で、画像データが作成される場合、作成される画像データは、ズーム情報に従って、図15の記録画像391のようにもなり、また、図20の記録画像421のようにもなる。図20の記録画像421は、図15の記録画像391よりズームアップした場合の画像データである。なお、図20においては、図14の点Pを中心にしてズームアップされている。ステップS332の処理の後、処理はステップS333に進む。
【0130】
ステップS333において、ゲーム機3のCPU21(視点画像作成プログラム82B)は、DSC4からの設定情報301に含まれているフラッシュ情報301Dに基づいて、画像データを作成する際の光源の位置を設定する。
【0131】
ステップS334において、ゲーム機3のCPU21(視点画像作成プログラム82B)は、DSC4からの設定情報301に含まれているフォーカス情報301Aに基づいて、画像データを作成する際の焦点距離を設定し、ステップS335において、ステップS334で設定された焦点距離、およびDSC4からの設定情報301に含まれている絞り値301Bに基づいて、画像のボケ量を設定する。一般的に、DSC4においては、図21に示されるように、ピント位置までの距離L1より被写体までの距離L2のほうが遠い場合、被写体の画像は撮像面よりも手前に結像し、撮像面においては、錯乱円直径だけぼけた像となる。錯乱円直径は、レンズ部111の焦点距離、絞り値、ピント位置までの距離L1、および被写体までの距離L2などにより変化する。
【0132】
そこで、キャラクタ視点モードにおいても、仮想空間内の構造物の配置、および設定情報301に基づいて、焦点距離を設定する。すなわち、視点画像作成プログラム82Bは、フォーカス情報301Aに基づいて、仮想空間内における焦点距離を決定し、焦点距離よりも遠方に配置された構造物ほど、錯乱円直径(ボケ量)を大きくする。その結果、例えば、先に説明した図15の記録画像391においては、家355に焦点が合い、木354をぼかした画像が作成される。また、木354に焦点を合わせることもでき、この場合、例えば図22の記録画像451のように、木354に焦点が合わされ、家355をぼかした画像が作成される。
【0133】
このようにすることにより、DSC4による実際の撮影と同様の効果を演出することが可能となる。なお、ぼかしの無い画像データを作成するようにすることも勿論可能である。
【0134】
ステップS335の処理の後、処理はステップS336に進む。
【0135】
ステップS336において、ゲーム機3のCPU21(視点画像作成プログラム82B)は、設定情報301に含まれているシャッタスピード情報301Cに基づいて、合成画像枚数を特定する。なお、ステップS336で特定される画像の枚数は、1枚以上とされる。
【0136】
ステップS336の後、ステップS337において、ゲーム機3のCPU21(視点画像作成プログラム82B)は、DSC4からの設定情報301に含まれている画質情報301Fに基づいて、記憶部29に記憶された高解像度画像作成用データ62Aまたは低解像度画像作成用データ62Bのうち、画像データの作成に必要な画像作成用データを読み出す。
【0137】
ステップS338において、ゲーム機3のCPU21(視点画像作成プログラム82B)は、ステップS337で読み出した画像作成用データを利用して、ステップS336で特定された枚数分の画像データを作成する。なお、ステップS338で作成される1枚以上の画像データは、ステップS331で特定されたキャラクタ353の視点、ステップS332で設定されたアングル、ステップS333で設定された光源の位置、およびステップS335で設定されたボケ量に従って作成される。
【0138】
ステップS338の処理の後、ステップS339において、ゲーム機3のCPU21(視点画像作成プログラム82B)は、ステップS338で作成された1枚以上の画像データの、対応する画素値同士を全て足し算する。ステップS340において、ゲーム機3のCPU21(視点画像作成プログラム82B)は、ステップS339で枚数分だけ足し算された各画素値を、合成画像枚数で割り算する。ステップS339およびステップS340の処理により合成画像が作成される。ステップS340の処理の後、処理は図17のステップS341に進む。なお、ステップS338において、画像データが1枚しか作成されなかった場合、ステップS339およびステップS340の処理はスキップされ、処理はステップS341に進む。
【0139】
ステップS341において、ゲーム機3のCPU21(符号化プログラム82C)は、ステップS330、またはステップS340で作成された合成画像をJPEGの規格に従って符号化し、符号化された画像データを作成する。
【0140】
以上のようにして、画像作成処理が実行される。なお、図17および図18のフローチャートの処理においては、DSC4の設定情報301に基づいて、種々の設定を行い、設定に基づいて画像データを作成したが、このことは、本発明が、設定情報301に基づいて画像データを作成することに限定されることを意味するものではない。作成する画像データに関する設定を、ゲーム機3の操作部26から受け付けるようにしても良い。
【0141】
また、画像データを作成する際に利用した設定情報301に含まれているフォーカス情報301A乃至画質情報301Fは、一例であり、設定情報301に、フォーカス情報301A乃至画質情報301F以外の情報が含まれていても良い。その場合、設定情報301に含まれている情報に従って、画像データを作成する際の設定が行われる。
【0142】
ところで、本発明においては、テレビジョン受像機6のディスプレイに表示させる動画と同一の動画、またはキャラクタ353の視点に対応するアングルの動画を、DSC4のLCD137に表示させることができる。
【0143】
次に、図23のフローチャートを参照して、テレビジョン受像機6のディスプレイに表示させる動画と同一の動画、またはキャラクタ353の視点に対応するアングルの動画を、DSC4のLCD137に表示させる処理について説明する。
【0144】
図23のステップS401において、DSC4のCPU131は、外部操作入力部134からの操作情報に基づいて、LCD137に動画を表示させる指示が入力されたか否かを判定し、LCD137に動画を表示させる指示が入力されるまで、ステップS401の処理を繰り返して待機する。そして、LCD137に動画を表示させる指示が入力された場合、処理はステップS402に進む。
【0145】
ステップS402において、DSC4のCPU131は、USBコントローラ140およびUSBコネクタ141を介して、ゲーム機3に対して、動画の送信を要求する。
【0146】
ゲーム機3のCPU21(通信制御プログラム85)は、ステップS421において、DSC4がステップS402で送信した動画の送信要求を、USBコネクタ28およびUSBコントローラ27を介して受信する。ステップS422において、ゲーム機3のCPU21(画像作成プログラム82)は、作成する画像のモードがキャラクタ視点モードであるか否かを判定し、キャラクタ視点モードであった場合、処理はステップS423に進む。
【0147】
ステップS423において、ゲーム機3のCPU21(視点画像作成プログラム82B)は、キャラクタ353の視点に対応するアングルの動画の作成を開始する。その後、処理はステップS424に進む。
【0148】
ステップS422において、ゲーム機3のCPU21(画像作成プログラム82)が、キャラクタ視点モードではない(表示画像取得モードである)と判定した場合、ステップS423の処理はスキップされ、処理はステップS424に進む。
【0149】
ステップS424において、ゲーム機3のCPU21(通信制御プログラム85)は、動画のDSC4への送信を開始する。具体的には、ステップS422で、キャラクタ視点モードであると判定された場合、ステップS424において、ゲーム機3のCPU21(通信制御プログラム85)は、ステップS423で作成が開始された、キャラクタ353の視点に対応するアングルの動画のDSC4への送信を開始する。また、ステップS422で、表示画像取得モードであると判定された場合、ゲーム機3のCPU21(通信制御プログラム85)は、テレビジョン受像機6に出力している動画と同一の動画の、DSC4への送信を開始する。
【0150】
ステップS403において、DSC4のCPU131は、USBコネクタ141およびUSBコントローラ140を介した、ゲーム機3からの動画の受信を開始する。ステップS404において、DSC4のCPU131は、ステップS403で受信が開始された動画のLCD137への表示を開始する。具体的には、DSC4のCPU131は、ステップS403で受信が開始された動画データを、表示制御部136に供給し、表示制御部136は、供給された動画データに対応する動画をLCD137に表示させる。
【0151】
その後、ステップS405において、DSC4のCPU131は、外部操作入力部134からの操作情報に基づいて、LCD137への動画の表示を終了させる指示が入力されたか否か判定し、LCD137への動画の表示を終了させる指示が入力されるまで、ステップS405の処理を繰り返して待機する。そして、LCD137への動画の表示を終了させる指示が入力された場合、処理はステップS406に進む。
【0152】
ステップS406において、DSC4のCPU131は、表示制御部136に指令して、LCD137への動画の表示を終了させる。その後、ステップS407において、DSC4のCPU131は、USBコントローラ140およびUSBコネクタ141を介して、ゲーム機3に対して、動画の送信を終了するように要求する。
【0153】
ゲーム機3のCPU21(通信制御プログラム85)は、ステップS425において、DSC4がステップS407で送信した動画送信の終了要求を、USBコネクタ28およびUSBコントローラ27を介して受信する。ステップS426において、ゲーム機3のCPU21(通信制御プログラム85)は、DSC4への動画の送信を終了する。
【0154】
以上のようにして、DSC4のLCD137への動画の表示が実行される。
【0155】
ところで、以上の説明においては、DSC4に送信される画像データを作成するための画像作成用データ(高解像度画像作成用データ62Aおよび低解像度画像作成用データ62B)は、ゲーム機3の記憶部29から読み出していたが、これら画像作成用データは、ゲームサーバ8から取得するようにすることも可能である。
【0156】
次に、図24のフローチャートを参照して、画像作成用データを、ゲームサーバ8から取得する場合の例について説明する。なお、以下の説明においては、キャラクタ353の視点に対応するアングルの画像データを作成する場合の例を説明する。
【0157】
図24のステップS501において、DSC4のCPU131は、外部操作入力部134(レリーズ釦)から入力される操作情報に基づいて、ユーザから画像取得の指示が入力されたか否かを判定し、画像取得の指示が入力されるまでステップS501の処理を繰り返して待機する。そして、画像取得の指示が入力された場合、処理はステップS502に進む。
【0158】
ステップS502において、DSC4のCPU131は、ゲーム機3に、DSC4の設定情報301を送信すると共に、画像を送信するように要求する。
【0159】
ゲーム機3のCPU21(通信制御プログラム85)は、ステップS511において、DSC4がステップS502で送信したDSC4の設定情報301、および画像の送信要求をUSBコネクタ28およびUSBコントローラ27を介して受信する。ステップS512において、ゲーム機3のCPU21は、通信部31を介して、ゲームサーバ9に、キャラクタ353の位置と姿勢に関する情報を送信し、キャラクタ353の位置と姿勢に対応する画像作成用データの送信を要求する。具体的には、まず、通信制御プログラム85は、キャラクタ位置設定プログラム81A、およびキャラクタ姿勢設定プログラム81Bにより管理されているキャラクタ位置情報、およびキャラクタ姿勢情報を取得し、これを、通信部31を介して、ゲームサーバ8に送信すると共に、送信したキャラクタ位置情報およびキャラクタ姿勢情報に対応する画像作成用データの送信を要求する。
【0160】
ゲーム機3から送信されたキャラクタ位置情報、キャラクタ姿勢情報、および画像作成用データの送信要求は、モデム2を介して、ゲームサーバ8に送信される。
【0161】
ゲームサーバ8の記憶部209には、画像作成用データが、仮想空間内の位置および方角毎に分類して記憶されている。ゲームサーバ8のCPU201は、ステップS521において、ゲーム機3がステップS512で送信したキャラクタ位置情報、キャラクタ姿勢情報、および画像作成用データの送信要求を、通信部210を介して受信すると、ステップS522において、記憶部209より、キャラクタ位置情報およびキャラクタ姿勢情報に対応する画像作成用データを読み出し、読み出された画像作成用データを、通信部210を介して、ゲーム機3に送信する。
【0162】
ゲーム機3のCPU21は、ステップS513において、ゲームサーバ8がステップS522で送信した画像作成用データを、通信部31を介して受信し、記憶部29に記憶させる。
【0163】
ステップS514において、ゲーム機3のCPU21(画像作成プログラム82)は、ステップS513で受信し記憶部29に記憶させた画像作成用データを読み出し、この画像作成用データを利用して、記録画像作成処理を実行する。ステップS514の処理により、DSC4に供給する画像データが作成される。なお、ステップS514の処理は、図17および図18を参照して説明した処理と同様である。
【0164】
ステップS514の処理の後、ステップS515において、ゲーム機3のCPU21(通信制御プログラム85)は、ステップS514で作成された画像データを、USBコントローラ27およびUSBコネクタ28を介して、DSC4に送信する。
【0165】
ステップS503において、DSC4のCPU131は、ゲーム機3がステップS515で送信した画像データを、USBコネクタ141およびUSBコントローラ140を介して受信する。受信された画像データは、一旦フラッシュメモリ135に記憶される。
【0166】
ステップS503の後、ステップS504において、DSC4のCPU131は、ステップS503でフラッシュメモリ135に記憶された画像データを、RAM133に読み出し、Exifファイル規定に従って、画像ファイルを作成する。ステップS504の処理は、図7のステップS104の処理と同様である。その後、処理はステップS505に進む。
【0167】
ステップS505において、DSC4のCPU131は、ステップS504でExifファイル規定に従って作成した画像ファイルを、メモリインタフェース138を介して、メモリカード139に記憶させる。
【0168】
以上のようにして、ゲームサーバ8から画像作成用データが供給され、画像取得処理が実行される。
【0169】
なお、ゲームサーバ8から、画像作成用データを送信する際に、課金サーバ9により、課金するようにしても良い。
【0170】
図24のフローチャートの処理においては、DSC4に供給される画像データは、ゲーム機3により作成されているが、ゲームサーバ8で画像データを作成するようにしてもより。
【0171】
次に、図25のフローチャートを参照して、ゲームサーバ8で画像データを作成する場合の処理について説明する。なお、DSC4の処理は、図24におけるDSC4の処理と同一であるため、適宜、簡略化して説明する。
【0172】
図25のステップS551において、DSC4のCPU131は、外部操作入力部134(レリーズ釦)から入力される操作情報に基づいて、ユーザから画像取得の指示が入力されたか否かを判定し、画像取得の指示が入力された場合、処理はステップS552に進む。ステップS552において、DSC4のCPU131は、ゲーム機3に、DSC4の設定情報301を送信すると共に、画像を送信するように要求する。
【0173】
ゲーム機3のCPU21(通信制御プログラム85)は、ステップS561において、DSC4がステップS562で送信したDSC4の設定情報301、および画像の送信要求をUSBコネクタ28およびUSBコントローラ27を介して受信する。ステップS562において、ゲーム機3のCPU21は、通信部31を介して、ゲームサーバ9に、キャラクタ353の位置と姿勢に関する情報、並びにDSC4の設定情報301を送信し、キャラクタ353の位置と姿勢、並びに設定情報301に対応する画像データの送信を要求する。具体的には、まず、通信制御プログラム85は、キャラクタ位置設定プログラム81A、およびキャラクタ姿勢設定プログラム81Bにより管理されているキャラクタ位置情報、およびキャラクタ姿勢情報を取得し、これらキャラクタ位置情報、キャラクタ姿勢情報、並びに設定情報301を、通信部31を介して、ゲームサーバ8に送信すると共に、送信したキャラクタ位置情報とキャラクタ姿勢情報、並びに設定情報301に対応する画像データの送信を要求する。
【0174】
ゲーム機3から送信されたキャラクタ位置情報とキャラクタ姿勢情報、設定情報301、および画像作成用データの送信要求は、モデム2を介して、ゲームサーバ8に送信される。
【0175】
ゲームサーバ8のCPU201は、ステップS571において、ゲーム機3がステップS562で送信したキャラクタ位置情報、キャラクタ姿勢情報、設定情報301、および画像データの送信要求を、通信部210を介して受信すると、ステップS572において、記憶部209より、キャラクタ位置情報およびキャラクタ姿勢情報に対応する画像作成用データを読み出し、読み出された画像作成用データおよび設定情報301を利用して、画像データを作成する。その後、ステップS573において、ゲームサーバ8のCPU201は、ステップS572で作成した画像データを、通信部210を介して、ゲーム機3に送信する。
【0176】
ゲーム機3のCPU21は、ステップS563において、ゲームサーバ8がステップS573で送信した画像データを、通信部31を介して受信し、記憶部29に記憶させる。
【0177】
ステップS564において、ゲーム機3のCPU21(通信制御プログラム85)は、ステップS563で受信し記憶部29に記憶させた画像データを読み出し、この画像データを、USBコントローラ27およびUSBコネクタ28を介して、DSC4に送信する。
【0178】
DSC4のCPU131は、ステップS553において、ゲーム機3がステップS564で送信した画像データを、USBコネクタ141およびUSBコントローラ140を介して受信し、フラッシュメモリ135に記憶し、ステップS554において、フラッシュメモリ135から画像データを読み出し、Exifファイル規定に従って、画像ファイルを作成する。ステップS554の処理は、図7のステップS104の処理と同様である。その後、処理はステップS555に進む。
【0179】
ステップS555において、DSC4のCPU131は、ステップS554でExifファイル規定に従って作成した画像ファイルをメモリインタフェース138を介して、メモリカード139に記憶させる。
【0180】
以上のようにして、ゲームサーバ8において画像データを作成するようにしても良い。
【0181】
ところで、ユーザは、DSC4に記録された画像データを、ネットワーク1を介して、他のユーザに見せることができる。
【0182】
次に、図26のフローチャートを参照して、DSC4−1のメモリカード139に記録された画像ファイルを、ゲーム機3−1から、ネットワーク1に接続された他のゲーム機3−2に送信および表示させる処理について説明する。
【0183】
ステップS601において、ゲーム機3−1のCPU21は、操作部26からの操作情報に基づいて、画像ファイルを他のゲーム機3−2に提示する指示が入力されたか否かを判定し、画像ファイルを他のゲーム機3−2に提示する指示が入力されるまで、ステップS601の処理を繰り返して待機する。そして、画像ファイルを他のゲーム機3−2に提示する指示が入力された場合、処理はステップS602に進む。
【0184】
ステップS602において、ゲーム機3−1のCPU21は、USBコントローラ27およびUSBコネクタ28を介して、DSC4から画像ファイルを取得し、この画像ファイルを、通信部31を介して、ゲームサーバ8に送信し、画像ファイルを、ゲーム機3−2に表示するように要求する。
【0185】
ゲームサーバ8のCPU201は、ステップS611において、ゲーム機3−1がステップS602で送信した画像ファイル、および画像ファイルをゲーム機3−2に表示するようにとの要求を、通信部210を介して受信すると、ステップS612において、通信部210を介して、ゲーム機3−2に、ゲーム機3−1から受信した画像ファイルを送信すると共に、画像ファイルを表示させるように要求する。
【0186】
ゲーム機3−2のCPU21は、ステップS621において、ゲームサーバ8がステップS612で送信した画像ファイル、および画像ファイルを表示させるようにとの要求を、通信部31を介して受信する。ステップS622において、ゲーム機3−2のCPU21は、ステップS621で受信した画像ファイルをテレビジョン受像機6−2に出力し、表示させる。
【0187】
以上のようにして、ゲーム機3−1からゲーム機3−2に画像ファイルが送信され、表示される。
【0188】
本発明においては、ゲーム機3(またはゲームサーバ8)で作成された画像データは、DSC4を含むデジタルスチルカメラで再生(表示)可能である。次に、ゲーム機3(またはゲームサーバ8)で作成され、DSC4のメモリカード139に記憶された画像データをDSC4のLCD137に表示させる処理について図27のフローチャートを参照して説明する。
【0189】
ステップS701において、DSC4のCPU131は、外部操作入力部134からの操作情報に基づいて、メモリカード139に記憶された画像データの表示の指示が入力されたか否かを判定し、メモリカード139に記憶された画像データの表示の指示が入力されるまで、ステップS701の処理を繰り返して待機する。そして、外部操作入力部134から、メモリカード139に記憶された画像データの表示の指示が入力された場合、処理はステップS702に進む。
【0190】
ステップS702において、DSC4のCPU131は、指示された画像データを、メモリインタフェース138を介して、メモリカード139から読み出す。ステップS703において、DSC4のCPU131は、ステップS702でメモリカード139から読み出した画像データを、表示制御部136を介して、LCD137に表示させる。
【0191】
以上のようにして、メモリカード139に記憶された画像データが、LCD137に表示される。
【0192】
以上に説明したように、本発明によれば、ユーザが使い慣れた機器(DSC4)の操作により、画像を取得することができるので、ユーザは、慣れた操作(容易な操作)により、画像を取得することが可能となる。また、本発明によれば、図17および図18を参照して説明したように、DSC4などの外部機器の設定情報に基づいて画像を作成する。従って、DSC4の使い方に慣れたユーザにとっては、DSC4側の設定により、取得する画像に、より所望する効果を施すことが可能となる。
【0193】
また、本発明によれば、DSC4のメモリカード139に記録する画像ファイルを、デジタルスチルカメラ用画像ファイルフォーマット規格に従って作成するようにしたため、この画像ファイルを、通常DSC4により撮影された画像ファイルと同等に取り扱うことが可能となる。また、テレビジョン受像機6のディスプレイに表示させる画像とDSC4に記録させる画像の解像度を、異なる解像度にすることができるため、より高画質な画像ファイルをユーザに提供することが可能となる。なお、テレビジョン受像機6のディスプレイに表示させる画像とDSC4に記録させる画像の色数を、異なる色数にすることも可能である。
【0194】
また、テレビジョン受像機6のディスプレイに表示させる画像は、動画であるため、細かい構造物まで描画していては、画像作成のための計算量が多くなってしまい、ゲーム機3の演算能力を超えてしまう。そのため、テレビジョン受像機6のディスプレイに表示させる画像は、ゲーム機3の演算能力を超えない程度の解像度(例えば、320×240)に抑えられている。しかし、DSC4に記録させる画像は静止画であるため、動画を作成する場合と比較して、演算能力に余裕がある。従って、DSC4の記録させる画像を作成する場合、テレビジョン受像機6のディスプレイに表示させる画像では描かれていない構造物まで、細かく描画するようにしても良い。
【0195】
なお、以上の説明においては、ゲーム機3とDSC4の間の通信は、USB接続により行う場合を例にして説明しているが、このことは、ゲーム機3とDSC4の間の通信がUSB接続により行われることに限定されるものではない。ゲーム機3とDSC4の間の通信は、それ以外のあらゆる通信手段を利用することができる。例えば、ゲーム機3とDSC4の間の通信を、IEEE802.11やブルートゥースなどの無線通信により行うようにしても良い。
【0196】
また、以上の説明においては、DSC4に画像ファイルを記録する場合を例にして説明したが、このことは、本発明がDSC4に画像ファイルを記録する場合にのみ適用可能であることを意味するものではない。例えば、DSC4の代わりに、メモリを内蔵したスキャナ5やプリンタ6などに、画像ファイルを供給しても良い。
【0197】
また、以上の説明においては、ゲームの表示装置として、テレビジョン受像機6を利用した場合を例にして説明したが、このことは、本発明が、ゲームの表示装置としてテレビジョン受像機6しか利用できないことを意味するものではなく、映像信号を入力可能な表示装置であれば、どのような表示装置でも利用することができる。
【0198】
また、以上の説明においては、DSC4に記憶される画像が静止画の場合を例にして説明したが、さらに動画を記録することができるようにしても良い。
【0199】
なお、以上の説明において、ゲーム機3が実行した処理は、例えば汎用のパーソナルコンピュータにより実行させるようにしても良い。また、作成する画像ファイルは、ゲームの内容に限定されるものではなく、その他の画像でも良い。
【0200】
また、テレビゲームの3次元仮想空間内において、画像データの作成を禁止する場所を設けるようにしても良い。その場合、例えば、仮想空間内に、所定のキャラクタが登場し、そのキャラクタが画像データを消去するというストーリの動画をテレビジョン受像機6に表示させても良い。また、画像データの作成に応じて、仮想空間内においてイベントを発生させるようにしても良い。例えば、DSC4のレリーズ釦(外部操作入力部134)が押下された際に、DSC4からゲーム機3の送信されるフラッシュ情報301Dが、ストロボを発光させる設定であった場合、仮想空間内において、ストロボ発光に反応して、敵が集まってきたり、周囲の敵を、ストロボ発光により目くらましする効果を、ゲームプログラム61に設定しても良い。
【0201】
また、以上の説明においては、作成された画像ファイルが、DSC4のメモリカード139に記録する場合を例にして説明したが、画像ファイルは、メモリカード139に記録する代わりに、例えば、DSC4のフラッシュメモリ135、磁気ディスク145、光ディスク146、光磁気ディスク147、或いは半導体メモリ148に記録するようにしても良い。さらに、DSC4の図示せぬ入出力インタフェースにハードディスクを接続し、作成された画像ファイルをハードディスクに記録するようにしても良い。
【0202】
また、以上の説明においては、画像取得の指示が、DSC4の外部操作入力部134(レリーズ釦)から入力された場合を例にして説明したが、このことは、本発明が、画像取得の指示は、DSC4の外部操作入力部134(レリーズ釦)からしか入力されないことを意味するものではない。画像取得の指示は、例えば、スキャナ5やプリンタ7の操作部から入力することも可能である。
【0203】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワーク1や記録媒体からインストールされる。
【0204】
この記録媒体は、図2、図5、および図6に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク41(フレキシブルディスクを含む),145,221、光ディスク42(CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)を含む),146,222、光磁気ディスク43(MD(Mini−Disk)を含む),147,223、もしくは半導体メモリ44,148,224などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM22,132,202や、記憶部29,209、フラッシュメモリ135などで構成される。
【0205】
なお、本明細書において、ネットワークとは、図1のネットワーク1のほか、ライン接続、USB接続、無線LANなど、機器間において情報の送受信を行う媒介を全て含む。
【0206】
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0207】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0208】
【発明の効果】
以上の如く、第1の本発明によれば、ユーザに画像ファイルを提供することができる。
【0209】
また、第1の本発明によれば、他の機器で表示中の画像、または他の機器で表示中の画像に関連する画像を、容易な操作で、ユーザに提供することができる。
【0210】
第2の本発明によれば、画像データを作成することが可能となる。
【0211】
また、第2の本発明によれば、表示中の画像、または表示中の画像に関連する画像を、容易な操作で、ユーザに提供することができる。
【0212】
【図面の簡単な説明】
【図1】本発明の情報処理システムの構成例を示す図である。
【図2】図1のゲーム機の構成例を示すブロック図である。
【図3】図2の記憶部に記憶される情報の例を示す図である。
【図4】図1のゲーム機3により実行されるプログラムの例を示す図である。
【図5】図1のデジタルスチルカメラの構成例を示すブロック図である。
【図6】図1のゲームサーバ8の構成例を示すブロック図である。
【図7】画像取得処理を説明するフローチャートである。
【図8】DSCの設定情報の例を示す図である。
【図9】接続処理を説明するフローチャートである。
【図10】画像取得処理を説明するフローチャートである。
【図11】ゲーム機のファイル名設定処理を説明するフローチャートである。
【図12】図1のテレビジョン受像機のディスプレイの表示例を示す図である。
【図13】作成される記録画像の例を示す図である。
【図14】図1のテレビジョン受像機のディスプレイの表示例を示す他の図である。
【図15】作成される記録画像の例を示す他の図である。
【図16】ゲーム機の画像取得方法設定処理を説明するフローチャートである。
【図17】ゲーム機の記録画像作成処理を説明するフローチャートである。
【図18】ゲーム機の記録画像作成処理を説明する図17に続くフローチャートである。
【図19】作成される画像データの範囲を説明する図である。
【図20】作成される記録画像の例を示す図である。
【図21】焦点距離について説明する図である。
【図22】作成される記録画像の例を示す他の図である。
【図23】動画表示処理を説明するフローチャートである。
【図24】画像取得処理を説明するフローチャートである。
【図25】画像取得処理を説明するフローチャートである。
【図26】画像提示処理を説明するフローチャートである。
【図27】DSCの画像表示処理を説明するフローチャートである。
【符号の説明】
1 ネットワーク, 2−1,2−2 モデム, 3−1,3−2 ゲーム機, 4−1,4−2 デジタルスチルカメラ(DSC), 5−1,5−2 スキャナ, 6−1,6−2 テレビジョン受像機, 7−1,7−2 プリンタ,8 ゲームサーバ, 9 課金サーバ, 21 CPU, 22 ROM, 23 RAM, 26 操作部, 29 記憶部, 31 通信部, 81 キャラクタ情報設定プログラム, 82 画像作成プログラム, 84 画像ファイル作成プログラム, 85 通信制御プログラム, 131 CPU, 134 外部操作入力部, 135 フラッシュメモリ, 137 LCD, 138 メモリインタフェース, 139 メモリカード, 140 USBコントローラ,201CPU, 209 記憶部, 210 通信部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information processing system, an information processing apparatus and method, a recording medium, and a program, and in particular, to an information processing system, an information processing apparatus, and an information processing apparatus that enable a user to create an image desired by an easy operation. The present invention relates to a method, a recording medium, and a program.
[0002]
[Prior art]
In recent years, digital still cameras have become widespread, and it has become possible to easily create image data of a desired subject. It is also possible to acquire an image on a display screen of a personal computer as a still image (so-called capture).
[0003]
In addition, there is a shooting game machine in which a user operates a camera-type shooting operation unit to shoot an image displayed on a projector, and scores a shooting result (for example, see Patent Document).
[0004]
[Patent Document]
JP 2000-70548 A (page 3-5, FIGS. 6 to 11)
[0005]
[Problems to be solved by the invention]
However, conventionally, there has been a problem that an image displayed on a personal computer or a game machine cannot be created by a user-friendly operation by an easy operation by the user.
[0006]
The present invention has been made in view of such a situation, and has as its object to create an image desired by a user by an easy operation.
[0007]
[Means for Solving the Problems]
In the information processing system according to the present invention, the first information processing apparatus includes: a first transmission unit configured to transmit a request signal requesting an image to the second information processing apparatus via a network; A second information processing apparatus comprising: first receiving means for receiving an image from the information processing apparatus; and recording means for recording the image received by the first receiving means on a recording medium as a file in a predetermined format. Corresponds to the second receiving means for receiving the request signal from the first information processing apparatus, and the first signal included in the request signal corresponding to the timing at which the request signal is received by the second receiving means. Creating means for creating an image to be transmitted to the first information processing apparatus based on setting information of the information processing apparatus; and second transmitting means for transmitting the image created by the creating means to the first information processing apparatus. It is characterized by having That.
[0008]
An information processing apparatus according to the present invention includes a first receiving unit for receiving a request signal for an image from a first other information processing device connected via a network, and a request signal received by the first receiving unit. Creating means for creating a first image to be transmitted to the first other information processing apparatus based on the setting information of the first other information processing apparatus included in the request signal in accordance with the timing. And a first transmission unit for transmitting the first image created by the creation unit to the first other information processing device.
[0009]
A display control means for controlling the display of the second image on a predetermined display device may be further provided, and the creating means may be made to further create a second image to be displayed on the display device. .
[0010]
The creating means may include a first image to be transmitted to the first other information processing device, the second image to be displayed on the display device at a timing when the transmission request for the first image is received. It can be made into an image.
[0011]
The creating means may include an image obtained by increasing the resolution of the second image to be displayed on the display device at a timing at which the transmission request for the first image is received, by the first other information processing device. To be created as the first image to be transmitted.
[0012]
The creating means is configured to create an image from a predetermined angle in a virtual space displayed on the display device as the first image to be transmitted to the first other information processing device. Can be.
[0013]
The first other information processing device may be an imaging device.
[0014]
The setting information may include at least one of information on focus, aperture value, shutter speed, flash, zoom, and image quality of the imaging device.
[0015]
A conversion unit for converting the first image created by the creation unit into a file format playable by a digital still camera is further provided, and the first transmission unit includes the digital still image by the conversion unit. The first image converted into a file format playable by a camera may be transmitted to the first other information processing device.
[0016]
A second transmission unit configured to transmit a transmission request for the image creation data to a second other information processing apparatus that holds the image creation data for creating the first image; and a second other information. And a second receiving means for receiving the image creation data from the processing device, wherein the creation means uses the image creation data received by the second reception means to receive the first data. Can be created.
[0017]
The information processing method of the present invention, from another information processing apparatus connected via a network, a receiving step of receiving a request signal of an image, and corresponding to the timing at which the request signal is received by the processing of the receiving step, A creating step of creating an image to be transmitted to another information processing apparatus based on the setting information of the other information processing apparatus included in the request signal; And a transmitting step of transmitting to
[0018]
When the program of the recording medium of the present invention receives a request signal for an image from another information processing apparatus connected via a network, the program is included in the request signal in accordance with the timing at which the request signal is received. And generating an image to be transmitted to another information processing apparatus based on setting information of another information processing apparatus.
[0019]
The program of the present invention, when receiving a request signal for an image from another information processing apparatus connected via a network, responds to the timing at which the request signal was received, and includes another request included in the request signal. A computer is configured to execute a creation step of creating an image to be transmitted to another information processing apparatus based on setting information of the information processing apparatus.
[0020]
In the information processing system according to the present invention, the first information processing apparatus transmits a request signal for requesting an image to the second information processing apparatus via a network, and the second information processing apparatus transmits an image request signal to the second information processing apparatus. Is received, and the received image is recorded on a recording medium as a file in a predetermined format. Further, in the second information processing device, a request signal is received from the first information processing device, and the first information processing device included in the request signal is included in the request signal in response to the timing at which the request signal is received. An image to be transmitted to the first information processing device is created based on the setting information, and the created image is transmitted to the first information processing device.
[0021]
In the information processing apparatus and method, the recording medium, and the program of the present invention, when a request signal for an image is received from another information processing apparatus connected via a network, the timing corresponds to the timing at which the request signal is received. Then, an image to be transmitted to another information processing device is created based on the setting information of the other information processing device included in the request signal.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 shows a configuration example of an information processing system to which the present invention is applied.
[0023]
In the information processing system of FIG. 1, a game server 8 and a billing server 9 are connected to a network 1 including the Internet. The game machine 3-1 is connected to the network 1 via the modem 2-1. Further, a game machine 3-2 is connected to the network 1 via a modem 2-2.
[0024]
A digital still camera (referred to as a DSC in the following description) 4-1, a scanner 5-1, a television receiver 6-1 and a printer 7-1 are connected to the game machine 3-1. Here, the game machine 3-1, the DSC 4-1, and the scanner 5-1 have a USB (Universal Serial Bus) connector. The DSC 4-1 is connected to the game machine 3-1 via a USB connection and communicates with each other. Similarly, the scanner 5-1 and the game machine 3-1 are also connected by USB. The game machine 3-1 has a video output terminal, and is connected to a video input terminal of the television receiver 6-1 by a cable. The television receiver 6-1 causes the display to display a video signal supplied from the game machine 3-1.
[0025]
A DSC 4-2, a scanner 5-2, a television receiver 6-2, and a printer 7-2 are connected to the game machine 3-2. The game machine 3-2, the DSC 4-2, and the scanner 5-2 have USB connectors. The DSC 4-2 is connected to the game machine 3-2 via a USB and communicates with each other. Similarly, the USB connection is made between the scanner 5-2 and the game machine 3-2. The game machine 3-2 is provided with a video output terminal, and is connected to a video input terminal of the television receiver 6-2 by a cable. The television receiver 6-2 displays a video signal supplied from the game machine 3-2 on a display.
[0026]
The modem 2-1 and the modem 2-2 have the same configuration. The game machine 3-1 and the game machine 3-2 have the same configuration. Further, the DSC 4-1 and the DSC 4-2, the scanner 5-1 and the scanner 5-2, the television receiver 6-1 and the television receiver 6-2, and the printer 7-1 and the printer 7-2 are also similar. Configuration. Therefore, in the following description, the modem 2-1 and the modem 2-2 are collectively referred to as the modem 2 when it is not necessary to distinguish each of them. The game machine 3-1 and the game machine 3-2 are collectively referred to as a game machine 3 when it is not necessary to distinguish each of them. Furthermore, when it is not necessary to individually distinguish each of the DSC 4-1 and the DSC 4-2, they are collectively referred to as DSC 4, and when it is not necessary to distinguish each of the scanner 5-1 and the scanner 5-2, If it is not necessary to individually distinguish the television receiver 6-1 and the television receiver 6-2 from each other as the scanner 5, they are collectively referred to as the television receiver 6 and the printer 7-1. When it is not necessary to distinguish each of the printers 7-2 individually, they are collectively referred to as printers 7.
[0027]
Further, in the following description, when it is necessary to individually distinguish a user who executes a video game on the game machine 3-1 and a user who executes a video game on the game machine 3-2, The user who executes the video game at 1 is the user A, and the user who executes the video game at the game machine 3-2 is the user B.
[0028]
In the information processing system of FIG. 1, the video of the video game being executed by the game machine 3 is displayed on the display of the television receiver 6. Further, when the release button of the DSC 4 is operated, a request signal for requesting image transmission is transmitted from the DSC 4 to the game machine 3. Upon receiving the request signal requesting transmission of the image, the game machine 3 converts the image related to the content of the game based on the image creation data (hereinafter, referred to as image creation data) held in advance. The created image is transmitted to the DSC 4. The DSC 4 records the received image on the memory card 139 (see FIG. 5). The image file recorded on the memory card 139 has a format according to the digital still camera image file format standard Exif. Therefore, the DSC 4 can treat an image file supplied from the game machine 3 and recorded on the memory card 139 in the same manner as an image file recorded on the memory card 139 by normal shooting.
[0029]
The game server 8 stores information on the progress of the video game executed by the game machine 3-1 and the progress of the video game executed by the game machine 3-2 on the game machine 3-1 and the game machine 3 -2, and manages images to be displayed on the television receiver 6-1 and the television receiver 6-2. That is, for example, when the content of the game is a role-playing game, the game server 8 determines whether or not the human-like character operated by the user is in the three-dimensional virtual space set as the content of the video game. Get information about position and orientation. A character operated by the user A (hereinafter, a character operated by the user A is referred to as a character A) and a character operated by the user B (hereinafter, a character operated by the user B is referred to as a character B) Is located near the virtual space, the game server 8 instructs the game machine 3-1 to display the character B on the television receiver 6-1 and instructs the game machine 3-2. Then, the character A is displayed on the television receiver 6-2.
[0030]
The game machine 3 can also acquire image creation data for creating an image to be supplied to the DSC 4 from the game server 8. Thus, when the game machine 3 is requested to transmit the image creation data, the game server 8 transmits the requested image creation data to the game machine 3.
[0031]
The charging server 9 charges, for example, data (for example, image creation data) acquired by the game machine 3 from the game server 8.
[0032]
Next, FIG. 2 is a block diagram illustrating a configuration example of the game machine 3. 2, the CPU 21 executes various processes according to a program stored in the ROM 22 or a program loaded into the RAM 23 from the storage unit 29. The RAM 23 also appropriately stores data necessary for the CPU 21 to execute various processes.
[0033]
The CPU 21, the ROM 22, and the RAM 23 are mutually connected via a bus 24. The bus 24 is also connected to an input / output interface 25.
[0034]
The input / output interface 25 includes an operation unit 26 that receives input of various operations during the game, a USB controller 27 that controls a USB connector 28, a storage unit 29 including a hard disk, and the like, and a wireless LAN standard such as IEEE 802.11. , A wireless communication unit 30 that performs wireless communication, and a communication unit 31 that includes a terminal adapter and the like. The DSC 4 and the scanner 5 are connected to the USB connector 28 via a USB cable. The communication unit 31 performs a communication process via the network 1 including the Internet. The input / output interface 25 is also connected to the television receiver 6 and the printer 7.
[0035]
A drive 32 is connected to the input / output interface 25 as necessary, and includes a magnetic disk (including a flexible disk) 41, an optical disk (CD-ROM (Compact Disk-Read Only Memory), and a DVD (Digital Versatile Disk)). ) 42, a magneto-optical disk (including an MD (Mini-Disk)) 43, a semiconductor memory 44, or the like, and a computer program (including a video game program executed by the game machine 3) read therefrom. ) Are installed in the storage unit 29 as necessary.
[0036]
FIG. 3 shows an example of contents read from the magnetic disk 41, the optical disk 42, the magneto-optical disk 43, or the semiconductor memory 44 by the drive 32 of the game machine 3 and stored in the storage unit 29.
[0037]
The game program 61 is a video game program executed by the game machine 3. The game data 62 is a data group used when executing a video game program. The game data 62 includes, for example, high-resolution image creation data 62A, low-resolution image creation data 62B, and character data 62C for creating an image to be supplied to the DSC 4. Here, the high-resolution image creation data 62A is data such as polygons and textures used when creating a high-resolution image, and the low-resolution image creation data 62B creates a low-resolution image. Data such as polygons and textures used in such cases. Character data 62 is data relating to a character operated by the user.
[0038]
In the game data 62, necessary data is read from the magnetic disk 41, the optical disk 42, the magneto-optical disk 43, or the semiconductor memory 44 and stored according to the position and posture of the character operated by the user in the virtual space. This is stored in the unit 29.
[0039]
Next, FIG. 4 illustrates an example of the game program 61. In FIG. 4, a character information setting program 81 is a program for setting information relating to a character operated by a user, and includes a character position setting program 81A, a character posture setting program 81B, a character ability setting program 81C, a task setting program 81D, and It is composed of a fighting program 81E.
[0040]
The character position setting program 81A is a program for managing information on the position of a character in a three-dimensional virtual space (hereinafter, also referred to as character position information). That is, when the user operates the operation unit 26 to move the position of the character in the virtual space, the character position setting program 81A determines the character in the virtual space based on the operation information input from the operation unit 26. Is calculated.
[0041]
The character posture setting program 81B is a program for managing information on the posture of the character in the three-dimensional virtual space (hereinafter, also referred to as character posture information). That is, when the user operates the operation unit 26 to change the posture of the character in the virtual space, the character posture setting program 81B determines the character in the virtual space based on the operation information input from the operation unit 26. Is calculated. The posture of the character may be basically the same as the posture that a normal human can take (standing, sitting, lying down, etc.).
[0042]
The character position information and the character posture information managed by the character position setting program 81A and the character posture setting program 81B are transmitted to the game server 8 each time they are updated. Thereby, the game server 8 manages the position and the posture of each character operated by a plurality of users playing the same game on the network 1.
[0043]
The character ability setting program 81C is a program for managing information on the ability of the character operated by the user. That is, for example, in the case of a role playing game, a character encounters various enemies in a virtual space, fights, and increases or decreases the physical strength value, the attack value, the money in possession, and the like. Therefore, the character ability setting program 81C calculates a value after the change when information on the character's ability (hereinafter, also referred to as character ability information) such as the character's physical strength value, attack value, and money in possession is changed. Update ability information.
[0044]
The task setting program 81D is a program for setting a task to be given to a character. That is, the task setting program 81D sets the strength of the enemy to a strength that is optimal for the character's ability based on the character ability information.
[0045]
The fighting program 81E is a program for executing a battle between a character and an enemy.
[0046]
The image creation program 82 is a program that generates an image to be displayed on the display of the television receiver 6 and generates an image to be transmitted to the DSC 4 according to the settings made by the character information setting program 81. The image creation program 82 includes a display image creation program 82A, a viewpoint image creation program 82B, and an encoding program 82C.
[0047]
The display image creation program 82A is a program for creating an image with a higher resolution at the same angle as the image displayed on the display of the television receiver 6 and the image displayed on the display of the television receiver 6. An image having the same angle as the image displayed on the display of the television receiver 6 and having a higher resolution is supplied to the DSC 4. The viewpoint image creation program 82B is a program that creates an image corresponding to an angle in the virtual space when viewed from the viewpoint of the character operated by the user. Note that an image corresponding to an angle in the virtual space when viewed from the viewpoint of the character is supplied to the DSC 4. The encoding program 82C is a program that encodes, among the images created by the display image creation program 82A or the viewpoint image creation program 82B, an image to be transmitted to the DSC 4 according to a standard such as JPEG (Joint Photographic Experts Group).
[0048]
The display control program 83 controls display of the display image created by the image creation program 82 on the display of the television receiver 6.
[0049]
The image file creation program 84 creates an image file according to the digital still camera image file format standard (Exif (Exchangeable image file format)) based on the image to be supplied to the DSC 4 created by the image creation program 82. It is a program. The image file created by the image file creation program 84 can be played back (displayed) even by a digital still camera of a model other than the DSC4.
[0050]
The communication control program 85 controls communication between the game machine 3 and the DSC 4, communication between the game machine 3 and the scanner 5, communication between the game machine 3 and the printer 7, and communication between the game machine 3 and the game server 8. It is.
[0051]
Next, FIG. 5 is a block diagram illustrating an example of the internal configuration of the DSC 4.
[0052]
Light from a subject (not shown) is incident on a CCD (Charge Coupled Device) 112 via a lens unit 111 of the DSC 4 including a lens, an aperture mechanism, and the like, and is photoelectrically converted.
[0053]
The video signal output from the CCD 112 is supplied to a CDS circuit (Correlated Double Sampling circuit) 113. The CDS circuit 113 performs correlated double sampling on the input signal to remove a noise component, and outputs the signal to an AGC circuit (Automatic Gain Control circuit) 114. After adjusting the gain of the input signal, the AGC circuit 114 outputs the signal to an A / D (Analog / Digital) converter 115. The A / D converter 115 converts an input analog signal into a digital signal and outputs the digital signal to a DSP (Digital Signal Processor) 116.
[0054]
The DSP 116 generates a control signal such as AF (Auto Focus), AE (Auto Exposure), and AWB (Auto White Balance) based on the input signal by the built-in image adjustment processing unit 121, and transmits the control signal to the bus. The data is supplied to a CPU (Central Processing Unit) 131 through 130. The DSP 116 compresses or further expands the input image signal by the built-in image compression / expansion processing unit 122. At this time, the image compression / decompression processing unit 122 performs processing while temporarily storing the video signal in the SDRAM 117 controlled by the SDRAM (Synchronous Dynamic Random Access Memory) controller 123 built in the DSP 116.
[0055]
The image data compressed by the image compression / expansion processing unit 122 is supplied to a random access memory (RAM) 133 or the like via the bus 130.
[0056]
The CPU 131 controls each unit according to a program stored in a ROM (Read Only Memory) 132 or a program loaded from the flash memory 135 into the RAM 133, and executes various processes. The RAM 133 also appropriately stores data necessary for the CPU 131 to execute various processes.
[0057]
The CPU 131 is also connected to an external operation input unit 134 that receives a user operation. The external operation input unit 134 includes various buttons such as a release button and a menu button, a dial for setting an aperture value, a shutter speed, a zoom, a focus, and the like, and knobs (none are shown). Operates to receive operations from various users and supply the operation information to the CPU 131. The CPU 131 executes various processes based on the operation information.
[0058]
The CPU 131, the ROM 132, and the RAM 133 are mutually connected via the bus. The bus 130 also includes a flash memory 135 composed of a nonvolatile semiconductor memory or the like, a display control unit 136 for controlling an image to be displayed on an LCD (Liquid Crystal Display) 137, a memory card 139, and the like. / F (InterFace) 138, a USB controller 140 that controls a USB connector 141 to which a USB cable (not shown) is connected, and other devices, perform wireless communication according to a wireless communication standard such as IEEE 802.11, and control the CPU 131, for example. Then, a wireless communication unit 142 for supplying image data captured by the CCD 112 to another device or receiving image data from another device, and a strobe 143 are connected.
[0059]
The display control unit 136 includes a VRAM (Video Random Access Memory) (not shown). The display control unit 136 stores the image data fetched from the CCD 112 in a built-in VRAM, and stores an image corresponding to the image data stored in the VRAM or another memory (RAM 133, flash memory 135, memory I / F 138). An image corresponding to the image data stored in the memory card 139 connected to the LCD 137 is displayed on the LCD 137.
[0060]
If necessary, a drive 144 is connected to the bus 130 via an interface (not shown), and data is read from a magnetic disk 145, an optical disk 146, a magneto-optical disk 147, or a semiconductor memory 148 mounted on the drive 144. The issued computer program is installed in the flash memory 135 or the like. Further, a computer program read from a memory card 139 appropriately mounted on the memory I / F 138 is also installed in the flash memory 135 or the like as necessary.
[0061]
The CPU 131, based on operation information from the user input from the external operation input unit 134, control information supplied from the image adjustment processing unit 121, information obtained by executing various programs, and the like, The operation of the CDS circuit 113, the AGC circuit 114, and the A / D converter 115 is controlled.
[0062]
In addition, the CPU 131 controls a TG (Timing Generator) 151 and a V driver 152 that control the operation of the CCD 112. The TG 151 and the V driver 152 are connected to the CCD 112 and are controlled by the CPU 131 via a serial control bus to control the operation of the CCD 112.
[0063]
Further, the CPU 131 controls the iris shutter driver 153 that controls the operation of the lens unit 111 to adjust the shutter speed and adjust the aperture mechanism.
[0064]
When the DSC 4 is not connected to the game machine 3, the DSC 4 can capture a still image or a moving image, and can record the captured still image or moving image on the memory card 139. Further, the DSC 4 can display the image file recorded on the memory card 139 on the LCD 137.
[0065]
Next, FIG. 6 is a block diagram illustrating a configuration example of the game server 8.
[0066]
6, a CPU 201 executes various processes according to a program stored in a ROM 202 or a program loaded from a storage unit 209 to a RAM 203. The RAM 203 also appropriately stores data necessary for the CPU 201 to execute various processes.
[0067]
The CPU 201, the ROM 202, and the RAM 203 are mutually connected via a bus 204. An input / output interface 205 is also connected to the bus 204.
[0068]
The input / output interface 205 includes an operation unit 206 including a keyboard and a mouse, an audio output unit 207 including a speaker, a CRT (Cathode-Ray Tube), a display 208 including an LCD, and a storage including a hard disk. And a communication unit 210 including a modem, a terminal adapter, and the like. The communication unit 210 performs communication processing via the network 1 including the Internet.
[0069]
A drive 211 is connected to the input / output interface 205 as necessary, and a magnetic disk 221, an optical disk 222, a magneto-optical disk 223, a semiconductor memory 224, and the like are appropriately mounted. It is installed in the storage unit 209 as needed.
[0070]
Next, an image acquisition process, that is, a process in which the DSC 4 acquires an image from the game machine 3 will be described with reference to a flowchart of FIG.
[0071]
In step S101 of FIG. 7, the CPU 131 of the DSC 4 determines whether or not an instruction to acquire an image has been input from the user based on operation information input from the external operation input unit 134, and the instruction to acquire an image has been input. The process of step S101 is repeated and the process waits. The external operation input unit 134 includes a release button, and the user can input an image acquisition instruction by pressing the release button. Therefore, in step S101, the CPU 131 determines whether or not the release button has been pressed, thereby determining whether or not an instruction to acquire an image has been input from the user. Then, when an instruction to acquire an image is input, the process proceeds to step S102.
[0072]
In step S102, the CPU 131 of the DSC 4 transmits a request signal for requesting an image and the setting information of the DSC 4 to the game machine 3. That is, the external operation input unit 134 of the DSC 4 can receive settings such as focus, aperture value, shutter speed, presence / absence of strobe light emission, zooming, image quality of image data to be acquired, and the like at the time of shooting. In step S102, the CPU 131 transmits a request signal for requesting an image and various setting information such as the focus, aperture value, shutter speed, presence / absence of flash emission, zoom, and image quality of acquired image data to the USB controller 140 and The data is transmitted to the game machine 3 via the USB connector 141. FIG. 8 shows an example of the setting information of the DSC 4 transmitted from the DSC 4 to the game machine 3 in step S102.
[0073]
8, setting information 301 of the DSC 4 includes information such as focus information 301A, aperture value 301B, shutter speed information 301C, flash information 301D, zoom information 301E, and image quality information 301F.
[0074]
The focus information 301A is setting information of a focal length from the lens of the DSC 4 to the subject. The aperture value 301B is an aperture value set in DSC4. The shutter speed information 301C is information relating to the shutter speed set in the DSC4. The flash information 301D is information relating to the setting of the light emission state (whether or not to emit light) of the strobe 143 of the DSC 4. The zoom information 301E is information on the optical zoom and the digital zoom set in the DSC 4. The image quality information 301F is information on the image quality of the image data to be created, which is set in the DSC4. The DSC 4 can set the image quality of the image data to be shot in, for example, three levels (high image quality, normal image quality, and low image quality). Therefore, for example, when the setting of the DSC 4 is “high image quality”, information indicating “high image quality” is described as the image quality information 301F.
[0075]
In step S111, the CPU 21 (communication control program 85) of the game machine 3 receives, via the USB connector 28 and the USB controller 27, the setting information 301 of the DSC 4 transmitted by the DSC 4 in step S102 and an image transmission request. In step S112, the CPU 21 (image creation program 82) of the game machine 3 executes a recorded image creation process to create image data to be transmitted to the DSC 4. The CPU 21 (image creation program 82) creates image data based on the setting information 301 of the DSC 4 received in step S111. The created image data is encoded according to, for example, the JPEG standard.
[0076]
After receiving the image transmission request in step S111, the CPU 21 of the game machine 3 immediately executes the processing in step S112. Therefore, the time lag from when the release button of the DSC 4 is pressed to when the image data is created can be reduced, and as a result, the user can obtain an image at a desired moment in the ongoing game. Yes (can avoid missing a photo opportunity).
[0077]
As the image data created in step S112, one that extracts one frame from a moving image to be displayed on the television receiver 6 and uses that frame as image data of a still image can be used. In step S112, image data of a still image having a higher resolution than a moving image frame to be displayed on the television receiver 6 may be created. Further, in the virtual space created by the game program 61, a still image at an angle corresponding to the viewpoint of the character operated by the user may be created as image data. A detailed description of the processing in step S112 will be described later with reference to the flowcharts in FIGS.
[0078]
After step S112, in step S113, the CPU 21 (communication control program 85) of the game machine 3 transmits the image data created in step S112 to the DSC 4 via the USB controller 27 and the USB connector 28.
[0079]
In step S103, the CPU 131 of the DSC 4 receives the image data transmitted by the game machine 3 in step S113 via the USB connector 141 and the USB controller 140. The received image data is temporarily stored in the flash memory 135.
[0080]
After step S103, in step S104, the CPU 131 of the DSC 4 reads the image data stored in the flash memory 135 in step S103 into the RAM 133, and creates an image file according to the Exif file rules. That is, the image data supplied from the game machine 3 is only data encoded according to the JPEG standard, and includes shooting date and time, file name, focus (focal length of lens), aperture value, shutter speed, and flash speed. Information such as the light emission state is not included. Therefore, the CPU 131 of the DSC 4 reads information such as the shooting date and time, the file name, the focus (the focal length of the lens), the aperture value, the shutter speed, and the flash emission state into the RAM 133, and stores the shooting date and time, the file name, Information such as focus (focal length of the lens), aperture value, shutter speed, and flash emission state is added, and an image file is created according to the Exif file rules. Thereafter, the process proceeds to step S105.
[0081]
In step S105, the CPU 131 of the DSC 4 causes the memory card 139 to store the image file created in accordance with the Exif file specification in step S104 via the memory interface 138.
[0082]
The image acquisition processing is executed as described above.
[0083]
In the image acquisition process of FIG. 7, the DSC 4 creates an image file according to the Exif file specification (step S104), but the game machine 3 creates an image file according to the Exif file specification. It may be executed.
[0084]
Generally, the file names of image files photographed and created by DSC4 are "DSC00001.JPG", "DSC00002.JPG", "DSC00003.JPG", "DSC00004.JPG", and "DSC00005.JPG". , The numbers are serialized. Therefore, when the game machine 3 executes creation of an image file in accordance with the Exif file rule, the game machine 3 replaces the file name of the image file to be created with the file name of the image file recorded on the memory card 139 of the DSC 4. It must be created so that it is a serial number.
[0085]
Therefore, the game machine 3 needs to acquire the file name having the largest number among the file names of the image files recorded on the memory card 139 of the DSC 4. The file name with the largest number is the file name of the latest image file. The timing at which the game machine 3 acquires the file name from the DSC 4 may be, for example, in steps S102 and S111 in FIG. That is, when the DSC 4 requests the game machine 3 to transmit an image, the file name having the largest number may be transmitted together with the setting information 301 of the DSC 4. The timing at which the game machine 3 acquires the file name from the DSC 4 may be immediately after the connection between the DSC 4 and the game machine 3. An example of a process when the DSC 4 transmits a file name having the largest number to the game machine 3 immediately after the DSC 4 and the game machine 3 are connected will be described with reference to the flowchart in FIG.
[0086]
In step S161 of FIG. 9, the CPU 21 of the game machine 3 determines whether or not the DSC 4 is connected via the USB controller 27 and the USB connector 28, and waits until the DSC 4 is connected. Then, when the DSC 4 is connected, the process proceeds to Step S162.
[0087]
In step S162, the CPU 21 (communication control program 85) of the game machine 3 requests the DSC 4 for the file name of the latest image file via the USB cable. The file name with the largest number is the file name of the latest image file.
[0088]
In step S151, the CPU 131 of the DSC 4 receives the request transmitted by the game machine 3 in step S162. In step S152, the CPU 131 of the DSC 4 reads out the file name of the latest image file from the memory card 139 via the memory interface 138, and transmits this to the game machine 3 via the USB controller 140 and the USB connector 141.
[0089]
In step S163, the CPU 21 of the game device 3 receives the file name transmitted by the DSC 4 in step S152 via the USB connector 28 and the USB controller 27. In step S164, the CPU 21 The part is stored in the storage unit 29. For example, if the received file name is “DSC00005.JPG”, the CPU 21 stores “00005” in the storage unit 29.
[0090]
Through the above processing, the file name having the largest number among the file names of the image files recorded on the memory card 139 of the DSC 4 is supplied to the game machine 3.
[0091]
Next, an image acquisition process when the game machine 3 executes the creation of an image file in accordance with the Exif file rules will be described with reference to the flowchart of FIG.
[0092]
In step S201 in FIG. 10, the CPU 131 of the DSC 4 determines whether or not an instruction to acquire an image has been input by the user based on operation information input from the external operation input unit 134 (release button). The process of step S201 is repeated until an instruction is input, and the process stands by. Then, when an instruction to acquire an image is input, the process proceeds to step S202.
[0093]
In step S202, the CPU 131 of the DSC 4 transmits the setting information 301 of the DSC 4 to the game machine 3 via the USB controller 140 and the USB connector 141, and requests that the image be transmitted.
[0094]
In step S211, the CPU 21 (communication control program 85) of the game machine 3 receives the setting information 301 of the DSC 4 transmitted by the DSC 4 in step S202 and the image transmission request via the 27USB connector 28 and the USB controller. In step S212, the CPU 21 (image creation program 82) of the game machine 3 executes a recorded image creation process to create image data to be transmitted to the DSC 4. The processing in step S212 has the same contents as the processing in step S112 in FIG.
[0095]
In step S213, the CPU 21 (image file creation program 84) of the game machine 3 creates an image file according to the Exif file rules. That is, the image data created in step S212 is only data encoded according to the JPEG standard, and includes shooting date and time, file name, focus (focal length of lens), aperture value, shutter speed, and flash emission. Information such as status is not included.
[0096]
Therefore, the CPU 21 (the image file creation program 84) of the game machine 3 reads information such as focus (focal length of the lens), aperture value, shutter speed, and light emission state of the strobe from the setting information 301, and incorporates the information. The shooting date and time are obtained from a clock (not shown). Further, the CPU 21 (the image file creation program 84) reads the value of the file name stored in the storage unit 29 by the process of step S164 in FIG. 9 and creates a file name in which the value is incremented by 1 (detailed description). Will be described later with reference to the flowchart of FIG. 11). After that, the CPU 21 adds information such as a shooting date and time, a file name, a focus (focal length of a lens), an aperture value, a shutter speed, and a flash emission state to the image data created by the process of step S212, Create an image file according to the Exif file rules. Thereafter, the process proceeds to step S214.
[0097]
In step S214, the CPU 21 (the communication control program 85) of the game machine 3 transmits the image file created in step S213 to the DSC 4 via the USB controller 27 and the USB connector 28.
[0098]
In step S203, the CPU 131 of the DSC 4 receives the image data transmitted by the game machine 3 in step S214 via the USB connector 141 and the USB controller 140. The received image data is temporarily stored in the flash memory 135.
[0099]
After step S203, in step S204, the CPU 131 of the DSC 4 reads out the image data stored in the flash memory 135 in step S203 to the RAM 133, and stores the image data in the memory card 139 via the memory interface 138. When storing an image file in the memory card 139, the CPU 131 stores the image file in a directory for recording an image file provided in the memory card 139.
[0100]
As described above, the image acquisition processing when the game machine 3 executes the creation of the image file according to the Exif file rule is executed.
[0101]
Here, the process in which the game machine 3 creates a file name in step S213 in FIG. 10 will be described with reference to the flowchart in FIG.
[0102]
In step S231 in FIG. 11, the CPU 21 (image file creation program 84) of the game machine 3 reads the value of the file name stored in the storage unit 29 in step S164 in FIG. In step S232, the CPU 21 (image file creation program 84) of the game machine 3 increments the value read in step S231 by one. For example, when “00005” is stored in the storage unit 29 as the value of the file name, the value “00005” is read out in step S231, and is incremented by one and set to “00006” in step S232. .
[0103]
In step S233, the CPU 21 (image file creation program 84) of the game machine 3 creates a new file name using the value incremented in step S232. For example, if it is incremented in step S232 and set to “00006”, a new file name “DSC00006.JPG” is created in step S233. In step S234, the CPU 21 (image file creation program 84) of the game machine 3 changes the file name of the image file created based on the image data created in step S212 in FIG. 10 to the file name created in step S233. Set.
[0104]
The file name of the image file is set as described above. In step S232, the incremented value is stored in the storage unit 29 as the value of the file name of the latest image file. Therefore, when the file name of the image file is created next time, the file name created this time is a value obtained by further incrementing by one.
[0105]
By the way, in the present invention, in the processing of step S112 of FIG. 7 or step S212 of FIG. 10, an image from the same angle as the image displayed on the television receiver 6 is created as still image data. It is also possible to create image data from an angle corresponding to the viewpoint of the character operated by the user in the three-dimensional virtual space created by the game program 61. The angles of the created image data will be described in more detail with reference to FIGS.
[0106]
FIG. 12 illustrates an example of a screen displayed on the display of the television receiver 6. 12, a display image 352 as a three-dimensional virtual space and a character information display field 356 are displayed on a display 351 of the television receiver 6. 12, a character 353 operated by the user, a tree 354, and a house 355 are displayed in the display image 352. The character 353, the tree 354, and the house 355 are all three-dimensionally displayed in the three-dimensional virtual space. Here, in the house 355, the surface on which the door is displayed is referred to as surface A, and the surface on which the window is displayed is referred to as surface B. In addition, on the surface A, a point P is above the door. Note that none of the characters such as “Surface A”, “Surface B”, and “Point P”, and the arrows shown in the immediate vicinity of those characters, are actually displayed on the display 351.
[0107]
The character information display column 356 displays information about the character 353, such as the physical strength value, attack power, and items of the character 353, which are necessary for the user to play the game.
[0108]
When image data as shown in FIG. 12 is displayed on the display 351 of the television receiver 6 and image data having the same angle as the display image is generated, the generated image data is as shown in FIG. 13, a recorded image 371 which is created image data is the same image as the display image 352 in FIG. However, for example, it is also possible to make the number of pixels of the recording image 371 larger than the number of pixels of the display image 352 in FIG. 12 to create higher-resolution image data. It is also possible to cut out only a part of the display image 352 of FIG. 12 and create enlarged image data.
[0109]
Next, FIG. 14 is a display example of the display 351 in a case where a mode in which angle image data corresponding to the viewpoint of the character 353 is created is set when the image is displayed on the display 351 as in FIG. 14, a tree 354, a house 355, and a character information display field 356 are the same as those in FIG. In FIG. 14, a camera 381 is displayed, and the character 353 has changed to a state where the camera 381 is held. In FIG. 14 as well, characters such as “Surface A”, “Surface B”, and “Point P”, and the arrows shown in the immediate vicinity of those characters are all displayed on the actual display 351. Not.
[0110]
When an image as shown in FIG. 14 is displayed on the display 351, image data to be created is, for example, as shown in FIG. In FIG. 15, a recorded image 391 which is created image data includes a tree 354 and a house 355. This recorded image 391 is image data when the character 353 is photographed from the viewpoint in the virtual space. Since the character 353 is located substantially in front of the surface A of the house 355 in the virtual space, when the house 355 is viewed from the viewpoint of the character 353, the surface A becomes the front and the character 353 sees the surface B. I can't. Therefore, also in the recorded image 391, the surface A is in front and the surface B is not drawn according to the viewpoint from the character 353.
[0111]
As described above, it is also possible to create image data from the viewpoint of the character 353. Note that the recorded image 391 in FIG. 15 is created with the setting focused on the house 355, and the tree 354 is drawn out of focus so that it is not focused.
[0112]
Next, an image acquisition method setting process of the game machine 3, that is, a process of setting an angle of image data to be created will be described with reference to a flowchart of FIG.
[0113]
By default, the game machine 3 displays a mode for creating an image from the same angle as the display 351 as shown in FIG. 13 (in the following description, a mode for creating an image from the same angle as the display 351 is displayed). When the DSC 4 is connected to the game machine 3, the CPU 21 (image creation program 82) of the game machine 3 sets the display image acquisition mode in step S301.
[0114]
The user operates the operation unit 26 to acquire an angle image corresponding to the character's viewpoint (in the following description, a mode for acquiring an angle image corresponding to the character's viewpoint is referred to as a character viewpoint mode). ) Can be changed. Therefore, in step S302, the CPU 21 (image creation program 82) of the game machine 3 determines whether or not a setting change instruction has been input based on the operation information from the operation unit 26, and the setting change instruction has been input. Fall until it is done. Then, when the setting change instruction is input, the process proceeds to step S303.
[0115]
In step S303, the CPU 21 (image creation program 82) of the game machine 3 sets the character viewpoint mode. Thereafter, the process proceeds to step S304. In step S304, the CPU 21 (image creation program 82) of the game machine 3 determines whether or not a setting change instruction has been input based on the operation information from the operation unit 26, and the setting change instruction has been input. Wait until. Then, when a setting change instruction is input, the process returns to step S301, and the CPU 21 (image creation program 82) of the game machine 3 sets the display image acquisition mode.
[0116]
Thereafter, similarly, the processing of steps S301 to S304 is repeated, and the display image acquisition mode and the character viewpoint mode are set.
[0117]
When image data is created in the processing of step S112 of FIG. 7 or the processing of step S212 of FIG. 10, the same angle as the display 351 or the viewpoint of the character 353 according to the mode set by the flowchart of FIG. Is generated at the angle corresponding to the angle.
[0118]
Next, with reference to the flowcharts of FIGS. 17 and 18, the recording image creation processing of the game machine 3, that is, the processing of step S112 of FIG. 7 and the processing of step S212 of FIG. 10 will be described in detail.
[0119]
In step S321 of FIG. 17, the CPU 21 (image creation program 82) of the game machine 3 determines whether or not the mode is the display image acquisition mode. If the mode is the display image acquisition mode, the process proceeds to step S322.
[0120]
In step S322, the CPU 21 (display image creation program 82A) of the game machine 3 sets the range of the image to be created based on the zoom information 301E included in the setting information 301 from the DSC 4. That is, for example, image data can be created with the entire display image 352 shown in FIG. 12 as an angle. It is also possible. In FIG. 19, a frame A is a case where the entire display image 352 is selected, and a frame B and a frame C are a case where only the area within the dotted line with the point O as a center is designated as a range for creating image data. It is an example. After the process in step S322, the process proceeds to step S323.
[0121]
In step S323, the CPU 21 (display image creation program 82A) of the game machine 3 sets the position of the light source of the image to be created based on the flash information 301D included in the setting information 301 from the DSC 4. After the process in step S323, the process proceeds to step S324.
[0122]
In step S324, the CPU 21 (display image creation program 82A) of the game machine 3 sets the focal length of the image data to be created based on the focus information 301A included in the setting information 301 from the DSC 4, and in step S325 The blur amount of the image to be created is set based on the aperture value 301B included in the setting information 301 and the focal length set in step S324. Here, the blur amount will be described.
[0123]
In an image captured by a normal DSC, a subject having a correct focal length does not have a blurred outline, and a subject having an out-of-focus distance has a blurred outline. Therefore, even in the three-dimensional virtual space provided by the game machine 3, among the structures in the virtual space, the contour of the subject with the correct focal length is not blurred, and the contour of the subject with the non-focus distance is not blurred. Can create an image as if it were blurred. In this specification, the degree of blurring of the contour is referred to as a blur amount. Therefore, in step S325, the CPU 21 (display image creation program 82A) of the game machine 3 sets the blur amount based on the focal length set in step S324 and the aperture value 301B. For setting the blur amount in accordance with the focal length, for example, the one described in Japanese Patent Application Laid-Open No. Hei 10-222694 can be used. After the process in step S325, the process proceeds to step S326.
[0124]
For example, a structure such as the character 353 can change its position and orientation in the virtual space. Thus, when the shutter speed is low, an image can be created that reflects the position of the structure that changes with time. In the present invention, a plurality of images that change with time are created according to the shutter speed, and the created plurality of images are combined to reflect the position of the structure that changes with time. Create an image. Therefore, in step S326, the CPU 21 (display image creation program 82A) of the game machine 3 specifies the number of composite images based on the shutter speed information 301C included in the setting information 301. Note that the number of images specified in step S326 increases as the shutter speed decreases, and is at least one or more.
[0125]
After step S326, in step S327, the CPU 21 (display image creation program 82A) of the game machine 3 determines whether the high-resolution image stored in the storage unit 29 is stored based on the image quality information 301F included in the setting information 301 from the DSC 4. From the image creation data 62A or the low-resolution image creation data 62B, the image creation data necessary for creating the image data is read.
[0126]
In step S328, the CPU 21 (display image creation program 82A) of the game machine 3 creates image data for the number specified in step S326 by using the image creation data read in step S327. The one or more pieces of image data created in step S328 are created according to the angle set in step S322, the position of the light source set in step S323, and the amount of blur set in step S325.
[0127]
After the process of step S328, in step S329, the CPU 21 (display image creation program 82A) of the game machine 3 adds all corresponding pixel values of the image data created in step S328. In step S330, the CPU 21 (display image creation program 82A) of the game machine 3 divides each pixel value added by the number in step S329 by the number of composite images. A composite image is created by the processing of steps S329 and S330. After the processing in step S330, the processing proceeds to step S341. If only one piece of image data has been created in step S328, the processing in steps S329 and S330 is skipped, and the process proceeds to step S341.
[0128]
If the CPU 21 (image creation program 82) of the game machine 3 determines in step S321 that the mode is not the display image acquisition mode (the mode is the character viewpoint mode), the process proceeds to step S331 in FIG. In step S331, the CPU 21 (viewpoint image creation program 82B) of the game machine 3 determines the viewpoint (virtual) of the character 353 based on the character position information and the character posture information set by the character position setting program 81A and the character posture setting program 81B. The coordinates and orientation of the camera 381 in the space are specified.
[0129]
In step S332, the CPU 21 (the viewpoint image creation program 82B) of the game machine 3 creates the image based on the zoom information 301E included in the setting information 301 from the DSC 4 and the viewpoint of the character 353 specified in step S331. Set the angle of the image. For example, when image data is created in a state where the character 353 holds the camera 381 as shown in FIG. 14, the created image data is changed according to the zoom information as in the recorded image 391 in FIG. And the recorded image 421 shown in FIG. The recorded image 421 in FIG. 20 is image data obtained when the recorded image 391 in FIG. 15 is zoomed up. It should be noted that in FIG. 20, the zoom has been zoomed up around the point P in FIG. After the process in step S332, the process proceeds to step S333.
[0130]
In step S333, the CPU 21 (the viewpoint image creation program 82B) of the game machine 3 sets the position of the light source when creating the image data based on the flash information 301D included in the setting information 301 from the DSC 4.
[0131]
In step S334, the CPU 21 (viewpoint image creation program 82B) of the game machine 3 sets a focal length for creating image data based on the focus information 301A included in the setting information 301 from the DSC 4, In step S335, the blur amount of the image is set based on the focal length set in step S334 and the aperture value 301B included in the setting information 301 from the DSC 4. In general, in the DSC 4, as shown in FIG. 21, when the distance L2 to the subject is longer than the distance L1 to the focus position, an image of the subject is formed before the imaging surface, and Is an image blurred by the diameter of the circle of confusion. The diameter of the circle of confusion changes depending on the focal length of the lens unit 111, the aperture value, the distance L1 to the focus position, the distance L2 to the subject, and the like.
[0132]
Therefore, also in the character viewpoint mode, the focal length is set based on the arrangement of the structures in the virtual space and the setting information 301. That is, the viewpoint image creation program 82B determines the focal length in the virtual space based on the focus information 301A, and increases the diameter of the circle of confusion (blur amount) for a structure located farther than the focal length. As a result, for example, in the recorded image 391 of FIG. 15 described above, an image in which the house 355 is focused and the tree 354 is blurred is created. The tree 354 can also be focused. In this case, for example, as in a recorded image 451 in FIG. 22, the tree 354 is focused and an image in which the house 355 is blurred is created.
[0133]
By doing so, it is possible to produce the same effect as in actual shooting by the DSC 4. It is of course possible to create image data without blurring.
[0134]
After the process in step S335, the process proceeds to step S336.
[0135]
In step S336, the CPU 21 (the viewpoint image creation program 82B) of the game machine 3 specifies the number of combined images based on the shutter speed information 301C included in the setting information 301. The number of images specified in step S336 is one or more.
[0136]
After step S336, in step S337, the CPU 21 (viewpoint image creation program 82B) of the game machine 3 uses the high resolution stored in the storage unit 29 based on the image quality information 301F included in the setting information 301 from the DSC 4. From the image creation data 62A or the low-resolution image creation data 62B, the image creation data necessary for creating the image data is read.
[0137]
In step S338, the CPU 21 (viewpoint image creation program 82B) of the game machine 3 creates the image data of the number specified in step S336 by using the image creation data read in step S337. The one or more pieces of image data created in step S338 include the viewpoint of the character 353 specified in step S331, the angle set in step S332, the position of the light source set in step S333, and the setting in step S335. It is created according to the defocus amount.
[0138]
After the processing in step S338, in step S339, the CPU 21 (viewpoint image creation program 82B) of the game machine 3 adds all corresponding pixel values of one or more pieces of image data created in step S338. In step S340, the CPU 21 (viewpoint image creation program 82B) of the game machine 3 divides each pixel value added by the number in step S339 by the number of composite images. A composite image is created by the processing in steps S339 and S340. After the processing in step S340, the processing proceeds to step S341 in FIG. If only one piece of image data is created in step S338, the processing in steps S339 and S340 is skipped, and the process proceeds to step S341.
[0139]
In step S341, the CPU 21 (encoding program 82C) of the game machine 3 encodes the composite image created in step S330 or step S340 according to the JPEG standard to create encoded image data.
[0140]
The image creation processing is executed as described above. In the processing of the flowcharts of FIGS. 17 and 18, various settings are made based on the setting information 301 of the DSC 4 and the image data is created based on the settings. It does not mean that the invention is limited to creating image data based on the image data 301. The setting regarding the image data to be created may be received from the operation unit 26 of the game machine 3.
[0141]
Further, the focus information 301A to the image quality information 301F included in the setting information 301 used when creating the image data is an example, and the setting information 301 includes information other than the focus information 301A to the image quality information 301F. May be. In that case, the setting for creating the image data is performed according to the information included in the setting information 301.
[0142]
By the way, in the present invention, the same moving image to be displayed on the display of the television receiver 6 or the moving image at an angle corresponding to the viewpoint of the character 353 can be displayed on the LCD 137 of the DSC 4.
[0143]
Next, a process of displaying the same moving image as the moving image displayed on the display of the television receiver 6 or the moving image at an angle corresponding to the viewpoint of the character 353 on the LCD 137 of the DSC 4 will be described with reference to the flowchart of FIG. I do.
[0144]
In step S401 of FIG. 23, the CPU 131 of the DSC 4 determines whether or not an instruction to display a moving image on the LCD 137 has been input based on operation information from the external operation input unit 134, and the instruction to display the moving image on the LCD 137 is issued. Until an input is made, the process of step S401 is repeated and the process stands by. If an instruction to display a moving image on LCD 137 has been input, the process proceeds to step S402.
[0145]
In step S402, the CPU 131 of the DSC 4 requests the game machine 3 to transmit a moving image via the USB controller 140 and the USB connector 141.
[0146]
In step S421, the CPU 21 (communication control program 85) of the game machine 3 receives the moving image transmission request transmitted by the DSC 4 in step S402 via the USB connector 28 and the USB controller 27. In step S422, the CPU 21 (image creation program 82) of the game machine 3 determines whether the mode of the image to be created is the character viewpoint mode. If the mode is the character viewpoint mode, the process proceeds to step S423.
[0147]
In step S423, the CPU 21 (the viewpoint image creation program 82B) of the game machine 3 starts creating an angle moving image corresponding to the viewpoint of the character 353. Thereafter, processing proceeds to step S424.
[0148]
In step S422, if the CPU 21 (image creation program 82) of the game machine 3 determines that the mode is not the character viewpoint mode (the display image acquisition mode), the process of step S423 is skipped, and the process proceeds to step S424.
[0149]
In step S424, the CPU 21 (the communication control program 85) of the game machine 3 starts transmitting the moving image to the DSC 4. Specifically, if it is determined in step S422 that the current mode is the character viewpoint mode, in step S424, the CPU 21 (communication control program 85) of the game machine 3 determines the viewpoint of the character 353 whose creation has been started in step S423. Of the moving image of the angle corresponding to. If it is determined in step S422 that the current mode is the display image acquisition mode, the CPU 21 (the communication control program 85) of the game machine 3 transmits the same moving image to the DSC 4 of the moving image output to the television receiver 6. Start sending.
[0150]
In step S403, the CPU 131 of the DSC 4 starts receiving a moving image from the game machine 3 via the USB connector 141 and the USB controller 140. In step S404, the CPU 131 of the DSC 4 starts displaying the moving image whose reception has been started in step S403 on the LCD 137. Specifically, the CPU 131 of the DSC 4 supplies the moving image data started to be received in step S403 to the display control unit 136, and the display control unit 136 causes the LCD 137 to display a moving image corresponding to the supplied moving image data. .
[0151]
Then, in step S405, the CPU 131 of the DSC 4 determines whether or not an instruction to end the display of the moving image on the LCD 137 has been input based on the operation information from the external operation input unit 134, and displays the moving image on the LCD 137. Until the termination instruction is input, the process of step S405 is repeated and the process waits. Then, when an instruction to end the display of the moving image on LCD 137 is input, the process proceeds to step S406.
[0152]
In step S406, the CPU 131 of the DSC 4 instructs the display control unit 136 to end the display of the moving image on the LCD 137. After that, in step S407, the CPU 131 of the DSC 4 requests the game machine 3 via the USB controller 140 and the USB connector 141 to end the transmission of the moving image.
[0153]
In step S425, the CPU 21 (communication control program 85) of the game machine 3 receives the moving image transmission end request transmitted by the DSC 4 in step S407 via the USB connector 28 and the USB controller 27. In step S426, the CPU 21 (communication control program 85) of the game machine 3 ends the transmission of the moving image to the DSC 4.
[0154]
As described above, the display of the moving image on the LCD 137 of the DSC 4 is executed.
[0155]
In the above description, the image creation data (high-resolution image creation data 62A and low-resolution image creation data 62B) for creating the image data transmitted to the DSC 4 is stored in the storage unit 29 of the game machine 3. However, these image creation data may be obtained from the game server 8.
[0156]
Next, an example in which image creation data is obtained from the game server 8 will be described with reference to the flowchart in FIG. In the following description, an example will be described in which image data of an angle corresponding to the viewpoint of the character 353 is created.
[0157]
In step S501 in FIG. 24, the CPU 131 of the DSC 4 determines whether or not an instruction to acquire an image has been input from the user based on operation information input from the external operation input unit 134 (release button), and The process of step S501 is repeated until an instruction is input, and the process waits. If the instruction to acquire an image has been input, the process proceeds to step S502.
[0158]
In step S502, the CPU 131 of the DSC 4 transmits the setting information 301 of the DSC 4 to the game machine 3 and requests the game machine 3 to transmit an image.
[0159]
In step S511, the CPU 21 (communication control program 85) of the game machine 3 receives the setting information 301 of the DSC 4 transmitted by the DSC 4 in step S502 and the image transmission request via the USB connector 28 and the USB controller 27. In step S512, the CPU 21 of the game machine 3 transmits information on the position and the posture of the character 353 to the game server 9 via the communication unit 31, and transmits image creation data corresponding to the position and the posture of the character 353. Request. Specifically, first, the communication control program 85 acquires the character position information and the character posture information managed by the character position setting program 81A and the character posture setting program 81B, and transmits them via the communication unit 31. And transmits the image creation data corresponding to the transmitted character position information and character posture information.
[0160]
The transmission request for the character position information, character posture information, and image creation data transmitted from the game machine 3 is transmitted to the game server 8 via the modem 2.
[0161]
The storage unit 209 of the game server 8 stores image creation data classified by position and direction in the virtual space. In step S521, the CPU 201 of the game server 8 receives the character position information, the character attitude information, and the image creation data transmission request transmitted by the game machine 3 in step S512 via the communication unit 210. The image forming data corresponding to the character position information and the character posture information is read from the storage unit 209, and the read image forming data is transmitted to the game machine 3 via the communication unit 210.
[0162]
In step S513, the CPU 21 of the game machine 3 receives the image creation data transmitted by the game server 8 in step S522 via the communication unit 31, and causes the storage unit 29 to store the data.
[0163]
In step S514, the CPU 21 (image creation program 82) of the game machine 3 reads out the image creation data received in step S513 and stored in the storage unit 29, and uses the image creation data to perform a recording image creation process. Execute By the processing in step S514, image data to be supplied to the DSC 4 is created. The process in step S514 is the same as the process described with reference to FIGS.
[0164]
After step S514, in step S515, the CPU 21 (communication control program 85) of the game machine 3 transmits the image data created in step S514 to the DSC 4 via the USB controller 27 and the USB connector 28.
[0165]
In step S503, the CPU 131 of the DSC 4 receives the image data transmitted by the game machine 3 in step S515 via the USB connector 141 and the USB controller 140. The received image data is temporarily stored in the flash memory 135.
[0166]
After step S503, in step S504, the CPU 131 of the DSC 4 reads out the image data stored in the flash memory 135 in step S503 into the RAM 133, and creates an image file according to the Exif file specification. The process in step S504 is the same as the process in step S104 in FIG. Thereafter, the process proceeds to step S505.
[0167]
In step S505, the CPU 131 of the DSC 4 causes the memory card 139 to store the image file created in accordance with the Exif file specification in step S504 via the memory interface 138.
[0168]
As described above, the image creation data is supplied from the game server 8, and the image acquisition processing is executed.
[0169]
When transmitting the image creation data from the game server 8, the charging may be performed by the charging server 9.
[0170]
In the process of the flowchart in FIG. 24, the image data supplied to the DSC 4 is created by the game machine 3, but the game server 8 may create the image data.
[0171]
Next, a process when the game server 8 creates image data will be described with reference to a flowchart of FIG. Note that the processing of DSC4 is the same as the processing of DSC4 in FIG. 24, and therefore will be appropriately simplified and described.
[0172]
In step S551 of FIG. 25, the CPU 131 of the DSC 4 determines whether or not an instruction to acquire an image has been input by the user based on operation information input from the external operation input unit 134 (release button). If an instruction has been input, the process proceeds to step S552. In step S552, the CPU 131 of the DSC 4 transmits the setting information 301 of the DSC 4 to the game machine 3 and requests the game machine 3 to transmit an image.
[0173]
In step S561, the CPU 21 (communication control program 85) of the game machine 3 receives the setting information 301 of the DSC 4 transmitted by the DSC 4 in step S562 and the image transmission request via the USB connector 28 and the USB controller 27. In step S562, the CPU 21 of the game machine 3 transmits the information on the position and the posture of the character 353 and the setting information 301 of the DSC 4 to the game server 9 via the communication unit 31, and the position and the posture of the character 353, and Request transmission of image data corresponding to the setting information 301. Specifically, first, the communication control program 85 acquires the character position information and the character posture information managed by the character position setting program 81A and the character posture setting program 81B, and obtains the character position information and the character posture information. , And the setting information 301 to the game server 8 via the communication unit 31, and requests transmission of the transmitted character position information and character posture information, and image data corresponding to the setting information 301.
[0174]
The transmission request of the character position information and character posture information, the setting information 301, and the image creation data transmitted from the game machine 3 is transmitted to the game server 8 via the modem 2.
[0175]
In step S571, the CPU 201 of the game server 8 receives the character position information, the character posture information, the setting information 301, and the image data transmission request transmitted by the game machine 3 in step S562 via the communication unit 210. In step S572, image creation data corresponding to the character position information and the character posture information is read from the storage unit 209, and image data is created using the read image creation data and the setting information 301. Then, in step S573, the CPU 201 of the game server 8 transmits the image data created in step S572 to the game machine 3 via the communication unit 210.
[0176]
In step S563, the CPU 21 of the game machine 3 receives the image data transmitted by the game server 8 in step S573 via the communication unit 31, and stores the image data in the storage unit 29.
[0177]
In step S564, the CPU 21 (communication control program 85) of the game machine 3 reads out the image data received in step S563 and stored in the storage unit 29, and reads the image data via the USB controller 27 and the USB connector 28. Send to DSC4.
[0178]
In step S553, the CPU 131 of the DSC 4 receives the image data transmitted by the game machine 3 in step S564 via the USB connector 141 and the USB controller 140, and stores the image data in the flash memory 135. In step S554, the CPU 131 The image data is read, and an image file is created according to the Exif file rules. The process in step S554 is the same as the process in step S104 in FIG. Thereafter, the process proceeds to step S555.
[0179]
In step S555, the CPU 131 of the DSC 4 causes the memory card 139 to store the image file created in accordance with the Exif file specification in step S554 via the memory interface 138.
[0180]
As described above, the game server 8 may create the image data.
[0181]
By the way, the user can show the image data recorded on the DSC 4 to other users via the network 1.
[0182]
Next, referring to the flowchart of FIG. 26, the image file recorded on the memory card 139 of the DSC 4-1 is transmitted from the game machine 3-1 to another game machine 3-2 connected to the network 1, and The process for displaying will be described.
[0183]
In step S601, the CPU 21 of the game machine 3-1 determines whether an instruction to present an image file to another game machine 3-2 has been input based on operation information from the operation unit 26, and Until an instruction to present is presented to another game machine 3-2, the process of step S601 is repeated and the process waits. Then, when an instruction to present the image file to another game machine 3-2 is input, the process proceeds to step S602.
[0184]
In step S602, the CPU 21 of the game machine 3-1 acquires an image file from the DSC 4 via the USB controller 27 and the USB connector 28, and transmits the image file to the game server 8 via the communication unit 31. , The image file is requested to be displayed on the game machine 3-2.
[0185]
In step S611, the CPU 201 of the game server 8 sends, via the communication unit 210, the image file transmitted by the game machine 3-1 in step S602 and a request to display the image file on the game machine 3-2. Upon receipt, in step S612, the image file received from the game machine 3-1 is transmitted to the game machine 3-2 via the communication unit 210, and a request is made to display the image file.
[0186]
In step S621, the CPU 21 of the game machine 3-2 receives, via the communication unit 31, the image file transmitted by the game server 8 in step S612 and a request to display the image file. In step S622, the CPU 21 of the game machine 3-2 outputs the image file received in step S621 to the television receiver 6-2, and displays the image file.
[0187]
As described above, the image file is transmitted from the game machine 3-1 to the game machine 3-2 and displayed.
[0188]
In the present invention, image data created by the game machine 3 (or the game server 8) can be reproduced (displayed) by a digital still camera including the DSC 4. Next, a process of displaying image data created in the game machine 3 (or the game server 8) and stored in the memory card 139 of the DSC 4 on the LCD 137 of the DSC 4 will be described with reference to a flowchart of FIG.
[0189]
In step S701, the CPU 131 of the DSC 4 determines whether or not an instruction to display image data stored in the memory card 139 has been input based on operation information from the external operation input unit 134, and stores the instruction in the memory card 139. Until an instruction to display the received image data is input, the process of step S701 is repeated to wait. Then, when an instruction to display the image data stored in the memory card 139 is input from the external operation input unit 134, the process proceeds to step S702.
[0190]
In step S702, the CPU 131 of the DSC 4 reads the specified image data from the memory card 139 via the memory interface 138. In step S703, the CPU 131 of the DSC 4 causes the LCD 137 to display the image data read from the memory card 139 in step S702 via the display control unit 136.
[0191]
As described above, the image data stored in the memory card 139 is displayed on the LCD 137.
[0192]
As described above, according to the present invention, an image can be acquired by operating a device (DSC4) to which the user is familiar, so that the user can acquire an image by an operation which is familiar (easy operation). It is possible to do. According to the present invention, as described with reference to FIGS. 17 and 18, an image is created based on setting information of an external device such as the DSC 4. Therefore, for a user who is accustomed to using the DSC 4, it is possible to give a desired effect to the acquired image by setting the DSC 4.
[0193]
Further, according to the present invention, since the image file to be recorded on the memory card 139 of the DSC 4 is created in accordance with the image file format standard for digital still cameras, this image file is equivalent to an image file normally shot by the DSC 4 Can be handled. Further, since the resolution of the image displayed on the display of the television receiver 6 and the resolution of the image recorded on the DSC 4 can be different, it is possible to provide a user with a higher quality image file. Note that the number of colors of the image displayed on the display of the television receiver 6 and the number of colors of the image recorded on the DSC 4 can be different from each other.
[0194]
In addition, since the image displayed on the display of the television receiver 6 is a moving image, if a detailed structure is drawn, the amount of calculation for creating the image increases, and the computing power of the game machine 3 is reduced. Will exceed. For this reason, the image displayed on the display of the television receiver 6 is suppressed to a resolution (for example, 320 × 240) that does not exceed the calculation capability of the game machine 3. However, since the image to be recorded on the DSC 4 is a still image, there is more room for computational power than in the case of creating a moving image. Therefore, when an image to be recorded by the DSC 4 is created, a structure that is not illustrated in the image displayed on the display of the television receiver 6 may be finely drawn.
[0195]
In the above description, the case where the communication between the game machine 3 and the DSC 4 is performed by a USB connection has been described as an example, but this is because the communication between the game machine 3 and the DSC 4 is a USB connection. However, the present invention is not limited to this. Communication between the game machine 3 and the DSC 4 can use any other communication means. For example, the communication between the game machine 3 and the DSC 4 may be performed by wireless communication such as IEEE 802.11 or Bluetooth.
[0196]
Further, in the above description, the case where the image file is recorded on the DSC 4 has been described as an example. However, this means that the present invention is applicable only when the image file is recorded on the DSC 4. is not. For example, instead of the DSC 4, the image file may be supplied to a scanner 5 or a printer 6 having a built-in memory.
[0197]
Further, in the above description, the case where the television receiver 6 is used as the game display device has been described as an example. However, this is because the present invention is applicable only to the television receiver 6 as the game display device. It does not mean that the display device cannot be used, and any display device that can input a video signal can be used.
[0198]
Further, in the above description, the case where the image stored in the DSC 4 is a still image has been described as an example, but a moving image may be recorded.
[0199]
In the above description, the processing executed by the game machine 3 may be executed by, for example, a general-purpose personal computer. The image file to be created is not limited to the content of the game, and may be another image.
[0200]
Further, a place where the creation of image data is prohibited may be provided in the three-dimensional virtual space of the video game. In such a case, for example, a moving image of a story in which a predetermined character appears in the virtual space and the character deletes the image data may be displayed on the television receiver 6. Further, an event may be generated in the virtual space according to the creation of the image data. For example, when the flash information 301D transmitted from the DSC 4 to the game machine 3 when the release button (the external operation input unit 134) of the DSC 4 is pressed is set to emit a flash, the flash In the game program 61, an effect may be set in which the enemies gather in response to the light emission or blind the surrounding enemies by strobe light emission.
[0201]
Further, in the above description, the case where the created image file is recorded on the memory card 139 of the DSC 4 has been described as an example. However, instead of recording the image file on the memory card 139, for example, the flash file of the DSC 4 The data may be recorded in the memory 135, the magnetic disk 145, the optical disk 146, the magneto-optical disk 147, or the semiconductor memory 148. Further, a hard disk may be connected to an input / output interface (not shown) of the DSC 4 and the created image file may be recorded on the hard disk.
[0202]
In the above description, the case where the image acquisition instruction is input from the external operation input unit 134 (release button) of the DSC 4 has been described as an example. Does not mean that the input is made only from the external operation input unit 134 (release button) of the DSC 4. The image acquisition instruction can be input from the operation unit of the scanner 5 or the printer 7, for example.
[0203]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or installing various programs. For example, it is installed from a network 1 or a recording medium to a general-purpose personal computer or the like.
[0204]
As shown in FIGS. 2, 5, and 6, this recording medium is a magnetic disk 41 (flexible disk) on which the program is recorded, which is distributed separately from the apparatus main body to provide the program to the user. 145, 221), an optical disk 42 (including a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk)), 146, 222, and a magneto-optical disk 43 (MD (Mini-Disk)) , 147, 223 or semiconductor media 44, 148, 224, etc., as well as the ROM 22, which is provided to the user in a state of being incorporated in the main body of the apparatus in advance, and which stores programs. 132, 202, the storage unit 29, 09, composed of such as a flash memory 135.
[0205]
In this specification, a network includes all mediation devices that transmit and receive information between devices, such as a line connection, a USB connection, and a wireless LAN, in addition to the network 1 in FIG.
[0206]
In this specification, the step of describing a program to be recorded on a recording medium may be performed in a chronological order in the order described, but is not necessarily performed in a chronological order. This also includes processes executed individually.
[0207]
Also, in this specification, a system refers to an entire device including a plurality of devices.
[0208]
【The invention's effect】
As described above, according to the first aspect of the present invention, an image file can be provided to a user.
[0209]
Further, according to the first aspect of the present invention, an image displayed on another device or an image related to an image displayed on another device can be provided to the user by an easy operation.
[0210]
According to the second aspect of the present invention, it is possible to create image data.
[0211]
Further, according to the second aspect of the present invention, an image being displayed or an image related to the image being displayed can be provided to the user by an easy operation.
[0212]
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration example of an information processing system according to the present invention.
FIG. 2 is a block diagram illustrating a configuration example of the game machine in FIG. 1;
FIG. 3 is a diagram illustrating an example of information stored in a storage unit of FIG. 2;
FIG. 4 is a diagram showing an example of a program executed by the game machine 3 of FIG.
FIG. 5 is a block diagram illustrating a configuration example of the digital still camera in FIG. 1;
FIG. 6 is a block diagram showing a configuration example of a game server 8 of FIG.
FIG. 7 is a flowchart illustrating an image acquisition process.
FIG. 8 is a diagram showing an example of DSC setting information.
FIG. 9 is a flowchart illustrating a connection process.
FIG. 10 is a flowchart illustrating an image acquisition process.
FIG. 11 is a flowchart illustrating a file name setting process of the game machine.
12 is a diagram illustrating a display example of a display of the television receiver in FIG.
FIG. 13 is a diagram illustrating an example of a recorded image to be created.
FIG. 14 is another view showing a display example of the display of the television receiver in FIG. 1;
FIG. 15 is another diagram showing an example of a recorded image to be created.
FIG. 16 is a flowchart illustrating an image acquisition method setting process of the game machine.
FIG. 17 is a flowchart illustrating a recorded image creation process of the game machine.
FIG. 18 is a flowchart illustrating a recorded image creation process of the game machine, following FIG. 17;
FIG. 19 is a diagram illustrating a range of image data to be created.
FIG. 20 is a diagram illustrating an example of a recorded image to be created.
FIG. 21 is a diagram illustrating a focal length.
FIG. 22 is another diagram showing an example of a recorded image to be created.
FIG. 23 is a flowchart illustrating a moving image display process.
FIG. 24 is a flowchart illustrating an image acquisition process.
FIG. 25 is a flowchart illustrating an image acquisition process.
FIG. 26 is a flowchart illustrating an image presentation process.
FIG. 27 is a flowchart illustrating an image display process of the DSC.
[Explanation of symbols]
1 network, 2-1 and 2-2 modem, 3-1 and 3-2 game machine, 4-1 and 4-2 digital still camera (DSC), 5-1 and 5-2 scanner, 6-1 and 6 -2 television receiver, 7-1, 7-2 printer, 8 game server, 9 charging server, 21 CPU, 22 ROM, 23 RAM, 26 operation unit, 29 storage unit, 31 communication unit, 81 character information setting program , 82 image creation program, 84 image file creation program, 85 communication control program, 131 CPU, 134 external operation input unit, 135 flash memory, 137 LCD, 138 memory interface, 139 memory card, 140 USB controller, 201 CPU, 209 storage unit , 210 Communication unit

Claims (13)

ネットワークを介して接続された第1の情報処理装置、および第2の情報処理装置から構成される情報処理システムにおいて、
前記第1の情報処理装置は、
前記ネットワークを介して、前記第2の情報処理装置に対して、画像を要求する要求信号を送信する第1の送信手段と、
前記第2の情報処理装置から前記画像を受信する第1の受信手段と、
前記第1の受信手段により受信された前記画像を、所定のフォーマットのファイルとして記録媒体に記録する記録手段と
を備え、
前記第2の情報処理装置は、
前記第1の情報処理装置から、前記要求信号を受信する第2の受信手段と、
前記第2の受信手段により前記要求信号が受信されたタイミングに対応して、前記要求信号に含まれている前記第1の情報処理装置の設定情報に基づいて、前記第1の情報処理装置に送信する画像を作成する作成手段と、
前記作成手段により作成された前記画像を前記第1の情報処理装置に送信する第2の送信手段と
を備えることを特徴とする情報処理システム。
In an information processing system including a first information processing device and a second information processing device connected via a network,
The first information processing device includes:
A first transmitting unit that transmits a request signal for requesting an image to the second information processing apparatus via the network;
First receiving means for receiving the image from the second information processing device;
Recording means for recording the image received by the first receiving means on a recording medium as a file in a predetermined format,
The second information processing device includes:
Second receiving means for receiving the request signal from the first information processing device;
In response to the timing at which the request signal is received by the second receiving means, the first information processing device is configured to transmit the request signal based on the setting information of the first information processing device included in the request signal. Creating means for creating an image to be transmitted;
An information processing system comprising: a second transmission unit that transmits the image created by the creation unit to the first information processing device.
ネットワークを介して接続された第1の他の情報処理装置から、画像の要求信号を受信する第1の受信手段と、
前記第1の受信手段により前記要求信号が受信されたタイミングに対応して、前記要求信号に含まれている前記第1の他の情報処理装置の設定情報に基づいて、前記第1の他の情報処理装置に送信する第1の画像を作成する作成手段と、
前記作成手段により作成された前記第1の画像を前記第1の他の情報処理装置に送信する第1の送信手段と
を備えることを特徴とする情報処理装置。
First receiving means for receiving an image request signal from a first other information processing apparatus connected via a network;
Corresponding to the timing at which the request signal is received by the first receiving means, based on the setting information of the first other information processing device included in the request signal, the first other Creating means for creating a first image to be transmitted to the information processing apparatus;
An information processing apparatus comprising: a first transmission unit configured to transmit the first image created by the creation unit to the first other information processing device.
所定の表示装置への、第2の画像の表示を制御する表示制御手段をさらに備え、
前記作成手段は、前記表示装置に表示させる前記第2の画像をさらに作成する
ことを特徴とする請求項2に記載の情報処理装置。
A display control unit configured to control display of the second image on a predetermined display device,
The information processing apparatus according to claim 2, wherein the creating unit further creates the second image to be displayed on the display device.
前記作成手段は、前記第1の画像の送信要求が受信されたタイミングで前記表示装置に表示する前記第2の画像を、前記第1の他の情報処理装置に送信すべき前記第1の画像とする
ことを特徴とする請求項3に記載の情報処理装置。
The first image to be transmitted to the first other information processing device, the second image to be displayed on the display device at a timing when the transmission request for the first image is received, The information processing apparatus according to claim 3, wherein:
前記作成手段は、前記第1の画像の送信要求が受信されたタイミングで前記表示装置に表示する前記第2の画像を、より高解像度にした画像を、前記第1の他の情報処理装置に送信すべき前記第1の画像として作成する
ことを特徴とする請求項3に記載の情報処理装置。
The creation unit may provide the first other information processing device with a higher resolution image of the second image displayed on the display device at a timing when the transmission request of the first image is received. 4. The information processing apparatus according to claim 3, wherein the information is created as the first image to be transmitted.
前記作成手段は、前記表示装置に表示された仮想空間内の所定のアングルからの画像を、前記第1の他の情報処理装置に送信すべき前記第1の画像として作成する
ことを特徴とする請求項3に記載の情報処理装置。
The creation unit creates an image from a predetermined angle in a virtual space displayed on the display device as the first image to be transmitted to the first other information processing device. The information processing device according to claim 3.
前記第1の他の情報処理装置は、撮像装置である
ことを特徴とする請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the first other information processing apparatus is an imaging apparatus.
前記設定情報は、前記撮像装置のフォーカス、絞り値、シャッタスピード、フラッシュ、ズーム、および画質に関する情報のうち、1以上の情報を含む
ことを特徴とする請求項7に記載の情報処理装置。
8. The information processing apparatus according to claim 7, wherein the setting information includes one or more pieces of information on focus, an aperture value, a shutter speed, a flash, a zoom, and image quality of the imaging apparatus.
前記作成手段により作成された前記第1の画像を、デジタルスチルカメラで再生可能なファイルフォーマットに変換する変換手段をさらに備え、
前記第1の送信手段は、前記変換手段により前記デジタルスチルカメラで再生可能なファイルフォーマットに変換された前記第1の画像を前記第1の他の情報処理装置に送信する
ことを特徴とする請求項7に記載の情報処理装置。
The image processing apparatus further includes a conversion unit that converts the first image created by the creation unit into a file format playable by a digital still camera,
The first transmission unit transmits the first image converted into a file format playable by the digital still camera by the conversion unit to the first other information processing device. Item 8. The information processing device according to item 7.
前記第1の画像を作成するための画像作成用データを保持する第2の他の情報処理装置に、前記画像作成用データの送信要求を送信する第2の送信手段と、
前記第2の他の情報処理装置より、前記画像作成用データを受信する第2の受信手段と
をさらに備え、
前記作成手段は、前記第2の受信手段により受信された前記画像作成用データを利用して、前記第1の画像を作成する
ことを特徴とする請求項2に記載の情報処理装置。
A second transmission unit that transmits a transmission request for the image creation data to a second other information processing apparatus that holds image creation data for creating the first image;
A second receiving unit that receives the image creation data from the second other information processing apparatus;
The information processing apparatus according to claim 2, wherein the creating unit creates the first image by using the image creating data received by the second receiving unit.
ネットワークを介して接続された他の情報処理装置から、画像の要求信号を受信する受信ステップと、
前記受信ステップの処理により前記要求信号が受信されたタイミングに対応して、前記要求信号に含まれている前記他の情報処理装置の設定情報に基づいて、前記他の情報処理装置に送信する画像を作成する作成ステップと、
前記作成ステップの処理により作成された前記画像を前記他の情報処理装置に送信する送信ステップと
を含むことを特徴とする情報処理方法。
A receiving step of receiving an image request signal from another information processing apparatus connected via a network,
An image to be transmitted to the other information processing device based on the setting information of the other information processing device included in the request signal, corresponding to a timing at which the request signal is received by the processing of the receiving step A creation step to create the
A transmitting step of transmitting the image created by the processing of the creating step to the another information processing apparatus.
ネットワークを介して接続された他の情報処理装置から、画像の要求信号を受信した場合、前記要求信号が受信されたタイミングに対応して、前記要求信号に含まれている前記他の情報処理装置の設定情報に基づいて、前記他の情報処理装置に送信する画像を作成する作成ステップを含む
ことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
When receiving a request signal for an image from another information processing apparatus connected via a network, the other information processing apparatus included in the request signal corresponding to the timing at which the request signal is received A recording medium in which a computer-readable program is recorded, the method comprising a step of creating an image to be transmitted to the other information processing apparatus based on the setting information.
ネットワークを介して接続された他の情報処理装置から、画像の要求信号を受信した場合、前記要求信号が受信されたタイミングに対応して、前記要求信号に含まれている前記他の情報処理装置の設定情報に基づいて、前記他の情報処理装置に送信する画像を作成する作成ステップを
コンピュータに実行させることを特徴とするプログラム。
When receiving a request signal for an image from another information processing apparatus connected via a network, the other information processing apparatus included in the request signal corresponding to the timing at which the request signal is received A program for causing a computer to execute a creation step of creating an image to be transmitted to the other information processing apparatus based on the setting information.
JP2002326269A 2002-11-11 2002-11-11 Information processing system, information processor and method therefor, recording medium, and program Pending JP2004165750A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002326269A JP2004165750A (en) 2002-11-11 2002-11-11 Information processing system, information processor and method therefor, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002326269A JP2004165750A (en) 2002-11-11 2002-11-11 Information processing system, information processor and method therefor, recording medium, and program

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2007213966A Division JP2007307412A (en) 2007-08-20 2007-08-20 Electronic apparatus and image formation method of electronic apparatus
JP2007213967A Division JP2007307413A (en) 2007-08-20 2007-08-20 Image processing apparatus and method

Publications (1)

Publication Number Publication Date
JP2004165750A true JP2004165750A (en) 2004-06-10

Family

ID=32805216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002326269A Pending JP2004165750A (en) 2002-11-11 2002-11-11 Information processing system, information processor and method therefor, recording medium, and program

Country Status (1)

Country Link
JP (1) JP2004165750A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007307412A (en) * 2007-08-20 2007-11-29 Sony Corp Electronic apparatus and image formation method of electronic apparatus
JP2008079810A (en) * 2006-09-27 2008-04-10 Taito Corp Game apparatus where character can be imaged from optional direction of game picture
JP2008228138A (en) * 2007-03-15 2008-09-25 Toshiba Tec Corp Electronic blackboard
JP2009541014A (en) * 2006-06-26 2009-11-26 ソニー オンライン エンタテインメント エルエルシー Creating a game-based scene
JP2017029509A (en) * 2015-08-04 2017-02-09 任天堂株式会社 Game system, game device, control program, and game control method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009541014A (en) * 2006-06-26 2009-11-26 ソニー オンライン エンタテインメント エルエルシー Creating a game-based scene
US9079104B2 (en) 2006-06-26 2015-07-14 Sony Computer Entertainment America Llc Creation of game-based scenes
US9242178B2 (en) 2006-06-26 2016-01-26 Sony Computer Entertainment America Llc Creation of game-based scenes
US9764236B2 (en) 2006-06-26 2017-09-19 Sony Interactive Entertainment America Llc Creation of game-based scenes
US11135511B2 (en) 2006-06-26 2021-10-05 Sony Interactive Entertainment LLC Creation of game-based scenes
JP2008079810A (en) * 2006-09-27 2008-04-10 Taito Corp Game apparatus where character can be imaged from optional direction of game picture
JP2008228138A (en) * 2007-03-15 2008-09-25 Toshiba Tec Corp Electronic blackboard
JP2007307412A (en) * 2007-08-20 2007-11-29 Sony Corp Electronic apparatus and image formation method of electronic apparatus
JP2017029509A (en) * 2015-08-04 2017-02-09 任天堂株式会社 Game system, game device, control program, and game control method
US10449447B2 (en) 2015-08-04 2019-10-22 Nintendo Co., Ltd. Game system and storage medium

Similar Documents

Publication Publication Date Title
JP4324727B2 (en) Shooting mode setting information transfer system
US8908916B2 (en) Control apparatus, control method, and program to search for a subject and automatically perform image-recording
JP5434339B2 (en) Imaging control apparatus, imaging system, imaging method, program
JP2004040724A (en) Camera apparatus and photographing method of object
JP2012099889A (en) Camera, imaging method, and imaging program
JP2009176025A (en) Virtual space communication system and virtual space photographing method
JP7101525B2 (en) Electronic devices and their control methods, as well as programs
JP5503438B2 (en) 3D image display apparatus and 3D image display method
JP2018152787A (en) Imaging device, external device, imaging system, imaging method, operation method, and program
US11120272B2 (en) Imaging apparatus, electronic device, and method of transmitting image data
JP2004165750A (en) Information processing system, information processor and method therefor, recording medium, and program
US20200366836A1 (en) Electronic apparatus and control method thereof
JP5562101B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
CN111953870B (en) Electronic device, control method of electronic device, and computer-readable medium
JP2007307413A (en) Image processing apparatus and method
JP2007307412A (en) Electronic apparatus and image formation method of electronic apparatus
JP2022035713A (en) Image capture apparatus, image processing apparatus, control method, system, program, and storage medium
JP2010062834A (en) Photographing system, photographing device constituting the same, and operation device
JP2011078056A (en) Camera
JP2010148049A (en) Image reproducing system and camera
JP2007323516A (en) Imaging apparatus and imaging system
JP6223165B2 (en) Imaging apparatus, control method thereof, and program
JP6062029B2 (en) Imaging apparatus, imaging system, imaging method, and imaging program
US11496685B2 (en) Information processing system, information processing method, medium, and management device
JP5460146B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070621

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070820

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071206