JP2001118081A - 情報処理装置および方法、並びにプログラム格納媒体 - Google Patents

情報処理装置および方法、並びにプログラム格納媒体

Info

Publication number
JP2001118081A
JP2001118081A JP29320899A JP29320899A JP2001118081A JP 2001118081 A JP2001118081 A JP 2001118081A JP 29320899 A JP29320899 A JP 29320899A JP 29320899 A JP29320899 A JP 29320899A JP 2001118081 A JP2001118081 A JP 2001118081A
Authority
JP
Japan
Prior art keywords
data
information
image
weather
another device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP29320899A
Other languages
English (en)
Inventor
Tsunenori Noma
恒毅 野間
Naohiro Yokoo
直弘 横尾
Futoshi Goto
太 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP29320899A priority Critical patent/JP2001118081A/ja
Priority to US09/689,581 priority patent/US6748326B1/en
Publication of JP2001118081A publication Critical patent/JP2001118081A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/407Data transfer via internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8058Virtual breeding, e.g. tamagotchi

Abstract

(57)【要約】 【課題】 仮想空間に現実空間の天候を反映させる。 【解決手段】 パーソナルコンピュータ1−1乃至1−
3は、それぞれ、ネットワーク3を介して天候サーバ1
02とデータの授受が行えるようになっている。天候サ
ーバ102は、ビデオカメラで撮像されている空の様子
を天候情報として提供する。パーソナルコンピュータ1
は、例えば、電子ペットのアプリケーションが起動され
ているとき、天候サーバ102から提供される天候情報
を基に、電子ペットが住む仮想空間の天候を表示する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は情報処理装置および
方法、並びにプログラム格納媒体に関し、特に、仮想空
間に現実空間の天候を反映させる情報処理装置および方
法、並びにプログラム格納媒体に関する。
【0002】
【従来の技術】コンピュータなどにより作られた仮想空
間内で飼育される電子ペットと称されるペットが普及し
つつある。このようなペットは、3D(Dimension)チ
ャットなどにも応用され、ユーザはペットに相当するア
バタ(インド神話に登場する神の化身)と称される自分
の分身で、仮想空間内を移動し、他のユーザのアバタと
出合ったとき、そのアバタ(ユーザ)とチャットを行う
ことができる。
【0003】
【発明が解決しようとする課題】上述した電子ペットや
3Dチャットなどの仮想空間内の天候は、特に設定され
ていない、または、予め設定された条件、例えば、日毎
といった時間毎に変化するようにされていた。このよう
に、仮想空間と現実空間とに関連性はなく、現実空間の
天候を、仮想空間の天候から察するといったようなこと
はできなかった。また、時間毎に天候を変化させる場合
においても、予め設定された天候しかないために、変化
に乏しいといった課題があった。
【0004】本発明はこのような状況に鑑みてなされた
ものであり、現実空間の天候を仮想空間の天候に反映さ
せることにより、仮想空間に現実性を持たせ、変化に富
ませることを目的とする。
【0005】
【課題を解決するための手段】請求項1に記載の情報処
理装置は、所定のタイミングにおいて、そのタイミング
の時刻に関するデータと、情報を取得したい地域のデー
タとを他の装置に送信する送信手段と、送信手段により
送信されたデータにより、他の装置が、一意に決定した
画像データを受信する受信手段と、受信手段により受信
された画像データを、所定のアプリケーションにより再
生する再生手段とを含むことを特徴とする。
【0006】所定のアプリケーションは、仮想空間を作
り出し、画像データは、仮想空間の天候を表現するもの
であるようにすることができる。
【0007】請求項3に記載の情報処理方法は、時刻に
関するデータと、情報を取得したい地域のデータとを他
の装置に、所定のタイミングにおいて送信されるように
制御する送信制御ステップと、送信制御ステップの処理
で送信されたデータにより、他の装置が、一意に決定し
た画像データを、所定のアプリケーションにより再生す
る再生ステップとを含むことを特徴とする。
【0008】請求項4に記載のプログラム格納媒体のプ
ログラムは、時刻に関するデータと、情報を取得したい
地域のデータとを他の装置に、所定のタイミングにおい
て送信されるように制御する送信制御ステップと、送信
制御ステップの処理で送信されたデータにより、他の装
置が、一意に決定した画像データを、所定のアプリケー
ションにより再生する再生ステップとからなることを特
徴とする。
【0009】請求項5に記載の情報処理装置は、複数の
地域に設置された撮像手段により撮像された画像を記憶
する記憶手段と、他の装置から送信されてきた情報に基
づき、記憶手段に記憶されている画像を選択する選択手
段と、選択手段により選択された画像を、他の装置に送
信する送信手段とを含むことを特徴とする。
【0010】請求項6に記載の情報処理方法は、複数の
地域に設置された撮像手段により撮像された画像を取得
し、それぞれの画像が一意に選択できるような形式で記
憶する記憶制御ステップと、他の装置から送信されてき
た情報に基づき、記憶制御ステップの処理で記憶されて
いる画像を選択する選択ステップと、選択ステップの処
理で選択された画像を、他の装置に送信するための制御
を行う送信制御ステップとを含むことを特徴とする。
【0011】請求項7に記載のプログラム格納媒体のプ
ログラムは、複数の地域に設置された撮像手段により撮
像された画像の、それぞれの画像が一意に選択できるよ
うな形式の記憶を制御する記憶制御ステップと、他の装
置から送信されてきた情報に基づき、記憶制御ステップ
の処理で記憶されている画像を選択する選択ステップ
と、選択ステップの処理で選択された画像を、他の装置
に送信するための制御を行う送信制御ステップとからな
ることを特徴とする。
【0012】請求項1に記載の情報処理装置、請求項3
に記載の情報処理方法、請求項4に記載のプログラム格
納媒体においては、所定のタイミングにおいて、そのタ
イミングの時刻に関するデータと、情報を取得したい地
域のデータとが他の装置に送信され、送信されたデータ
により、他の装置が、一意に決定した画像データが、所
定のアプリケーションにより再生される。
【0013】請求項5に記載の情報処理装置、請求項6
に記載の情報処理方法、請求項7に記載のプログラム格
納媒体においては、複数の地域に設置された撮像手段に
より撮像された画像が記憶され、他の装置から送信され
てきた情報に基づき、記憶されている画像が選択され、
その画像を、他の装置に送信される。
【0014】
【発明の実施の形態】図1は、仮想空間内の電子ペット
を飼育し、その仮想空間の天候を現実空間と関連性を持
たせる場合のシステムの一実施の形態の構成を示す図で
ある。図1に実施の形態においては、3台のパーソナル
コンピュータ1−1乃至1−3(以下、個々にパーソナ
ルコンピュータ1−1乃至1−3を区別する必要がない
場合、単に、パーソナルコンピュータ1と記述する)、
並びに1台の天候サーバ102が、例えば、インターネ
ット104を介して相互に接続されている。
【0015】次に、図2乃至図6を参照して、パーソナ
ルコンピュータ1の構成例について説明する。パーソナ
ルコンピュータ1は、B5サイズ以下の持ち運び易い携
帯型パーソナルコンピュータとされ、本体2と本体2に
対して開閉自在に取り付けられた表示部3とによって構
成されている。
【0016】本体2には、上面に各種文字や記号および
数字等を入力するとき操作される複数の操作キー4、表
示部3に表示されるカーソルを移動するときに操作され
るスティック式ポインティングデバイス5、内蔵スピー
カ6、表示部3に設けられたCCD(Charge Coupled Devic
e) カメラ23によって画像を撮像するときに操作され
るシャッタボタン7が設けられている。
【0017】表示部3の正面には、LCD(Liquid Crystal
Display)でなる液晶ディスプレイ21が設けられてお
り、正面の中央上端部にCCDカメラ23を備えた撮像部
22が表示部3に対して回動自在に取り付けられてい
る。
【0018】すなわち撮像部22は、表示部3の正面方
向および背面方向との間の180度の角度範囲内で回動
して任意の位置に位置決めし得るようになされている。
また撮像部22には、図3に示すように、CCDカメラ2
3のフォーカス調整を行う調整リング25が設けられて
いる。
【0019】また表示部3(図2)の正面には、撮像部
22の左隣にマイクロフォン24が設けられており、マ
イクロフォン24を介して表示部3の背面側(図6)か
らも集音し得るようになされている。
【0020】また表示部3における正面の中央下端部に
は、LED(Light Emitting Diode)でなる電源ランプPL、
電池ランプBL、メッセージランプML、およびその他の種
々の用途に対応したランプが設けられている。
【0021】さらに表示部3の正面上端部には、マイク
ロフォン24の左隣にツメ13が設けられると共に、ツ
メ13と対応する本体2の所定位置に、孔部8が設けら
れており、表示部3を本体2に閉塞した状態で、ツメ1
3が孔部8に嵌合されてロックされるようになされてい
る。
【0022】本体2の正面には、図3に示すようにスラ
イドレバー9が設けられており、スライドレバー9を正
面に沿って矢印方向(図3において左方向)にスライド
することにより、孔部8に嵌合されたツメ13のロック
を解除して、表示部3を本体2に対して展開し得るよう
になされている。
【0023】また本体2の正面には、1回のボタン操作
で電源オンから所定のアプリケーションソフトウェア
(以下、これを単にアプリケーションと呼ぶ)を立ち上
げて、予め設定しておいた一連の動作を自動的に実行す
るためのプログラマブルパワーキー(PPKキー)10が
左端部に設けられると共に、右端部に複数の吸気孔11
が設けられている。
【0024】本体2の左側面には、図4に示すようにス
ライド式の電源スイッチ40、4ピン対応のIEEE(Insti
tute of Electrical and Electronics Engineers) 13
94端子41、USB(Universal Serial Bus)端子42、
マイクロフォン用入力端子43、ヘッドフォン端子4
4、およびIrDA(Infrared Data Association) 準拠の赤
外線ポート45が設けられている。
【0025】本体2の右側面には、図5に示すように、
排気孔12が設けられており、排気孔12の右隣にはPC
MCIA(Personal Computer Memory Card International A
ssociation) カード(以下、これをPCカードと呼ぶ)を
挿入するためのPCカードスロット53が設けられてい
る。
【0026】また本体2の下面には、図6に示すよう
に、増設メモリを取り付けるための開口部を被覆する蓋
26が取り付けられると共に、蓋26のロック用ツメを
外すためのピン挿入用孔48が設けられている。
【0027】図7は、パーソナルコンピュータ1の内部
の電気的構成を表している。図7に示すように、パーソ
ナルコンピュータ1の本体2においては、起動シーケン
ス制御部83のPCI(Peripheral Component Interconne
ct) バス51に、CPU(Central Processing Unit) 5
2、PC(Personal Computer) カードスロット53、RAM
(Random Access Memory)54、表示部3の液晶ディスプ
レイ21に表示する画像を生成するためのグラフィック
ス処理回路55、および他のコンピュータ装置や外部機
器と接続してディジタルデータを取り込むためのIEEE1
394端子41に直結されたIEEEインターフェース56
が接続されている。
【0028】CPU52は、本体2における各種機能を統
括的に制御するコントローラであり、RAM54にロード
された各種プログラムを実行することにより各種機能を
実行し得るようになされている。
【0029】PCIバス51は、ISA(Industrial Standar
d Architecture)バス59に接続されており、ISAバス5
9にはハードディスクドライブ60、I/O(Input/Outpu
t)コントローラ61、キーボードコントローラ62、ポ
インティングデバイスコントローラ63、サウンドチッ
プ64、LCDコントローラ65、モデム66およびUSBイ
ンターフェース67が接続されている。
【0030】ここでキーボードコントローラ62は、操
作キー4(図2)の押下に応じた制御信号の入力をコン
トロールし、ポインティングデバイスコントローラ63
はスティック式ポインティングデバイス5(図2)によ
る制御信号の入力をコントロールする。
【0031】サウンドチップ64は、マイクロフォン2
4(図2)からの音声入力を取り込むか、または内蔵ス
ピーカ6(図2)に対して音声信号を供給する。モデム
66は公衆電話回線90およびインターネット104を
介してプロバイダ101のWWWサーバ102に接続す
る。なおUSBインターフェース67は、USB端子42に接
続されており、USBマウスやフロッピーディスクドライ
ブ等の周辺機器を接続するようになされている。この例
では、磁気ディスク231、光ディスク232、光磁気
ディスク233、または半導体メモリ234をドライブ
するドライブ230が接続されている。
【0032】ハードディスクドライブ60には、静止画
像を取り込むためのキャプチャーソフトウェア60A、
ディジタル地図ソフトウェア60B、およびWindows98
(商標) でなるOS(Operating System)60C、およびCCD
カメラ23によって撮像した画像データを自動的に取り
込んで記憶する画像自動取り込みソフトウェア60Dや
各種アプリケーションソフトウェア(図示せず)が格納
されており、必要に応じてCPU52によって読み出され
てRAM54にロードされる。
【0033】I/Oコントローラ61は、I/Oインターフェ
ース69、CPU70、EEPROM(Electrically Erasable an
d Programmable Read Only Memory) でなるROM(Read On
ly Memory)71、およびRAM72が相互に接続されて構
成されており、RTC(Real-TimeClock) 81によって現在
時刻が常時供給されている。
【0034】I/Oコントローラ61のROM71には、BIOS
(Basic Input/Output System) 73、ウェイクアッププ
ログラム74、キー入力監視プログラム75、およびLE
D制御プログラム76が格納されると共に、RAM72に
は、キー入力ステイタスレジスタ77、設定時刻レジス
タ78、LED制御レジスタ79、およびキー対応アプリ
ケーションレジスタ80が設けられている。
【0035】RAM72に格納されているキー入力ステイ
タスレジスタ77は、操作キーフラグを格納し得るよう
になされており、CPU70はキー入力監視プログラム7
5に基づいてワンタッチ操作用のPPKキー10(図2)
が押下されたか否かを監視し、PPKキー10が押下され
るとキー入力ステイタスレジスタ77に操作キーフラグ
を格納する。
【0036】また設定時刻レジスタ78は、ユーザが予
め任意に設定した開始時刻等の時刻情報を格納し得るよ
うになされており、CPU70はウェイクアッププログラ
ム74に基づいて、RTC81から与えられる現在時刻が
任意に設定した開始時刻になったか否かを検出し、開始
時刻になると所定の処理を実行する。
【0037】さらにキー対応アプリケーションレジスタ
80は、PPKキー10や予め設定された操作キー4の組
み合わせに対応して、PPKキー10や複数の組み合わせ
でなる操作キー4と起動すべきアプリケーションとの対
応関係を記憶しており、CPU70はPPKキー10や予め設
定された組み合わせの操作キー4が押下されたときに、
対応するアプリケーションを立ち上げるための制御デー
タをISAバス59およびPCIバス51を順次介してCPU5
2に送出し、CPU52によって制御データに応じたアプ
リケーションソフトウェアを立ち上げる。
【0038】またLED制御レジスタ79は、キー対応ア
プリケーションレジスタ80に記憶したアプリケーショ
ンソフトウェアが立ち上げられて動作が終了すると終了
フラグを格納し、CPU70はLED制御プログラム76に基
づいてLED制御レジスタ79に終了フラグが格納されて
いることを検出すると、メッセージランプMLを点灯す
る。
【0039】なおLED制御レジスタ79は、電源スイッ
チ40が押下されると電源フラグを格納し、バッテリか
ら供給される電源電圧で本体2が動作するときには電池
フラグを格納する。従ってCPU70は、LED制御プログラ
ム76に基づいて電源フラグ又は電池フラグが格納され
ていることを検出すると、電源ランプPLまたは電池ラン
プBLを点灯する。
【0040】ここでI/Oコントローラ61には、バック
アップ用のバッテリ82が接続されていることにより、
本体2の電源スイッチ40がオフされ、図示しない電源
から電力の供給がなされていない状態でも、RAM72の
キー入力ステイタスレジスタ77、設定時刻レジスタ7
8、LED制御レジスタ79、およびキー対応アプリケー
ションレジスタ80の各データを保持するようになされ
ている。
【0041】またI/Oコントローラ61に接続された反
転スイッチ88は、撮像部22(図2)が表示部3の液
晶ディスプレイ21の反対側を撮像する方向に180度
回転されたときオンされ、その状態をCPU70に通知す
る。またPPKキー10も、反転スイッチ88が押下され
たときと同様に、その状態をCPU70に通知する。
【0042】さらに半押しスイッチ86は、本体2の上
面に設けられたシャッタボタン7が半押し状態にされた
ときオンして、その状態をI/Oコントローラ61のCPU7
0に通知し、全押しスイッチ87はシャッタボタン7が
全押し状態にされたときオンして、その状態をI/Oコン
トローラ61のCPU70に通知するようになされてい
る。
【0043】すなわちI/Oコントローラ61のCPU70
は、ハードディスクドライブ60のキャプチャーソフト
ウェア60Aを立ち上げた状態で、ユーザによってシャ
ッタボタン7が半押し状態にされると静止画像モードに
入り、CCDカメラ23を制御して静止画像のフリーズを
実行し、全押し状態にされるとフリーズされた静止画像
データを取り込み、データ処理部85に送出する。
【0044】これに対してI/Oコントローラ61のCPU7
0は、キャプチャーソフトウェア60Aを立ち上げない
状態で動画像モードに入ると、最長60秒程度までの動
画像を取り込み、データ処理部85に送出する。
【0045】またI/Oコントローラ61は、PCIバス5
1に接続されているグラフィックス処理回路55を制御
するようになされており、CCDカメラ23によって取り
込まれた静止画又は動画でなる画像データを、データ処
理部85によって所定のデータ処理を施した後にグラフ
ィックス処理回路55に入力させる。
【0046】グラフィックス処理回路55は、供給され
た画像データを内蔵のVRAM(Video Random Access Memor
y)55Aに格納して適宜読み出した後、LCDコントロー
ラ65に送出し、必要に応じてハードディスクドライブ
60に格納する。
【0047】LCDコントローラ65は、表示部3のバッ
クライト84を制御して、液晶ディスプレイ21の後方
から照明させると共に、グラフィックス処理回路55か
ら供給された画像データを液晶ディスプレイ21に出力
して表示させるようになされている。
【0048】図8は、天候サーバ102の内部構成を示
すブロック図である。天候サーバ102のCPU(Central
Processing Unit)111は、ROM(Read Only Memor
y)112に記憶されているプログラムに従って各種の
処理を実行する。RAM(RandomAccess Memory)113に
は、CPU111が各種の処理を実行する上において必要
なデータやプログラムなどが適宜記憶される。入出力イ
ンタフェース114は、キーボード115やマウス11
6から入力された信号をCPU111に出力する。また、
入出力インタフェース114には、ハードディスクなど
から構成される記憶部117も接続されており、そこに
データやプログラムなどが適宜記録、再生される。
【0049】入出力インタフェース114には、また、
表示デバイスとしてのディスプレイ118が接続されて
いるとともに、通信部119も接続され、他の装置と電
波、光、赤外線、さらにインターネット104を介して
天候サーバ102と通信することが可能である。ドライ
ブ120も、入出力インタフェース114と接続され、
フロッピー(登録商標)ディスク(不図示)などとデー
タの授受を行う。内部バス121は、これらの各部を相
互に接続する。
【0050】また、天候サーバ102には、音声を取り
込むマイクロフォン122と、画像を撮像するビデオカ
メラ123が備え付けられている。マイクロフォン12
2で取り込まれた音声のデータや、ビデオカメラ123
により撮像された画像のデータは、記憶部117に記憶
される。
【0051】次に、図9のフローチャートを参照して、
図2に示したパーソナルコンピュータ1の動作について
説明する。パーソナルコンピュータ1は、CPU52が、H
DD60に記憶されている電子ペットのアプリケーション
プログラムを実行することにより、表示部3上に、仮想
空間と、その仮想空間内に飼育されている電子ペットを
表示する。また、CPU52は、必要に応じMODEM66によ
り、天候サーバ102とインターネット104を介して
通信させることにより、天候に関する情報(以下、適
宜、天候情報を記述する)を取得する。
【0052】ステップS1において、ユーザがキーボー
ド4またはスティック式ポインティングデバイス5を操
作することにより、電子ペットのアプリケーションが指
示された場合、上述したように、CPU52は、HDD60に
記憶されているプログラムを起動することにより、表示
部3上に、仮想空間と電子ペットを表示させる。また、
CPU52は、ステップS2において、天候サーバ102
と接続を確立する。
【0053】ここで、ステップS1において、表示部3
上に表示される画面について、図10を参照して説明す
る。電子ペット表示ウィンドウ131には、円が表示さ
れており、その円内に電子ペット132が表示されてい
る。電子ペット表示ウィンドウ131内の円の上部に
は、電子ペットのアプリケーションの処理を終了させる
際に操作される終了ボタン133、電子ペット132に
対して何かしらの指示を出すときのメニューを表示させ
る際に操作されるメニューボタン134が設けられてい
る。
【0054】また、図10に示した実施の形態において
は、表示部3上には、メニューボタン134が操作され
ることにより表示されるメニュー135も表示されてい
る。メニュー135は、電子ペット表示ウィンドウ13
1の隣、または重なる位置に表示される。メニュー13
5には、電子ペット132に実行させたいコマンドが表
示されているコマンド表示部137と、そのコマンド表
示部137内のコマンドが選択され、その選択されたコ
マンドで決定する場合に操作される決定ボタン136が
設けられている。また、コマンド表示部137の右側に
は、表示されきれていないコマンドを表示させる際に操
作されるスクロールバーが設けられている。
【0055】ユーザは、例えば、電子ペット132に実
行させたい動作が、後ろに進ませたい場合、カーソル1
38を、コマンド表示部137内の”後退”というコマ
ンドに合わせる。カーソル138が合わせられたコマン
ドは、文字が反転されて表示される。ユーザは、その反
転表示されているコマンドで良ければ、決定ボタン57
を操作することにより、そのコマンドを電子ペット13
2に対して指示することができる。
【0056】さらに、表示部3上には、天候サーバ10
2から天候情報を取得したい際に操作される天候取得ボ
タン139、天候情報の取得に関する設定を行いたい場
合に操作される設定ボタン140が設けられている。設
定ボタン140が操作されると、例えば、図11に示す
ように、天候情報の取得の為の、さまざまな設定を行う
ための設定ウィンドウ150が表示される。
【0057】設定ウィンドウ150には、天候情報を取
得する時間間隔を設定する時間設定ウィンドウ152
と、どの地域の天候情報を取得するかを設定する地域設
定ウィンドウ153とが設けられている。時刻設定ウィ
ンドウ152の上段には、ユーザが自己の指示があった
場合のみに、天候情報を取得するときにチェックされる
項目があり、下段には、所定の時間間隔で天候情報を取
得するときにチェックされる項目が設けられている。
【0058】時間設定ウィンドウ152の下段に設けら
れている時間間隔を設定する項目は、例えば、1分、5
分、10分、20分などが予め設定できるようになって
おり、また、ユーザの所望の時間を直接設定できるよう
にもなっている。
【0059】地域設定ウィンドウ153は、どの地域の
天候情報を取得するかを設定するウィンドウである。こ
れは、ユーザが存在する地域に関わらず、ユーザが所望
とする地域の情報が得られるようにするために設けられ
ている。例えば、取得する地域として、東京、大阪、北
海道、沖縄などの日本の各地だけでなく、ニューヨーク
やロンドンなどの世界各国の主要都市などが、予め登録
されており、ユーザは、それらの登録されている地域か
ら、所望の地域を選択できるようになっている。
【0060】このような設定ウィンドウ150が表示さ
れ、ユーザは、所望の設定を行い、その設定で良けれ
ば、設定ウィンドウ150の下側に設けられた終了ボタ
ンを操作し、設定せずに終了させるときには、キャンセ
ルボタンを操作する。このようにして、ユーザにより所
望の時間と地域が設定されたとして、以下の説明をす
る。
【0061】ステップS1において、図10に示したよ
うな画面が表示部3上に表示され、ステップS2におい
て、天候サーバ102と接続が完了されると、ステップ
S3において、天候サーバ102から天候情報を取得す
るか否かが判断される。ステップS3における処理を換
言すると、天候情報が、ユーザの指示する場合のみに取
得されるように設定されている場合、取得の指示がされ
たか否か(天候取得ボタン139が操作されたか否か)
を判断する処理であり、天候情報が、所定の時間間隔毎
に取得するように設定されている場合、所定の時間が経
過したか否か(取得する時刻になったか否か)が判断さ
れる処理である。
【0062】ステップS3において、天候情報を取得し
ないと判断された場合、ステップS4の処理をスキップ
し、ステップS5に進み、天候情報を取得すると判断さ
れた場合、ステップS4に進む。ステップS4におい
て、天候サーバ102に対して、設定されている天候情
報を取得したい地域と、その取得の指示が出された時刻
などのデータが送信される。
【0063】ステップS5において、天候サーバ102
から天候情報を受信したか否かが判断される。天候サー
バ102は、受信したデータを基に、条件に合う天候情
報を検索し、情報取得のリクエストを出してきたパーソ
ナルコンピュータ1に、インターネット104を介して
送信する(詳細は後述する)。その送信された天候情報
をMODEM66により受信したと判断された場合、ステッ
プS6に進み、受信してないと判断された場合、ステッ
プS6をスキップし、ステップS7に進む。
【0064】ステップS6において、受信した天候情報
を基に、電子ペット表示ウィンドウ131(図10)に
表示された仮想空間の天候(電子ペット132の背景)
が切り換えられる。図12に、切り換えられる、電子ペ
ットウィンドウ131の表示例を示す。図12(A)
は、天候情報が晴れであることを示していた場合であ
り、そのことは、青空や、太陽が表示されることにより
表現される。図12(B)は、天候情報が曇りであるこ
とを示していた場合であり、そのことは、雲が表示され
ることにより表現される。
【0065】同様に、図12(C)は、天候情報が雨で
あることを示していた場合であり、図12(D)は、天
候情報が晴れで夕方であることを示していた場合であ
り、さらに、図12(E)は、天候情報が晴れで夜であ
ることを示していた場合である。このように、天候情報
に、天候以外に時刻情報を含ませることにより、同じ晴
れであっても、図12(A)と図12(D)とのよう
に、時刻により、異なる表示を行うことが可能となり、
もって、仮想空間に変化に富んだ背景を提供するととも
に、リアリティを持たせることが可能となる。
【0066】このような背景をかえる為のデータは、天
候情報として、天候サーバ102から手提供されるよう
にしても良いし、パーソナルコンピュータ1で、天候サ
ーバ102から取得された天候情報を解析し、最も適し
た絵柄を選択するようにして表示するようにしても良
い。
【0067】ステップS6において、上述したような処
理により、仮想空間内の天候が、現実空間の天候と整合
がとられて切り換えられると、または、ステップS5に
おいて、天候情報を受信してないと判断されると、ステ
ップS7進み、電子ペットのアプリケーションを終了す
るか否かが判断される。ステップS7の処理を換言する
と、終了ボタン133(図10)が操作されたか否かが
判断される処理である。
【0068】ステップS7において、終了ボタン133
が操作され、電子ペットのアプリケーションを終了する
と判断された場合、図9のフローチャートの処理は終了
され、終了しないと判断された場合、ステップS3に戻
り、それ以降の処理が繰り返される。
【0069】次に、図13のフローチャートを参照し
て、天候サーバ102の動作について説明する。ステッ
プS11において、インターネット104を介してパー
ソナルコンピュータ1と接続されたか否かが判断され
る。パーソナルコンピュータ1と接続されたと判断され
るまで、ステップS11の処理は繰り返され(待機状態
が継続され)、接続されたと判断されると、ステップS
12以降の処理が開始される。ステップS12におい
て、接続されたパーソナルコンピュータ1からリクエス
トを受信したか否かが判断される。
【0070】ステップS12において、パーソナルコン
ピュータ1からリクエストを受信したと判断された場
合、ステップS13に進み、リクエストを受信していな
いと判断された場合、ステップS13乃至S15の処理
をスキップし、ステップS16に進む。
【0071】ステップS13において、パーソナルコン
ピュータ1からのリクエストは、天候情報の取得要求で
あるか否かが判断される。天候情報の取得要求であると
判断された場合、ステップS14に進み、天候情報の取
得要求ではないと判断された場合、ステップS14,S
15の処理はスキップし、ステップS16に進む。
【0072】ステップS14において、天候情報が読み
出される。上述したように、パーソナルコンピュータ1
から送信されてくるリクエストが、天候情報の取得要求
である場合、どの地域の天候情報を取得したいのかを示
す地域情報と、取得要求が出された時刻を示す時刻情報
とが含まれているため、それらの情報から、一意に決定
される天候情報が、記憶部117から読み出される。
【0073】このように、パーソナルコンピュータ1か
らのリクエストにより、読み出す天候情報が異なるた
め、記憶部117には、パーソナルコンピュータ1側で
設定されるだけの地域の情報が、随時、蓄積(更新)さ
れるようになっている。この蓄積される天候情報とし、
上述した説明においては、天候の情報や時刻の情報とい
った情報から成り立つデータ、または、それらのデータ
から一意に決定される仮想空間内の天候に関する絵柄の
画像データとしたが、ビデオカメラ123(図8)によ
り得られた、実際の画像のデータを天候情報として蓄積
するようにしても良い。
【0074】このようにした場合、例えば、地域毎に、
天候サーバ102を設置し、それぞれの天候サーバ10
2は、ビデオカメラ123により、その地域の、その時
点での天候(空の模様)を撮像する(地位毎にビデオカ
メラだけを設置するようにしても良い)。その撮像され
た画像は、それぞれの天候サーバ102の記憶部117
に記憶される。そして、記憶部117に記憶された画像
データは、インターネット104を介して接続されてい
る他の天候サーバ102と、互いに授受されるようにし
ておく。このようにして、それぞれの天候サーバ102
は、地域毎の天候に関する画像データを取得、記憶す
る。
【0075】さらに、画像だけでなく、マイクロホン1
22により、音も取り込み、記憶し、提供するようにし
ても良い。
【0076】図13のフローチャートの説明に戻り、ス
テップS14において、記憶部117から読み出された
天候情報は、ステップS15において、リクエストを出
したパーソナルコンピュータ1に対して送信される。
【0077】ステップS16において、パーソナルコン
ピュータ1に対する処理を終了するか否かが判断され
る。換言すれば、パーソナルコンピュータ1との接続が
絶たれたか否かが判断される。パーソナルコンピュータ
1との接続が絶たれたと判断された場合、図13に示し
たフローチャートの処理は終了され、パーソナルコンピ
ュータ1との接続は絶たれてはいないと判断された場
合、ステップS12に戻り、それ以降の処理が繰り返さ
れる。
【0078】このように、天候サーバ102の記憶部1
17に記憶された画像データが、パーソナルコンピュー
タ1に提供されるため、電子ペット表示ウィンドウ13
1に表示されている電子ペット132の背景は、ユーザ
が所望して設定した地域のリアルタイムの天候が反映さ
れることになる。
【0079】上述した説明においては、時刻に関しては
特に説明しなかったが、正確な時刻を得る為に、例え
ば、パーソナルコンピュータ1は、郵政省の通信総合研
究所が開設し、時刻情報を提供するホームページ(htt
p:www.crl.go.jp/)にアクセスし、自己の時刻を更新す
るようにしても良い。また、同様に、天候サーバ102
も、上述したホームページにアクセスし、自己の時刻を
更新するようにしておく。このように、パーソナルコン
ピュータ1と天候サーバ102が、正確な時刻で動作す
ることにより、リアルタイムの天候情報を授受すること
が可能となる。
【0080】このように、現実空間の天候を仮想空間の
画面に反映させることにより、変化に富んだ仮想空間の
画面を提供できるとともに、例えば、ユーザが室内にい
ても、室外の天候を認識することが可能になるし、他の
地域の天候もリアルタイムに知ることが可能となる。
【0081】上述した説明においては、本発明を電子ペ
ットに適用した場合を説明したが、3Dチャットなどに
適用することも可能である。その際、同じチャットに参
加しているユーザには、同じ天候情報を提供するように
した場合、そのチャットの共有空間内では、天候も共有
することが可能となる。また、電子ペットやチャット以
外にも、ネットワークに接続しているパーソナルコンピ
ュータ1であれば、天候情報を取得することは可能であ
るので、他のソフトウェアにおいても、天候情報を用い
た処理を行うようにしても良い。
【0082】上述した一連の処理は、ハードウエアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが、専用のハードウエアに組み込まれているコン
ピュータ、または、各種のプログラムをインストールす
ることで、各種の機能を実行することが可能な、例えば
汎用のパーソナルコンピュータなどに、プログラム格納
媒体からインストールされる。
【0083】コンピュータにインストールされ、コンピ
ュータによって実行可能な状態とされるプログラム(例
えば、ディジタル地図ソフトウェア60B、WWWブラウ
ザ、および補助プログラム)を格納するプログラム格納
媒体は、図7に示すように、磁気ディスク231(フロ
ッピディスクを含む)、光ディスク232(CD-ROM(Com
pact Disk-Read Only Memory),DVD(Digital Versatile
Disk)を含む)、光磁気ディスク233(MD(Mini-Dis
k)を含む)、もしくは半導体メモリ234などよりな
るパッケージメディア、または、プログラムが一時的も
しくは永続的に格納されるROM71や、ハードディスク
ドライブ60のハードディスクなどにより構成される。
プログラム格納媒体へのプログラムの格納は、必要に応
じてルータ、モデム66などのインタフェースを介し
て、インターネット104の他、ローカルエリアネット
ワーク、ディジタル衛星放送といった、有線または無線
の通信媒体を利用して行われる。
【0084】なお、本明細書において、プログラム格納
媒体に格納されるプログラムを記述するステップは、記
載された順序に沿って時系列的に行われる処理はもちろ
ん、必ずしも時系列的に処理されなくとも、並列的ある
いは個別に実行される処理をも含むものである。
【0085】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
【0086】
【発明の効果】以上の如く請求項1に記載の情報処理装
置、請求項3に記載の情報処理方法、請求項4に記載の
プログラム格納媒体によれば、所定のタイミングにおい
て、そのタイミングの時刻に関するデータと、情報を取
得したい地域のデータとを他の装置に送信し、送信され
たデータにより、他の装置が、一意に決定した画像デー
タを、所定のアプリケーションにより再生するようにし
たので、仮想空間に現実空間の画像を反映させることが
可能となる。
【0087】また、請求項5に記載の情報処理装置、請
求項6に記載の情報処理方法、請求項7に記載のプログ
ラム格納媒体においては、複数の地域に設置された撮像
手段により撮像された画像を記憶し、他の装置から送信
されてきた情報に基づき、記憶されている画像を選択
し、その画像を、他の装置に送信するようにしたので、
仮想空間に現実空間の画像を反映させることが可能とな
る。
【図面の簡単な説明】
【図1】本発明を適用した天候情報処理システムの一実
施の形態の構成を示す図である。
【図2】図1のパーソナルコンピュータ1の構成を示す
斜視図である。
【図3】図1のパーソナルコンピュータ1の正面の構成
を示す正面図である。
【図4】図1のパーソナルコンピュータ1の左側面の構
成を示す左側面図である。
【図5】図1のパーソナルコンピュータ1の右側面の構
成を示す右側面図である。
【図6】図1のパーソナルコンピュータ1の底面の構成
を示す底面図である。
【図7】図1のパーソナルコンピュータ1の内部の構成
例を示すブロック図である。
【図8】天候サーバ102の内部構成を示す図である。
【図9】パーソナルコンピュータ1の動作を説明するフ
ローチャートである。
【図10】表示部3に表示される表示例を示す図であ
る。
【図11】表示部3に表示される他の表示例を示す図で
ある。
【図12】天候情報により切り換えられる表示例を示す
図である。
【図13】天候サーバ102の動作を説明するフローチ
ャートである。
【符号の説明】
1 パーソナルコンピュータ, 3 表示部, 52
CPU, 60 HDD,66 MODEM, 111 CPU, 1
17 記憶部, 119 通信部, 113ビデオカメ
ラ, 131 電子ペット表示ウィンドウ, 132
電子ペット, 135 メニュー, 139 天候取得
ボタン, 151 設定ウィンドウ, 152 時間設
定ウィンドウ, 153 地域設定ウィンドウ
フロントページの続き (72)発明者 後藤 太 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5B049 BB61 CC31 DD01 DD03 DD05 EE03 EE07 EE41 FF04 FF09 GG04 GG07 5B050 BA07 BA08 CA08 5B089 GA11 GA21 HA10 JA17 JB03 JB11 KA18 KB11 LB14 5E501 AA03 AB19 AC15 AC25 BA03 BA17 CA04 CB14 DA02 EA02 EB05 FA05 FA06 FA14 FA43 FB12 FB44

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 所定のタイミングにおいて、そのタイミ
    ングの時刻に関するデータと、情報を取得したい地域の
    データとを他の装置に送信する送信手段と、 前記送信手段により送信されたデータにより、前記他の
    装置が、一意に決定した画像データを受信する受信手段
    と、 前記受信手段により受信された前記画像データを、所定
    のアプリケーションにより再生する再生手段とを含むこ
    とを特徴とする情報処理装置。
  2. 【請求項2】 前記所定のアプリケーションは、仮想空
    間を作り出し、前記画像データは、前記仮想空間の天候
    を表現するものであることを特徴とする請求項1に記載
    の情報処理装置。
  3. 【請求項3】 時刻に関するデータと、情報を取得した
    い地域のデータとを他の装置に、所定のタイミングにお
    いて送信されるように制御する送信制御ステップと、 前記送信制御ステップの処理で送信されたデータによ
    り、前記他の装置が、一意に決定した画像データを、所
    定のアプリケーションにより再生する再生ステップとを
    含むことを特徴とする情報処理方法。
  4. 【請求項4】 時刻に関するデータと、情報を取得した
    い地域のデータとを他の装置に、所定のタイミングにお
    いて送信されるように制御する送信制御ステップと、 前記送信制御ステップの処理で送信されたデータによ
    り、前記他の装置が、一意に決定した画像データを、所
    定のアプリケーションにより再生する再生ステップと からなることを特徴とするプログラムを情報処理装置に
    実行させるプログラム格納媒体。
  5. 【請求項5】 複数の地域に設置された撮像手段により
    撮像された画像を記憶する記憶手段と、 他の装置から送信されてきた情報に基づき、前記記憶手
    段に記憶されている前記画像を選択する選択手段と、 前記選択手段により選択された前記画像を、前記他の装
    置に送信する送信手段とを含むことを特徴とする情報処
    理装置。
  6. 【請求項6】 複数の地域に設置された撮像手段により
    撮像された画像の、それぞれの画像が一意に選択できる
    ような形式の記憶を制御する記憶制御ステップと、 他の装置から送信されてきた情報に基づき、前記記憶制
    御ステップの処理で記憶されている前記画像を選択する
    選択ステップと、 前記選択ステップの処理で選択された前記画像を、前記
    他の装置に送信するための制御を行う送信制御ステップ
    とを含むことを特徴とする情報処理方法。
  7. 【請求項7】 複数の地域に設置された撮像手段により
    撮像された画像の、それぞれの画像が一意に選択できる
    ような形式の記憶を制御する記憶制御ステップと、 他の装置から送信されてきた情報に基づき、前記記憶制
    御ステップの処理で記憶されている前記画像を選択する
    選択ステップと、 前記選択ステップの処理で選択された前記画像を、前記
    他の装置に送信するための制御を行う送信制御ステップ
    とからなることを特徴とするプログラムを情報処理装置
    に実行させるプログラム格納媒体。
JP29320899A 1999-10-15 1999-10-15 情報処理装置および方法、並びにプログラム格納媒体 Withdrawn JP2001118081A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP29320899A JP2001118081A (ja) 1999-10-15 1999-10-15 情報処理装置および方法、並びにプログラム格納媒体
US09/689,581 US6748326B1 (en) 1999-10-15 2000-10-12 Information processing apparatus and method for displaying weather data as a background for an electronic pet in a virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29320899A JP2001118081A (ja) 1999-10-15 1999-10-15 情報処理装置および方法、並びにプログラム格納媒体

Publications (1)

Publication Number Publication Date
JP2001118081A true JP2001118081A (ja) 2001-04-27

Family

ID=17791833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29320899A Withdrawn JP2001118081A (ja) 1999-10-15 1999-10-15 情報処理装置および方法、並びにプログラム格納媒体

Country Status (2)

Country Link
US (1) US6748326B1 (ja)
JP (1) JP2001118081A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016536712A (ja) * 2014-08-12 2016-11-24 シャオミ・インコーポレイテッド 天気表示方法、装置、プログラム及び記録媒体

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW528976B (en) * 2000-09-12 2003-04-21 Sony Corp Information providing system, information providing apparatus and information providing method as well as data recording medium
KR100779978B1 (ko) * 2000-09-12 2007-11-27 소니 가부시끼 가이샤 정보제공시스템, 정보제공장치 및 정보제공방법과데이터기록매체
US7275089B1 (en) 2001-03-15 2007-09-25 Aws Convergence Technologies, Inc. System and method for streaming of dynamic weather content to the desktop
US20040204127A1 (en) * 2002-06-24 2004-10-14 Forlines Clifton L. Method for rendering with composited images on cellular telephones
US7179171B2 (en) * 2002-06-24 2007-02-20 Mitsubishi Electric Research Laboratories, Inc. Fish breeding toy for cellular telephones
US20070143679A1 (en) * 2002-09-19 2007-06-21 Ambient Devices, Inc. Virtual character with realtime content input
US8037150B2 (en) 2002-11-21 2011-10-11 Aol Inc. System and methods for providing multiple personas in a communications environment
US7636755B2 (en) 2002-11-21 2009-12-22 Aol Llc Multiple avatar personalities
US20040179039A1 (en) 2003-03-03 2004-09-16 Blattner Patrick D. Using avatars to communicate
US20070113181A1 (en) * 2003-03-03 2007-05-17 Blattner Patrick D Using avatars to communicate real-time information
US7908554B1 (en) 2003-03-03 2011-03-15 Aol Inc. Modifying avatar behavior based on user action or mood
US7913176B1 (en) 2003-03-03 2011-03-22 Aol Inc. Applying access controls to communications with avatars
US20070168863A1 (en) * 2003-03-03 2007-07-19 Aol Llc Interacting avatars in an instant messaging communication session
JP4075883B2 (ja) * 2004-05-12 2008-04-16 セイコーエプソン株式会社 液滴吐出装置、並びに電気光学装置の製造方法および電気光学装置
JP3808888B2 (ja) * 2004-10-08 2006-08-16 株式会社バンダイ キャラクター育成シミュレーションシステム及び情報処理システム
US9652809B1 (en) 2004-12-21 2017-05-16 Aol Inc. Using user profile information to determine an avatar and/or avatar characteristics
US7468729B1 (en) 2004-12-21 2008-12-23 Aol Llc, A Delaware Limited Liability Company Using an avatar to generate user profile information
US20070054715A1 (en) * 2005-09-02 2007-03-08 Action Electronics Co., Ltd. Display for multi-media game console
US8287372B2 (en) * 2006-09-28 2012-10-16 Mattel, Inc. Interactive toy and display system
US20090149250A1 (en) * 2007-12-07 2009-06-11 Sony Ericsson Mobile Communications Ab Dynamic gaming environment
US10423836B2 (en) * 2016-06-16 2019-09-24 Optim Corporation Information providing system

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5393070A (en) 1990-11-14 1995-02-28 Best; Robert M. Talking video games with parallel montage
JP2848219B2 (ja) 1993-12-13 1999-01-20 カシオ計算機株式会社 画像表示装置及び画像表示方法
US5572646A (en) 1993-08-25 1996-11-05 Casio Computer Co., Ltd. Apparatus for displaying images of living things to show growing and/or moving of the living things
US5659691A (en) 1993-09-23 1997-08-19 Virtual Universe Corporation Virtual reality network with selective distribution and updating of data to reduce bandwidth requirements
US5586257A (en) 1994-05-05 1996-12-17 Perlman; Stephen G. Network architecture to support multiple site real-time video games
WO1995031061A1 (en) 1994-05-05 1995-11-16 Catapult Entertainment, Inc. Network architecture for real-time video games
JP3127084B2 (ja) 1994-08-11 2001-01-22 シャープ株式会社 電子秘書システム
JP2840923B2 (ja) 1994-11-11 1998-12-24 富士通株式会社 プロダクションシステム
US5850352A (en) 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
CA2180891C (en) 1995-07-12 2010-01-12 Junichi Rekimoto Notification of updates in a three-dimensional virtual reality space sharing system
JP3859018B2 (ja) 1995-07-12 2006-12-20 ソニー株式会社 3次元仮想現実空間共有方法、3次元仮想現実空間共有システム、アドレス管理方法、並びにアドレス管理サーバ端末
US5956028A (en) 1995-09-14 1999-09-21 Fujitsu Ltd. Virtual space communication system, three-dimensional image display method, and apparatus therefor
JP3745802B2 (ja) 1995-10-13 2006-02-15 株式会社日立製作所 画像生成/表示装置
US5880731A (en) 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
JP3651508B2 (ja) 1996-01-31 2005-05-25 ソニー株式会社 情報処理装置および情報処理方法
US5727950A (en) 1996-05-22 1998-03-17 Netsage Corporation Agent based instruction system and method
JP3685877B2 (ja) 1996-07-19 2005-08-24 富士通株式会社 通信装置
US5802296A (en) 1996-08-02 1998-09-01 Fujitsu Software Corporation Supervisory powers that provide additional control over images on computers system displays to users interactings via computer systems
US5926179A (en) 1996-09-30 1999-07-20 Sony Corporation Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US5982372A (en) 1996-11-14 1999-11-09 International Business Machines Corp. Visual metaphor for shortcut navigation in a virtual world
US5983003A (en) 1996-11-15 1999-11-09 International Business Machines Corp. Interactive station indicator and user qualifier for virtual worlds
US5812126A (en) 1996-12-31 1998-09-22 Intel Corporation Method and apparatus for masquerading online
JP3044116U (ja) 1997-03-18 1997-12-16 株式会社バンダイ 仮想生命体の育成シミュレーション装置
US5941770A (en) 1997-05-05 1999-08-24 Gamecraft, Inc. Computer gaming system
US5971855A (en) 1997-09-30 1999-10-26 Tiger Electronics, Ltd. Apparatus and method of communicating between electronic games

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016536712A (ja) * 2014-08-12 2016-11-24 シャオミ・インコーポレイテッド 天気表示方法、装置、プログラム及び記録媒体

Also Published As

Publication number Publication date
US6748326B1 (en) 2004-06-08

Similar Documents

Publication Publication Date Title
JP2001118081A (ja) 情報処理装置および方法、並びにプログラム格納媒体
US11696021B2 (en) Video recording device and camera function control program
CN108769561B (zh) 视频录制方法及装置
CN103957356A (zh) 电子设备以及电子设备的图像取得方法
US7272641B2 (en) Image information managing system
CN108881286B (zh) 多媒体播放控制的方法、终端、音箱设备和系统
CN101772952A (zh) 摄像装置
US11159714B2 (en) Imaging device and image processing method
WO2022156598A1 (zh) 蓝牙连接方法、装置和电子设备
JP4706159B2 (ja) 画像再生装置および画像再生方法
CN111544897B (zh) 基于虚拟场景的视频片段显示方法、装置、设备及介质
CN111083526B (zh) 视频转场方法、装置、计算机设备及存储介质
CN107105165A (zh) 一种拍照模式的切换方法及装置
US20150130960A1 (en) Recommendation apparatus, method, and program
JP2003330590A (ja) 携帯型情報処理装置および方法、記録媒体、並びにプログラム
CN111340916A (zh) 图片编辑方法、装置、存储介质及终端
JP2021118399A (ja) 撮像制御装置、撮像制御方法、プログラム、及び記録媒体
CN101277392B (zh) 电子装置、图像显示方法
EP4161054A1 (en) Anchor point information processing method, apparatus and device and storage medium
JP5400398B2 (ja) 画像再生装置及びその制御方法、プログラム、記憶媒体
JP2006235060A (ja) 撮像装置
JP5088051B2 (ja) 電子カメラおよびプログラム
US20210258484A1 (en) Image capturing device, image communication system, and method for display control
US7895274B2 (en) Information processing apparatus and program for providing image data to a terminal
JP2001229166A (ja) 情報処理装置および情報処理方法、並びにプログラム格納媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070109