JP4869894B2 - Content display method, content display device, and multiprocessor system - Google Patents

Content display method, content display device, and multiprocessor system Download PDF

Info

Publication number
JP4869894B2
JP4869894B2 JP2006330765A JP2006330765A JP4869894B2 JP 4869894 B2 JP4869894 B2 JP 4869894B2 JP 2006330765 A JP2006330765 A JP 2006330765A JP 2006330765 A JP2006330765 A JP 2006330765A JP 4869894 B2 JP4869894 B2 JP 4869894B2
Authority
JP
Japan
Prior art keywords
content
marker
user
emulation
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006330765A
Other languages
Japanese (ja)
Other versions
JP2008146232A (en
Inventor
公之 茶谷
千里 沼岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2006330765A priority Critical patent/JP4869894B2/en
Publication of JP2008146232A publication Critical patent/JP2008146232A/en
Application granted granted Critical
Publication of JP4869894B2 publication Critical patent/JP4869894B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、ナビゲーション空間において関連するコンテンツを表示する方法および装置に関する。   The present invention relates to a method and apparatus for displaying related content in a navigation space.

複数のサーバが提供する異なるコンテンツを複合して一つのサービスとして提供するマッシュアップ(Mashup)と呼ばれる技術が利用されている。マッシュアップでは、複数のAPI(Application Program Interface)を組み合わせてあたかも一つのサービスであるかのように見せることができる。たとえば、地図データをサーバから取得し、その地図データ上の特定の位置にマーカーを設け、そのマーカーにさらに、当該特定の位置に関連するデータ、たとえば、その位置に存在する施設の名称やURL情報を対応づける。ディスプレイに表示された地図上を探索するためのユーザインタフェースが提供され、ユーザは地図上の目的位置までナビゲートされる。その目的位置もしくはその付近にマーカーが設定されている場合、マーカーが地図上に表示されることにより、ユーザは、目的位置もしくはその付近に何らかの関連情報があることを知ることができる。   A technique called mashup (Mashup) is provided in which different contents provided by a plurality of servers are combined and provided as one service. In the mashup, a plurality of APIs (Application Program Interface) can be combined to make it appear as if it is a single service. For example, map data is acquired from a server, a marker is provided at a specific position on the map data, and the marker further includes data related to the specific position, for example, the name and URL information of a facility existing at the position Associate. A user interface for searching on the map displayed on the display is provided, and the user is navigated to a target position on the map. When a marker is set at or near the target position, the marker is displayed on the map, so that the user can know that there is some related information at or near the target position.

このように、地図検索サービスにおいてマッシュアップ技術を用いれば、地図の表示画面に地理上の特定位置に関連する情報を合成して提示することができ、ユーザは地図上を探索しながら、マーキング箇所においては関連する情報を合わせて閲覧することができる。たとえば、地図検索サービスにおいてユーザが特定の住所を入力して、その住所付近の地図が画面に表示されたとする。ユーザがキーワードとして映画館を入力すると、画面上の地図には、映画館のある場所にマーカーが合成されて表示される。ユーザがマーカーをマウス等のポインティングデバイスで選択すると、選択されたマーカーに関連づけられた情報がポップアップ表示される。具体的には、マーカーの位置の住所、緯度・経度情報、映画館のURLや電話番号など関連情報が表示される。ユーザは表示されたURLをクリックすることにより、映画館のWebページを閲覧することができる。   In this way, if mashup technology is used in the map search service, information related to a specific location on the map can be synthesized and presented on the map display screen, and the user can search the marking location while searching on the map. Can browse related information together. For example, it is assumed that a user inputs a specific address in the map search service and a map near the address is displayed on the screen. When the user inputs a movie theater as a keyword, a marker is synthesized and displayed on the map on the screen at a location where the movie theater is located. When the user selects a marker with a pointing device such as a mouse, information associated with the selected marker is popped up. Specifically, related information such as the address of the marker position, latitude / longitude information, movie theater URL and telephone number is displayed. The user can browse the Web page of the movie theater by clicking the displayed URL.

従来のWebアプリケーションでは、ユーザ端末がサーバにリクエストを送信し、サーバからのレスポンスを新たなWebページとして受信し、ユーザ端末のディスプレイに表示されたWebページを更新していた。それに対して、最近のWebアプリケーションでは、データをサーバに要求する際、Webページ全体をリロードするのではなく、URLからXMLドキュメントを読み込む機能を用いて、ユーザ操作や画面描画と並行してサーバと非同期の通信を行い、必要とされるデータのみをサーバから取り込み、ユーザの端末で必要に応じて画面を描画することが可能である。この技術はAjax(Asynchronous Java Script+XML)(Javaは登録商標)と呼ばれ、ユーザにサーバの存在を感じさせないインタラクティブで操作性の高いWebアプリケーションを実現することができる。たとえば、上述の地図検索サービスでは、画面に表示された地図をユーザがマウスで動かすと、次に読み込むべき地図データが非同期通信により取得され、Webページがロードされることなく、マウスの動きに応じて地図が即座に描画される。   In the conventional web application, the user terminal transmits a request to the server, receives a response from the server as a new web page, and updates the web page displayed on the display of the user terminal. On the other hand, in recent web applications, when requesting data from the server, the entire web page is not reloaded, but a function for reading an XML document from a URL is used. Asynchronous communication can be performed, and only necessary data can be fetched from the server, and a user terminal can draw a screen as necessary. This technology is called Ajax (Asynchronous Java Script + XML) (Java is a registered trademark), and can realize an interactive and highly operable web application that does not make the user feel the existence of the server. For example, in the above-described map search service, when the user moves the map displayed on the screen with the mouse, the map data to be read next is acquired by asynchronous communication, and the web page is not loaded and the mouse moves according to the movement of the mouse. The map is drawn immediately.

特許文献1には、必要な場所を検索する際に、ガイド情報に正確な地図を簡単に含めて表示する情報提供方法が開示されている。
特開平9−311873号公報
Patent Document 1 discloses an information providing method for easily including an accurate map in guide information when searching for a necessary place.
JP-A-9-311873

上述のように、最近のWebアプリケーションでは、地図情報と関連情報を統合してシームレスなサービスを提供することができる。一方、Webで提供されるコンテンツには、ビデオ、音楽あるいはゲームなどがあり、これらのコンテンツには地理情報が含まれているものが多い。たとえば、あるカーレースゲームでは、実際の場所をレーシングコースとして選択するものがあり、フライトシミュレーションでは、実際の空域を飛行する設定のものがある。またビデオでも一つのドキュメンタリ番組の一場面で、パリ郊外の教会といった特定の建築物を紹介していることがある。このような地理上の特定の場所を一シーンとして含むコンテンツを地図情報と関連づけて提供することは一般的に困難である。新たに製作されるビデオコンテンツであれば、ビデオコンテンツの中にメタデータを挿入することによって、ビデオコンテンツの中から特定の場所を示すシーンをサーチしてそのシーンからビデオを再生することも可能である。しかしながら、そのようなメタデータが挿入されていないビデオやゲームなどの既存のコンテンツの場合は、最初から実行して該当するシーンが出てくるのを待つしかなく、地図情報と効果的に連携させることが難しかった。   As described above, recent web applications can provide a seamless service by integrating map information and related information. On the other hand, content provided on the Web includes video, music, games, and the like, and many of these contents include geographic information. For example, some car racing games select an actual place as a racing course, and flight simulations have a setting for flying in an actual airspace. The video also shows a particular building, such as a church in the suburbs of Paris, in a scene from a documentary program. It is generally difficult to provide content including a specific geographical location as a scene in association with map information. For newly produced video content, by inserting metadata into the video content, it is also possible to search for a scene showing a specific location from the video content and play the video from that scene. is there. However, in the case of existing content such as videos and games that do not have such metadata inserted, there is no choice but to wait for the corresponding scene to appear from the beginning and to effectively link with map information. It was difficult.

本発明はこうした課題に鑑みてなされたものであり、その目的は、ナビゲーション空間において関連するコンテンツを表示するための技術を提供することにある。   The present invention has been made in view of these problems, and an object thereof is to provide a technique for displaying related content in a navigation space.

上記課題を解決するために、本発明のある態様のコンテンツ表示方法は、ユーザが探索するナビゲーション空間内のマーキング箇所にマーカーを設け、前記マーカー毎にそのマーキング箇所に関連するシーンを含むコンテンツを対応づけるマーキングステップと、前記ナビゲーション空間内の目的位置までユーザをナビゲートするためのユーザインタフェースを提供するナビゲーションステップと、前記目的位置から所定の範囲内に存在する前記マーカーを特定するマーカー特定ステップと、特定された前記マーカーに対応づけられたコンテンツについて、前記マーキング箇所に関連するシーンの表示に至るまでのユーザの入力操作をエミュレートすることにより、前記コンテンツを当該シーンから実行可能な状態にするエミュレーションステップとを含む。   In order to solve the above-described problem, a content display method according to an aspect of the present invention provides a marker at a marking location in a navigation space searched by a user, and handles content including a scene related to the marking location for each marker. Marking step, a navigation step providing a user interface for navigating the user to a target position in the navigation space, a marker specifying step for specifying the marker existing within a predetermined range from the target position, Emulation that makes the content executable from the scene by emulating the user's input operation up to the display of the scene related to the marking location for the content associated with the identified marker The Tsu and a flop.

本発明の別の態様は、コンテンツ表示装置である。この装置は、ユーザが探索するナビゲーション空間内のマーキング箇所にマーカーを設け、前記マーカー毎にそのマーキング箇所に関連するシーンを含むコンテンツを対応づけるマーキング処理部と、前記ナビゲーション空間内の目的位置までユーザをナビゲートするためのユーザインタフェースを提供するナビゲーション処理部と、前記目的位置から所定の範囲内に存在する前記マーカーを特定するマーカー特定部と、特定された前記マーカーに対応づけられたコンテンツについて、前記マーキング箇所に関連するシーンの表示に至るまでのユーザの入力操作をエミュレートすることにより、前記コンテンツを当該シーンから実行可能な状態にするエミュレーション実行部とを含む。   Another aspect of the present invention is a content display device. The apparatus includes a marking processing unit that provides a marker at a marking location in a navigation space searched by a user, and associates content including a scene related to the marking location for each marker, and a user to a target position in the navigation space. A navigation processing unit that provides a user interface for navigating, a marker specifying unit that specifies the marker existing within a predetermined range from the target position, and content associated with the specified marker, And an emulation execution unit that emulates a user's input operation until the display of the scene related to the marking location, thereby making the content executable from the scene.

本発明のさらに別の態様は、マルチプロセッサシステムである。このマルチプロセッサシステムは、ユーザが探索する空間内のマーキング箇所にマーカーが設けられ、前記マーカー毎にそのマーキング箇所に関連するシーンを含むコンテンツが対応づけられたナビゲーション空間内の目的位置までユーザをナビゲートするナビゲーション処理機能が実現された第1のプロセッサと、前記目的位置から所定の範囲内に存在する前記マーカーに対応づけられたコンテンツについて、前記マーキング箇所に関連するシーンの表示に至るまでのユーザの入力操作をエミュレートすることにより、前記コンテンツを当該シーンから実行可能な状態にするエミュレーション実行機能が実現された第2のプロセッサとを含む。   Yet another aspect of the present invention is a multiprocessor system. In this multiprocessor system, a marker is provided at a marking location in a space searched by a user, and the user is navigated to a target location in a navigation space in which content including a scene related to the marking location is associated with each marker. A first processor in which a navigation processing function to be gated is realized, and a user from the target position to the display of a scene related to the marking location with respect to the content associated with the marker existing within a predetermined range And a second processor that realizes an emulation execution function that makes the content executable from the scene.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and the expression of the present invention converted between a method, an apparatus, a system, a computer program, a data structure, a recording medium, and the like are also effective as an aspect of the present invention.

本発明によれば、ナビゲーション空間において関連するコンテンツを効果的に表示することができる。   According to the present invention, related contents can be effectively displayed in the navigation space.

本発明の実施の形態を図面を参照して説明する。
図1は、実施の形態に係るコンテンツ表示システムの構成図である。クライアントコンピュータ200とコンテンツサーバ500と地図サーバ600がネットワーク700で相互に接続されている。地図サーバ600は、ユーザが探索するナビゲーション空間に関するデータをクライアントコンピュータ200に提供する。ナビゲーション空間は、地理データを含む平面または3次元空間である。
Embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a configuration diagram of a content display system according to an embodiment. A client computer 200, a content server 500, and a map server 600 are connected to each other via a network 700. The map server 600 provides the client computer 200 with data related to the navigation space searched by the user. The navigation space is a planar or three-dimensional space that includes geographic data.

コンテンツサーバ500は、動画や音楽、ゲームなどのコンテンツを管理するサーバであり、クライアントコンピュータ200からの要求に応じてコンテンツデータを提供する。特に本実施の形態では、地図サーバ600が提供するナビゲーション空間内の特定のマーキング箇所にマーカーが設けられ、そのマーキング箇所に関連するシーンを含むコンテンツがコンテンツサーバ500からクライアントコンピュータ200に提供される。たとえば、マーキング箇所として地理上の特定位置が設定されている場合、コンテンツサーバ500は、その特定位置に関連するシーンを含むコンテンツをクライアントコンピュータ200に提供する。   The content server 500 is a server that manages content such as moving images, music, and games, and provides content data in response to a request from the client computer 200. In particular, in the present embodiment, a marker is provided at a specific marking location in the navigation space provided by the map server 600, and content including a scene related to the marking location is provided from the content server 500 to the client computer 200. For example, when a geographical location is set as the marking location, the content server 500 provides the client computer 200 with content including a scene related to the specific location.

図2は、図1のクライアントコンピュータ200の構成図である。クライアントコンピュータ200は、CPU220、メモリ210、グラフィックスプロセッサ230、サウスブリッジ250、ハードディスク240、ネットワークインタフェース260、USBインタフェース270、PCIインタフェース280、オーディオD/Aコンバータ290、オーディオ出力端子310、およびUSBインタフェース270に接続されたオーディオ入力端子320を含む。グラフィックスプロセッサ230の出力はディスプレイ300に供給され、画面に表示される。USBインタフェース270にはUSBデバイス330、PCIインタフェース280にはPCIデバイス340が接続可能である。   FIG. 2 is a configuration diagram of the client computer 200 of FIG. The client computer 200 includes a CPU 220, a memory 210, a graphics processor 230, a south bridge 250, a hard disk 240, a network interface 260, a USB interface 270, a PCI interface 280, an audio D / A converter 290, an audio output terminal 310, and a USB interface 270. Audio input terminal 320 connected to the. The output of the graphics processor 230 is supplied to the display 300 and displayed on the screen. A USB device 330 can be connected to the USB interface 270, and a PCI device 340 can be connected to the PCI interface 280.

図3は、図1のCPU220の実装例として好適なマルチコアプロセッサ400の構成図である。マルチコアプロセッサ400は、複数のプロセッサを一つのパッケージに集積したものであり、一つのメインプロセッサ410、複数(ここでは4つ)のサブプロセッサ420a〜420d、メモリインタフェース450、I/Oインタフェース440がリングバス430で接続された構成である。このマルチコアプロセッサ400において、起動時にメインプロセッサ410が動作し、メインプロセッサ410によって、各サブプロセッサ420a〜420dに対してタスクが割り当てられる。   FIG. 3 is a configuration diagram of a multi-core processor 400 suitable as an implementation example of the CPU 220 of FIG. The multi-core processor 400 is obtained by integrating a plurality of processors in one package. One main processor 410, a plurality of (here, four) sub-processors 420a to 420d, a memory interface 450, and an I / O interface 440 are ring-shaped. The configuration is connected by a bus 430. In the multi-core processor 400, the main processor 410 operates at startup, and the main processor 410 assigns tasks to the sub processors 420a to 420d.

マルチコアプロセッサ400は、並列動作する複数のプログラムを含むソフトウェアを実行するのに適した構成である。本実施の形態では、以下に述べるナビゲーション処理を一つのサブプロセッサで実行し、エミュレーション処理を別のサブプロセッサで実行するといった並列処理を行う。   The multi-core processor 400 has a configuration suitable for executing software including a plurality of programs that operate in parallel. In the present embodiment, a parallel process is performed in which a navigation process described below is executed by one sub processor and an emulation process is executed by another sub processor.

図4は、本実施の形態に係るコンテンツ表示装置100の機能構成図である。同図は機能に着目したブロック図を描いており、これらの機能ブロックはハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現することができる。すなわち、これらの機能構成ブロックの少なくとも一部は、図2で説明したクライアントコンピュータ200のハードウェア構成により実現され、ハードウェア構成で実現されない機能ブロックは、メモリ210にロードされたプログラムをCPU220が実行することにより実現される。   FIG. 4 is a functional configuration diagram of the content display apparatus 100 according to the present embodiment. This figure depicts a block diagram focusing on functions, and these functional blocks can be realized in various forms by hardware alone, software alone, or a combination thereof. That is, at least a part of these functional configuration blocks is realized by the hardware configuration of the client computer 200 described with reference to FIG. 2, and the functional blocks that are not realized by the hardware configuration are executed by the CPU 220 by executing the program loaded in the memory 210. It is realized by doing.

ナビゲーション処理部10は、地図サーバ600からユーザが探索するナビゲーション空間に関するデータを受け取り、ナビゲーションデータ62として記憶部60に保持する。ナビゲーション処理部10は、ナビゲーション空間内の目的位置までユーザをナビゲートするユーザインタフェースを提供する。たとえば、ナビゲーション空間が2次元平面地図である場合、ユーザに住所や施設の名称などを検索キーワードとして入力させ、地図を検索して表示し、マウス操作などにより地図を上下左右にスクロールしたり、縮尺を変更するためのユーザインタフェースを提供することで、ユーザを地図上の目的位置までナビゲートする。ナビゲーション空間が3次元空間である場合は、ユーザが視点を変えながら3次元空間を自由に移動することのできるユーザインタフェースを提供する。   The navigation processing unit 10 receives data related to the navigation space searched by the user from the map server 600 and stores the data in the storage unit 60 as navigation data 62. The navigation processing unit 10 provides a user interface for navigating the user to a target position in the navigation space. For example, when the navigation space is a two-dimensional planar map, the user can input an address or facility name as a search keyword, search and display the map, scroll the map up / down / left / right by mouse operation, etc. By providing a user interface for changing the user, the user is navigated to the target position on the map. When the navigation space is a three-dimensional space, a user interface that allows the user to freely move in the three-dimensional space while changing the viewpoint is provided.

マーキング処理部20は、ナビゲーション空間内の特定のマーキング箇所にマーカーを設定し、マーカー毎にそのマーキング箇所に関連するシーンを含むコンテンツを対応づける処理を行う。マーキング処理部20は、コンテンツサーバ500からマーカー表示情報64とエミュレーション信号シーケンス66を取得して記憶部60に記憶する。マーカー表示情報64は、ナビゲーション空間のマーキング箇所、そのマーキング箇所に設定すべきマーカーに関する情報、およびマーカーに対応づけるコンテンツに関する情報を含む。   The marking processing unit 20 sets a marker at a specific marking location in the navigation space, and performs processing for associating content including a scene related to the marking location for each marker. The marking processing unit 20 acquires the marker display information 64 and the emulation signal sequence 66 from the content server 500 and stores them in the storage unit 60. The marker display information 64 includes a marking location in the navigation space, information related to the marker to be set in the marking location, and information related to the content associated with the marker.

エミュレーション信号シーケンス66は、マーキング箇所に関連するシーンの表示に至るまでのユーザの入力操作をエミュレートするための信号シーケンスである。マーカーに対応づけられたコンテンツは、マーキング箇所に関連するシーンを含んでおり、エミュレーション信号シーケンス66を実行することにより、そのシーンに至るまでの過程をスキップしてコンテンツを当該シーンから実行可能な状態に設定することができる。   The emulation signal sequence 66 is a signal sequence for emulating the input operation of the user until the scene related to the marking portion is displayed. The content associated with the marker includes a scene related to the marking portion, and by executing the emulation signal sequence 66, the process up to that scene can be skipped and the content can be executed from the scene. Can be set to

ナビゲーション処理部10は、記憶部60に記憶されたマーカー表示情報64を参照して、ユーザが探索しているナビゲーション空間内のマーキング箇所にマーカーを重ね合わせて表示する。   The navigation processing unit 10 refers to the marker display information 64 stored in the storage unit 60 and displays the marker superimposed on the marking location in the navigation space searched by the user.

マーカー特定部30は、ナビゲーション空間内の目的位置もしくはその近傍にあるマーカーを特定する。目的位置付近に複数のマーカーがある場合はユーザにいずれかのマーカーを選択させてもよい。マーカー特定部30は目的位置付近で特定したマーカーの情報をエミュレーション実行部40に与える。   The marker specifying unit 30 specifies a marker at or near the target position in the navigation space. If there are a plurality of markers near the target position, the user may be allowed to select any of the markers. The marker specifying unit 30 gives information on the marker specified near the target position to the emulation executing unit 40.

エミュレーション実行部40は、マーカー特定部30により特定されたマーカーに対応づけられたコンテンツをコンテンツサーバ500からダウンロードし、記憶部60にコンテンツデータ68として保持する。エミュレーション実行部40は、記憶部60に記憶されたエミュレーション信号シーケンス66を読み取り、コンテンツデータ68に対してそのエミュレーション信号シーケンス66を実行して、マーキング箇所に関連するシーンに至るまでのユーザの操作をエミュレーションしてコンテンツを当該シーンを開始点として実行できるように前処理を行う。   The emulation execution unit 40 downloads the content associated with the marker specified by the marker specifying unit 30 from the content server 500 and holds it as content data 68 in the storage unit 60. The emulation execution unit 40 reads the emulation signal sequence 66 stored in the storage unit 60, executes the emulation signal sequence 66 on the content data 68, and performs user operations up to the scene related to the marking portion. Pre-processing is performed so that the content can be executed by emulating the scene as a starting point.

コンテンツデータにはプログラムが含まれていてもよく、コンテンツデータを再生するための別のプログラムが用いられてもよい。コンテンツを実行するためのプロセスが起動されると、エミュレーション実行部40は、ユーザの入力操作をエミュレートするための信号列をプロセスに入力する。これは、コンテンツ実行プロセスへの入力を、マウスやキーボードなどの入力手段からエミュレーションプログラムに切り替え、エミュレーションプログラムが発生する信号列をユーザ入力の代わりにコンテンツ実行プロセスに供給することで実現される。このような入力のリダイレクションは、エミュレーション処理の実行が終わると元に戻される。すなわち、コンテンツの実行プロセスへの入力は元のマウスやキーボードなどの入力手段に切り替えられる。   The content data may include a program, or another program for reproducing the content data may be used. When a process for executing content is started, the emulation execution unit 40 inputs a signal sequence for emulating a user input operation to the process. This is realized by switching the input to the content execution process from an input means such as a mouse or a keyboard to the emulation program and supplying a signal sequence generated by the emulation program to the content execution process instead of the user input. Such input redirection is restored when the execution of the emulation process is completed. In other words, the input to the content execution process is switched to the input means such as the original mouse or keyboard.

また、エミュレーション実行部40は、コンテンツ実行プロセスの出力もリダイレクトする。ユーザの入力操作のエミュレーションを実行している間は、出力をエミュレーションプログラムにリダイレクトし、表示手段であるディスプレイ300には出力しないようにする。エミュレーション処理の実行が終わると、出力のリダイレクションを元に戻し、コンテンツの実行結果をディスプレイ300に出力する。これにより、ディスプレイ300には、ユーザの操作をエミュレーションしている間のコンテンツの実行結果が表示されない。   The emulation execution unit 40 also redirects the output of the content execution process. While the user input operation is being emulated, the output is redirected to the emulation program and is not output to the display 300 as the display means. When the execution of the emulation process is finished, the output redirection is restored and the content execution result is output to the display 300. As a result, the execution result of the content while the user operation is being emulated is not displayed on the display 300.

表示制御部50は、エミュレーション処理終了後のコンテンツの実行結果がディスプレイ300に出力されるようにグラフィックスの出力をディスプレイ300に供給する。   The display control unit 50 supplies the graphics output to the display 300 so that the execution result of the content after the end of the emulation processing is output to the display 300.

図5は、本実施の形態に係るコンテンツ表示方法の手順を説明するシーケンス図である。クライアントコンピュータ200は、アプリケーションソフトウエアを実行する。このアプリケーションソフトウエアは地図サーバ600と通信し、地図データを要求する(S10)。クライアントコンピュータ200は、アプリケーションソフトウェアの実行に合わせて、非同期に地図データを地図サーバ600から取得する(S20)。   FIG. 5 is a sequence diagram for explaining the procedure of the content display method according to the present embodiment. The client computer 200 executes application software. The application software communicates with the map server 600 and requests map data (S10). The client computer 200 asynchronously acquires map data from the map server 600 in accordance with the execution of the application software (S20).

初期段階では、アプリケーションソフトウェアは、地図の中心座標を指定して地図サーバ600にリクエストを出すことにより、地図サーバ600からその中心座標から所定の範囲にある地図データを受信する。ユーザがアプリケーションソフトウェア上でマウスの操作などを行ってイベントが発生すると、イベントが地図サーバ600に送信され、必要とされる処理が地図サーバ600で実行され、必要に応じて新たな地図データがクライアントコンピュータ200に送信される。クライアントコンピュータ200が地図サーバ600に地図データのリクエストを送信し、地図サーバ600から新しい地図データを受信するプロセスは、アプリケーションソフトウェアにおけるユーザの入出力操作とは並行して実行される。このために既に述べたAjax技術を用いてもよい。   In the initial stage, the application software designates the center coordinates of the map and issues a request to the map server 600, thereby receiving map data within a predetermined range from the center coordinates from the map server 600. When an event occurs when the user operates the mouse on the application software, the event is transmitted to the map server 600, and the necessary processing is executed by the map server 600, and new map data is transferred to the client as necessary. It is transmitted to the computer 200. The process in which the client computer 200 transmits a request for map data to the map server 600 and receives new map data from the map server 600 is executed in parallel with the user input / output operation in the application software. For this purpose, the Ajax technique already described may be used.

また、クライアントコンピュータ200は、地図サーバ600からの地図データの送受信とは並行して、コンテンツサーバ500と通信し、地図に設定すべきマーカーを要求する(S30)。クライアントコンピュータ200は、コンテンツサーバ500からマーカー表示情報を取得する(S40)。クライアントコンピュータ200上のアプリケーションソフトウェアはマーカーを地図にして表示する(S50)。このために既に述べたマッシュアップ技術を用いてもよい。   The client computer 200 communicates with the content server 500 in parallel with the transmission / reception of the map data from the map server 600, and requests a marker to be set on the map (S30). The client computer 200 acquires marker display information from the content server 500 (S40). The application software on the client computer 200 displays the marker as a map (S50). For this purpose, the mashup technique already described may be used.

クライアントコンピュータ200のナビゲーション処理部10は、ユーザの操作に応じたナビゲーション処理を実行する(S60)。ユーザがナビゲーション空間における目的位置にまでナビゲートされると、マーカー特定部30は、目的位置付近にあるマーカーを特定する(S70)。   The navigation processing unit 10 of the client computer 200 executes navigation processing according to the user's operation (S60). When the user navigates to the target position in the navigation space, the marker specifying unit 30 specifies a marker near the target position (S70).

クライアントコンピュータ200は、特定されたマーカーに対応づけられたコンテンツをコンテンツサーバ500に要求し(S80)、コンテンツをコンテンツサーバ500からダウンロードする(S90)。   The client computer 200 requests content associated with the identified marker from the content server 500 (S80), and downloads the content from the content server 500 (S90).

エミュレーション実行部40は、ユーザの操作をエミュレートしてマーカーの設けられた地理上の位置に関連する特定のシーンに至るまでコンテンツを実行する(S100)。その後、コンテンツはその特定シーンから実行され(S110)、それまで閲覧していた地図画面からコンテンツの表示画面に切り替わる(S120)。   The emulation execution unit 40 emulates the user's operation and executes the content until reaching a specific scene related to the geographical position where the marker is provided (S100). Thereafter, the content is executed from the specific scene (S110), and the map screen that has been browsed is switched to the content display screen (S120).

上記の説明では、マーカーで指定されたコンテンツをクライアントコンピュータ200にダウンロードしてコンテンツを実行する方法を説明したが、コンテンツの実行はコンテンツサーバ500において行うようにしてもよい。その場合、コンテンツサーバ500は、実行結果として生成された画像情報をクライアントコンピュータ200に送信し、クライアントコンピュータ200からの入力はコンテンツサーバ500に送信される。   In the above description, the method of downloading the content specified by the marker to the client computer 200 and executing the content has been described, but the content may be executed by the content server 500. In that case, the content server 500 transmits image information generated as an execution result to the client computer 200, and an input from the client computer 200 is transmitted to the content server 500.

図6(a)〜(c)は、マーキング箇所に関連した特定のシーンからゲームコンテンツを実行する方法を説明する図である。図6(a)は、ゲーム起動時の画面であり、ここでは、グランプリレースをスタートさせるために「スタート」ボタン800を押すように、ユーザに要求している。ユーザがこのボタンを押すことにより、「スタート」信号が発生する。ゲームプログラムは、「スタート」信号が発生するかどうか、ユーザからの入力待ちをするように構成されているため、「スタート」信号を検出することによって、次の画面をロードする。   FIGS. 6A to 6C are diagrams for explaining a method of executing game content from a specific scene related to a marking location. FIG. 6A shows a screen when the game is started. Here, the user is requested to press the “start” button 800 in order to start the grand prix race. When the user presses this button, a “start” signal is generated. Since the game program is configured to wait for an input from the user whether or not a “start” signal is generated, the next screen is loaded by detecting the “start” signal.

図6(b)は、「スタート」信号が実行された後に表示されるゲームの選択画面である。ここでは、3つのレースコース(「東京」、「ベルギー」、「モナコ」)の選択をユーザに促している。ゲームプログラムは、最初は左のコースを選択した状態で、ユーザが「確定」ボタン802を押したかどうかを待ちながら、入力待ち状態に入る。この状態で、ユーザがマウスやゲームコントローラの「左」ボタンや「右」ボタンを押すと、その信号を受信したゲームプログラムは、3つのレースコースの間でカーソルポジションを左右に移動させる。   FIG. 6B is a game selection screen displayed after the “start” signal is executed. Here, the user is prompted to select three race courses (“Tokyo”, “Belgium”, and “Monaco”). The game program enters an input waiting state while waiting for whether or not the user has pressed the “confirm” button 802 with the left course initially selected. In this state, when the user presses the “left” button or “right” button of the mouse or game controller, the game program that has received the signal moves the cursor position to the left or right between the three race courses.

ここでは、ユーザが「右」ボタンを2回押した後、「確定」ボタン802を押して「モナコ」を選択したとする。ゲームプログラムは、「右ボタン」信号を2回受信し、その後、「確定」信号を受信するため、3番目のレースコース「モナコ」が選択された状態に遷移する。図6(c)は、レースコースの選択後のゲームのスタート画面であり、「モナコグランプリ」が開始される。   Here, it is assumed that the user presses the “Right” button twice and then presses the “Confirm” button 802 to select “Monaco”. The game program receives the “right button” signal twice, and then receives the “confirmed” signal, and transitions to the state where the third race course “Monaco” is selected. FIG. 6C is a game start screen after selecting the race course, and the “Monaco Grand Prix” is started.

ここでカーレースゲームの「モナコグランプリ」は、地理上の「モナコ公国」に関連するため、地図上で「モナコ公国」近辺が表示されたとき、ゲームプログラムを図6(a)に初期画面からではなく、図6(c)のように既にゲームの設定条件として「モナコグランプリ」が設定された後のゲーム開始画面から開始することが望ましい。そこで、本実施の形態のコンテンツ表示システムでは、クライアントコンピュータ200において「モナコ公国」周辺が地図上に表示された場合、クライアントコンピュータ200が、あたかもユーザがゲームコンテンツに対して図6(a)から図6(c)に遷移するまでの入力操作を行ったかのように、信号列を発生させ、ゲームプログラムにその信号列を入力する。これにより、ユーザの入力操作がエミュレーションされ、図6(c)の「モナコグランプリ」画面からゲームを開始可能な状態となる。   Here, since the “Monaco Grand Prix” of the car racing game is related to the geographical “Principality of Monaco”, when the “Principality of Monaco” is displayed on the map, the game program is displayed from the initial screen in FIG. Instead, it is desirable to start from the game start screen after “Monaco Grand Prix” is already set as the game setting condition as shown in FIG. Therefore, in the content display system according to the present embodiment, when the vicinity of “Principality of Monaco” is displayed on the map on the client computer 200, the client computer 200 is as if the user has displayed the game content from FIG. A signal sequence is generated and the signal sequence is input to the game program as if the input operation until transition to 6 (c) was performed. As a result, the input operation of the user is emulated, and the game can be started from the “Monaco Grand Prix” screen of FIG.

このために、クライアントコンピュータ200は、ゲームプログラムをロードした後、画面表示する前の段階で、次のようなエミュレーション信号列をゲームプログラムに入力する。
信号列:{「スタート」信号,「右ボタン」信号,「右ボタン」信号,「確定」信号}
For this purpose, the client computer 200 inputs the following emulation signal sequence to the game program after loading the game program and before displaying the screen.
Signal sequence: {"start" signal, "right button" signal, "right button" signal, "confirm" signal}

このエミュレーション信号列が実行される間は、ディスプレイ300にはゲームコンテンツの画面は表示されないように制御し、エミュレーション信号列の実行後は、ゲームコンテンツの画面が表示されるようにすることで、ユーザは地図で「モナコ公国」近辺を探索したときに、その地理情報に関連した「モナコグランプリ」のカーレースゲームを実行することができる。   Control is performed so that the screen of the game content is not displayed on the display 300 while the emulation signal sequence is executed, and the game content screen is displayed after the execution of the emulation signal sequence. When searching for the vicinity of “Principality of Monaco” on the map, a car racing game of “Monaco Grand Prix” related to the geographical information can be executed.

図7(a)、(b)は、マーキング箇所に関連した特定のシーンからビデオコンテンツを再生する方法を説明する図である。図7(a)は、ビデオコンテンツの時間0における初期画面であり、図7(b)は、時間Tにおける画面である。このビデオコンテンツは東京の観光名所を案内するものであり、時間Tから「東京タワー」を紹介する内容となる。地図上で「東京タワー」付近が表示され、東京タワーにはマーカーが表示されたとする。そのマーカーには、当該ビデオコンテンツが関連づけられている場合、マーカーを選択することで、ビデオコンテンツが「東京タワー」のシーンから再生されるようにすることが望ましい。そのためには、時刻Tまでビデオコンテンツを先送りするエミュレーション信号を発生させてビデオ再生プログラムに入力すればよい。なお、ビデオコンテンツが蓄積型ではなく、ストリーム配信されるリアルタイム型のものであっても、「先送り」のように任意の時間にジャンプして再生を開始するメカニズムがサポートされている。   FIGS. 7A and 7B are diagrams illustrating a method for reproducing video content from a specific scene related to a marking location. FIG. 7A shows an initial screen at time 0 of the video content, and FIG. 7B shows a screen at time T. This video content guides tourist attractions in Tokyo and introduces “Tokyo Tower” from time T. Assume that the vicinity of “Tokyo Tower” is displayed on the map, and a marker is displayed on Tokyo Tower. When the video content is associated with the marker, it is desirable to select the marker so that the video content is reproduced from the scene of “Tokyo Tower”. For this purpose, an emulation signal for delaying the video content until time T is generated and input to the video reproduction program. Note that even if the video content is not a storage type but a real-time type that is streamed, a mechanism for starting playback by jumping to an arbitrary time, such as “delayed”, is supported.

コンテンツの実行を特定シーンに至るまで進めるためのエミュレーション信号列は、コンテンツの提供者が作成してもよく、ユーザが作成してもよい。特に、既存のコンテンツの場合、コンテンツを閲覧したユーザがエミュレーション信号列を作成し、公開するようにしてもよい。最近では、動画のサイトが増えており、不特定多数のユーザが、コンテンツ内の特定のシーンからスタートするためのエミュレーション信号列を作成してネットワーク上で公開することにより、既存のコンテンツの利用が一層広がる。   The emulation signal sequence for proceeding execution of content up to a specific scene may be created by the content provider or the user. In particular, in the case of existing content, a user who has viewed the content may create and publish an emulation signal sequence. Recently, the number of video sites has increased, and an unspecified number of users can create an emulation signal sequence for starting from a specific scene in the content and publish it on the network. Further spread.

図8(a)は、図4のマーカー表示情報64を説明する図である。マーカー表示情報64は、一例としてXML(Extensible Markup Language)で記述される。この例では、マーカー表示情報64は、3つのマーカーが定義されており、各タグの第1〜第3列はそれぞれ第1〜第3のマーカーに対応する情報である。   FIG. 8A illustrates the marker display information 64 in FIG. The marker display information 64 is described in XML (Extensible Markup Language) as an example. In this example, the marker display information 64 defines three markers, and the first to third columns of each tag are information corresponding to the first to third markers, respectively.

最初のタグ<markers>で括られた部分(符号812)には、地理上の位置情報として緯度・経度情報が記されている。第2のタグ<titles>で括られた部分(符号814)には、コンテンツのタイトルが記されており、タグ<title>の第1引数はタイトルの文字列であり、第2引数はコンテンツのタイプである。第3のタグ<urls>で括られた部分(符号816)には、コンテンツのネットワーク上の格納位置であるURLが記されている。第4のタグ<posIDs>で括られた部分(符号818)には、コンテンツの特定シーンを示すIDが記されている。   In a portion (reference numeral 812) enclosed by the first tag <markers>, latitude / longitude information is described as geographical position information. The part (symbol 814) enclosed by the second tag <titles> describes the title of the content, the first argument of the tag <title> is a character string of the title, and the second argument is the content Type. In a portion (reference numeral 816) enclosed by the third tag <urls>, a URL that is a storage location of the content on the network is described. In a portion (reference numeral 818) enclosed by the fourth tag <posIDs>, an ID indicating a specific scene of the content is described.

第1のマーカーは、緯度XA、経度YAのマーキング箇所に設定されており、ゲームコンテンツ「グランプリレース」が対応づけられており、ゲームコンテンツのURLはLOCAであり、コンテンツの開始位置である特定シーンのID(以下、「開始位置ID」という)はA_SCENE_ID1である。第1のマーカーは、緯度XA、経度YAのマーキング箇所に設定されており、ゲームコンテンツ「グランプリレース」が対応づけられており、ゲームコンテンツのURLはLOCAであり、開始位置IDはA_SCENE_ID1である。第3のマーカーは、緯度XA+100、経度YA+10のマーキング箇所に設定されており、ビデオコンテンツ「日本の風景」が対応づけられており、ビデオコンテンツのURLはLOCBであり、開始位置IDはB_SCENE_ID1である。   The first marker is set at the marking location of latitude XA and longitude YA, the game content “Grand Prix Race” is associated, the URL of the game content is LOCA, and the specific scene that is the start position of the content ID (hereinafter referred to as “start position ID”) is A_SCENE_ID1. The first marker is set at a marking location of latitude XA and longitude YA, the game content “Grand Prix Race” is associated, the URL of the game content is LOCA, and the start position ID is A_SCENE_ID1. The third marker is set at a marking location of latitude XA + 100 and longitude YA + 10, the video content “Japanese landscape” is associated, the URL of the video content is LOCB, and the start position ID is B_SCENE_ID1. .

図8(b)は、図4のエミュレーション信号シーケンス66を説明する図である。図8(a)の各コンテンツの開始位置ID毎にコンテンツに入力されるエミュレーション信号シーケンスが記載されている。たとえば、第1のマーカーに対応づけられたゲームコンテンツの開始位置IDであるA_SCENE_ID1には、信号列:{「スタート」信号,「右ボタン信号」,「右ボタン信号」,「確定」信号}が記載されている。第2のマーカーに対応づけられたゲームコンテンツの開始位置IDであるA_SCENE_ID2には、信号列:{「スタート」信号,「右ボタン信号」,「確定」信号}が記載されている。第3のマーカーに対応づけられたビデオコンテンツの開始位置IDであるB_SCENE_ID1には、信号列:{「時間Tのポジションへ先送り」信号}が記載されている。   FIG. 8B is a diagram for explaining the emulation signal sequence 66 of FIG. The emulation signal sequence input to the content is described for each start position ID of each content in FIG. For example, in A_SCENE_ID1, which is the start position ID of the game content associated with the first marker, a signal sequence: {“start” signal, “right button signal”, “right button signal”, “confirm” signal} Are listed. A_SCENE_ID2, which is the start position ID of the game content associated with the second marker, describes a signal sequence: {“start” signal, “right button signal”, “confirm” signal}. In B_SCENE_ID1, which is the start position ID of the video content associated with the third marker, a signal string: {“forward to position at time T” signal} is described.

図9は、ナビゲーションアプリケーションの実行開始からコンテンツ実行プロセス起動までの処理の流れを説明するフローチャートである。ナビゲーションアプリケーションとして、地図や仮想美術館などが考えられる。本実施の形態では、ナビゲーション空間中の特定箇所あるいは一定の領域内で提供される情報に関連するコンテンツが自動的あるいは選択的に実行される。   FIG. 9 is a flowchart for explaining the processing flow from the start of execution of the navigation application to the start of the content execution process. A navigation application can be a map or a virtual museum. In the present embodiment, content related to information provided in a specific location or a certain area in the navigation space is automatically or selectively executed.

ナビゲーションアプリケーションが起動されると、まず、マーカー検出範囲が指定される(S200)。このマーカー検出範囲はユーザによって指定されてもよく、システムによってあらかじめ規定されてもよい。マーカー検出範囲は、ナビゲーション空間が2次元の場合は、矩形領域や円形領域などであり、ナビゲーション空間が3次元の場合は、立方体領域や球形領域である。矩形領域は縦横の距離により指定され、円形領域は中心からの半径により指定される。   When the navigation application is activated, a marker detection range is first designated (S200). This marker detection range may be specified by the user or may be predefined by the system. The marker detection range is a rectangular region or a circular region when the navigation space is two-dimensional, and is a cubic region or a spherical region when the navigation space is three-dimensional. The rectangular area is specified by the vertical and horizontal distances, and the circular area is specified by the radius from the center.

次に、ナビゲーション空間情報、たとえば地図データや仮想空間データが取得される(S202)。このナビゲーション空間情報は、ローカルコンピュータから直接アクセス可能なローカルストレージから取得される場合と、リモートサーバ、たとえば地図サーバから取得される場合とがある。さらに、ナビゲーション空間内の位置データに関連づけられたマーカー情報をローカルストレージあるいはリモートサーバから取得して、ナビゲーション空間内にマッピングする(S203)。   Next, navigation space information such as map data and virtual space data is acquired (S202). The navigation space information may be acquired from a local storage that can be directly accessed from a local computer, or may be acquired from a remote server such as a map server. Furthermore, the marker information associated with the position data in the navigation space is acquired from the local storage or the remote server, and is mapped in the navigation space (S203).

ここで、ナビゲーション空間情報の処理(S202)とマーカー情報の処理(S203)とは並列に実行されてもよい。たとえば、図3のようなマルチプロセッサで処理する場合、一つのサブプロセッサでナビゲーション空間情報の処理を行い、別のサブプロセッサでマーカー情報の処理を行ってもよい。   Here, the navigation space information processing (S202) and the marker information processing (S203) may be executed in parallel. For example, when processing is performed by a multiprocessor as shown in FIG. 3, navigation space information may be processed by one subprocessor, and marker information may be processed by another subprocessor.

ナビゲーションアプリケーションは、マウス移動などのイベントを検出し、ユーザの操作に応じたナビゲーション処理を実行する(S204)。アプリケーションは、マウス位置からマーカー検出範囲内にあるマーカーを取得する(S206)。   The navigation application detects an event such as a mouse movement and executes navigation processing according to the user's operation (S204). The application acquires a marker within the marker detection range from the mouse position (S206).

マーカーが全く存在しなければ(S208のN)、ステップS204に戻り、再びユーザの入力イベントを待つ状態に入る。マーカーが1つ以上存在する場合(S208のY)、マーカーが2つ以上存在するかどうかのチェックを行う(S210)。なお、マーカーが2つ以上存在するかどうかのチェックは省略して、ステップS212に進むように手順を変更してもよい。   If there is no marker at all (N in S208), the process returns to step S204 and again enters a state of waiting for a user input event. When one or more markers are present (Y in S208), it is checked whether there are two or more markers (S210). The procedure may be changed so that the check of whether or not there are two or more markers is omitted and the process proceeds to step S212.

マーカーが2つ以上存在する場合(S210のY)、マーカーに対応するコンテンツを選択するためのマーカー表示を行う(S212)。マーカーは、吹き出し形式で表示されてもよく、マーカー情報として記憶されているコンテンツを表現するアイコン、サムネイル画像、あるいはタイトルを表示するようにしてもよい。ただし、ユーザがどのコンテンツを選択したかがわかるような態様でマーカー表示を行う。   When two or more markers are present (Y in S210), marker display for selecting content corresponding to the marker is performed (S212). The marker may be displayed in a balloon format, or an icon, a thumbnail image, or a title representing content stored as marker information may be displayed. However, the marker display is performed in such a manner that it can be understood which content the user has selected.

ユーザがいずれかのマーカーを選択するまで、ユーザからの入力待ち状態になる(S214のN)。ユーザが一つのマーカーすなわち対応するコンテンツを選択したと判断される場合(S214のY)、マーカーの指定するコンテンツを実行するためのプロセスを起動する(S216)。コンテンツ実行プロセスは、ゲーム、ビデオ、オーディオなどのコンテンツタイプによって異なる処理を実行する。このために、コンテンツタイプ毎にプログラムが用意されてもよく、一つのプログラムの中でコンテンツタイプを選別して異なる処理を実行するように構成されてもよい。   Until the user selects one of the markers, the user is in an input waiting state (N in S214). When it is determined that the user has selected one marker, that is, the corresponding content (Y in S214), a process for executing the content specified by the marker is activated (S216). The content execution process executes different processes depending on content types such as a game, video, and audio. For this purpose, a program may be prepared for each content type, or a different process may be executed by selecting the content type in one program.

実施例の一つとして、ステップS210において、マーカーが1つしか存在しない場合(S210のN)、ステップS216に進み、マーカーに対応するコンテンツを実行するためのプロセスの起動を自動的に始めることができる。すなわち、ナビゲーションアプリケーションが地図ナビゲーションであり、コンテンツがゲームであるとして、たとえば、モナコ公国付近が表示された場合、ユーザにマーカーを選択させることなく、モナコグランプリのゲーム画面に自動的に切り替わるようにしてもよい。さらにこの場合は、マーカーは地図に表示しても表示しなくてもよい。   As one example, if there is only one marker in step S210 (N in S210), the process proceeds to step S216 to automatically start the process for executing the content corresponding to the marker. it can. In other words, assuming that the navigation application is map navigation and the content is a game, for example, when the vicinity of the Principality of Monaco is displayed, the game screen of the Monaco Grand Prix is automatically switched without allowing the user to select a marker. Also good. Furthermore, in this case, the marker may or may not be displayed on the map.

コンテンツ実行プロセスにおける処理手順を説明する。コンテンツがコンテンツサーバ500によって提供されるから、コンテンツ実行プロセスは、まず、コンテンツに関連づけられたURLからコンテンツをダウンロードする。クライアントコンピュータ200は、画像出力はオフにした状態でダウンロードされたコンテンツを実行状態にする。すなわち、コンテンツが生成する画像をグラフィックスプロセッサ230へ出力しないように制御する。   A processing procedure in the content execution process will be described. Since the content is provided by the content server 500, the content execution process first downloads the content from the URL associated with the content. The client computer 200 puts the downloaded content in the execution state with the image output turned off. That is, control is performed so that an image generated by the content is not output to the graphics processor 230.

次に、クライアントコンピュータ200は、コンテンツ選択用のマーカーにあらかじめ関連付けられている開始位置IDで特定されるエミュレーション信号シーケンスをハードディスク、外部ディスク装置、メモリデバイスなどのストレージから取り出し、この信号シーケンスを実行状態で入力待ちとなっているコンテンツに対して入力する。信号シーケンスがすべて入力し終わった後で、画像出力をオンにする。これによって、コンテンツが特定シーンから実行されるようになる。   Next, the client computer 200 retrieves the emulation signal sequence specified by the start position ID previously associated with the content selection marker from the storage such as a hard disk, an external disk device, or a memory device, and executes this signal sequence. Input for content that is waiting for input. After all signal sequences have been input, turn on image output. As a result, the content is executed from the specific scene.

図10は、クライアントコンピュータ200のディスプレイ300に表示されるナビゲーション空間とマーカーを説明する図である。ここではナビゲーション空間の一例としてナビゲーション地図860が表示されている。このナビゲーション地図860は、ユーザが検索キーワードとして「モナコ公国」を入力し(符号830)、地図検索ボタン832を押したことによって表示されたものである。ユーザはこのナビゲーション地図860に対して、縮尺バー840を操作することで地図の縮尺を変更したり、上下左右の矢印ボタン(840a〜840d)を押すことで地図の表示範囲を変更することができる。   FIG. 10 is a diagram for explaining the navigation space and markers displayed on the display 300 of the client computer 200. Here, a navigation map 860 is displayed as an example of the navigation space. The navigation map 860 is displayed when the user inputs “Principality of Monaco” as a search keyword (reference numeral 830) and presses the map search button 832. For the navigation map 860, the user can change the scale of the map by operating the scale bar 840, or can change the display range of the map by pressing the up / down / left / right arrow buttons (840a to 840d). .

ナビゲーション地図860には2つのマーカー850a、850bが表示されている。第1のマーカー850aは、地理上の位置「モンテカルロ」に設定されており、このマーカー850aは、モンテカルロのカジノのシーンを含む映画コンテンツに対応づけられている。第2のマーカー850bは、モナコ公国の中心位置に設定されており、このマーカー850bは、モナコグランプリのゲームを含むゲームコンテンツに対応づけられている。   Two markers 850a and 850b are displayed on the navigation map 860. The first marker 850a is set at the geographical position “Monte Carlo”, and the marker 850a is associated with movie content including a scene of a Monte Carlo casino. The second marker 850b is set at the central position of the Principality of Monaco, and this marker 850b is associated with game content including the Monaco Grand Prix game.

ユーザが第2のマーカー850bにマウスを合わせると吹き出し852が現れ、このマーカー850bにはモナコグランプリを含むゲームコンテンツが対応していることが示される。また、ナビゲーション地図860の右側には、マーカー一覧870が表示され、各マーカーに対応づけられたコンテンツが表示される。   When the user moves the mouse over the second marker 850b, a balloon 852 appears, indicating that the game content including the Monaco Grand Prix corresponds to the marker 850b. In addition, a marker list 870 is displayed on the right side of the navigation map 860, and content associated with each marker is displayed.

ユーザは、マーカー一覧870においていずれかのマーカーを選択するか、ナビゲーション地図860においていずれかのマーカーをクリックすることでマーカーを特定する。特定されたマーカーに対応するコンテンツに対して、エミュレーション信号シーケンスが入力され、特定シーンに至るまでのユーザの入力操作がエミュレートされ、コンテンツは特定シーンから実行が開始される。たとえば、ユーザが第2のマーカー850bを選択すると、ゲームコンテンツに対して「モナコグランプリ」を設定するためのエミュレート信号シーケンスが入力され、ゲームコンテンツは図6(c)に示す「モナコグランプリ」画面から実行が開始される。   The user specifies a marker by selecting any marker in the marker list 870 or clicking any marker in the navigation map 860. An emulation signal sequence is input to the content corresponding to the specified marker, the user's input operation up to the specific scene is emulated, and execution of the content is started from the specific scene. For example, when the user selects the second marker 850b, an emulation signal sequence for setting the “monaco grand prix” is input to the game content, and the game content is displayed on the “monaco grand prix” screen shown in FIG. Execution starts from

上記では、コンテンツがクライアントコンピュータ200で実行される実施例を説明したが、コンテンツはコンテンツサーバ500で実行されてもよい。   Although the embodiment has been described above in which content is executed by the client computer 200, the content may be executed by the content server 500.

図11は、コンテンツサーバ500でコンテンツが実行される場合におけるコンテンツ表示方法の手順を説明するシーケンス図である。ステップS10からステップS70までは図5の手順と同じである。   FIG. 11 is a sequence diagram for explaining the procedure of the content display method when content is executed by the content server 500. Steps S10 to S70 are the same as those in FIG.

クライアントコンピュータ200は。マーカーで指定されるコンテンツとその開始位置IDを指定して、コンテンツサーバ500上のCGIプログラムを呼び出す(S120)。このとき、クライアントコンピュータ200側のグラフィックスプロセッサ230への出力はオフに設定される。   The client computer 200. The content designated by the marker and its start position ID are designated, and the CGI program on the content server 500 is called (S120). At this time, the output to the graphics processor 230 on the client computer 200 side is set to OFF.

次に、コンテンツサーバ500において、指定されたCGIプログラムの中で指定されたコンテンツの実行プロセスを起動する。コンテンツ実行プロセスは、クライアントコンピュータ200から受信された開始位置IDで特定されるエミュレーション信号シーケンスをハードディスク、外部ディスク装置、メモリデバイスなどのストレージから取り出し、この信号シーケンスを実行状態で入力待ちとなっているコンテンツに対して入力する(S130)。信号シーケンスがすべて入力し終わった後で、コンテンツサーバ500は、クライアントコンピュータ200にコンテンツ再生が可能になったことを通知する信号を送信し、その後、特定シーンからコンテンツを実行する(S140)。コンテンツサーバ500はコンテンツの実行の結果得られる画像データをクライアントコンピュータ200に送信する(S150)。   Next, in the content server 500, the execution process of the content specified in the specified CGI program is started. The content execution process takes out the emulation signal sequence specified by the start position ID received from the client computer 200 from a storage such as a hard disk, an external disk device, or a memory device, and waits for input in the execution state of this signal sequence. The content is input (S130). After all the signal sequences have been input, the content server 500 transmits a signal notifying the client computer 200 that the content can be played back, and then executes the content from the specific scene (S140). The content server 500 transmits image data obtained as a result of the content execution to the client computer 200 (S150).

クライアントコンピュータ200では、コンテンツサーバ500からコンテンツ再生が可能になったことを通知する信号を受信して、グラフィックスプロセッサ230への出力をオンに設定し、コンテンツを表示する(S160)。これにより、コンテンツが特定シーンから実行されるようになる。   The client computer 200 receives a signal notifying that the content can be reproduced from the content server 500, turns on the output to the graphics processor 230, and displays the content (S160). As a result, the content is executed from the specific scene.

以上述べたように、本実施の形態のコンテンツ表示システムによれば、メタ情報をもたない既存のコンテンツであっても、ユーザの入力操作をエミュレートすることにより、マーキング箇所に関連するシーンからコンテンツを開始することができる。   As described above, according to the content display system of the present embodiment, even for existing content that does not have meta information, by emulating the user's input operation, it is possible to Content can be started.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

上記の説明では、ナビゲーション空間の特定の場所に対して、その場所に関連するシーンを含むコンテンツが対応づけられたが、ナビゲーション空間が3次元美術館のような仮想空間の場合は、仮想空間内の特定のオブジェクトをマーキング箇所として、そのオブジェクトに関連するシーンを含むコンテンツが対応づけられてもよい。たとえば、3次元美術館に展示された「モナリザ」の絵に対してモナリザを一シーンに含む映画コンテンツが対応づけられてもよい。   In the above description, content including a scene related to the location is associated with a specific location in the navigation space. However, if the navigation space is a virtual space such as a three-dimensional art museum, Content including a scene related to a specific object may be associated with a specific object as a marking location. For example, movie content including a mona lisa in one scene may be associated with a picture of “mona lisa” displayed in a three-dimensional art museum.

また、コンテンツが配置された仮想空間をユーザが探索する「コンテンツクルーズ」のようなアプリケーションの場合、コンテンツの配置された場所をマーキング箇所としてマーカーを設け、そのコンテンツに関連するシーンを含む別のコンテンツをマーカーに対応づけてもよい。たとえば、写真が展示されている仮想空間において、写真が設置された箇所にマーカーを設定し、写真の人物が登場するシーンを含む映画コンテンツをマーカーに対応づけてもよい。これにより、ユーザが関心をもつコンテンツを起点としてそのコンテンツに関連する別のコンテンツにユーザをナビゲートすることができる。   In addition, in the case of an application such as “content cruise” in which a user searches a virtual space where content is arranged, another content including a scene related to the content is provided by setting a marker as the marking location. May be associated with a marker. For example, in a virtual space where photos are exhibited, a marker may be set at a place where the photo is installed, and movie content including a scene in which a person of the photo appears may be associated with the marker. Thereby, the user can be navigated to another content related to the content from the content that the user is interested in.

また、3次元地図ナビゲーションアプリケーションの場合、地表面から離れた位置をマーキング箇所としてマーカーを設けてもよい。この場合、空中から地上までを含む立方体空間をマーカー検出範囲として定義することで、たとえば、東京上空に来たときに、ゲームの設定条件として羽田空港が選択されたフライトシミュレータが自動的に起動されるように構成することができる。   In the case of a 3D map navigation application, a marker may be provided with a position away from the ground surface as a marking location. In this case, by defining a cubic space including the space from the air to the ground as the marker detection range, for example, when you come over Tokyo, the flight simulator with Haneda Airport selected as the game setting condition is automatically activated. Can be configured.

実施の形態に係るコンテンツ表示システムの構成図である。1 is a configuration diagram of a content display system according to an embodiment. 図1のクライアントコンピュータの構成図である。It is a block diagram of the client computer of FIG. 図1のCPUの実装例として好適なマルチコアプロセッサの構成図である。FIG. 2 is a configuration diagram of a multi-core processor suitable as an implementation example of the CPU of FIG. 実施の形態に係るコンテンツ表示装置の機能構成図である。It is a functional block diagram of the content display apparatus which concerns on embodiment. 実施の形態に係るコンテンツ表示方法の手順を説明するシーケンス図である。It is a sequence diagram explaining the procedure of the content display method which concerns on embodiment. 図6(a)〜(c)は、マーキング箇所に関連した特定のシーンからゲームコンテンツを実行する方法を説明する図である。FIGS. 6A to 6C are diagrams for explaining a method of executing game content from a specific scene related to a marking location. 図7(a)、(b)は、マーキング箇所に関連した特定のシーンからビデオコンテンツを再生する方法を説明する図である。FIGS. 7A and 7B are diagrams illustrating a method for reproducing video content from a specific scene related to a marking location. 図8(a)は、図4のマーカー表示情報を説明する図であり、図8(b)は、図4のエミュレーション信号シーケンスを説明する図である。FIG. 8A is a diagram for explaining the marker display information of FIG. 4, and FIG. 8B is a diagram for explaining the emulation signal sequence of FIG. ナビゲーションアプリケーションの実行開始からコンテンツ実行プロセス起動までの処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a process from the execution start of a navigation application to a content execution process start. クライアントコンピュータのディスプレイに表示されるナビゲーション空間とマーカーを説明する図である。It is a figure explaining the navigation space and marker which are displayed on the display of a client computer. コンテンツサーバでコンテンツが実行される場合におけるコンテンツ表示方法の手順を説明するシーケンス図である。It is a sequence diagram explaining the procedure of the content display method in case a content is performed with a content server.

符号の説明Explanation of symbols

1 ナビゲーション処理部、 20 マーキング処理部、 30 マーカー特定部、 40 エミュレーション実行部、 50 表示制御部、 60 記憶部、 62 ナビゲーションデータ、 64 マーカー表示情報、 66 エミュレーション信号シーケンス、 68 コンテンツデータ、 100 コンテンツ表示装置、 200 クライアントコンピュータ、 400 マルチコアプロセッサ、 410 メインプロセッサ、 420 サブプロセッサ、 500 コンテンツサーバ、 600 地図サーバ、 700 ネットワーク。   DESCRIPTION OF SYMBOLS 1 Navigation processing part, 20 Marking processing part, 30 Marker specific part, 40 Emulation execution part, 50 Display control part, 60 Storage part, 62 Navigation data, 64 Marker display information, 66 Emulation signal sequence, 68 Content data, 100 Content display Apparatus, 200 client computer, 400 multi-core processor, 410 main processor, 420 sub-processor, 500 content server, 600 map server, 700 network.

Claims (14)

ユーザが探索するナビゲーション空間内のマーキング箇所にマーカーを設け、前記マーカー毎にそのマーキング箇所に関連するシーンを含むコンテンツを対応づけるマーキングステップと、
前記ナビゲーション空間内の目的位置までユーザをナビゲートするためのユーザインタフェースを提供するナビゲーションステップと、
前記目的位置から所定の範囲内に存在する前記マーカーを特定するマーカー特定ステップと、
特定された前記マーカーに対応づけられたコンテンツについて、前記マーキング箇所に関連するシーンの表示に至るまでのユーザの入力操作をエミュレートすることにより、前記コンテンツを当該シーンから実行可能な状態にするエミュレーションステップと
ユーザの入力操作のエミュレーションを実行している間は、コンテンツの実行過程を表示せず、エミュレーション処理の実行が終わると、コンテンツの実行結果を表示させるステップとを含むことを特徴とするコンテンツ表示方法。
A marking step in which a marker is provided at a marking location in a navigation space searched by a user, and content including a scene related to the marking location is associated with each marker,
A navigation step for providing a user interface for navigating the user to a target position in the navigation space;
A marker specifying step for specifying the marker existing within a predetermined range from the target position;
Emulation that makes the content executable from the scene by emulating the user's input operation up to the display of the scene related to the marking location for the content associated with the identified marker Steps ,
The content display method includes a step of not displaying a content execution process while executing emulation of a user input operation, and displaying a content execution result when execution of the emulation processing is completed. .
前記ナビゲーション空間は、地理データを含む平面であり、
前記マーキングステップは、地理上の特定位置をマーキング箇所として前記マーカーを設け、その地理上の特定位置に関連するシーンを含むコンテンツを当該マーカーに対応づけることを特徴とする請求項1に記載のコンテンツ表示方法。
The navigation space is a plane containing geographic data;
2. The content according to claim 1, wherein the marking step includes providing the marker with a specific geographical location as a marking location, and associating content including a scene related to the specific geographical location with the marker. Display method.
前記ナビゲーション空間は、地理データを含む3次元空間であり、
前記マーキングステップは、地理上の特定位置をマーキング箇所として前記マーカーを設け、その地理上の特定位置に関連するシーンを含むコンテンツを当該マーカーに対応づけることを特徴とする請求項1に記載のコンテンツ表示方法。
The navigation space is a three-dimensional space including geographic data,
2. The content according to claim 1, wherein the marking step includes providing the marker with a specific geographical location as a marking location, and associating content including a scene related to the specific geographical location with the marker. Display method.
前記マーキングステップは、地表面から離れた特定位置をマーキング箇所として前記マーカーを設けることを特徴とする請求項3に記載のコンテンツ表示方法。   4. The content display method according to claim 3, wherein in the marking step, the marker is provided with a specific position away from the ground surface as a marking location. 前記ナビゲーション空間は、3次元仮想空間であり、
前記マーキングステップは、前記仮想空間内の特定オブジェクトをマーキング箇所として前記マーカーを設け、その特定オブジェクトに関連するシーンを含むコンテンツを当該マーカーに対応づけることを特徴とする請求項1に記載のコンテンツ表示方法。
The navigation space is a three-dimensional virtual space,
The content display according to claim 1, wherein the marking step includes providing the marker with a specific object in the virtual space as a marking location, and associating content including a scene related to the specific object with the marker. Method.
前記ナビゲーションステップは、ユーザが入力する検索キーワードにもとづいて前記目的位置までユーザをナビゲートするためのユーザインタフェースを提供することを特徴とする請求項1に記載のコンテンツ表示方法。   2. The content display method according to claim 1, wherein the navigation step provides a user interface for navigating the user to the target position based on a search keyword input by the user. 前記コンテンツは、プログラムコードを含むデータであり、
前記エミュレーションステップは、前記マーキング箇所に関連するシーンの表示に至るまでのユーザの入力操作をエミュレートして前記プログラムコードの少なくとも一部を実行することにより、当該シーンから前記コンテンツの実行を開始させることを特徴とする請求項1に記載のコンテンツ表示方法。
The content is data including a program code,
The emulation step starts execution of the content from the scene by emulating a user input operation up to display of a scene related to the marking location and executing at least a part of the program code. The content display method according to claim 1, wherein:
前記コンテンツは、プログラムコードを含むゲームコンテンツであり、前記マーキング箇所に関連するシーンは、ゲームの特定の設定条件に対応するシーンであり、
前記エミュレーションステップは、そのゲームの特定の設定条件を入力する操作をエミュレートすることにより、前記コンテンツを当該シーンから実行可能な状態にすることを特徴とする請求項1に記載のコンテンツ表示方法。
The content is game content including a program code, and the scene related to the marking portion is a scene corresponding to a specific setting condition of the game,
The content display method according to claim 1, wherein the emulation step makes the content executable from the scene by emulating an operation of inputting a specific setting condition of the game.
前記コンテンツは、ビデオデータであり、
前記エミュレーションステップは、前記ビデオを再生するために必要なプログラムを起動し、そのプログラムに対して前記マーキング箇所に関連するシーンの表示に至るまでのユーザの入力操作をエミュレートすることにより、前記コンテンツを当該シーンから再生可能な状態にすることを特徴とする請求項1に記載のコンテンツ表示方法。
The content is video data;
The emulation step starts the program necessary for reproducing the video, and emulates the user's input operation up to the display of the scene related to the marking portion with respect to the program. The content display method according to claim 1, wherein the content is made reproducible from the scene.
ユーザが探索するナビゲーション空間内のマーキング箇所にマーカーを設け、前記マーカー毎にそのマーキング箇所に関連するシーンを含むコンテンツを対応づけるマーキング処理部と、
前記ナビゲーション空間内の目的位置までユーザをナビゲートするためのユーザインタフェースを提供するナビゲーション処理部と、
前記目的位置から所定の範囲内に存在する前記マーカーを特定するマーカー特定部と、
特定された前記マーカーに対応づけられたコンテンツについて、前記マーキング箇所に関連するシーンの表示に至るまでのユーザの入力操作をエミュレートすることにより、前記コンテンツを当該シーンから実行可能な状態にするエミュレーション実行部とを含み、
前記エミュレーション実行部は、ユーザの入力操作のエミュレーションを実行している間は、コンテンツの実行過程を表示せず、エミュレーション処理の実行が終わると、コンテンツの実行結果を表示させることを特徴とするコンテンツ表示装置。
A marking processing unit for providing a marker at a marking location in a navigation space searched by a user and associating content including a scene related to the marking location for each marker;
A navigation processing unit for providing a user interface for navigating the user to a target position in the navigation space;
A marker specifying unit for specifying the marker existing within a predetermined range from the target position;
Emulation that makes the content executable from the scene by emulating the user's input operation up to the display of the scene related to the marking location for the content associated with the identified marker and an execution unit seen including,
The emulation execution unit does not display the execution process of the content while executing the emulation of the user input operation, and displays the execution result of the content after the execution of the emulation process is completed. Display device.
前記エミュレーション実行部によるエミュレーションの過程では、前記コンテンツを表示することなく、前記エミュレーションが終わった後、当該シーンから前記コンテンツの表示を開始する表示制御部をさらに含むことを特徴とする請求項10に記載のコンテンツ表示装置。   The emulation process by the emulation execution unit further includes a display control unit that starts displaying the content from the scene after the emulation is completed without displaying the content. The content display device described. ユーザが探索するナビゲーション空間内のマーキング箇所にマーカーを設け、前記マーカー毎にそのマーキング箇所に関連するシーンを含むコンテンツを対応づけるマーキング処理機能と、
前記ナビゲーション空間内の目的位置までユーザをナビゲートするためのユーザインタフェースを提供するナビゲーション処理機能と、
前記目的位置から所定の範囲内に存在する前記マーカーを特定するマーカー特定機能と、
特定された前記マーカーに対応づけられたコンテンツについて、前記マーキング箇所に関連するシーンの表示に至るまでのユーザの入力操作をエミュレートすることにより、前記コンテンツを当該シーンから実行可能な状態にするエミュレーション実行機能とをコンピュータに実現させ
前記エミュレーション実行機能は、ユーザの入力操作のエミュレーションを実行している間は、コンテンツの実行過程を表示せず、エミュレーション処理の実行が終わると、コンテンツの実行結果を表示させることを特徴とするプログラム。
A marking processing function for providing a marker at a marking location in a navigation space searched by a user and associating content including a scene related to the marking location for each marker;
A navigation processing function for providing a user interface for navigating the user to a target position in the navigation space;
A marker specifying function for specifying the marker existing within a predetermined range from the target position;
Emulation that makes the content executable from the scene by emulating the user's input operation up to the display of the scene related to the marking location for the content associated with the identified marker The execution function is realized on the computer ,
The emulation execution function does not display a content execution process while executing emulation of a user's input operation, and displays a content execution result when the emulation processing is finished. .
前記コンピュータは、複数のプロセッサを一つのパッケージに集積したマルチコアプロセッサを含み、
一のプロセッサに少なくとも前記ナビゲーション処理機能を実現させ、別のプロセッサに少なくとも前記エミュレーション実行機能を実現させることを特徴とする請求項12に記載のプログラム。
The computer includes a multi-core processor in which a plurality of processors are integrated in one package,
The program according to claim 12, wherein at least the navigation processing function is realized by one processor, and at least the emulation execution function is realized by another processor.
ユーザが探索する空間内のマーキング箇所にマーカーが設けられ、前記マーカー毎にそのマーキング箇所に関連するシーンを含むコンテンツが対応づけられたナビゲーション空間内の目的位置までユーザをナビゲートするナビゲーション処理機能が実現された第1のプロセッサと、
前記目的位置から所定の範囲内に存在する前記マーカーに対応づけられたコンテンツについて、前記マーキング箇所に関連するシーンの表示に至るまでのユーザの入力操作をエミュレートすることにより、前記コンテンツを当該シーンから実行可能な状態にするエミュレーション実行機能が実現された第2のプロセッサとを含み、
前記エミュレーション実行機能は、ユーザの入力操作のエミュレーションを実行している間は、コンテンツの実行過程を表示せず、エミュレーション処理の実行が終わると、コンテンツの実行結果を表示させることを特徴とするマルチプロセッサシステム。
A navigation processing function for navigating the user to a target position in a navigation space in which a marker is provided at a marking location in a space searched by the user, and content including a scene related to the marking location is associated with each marker. A first processor implemented;
The content associated with the marker existing within a predetermined range from the target position is emulated by the user's input operation until the display of the scene related to the marking location, and the content is then converted to the scene. look including a second processor emulation execution function is realized to an executable state from
The emulation execution function does not display a content execution process while executing emulation of a user's input operation, and displays a content execution result when the emulation processing is completed. Processor system.
JP2006330765A 2006-12-07 2006-12-07 Content display method, content display device, and multiprocessor system Active JP4869894B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006330765A JP4869894B2 (en) 2006-12-07 2006-12-07 Content display method, content display device, and multiprocessor system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006330765A JP4869894B2 (en) 2006-12-07 2006-12-07 Content display method, content display device, and multiprocessor system

Publications (2)

Publication Number Publication Date
JP2008146232A JP2008146232A (en) 2008-06-26
JP4869894B2 true JP4869894B2 (en) 2012-02-08

Family

ID=39606363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006330765A Active JP4869894B2 (en) 2006-12-07 2006-12-07 Content display method, content display device, and multiprocessor system

Country Status (1)

Country Link
JP (1) JP4869894B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5222201B2 (en) * 2009-03-27 2013-06-26 株式会社野村総合研究所 Web content display monitoring system
TW201106251A (en) 2009-04-24 2011-02-16 Ibm Editing apparatus, editing method and program
JP4958122B2 (en) 2009-05-15 2012-06-20 インターナショナル・ビジネス・マシーンズ・コーポレーション Information processing apparatus, execution method, and execution program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991600A (en) * 1995-09-26 1997-04-04 Honda Motor Co Ltd Navigation device for aircraft
JPH1089976A (en) * 1996-09-13 1998-04-10 Hitachi Ltd Information display and navigation system
JP3731781B2 (en) * 1997-07-26 2006-01-05 株式会社ナムコ GAME DEVICE AND STORAGE MEDIUM CONTAINING A PROGRAM RELATED TO THE GAME DEVICE
JP4168837B2 (en) * 2003-06-03 2008-10-22 ソニー株式会社 Information generating apparatus, recording apparatus, reproducing apparatus, recording / reproducing system, method thereof, and program
JP4518388B2 (en) * 2004-10-08 2010-08-04 富士通株式会社 Web page browsing device

Also Published As

Publication number Publication date
JP2008146232A (en) 2008-06-26

Similar Documents

Publication Publication Date Title
US8904297B2 (en) Method and system for providing information in virtual space
US8572178B1 (en) Executing applications in remotely emulated computing devices
US10063996B2 (en) Methods and systems for providing geospatially-aware user-customizable virtual environments
Myer Beginning PhoneGap
JP2019054510A (en) Method and system for processing comment included in moving image
US11580158B2 (en) Methods, systems, and media for associating scenes depicted in media content with a map of where the media content was produced
US10979374B2 (en) Method, system, and non-transitory computer readable record medium for sharing information in chatroom using application added to platform in messenger
KR101895185B1 (en) File access with different file hosts
KR20080086265A (en) System and method for scrolling display screen, mobile terminal including the system and recording medium storing program for performing the method thereof
JP2008542919A (en) Precise grain control of element z-order in display
JP2017073136A (en) Method and system for extending function of message in communication session
CN104424232A (en) Web page annotation method and device
KR20060051956A (en) Content management system, content management method and computer program
US9223870B2 (en) Decoration of search results by third-party content providers
Udell Beginning Google Maps mashups with mapplets, KML, and GeoRSS: from novice to professional
JP4869894B2 (en) Content display method, content display device, and multiprocessor system
JP6078476B2 (en) How to customize the display of descriptive information about media assets
KR101827863B1 (en) System and method for providing multimedia contents
US20200278778A1 (en) Methods, systems, and media for navigating a user interface with a toolbar
KR102244130B1 (en) Method and system for improving user experience in movie search
JP5466593B2 (en) Information processing apparatus and information processing method
US20130254282A1 (en) Propagating user experience state information
JPWO2011021632A1 (en) Information provision system
KR101833386B1 (en) Method and system for providing digital content inserted identifier of user
JP2003060593A (en) Data broadcast receiver and component selecting method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091119

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111116

R150 Certificate of patent or registration of utility model

Ref document number: 4869894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250