JP2003134510A - Image information distribution system - Google Patents

Image information distribution system

Info

Publication number
JP2003134510A
JP2003134510A JP2002232585A JP2002232585A JP2003134510A JP 2003134510 A JP2003134510 A JP 2003134510A JP 2002232585 A JP2002232585 A JP 2002232585A JP 2002232585 A JP2002232585 A JP 2002232585A JP 2003134510 A JP2003134510 A JP 2003134510A
Authority
JP
Japan
Prior art keywords
image
display terminal
image display
character
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002232585A
Other languages
Japanese (ja)
Inventor
Keiichi Kato
圭一 加藤
Hiroyuki Tarumi
垂水浩幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SPACE TAG Inc
Original Assignee
SPACE TAG Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SPACE TAG Inc filed Critical SPACE TAG Inc
Priority to JP2002232585A priority Critical patent/JP2003134510A/en
Publication of JP2003134510A publication Critical patent/JP2003134510A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image display system that displays a virtual character on an image display device worn by a user when the user runs or walks in a real world so as to produce an effect for the user as if the user were running or taking a walk with the character. SOLUTION: A storage means stores the virtual character with position information. An image display terminal is provided with a position acquisition means, and displays the image of the virtual character at a position of the vision of the user so that the virtual characteristic is viewed while being superimposed on a real scene depending on the acquired position.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像表示端末の位置によ
り異なった画像を配信するシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system for delivering different images depending on the position of an image display terminal.

【0002】[0002]

【従来の技術】従来、人が健康のためなどでランニング
を行う場合、単調に走るだけになる傾向があり、健康の
ために効果があることが明らかでも継続が困難であっ
た。人によっては単調さを紛らわすための目的で携帯の
ステレオにより音声を聞きながら走っていた。散歩など
においても同様である。また道案内などにおいても画像
表示端末などにただ単に地図が表示される無味乾燥なも
のであるのが現状である。
2. Description of the Related Art Conventionally, when a person runs for health or the like, he or she tends to only run monotonously, and it has been difficult to continue even if it is clearly effective for health. Some people were running while listening to the sound through a stereo on their mobile phone in order to distract the monotony. The same applies to walks and the like. In addition, the current situation is that the map is simply displayed on an image display terminal or the like even for directions, etc.

【0003】[0003]

【発明が解決しようとする課題】前述のように人がラン
ニングなどをするときに仮想でだれか著名なランナーな
どと一緒に走ったりすればペース配分なども安定し無味
乾燥な状態から楽しむことが可能となる。同様に散歩な
どでも仮想アイドルなどと一緒に歩けたら非常に楽しい
ものとなるはずである。
[Problems to be Solved by the Invention] As described above, when a person runs a virtual run with a famous runner, the pace distribution is stable and enjoyable from a dry taste. It will be possible. Similarly, if you can walk with a virtual idol, it will be a lot of fun.

【0004】どこかに行こうとする場合の道案内などに
おいても大人であったら仮想の俳優やアイドル、子供で
あれば仮想の動物等が案内してくれたら非常に楽しいも
のになるはずである。
Even in directions for going to somewhere, if an adult is a virtual actor or idol, or if a child is a virtual animal, it will be very enjoyable. .

【0005】[0005]

【課題を解決するための手段】前述の課題を解決するた
めに本発明者らは鋭意研究の結果以下の手段をとった。
すなわち、ユーザーの画像表示端末と前述の画像表示端
末に画像を配信するサーバーから構成されるシステムに
おいて、 A:前述の画像表示端末の現在位置を取得する測位手
段、 B:この画像表示端末と前記サーバーとを通信によって
接続する接続手段、 C:前述の測位手段により取得した測位情報をサーバー
に送信する測位情報送信手段、 D:画像を配信するサーバーに設けられた、キャラクタ
ーの画像と特性が蓄積される蓄積手段、 E:前述のサーバーに設けられた、前述の画像表示端末
の測位情報とキャラクターの特性からキャラクターの状
態を演算するキャラクター状態演算手段、 F:前述の演算されたキャラクターの状態と画像をユー
ザーの画像表示端末に送信するキャラクター画像送信手
段、 G:前述のサーバーより送信されたキャラクターの画像
を前述の画像表示端末にキャラクターの状態を含めて表
示する画像状態表示手段、以上の各手段を構成要素とす
るシステムを採用した。
In order to solve the above problems, the inventors of the present invention have made the following measures as a result of earnest research.
That is, in a system composed of a user's image display terminal and a server for delivering an image to the above-mentioned image display terminal, A: positioning means for acquiring the current position of the above-mentioned image display terminal, B: this image display terminal and the above Connection means for connecting to the server by communication, C: Positioning information transmitting means for transmitting the positioning information acquired by the above-mentioned positioning means to the server, D: Character image and characteristics stored in the server for distributing the image Accumulating means, E: a character state calculating means provided in the server for calculating the character state from the positioning information of the image display terminal and the character characteristics, F: the state of the calculated character Character image transmission means for transmitting an image to the user's image display terminal, G: transmitted from the above server The image state display means for displaying the image of the displayed character on the above-mentioned image display terminal including the state of the character, and the system having each of the above means as components are adopted.

【0006】前述の測位手段が、さらに画像表示端末の
方向を取得すると、現在の位置と方向を用いて、現実の
空間に配置したバーチャルなキャラクターの現実感を高
めることができてよい。
When the above-mentioned positioning means further acquires the direction of the image display terminal, it may be possible to enhance the sense of reality of the virtual character arranged in the real space by using the current position and direction.

【0007】前述のキャラクターは人、動物、アニメか
ら選ばれた少なくとも1つのキャラクターであり、ユー
ザーが歩いたり、走ったりする際にゴーグル形状のアイ
ウエアなどユーザーに装着可能な画像表示端末に配信さ
れればよい。アイウエアの場合、そのレンズ部にキャラ
クター画像を表示するとよい。また、アイウエアは装着
したユーザーの視線方向を検知する視線取得手段を備え
るとアイウエアの位置や方向とを総合的に演算してユー
ザーの視点から見える前述のキャラクターをリアルに再
現するレンズ上の位置に画像を表示することができてよ
い。
The above-mentioned character is at least one character selected from humans, animals, and animations, and is distributed to an image display terminal such as goggles-shaped eyewear that can be worn by the user when the user walks or runs. Just do it. In the case of eyewear, it is good to display a character image on the lens part. If the eyewear is equipped with a line-of-sight acquisition unit that detects the direction of the user's line of sight, the position and direction of the eyewear are comprehensively calculated to realistically reproduce the above-mentioned character seen from the user's viewpoint. It may be possible to display an image at the location.

【0008】このとき配信されるキャラクターをユーザ
ーが画像表示端末からユーザーの要望に応じて選択可能
なキャラクター選択手段をもつとユーザーの好みに応じ
てキャラクターを変えることができて便利である。また
キャラクターの特性は、例えばジョギングであれば皇居
1周などのような予め定められた移動するコースと勾配
などコース状況によって変化するキャラクターのスピー
ドであるとか苦悶の顔の表情といった動きのパターンを
示す画像情報であり、登録蓄積しておく。そして前述の
画像表示端末より取得した測位情報に応じて該当画像を
配信すればよい。
At this time, if the user has a character selecting means capable of selecting a character to be distributed from the image display terminal according to the user's request, it is convenient because the character can be changed according to the user's preference. In addition, for example, when jogging, the characteristic of the character is a predetermined moving course such as one lap of the Imperial Palace and the speed of the character that changes depending on the course situation such as a gradient, or a movement pattern such as a face expression in agony. This is image information and is registered and accumulated. Then, the corresponding image may be distributed according to the positioning information acquired from the image display terminal described above.

【0009】また、必要に応じて前述の画像表示端末は
音声再生手段を設けておき前述の特性には音声パターン
も蓄積され画像表示端末の測位情報に応じて該当画像と
同時に該当音声も配信すればよい。
Further, if necessary, the above-mentioned image display terminal is provided with a voice reproducing means, and a voice pattern is also accumulated in the above-mentioned characteristic, and the corresponding voice is delivered simultaneously with the corresponding image according to the positioning information of the image display terminal. Good.

【0010】さらに前述の画像表示端末にはユーザーの
生体情報を取得する生体情報取得手段を設けておき、こ
の生体情報取得手段により取得した情報により画像の動
きのパターンが変化せてもよい。例えばユーザーの心拍
数が上がって来た場合などにキャラクターの顔も苦悶の
表情の画像を表示すればよい。
Further, the above-mentioned image display terminal may be provided with biometric information acquisition means for acquiring biometric information of the user, and the pattern of movement of the image may be changed by the information acquired by this biometric information acquisition means. For example, when the user's heart rate has risen, the face of the character may be displayed in an anguished expression.

【0011】そして前述の生体情報はユーザーの身体に
装着された生体情報検出手段により検出された情報を取
り込み所定の処理をおこなえばよい。この生体情報は体
温、脈拍数、血圧、体重、体脂肪率、行動時間、睡眠時
間、アドレナリン分泌量から選ばれた少なくとも1つで
あればよい。
As the above-mentioned biometric information, the information detected by the biometric information detecting means mounted on the user's body may be fetched and a predetermined process may be performed. This biological information may be at least one selected from body temperature, pulse rate, blood pressure, body weight, body fat percentage, behavior time, sleep time, and adrenaline secretion amount.

【0012】つぎにキャラクターによる道案内について
説明する。ユーザーの画像表示端末とこの画像表示端末
に画像を配信するサーバーから構成され、ユーザーの画
像表示端末よりユーザーの目的地を入力し前記目的地に
案内するシステムにおいて、 A:画像表示端末の現在の位置を取得する測位手段、 B:前述の画像表示端末と画像を配信するサーバーを通
信によって接続する接続手段、 C:前述の測位手段により取得した測位情報をサーバー
に送信する測位情報送信手段、 D:地図情報を蓄積する地図情報蓄積手段、 E:前述のサーバーに設けられた案内ためのキャラクタ
ーの画像を蓄積する画像蓄積手段、 F:前述の画像表示端末の測位情報と前記入力された目
的地とから、この目的地までのコースを探索検索する探
索検索手段、 G:前述の探索検索手段により検索されたコースを案内
するのにマッチしたキャラクターの画像を前述の画像表
示端末に送信するキャラクター画像送信手段、 H:前述のサーバーより送信されたキャラクターの画像
を前述の画像表示端末に画像表示する画像表示手段、の
各手段を構成要素とするシステムを採用した。
Next, the route guidance by the character will be described. A system comprising a user's image display terminal and a server for delivering an image to this image display terminal, which inputs the user's destination from the user's image display terminal and guides the user to the destination, A: current of the image display terminal Positioning means for acquiring the position, B: Connection means for connecting the above-mentioned image display terminal and the server for distributing the image by communication, C: Positioning information transmitting means for transmitting the positioning information acquired by the above-mentioned positioning means to the server, D : Map information storage means for storing map information, E: Image storage means for storing character images for guidance provided on the server, F: Positioning information of the image display terminal and the input destination From this, a search search means for searching and searching for a course up to this destination, G: To guide the course searched by the search search means described above. Each means of character image transmitting means for transmitting the image of the matched character to the image display terminal, H: image display means for displaying the image of the character transmitted from the server on the image display terminal, is configured. A system of elements was adopted.

【0013】前述の測位手段が、さらに画像表示端末の
方向を取得すると、現在の位置と方向を用いて、現実の
空間に配置したバーチャルなキャラクターの現実感を高
めることができてよい。
When the above-mentioned positioning means further acquires the direction of the image display terminal, it may be possible to enhance the realism of the virtual character arranged in the real space by using the current position and direction.

【0014】前述のキャラクターは人、動物、アニメか
ら選ばれた少なくとも1つのキャラクターであればよ
い。またこのキャラクターはユーザーが画像表示端末か
らユーザーの要望に応じて選択可能なキャラクター選択
手段を設けておけばよい。こうすることによってユーザ
ーは好みのキャラクター例えば子供なら動物、大人なら
アイドルなどに道案内をしてもらうことが可能となる。
The above-mentioned character may be at least one character selected from people, animals, and animation. Further, this character may be provided with a character selection means that allows the user to select from the image display terminal according to the user's request. By doing so, the user can get a desired character such as an animal for a child or an idol for an adult to be guided.

【0015】ユーザーが歩いたり、走ったりする際にゴ
ーグル形状のアイウエアなどユーザーに装着可能な画像
表示端末に配信されればよい。アイウエアの場合、その
レンズ部にキャラクター画像を表示するとよい。また、
アイウエアは装着したユーザーの視線方向を検知する視
線取得手段を備えるとアイウエアの位置や方向とを総合
的に演算してユーザーの視点から見える前述のキャラク
ターをリアルに再現するようなレンズ上の位置に画像を
表示することができてよい。
When the user walks or runs, it may be delivered to an image display terminal that can be worn by the user, such as goggles-shaped eyewear. In the case of eyewear, it is good to display a character image on the lens part. Also,
If the eyewear is equipped with a line-of-sight acquisition unit that detects the direction of the wearer's line of sight, the position and direction of the eyewear are comprehensively calculated to reproduce the above-mentioned character seen from the user's point of view on the lens. It may be possible to display an image at the location.

【0016】また、必要に応じて前述の画像表示端末は
音声再生手段を設けておき前述の特性には音声パターン
も蓄積され画像表示端末の測位情報に応じて該当画像と
同時に該当音声も配信すればよい。
Further, if necessary, the above-mentioned image display terminal is provided with a voice reproducing means, and a voice pattern is also accumulated in the above-mentioned characteristic, and the corresponding voice is delivered simultaneously with the corresponding image according to the positioning information of the image display terminal. Good.

【0017】[0017]

【発明の実施の形態】DETAILED DESCRIPTION OF THE INVENTION

【実施例1】以下、実際の例を基にさらに詳しく説明し
ていく。図1は第1の実施例の全体概要である。101
は画像配信サーバーのあるサイトであり、102はデー
タベース群であり、それぞれにはキャラクター毎の画像
と特性等が格納されている。データベースに格納された
データの例を図2に示した。103は画像表示端末であ
り、104は画像表示端末と101の画像を配信するサ
ーバーと無線で接続するための端末基地局である。
[First Embodiment] A more detailed description will be given below based on an actual example. FIG. 1 is a general outline of the first embodiment. 101
Is a site with an image distribution server, and 102 is a database group, in which images and characteristics of each character are stored. An example of the data stored in the database is shown in FIG. Reference numeral 103 is an image display terminal, and 104 is a terminal base station for wirelessly connecting to the image display terminal and a server for distributing the image of 101.

【0018】図3は画像表示端末のブロック図であり、
測位手段、視線検知手段、画像処理手段、サイトアクセ
ス手段、無線通信回線接続手段、画像表示手段、音声再
生手段から構成される。ゴーグル形状の画像表示端末を
採用した。ユーザーはこのゴーグル形状画像表示端末を
装着してランニングをする。
FIG. 3 is a block diagram of the image display terminal.
It comprises a positioning means, a line-of-sight detection means, an image processing means, a site access means, a wireless communication line connection means, an image display means, and a sound reproduction means. A goggle-shaped image display terminal was adopted. The user wears the goggle-shaped image display terminal and runs.

【0019】測位手段には、画像表示端末の位置を取得
するGPSユニットと画像表示端末の方向を取得する姿
勢検出ユニットが備えられる。GPSユニットは、画像
表示端末103に装着したGPSアンテナが受信した複
数のGPS衛星からの信号を解析することで、緯度、経
度で表される位置情報を生成する。姿勢検出ユニットに
は、地磁気センサーを採用し、東西南北の絶対値を検出
する。
The positioning means is provided with a GPS unit for acquiring the position of the image display terminal and an attitude detection unit for acquiring the direction of the image display terminal. The GPS unit generates position information represented by latitude and longitude by analyzing signals from a plurality of GPS satellites received by a GPS antenna mounted on the image display terminal 103. The attitude detection unit employs a geomagnetic sensor to detect absolute values in north, south, east, and west.

【0020】視線検知手段は、右眼、左眼の動きを測定
する眼球運動測定ユニットと、眼球運動演算ユニットか
ら求めた両眼の動きより人の視線の3次元方向を算出す
る視線算出ユニットとから構成される。
The line-of-sight detecting means includes an eye-movement measuring unit for measuring the movements of the right and left eyes, and a line-of-sight calculating unit for calculating the three-dimensional direction of the human's line of sight from the movements of both eyes obtained from the eye-movement calculating unit. Composed of.

【0021】図4はゴーグル形状の画像表示端末の外観
図である。サイトアクセス手段と無線通信回線接続手段
を構成する通信ユニット401、画像処理ユニット40
2、画像表示するレンズ403R、403L、眼球運動
測定ユニット404R、404L、視線算出ユニット4
05、GPSユニット406、姿勢検出ユニット40
7、音声再生ユニット408R、408Lという構成で
ある。
FIG. 4 is an external view of a goggle-shaped image display terminal. A communication unit 401 and an image processing unit 40 which constitute a site access unit and a wireless communication line connection unit.
2. Lenses 403R and 403L for displaying images, eye movement measuring units 404R and 404L, line-of-sight calculation unit 4
05, GPS unit 406, attitude detection unit 40
7. The audio reproduction units 408R and 408L.

【0022】図5は、キャラクター画像をユーザーの視
野の適切な位置に見えるように表示する動作を説明する
フローチャートである。設定入力ステップ501でサー
ビスの開始時におけるキャラクターやコースの選択や途
中終了などの設定入力をおこなう。次に測位ステップ5
02で、画像表示端末の位置や向いている方向を前述の
GPSユニット406と姿勢検出ユニット407の出力
から取得する。終了判断ステップ503では測位情報や
設定入力情報から継続か終了かの判断を行う。継続の場
合、視線検出ステップ504において、CCDなどのセ
ンサーからなる眼球運動測定ユニット404が捕らえた
情報を視線算出ユニットで解析し、ユーザーの眼が向い
ている視線を取得する。画像取得ステップ505におい
て、取得した測位情報に応じたキャラクター画像を取得
する。画面生成ステップ506において、取得したキャ
ラクター画像を測位情報と視線にマッチした画面を生成
する。画面表示ステップ507ではゴーグルのレンズ部
にキャラクター画像を投影する。次に測位ステップ50
2に戻り、同様にステップを所定のサイクルで繰り返
し、ユーザーにリアルなキャラクター画像を供給する。
FIG. 5 is a flow chart for explaining the operation of displaying a character image so that it can be seen at an appropriate position in the visual field of the user. In a setting input step 501, setting input such as selection of a character and a course at the start of the service and halfway end is performed. Next, positioning step 5
In 02, the position and the direction in which the image display terminal is facing are acquired from the outputs of the GPS unit 406 and the attitude detection unit 407 described above. In the end judgment step 503, it is judged from the positioning information and the setting input information whether to continue or to end. In the case of continuing, in the line-of-sight detection step 504, the line-of-sight calculation unit analyzes the information captured by the eye movement measuring unit 404 including a sensor such as a CCD to obtain the line of sight to which the user's eyes are facing. In the image acquisition step 505, a character image corresponding to the acquired positioning information is acquired. In the screen generation step 506, a screen in which the acquired character image matches the positioning information and the line of sight is generated. In the screen display step 507, a character image is projected on the lens part of the goggles. Next, positioning step 50
Returning to step 2, the steps are similarly repeated in a predetermined cycle to supply the user with a realistic character image.

【0023】ランニングする場合、ユーザーは設定入力
ステップ501において、各種項目を選択する必要があ
る。ユーザーの選択する画面の様子を図6から図9に示
した。まず図6の目的選択画面においては、「散歩」、
「ジョギング」、「短距離走」、「長距離走」、「マラ
ソン」からユーザーは選択すればよい。ここではユーザ
ーはマラソンを選択したので図7の画面に遷移し、一緒
に走りたい人(「高石尚子」、「シュリィ・エドワー
ド」、「瀬戸信俊」、「・・」、「・・」等)の選択を
促される。ここでは高石尚子を選択したので図8の画面
に遷移するが、ここでキャラクター高石尚子の走行スピ
ードをユーザーに合わせて設定することができる。ここ
では、その能力(スピード 「100%」、「90
%」、「80%」、「70%」、「60%」、「50
%」・・)を選択する。次に図9に遷移しコースを選択
する。ここでは画像表示端末の位置取得手段により取得
した現在地から近いコースを表示し(「皇居1周」、
「離宮1周」、「○×周回」・・)その中から選択を促
している。
When running, the user needs to select various items in the setting input step 501. The states of the screens selected by the user are shown in FIGS. 6 to 9. First, in the purpose selection screen of FIG. 6, "walk",
The user may select from "jogging", "sprinting", "long-distance running", and "marathon". Here, the user has selected the marathon, so the screen transitions to the screen shown in Fig. 7 and the person who wants to run together ("Naoko Takaishi", "Shury Edward", "Nobutoshi Seto", "..." Will be prompted to choose. Since Naoko Takaishi is selected here, the screen transitions to the screen of FIG. 8, but the running speed of the character Naoko Takaishi can be set here according to the user. Here, the ability (speed "100%", "90
% "," 80% "," 70% "," 60% "," 50 "
% ”...)). Next, transition to FIG. 9 and select a course. Here, the course close to the current position acquired by the position acquisition means of the image display terminal is displayed (“1 round of Imperial Palace”,
"1 lap of the palace", "○ x circle" ...

【0024】ここで選択したコースと画像表示端末の測
位手段により取得した測位情報によりゴーグルタイプの
画像表示端末のレンズ部に高石尚子の画像を表示する。
その様子を図10に示した。図11はユーザーとバーチ
ャル高石尚子との位置関係を模式的に示した図であり、
図12はゴーグル形状画像表示端末とバーチャル高石尚
子を模式的に示した図である。
An image of Naoko Takaishi is displayed on the lens portion of the goggle type image display terminal based on the selected course and the positioning information acquired by the positioning means of the image display terminal.
The situation is shown in FIG. FIG. 11 is a diagram schematically showing the positional relationship between the user and virtual Naoko Takaishi.
FIG. 12 is a diagram schematically showing a goggle-shaped image display terminal and virtual Naoko Takaishi.

【0025】この時バーチャル高石尚子の息などの音声
等も再生してもよい。さらにユーザーに脈拍などの生体
情報を検出する検出手段などを付けておけばユーザーの
体力状態によってバーチャル画像、音声等を変化させて
もよい。
At this time, the voice of the virtual breath of Naoko Takaishi or the like may be reproduced. Further, if the user is provided with a detecting means for detecting biological information such as a pulse, the virtual image, voice, etc. may be changed according to the physical condition of the user.

【0026】図13は、生体情報検出手段を装着したユ
ーザーの外観図である。ユーザーは生体情報検出手段1
301と画像処理装置1302を身体に装着し、ゴーグ
ル形状の画像表示端末1303を顔に装着している。図
14はユーザーが装着する生体情報検出手段の構成を示
すブロック図であり、体温検知手段、脈拍検知手段、血
圧検知手段、生体情報処理手段、情報蓄積手段、通信手
段という構成である。画像表示端末と通信により生体情
報や処理結果を伝達し、キャラクター画像に反映させ
る。例えば、脈拍が140を超えるとキャラクターが音
声で「少しペースを落としてください」と話しかけた
り、手を下に向けるポーズの画像を表示するといったこ
とである。
FIG. 13 is an external view of a user wearing the biological information detecting means. User is biometric information detection means 1
301 and the image processing device 1302 are attached to the body, and the goggle-shaped image display terminal 1303 is attached to the face. FIG. 14 is a block diagram showing the configuration of the biometric information detection means worn by the user, which has a configuration including a body temperature detection means, a pulse detection means, a blood pressure detection means, a biometric information processing means, an information storage means, and a communication means. Biometric information and processing results are transmitted by communication with the image display terminal and reflected in the character image. For example, when the pulse exceeds 140, the character speaks “Please slow down a little” or displays an image of a pose in which the hand is turned downward.

【0027】[0027]

【実施例2】次に道案内をキャラクターがしてくれる第
2の実施例を説明する。図15がその全体の概要であ
る。ここで1501は画像配信サーバーのあるサイトで
あり1502はデータベース群である。ここでは地図情
報、キャラクター情報(画像、音声等を含む)が格納さ
れている。データベースの例は図16に示した。150
3は画像表示端末であり1504は画像表示端末と15
01の画像を配信するサーバーと無線で接続するための
端末基地局である。
[Embodiment 2] Next, a second embodiment in which a character guides directions will be described. FIG. 15 is an outline of the whole. Here, 1501 is a site having an image distribution server, and 1502 is a database group. Here, map information and character information (including images, sounds, etc.) are stored. An example of the database is shown in FIG. 150
3 is an image display terminal, and 1504 is an image display terminal and 15
This is a terminal base station for wirelessly connecting to a server that distributes the image 01.

【0028】図17は画像表示端末のブロック図であり
測位手段、画像処理手段、サイトアクセス手段、無線通
信回線接続手段、画像表示手段、音声再生手段を有する
ゴーグル形状の画像表示端末である。ユーザーはこのゴ
ーグル形状画像表示端末をつけてその中に表示されるキ
ャラクターに道案内をしてもらう。
FIG. 17 is a block diagram of an image display terminal, which is a goggle-shaped image display terminal having a positioning means, an image processing means, a site access means, a wireless communication line connecting means, an image display means, and a sound reproducing means. The user attaches this goggle-shaped image display terminal and asks the character displayed therein to guide the driver.

【0029】測位手段には、画像表示端末の位置を取得
するGPSユニットと画像表示端末の方向を取得する姿
勢検出ユニットが備えられる。GPSユニットは、画像
表示端末1503に装着したGPSアンテナが受信した
複数のGPS衛星からの信号を解析することで、緯度、
経度で表される位置情報を生成する。姿勢検出ユニット
には、地磁気センサーを採用し、東西南北の絶対値を検
出する。
The positioning means is provided with a GPS unit for acquiring the position of the image display terminal and an attitude detection unit for acquiring the direction of the image display terminal. The GPS unit analyzes the signals from the plurality of GPS satellites received by the GPS antenna attached to the image display terminal 1503, thereby obtaining the latitude,
Generates location information represented by longitude. The attitude detection unit employs a geomagnetic sensor to detect absolute values in north, south, east, and west.

【0030】図18はゴーグル形状の画像表示端末の外
観図である。サイトアクセス手段と無線通信回線接続手
段を構成する通信ユニット1801、画像処理ユニット
1802、画像表示するレンズ1803R、1803
L、眼球運動測定ユニット1804R、1804L、視
線算出ユニット1805、GPSユニット1806、姿
勢検出ユニット1807、音声再生ユニット1808
R、1808Lという構成である。
FIG. 18 is an external view of a goggle-shaped image display terminal. A communication unit 1801, an image processing unit 1802, and lenses 1803R and 1803 for displaying an image, which form a site access unit and a wireless communication line connection unit
L, eye movement measurement units 1804R and 1804L, line-of-sight calculation unit 1805, GPS unit 1806, posture detection unit 1807, sound reproduction unit 1808.
The configuration is R, 1808L.

【0031】図19は、キャラクター画像をユーザーの
視野の適切な位置に見えるように表示する動作を説明す
るフローチャートである。設定入力ステップ1901で
サービスの開始時におけるキャラクターの選択や目的地
の入力などの設定入力をおこなう。次に測位ステップ1
902で、画像表示端末の位置や向いている方向を取得
する。経路探索ステップ1903では測位情報や設定入
力情報から目的地までのコース探索検索を行う。画像取
得ステップ1904において、取得した測位情報に応じ
たキャラクター画像を取得する。画面生成ステップ19
05において、取得したキャラクター画像を測位情報に
マッチした画面を生成する。画面表示ステップ1906
ではゴーグルのレンズ部にキャラクター画像を投影表示
する。次に測位ステップ1902に戻り、同様にステッ
プを所定のサイクルで繰り返し、ユーザーにリアルなキ
ャラクター画像を供給する。
FIG. 19 is a flow chart for explaining the operation of displaying a character image so that it can be seen at an appropriate position in the visual field of the user. In a setting input step 1901, setting input such as character selection and destination input at the start of service is performed. Next, positioning step 1
At 902, the position and the facing direction of the image display terminal are acquired. In the route search step 1903, a course search search from the positioning information or the setting input information to the destination is performed. In image acquisition step 1904, a character image corresponding to the acquired positioning information is acquired. Screen generation step 19
In 05, a screen in which the acquired character image matches the positioning information is generated. Screen display step 1906
Then, the character image is projected and displayed on the lens part of the goggles. Next, returning to the positioning step 1902, the steps are similarly repeated in a predetermined cycle to supply a realistic character image to the user.

【0032】ユーザーは設定入力ステップにおいて、各
種項目を入力、選択する必要があるがユーザーの入力、
選択する画面を図20から図22に示した。まず図19
に示すようにユーザーは画像表示端末から目的地の入力
を行う。ここで目的地××と入力し、送信ボタンを押す
と図20の画面に遷移する。ここでは目的地××と確認
後案内してくれるキャラクターのジャンルを選択する。
ここでは動物を選択すると図21の画面に遷移する。図
21の画面で犬を選ぶと図22の画面に遷移し、ここで
自分を案内してくれる犬が表示されるのでこの中から案
内してくれる犬を選択すればよい。
In the setting input step, the user needs to input and select various items.
The screens to be selected are shown in FIGS. 20 to 22. First, FIG.
As shown in, the user inputs the destination from the image display terminal. If the destination is entered as XX and the send button is pressed, the screen changes to the screen shown in FIG. Here, select the destination XX and the genre of the character who will guide you after confirmation.
If an animal is selected here, the screen changes to the screen shown in FIG. When a dog is selected on the screen of FIG. 21, the screen transitions to the screen of FIG. 22, and the dog guiding the user is displayed here. Therefore, the dog guiding the user can be selected from the dogs.

【0033】バーチャル犬がゴーグルタイプの画像表示
端末に表示されている様子を図23に示した。図24は
ユーザーと案内してくれるバーチャル犬との位置関係を
模式的に示した図である。この時バーチャル犬が「ここ
右だよワンワン」などといったの音声を再生してもよ
い。画像と音声でユーザーを目的地に案内していく。
FIG. 23 shows how the virtual dog is displayed on the goggle type image display terminal. FIG. 24 is a diagram schematically showing the positional relationship between the user and the virtual dog that guides the user. At this time, the virtual dog may play a voice such as "here right, one, one, one". Guide users to their destinations with images and sounds.

【0034】[0034]

【発明の効果】以上述べたよう本発明によればユーザー
は1人単独で走ったり、散策したりする場合に仮想のキ
ャラクターと一緒に走ったり、散策できたりする。また
どこかへ行く場合にでも自分の好みのキャラクターに連
れていってもらうことが可能となる。
As described above, according to the present invention, a user can run or walk with a virtual character when he or she runs or walks alone. In addition, even if you go somewhere, you will be able to take you to your favorite character.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の実施例の概要図FIG. 1 is a schematic diagram of a first embodiment.

【図2】画像表示端末のブロック図FIG. 2 is a block diagram of an image display terminal.

【図3】データベース例[Figure 3] Database example

【図4】ゴーグル形状の画像表示端末の外観図FIG. 4 is an external view of a goggle-shaped image display terminal.

【図5】キャラクター画像を表示する動作のフローチャ
ート
[Fig. 5] Flowchart of operation for displaying a character image

【図6】目的選択画面[Figure 6] Objective selection screen

【図7】走りたい人選択画面[Figure 7] Selection screen for people who want to run

【図8】スピード選択画面[Figure 8] Speed selection screen

【図9】コース選択画面[Figure 9] Course selection screen

【図10】高石尚子の画像Fig. 10 Image of Naoko Takaishi

【図11】位置関係を模式的に示した図FIG. 11 is a diagram schematically showing a positional relationship.

【図12】画像表示端末とバーチャル高石尚子を模式的
に示した図
FIG. 12 is a diagram schematically showing an image display terminal and virtual Naoko Takaishi.

【図13】生体情報検出手段を装着したユーザーの外観
FIG. 13 is an external view of a user wearing biometric information detection means.

【図14】生体情報検出手段の構成FIG. 14: Configuration of biometric information detection means

【図15】実施例2の全体概要FIG. 15: Overall outline of Example 2

【図16】データベースの例FIG. 16: Example of database

【図17】画像表示端末のブロック図FIG. 17 is a block diagram of an image display terminal.

【図18】ゴーグル形状の画像表示端末の外観図FIG. 18 is an external view of a goggle-shaped image display terminal.

【図19】キャラクター画像を表示する動作のフローチ
ャート
FIG. 19 is a flowchart of an operation for displaying a character image.

【図20】目的地の入力画面[Figure 20] Destination input screen

【図21】ジャンル選択画面[FIG. 21] Genre selection screen

【図22】動物の選択画面FIG. 22: Animal selection screen

【図23】選択画面[FIG. 23] Selection screen

【図24】画像表示端末に表示されているバーチャル犬FIG. 24 is a virtual dog displayed on the image display terminal.

【図25】バーチャル犬との位置関係を模式的に示した
FIG. 25 is a diagram schematically showing a positional relationship with a virtual dog.

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】ユーザーの画像表示端末と前記画像表示端
末に画像を配信するサーバーから構成されるシステムに
おいて、 A:前記画像表示端末の現在の位置を取得する測位手
段、 B:前記画像表示端末と前記サーバーとを通信によって
接続する接続手段、 C:前記測位手段により取得した測位情報をサーバーに
送信する測位情報送信手段、 D:前記サーバーに設けられた、キャラクターの画像と
特性が蓄積される蓄積手段、 E:前記サーバーに設けられた、前記画像表示端末の位
置情報と前記キャラクターの特性から前記キャラクター
の状態を演算するキャラクター状態演算手段、 F:前記演算されたキャラクターの状態と画像を前記画
像表示端末に送信するキャラクター画像送信手段、 G:前記サーバーより送信されたキャラクターの画像を
前記画像表示端末にキャラクターの状態を含めて表示す
る画像状態表示手段、の各手段を構成要素とすることを
特徴とする画像情報配信システム。
1. A system comprising a user's image display terminal and a server for delivering an image to the image display terminal, A: positioning means for acquiring the current position of the image display terminal, B: the image display terminal Connection means for connecting the server and the server by communication, C: positioning information transmission means for transmitting the positioning information acquired by the positioning means to the server, D: the image and characteristics of the character provided in the server are accumulated Accumulating means, E: a character state calculating means provided in the server for calculating the state of the character from the position information of the image display terminal and the characteristics of the character, F: the state of the calculated character and the image Character image transmitting means for transmitting to the image display terminal, G: of the character transmitted from the server An image information distribution system characterized in that each unit of an image state display unit for displaying an image including the state of a character on the image display terminal is a constituent element.
【請求項2】前記測位手段は、さらに前記画像表示端末
の方向を取得することを特徴とする特許請求範囲第1項
記載の画像情報配信システム。
2. The image information distribution system according to claim 1, wherein the positioning means further acquires the direction of the image display terminal.
【請求項3】前記キャラクターは人、動物、アニメから
選ばれた少なくとも1つのキャラクターであることを特
徴とする特許請求範囲第1項記載の画像情報配信システ
ム。
3. The image information distribution system according to claim 1, wherein the character is at least one character selected from a person, an animal, and an animation.
【請求項4】前記キャラクターはユーザーが画像表示端
末からユーザーの要望に応じて選択可能なキャラクター
選択手段を有していることを特徴とする特許請求範囲第
1項記載の画像情報配信システム。
4. The image information distribution system according to claim 1, wherein the character has a character selection unit that the user can select from the image display terminal according to the user's request.
【請求項5】前記ユーザーの画像表示端末は、前記ユー
ザーが移動する際に、該ユーザーに装着可能な画像表示
端末であることを特徴とする特許請求範囲第1項記載の
画像情報配信システム。
5. The image information distribution system according to claim 1, wherein the image display terminal of the user is an image display terminal that can be worn by the user when the user moves.
【請求項6】前記ユーザーの画像表示端末はアイウエア
であり、前記アイウエアのレンズ部に前記画像を投影す
ることを特徴とする特許請求範囲第5項記載の画像情報
配信システム。
6. The image information distribution system according to claim 5, wherein the image display terminal of the user is eyewear, and the image is projected on a lens portion of the eyewear.
【請求項7】前記アイウエアは装着したユーザーの視線
方向を検知する視線取得手段を備え、検知された視線を
参照して決まる前記レンズ部の位置に前記画像を表示す
ることを特徴とする特許請求範囲第6項記載の画像情報
配信システム。
7. The eyewear includes line-of-sight acquisition means for detecting a line-of-sight direction of a user who wears the eyewear, and displays the image at a position of the lens unit determined by referring to the detected line-of-sight. The image information distribution system according to claim 6.
【請求項8】前記キャラクターの特性は、予め定められ
た移動するコースと該コース対応するキャラクター画像
の動きのパターンであり、前記画像表示端末に測位情報
に応じて該当画像を配信することを特徴とする特許請求
範囲第1項記載の画像情報配信システム。
8. The characteristic of the character is a predetermined moving course and a movement pattern of a character image corresponding to the course, and the corresponding image is distributed to the image display terminal according to positioning information. The image information distribution system according to claim 1.
【請求項9】前記画像表示端末は音声再生手段を有し、
前記特性には音声パターンも含まれ、該当画像と同時に
該当音声も配信されることことを特徴とする特許請求範
囲第1項記載の画像情報配信システム。
9. The image display terminal has a voice reproducing means,
The image information distribution system according to claim 1, wherein the characteristic includes a sound pattern, and the sound is distributed at the same time as the corresponding image.
【請求項10】前記画像表示端末にはユーザーの生体情
報を取得する生体情報取得手段を有し、前記生体情報取
得手段により取得した情報により画像の動きのパターン
が変化することを特徴とする特許請求範囲第1項記載の
画像情報配信システム。
10. The image display terminal has biometric information acquisition means for acquiring biometric information of a user, and the pattern of movement of an image changes according to the information acquired by the biometric information acquisition means. The image information distribution system according to claim 1.
【請求項11】前記生体情報はユーザーの身体に装着さ
れた生体情報検出手段により検出された情報を取り込み
所定の処理をおこなったことを特徴とする特許請求範囲
第10項記載の画像情報配信システム。
11. The image information distribution system according to claim 10, wherein the biometric information is obtained by taking in the information detected by the biometric information detection means mounted on the user's body. .
【請求項12】前記生体情報は体温、脈拍数、血圧、体
重、体脂肪率、行動時間、睡眠時間、アドレナリン分泌
量から選ばれた少なくとも1つであることを特徴とする
特許請求範囲第10項記載の画像情報配信システム。
12. The biological information is at least one selected from a body temperature, a pulse rate, a blood pressure, a body weight, a body fat percentage, a working time, a sleeping time and an adrenaline secretion amount. Image information distribution system described in the section.
【請求項13】ユーザーの画像表示端末と前記画像表示
端末に画像を配信するサーバーから構成され、ユーザー
の画像表示端末より入力された目的地に前記画像によっ
て案内するシステムにおいて、 A:前記画像表示端末の現在の位置を取得する測位手
段、 B:前記画像表示端末と前記画像を配信するサーバーを
通信によって接続する接続手段、 C:前記測位手段により取得した測位情報をサーバーに
送信する測位情報送信手段、 D:地図情報を蓄積する地図情報蓄積手段、 E:前記サーバーに設けられた案内ためのキャラクター
の画像を蓄積する画像蓄積手段、 F:前記画像表示端末の測位情報と前記入力された目的
地とから、この目的地までのコースを探索検索する探索
検索手段、 G:前記探索検索手段により検索されたコースを案内す
るのにマッチした前記キャラクターの画像を前記画像表
示端末に送信するキャラクター画像送信手段 H:前記サーバーより送信されたキャラクターの画像を
前記画像表示端末に画像表示する画像表示手段、の各手
段を構成要素とすることを特徴とする画像情報配信シス
テム。
13. A system comprising a user's image display terminal and a server for delivering the image to the image display terminal, wherein the image is guided to a destination input from the user's image display terminal, A: the image display Positioning means for acquiring the current position of the terminal, B: Connection means for connecting the image display terminal and the server for distributing the image by communication, C: Positioning information transmission for transmitting the positioning information acquired by the positioning means to the server Means, D: Map information accumulating means for accumulating map information, E: Image accumulating means for accumulating images of characters for guidance provided in the server, F: Positioning information of the image display terminal and the input purpose Search and search means for searching and searching for a course from the ground to this destination, G: Proposed course searched by the search and search means Character image transmitting means H for transmitting the image of the character that matches the content to the image display terminal: image display means for displaying the image of the character transmitted from the server on the image display terminal. An image information distribution system characterized by being a component.
【請求項14】前記測位手段は、さらに前記画像表示端
末の方向を取得することを特徴とする特許請求範囲第1
3項記載の画像情報配信システム。
14. The positioning device further acquires the direction of the image display terminal.
The image information distribution system described in item 3.
【請求項15】前記キャラクターは人、動物、アニメか
ら選ばれた少なくとも1つのキャラクターであることを
特徴とする特許請求範囲第13項記載の画像情報配信シ
ステム。
15. The image information distribution system according to claim 13, wherein the character is at least one character selected from a person, an animal, and an animation.
【請求項16】前記キャラクターは、前記画像表示端末
からの要望の入力によって動作するキャラクター選択手
段よって選択されることを特徴とする特許請求範囲第1
3項記載の画像情報配信システム。
16. The character selection unit according to claim 1, wherein the character is selected by a character selection unit that operates in response to an input of a request from the image display terminal.
The image information distribution system described in item 3.
【請求項17】前記ユーザーの画像表示端末は、前記ユ
ーザーが移動する際に、該ユーザーに装着可能な画像表
示端末であることを特徴とする特許請求範囲第13項記
載の画像情報配信システム。
17. The image information distribution system according to claim 13, wherein the image display terminal of the user is an image display terminal that can be worn by the user when the user moves.
【請求項18】前記ユーザーの画像表示端末はアイウエ
アであり、前記アイウエアのレンズ部に前記画像を投影
することを特徴とする特許請求範囲第17項記載の画像
情報配信システム。
18. The image information distribution system according to claim 17, wherein the image display terminal of the user is eyewear, and the image is projected on a lens portion of the eyewear.
【請求項19】前記アイウエアは装着したユーザーの視
線方向を検知する視線取得手段を備え、検知された視線
を参照して決まる前記レンズ部の位置に前記画像を表示
することを特徴とする特許請求範囲第18項記載の画像
情報配信システム。
19. The eyewear includes line-of-sight acquisition means for detecting a line-of-sight direction of a user who wears the eyewear, and displays the image at a position of the lens unit determined by referring to the detected line-of-sight. The image information distribution system according to claim 18.
【請求項20】前記画像表示端末は音声再生手段を有
し、前記画像には音声パターンも付加されており、前記
測位情報に応じて該当画像と同時に該当音声も配信され
ることことを特徴とする特許請求範囲第13項記載の画
像情報配信システム。
20. The image display terminal has a voice reproducing means, a voice pattern is added to the image, and the voice is delivered simultaneously with the image in accordance with the positioning information. The image information distribution system according to claim 13.
JP2002232585A 2001-08-16 2002-08-09 Image information distribution system Pending JP2003134510A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002232585A JP2003134510A (en) 2001-08-16 2002-08-09 Image information distribution system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001-247114 2001-08-16
JP2001247114 2001-08-16
JP2002232585A JP2003134510A (en) 2001-08-16 2002-08-09 Image information distribution system

Publications (1)

Publication Number Publication Date
JP2003134510A true JP2003134510A (en) 2003-05-09

Family

ID=26620585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002232585A Pending JP2003134510A (en) 2001-08-16 2002-08-09 Image information distribution system

Country Status (1)

Country Link
JP (1) JP2003134510A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067277A (en) * 2009-09-24 2011-04-07 Brother Industries Ltd Head mounted display
JP2012063253A (en) * 2010-09-16 2012-03-29 Olympus Corp Image generation system, program, and information storage medium
JP2012079036A (en) * 2010-09-30 2012-04-19 Dainippon Printing Co Ltd Server device and content information provision program
JP2013167941A (en) * 2012-02-14 2013-08-29 Sony Corp Display control device, display control method, and program
JP2014006690A (en) * 2012-06-25 2014-01-16 Dainippon Printing Co Ltd Character growth server, character growth method, character growth program, character growth system, method for character growth system, and portable terminal
JP2014054303A (en) * 2012-09-11 2014-03-27 Casio Comput Co Ltd Exercise support device, exercise support method, and exercise support program
WO2015033446A1 (en) * 2013-09-06 2015-03-12 株式会社フューチャースコープ Running assistance system and head mount display device used in same
WO2015068587A1 (en) * 2013-11-05 2015-05-14 ソニー株式会社 Information processing device, method of processing information, and program
CN105070204A (en) * 2015-07-24 2015-11-18 江苏天晟永创电子科技有限公司 Miniature AMOLED optical display
WO2017094306A1 (en) * 2015-12-01 2017-06-08 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2017151917A (en) * 2016-02-26 2017-08-31 株式会社セガゲームス Program and eye wear
WO2017212999A1 (en) * 2016-06-06 2017-12-14 シャープ株式会社 Video generation device, video generation method, and video generation program
CN114534230A (en) * 2022-02-22 2022-05-27 成都趣跑团科技有限公司 Virtual running accompanying system and virtual running accompanying method

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067277A (en) * 2009-09-24 2011-04-07 Brother Industries Ltd Head mounted display
JP2012063253A (en) * 2010-09-16 2012-03-29 Olympus Corp Image generation system, program, and information storage medium
JP2012079036A (en) * 2010-09-30 2012-04-19 Dainippon Printing Co Ltd Server device and content information provision program
US9569898B2 (en) 2012-02-14 2017-02-14 Sony Corporation Wearable display system that displays a guide for a user performing a workout
JP2013167941A (en) * 2012-02-14 2013-08-29 Sony Corp Display control device, display control method, and program
US9235933B2 (en) 2012-02-14 2016-01-12 Sony Corporation Wearable display system that displays previous runners as virtual objects on a current runner's path
JP2014006690A (en) * 2012-06-25 2014-01-16 Dainippon Printing Co Ltd Character growth server, character growth method, character growth program, character growth system, method for character growth system, and portable terminal
JP2014054303A (en) * 2012-09-11 2014-03-27 Casio Comput Co Ltd Exercise support device, exercise support method, and exercise support program
WO2015033446A1 (en) * 2013-09-06 2015-03-12 株式会社フューチャースコープ Running assistance system and head mount display device used in same
JPWO2015033446A1 (en) * 2013-09-06 2017-03-02 株式会社フューチャースコープ Running support system and head mounted display device used therefor
JPWO2015068587A1 (en) * 2013-11-05 2017-03-09 ソニー株式会社 Information processing apparatus, information processing method, and program
US10599382B2 (en) 2013-11-05 2020-03-24 Sony Corporation Information processing device and information processing method for indicating a position outside a display region
CN105745602A (en) * 2013-11-05 2016-07-06 索尼公司 Information processing device, method of processing information, and program
US11068227B2 (en) 2013-11-05 2021-07-20 Sony Corporation Information processing device and information processing method for indicating a position outside a display region
WO2015068587A1 (en) * 2013-11-05 2015-05-14 ソニー株式会社 Information processing device, method of processing information, and program
CN105745602B (en) * 2013-11-05 2020-07-14 索尼公司 Information processing apparatus, information processing method, and program
US20160239252A1 (en) * 2013-11-05 2016-08-18 Sony Corporation Information processing device, information processing method, and program
US20190250875A1 (en) * 2013-11-05 2019-08-15 Sony Corporation Information processing device and information processing method
US10303421B2 (en) 2013-11-05 2019-05-28 Sony Corporation Display control device and display control method for indicating a position outside a display region
US9851936B2 (en) 2013-11-05 2017-12-26 Sony Corporation Information processing to indicate a position outside a display region
RU2678481C2 (en) * 2013-11-05 2019-01-29 Сони Корпорейшн Information processing device, information processing method and program
CN105070204A (en) * 2015-07-24 2015-11-18 江苏天晟永创电子科技有限公司 Miniature AMOLED optical display
WO2017094306A1 (en) * 2015-12-01 2017-06-08 ソニー株式会社 Information processing apparatus, information processing method, and program
US11017431B2 (en) 2015-12-01 2021-05-25 Sony Corporation Information processing apparatus and information processing method
WO2017145552A1 (en) * 2016-02-26 2017-08-31 株式会社セガゲームス Program and eye wear
JP2017151917A (en) * 2016-02-26 2017-08-31 株式会社セガゲームス Program and eye wear
WO2017212999A1 (en) * 2016-06-06 2017-12-14 シャープ株式会社 Video generation device, video generation method, and video generation program
CN114534230A (en) * 2022-02-22 2022-05-27 成都趣跑团科技有限公司 Virtual running accompanying system and virtual running accompanying method

Similar Documents

Publication Publication Date Title
AU2021258005B2 (en) System and method for augmented and virtual reality
AU2023200357B2 (en) System and method for augmented and virtual reality
US20220278864A1 (en) Information processing system, information processing device, information processing method, and recording medium
JP6673346B2 (en) Information processing apparatus, information processing method, and program
CN105797349A (en) Live-action running device, method and system
JP2003134510A (en) Image information distribution system
KR20210056312A (en) Virtual Exercise Device and Virtual Exercise System
WO2018092486A1 (en) Information processing device, method and program
KR20220014254A (en) Method of providing traveling virtual reality contents in vehicle such as a bus and a system thereof
WO2015033446A1 (en) Running assistance system and head mount display device used in same
US20240013256A1 (en) Information providing apparatus, information providing system, information providing method, and non-transitory computer readable medium
WO2023032264A1 (en) Information processing device, information processing method, and program
US20220373348A1 (en) Systems And Methods For Presenting Map And Changing Direction Based On Pointing Direction
KR20230127037A (en) Method of implementing an avatar adaptive a user status, computer program and computing device