JP2002245490A - Device and method for image reproduction - Google Patents

Device and method for image reproduction

Info

Publication number
JP2002245490A
JP2002245490A JP2001040233A JP2001040233A JP2002245490A JP 2002245490 A JP2002245490 A JP 2002245490A JP 2001040233 A JP2001040233 A JP 2001040233A JP 2001040233 A JP2001040233 A JP 2001040233A JP 2002245490 A JP2002245490 A JP 2002245490A
Authority
JP
Japan
Prior art keywords
image
viewer
walking
data storage
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001040233A
Other languages
Japanese (ja)
Inventor
Kiyoaki Takiguchi
清昭 滝口
Takaaki Nakamura
隆昭 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001040233A priority Critical patent/JP2002245490A/en
Publication of JP2002245490A publication Critical patent/JP2002245490A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image reproducing device which enables an appreciator to securely grasp a movable area and to provide an image reproducing device or the like which enables the appreciator oneself to freely move in a virtual space without feeling that something is wrong. SOLUTION: At a reproduced image display part 33 of the image reproducing device, an area where an image can be reproduced is clearly shown and when the user tries to exit from the area, a caution is displayed. A position detecting device 36 which detects the position of the appreciator putting on the reproduced image display part 33 detects the appreciator's walking and estimates the movement quantity of the appreciator through the detection. At this time, the position detecting device 36 gathers components of low frequency bands conducted in the body during the walk through a microphone and detects the walk from the sound.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば複眼撮影し
た画像等を再生するときに用いることのできる画像再生
装置、画像再生方法に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image reproducing apparatus and an image reproducing method which can be used for reproducing, for example, an image taken by a compound eye.

【0002】[0002]

【従来の技術】近年、ビデオ撮影技術と画像合成等の再
生技術等の発達により、複数台のビデオカメラを用い、
一点から複数方向の画像(映像)の撮影を行なうパノラ
マ撮影や、複数方向から一点を撮影し、再生時に被写体
周囲をビデオカメラが3次元的に動くかのような再生が
可能となっている。このようないわゆる複眼撮影技術を
用い、特定のエリア内で一点から複数方向の撮影を行な
いながら移動すれば、撮影した画像(データ)を基に前
記特定エリアのバーチャル空間を生成することができ
る。そして、このバーチャル空間の画像データを用いれ
ば、コンピュータゲームやアミューズメントマシン、ア
トラクション等において、画像によって映し出される特
定エリア内を鑑賞者が移動するかのような、いわゆるバ
ーチャル体験を提供することもできる。
2. Description of the Related Art In recent years, with the development of video shooting technology and reproduction technology such as image synthesis, a plurality of video cameras have been used.
It is possible to perform panoramic photography in which images (videos) are photographed in a plurality of directions from one point, and reproduction as if a video camera moves three-dimensionally around a subject during reproduction by photographing one point from a plurality of directions. By using such a so-called compound-eye imaging technique and moving while performing imaging in a plurality of directions from one point in a specific area, a virtual space of the specific area can be generated based on the captured image (data). Then, by using the image data of the virtual space, it is possible to provide a so-called virtual experience as if a viewer moves in a specific area shown by an image in a computer game, an amusement machine, an attraction or the like.

【0003】例えばコンピュータゲームやアミューズメ
ントマシンの場合、鑑賞者がジョイスティックやコント
ローラ等を操作することによって、バーチャル空間内に
おける鑑賞者の位置を自由に移動させることができる。
そして、コントローラ等の操作情報に基づいて決まる鑑
賞者の(バーチャル空間内における)位置を視点とした
画像が、モニタに表示される。鑑賞者は、ジョイスティ
ックやコントローラを任意に操作してバーチャル空間内
を自由に移動しながら、表示される画像を見ることによ
り、あたかも実際にその空間を移動しているかのような
体験をすることができるのである。また、他の手法とし
て、例えばグラストロン(ソニー株式会社製の商品名)
等のヘッドマウント型ディスプレイを鑑賞者が装着し、
鑑賞者が実際に移動しながら、その位置に応じた画像を
ヘッドマウント型ディスプレイに表示させることも考え
られる。
For example, in the case of a computer game or an amusement machine, the viewer can freely move the viewer's position in the virtual space by operating a joystick or a controller.
Then, an image from the viewpoint of the position of the viewer (in the virtual space) determined based on the operation information of the controller or the like is displayed on the monitor. The viewer can freely operate the joystick and controller in the virtual space and watch the displayed image to experience as if they were actually moving in that space. You can. As another method, for example, Glasstron (trade name of Sony Corporation)
The viewer wears a head mounted display such as
It is also conceivable that an image corresponding to the position is displayed on the head-mounted display while the viewer actually moves.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記の
ような従来の技術には、以下に示すような問題が存在す
る。まず、コンピュータゲームやアミューズメントマシ
ンにおいて鑑賞者がジョイスティックやコントローラ等
を操作する場合、鑑賞者はジョイスティックやコントロ
ーラを任意に操作して、バーチャル空間内を自由に移動
することができるわけであるが、基本的には、撮影され
た画像のデータを保持している規定エリア内でしか、画
像を表示することができない。このため、鑑賞者がジョ
イスティックやコントローラで、規定エリア外に出よう
とした場合には、操作を続けても表示される画像が止ま
ったままになったり、スタート地点に戻ったりするよう
になっている。しかしながら、鑑賞者にとっては、画像
が止まったりスタート地点に戻ったりするまで、規定エ
リア外に出たことが判らないという問題がある。この問
題は、ヘッドマウント型ディスプレイを用い、鑑賞者が
実際に移動する場合も共通する。すなわち、鑑賞者が規
定エリア外に出た場合、上記と同様に表示される画像が
止まったりスタート地点に戻ったりするまで、鑑賞者に
とっては規定エリア外に出たことが判らない。しかもこ
の場合、鑑賞者自身が実際に移動しているため、移動を
中止しなければ鑑賞者は画像と実際の移動感覚との間に
ずれを感じ、違和感を覚えるという問題もある。加え
て、このような鑑賞者が実際に移動する形態では、例え
ば体育館のような空間内で鑑賞者が実際に移動しながら
バーチャル体験を行なうことも考えられる。このような
場合、特に画像のデータを保持している規定エリアより
も実際の(体育館の)空間が狭いと、規定エリア内にも
かかわらず、鑑賞者が体育館の壁にぶつかってしまうよ
うなこともあり得る。
However, the above-described conventional techniques have the following problems. First, when a viewer operates a joystick or controller in a computer game or an amusement machine, the viewer can freely move in a virtual space by operating the joystick or controller as desired. Specifically, an image can be displayed only in a specified area that holds data of a captured image. For this reason, if the viewer tries to go out of the specified area with the joystick or controller, the displayed image will remain stopped or return to the start point even if the operation is continued. I have. However, there is a problem that the viewer does not know that he has gone out of the prescribed area until the image stops or returns to the start point. This problem is also common when a viewer actually moves using a head-mounted display. That is, when the viewer goes out of the prescribed area, the viewer does not know that he has gone out of the prescribed area until the displayed image stops or returns to the start point in the same manner as described above. Moreover, in this case, since the viewer is actually moving, there is a problem that if the movement is not stopped, the viewer feels a gap between the image and the actual movement sensation, and feels strange. In addition, in such a form in which the viewer actually moves, it is conceivable that the viewer actually performs a virtual experience while moving in a space such as a gymnasium. In such a case, especially when the actual (gymnasium) space is smaller than the specified area holding the image data, the viewer may hit the wall of the gymnasium even within the specified area. It is possible.

【0005】また、コンピュータゲームやアミューズメ
ントマシンでは、ジョイスティックやコントローラの操
作に応じて得られる情報から、バーチャル空間内におけ
る鑑賞者の位置を正確に把握することができる。これに
対し、ヘッドマウント型ディスプレイを用い、鑑賞者が
実際に移動する場合は、バーチャル空間内における鑑賞
者の位置を定位するには、鑑賞者の移動、より詳しく
は、鑑賞者の位置と向きを正確に検出する必要がある。
鑑賞者の位置の検出には、屋外であればGPS(Global
Positioning System:全地球測位システム)等を用いる
ことも考えられるが、GPS衛星からの電波を受信でき
ない屋内であればこれは不可能である。このため、例え
ば床面に感圧センサ等を設けることによって鑑賞者の位
置を検出するしかなく、これではコストが非常に高くな
るため、多くの場合現実的ではない。この他、カーナビ
ゲーション装置に用いられている自律航法機構のように
加速度センサを利用することも考えられるが、鑑賞者が
乗り物に乗って移動するような場合で、ある程度以上の
加速度が生じるのであればまだしも、徒歩で移動する場
合には加速度を精度良く検出するのは困難である。一
方、鑑賞者の向きの検出は、ジャイロセンサ等を用いれ
ば比較的容易に実行することができる。このため、従来
の方法では、鑑賞者が実際に移動するような形態では、
鑑賞者が乗り物に乗って移動するような一定の条件を満
たす場合でもない限り、鑑賞者の移動を検出するのは困
難であり、それ以外の場合は、鑑賞者が頭の向きを変え
る程度しか検出することができなかったと言わざるを得
ないのが現状である。
In a computer game or an amusement machine, the position of a viewer in a virtual space can be accurately grasped from information obtained by operating a joystick or a controller. On the other hand, when the viewer actually moves using the head-mounted display, the position of the viewer in the virtual space is determined by moving the viewer, more specifically, the position and orientation of the viewer. Must be detected accurately.
To detect the viewer's position, GPS (Global
It is possible to use a positioning system (global positioning system) or the like, but this is not possible in indoors where radio waves from GPS satellites cannot be received. For this reason, for example, the position of the viewer can only be detected by providing a pressure-sensitive sensor or the like on the floor surface. This is extremely costly and is not practical in many cases. In addition, it is conceivable to use an acceleration sensor like an autonomous navigation mechanism used in a car navigation device. However, in a case where the viewer moves on a vehicle, a certain degree of acceleration is generated. Even if the user moves on foot, it is difficult to accurately detect the acceleration. On the other hand, the direction of the viewer can be detected relatively easily by using a gyro sensor or the like. Therefore, in the conventional method, in a form in which the viewer actually moves,
It is difficult to detect the viewer's movement unless it meets certain conditions, such as when the viewer moves on a vehicle. Otherwise, it is only possible for the viewer to turn his head. At present, it has to be said that it could not be detected.

【0006】本発明は、このような技術的課題に基づい
てなされたもので、鑑賞者にとって移動可能エリアの把
握を確実に行なうことのできる画像再生装置を提供する
ことを主たる目的とする。また、他の目的は、鑑賞者の
移動を確実に検出し、鑑賞者自身が違和感無く自由にバ
ーチャル空間を移動することのできる画像再生装置、画
像再生方法を提供することにある。
[0006] The present invention has been made based on such a technical problem, and it is a main object of the present invention to provide an image reproducing apparatus capable of surely grasping a movable area for a viewer. Another object of the present invention is to provide an image reproducing apparatus and an image reproducing method that can reliably detect the movement of a viewer and allow the viewer to freely move in a virtual space without feeling uncomfortable.

【0007】[0007]

【課題を解決するための手段】かかる目的のもと、本発
明の画像再生装置は、画像の鑑賞者が、データ格納手段
に格納された画像データに基づく画像を表示する表示手
段を頭部等にセットし、鑑賞者の移動に応じて画像を表
示する。例えば、所定のエリア内の複数箇所のそれぞれ
で、一つの撮影位置から複数方向の撮影を行ない、パノ
ラマ画像のような複眼画像の画像データをデータ格納手
段に格納しておく。そして、位置検出手段で検出された
鑑賞者の位置に基づき、データ格納手段に画像データが
格納された画像の中から画像を選択し、選択された画像
を表示手段に表示させるのである。このようにして、鑑
賞者の位置の移動や向きの変更に応じ、表示手段に表示
する画像を順次切り換えるのである。もちろん、複眼画
像ではなく、一つの撮影位置から一方向のみの撮影を行
なって得た画像を再生する場合にも本発明が適用でき
る。そして、位置検出手段で検出された位置が、データ
格納手段に画像データが格納された画像の撮影視点(撮
影時の視点)によって決まる所定の範囲から外れるとき
には、鑑賞者に対してコーションを出力する。例えば、
撮影時の視点からでは、被写体の裏側に撮影できない部
分が存在することがあり、当然のことながら、再生時に
鑑賞者が被写体の裏側を見ようとしても、画像データが
存在しないために、表示手段にその部分の画像を表示す
ることはできない。また、撮影時には所定のエリア内を
くまなく撮影することができるとは限らず、再生時に
は、鑑賞者の位置(再生時の視点の位置)に応じて、画
像の拡大または縮小処理や、複数の画像の合成処理等を
行なうこともある。このような処理を行なう場合であっ
ても、処理後の画像を鑑賞者に違和感を感じさせずに表
示するには、撮影時の視点で得られた画像に対する再生
時の視点の位置(の範囲)を制限する必要がある。この
ような場合に、画像の撮影視点を基準として所定の範囲
を決め、再生時の鑑賞者の位置がこの所定の範囲から外
れるとき(外れることが予測される時点を含む)に、鑑
賞者にコーションを出力するのである。鑑賞者は、この
コーションを受けることにより、所定の範囲から外れる
のを回避することができる。なお、出力するコーション
としては、表示手段にマークやメッセージ等を表示して
も良いし、この他にも、音声によるメッセージや振動等
が考えられる。ところで、位置検出手段としては、鑑賞
者にセットされた歩行検出装置により当該鑑賞者の歩行
を検出し、検出された歩数、歩行ピッチ、歩幅等の歩行
の情報を基に鑑賞者の移動量を検出することもできる。
With this object in mind, in an image reproducing apparatus according to the present invention, a viewer of an image is provided with a display means for displaying an image based on image data stored in a data storage means, such as a head. And displays an image according to the movement of the viewer. For example, at each of a plurality of locations in a predetermined area, shooting is performed in a plurality of directions from one shooting position, and image data of a compound eye image such as a panoramic image is stored in the data storage unit. Then, based on the position of the viewer detected by the position detection means, an image is selected from the images in which the image data is stored in the data storage means, and the selected image is displayed on the display means. In this way, the images displayed on the display means are sequentially switched in accordance with the movement of the viewer's position and the change in the direction. Of course, the present invention can also be applied to a case where an image obtained by performing shooting in one direction from one shooting position, instead of a compound-eye image, is reproduced. Then, when the position detected by the position detecting means deviates from a predetermined range determined by a photographing viewpoint (viewing point at the time of photographing) of the image in which the image data is stored in the data storing means, a caution is output to the viewer. . For example,
From the viewpoint at the time of shooting, there may be a part that cannot be photographed behind the subject, and naturally, even if the viewer tries to look at the back side of the subject during playback, there is no image data, so the display means The image of that part cannot be displayed. In addition, it is not always possible to take an entire image in a predetermined area at the time of shooting. At the time of playback, an image is enlarged or reduced according to the position of the viewer (the position of the viewpoint at the time of playback). In some cases, image synthesis processing or the like is performed. Even in the case of performing such processing, in order to display the processed image without causing the viewer to feel uncomfortable, the position (range of the viewpoint at the time of reproduction with respect to the image obtained at the viewpoint at the time of shooting) ) Must be restricted. In such a case, a predetermined range is determined based on the image capturing viewpoint, and when the position of the viewer during reproduction deviates from the predetermined range (including a time point at which it is predicted to deviate), the viewer is notified of the position. It outputs caution. By receiving this caution, the viewer can avoid deviating from a predetermined range. As the output caution, a mark, a message, or the like may be displayed on the display means, and in addition, a voice message, vibration, or the like may be used. By the way, as the position detecting means, the walking of the viewer is detected by a walking detecting device set for the viewer, and the moving amount of the viewer is determined based on the detected number of steps, walking pitch, walking information such as the stride. It can also be detected.

【0008】本発明の画像再生装置は、データ格納手段
に格納された画像データに基づいて表示手段での画像の
表示が可能なエリアを表示させることを特徴とすること
ができる。なお、この画像再生装置は、鑑賞者が表示手
段を装着して移動しながら画像を見る場合だけでなく、
例えばコンピュータゲームやアミューズメントマシン等
において、鑑賞者がジョイスティックやコントローラを
操作することにより、表示される画像によって形成され
るバーチャル空間内を移動する体験をする場合にも適用
できる。特に、ジョイスティックやコントローラを用い
る場合、鑑賞者が実際に移動するわけではないため、画
像を表示するために必要な鑑賞者の位置情報としては、
鑑賞者の位置ではなく、鑑賞者の視点の位置となる。
The image reproducing apparatus according to the present invention is characterized in that an area in which an image can be displayed on the display means is displayed based on the image data stored in the data storage means. Note that this image reproducing device is not only used when the viewer wears the display means and looks at the image while moving,
For example, in a computer game, an amusement machine, or the like, the present invention can also be applied to a case where a viewer operates a joystick or a controller to have an experience of moving in a virtual space formed by displayed images. In particular, when a joystick or a controller is used, the viewer does not actually move, so the position information of the viewer required to display an image includes:
It is not the position of the viewer but the position of the viewpoint of the viewer.

【0009】また、本発明の画像再生装置は、鑑賞者の
歩行移動量を検出することによって鑑賞者の位置を検出
し、検出された位置に基づいて選択した画像を表示させ
ることを特徴としても良い。ここで、位置検出手段は、
マイクロフォンで鑑賞者が歩行するときに発する振動を
採集し、所定の周波数以下に対応した信号の変化を解析
して鑑賞者の歩行を検出し、鑑賞者の歩行移動量を検出
するようにしても良い。
[0009] The image reproducing apparatus of the present invention may also be characterized in that the position of the viewer is detected by detecting the amount of walking movement of the viewer, and an image selected based on the detected position is displayed. good. Here, the position detecting means
Vibration generated when the viewer walks with a microphone is collected, and a change in a signal corresponding to a predetermined frequency or less is analyzed to detect the walker of the viewer, and to detect the walking movement amount of the viewer. good.

【0010】本発明は、画像のビューワを装着した鑑賞
者の位置を検出し、検出された鑑賞者の位置に基づいて
選択した画像をビューワに表示させ、選択された画像が
存在しないときには鑑賞者に対してコーションを出力す
る画像再生方法として捉えることもできる。また、鑑賞
者の歩行時に当該鑑賞者の体を伝わる振動のうち、10
0Hz以下の周波数帯域の成分を検出し、検出された成
分を解析して鑑賞者の歩行を検出し、鑑賞者の歩行移動
量を推定し、この歩行移動量を基に鑑賞者の位置を検出
するようにしてもよい。
The present invention detects the position of a viewer wearing an image viewer, displays the selected image on the viewer based on the detected position of the viewer, and displays the selected image when there is no selected image. Can be regarded as an image reproducing method of outputting a caution for the image. In addition, among vibrations transmitted through the body of the viewer when the viewer walks, 10
A component in a frequency band of 0 Hz or less is detected, the detected component is analyzed, a walk of the viewer is detected, a walk distance of the viewer is estimated, and a position of the viewer is detected based on the walk distance. You may make it.

【0011】[0011]

【発明の実施の形態】以下、添付図面に示す実施の形態
に基づいてこの発明を詳細に説明する。図1は、本実施
の形態における画像再生システムで再生する画像を撮影
するための、複眼画像撮影システムの構成を説明するた
めの図である。この図1に示すように、複眼画像撮影シ
ステムは、複眼での画像撮影を行なう撮像部10と、撮
像部10での撮像時に撮影位置や撮影方向等の動態デー
タを検出する動態検出部11と、撮像部10で撮影した
画像データと動態検出部11で検出した動態データを関
連付けて格納する画像データストレージ12と、全体を
制御する制御装置13とを備えている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below in detail based on an embodiment shown in the accompanying drawings. FIG. 1 is a diagram for describing a configuration of a compound-eye image capturing system for capturing an image to be reproduced by the image reproducing system according to the present embodiment. As shown in FIG. 1, the compound-eye image capturing system includes an image capturing unit 10 that captures an image with a compound eye, a dynamic detecting unit 11 that detects dynamic data such as a capturing position and a capturing direction when capturing an image with the image capturing unit 10. An image data storage 12 for storing image data captured by the imaging unit 10 and dynamic data detected by the dynamic detection unit 11 in association with each other, and a control device 13 for controlling the whole.

【0012】撮像部10は、複数のカメラ15を備えて
おり、各カメラ15は、CCD(Charge Coupled Devic
e:電荷結合素子)等の撮像素子を有し、撮影した画像を
デジタル信号として出力する。なお、このカメラ15
は、いわゆるビデオカメラ等と同様、微小な所定時間毎
に画像を撮影する。図2に示すものは、このような撮像
部10の具体的な一例を示すものであり、例えば撮影者
の頭部にセットするヘルメット状のベース16と、ベー
ス16に取り付けられた複数のカメラ15と、撮像対象
を決めるためのビューファインダー17とを備えてい
る。ここで、カメラ15は、5台が備えられており、ベ
ース16を撮影者の頭部にセットした状態で、撮影者の
前方・後方・左方・右方と上方の計5方向を同時に撮影
できるよう取り付けられている。なお、この図2に示し
た撮像部10はあくまでも一例であり、カメラ15の台
数、撮影方向等はこれに限定されるものではない。また
このような撮像部10を撮影者の頭部にセットするので
はなく、移動可能な台車上等にセットしても良い。ま
た、図1に示したように、動態検出部11は、撮影者の
位置、すなわち撮影位置を検出するため、GPS18、
加速度センサ19、地磁気センサ20を備え、また撮影
者の向いている方向、つまり撮影方向を検出するため、
ジャイロセンサ21を備えている。この動態検出部11
は、図2において図示はしていないものの、ベース16
の所定位置に取り付けられている。
The image pickup section 10 has a plurality of cameras 15, each of which is a CCD (Charge Coupled Device).
e: charge-coupled device) and outputs a captured image as a digital signal. Note that this camera 15
Captures an image every minute predetermined time similarly to a so-called video camera or the like. FIG. 2 shows a specific example of such an imaging unit 10, for example, a helmet-shaped base 16 set on the head of a photographer, and a plurality of cameras 15 attached to the base 16. And a viewfinder 17 for determining an imaging target. Here, five cameras 15 are provided, and in a state in which the base 16 is set on the head of the photographer, a total of five directions of the front, rear, left, and right of the photographer and upward are photographed simultaneously. It is attached so that it can be done. Note that the imaging unit 10 shown in FIG. 2 is merely an example, and the number of cameras 15, the shooting direction, and the like are not limited thereto. Instead of setting the imaging unit 10 on the head of the photographer, the imaging unit 10 may be set on a movable cart or the like. Further, as shown in FIG. 1, the movement detection unit 11 detects the position of the photographer, that is, the GPS 18,
It has an acceleration sensor 19 and a terrestrial magnetism sensor 20, and also detects the direction of the photographer, that is, the photographing direction,
A gyro sensor 21 is provided. This dynamic detector 11
Although not shown in FIG. 2, the base 16
At a predetermined position.

【0013】このような構成の複眼画像撮影システムで
撮影を行なうと、撮像部10の各カメラ15で撮影した
画像のデータは、動態検出部11で得た撮影位置および
撮影方向の動態データに関連付けられて、画像データス
トレージ12に格納される。
When photographing is performed by the compound-eye image photographing system having such a configuration, data of an image photographed by each camera 15 of the photographing unit 10 is associated with photographing position and photographing direction movement data obtained by the movement detecting unit 11. And stored in the image data storage 12.

【0014】図3は、上記のような複眼画像撮影システ
ムで撮影した画像を再生する複眼画像再生システム(画
像再生装置)の構成を示す図である。この図3に示すよ
うに、複眼画像再生システムは、図1に示した画像デー
タストレージ12から転送された画像データを格納する
画像データストレージ(データ格納手段)31と、全体
の動作を司り、特に画像データストレージ31に格納さ
れた画像データの出力処理および出力した画像データの
合成処理等を行なう制御装置(制御手段、コーション出
力手段)32と、画像データストレージ31から出力さ
れた画像データに基づく画像を再生表示する再生画像表
示部(表示手段)33とを備えている。
FIG. 3 is a diagram showing a configuration of a compound-eye image reproducing system (image reproducing apparatus) for reproducing an image photographed by the compound-eye image photographing system as described above. As shown in FIG. 3, the compound-eye image reproduction system controls the entire operation of an image data storage (data storage unit) 31 for storing image data transferred from the image data storage 12 shown in FIG. A control device (control means, caution output means) 32 for performing an output process of the image data stored in the image data storage 31 and a synthesizing process of the output image data, and an image based on the image data output from the image data storage 31 And a reproduced image display unit (display means) 33 for reproducing and displaying.

【0015】ここで、図4に示すように、再生画像表示
部33には、鑑賞者の頭部にセットして使用されるヘッ
ドマウント型ディスプレイ(ビューワ)34が用いられ
る。このヘッドマウント型ディスプレイ34には、例え
ばグラストロン(ソニー株式会社製の商品名)等が好適
であり、再生画像表示部33の表示素子に、例えば液晶
が用いられる。また、この複眼画像再生システムには、
鑑賞者の位置や向き等の動態データを検出するための動
態検出部35が備えられている。この動態検出部35
は、ヘッドマウント型ディスプレイ34と一体に設けら
れ、鑑賞者の位置を検出する位置検出装置(位置検出手
段、視点位置検出手段、歩行検出装置)36と、鑑賞者
の向きを検出するジャイロセンサ37と、鑑賞者の向き
に基づいて視線の方向を検出する視線センサ38等を備
えている。ここで、位置検出装置36には、図1に示し
た複眼画像撮影システムと同様、加速度センサや地磁気
センサを用いても良いが、本実施の形態では、鑑賞者の
歩行を検出し、その歩数から鑑賞者の移動量を検出する
ことによって位置を検出する。
Here, as shown in FIG. 4, a head-mounted display (viewer) 34 used by being set on the viewer's head is used for the reproduced image display section 33. For example, glasstron (trade name, manufactured by Sony Corporation) or the like is suitable for the head-mounted display 34, and a liquid crystal is used for the display element of the reproduced image display unit 33, for example. In addition, this compound eye image reproduction system includes:
A movement detection unit 35 for detecting movement data such as the position and orientation of the viewer is provided. This dynamic detection unit 35
A position detecting device (position detecting means, viewpoint position detecting means, walking detecting device) 36 which is provided integrally with the head mounted display 34 and detects the position of the viewer, and a gyro sensor 37 which detects the direction of the viewer. And a line-of-sight sensor 38 for detecting the direction of the line of sight based on the direction of the viewer. Here, an acceleration sensor or a terrestrial magnetism sensor may be used as the position detection device 36 in the same manner as in the compound-eye image capturing system shown in FIG. 1, but in the present embodiment, the walking of the viewer is detected and the number of steps , The position is detected by detecting the moving amount of the viewer.

【0016】図5は、本実施の形態における位置検出装
置36の基本的な構成を説明するための図である。この
図5に示すように、位置検出装置36は、周囲の音を採
集して電気信号に変換するマイクロフォン40と、決め
られた周波数以下の信号のみを通過させるローパスフィ
ルタ41と、マイクロフォン40で集音され、ローパス
フィルタ41を通過した音をA/D変換してデジタル波
形に変換する変換器42と、後述の如く、変換器42で
変換した波形を解析することによって歩行を検出する解
析部(検出部)43と、解析部43での解析に用いるデ
ータを格納したデータベース44と、解析部43での検
出結果のデータを図3に示した制御装置32に出力する
出力部45とを備えている。
FIG. 5 is a diagram for explaining a basic configuration of the position detecting device 36 in the present embodiment. As shown in FIG. 5, the position detecting device 36 includes a microphone 40 that collects surrounding sound and converts it into an electric signal, a low-pass filter 41 that passes only a signal having a frequency lower than a predetermined frequency, and a microphone 40. A converter 42 that A / D converts a sound that has been sounded and has passed through the low-pass filter 41 to convert the sound into a digital waveform, and an analysis unit (described later) that detects walking by analyzing the waveform converted by the converter 42 ( (Detection unit) 43, a database 44 storing data used for analysis in the analysis unit 43, and an output unit 45 for outputting data of a detection result in the analysis unit 43 to the control device 32 shown in FIG. I have.

【0017】マイクロフォン40では、当該マイクロフ
ォン40で採集可能な全周波数帯域の振動(音を含む)
を採集する。ここでは、マイクロフォン40で周囲の音
を採集することにより、歩行時に発生して鑑賞者の体を
伝わる振動や、空気中を伝わる音を採集するのである。
通常、携帯型電話端末のマイクロフォン等においては、
可聴領域外(例えば20Hz以下と20000Hz以
上)の周波数帯域の信号をバンドパスフィルタによって
カットしているが、本実施の形態では、マイクロフォン
40から出力される信号は、ローパスフィルタ41によ
って、決められた周波数、例えば200Hz以下の信号
のみを通過させ、200Hzよりも高い周波数帯域の成
分、いわゆる音声信号と分離する。そして、解析部43
では、決められた周波数以下の成分の信号について解析
を行なう。
In the microphone 40, vibration (including sound) in all frequency bands that can be collected by the microphone 40
Collect. Here, the surrounding sounds are collected by the microphone 40, so that vibrations generated during walking and transmitted to the viewer's body and sounds transmitted in the air are collected.
Usually, in a microphone of a portable telephone terminal,
Although a signal in a frequency band outside the audible range (for example, 20 Hz or less and 20000 Hz or more) is cut by the band-pass filter, in the present embodiment, the signal output from the microphone 40 is determined by the low-pass filter 41. Only signals having a frequency of, for example, 200 Hz or less are passed, and separated from components in a frequency band higher than 200 Hz, so-called audio signals. Then, the analysis unit 43
Then, analysis is performed on a signal having a component equal to or lower than the determined frequency.

【0018】解析部43は、変換器42で変換された信
号に基づき、スペクトログラムを生成するスペクトログ
ラム処理部51と、鑑賞者の歩行を検出する歩行検出部
52と、歩幅を推定する歩幅推定部53と、歩幅推定部
53で得られた歩幅に基づき鑑賞者の移動距離を推定す
る移動距離推定部54と、鑑賞者の歩行態様を検出する
歩行態様検出部55と、歩行態様検出部55での検出結
果に基づき鑑賞者の歩行態様を判定する歩行態様判定部
56と、を備えている。
The analyzing section 43 includes a spectrogram processing section 51 for generating a spectrogram based on the signal converted by the converter 42, a walking detecting section 52 for detecting a viewer's walking, and a stride estimating section 53 for estimating a stride. A moving distance estimating unit 54 for estimating the moving distance of the viewer based on the stride obtained by the stride estimating unit 53; a walking mode detecting unit 55 for detecting the walking mode of the viewer; And a walking mode determination unit 56 that determines the walking mode of the viewer based on the detection result.

【0019】次に、解析部43で、マイクロフォン40
で採集した音に基づいた解析を行なうに際しての基本的
な概念を説明する。すなわち、鑑賞者が歩行して左足と
右足を交互に着地させたときの振動(音)をマイクロフ
ォン40で採集し、この振動を変換器42でA/D変換
してデジタル信号にした後、この信号(電圧)をウェー
ブレット変換すると、図6に示すような、周波数の強度
スペクトルパターンであるスペクトログラムが得られ
る。
Next, the analysis section 43 uses the microphone 40
The basic concept of performing the analysis based on the sound collected in the section will be described. That is, vibration (sound) when the viewer walks and the left foot and the right foot are alternately landed is collected by the microphone 40, and the vibration is A / D-converted by the converter 42 into a digital signal. When a signal (voltage) is subjected to wavelet transform, a spectrogram which is a frequency intensity spectrum pattern as shown in FIG. 6 is obtained.

【0020】ここで、図6に示すものは、同一の鑑賞者
が通常に歩行した場合のスペクトログラムである。な
お、ここで言う「通常」とは、平坦地を鑑賞者が早足で
もなく遅足でもなく、特にペースを意識することなく歩
行した場合である。この図6に示すように、人間の歩行
時には、足の着地や足の対地運動時に由来する衝撃、腰
・股関節・膝関節・踝・足趾等の足部各関節や骨格、筋
肉への伝導や運動により、可聴領域(約20〜2000
0Hz)の下限に近い100Hz程度以下、より詳しく
は例えば30〜40Hz以下の低周波帯域近辺に、特徴
的な時間・周波数・強度のパターンが発生する。本実施
の形態では、この低周波帯域成分のパターンを解析する
ことにより、歩行検出を行なうのである。
FIG. 6 shows a spectrogram when the same viewer walks normally. Here, “normal” means a case where the viewer walks on a flat ground without being fast or slow, and particularly walking without being aware of the pace. As shown in FIG. 6, when a human walks, the impact resulting from the landing of the foot or the ground motion of the foot, the conduction to each joint, skeleton, and muscles of the foot, such as the hips, hips, knees, ankles, and toes, is observed. Audible area (about 20 to 2000)
A characteristic time / frequency / intensity pattern is generated in the vicinity of a low frequency band of about 100 Hz or less, which is close to the lower limit of 0 Hz), more specifically, for example, in the vicinity of 30 to 40 Hz or less. In the present embodiment, walking is detected by analyzing the pattern of the low frequency band component.

【0021】人間の歩行動作は、踵が着地(Heel-Strik
e)からつま先が離れる(Toe-Off)までの対地運動と、
Toe-Offから踵の着地までの蹴り出し運動の2つのフェ
ーズに分けることができる。そして、対地運動時におけ
る足底面の着地は、踵から始まり、足の外側部(外縦足
弓部)を経由し、小指の付け根(第5指中足骨底)から
方向を変えて親指の付け根(第1指中足骨底)まで順次
行なわれる。この対地運動に伴う接地衝撃は、各関節や
筋肉、脂肪層で吸収されるが、低周波成分の一部がこれ
らと共振し、人体を伝導して、図6のスペクトログラム
で表されるような、複雑な時間・周波数・強度パターン
を有した低周波帯域の振動を発するのである。
In the walking motion of a human, the heel lands (Heel-Strik
e) Ground movement from toe release (Toe-Off)
It can be divided into two phases of kick-out movement from Toe-Off to heel landing. The landing on the sole of the foot at the time of the ground motion starts from the heel, passes through the outer part of the foot (external longitudinal foot arch), changes the direction from the base of the little finger (fifth metatarsal floor), and The procedure is sequentially performed up to the base (the first metatarsal floor of the first finger). The ground impact accompanying this ground motion is absorbed by each joint, muscle, and fat layer, but a part of the low-frequency component resonates with these and conducts through the human body, as shown in the spectrogram of FIG. It emits vibration in a low frequency band having a complicated time / frequency / intensity pattern.

【0022】図6に示す鑑賞者の例を用いて、歩行時に
発生する低周波帯域の成分を詳細に検討してみる。図6
において、(ア)の部分には明確なピークが出現してお
り、各ピークが歩行の一歩一歩に対応している。図6に
示したスペクトログラムをさらに詳細に検討すると、横
軸方向の(イ)で示す範囲が右足の対地運動時間、
(ウ)で示す範囲が左足の対地運動時間、(エ)で示す
範囲が、接地する足が右足から左足に変わるときのギャ
ップ時間、(オ)で示す範囲が、接地する足が左足から
右足に変わるときのギャップ時間である。これら
(イ)、(ウ)、(エ)、(オ)の時間の長さからなる
時間的特性により、鑑賞者の歩行態様を特徴付けること
ができる。ここで、スペクトログラムで、色の濃い部分
ほど周波数強度が高く、色の薄い部分ほど周波数強度が
低い。
Using the example of the viewer shown in FIG. 6, the components of the low frequency band generated during walking will be examined in detail. FIG.
In (a), clear peaks appear in the portion (a), and each peak corresponds to each step of walking. Examining the spectrogram shown in FIG. 6 in more detail, the range indicated by (a) in the horizontal axis direction is the right foot ground exercise time,
The area shown in (c) is the ground exercise time of the left foot, the area shown in (d) is the gap time when the foot touching the ground changes from the right foot to the left foot, and the area shown in (o) is the foot touching the ground from the left foot to the right foot Is the gap time when changing to. The temporal characteristics of these (a), (c), (d), and (e) time lengths can characterize the manner of walking of the viewer. Here, in the spectrogram, the darker the color, the higher the frequency intensity, and the lighter the color, the lower the frequency intensity.

【0023】また、図7は、同一の鑑賞者が、様々な歩
行態様で歩行したときのスペクトログラムである。図7
の(a)は、その場で足踏みしたとき、(b)は遅歩
き、(c)は通常歩行、(d)は早歩き、(e)はジョ
ギング、(f)は階段上り、(g)は階段下りのときに
検出されるスペクトログラムである。これらの歩行態様
のスペクトログラムを比較してみると、歩行周期が異な
る図7の(b)、(c)、(d)では、(イ)、(ウ)
の対地運動時間が異なっている(速く歩けば歩くほど短
くなる)。また、図7(e)のジョギングでは、他に比
較し、周波数強度の強い範囲が周波数の高い領域にまで
及んでおり、また信号のピーク周波数(ア)も高くなっ
ている。図7(f)の階段上りでは、足を接地したとき
の周波数強度(カ)、(キ)が弱くなっている。これ
は、足を持ち上げて階段面に接地するため、接地時の衝
撃が平坦面での歩行時よりも弱くなるからである。加え
て、階段を上るときには、つま先の接地が主であり、特
に(カ)の踵の接地時の周波数強度が弱くなっている。
また、図7(f)と(g)の階段の上りと下りを比較す
れば、特に階段の下りの場合に、有意に高い周波数帯域
までバンドが伸びている。これは、足の受ける衝撃に応
じて高い周波数帯域にもエネルギースペクトルが発生し
ていることを意味する。一方、図7(g)の階段下り時
には、つま先が踵よりも先行して接地するため、(キ)
のつま先の接地時の周波数強度が強くなっている。
FIG. 7 shows spectrograms when the same viewer walks in various walking modes. FIG.
(A), when stepping on the spot, (b) walking slowly, (c) walking normally, (d) walking fast, (e) jogging, (f) climbing stairs, (g) Is a spectrogram detected when going down the stairs. Comparing the spectrograms of these walking modes, (b), (c), and (d) of FIG.
Have different ground exercise times (the faster you walk, the shorter the walk). In addition, in the jogging shown in FIG. 7E, the range where the frequency intensity is high extends to the region where the frequency is high, and the peak frequency (a) of the signal is high as compared with the other cases. In the case of climbing the stairs in FIG. 7F, the frequency intensities (f) and (g) when the feet are grounded are weak. This is because the foot is lifted and touches the stair surface, so that the impact when touching the ground is weaker than when walking on a flat surface. In addition, when climbing the stairs, the toe is mainly grounded, and the frequency intensity particularly when the heel of (f) is grounded is low.
Also, comparing the up and down steps of FIGS. 7 (f) and 7 (g), the band extends to a significantly higher frequency band especially in the case of down steps. This means that an energy spectrum is also generated in a high frequency band according to the impact received by the foot. On the other hand, when descending the stairs in FIG. 7 (g), the toes touch the ground before the heels.
The frequency intensity when the toe is grounded is strong.

【0024】ところで、図6のスペクトログラムからわ
かるように、前記した一連の対地運動に伴い、通常歩行
では可聴領域外の低周波から可聴領域に及ぶ広帯域にわ
たるバンド状のパターンが、1歩あたり約1秒程度継続
する。また、このバンド状の時間・周波数・強度パター
ンの中に、足底各部の対地運動に対応したそれぞれ異な
る周波数域の強度スペクトルが見られる。
By the way, as can be seen from the spectrogram of FIG. 6, with the above-described series of ground motions, in normal walking, a band-like pattern over a wide band from low frequencies outside the audible range to the audible range is approximately 1 per step. Continue for about a second. Further, in this band-shaped time / frequency / intensity pattern, intensity spectra of different frequency ranges corresponding to the ground motion of each part of the sole can be seen.

【0025】図8は、歩行検出部52における処理を示
すもので、この処理では、このスペクトログラムにおけ
る時間・周波数・強度から得られる足底部の一歩一歩の
対地運動継続時間(図6の(イ)、(ウ))から、単位
時間あたりの歩数を求める。またこのとき、図6に示し
たように、周波数強度が一定以上の時間、左右の足底面
の着地時間に応じて継続することと、時間・周波数・強
度のスペクトログラムが歩行特有のパターンを描く(こ
れらのデータはデータベース44に予め格納されてい
る)ことを利用して、単位時間あたりの歩数や歩行周期
を検出するとともに、これらの時間・周波数・強度の特
性から、例えば鑑賞者の手が体にぶつかる等の歩行以外
の衝撃や、車両等に起因する外来のノイズを歩行による
音と区別する。
FIG. 8 shows the processing in the walking detecting section 52. In this processing, the ground motion continuation time of each step of the sole obtained from the time, frequency, and intensity in this spectrogram ((a) in FIG. 6). , (C)) to determine the number of steps per unit time. At this time, as shown in FIG. 6, the frequency intensity continues for a certain time or more according to the landing times of the left and right soles, and the spectrogram of time, frequency, and intensity draws a pattern unique to walking ( Utilizing the fact that these data are stored in the database 44 in advance), the number of steps per unit time and the walking cycle are detected, and the characteristics of the time, frequency, and intensity are used to detect the hand of the viewer, for example. Impacts other than walking, such as collision with a vehicle, and external noise caused by a vehicle or the like are distinguished from sounds caused by walking.

【0026】これにはまず、マイクロフォン40からの
信号を変換器42でA/D変換して得られた信号w
(t)から、ローパスフィルタ41によって所定周波数
以上の信号、つまり通常の音声信号を除去し、信号w’
(t)を得る(ステップS201)。そして、解析部4
3にて、この信号w’(t)を、時間と周波数の強度の
関数式p(t、f)に変換する(ステップS202)。
続いて関数式p(t、f)を予め設定した周波数帯域B
に対して積分し、周波数強度αに対する関係から鑑賞者
のステータスを決定する。ここで積分値LB(t)が周
波数強度αより大きければ、鑑賞者のステータス:st
atus(t)を「着地状態」とし、積分値LB(t)
が周波数強度α以下であれば、鑑賞者のステータスを
「通常状態」、つまり「着地状態」ではない状態とする
(ステップS203)。
First, a signal w obtained by A / D-converting a signal from the microphone 40 by the converter 42 is obtained.
From (t), a signal having a frequency equal to or higher than a predetermined frequency, that is, a normal audio signal is removed by the low-pass filter 41, and the signal w '
(T) is obtained (step S201). And the analysis unit 4
At 3, the signal w '(t) is converted into a function expression p (t, f) of the intensity of time and frequency (step S202).
Subsequently, the function expression p (t, f) is set to a predetermined frequency band B.
And the status of the viewer is determined from the relationship with the frequency intensity α. Here, if the integrated value L B (t) is larger than the frequency intensity α, the status of the viewer: st
atus (t) is set to “landing state”, and the integrated value L B (t)
Is less than or equal to the frequency intensity α, the status of the viewer is set to a “normal state”, that is, a state other than the “landing state” (step S203).

【0027】この後、新たな信号が微小時間毎に入力さ
れる度に、続くステップS204を実行する。このステ
ップS204では、その時点での時刻tにおける信号
が、歩行に起因しない信号、つまり図6に示したような
歩行特有の特徴点(パターン、強度分布)を有した信号
でなく、かつステップS203で「着地状態」と判定さ
れているか否かを判断する(ステップS204)。その
結果、この条件を満たす場合には、誤判定であるとし
て、鑑賞者のステータスと「着地状態」に変更する(ス
テップS205)。一方、ステップS204の条件を満
たさない場合、鑑賞者のステータスを変更しない。この
ようにして、信号が入力される度にその時点での鑑賞者
のステータスstatus(t)を判定し、直前のステ
ータスstatus(t−1)に対し、「通常状態」か
ら「着地状態」に変化した場合には、着地回数を1回カ
ウントする(ステップS206)。この着地回数のカウ
ント値から、単位時間あたりの着地回数を算出すれば、
単位時間あたりの歩数sを得ることができ、さらに、単
位時間を歩数sで除算すれば、歩行周期を得ることがで
きる(ステップS207)。
Thereafter, every time a new signal is input every minute time, the following step S204 is executed. In this step S204, the signal at the time t at that time is not a signal due to walking, that is, a signal having a characteristic point (pattern, intensity distribution) unique to walking as shown in FIG. It is determined whether or not is determined to be "landing state" (step S204). As a result, if this condition is satisfied, it is determined that an erroneous determination has been made, and the viewer status is changed to “landing state” (step S205). On the other hand, if the condition of step S204 is not satisfied, the status of the viewer is not changed. In this way, each time a signal is input, the status (t) of the viewer at that time is determined, and the status (t-1) immediately before is changed from the "normal state" to the "landing state". If it has changed, the number of landings is counted once (step S206). By calculating the number of landings per unit time from the count value of the number of landings,
The number of steps s per unit time can be obtained, and the walking period can be obtained by dividing the unit time by the number of steps s (step S207).

【0028】次に、歩行態様検出部55において、図7
に示したような様々な歩行態様の特徴に基づき、マイク
ロフォン40で採集した音から鑑賞者の歩行態様を認識
する処理を示す。この場合、データベース44に、予
め、様々な歩行態様の特徴点のデータを格納しておく。
図9に示すように、解析部43では、図8のステップS
201〜S202と同様にして得た時間と周波数の強度
の関数式p(t、f)から、検出した歩行の特徴パター
ンWを得る(ステップS301)。そして、得られた特
徴パターンWについて、データベース44を参照し、こ
のデータベース44に格納されている様々な特徴パター
ンWk、例えば遅歩きの特徴パターンW1、普通歩きの特
徴パターンW2、早歩きの特徴パターンW3、…等とのパ
ターン認識処理を行なう。これには、例えば特徴パター
ンWkと、データベース44に格納された各特徴パター
ンWkとのマハラノビス距離の演算等を行なって、特徴
パターンWとの差分dkを求める(ステップS30
2)。そして、各特徴パターンWkとの差分dkのうち、
最小のものを検索し(ステップS303)、差分dk
最小の特徴パターンWkから、鑑賞者の歩行態様を推定
する(ステップ304)。
Next, in the walking mode detecting section 55, FIG.
5 shows a process of recognizing the walking mode of the viewer based on the sounds collected by the microphone 40 based on the characteristics of various walking modes as shown in FIG. In this case, the data of feature points of various walking modes are stored in the database 44 in advance.
As shown in FIG. 9, the analysis unit 43 performs step S in FIG.
The detected walking characteristic pattern W is obtained from the function expression p (t, f) of the intensity of time and frequency obtained in the same manner as in steps 201 to S202 (step S301). Then, the obtained feature pattern W, refers to the database 44, the various features patterns W k which is stored in the database 44, for example, slow feature pattern W 1 of the walk, the ordinary walk characteristic patterns W 2, brisk walking the feature pattern W 3, a pattern recognition processing and ... etc. These include, for example, by performing a characteristic pattern W k, the arithmetic operations of the Mahalanobis distances between the feature pattern W k stored in the database 44, obtains a difference d k between the feature pattern W (step S30
2). Then, of the differences d k from each feature pattern W k ,
The smallest one is searched (step S303), and the walking mode of the viewer is estimated from the feature pattern W k with the smallest difference d k (step 304).

【0029】さて、歩幅推定部53で歩幅を推定するに
は、歩行検出部52と歩行態様検出部55での検出結果
に基づいた処理を行なう。ここでの処理の一つの手法と
しては、歩行検出部52で歩行周波数を検出し、この歩
行周波数と鑑賞者の身長とから歩幅を推定するものがあ
る。一般に、図10に示すように、歩行周波数(歩調)
と鑑賞者の身長が、歩幅と相関することは知られてい
る。この図10は、多数の被験者を対象に、歩行周波数
と身長、歩幅の関係をプロットしたもので、全体とし
て、これらが相関関係を有しているのは明らかである。
In order to estimate a stride by the stride estimating unit 53, processing based on the detection results of the walking detecting unit 52 and the walking mode detecting unit 55 is performed. As one method of the processing here, there is a method in which a walking frequency is detected by the walking detecting unit 52 and a stride is estimated from the walking frequency and the height of the viewer. Generally, as shown in FIG. 10, the walking frequency (step)
It is known that the height of the viewer is correlated with the stride. FIG. 10 plots the relationship between walking frequency, height, and stride for a large number of subjects, and it is clear that these have a correlation as a whole.

【0030】この場合、データベース44には、図10
に示したような相関関係から得られる歩行周波数・鑑賞
者の身長・歩幅の関係式(の係数)のデータを格納して
おく。そして、歩行の検出に先立ち、設定メモリ57に
鑑賞者の身長(さらには性別)を入力しておく。歩幅を
推定するには、図11のステップS401に示すよう
に、歩行検出部52で検出された歩行周期と、設定メモ
リ57に設定された鑑賞者の身長に基づき、歩行モデル
Mを用いて歩幅lを予測する。この歩行モデルMは、例
えば以下に示すような関係式によって表される。 歩幅l(cm)=x1×歩行周期(step/min)+x2×
身長(cm)+C なお、上記関係式において、x1、x2、Cは、予めデ
ータベース44に格納され、歩行態様毎に設定された係
数および初期値である。
In this case, the database 44 includes
The data of the relational expression (coefficient of) of the walking frequency, the height of the viewer, and the stride obtained from the correlation shown in FIG. Then, prior to detection of walking, the height (and gender) of the viewer is input to the setting memory 57. To estimate the stride, as shown in step S401 in FIG. 11, the stride is calculated using the walking model M based on the walking cycle detected by the walking detecting unit 52 and the height of the viewer set in the setting memory 57. Predict l. The walking model M is represented by, for example, the following relational expression. Step length l (cm) = x1 x walking cycle (step / min) + x2 x
Height (cm) + C In the above relational expression, x1, x2, and C are coefficients and initial values stored in advance in the database 44 and set for each walking mode.

【0031】そして、移動距離推定部54にて、このよ
うにして得られた歩幅lと、歩行検出部52で検出され
た単位時間あたりの歩数sとを積算することにより、単
位時間あたりの移動距離を推定することができる(ステ
ップS402)。
Then, the moving distance estimating unit 54 integrates the step length l obtained in this way and the number of steps s per unit time detected by the walking detecting unit 52 to obtain the moving distance per unit time. The distance can be estimated (step S402).

【0032】さらに、上記ステップS401にて、歩行
モデルMの関係式の一例を挙げたがこれに限るものでは
ない。例えば、踵が着地するときのエネルギーと、つま
先を蹴り出す時のエネルギーの比に基づいて歩行モデル
Mの関係式を決めることもできる。図12に示すもの
は、歩行時のエネルギー変化を表すもので、ここで、つ
ま先を蹴り出すときのエネルギーである蹴り出しエネル
ギーE1は、歩行信号のピーク値である。また、踵を着
地するときの踵着地エネルギーE2は、前記蹴り出しエ
ネルギーE1に対応したピーク値の直前の極大値であ
る。そして、踵着地エネルギーE2を蹴り出しエネルギ
ーE1で除算したものが、着地・蹴り出しエネルギー比
となる。このようにして得た着地・蹴り出しエネルギー
比と、歩行検出部52で検出された歩行周期と、設定メ
モリ57に設定された鑑賞者の身長に基づき、歩行モデ
ルM’を用いて歩幅lを予測することができる。この歩
行モデルM’は、例えば以下に示すような関係式によっ
て表される。 歩幅l(cm)=x1×歩行周期(step/min)+x2×
身長(cm)+x3×着地・蹴り出しエネルギー比 なお、上記関係式において、x1、x2、x3は、予め
データベース44に格納された歩行態様毎の係数であ
る。
Further, in step S401, an example of the relational expression of the walking model M has been described, but the present invention is not limited to this. For example, the relational expression of the walking model M can be determined based on the ratio of the energy when the heel lands and the energy when the toe kicks out. Those shown in FIG. 12, which represents the change in energy when walking, wherein the energy E 1 kicking the energy when kicking the toe is the peak value of the walk signal. Also, the heel landing energy E 2 at the time of landing the heel is the maximum value immediately before the peak value corresponding to the energy E 1 out the kick. Then, divided by the energy E 1 kick the heel landing energy E 2 is the energy ratio kick landing-. Based on the landing / kickout energy ratio obtained in this manner, the walking cycle detected by the walking detecting unit 52, and the height of the viewer set in the setting memory 57, the stride l is calculated using the walking model M '. Can be predicted. The walking model M ′ is represented by, for example, the following relational expression. Step length l (cm) = x1 x walking cycle (step / min) + x2 x
Height (cm) + x3 × landing / kicking energy ratio In the above relational expression, x1, x2, and x3 are coefficients for each walking mode stored in the database 44 in advance.

【0033】また、歩幅推定部53で歩幅を推定する他
の方法としては、踵やつま先部が着地する際の衝撃に由
来する周波数強度の変化を利用するものがある。人間の
歩行態様では、早足で歩くと歩行周波数・歩幅ともに増
加するが、意識して大股で歩くと、歩幅が変化するのみ
で歩行周波数そのものには変化が生じない。また、長距
離移動時には、歩幅は身長と歩調によって決まるほぼ一
定の定常値となるが、移動距離が短いときや、そのとき
の気分等によっては、歩幅は容易に変化する。このよう
な影響を回避するため、図6に示したように、予め通常
歩行時における周波数強度を基準値としてデータベース
44に記憶させておき、この基準値との比較により、踵
やつま先部が着地する際の衝撃量の増減を検出し、歩幅
の補正を行なう。
As another method of estimating a stride by the stride estimating unit 53, there is a method that utilizes a change in frequency intensity resulting from an impact when a heel or a toe lands. In the human walking mode, walking at a fast pace increases both the walking frequency and the stride. However, when walking consciously, the walking frequency itself does not change, and only the stride changes. In addition, when moving long distances, the stride is a substantially constant steady value determined by the height and the pace, but the stride easily changes depending on the short moving distance and the mood at that time. In order to avoid such an effect, as shown in FIG. 6, the frequency intensity at the time of normal walking is stored in advance in the database 44 as a reference value, and the heel and the toe are landed by comparison with this reference value. The increase or decrease in the amount of impact at the time of performing is detected, and the stride is corrected.

【0034】図13は、上記のような処理の具体的な流
れを示すものであり、まず、図11のステップS401
と同様、歩行検出部52で検出された歩行周期と、設定
メモリ57に設定された鑑賞者の身長に基づき、歩行モ
デルMまたはM’を用いて歩幅lを予測する(ステップ
S501)。次いで 図8のステップS201〜S20
2と同様にして得た時間と周波数の強度の関係式p
(t、f)を、着地の衝撃を特徴的に抽出できる周波数
帯域B’に対して積分し、着地の衝撃LB’を得る(ス
テップS502)。ここで、関係式p(t、f)を積分
して得られるものは、周波数帯域B’におけるスペクト
ログラムの信号の占有率(面積)である。予めデータベ
ース44に格納されたテーブルあるいは関係式に基づ
き、この衝撃LB’から、歩幅の補正値Δlを算出する
(ステップS503)。そして、この歩幅の補正値Δl
を用い、移動距離(l×s+Δl)を得る(ステップS
504)。このようにして、スペクトログラムの周波数
強度から歩幅の補正を行なうこともできるのである。
FIG. 13 shows a specific flow of the processing as described above. First, at step S401 in FIG.
Similarly to the above, the stride 1 is predicted using the walking model M or M ′ based on the walking cycle detected by the walking detecting unit 52 and the height of the viewer set in the setting memory 57 (step S501). Next, steps S201 to S20 in FIG.
Relational expression p between time and frequency intensity obtained in the same manner as
(T, f) is integrated with respect to the frequency band B 'in which the landing impact can be characteristically extracted, to obtain the landing impact L B ' (step S502). Here, what is obtained by integrating the relational expression p (t, f) is the occupancy (area) of the signal of the spectrogram in the frequency band B ′. Based on the table or relational expression stored in the database 44 in advance, a correction value Δl of the stride is calculated from the impact L B ′ (step S503). Then, the correction value Δl of the stride is
Is used to obtain the moving distance (1 × s + Δl) (step S
504). In this way, the stride can be corrected from the frequency intensity of the spectrogram.

【0035】さらに、歩幅推定部53で歩幅を推定する
他の方法としては、つま先部の蹴り出し時とつま先の着
地時の周波数強度を利用するものがある。すなわち、同
一の歩調で歩いていても、つま先の蹴り出し強度によっ
て歩幅は異なってくる。このため、つま先の着地と蹴り
出しに応じて発生する例えば10〜16Hz前後の周波
数帯域の強度に応じ、予めデータベース44に記憶して
おいた補強者の周波数強度の基準値や、今までの歩行履
歴データの比較により、歩幅の補正を行なう。
Further, as another method of estimating the stride by the stride estimating unit 53, there is a method that utilizes the frequency intensity when the toe is kicked out and when the toe lands. That is, even when walking at the same pace, the stride length varies depending on the kicking strength of the toes. For this reason, according to the intensity of the frequency band of, for example, about 10 to 16 Hz generated according to the landing and kicking of the toe, the reference value of the frequency intensity of the reinforcing person stored in the database 44 in advance, or the conventional walking The step length is corrected by comparing the history data.

【0036】図14は、このような処理の流れを示すも
ので、図13のステップS501からS503と同様、
歩行検出部52で検出された歩行周期と、設定メモリ5
7に設定された鑑賞者の身長に基づき、歩行モデルMま
たはM’を用いて歩幅lを予測した後(ステップS60
1)、時間と周波数の強度の関係式p(t、f)を、着
地の衝撃を特徴的に抽出できる周波数帯域B’に対して
積分し、着地の衝撃L B’を得る(ステップS60
2)。さらに、予めデータベース44に格納されたテー
ブルあるいは関係式に基づき、この衝撃LB’から、歩
幅の補正値Δlを算出する(ステップS603)。この
後、解析部43にて、予め決められた低周波数帯域f
(例えば0〜40Hz)について、関係式p(t、f)
の特徴を抽出する(ステップS604)そして、データ
ベース44に格納された、周波数強度の特徴パターンデ
ータと、鑑賞者の基準値、歩行履歴データから、歩幅の
補正値hを取得する(ステップS605)。しかる後
は、この補正値hを用い、移動距離(l×s+Δl+
h)を得ることができる(ステップS606)。
FIG. 14 shows the flow of such processing.
Therefore, similar to steps S501 to S503 in FIG.
The walking cycle detected by the walking detecting unit 52 and the setting memory 5
7 based on the height of the viewer set in Step 7.
Or the step length l is predicted using M ′ (step S60).
1) The relational expression p (t, f) between time and frequency
For the frequency band B 'where the ground impact can be extracted characteristically
Integrate and land impact L B(Step S60)
2). Further, data stored in the database 44 in advance is used.
This impact LB
The width correction value Δl is calculated (step S603). this
Thereafter, the analysis unit 43 determines a predetermined low frequency band f
(For example, 0 to 40 Hz), the relational expression p (t, f)
Are extracted (step S604), and the data
The characteristic pattern data of the frequency intensity stored in the base 44
Data, the reference value of the viewer, and walking history data,
The correction value h is obtained (Step S605). After a while
Uses the correction value h to calculate the moving distance (l × s + Δl +
h) can be obtained (step S606).

【0037】このような位置検出装置36によれば、マ
イクロフォン40で歩行時に体内を伝わってくる低周波
帯域の成分を採集し、これに基づいて歩行の検出を行な
うことにより、鑑賞者の歩幅を推定することができる。
これにより、鑑賞者の(スタート地点等、検出開始位置
からの)歩行移動量、つまり鑑賞者の位置を検出するこ
とができるのである。
According to the position detecting device 36, the microphone 40 collects low-frequency band components transmitted through the body during walking, and detects walking based on the collected low-frequency components. Can be estimated.
Thus, the amount of walking movement of the viewer (from the detection start position such as a start point), that is, the position of the viewer can be detected.

【0038】さて、上記のような構成からなる複眼画像
再生システムでは、動態検出部35で得られる鑑賞者の
位置、向き、視線等の動態データに基づき、制御装置3
2が、画像データストレージ31から最適な画像データ
を読み出し、この画像データに基づいた画像を再生画像
表示部33に再生表示させる。なお、設定メモリ57に
設定された鑑賞者の身長に基づき、動態検出部35で
は、鑑賞者の位置だけでなく、鑑賞者の視点の位置座標
(水平2方向および鉛直1方向の座標系での位置座標)
を検出できるようになっている。このとき、鑑賞者の位
置が、複眼画像撮影システムにおける撮影位置と一致す
るとは限らない。このため、制御装置32は、画像デー
タストレージ31に格納された画像データに基づき、撮
影時に撮影位置で得た画像を、鑑賞者の位置からの視線
に合わせて補正する。
In the compound-eye image reproducing system having the above-described configuration, the control device 3 is controlled based on dynamic data such as the position, orientation, and line of sight of the viewer obtained by the dynamic detector 35.
2 reads the optimal image data from the image data storage 31, and causes the reproduced image display unit 33 to reproduce and display an image based on the image data. In addition, based on the height of the viewer set in the setting memory 57, the dynamic detection unit 35 determines not only the position of the viewer but also the position coordinates of the viewpoint of the viewer (in a coordinate system in two horizontal directions and one vertical direction). Position coordinates)
Can be detected. At this time, the position of the viewer does not always match the shooting position in the compound-eye image shooting system. Therefore, based on the image data stored in the image data storage 31, the control device 32 corrects the image obtained at the shooting position at the time of shooting according to the line of sight from the viewer's position.

【0039】図15は、この補正原理を説明するための
図である。撮影時の視点Rで撮影された画像が、撮影時
の視点Rを中心とした半径rの仮想球面Kの内側に投影
されているとする。なお、この半径rは、画像中の被写
体のうち、最も近いものまでの距離で決まる。つまり、
撮影時には、最も近い被写体までの距離のデータも、画
像データとともに記録するのが好ましい。この仮想球面
K上のある点Pの座標は、水平面内のx軸、y軸、鉛直
方向の座標をz軸とした座標系に於いて、水平面内にお
けるx軸に対する方位角をφ、鉛直面内における仰角を
θとすると、 P=(x、y、z) =(rcosθcosφ、rcosθsinφ、rsinθ) となる。一方、再生時の視点Vの座標を、 V=(x0、y0、z0) とすると、前記の点Pを再生時の視点Vから見た場合、
再生時の視点Vを基準とした半径r’の仮想球面K’上
の点P’に投影できる。この点P’は、 P’=(x、y、z) =β(rcosθcosφ−x0、rcosθsinφ−y0、rsinθ−z0) と表される。ここでβは変数である。言うまでも無く、 x2+y2+z2=r2 の関係が成り立つので、上記点P’についての式を変数
βについて解けば、この変数βが再生時の像の大きさと
なる。
FIG. 15 is a diagram for explaining this correction principle. It is assumed that an image photographed at the viewpoint R at the time of photographing is projected inside a virtual spherical surface K having a radius r around the viewpoint R at the time of photographing. The radius r is determined by the distance to the closest one of the subjects in the image. That is,
At the time of photographing, it is preferable to record data of the distance to the closest subject together with the image data. The coordinates of a point P on the virtual spherical surface K are represented by φ, the azimuth angle with respect to the x-axis in the horizontal plane, and the vertical Is the angle of elevation in θ, P = (x, y, z) = (rcosθcosφ, rcosθsinφ, rsinθ). On the other hand, when the coordinates of the viewpoint V at the time of reproduction are V = (x 0 , y 0 , z 0 ), when the point P is viewed from the viewpoint V at the time of reproduction,
It can be projected onto a point P 'on a virtual spherical surface K' having a radius r 'based on the viewpoint V at the time of reproduction. The point P 'is, P' = (x, y , z) = β (rcosθcosφ-x 0, rcosθsinφ-y 0, rsinθ-z 0) is expressed as. Here, β is a variable. Needless to say, since the relationship x 2 + y 2 + z 2 = r 2 holds, if the equation for the point P ′ is solved for the variable β, the variable β becomes the size of the image at the time of reproduction.

【0040】ここで、再生時に像を再生するには像の大
きさが0以上である必要があることから、 β>0 の条件を、再生時の視点V=(x0、y0、z0)が満た
す必要がある。この条件を満たせない場合には、再生限
界を超えている、と言うことになる。具体的には、図1
5に示す鑑賞者の視点V’のように、撮影時に決まる仮
想球面Kの外側では、βが上記の条件を満たさなくなる
ため、画像を再生することができない。
Here, in order to reproduce an image at the time of reproduction, the size of the image needs to be 0 or more. Therefore, the condition of β> 0 is determined by changing the viewpoint V = (x 0 , y 0 , z 0 ) must be satisfied. If this condition cannot be satisfied, it means that the reproduction limit has been exceeded. Specifically, FIG.
As shown in FIG. 5, outside the virtual spherical surface K determined at the time of shooting, β does not satisfy the above condition, so that the image cannot be reproduced.

【0041】さて、上記したように、再生時の視点V
が、上記の条件を満たせない場合、複眼画像再生システ
ムでは、画像の再生を行なうことができない。また、図
16(a)に示すような被写体Qを複眼画像撮影システ
ムで撮影する場合、図16(b)に示すように、複眼画
像撮影システムの撮像部10を矢印(サ)の如く移動さ
せると、被写体Qの裏側等には撮影できない、つまり画
像データを得られない死角となる範囲(シ)が存在す
る。この他、例えば、壁や窓等、撮影時に物理的に越え
られないものの向こう側も、当然のことながら、撮影を
行なうことができない。
As described above, the viewpoint V at the time of reproduction is
However, if the above conditions cannot be satisfied, the compound-eye image reproduction system cannot reproduce the image. When the subject Q as shown in FIG. 16A is photographed by the compound-eye image photographing system, as shown in FIG. 16B, the image pickup unit 10 of the compound-eye image photographing system is moved as indicated by an arrow (c). In addition, there is a blind spot (S) in which photographing cannot be performed, that is, image data cannot be obtained on the back side of the subject Q or the like. In addition to this, for example, a wall or a window, which cannot be physically moved at the time of photographing, cannot be photographed on the other side.

【0042】このような制約が存在するため、制御装置
32では、図17に示すように、再生画像表示部33に
表示する画像中に、画像の再生が可能なエリア、つまり
鑑賞者が移動できるエリアFを明示する。また、制御装
置32では、動態検出部35によって検出される鑑賞者
の視点Vの位置が、画像を再生するための所定の条件を
満たすかどうかを確認し、条件を満たさないとき、つま
り画像を再生できない場合には、鑑賞者に対し、コーシ
ョンを出力するようになっている。より具体的には、鑑
賞者の視点Vの位置が、撮影時の視点を基に決まる所
定の範囲である仮想球面Kの内側から外側に出ようとす
るとき、被写体の裏側や、壁や窓等、撮影時に物理的
に越えられないものの向こう側に移動しようとしたとき
等に、再生画像表示部33に、図18(a)、(b)に
示すようなコーション情報CIを表示させるのである。
Because of such restrictions, in the control device 32, as shown in FIG. 17, in the image displayed on the reproduced image display section 33, the area where the image can be reproduced, that is, the viewer can move. Area F is specified. Further, the control device 32 checks whether or not the position of the viewer's viewpoint V detected by the dynamic detection unit 35 satisfies a predetermined condition for reproducing an image. If playback is not possible, a caution is output to the viewer. More specifically, when the position of the viewpoint V of the viewer is going to go from the inside to the outside of the virtual spherical surface K which is a predetermined range determined based on the viewpoint at the time of shooting, the back side of the subject, the wall or the window For example, when trying to move to the other side, which cannot be physically exceeded during shooting, caution information CI as shown in FIGS. 18A and 18B is displayed on the reproduced image display unit 33. .

【0043】例えば、図17(a)に示すような画像が
表示されている状態で、鑑賞者が矢印J1のように前方
に歩くと、再生画像表示部33には、図17(b)に示
すように、前進した位置で得られる画像が表示される。
そして、図17(b)中、矢印J2で示すように、鑑賞
者が向きを変えると、動態検出部35はこれを検出し、
再生画像表示部33に、図19(a)に示すように、窓
Dおよび窓Dを通して見える景色の画像が表示される。
ここで、鑑賞者が、図17(b)中、矢印J3に示すよ
うに窓Dに接近すると、図19(b)に示すように、さ
らに接近した位置で窓Dおよび窓Dを通して見える景色
の画像が表示される。鑑賞者が、さらに窓Dに接近しよ
うとすると、動態検出部35は、鑑賞者の位置が図17
(b)に示したエリアF外に出そうになること(あるい
は出てしまったこと)を検出し、このときには、例え
ば、図18(a)に示したようなコーション情報CIを
再生画像表示部33に表示させる。このケースでは、撮
影時に窓Dを越えることができないため、物理的な理由
からエリアFが制限されていることになる。このコーシ
ョン情報CIに従えば、鑑賞者がエリアF外に出るのを
防ぐことができる。また、図17(b)中、矢印J4に
示すように、鑑賞者が前進した場合も、図18(b)に
示すようなコーション情報CIを再生画像表示部33に
表示させる。このケースでは、これよりも前方の撮影を
行なっていないために画像データが存在しない、という
理由からエリアFが制限されており、鑑賞者がエリアF
外に出るのを防ぐようになっている。
For example, when the viewer walks forward as indicated by an arrow J1 while an image as shown in FIG. 17A is displayed, the reproduced image display unit 33 displays the image shown in FIG. As shown, an image obtained at the advanced position is displayed.
Then, as shown by an arrow J2 in FIG. 17B, when the viewer changes the direction, the dynamic state detection unit 35 detects this, and
As shown in FIG. 19A, a window D and an image of a scenery seen through the window D are displayed on the reproduced image display unit 33.
Here, when the viewer approaches the window D as shown by an arrow J3 in FIG. 17 (b), as shown in FIG. The image is displayed. When the viewer tries to approach the window D further, the dynamic detection unit 35 determines that the position of the viewer is in FIG.
It is detected that the user is about to go out of the area F shown in (b) (or has gone out), and at this time, for example, the caution information CI as shown in FIG. 33 is displayed. In this case, the area F is limited for physical reasons because it is not possible to pass through the window D during photographing. According to the caution information CI, it is possible to prevent the viewer from going out of the area F. Also, as shown by an arrow J4 in FIG. 17B, the caution information CI as shown in FIG. 18B is displayed on the reproduced image display unit 33 even when the viewer moves forward. In this case, the area F is limited because the image data does not exist because no image is taken ahead of the area F.
It is designed to prevent you from going outside.

【0044】さて、次に、上記のような構成からなる複
眼画像再生システムにおいて、画像を表示する場合の一
連の流れについて、図20に示したフローチャートを参
照しつつ説明する。まず、鑑賞者は、図4に示したヘッ
ドマウント型ディスプレイ34からなる再生画像表示部
33を装着するとともに、自らの身長を設定メモリ57
に登録する。そして、GPSあるいはGI(Geographic
al Information)ストーン(電子地理情報標石)等、絶
対位置を定位する定位手段、または決められたスタート
地点で所定のスイッチ等を鑑賞者が操作することによ
り、鑑賞者のスタート時の位置を設定する(ステップS
701)。
Next, a series of flows in the case of displaying an image in the compound-eye image reproducing system having the above configuration will be described with reference to the flowchart shown in FIG. First, the viewer wears the reproduced image display unit 33 including the head-mounted display 34 shown in FIG.
Register with. And GPS or GI (Geographic
al Information) The start position of the viewer is set by the viewer operating a localization means for positioning the absolute position such as a stone (electronic geographical information mark) or a predetermined switch at a predetermined start point. (Step S
701).

【0045】この後、鑑賞者は歩行を開始し、自由に移
動する。すると、動態検出部35において、所定の微小
時間毎に図11、図13、図14のいずれかに示した方
法で、鑑賞者のスタート地点からの歩行距離を検出する
(ステップS702)。そして、検出した歩行距離と、
ジャイロセンサ37で検出された鑑賞者の向きとから、
スタート地点に対する鑑賞者の相対位置を算出する。こ
のとき、設定メモリ57に設定された鑑賞者の身長か
ら、実際には鑑賞者の視点Vの座標を求めることになる
(ステップS703:位置検出段階)。続いて、制御装
置32では、視点Vの座標、つまり再生時の位置座標に
対応する撮影位置を抽出する(ステップS704)。こ
れには、画像データストレージ31に格納されている複
数の画像の撮影時における視点Rの中から、視点Vの座
標に近いものを所定数(一つあるいは複数)抽出すれば
良い。
Thereafter, the viewer starts walking and moves freely. Then, the movement detecting unit 35 detects the walking distance of the viewer from the start point by the method shown in FIG. 11, FIG. 13, or FIG. 14 at predetermined small time intervals (step S702). And the detected walking distance,
From the direction of the viewer detected by the gyro sensor 37,
The relative position of the viewer with respect to the start point is calculated. At this time, from the height of the viewer set in the setting memory 57, the coordinates of the viewpoint V of the viewer are actually obtained (step S703: position detection step). Subsequently, the control device 32 extracts the shooting position corresponding to the coordinates of the viewpoint V, that is, the position coordinates at the time of reproduction (step S704). For this purpose, a predetermined number (one or more) of the viewpoints R close to the coordinates of the viewpoint V may be extracted from the viewpoints R at the time of capturing a plurality of images stored in the image data storage 31.

【0046】次いで、抽出した各撮影位置(視点R)で
撮影された画像(複眼画像撮影システムの撮像部10を
構成するカメラ15の数だけ存在する)に関し検討を行
なう。これには、各画像について、 |R−V|<r という関係を満たすか否かを判定する。これにより、前
述したように、各画像データの撮影時の視点Rを中心と
した半径rの仮想球面Kの内側に、再生時の視点Vの座
標が有るか否かが判断される。その結果、上記関係を満
たすのであれば、当該画像を再生候補画像として抽出す
る。このような処理を、ステップS704で抽出された
撮影位置で撮影された、全ての画像について行なう。こ
れにより、上記関係を満たす画像が、再生候補画像とし
て抽出される(ステップS705)。
Next, a study will be made on images (the number of which is equal to the number of cameras 15 constituting the image pickup section 10 of the compound-eye image photographing system) photographed at each of the extracted photographing positions (viewpoints R). To do this, it is determined whether each image satisfies the relationship | R−V | <r. Thus, as described above, it is determined whether or not the coordinates of the viewpoint V at the time of reproduction are inside the virtual sphere K having a radius r around the viewpoint R at the time of capturing each image data. As a result, if the above relationship is satisfied, the image is extracted as a reproduction candidate image. Such a process is performed for all images photographed at the photographing position extracted in step S704. As a result, an image satisfying the above relationship is extracted as a reproduction candidate image (step S705).

【0047】続いて、ステップS705にて抽出された
再生候補画像が有るか否かを判定する(ステップS70
6)。その結果、再生候補画像が存在すれば、次のステ
ップS707(画像選択段階)で、実際に再生する画像
を選択する。これには、ステップS705で抽出された
画像の中から、|R−V|が最小となる画像を選択す
る。そして、選択された画像を、必要に応じ、各種画像
処理技術を用いて、再生時の視点Vから見た画像となる
よう、変形したり、隣接する画像と合成したりする処理
を行なう(ステップS708)。しかる後、制御装置3
2は、その画像を再生画像表示部33に表示するのであ
る(ステップS709:表示段階)。これにより、鑑賞
者は、自らの移動に応じ、移動後の視点Vでの再生画像
を見ることができる。
Subsequently, it is determined whether or not there is a reproduction candidate image extracted in step S705 (step S70).
6). As a result, if a reproduction candidate image exists, an image to be actually reproduced is selected in the next step S707 (image selection stage). For this purpose, an image that minimizes | R−V | is selected from the images extracted in step S705. Then, the selected image is deformed or combined with an adjacent image by using various image processing techniques, if necessary, so as to be an image viewed from the viewpoint V at the time of reproduction (step). S708). Then, the control device 3
No. 2 displays the image on the reproduced image display section 33 (step S709: display stage). Thus, the viewer can view the reproduced image at the viewpoint V after the movement according to his / her own movement.

【0048】ところで、前記ステップS706での判定
結果が、ステップS705で抽出された再生候補画像が
無い、となった場合は、再生時の視点Vが規定のエリア
Fの外になってしまうため、図18(a)あるいは
(b)に示したようなコーション情報CIを再生画像表
示部33に表示させる(ステップS710:コーション
出力段階)。上記ステップS701〜S710の処理
は、所定の微小時間毎に繰り返し行なわれる。これによ
り、鑑賞者の位置に応じた画像やコーション情報CIが
再生画像表示部33に順次(随時)表示される。これに
より、鑑賞者はこれらの画像によって構成されるバーチ
ャル空間内をあたかも移動しているかのような体験を得
るのである。
If the result of the determination in step S706 is that there is no playback candidate image extracted in step S705, the viewpoint V at the time of playback is outside the specified area F. The caution information CI as shown in FIG. 18A or 18B is displayed on the reproduced image display unit 33 (step S710: caution output stage). The processes of steps S701 to S710 are repeatedly performed at predetermined small time intervals. As a result, the image and the caution information CI corresponding to the position of the viewer are sequentially (at any time) displayed on the reproduced image display unit 33. Thus, the viewer gets an experience as if he / she is moving in the virtual space constituted by these images.

【0049】上述したような構成により、再生画像表示
部33には、画像を再生することのできるエリアFが明
示され、さらに、エリアFから出ようとしたときにはコ
ーション情報CIが表示されるようにした。これによ
り、鑑賞者がエリアFから出るのを防ぐことができる。
そして、鑑賞者がこのコーション情報CIに従えば、エ
リアF内で、再生画像表示部33に画像が常に表示され
る状態が維持され、従来のように画像が突然途切れたり
スタート地点に戻ったりすることも無く、違和感の無い
バーチャル体験をすることが可能となる。
With the above-described configuration, the reproduced image display section 33 clearly shows the area F in which the image can be reproduced, and further displays the caution information CI when the user tries to leave the area F. did. Thus, it is possible to prevent the viewer from getting out of the area F.
If the viewer follows the caution information CI, the state in which the image is always displayed on the reproduced image display unit 33 in the area F is maintained, and the image is suddenly interrupted or returns to the start point as in the related art. It is possible to have a virtual experience without any discomfort.

【0050】また、動態検出部35の位置検出装置36
では、鑑賞者の歩行を検出し、これに基づいて鑑賞者の
歩行移動量を推定するようにした。これにより、GPS
等を用いなくとも鑑賞者の位置を把握することができ、
屋内であっても何ら問題が生じないばかりか、低コスト
でしかも確実にバーチャル空間における鑑賞者の定位を
行なうことが可能となる。加えて、この位置検出装置3
6は、マイクロフォン40で、歩行時に体内を伝わって
くる低周波帯域の成分を採集し、この音から歩行の検出
を行なうようにしたので、歩行時以外のノイズ(振動や
音)との識別を確実に行なうことができ、精度の高い検
出結果を得ることができる。このようにして、上記複眼
画像再生システムでは、鑑賞者はエリアF内を自由に歩
き回ることが可能となり、従来に無いバーチャル空間を
体験することができるのである。
The position detector 36 of the dynamic detector 35
Then, the walking of the viewer is detected, and the walking movement amount of the viewer is estimated based on the detected walking. With this, GPS
Can be used to determine the position of the viewer without using
Not only will there be no problems even indoors, but it is also possible to reliably locate the viewer in the virtual space at low cost. In addition, the position detecting device 3
Reference numeral 6 denotes a microphone 40, which collects low-frequency band components transmitted through the body during walking and detects walking from this sound, so that it is possible to distinguish it from noise (vibration or sound) other than during walking. This can be performed reliably, and a highly accurate detection result can be obtained. In this way, in the compound-eye image reproduction system, the viewer can freely walk around the area F, and can experience a virtual space that has never existed before.

【0051】さて、上記実施の形態では、再生画像表示
部33で、鑑賞者が移動可能なエリアFを表示するよう
にした。これは、図21(a)に示すように、鑑賞者が
複眼画像再生システムで再生される画像を、例えば体育
館等の実際の空間RAにおいて鑑賞する場合に、再生可
能なエリアFが実際の空間RA内に完全に収まっていれ
ば、そのまま適用できる。ところで、図21(b)に示
すように、実際の空間RA’に、再生可能なエリアFが
完全に収まらない場合もあり得る。このような場合に
は、再生画像表示部33に、再生可能なエリアFだけで
なく、実際の空間RA’による制限を加えて、エリア表
示や、コーション情報CIの出力をすることも可能であ
る。このようにすれば、鑑賞者が、エリアF内にいるに
もかかわらず、実際の空間RA’を構成する体育館の壁
等にぶつかったりするのを防ぐことができる。
In the above-described embodiment, the reproduced image display section 33 displays the area F to which the viewer can move. This is because, as shown in FIG. 21 (a), when the viewer views an image reproduced by the compound-eye image reproduction system in an actual space RA such as a gymnasium, for example, the reproducible area F becomes an actual space RA. If it is completely within the RA, it can be applied as it is. By the way, as shown in FIG. 21B, the reproducible area F may not completely fit in the actual space RA ′. In such a case, it is possible to display the area and output the caution information CI by adding a restriction not only to the area F that can be played back but also to the actual space RA ′ in the playback image display unit 33. . In this way, it is possible to prevent the viewer from hitting a wall or the like of the gymnasium constituting the actual space RA ', even though the viewer is in the area F.

【0052】また、上記実施の形態では、再生画像表示
部33として、図4に示したようなヘッドマウント型デ
ィスプレイ34を用いるようにしたが、これ以外の形態
のものを採用することも可能である。また、複眼画像再
生システムは、その構成の全てをこのようなヘッドマウ
ント型ディスプレイ34に搭載してしまっても良いし、
画像データストレージ31や制御装置32等、一部の構
成を、ヘッドマウント型ディスプレイ34とは別体と
し、双方間をケーブルや無線等の通信手段で結ぶように
しても良い。加えて、動態検出部35の位置検出装置3
6では、歩行時に体内を伝わってくる低周波帯域の成分
を採集し、これに基づいて鑑賞者の歩行を検出するよう
にしたが、歩行距離を推定するための方法は、図11、
図13、図14に示したものに限らず、他の方法を適用
しても良い。また、これ以外の、加速度センサ等を用い
て歩行を検出しても良い。さらに、位置検出装置36に
おいて、検出した歩行移動量から鑑賞者の位置を検出す
るようにしたが、屋外等で利用するのであれば、位置検
出装置36としてGPSを利用することもできる。加え
て、このGPSに加え、上記実施の形態と同様に歩行検
出を行ない、歩行移動量の情報を加味して鑑賞者の位置
を検出するようにしてもよい。
Further, in the above-described embodiment, the head mounted display 34 as shown in FIG. 4 is used as the reproduced image display section 33, but other forms may be employed. is there. Further, the compound-eye image reproduction system may have all of the components mounted on such a head-mounted display 34,
Some components such as the image data storage 31 and the control device 32 may be separated from the head-mounted display 34, and may be connected to each other by communication means such as a cable or wireless communication. In addition, the position detection device 3 of the dynamic detection unit 35
In 6, the low frequency band component transmitted through the body during walking is collected, and based on this, the viewer's walking is detected. The method for estimating the walking distance is shown in FIG.
The method is not limited to those shown in FIGS. 13 and 14, and other methods may be applied. Alternatively, walking may be detected using an acceleration sensor or the like. Further, in the position detecting device 36, the position of the viewer is detected from the detected amount of walking movement. However, if it is used outdoors or the like, a GPS can be used as the position detecting device 36. In addition, in addition to this GPS, walking may be detected in the same manner as in the above-described embodiment, and the position of the viewer may be detected in consideration of information on the amount of walking movement.

【0053】この他、上記実施の形態では、画像の撮影
方法や、再生時に表示する画像の選定処理等について説
明したが、本発明の主旨を逸脱しない限りであれば、他
のいかなる撮影方法(装置)や処理方法を用いても良
い。また、コーション情報CIを出力する条件について
も、上記実施の形態で示した条件に限定する意図は無
く、適宜設定した条件に応じてコーション情報CIを出
力するようにすれば良い。また、出力するコーション情
報CIについても、マークやメッセージの表示に限るも
のではなく、例えば音声によるメッセージ、警告音、振
動等を用いたり、これらを適宜組合せることも可能であ
る。
In the above embodiment, the method of photographing an image and the process of selecting an image to be displayed at the time of reproduction have been described. However, any other photographing method (such as An apparatus) or a processing method may be used. Also, the conditions for outputting caution information CI are not intended to be limited to the conditions described in the above embodiment, and the caution information CI may be output in accordance with appropriately set conditions. Further, the caution information CI to be output is not limited to the display of the mark or the message. For example, a message by voice, a warning sound, vibration, or the like may be used, or these may be appropriately combined.

【0054】[0054]

【発明の効果】以上説明したように、本発明によれば、
鑑賞者にとって移動可能エリアの把握を確実に行なうこ
とが可能となる。また、本発明によれば、鑑賞者の移動
を確実に検出し、鑑賞者自身が違和感無くバーチャル空
間を自由に移動することが可能となり、従来に無いバー
チャル空間を体験することが可能となる。
As described above, according to the present invention,
It is possible for the viewer to surely grasp the movable area. Further, according to the present invention, the movement of the viewer can be reliably detected, and the viewer himself can freely move in the virtual space without a sense of incongruity.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本実施の形態における複眼画像撮影システム
の構成を示す図である。
FIG. 1 is a diagram illustrating a configuration of a compound-eye image capturing system according to the present embodiment.

【図2】 撮像部の具体的な例を示す三面図である。FIG. 2 is a three-view drawing showing a specific example of an imaging unit.

【図3】 複眼画像再生システムの構成を示す図であ
る。
FIG. 3 is a diagram illustrating a configuration of a compound-eye image reproduction system.

【図4】 ヘッドマウント型ディスプレイの一例を示す
図である。
FIG. 4 is a diagram illustrating an example of a head mounted display.

【図5】 位置検出装置の構成を示す図である。FIG. 5 is a diagram showing a configuration of a position detection device.

【図6】 鑑賞者が歩行したときに連続的に得られる信
号から得たスペクトログラムの例である。
FIG. 6 is an example of a spectrogram obtained from signals continuously obtained when a viewer walks.

【図7】 同一の鑑賞者の様々な歩行態様におけるスペ
クトログラムを示す図である。
FIG. 7 is a diagram showing spectrograms of the same viewer in various walking modes.

【図8】 歩数を検出するときの処理の流れを示す図で
ある。
FIG. 8 is a diagram showing a flow of processing when detecting the number of steps.

【図9】 歩行態様を推定するときの処理の流れを示す
図である。
FIG. 9 is a diagram showing a flow of processing when estimating a walking mode.

【図10】 歩行周波数・歩幅・身長の相関関係を示す
データ分布図である。
FIG. 10 is a data distribution diagram showing a correlation between a walking frequency, a stride, and a height.

【図11】 移動距離を推定するときの処理の流れを示
す図である。
FIG. 11 is a diagram showing a flow of processing when estimating a moving distance.

【図12】 歩行時のエネルギー変化を表す図である。FIG. 12 is a diagram showing a change in energy during walking.

【図13】 移動距離を推定するときの他の処理の流れ
を示す図である。
FIG. 13 is a diagram showing a flow of another process when estimating a moving distance.

【図14】 移動距離を推定するときのさらに他の処理
の流れを示す図である。
FIG. 14 is a diagram illustrating a flow of still another process when estimating a moving distance.

【図15】 撮影時に撮影位置で得た画像を、鑑賞者の
位置からの視線に合わせて補正する原理を説明するため
の図である。
FIG. 15 is a diagram for explaining the principle of correcting an image obtained at a shooting position at the time of shooting according to a line of sight from a viewer's position.

【図16】 撮影時に死角が生じる被写体の例を示す図
であり、(a)は正面図、(b)は(a)の平面図であ
る。
FIGS. 16A and 16B are diagrams illustrating an example of a subject in which a blind spot occurs during photographing, where FIG. 16A is a front view and FIG. 16B is a plan view of FIG.

【図17】 再生画像表示部における画像の表示例を示
す図である。
FIG. 17 is a diagram illustrating a display example of an image on a reproduced image display unit.

【図18】 出力するコーションの例を示す図である。FIG. 18 is a diagram illustrating an example of a caution to be output.

【図19】 図17(b)の表示状態から、鑑賞者が向
きを変えた場合の画像の表示例を示す図である。
FIG. 19 is a diagram showing a display example of an image when the viewer changes the direction from the display state of FIG. 17 (b).

【図20】 再生時の一連の流れを示す図である。FIG. 20 is a diagram showing a series of flows during reproduction.

【図21】 画像データに基づいて表示可能なエリア
と、実際に再生を行なう場所(空間)との関係の例を示
す図である。
FIG. 21 is a diagram illustrating an example of a relationship between an area that can be displayed based on image data and a place (space) where playback is actually performed;

【符号の説明】[Explanation of symbols]

31…画像データストレージ(データ格納手段)、32
…制御装置(制御手段、コーション出力手段)、33…
再生画像表示部(表示手段)、34…ヘッドマウント型
ディスプレイ(ビューワ)、35…動態検出部、36…
位置検出装置(位置検出手段、視点位置検出手段、歩行
検出装置)、40…マイクロフォン、41…ローパスフ
ィルタ、43…解析部(検出部)、53…歩幅推定部、
54…移動距離推定部
31 image data storage (data storage means), 32
... Control device (control means, caution output means), 33 ...
Reproduction image display unit (display means), 34: head mounted display (viewer), 35: dynamic detection unit, 36 ...
Position detecting device (position detecting means, viewpoint position detecting means, walking detecting device), 40: microphone, 41: low-pass filter, 43: analyzing unit (detecting unit), 53: step estimating unit,
54: Moving distance estimation unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/225 H04N 7/18 U 5C054 G10L 3/00 531N 5D015 5/76 551G 5/93 7/08 C 7/18 H04N 5/93 E Fターム(参考) 5B050 BA09 BA10 DA07 EA03 EA13 EA27 FA02 FA10 5B069 AA16 BA10 DD09 DD15 JA04 5C022 AB68 AC01 AC13 AC18 AC21 AC42 AC77 5C052 AA01 AB04 CC06 DD04 5C053 FA23 HA40 KA24 LA01 LA06 5C054 AA01 AA05 CC02 CE02 EA05 EA07 EH01 FA02 FD02 FE12 FE28 GB06 HA16 5D015 AA06 CC03 KK01 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/225 H04N 7/18 U 5C054 G10L 3/00 531N 5D015 5/76 551G 5/93 7/08 C 7/18 H04N 5/93 EF term (reference) 5B050 BA09 BA10 DA07 EA03 EA13 EA27 FA02 FA10 5B069 AA16 BA10 DD09 DD15 JA04 5C022 AB68 AC01 AC13 AC18 AC21 AC42 AC77 5C052 AA01 AB04 CC06 DD04 5C053 FA23 HA40 A05A05 A05 A05 LA05 CC02 CE02 EA05 EA07 EH01 FA02 FD02 FE12 FE28 GB06 HA16 5D015 AA06 CC03 KK01

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 画像データを格納するデータ格納手段
と、 鑑賞者にセットされ、前記データ格納手段に格納された
画像データに基づく画像を表示する表示手段と、 鑑賞者の位置を検出する位置検出手段と、 前記位置検出手段で検出された位置に基づき、前記デー
タ格納手段に画像データが格納された画像の中から画像
を選択し、選択された当該画像を前記表示手段に表示さ
せる制御手段と、 前記位置検出手段で検出された位置が、前記データ格納
手段に画像データが格納された画像の撮影視点によって
決まる所定の範囲から外れるときに、鑑賞者に対してコ
ーションを出力するコーション出力手段と、を備えるこ
とを特徴とする画像再生装置。
1. A data storage means for storing image data, a display means set in a viewer and displaying an image based on the image data stored in the data storage means, and a position detection for detecting a position of the viewer. Means, based on a position detected by the position detecting means, a control means for selecting an image from among images in which image data is stored in the data storage means, and displaying the selected image on the display means; A position output unit that outputs a caution to a viewer when a position detected by the position detection unit deviates from a predetermined range determined by a shooting viewpoint of an image in which image data is stored in the data storage unit; An image reproducing apparatus comprising:
【請求項2】 前記データ格納手段に、一つの撮影位置
から複数方向の撮影を行なって得た複眼画像の画像デー
タが格納され、 前記表示手段は、前記複眼画像の画像データに基づいた
画像を表示することを特徴とする請求項1記載の画像再
生装置。
2. The image data of a compound eye image obtained by performing photographing in a plurality of directions from one photographing position is stored in the data storage means. The display means displays an image based on the image data of the compound eye image. The image reproducing apparatus according to claim 1, wherein the image is displayed.
【請求項3】 前記位置検出手段は、鑑賞者にセットさ
れた歩行検出装置により当該鑑賞者の歩行を検出し、検
出された歩行の情報を基に、前記鑑賞者の移動量を検出
することを特徴とする請求項1記載の画像再生装置。
3. The position detecting means detects a walk of the viewer by a walk detecting device set to the viewer, and detects a moving amount of the viewer based on information of the detected walk. The image reproducing apparatus according to claim 1, wherein:
【請求項4】 画像データを格納するデータ格納手段
と、 前記データ格納手段に格納された画像データに基づく画
像を鑑賞者に対して表示する表示手段と、 鑑賞者の視点の位置を検出する視点位置検出手段と、 前記視点位置検出手段で検出された鑑賞者の視点の位置
に基づき、表示すべき画像を選択し、選択された当該画
像の画像データを前記データ格納手段から取り出し、当
該画像データに基づく画像を前記表示手段に表示させる
制御手段と、 前記データ格納手段に格納された画像データに基づいて
画像の表示が可能なエリアを、前記表示手段に表示させ
るエリア表示手段と、を備えることを特徴とする画像再
生装置。
4. A data storage means for storing image data, a display means for displaying an image based on the image data stored in the data storage means to a viewer, and a viewpoint for detecting a position of a viewpoint of the viewer. Position detecting means, selecting an image to be displayed based on the position of the viewer's viewpoint detected by the viewpoint position detecting means, extracting image data of the selected image from the data storage means, Control means for displaying an image based on the image data on the display means, and area display means for displaying on the display means an area where an image can be displayed based on the image data stored in the data storage means. An image reproducing apparatus characterized by the above-mentioned.
【請求項5】 前記視点位置検出手段で検出された鑑賞
者の視点の位置と、前記エリアとの関係が所定の条件を
満たすときに、鑑賞者に対してコーションを出力するコ
ーション出力手段を更に備えることを特徴とする請求項
4記載の画像再生装置。
5. A caution output means for outputting a caution to a viewer when a relation between the position of the viewer's viewpoint detected by the viewpoint position detecting means and the area satisfies a predetermined condition. The image reproducing apparatus according to claim 4, further comprising:
【請求項6】 画像データを格納するデータ格納手段
と、 鑑賞者にセットされ、前記データ格納手段に格納された
画像データに基づく画像を表示する表示手段と、 鑑賞者の歩行移動量を検出することによって鑑賞者の位
置を検出する位置検出手段と、 前記位置検出手段で検出された位置に基づき、前記デー
タ格納手段に画像データが格納された画像の中から画像
を選択し、選択された当該画像を前記表示手段に表示さ
せる制御手段と、を備えることを特徴とする画像再生装
置。
6. A data storage means for storing image data, a display means set in the viewer and displaying an image based on the image data stored in the data storage means, and detecting a walking movement amount of the viewer. Position detecting means for detecting the position of the viewer by means of, based on the position detected by the position detecting means, an image is selected from the image data stored in the data storage means, the selected An image reproducing apparatus, comprising: control means for displaying an image on the display means.
【請求項7】 前記位置検出手段は、鑑賞者が歩行する
ときに発する振動を採集して電気信号に変換するマイク
ロフォンと、 前記マイクロフォンから転送された電気信号に基づき、
所定の周波数以下に対応した信号の変化を解析して鑑賞
者の歩行を検出し、鑑賞者の歩行移動量を検出する検出
部と、を備えることを特徴とする請求項6記載の画像再
生装置。
7. The microphone according to claim 1, wherein the position detection unit collects vibrations generated when the viewer walks and converts the vibrations into electric signals, and based on the electric signals transferred from the microphone,
7. The image reproducing apparatus according to claim 6, further comprising: a detecting unit that analyzes a change in a signal corresponding to a predetermined frequency or less to detect a walker of the viewer and detects a walking movement amount of the viewer. .
【請求項8】 所定エリア内の複数位置で撮影した画像
の再生方法であって、 画像のビューワを装着した鑑賞者の位置を検出する位置
検出段階と、 検出された鑑賞者の位置に基づき、前記ビューワに表示
させる画像を選択する画像選択段階と、 選択された画像を前記ビューワに表示させる表示段階
と、 前記画像選択段階で選択された画像が存在しないとき
に、鑑賞者に対してコーションを出力するコーション出
力段階と、 を備えることを特徴とする画像再生方法。
8. A method for reproducing an image captured at a plurality of positions in a predetermined area, comprising: a position detecting step of detecting a position of a viewer wearing a viewer of the image; An image selection step of selecting an image to be displayed on the viewer; a display step of displaying the selected image on the viewer; and a caution for the viewer when the image selected in the image selection step does not exist. Outputting a caution output step.
【請求項9】 前記位置検出段階では、鑑賞者の歩行時
に当該鑑賞者の体を伝わる振動のうち、100Hz以下
の周波数帯域の成分を検出し、 検出された成分を信号に変換し、当該信号を解析して前
記鑑賞者の歩行を検出し、当該鑑賞者の歩行移動量を推
定することを特徴とする請求項8記載の画像再生方法。
9. In the position detecting step, a component in a frequency band of 100 Hz or less is detected from vibration transmitted through the body of the viewer when the viewer walks, and the detected component is converted into a signal. 9. The image reproducing method according to claim 8, further comprising: analyzing the information to detect the walking of the viewer, and estimating a walking movement amount of the viewer.
JP2001040233A 2001-02-16 2001-02-16 Device and method for image reproduction Pending JP2002245490A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001040233A JP2002245490A (en) 2001-02-16 2001-02-16 Device and method for image reproduction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001040233A JP2002245490A (en) 2001-02-16 2001-02-16 Device and method for image reproduction

Publications (1)

Publication Number Publication Date
JP2002245490A true JP2002245490A (en) 2002-08-30

Family

ID=18902879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001040233A Pending JP2002245490A (en) 2001-02-16 2001-02-16 Device and method for image reproduction

Country Status (1)

Country Link
JP (1) JP2002245490A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126784A (en) * 2002-09-30 2004-04-22 P To Pa:Kk Image display apparatus, image display method and program
JP2004126941A (en) * 2002-10-02 2004-04-22 P To Pa:Kk Image display apparatus, image display method and program
JP2006502438A (en) * 2002-10-07 2006-01-19 ハリス コーポレイション System and method for high-precision real-time tracking and positioning in three dimensions
JP2006079174A (en) * 2004-09-07 2006-03-23 Canon Inc Virtual reality presentation device and information processing method
JP2013504239A (en) * 2009-09-04 2013-02-04 ブライトブリック ゲーエムベーハー Portable wide-angle video recording system
JP2013243754A (en) * 2013-07-23 2013-12-05 Olympus Corp Server and image transmission method of server
WO2013186805A1 (en) * 2012-06-11 2013-12-19 株式会社ソニー・コンピュータエンタテインメント Image pickup device and image pickup method
JP5919546B1 (en) * 2015-01-19 2016-05-18 株式会社アクセル Image reproduction method, image reproduction apparatus, and image reproduction program
CN106534806A (en) * 2016-12-15 2017-03-22 大连文森特软件科技有限公司 Augmented reality (AR) technology-based bird identification recreation system
JP2018099523A (en) * 2013-09-30 2018-06-28 株式会社ソニー・インタラクティブエンタテインメント Method for fading out image of physical object

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126784A (en) * 2002-09-30 2004-04-22 P To Pa:Kk Image display apparatus, image display method and program
JP2004126941A (en) * 2002-10-02 2004-04-22 P To Pa:Kk Image display apparatus, image display method and program
JP2006502438A (en) * 2002-10-07 2006-01-19 ハリス コーポレイション System and method for high-precision real-time tracking and positioning in three dimensions
JP2006079174A (en) * 2004-09-07 2006-03-23 Canon Inc Virtual reality presentation device and information processing method
JP4500632B2 (en) * 2004-09-07 2010-07-14 キヤノン株式会社 Virtual reality presentation apparatus and information processing method
JP2013504239A (en) * 2009-09-04 2013-02-04 ブライトブリック ゲーエムベーハー Portable wide-angle video recording system
WO2013186805A1 (en) * 2012-06-11 2013-12-19 株式会社ソニー・コンピュータエンタテインメント Image pickup device and image pickup method
JP2013243754A (en) * 2013-07-23 2013-12-05 Olympus Corp Server and image transmission method of server
JP2018099523A (en) * 2013-09-30 2018-06-28 株式会社ソニー・インタラクティブエンタテインメント Method for fading out image of physical object
US10532284B2 (en) 2013-09-30 2020-01-14 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
JP5919546B1 (en) * 2015-01-19 2016-05-18 株式会社アクセル Image reproduction method, image reproduction apparatus, and image reproduction program
CN106534806A (en) * 2016-12-15 2017-03-22 大连文森特软件科技有限公司 Augmented reality (AR) technology-based bird identification recreation system

Similar Documents

Publication Publication Date Title
US11373378B2 (en) Device for simulating a virtual fitness partner and methods for use therewith
JP3570163B2 (en) Method and apparatus and system for recognizing actions and actions
JP7318641B2 (en) Program, information processing device, and information processing method
JP5431650B2 (en) Walking navigation system
JP2007144107A (en) Exercise assisting system
JP6332830B2 (en) Exercise support system, exercise support method, and exercise support program
JP2016034482A (en) Exercise analysis device, exercise analysis method, exercise analysis program, and exercise analysis system
JP2002197437A (en) Walking detection system, walking detector, device and walking detecting method
TWI638280B (en) Method, electronic apparatus and recording medium for automatically configuring sensors
JPH09120464A (en) Rehabilitation support device
KR20150127193A (en) Feedback signals from image data of athletic performance
Hwang et al. Real-time gait analysis using a single head-worn inertial measurement unit
JP4121974B2 (en) Image capturing system and image capturing method
KR101716015B1 (en) A health apparatus and a controlling method thererof
JP2002245490A (en) Device and method for image reproduction
CN115129164B (en) Interaction control method and system based on virtual reality and virtual reality equipment
JP2013066696A (en) Image processing system and image processing method
KR20180112656A (en) Interactive trampoline play system and control method for the same
JP2000342713A (en) Sport broadcasting device which can feel bodily sensation
JP2013130808A (en) Electronic apparatus
US20030103016A1 (en) Immersive display system
US20210366450A1 (en) Information processing apparatus, information processing method, and recording medium
JP2020188860A (en) Mountain climber support device, system, method and program
US11839466B2 (en) Biofeedback for altering gait
JP6127302B2 (en) Exercise assistance device, exercise assistance method, program