JP2017158169A - Image display system, display device, and program - Google Patents

Image display system, display device, and program Download PDF

Info

Publication number
JP2017158169A
JP2017158169A JP2016125383A JP2016125383A JP2017158169A JP 2017158169 A JP2017158169 A JP 2017158169A JP 2016125383 A JP2016125383 A JP 2016125383A JP 2016125383 A JP2016125383 A JP 2016125383A JP 2017158169 A JP2017158169 A JP 2017158169A
Authority
JP
Japan
Prior art keywords
image data
image
moving object
pedestrian
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016125383A
Other languages
Japanese (ja)
Inventor
堀川 裕文
Hirofumi Horikawa
裕文 堀川
本間 咲子
Sakiko Honma
咲子 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2017158169A publication Critical patent/JP2017158169A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display system which facilitates evaluating the advance motion of a moving body.SOLUTION: The image display system comprising one or more information processing device and a display device comprises: acquisition means for acquiring image data obtained by imaging with a wide-angle imaging apparatus capable of imaging the surrounding in a horizontal direction; and display control means which causes the display device to display a moving body reflected in the image data.SELECTED DRAWING: Figure 1

Description

本発明は、画像表示システム、表示装置及びプログラムに関する。   The present invention relates to an image display system, a display device, and a program.

人などが歩行することは健康促進に役立つことが知られている。また、歩行の際には正しい姿勢で歩行することが健康上好ましく、また、転倒しにくいとされている。歩行時の姿勢を本人が評価することは困難なので、歩行に関する指導者等が歩行動作を客観的に解析したり、解析結果を歩行者に指導する試みが行われる場合がある。   It is known that walking by people helps to promote health. In addition, when walking, it is preferable for health to walk with a correct posture, and it is difficult to fall. Since it is difficult for the person to evaluate the posture at the time of walking, there are cases in which an instructor or the like related to walking objectively analyzes walking motion or tries to guide the analysis result to the pedestrian.

人などの姿勢や動作を測定するシステムとしてはモーションキャプチャシステムが知られている。モーションキャプチャシステムでは、マーカなどが体の関節位置などに装着された人などをカメラが撮像して、トラッカーによりマーカの動きを追跡することで、コンピュータが人などの歩行動作を解析することができる。   A motion capture system is known as a system for measuring the posture and motion of a person or the like. In a motion capture system, a camera can image a person with a marker attached to the joint position of the body, etc., and track the movement of the marker with a tracker, so that the computer can analyze the walking motion of a person .

しかしながら、モーションキャプチャシステムは、様々な角度から人などの動きを捉えるためにマーカが多数必要であり、歩行動作の撮像までの準備や撮像後の解析に時間やコストがかかる傾向がある。また、実験室のような特別な環境でしか歩行動作を測定できないという不都合があった。   However, the motion capture system requires a large number of markers in order to capture the movement of a person or the like from various angles, and there is a tendency that it takes time and cost to prepare for imaging of walking motion and to analyze after imaging. In addition, there is a disadvantage that walking motion can be measured only in a special environment such as a laboratory.

このような不都合に対して、身体の所定の部位に複数のマークが装着された歩行者の撮像画像を用い比較的簡単な構成で歩行動作を解析できる技術が考案されている(例えば、特許文献1参照。)。   For such inconvenience, a technique has been devised that can analyze a walking motion with a relatively simple configuration using a captured image of a pedestrian with a plurality of marks attached to a predetermined part of the body (for example, Patent Documents). 1).

しかしながら、特許文献1に開示された技術では、撮像可能な歩行動作が限られてしまうという問題がある。これは、歩行することで人などは徐々に移動するのに対しカメラの位置や向きは固定されているためである。カメラが固定されていると、例えば、直線的に歩行する歩行者の歩行動作しか撮像できず、直線的な歩行以外の歩行者の歩行動作を撮像することが困難である。   However, the technique disclosed in Patent Document 1 has a problem that walking motions that can be imaged are limited. This is because the position and orientation of the camera are fixed while people and the like move gradually by walking. When the camera is fixed, for example, only a walking motion of a pedestrian who walks linearly can be captured, and it is difficult to capture a walking motion of a pedestrian other than a linear walk.

人の歩行に合わせてカメラの向きや位置を変更するシステムがあれば撮像可能な歩行動作を広げることができるが、そのためのコストやスペースを考慮すると広く一般に使用されるシステムとして実現することは容易でない。   If there is a system that changes the direction and position of the camera according to the person's walking, the walking motion that can be imaged can be expanded, but considering the cost and space for that, it is easy to realize as a widely used system Not.

本発明は、上記課題に鑑み、動体の進行動作を評価できる画像表示システムを提供することを目的する。   In view of the above problems, an object of the present invention is to provide an image display system that can evaluate the moving motion of a moving object.

本発明は、上記課題に鑑み、1つ以上の情報処理装置、及び、表示装置を有する画像表示システムであって、水平方向の周囲を撮像できる広角撮像装置が撮像した画像データを取得する取得手段と、前記画像データに映っている動体を前記表示装置に表示させる表示制御手段と、を有する。   In view of the above problems, the present invention is an image display system having one or more information processing devices and a display device, and acquiring means for acquiring image data captured by a wide-angle imaging device capable of capturing an image in the horizontal direction. And display control means for causing the display device to display a moving object shown in the image data.

動体の進行動作を評価しやすい画像表示システムを提供できる。   It is possible to provide an image display system that can easily evaluate the moving motion of a moving object.

画像表示システムの概略的な動作を説明する図の一例である。It is an example of the figure explaining schematic operation | movement of an image display system. 画像表示システムの概略構成図の一例である。1 is an example of a schematic configuration diagram of an image display system. サーバのハードウェア構成図の一例である。It is an example of the hardware block diagram of a server. 加速度測定装置のハードウェア構成図の一例である。It is an example of the hardware block diagram of an acceleration measuring device. 全天球画像撮像装置のハードウェア構成図の一例である。It is an example of the hardware block diagram of an omnidirectional image pick-up device. サーバ、表示装置、全天球画像撮像装置、及び、加速度測定装置の機能ブロック図の一例である。It is an example of a functional block diagram of a server, a display device, an omnidirectional image capturing device, and an acceleration measuring device. 全天球画像撮像装置の周囲を歩行者がどのように歩行するかを説明する図の一例である。It is an example of the figure explaining how a pedestrian walks the circumference | surroundings of an omnidirectional image imaging device. 画像表示システムの全体的な動作を説明するシーケンス図の一例である。It is an example of the sequence diagram explaining the whole operation | movement of an image display system. 画像表示システムの全体的な動作の変形例を説明するシーケンス図の一例である。It is an example of the sequence diagram explaining the modification of the whole operation | movement of an image display system. 画像表示システムの全体的な動作の変形例を説明するシーケンス図の一例である。It is an example of the sequence diagram explaining the modification of the whole operation | movement of an image display system. 画像表示システムの全体的な動作の変形例を説明するシーケンス図の一例である。It is an example of the sequence diagram explaining the modification of the whole operation | movement of an image display system. 画像表示システムの全体的な動作の変形例を説明するシーケンス図の一例である。It is an example of the sequence diagram explaining the modification of the whole operation | movement of an image display system. 表示装置がディスプレイに表示した画像データと測定データの一例を示す図である。It is a figure which shows an example of the image data and measurement data which the display apparatus displayed on the display. 歩行者が写っている範囲を画像回転部が特定して画像データ欄に表示する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which an image rotation part specifies the range which the pedestrian is reflected, and displays it on an image data column. 全天球画像の上面図における歩行者の足の位置を模式的に示す図である。It is a figure which shows typically the position of the foot of a pedestrian in the top view of an omnidirectional image. 歩行者が写っている範囲を画像回転部が特定して画像データ欄に表示する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which an image rotation part specifies the range which the pedestrian is reflected, and displays it on an image data column. 顔の認識を模式的に説明する図の一例である。It is an example of the figure which illustrates face recognition typically. 動体の検出を模式的に説明する図の一例である。It is an example of the figure which illustrates the detection of a moving body typically. 全天球画像からトリミングされる表示範囲を説明する図の一例である。It is an example of the figure explaining the display range trimmed from a spherical image. 2つの全天球画像を用いて外接矩形の中心Oを決定する方法を説明する図の一例である。It is an example of the figure explaining the method of determining the center O of a circumscribed rectangle using two omnidirectional images. 表示装置が常に2つの全天球画像を監視して表示範囲をトリミングする手順のフローチャート図の一例である。It is an example of the flowchart figure of the procedure in which a display apparatus always monitors two spherical images and trims a display range. 歩行者が端部に近寄った場合に全天球画像を切り替える方法を説明する図の一例である。It is an example of the figure explaining the method of switching an omnidirectional image when a pedestrian approaches the edge part. 歩行者が端部に近寄った場合に全天球画像を切り替えて表示装置が表示範囲をトリミングする手順のフローチャート図の一例である。It is an example of the flowchart figure of the procedure which switches a celestial sphere image and a display apparatus trims a display range when a pedestrian approaches the edge part. 二人の歩行者が撮像される場合の外接矩形の中心Oを説明する図の一例である。It is an example of the figure explaining the center O of a circumscribed rectangle in case two pedestrians are imaged. 歩行者が重複した場合の外接矩形の中心を説明する図の一例である。It is an example of the figure explaining the center of the circumscribed rectangle when a pedestrian overlaps. 表示装置が複数の歩行者の位置を特定し表示範囲をトリミングする手順のフローチャート図の一例である。It is an example of the flowchart figure of the procedure in which a display apparatus specifies the position of several pedestrians and trims a display range. 表示装置の機能ブロック図の一例である(実施例2)。(Example 2) which is an example of the functional block diagram of a display apparatus. 旋回する歩行者を説明する図の一例である。It is an example of the figure explaining the pedestrian who turns. 表示装置がディスプレイに表示したデータ表示画面の一例を示す図である。It is a figure which shows an example of the data display screen which the display apparatus displayed on the display. 画像データの反転を説明する図の一例である。It is an example of the figure explaining inversion of image data. 表示装置が歩行者が写っている範囲を左右反転して画像データ欄に表示する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which the display apparatus reverses right and left the range where the pedestrian is reflected, and displays it in an image data column. 歩行者の位置を説明する図の一例である。It is an example of the figure explaining the position of a pedestrian. 歩行者の位置が表示されたデータ表示画面を説明する図である。It is a figure explaining the data display screen on which the position of the pedestrian was displayed. 反転される位置アイコンの位置の決定方法を説明する図の一例である。It is an example of the figure explaining the determination method of the position of the position icon reversed. 位置アイコンが反転されたデータ表示画面の一例を示す図である。It is a figure which shows an example of the data display screen where the position icon was reversed. 表示制御部がデータ表示画面を表示する手順を説明するフローチャート図の一例である。It is an example of the flowchart figure explaining the procedure in which a display control part displays a data display screen. 直線部分と旋回部分を含むラインを示す図の一例である。It is an example of the figure which shows the line containing a linear part and a turning part. 直線部分と旋回部分を含むラインを歩行中の画像データが表示されたデータ表示画面を説明する図の一例である。It is an example of the figure explaining the data display screen on which the image data during walking on the line containing a straight part and a turning part was displayed. 表示制御部が画像データを表示する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which a display control part displays image data. 画像表示システムの概略構成図の別の一例である。It is another example of the schematic block diagram of an image display system. 図40(b)のような構成において、加速度測定装置が測定データと画像データを表示するシーケンス図である。FIG. 41 is a sequence diagram in which the acceleration measuring device displays measurement data and image data in the configuration as shown in FIG. サーバ、表示装置、全天球画像撮像装置、及び、加速度測定装置の機能ブロック図の一例である。It is an example of a functional block diagram of a server, a display device, an omnidirectional image capturing device, and an acceleration measuring device.

以下、本発明を実施するための形態について図面を参照しながら説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

<画像処理システムの概略>
図1は、本実施形態における画像表示システム100の概略的な動作を説明する図の一例である。全天球画像撮像装置60が設置されており、その周囲を歩行する歩行者を全天球画像撮像装置60が撮像する。歩行者は加速度測定装置50を身体に装着しており、加速度測定装置50は撮像中の歩行者に生じる加速度を測定している。
<Outline of image processing system>
FIG. 1 is an example of a diagram illustrating a schematic operation of the image display system 100 according to the present embodiment. An omnidirectional image capturing device 60 is installed, and the omnidirectional image capturing device 60 captures a pedestrian walking around the omnidirectional image capturing device 60. The pedestrian wears the acceleration measuring device 50 on the body, and the acceleration measuring device 50 measures the acceleration generated in the pedestrian being imaged.

(1)全天球画像撮像装置60は画像データをサーバ10に送信し、加速度測定装置50は加速度の測定データをサーバ10に送信する。   (1) The omnidirectional image capturing device 60 transmits image data to the server 10, and the acceleration measuring device 50 transmits acceleration measurement data to the server 10.

(2)画像データの撮像開始時刻と測定データの測定開始時刻は同期しており、画像データの撮像終了時刻と測定データの測定終了時刻は同期している。このため、サーバ10は画像データと測定データの時間軸を同期させることができる。   (2) The imaging start time of image data and the measurement start time of measurement data are synchronized, and the imaging end time of image data and the measurement end time of measurement data are synchronized. For this reason, the server 10 can synchronize the time axes of image data and measurement data.

(3)サーバ10は、時間軸を同期させた画像データと測定データを表示装置30に送信する。これにより表示装置30は画像データと測定データを同じ時間軸で表示することができる。   (3) The server 10 transmits the image data and measurement data whose time axes are synchronized to the display device 30. Thereby, the display device 30 can display the image data and the measurement data on the same time axis.

(4)表示装置30は全天球画像から歩行者を検出して歩行者を含む表示範囲をトリミングしてディスプレイに表示する。全天球画像は周囲の360°を撮像可能であるため歩行者が全天球画像撮像装置60のどの方位にいても同じ大きさで撮像できる。しかし、表示装置30が全天球画像をメルカトル図法などで長方形に変換すると、画像が歪むために指導者等が見にくいおそれがある。また、歩行者の画像も小さくなってしまう。そこで、表示装置30は上記のようにトリミングすることで歪みの少ない歩行者を大きくディスプレイに表示することを可能とする。   (4) The display device 30 detects a pedestrian from the omnidirectional image, trims a display range including the pedestrian, and displays it on the display. Since the omnidirectional image can pick up 360 degrees around the omnidirectional image, the pedestrian can take an image with the same size regardless of the orientation of the omnidirectional image pickup device 60. However, if the display device 30 converts the omnidirectional image into a rectangle by the Mercator projection or the like, the image may be distorted and it may be difficult for a leader or the like to see. Moreover, a pedestrian's image will also become small. Therefore, the display device 30 can display a pedestrian with less distortion on the display by performing trimming as described above.

このような構成によれば、まず、全天球画像撮像装置60が用いられ、その周囲を歩行する歩行者が撮像されるので、直線的に移動する歩行者だけでなく旋回したり右左折したり歩行者を撮像可能になる。歩行者は旋回したり右左折する際に重心を崩しやすいことが知られており、旋回したり右左折する歩行者を撮像できることが歩行動作の解析に有効になる。また、全天球画像撮像装置60はカメラを移動させたりすることなく歩行者の側面を常に撮像できるので歩行者の身体の前後方向の揺れ方などを撮像できる。また、歪みの少ない画像で常に歩行者が大きく表示されるので指導者にとっても見やすい映像となる。歩き方の指導者等は、歩行者の歩行動作を映像で確認して歩行動作を評価し改善点を指導できる。   According to such a configuration, first, the omnidirectional image capturing device 60 is used, and a pedestrian walking around the pedestrian is imaged. Therefore, not only a pedestrian moving linearly but also turning or turning left and right. Or pedestrians can be imaged. It is known that a pedestrian tends to lose its center of gravity when turning or turning left and right, and being able to image a pedestrian making a turn or turning left and right is effective for analysis of walking motion. Further, since the omnidirectional image capturing device 60 can always capture the side surface of the pedestrian without moving the camera, it can capture how the pedestrian's body shakes in the front-rear direction. In addition, since the pedestrian is always displayed large in an image with little distortion, the video is easy to see for the instructor. An instructor or the like who walks can check the walking motion of the pedestrian with a video, evaluate the walking motion, and guide improvement points.

また、歩行者の加速度などが測定された測定データが画像データと同じ時間軸で表示されるので、指導者等が改善すべき歩行動作を発見した場合に、歩行動作が良好でないことを測定データで裏付けることができる。また逆に、予め用意されている良好とされる測定データと歩行者(被験者)の測定データを比較することで、指導者等は好ましくない測定データを発見できる。好ましくない測定データは画像データと対応付けられているので、指導者等は改善すべき歩行動作を画像データから特定することができる。従って、測定データと画像データを相補的に利用して歩行動作を評価できる。   In addition, since the measurement data that measures the acceleration of the pedestrian is displayed on the same time axis as the image data, if the instructor finds a walking motion that should be improved, the measured data indicates that the walking motion is not good. Can be supported by On the other hand, by comparing the measurement data prepared in advance, which is considered good, with the measurement data of the pedestrian (subject), the instructor can find undesirable measurement data. Since the unfavorable measurement data is associated with the image data, the instructor or the like can specify the walking motion to be improved from the image data. Therefore, the walking motion can be evaluated by using the measurement data and the image data in a complementary manner.

<用語について>
動体とは、前方、後方、横方向などに進行する対象をいう。あるいは、重心移動を伴って進行する対象である。具体的には、人、動物又はロボット等が挙げられるが、以下では説明のため人(歩行者)を例にして説明する。歩行には走ることが含まれる。また、後ろ向きに歩行してもよい。また、人などが乗車した車椅子、義足を装着した人、自転車、竹馬、三輪車なども動体である。
<Terminology>
A moving body refers to an object that travels forward, backward, laterally, and the like. Alternatively, it is an object that travels with the movement of the center of gravity. Specific examples include humans, animals, robots, and the like, but in the following description, humans (pedestrians) will be described as an example for explanation. Walking includes running. You may also walk backwards. In addition, wheelchairs on which people have boarded, people wearing artificial legs, bicycles, stilts, tricycles, etc. are also moving objects.

動体は方向を変えながら又は方向を変えて歩行する。「方向を変えながら」とは、少なくとも歩行したラインが直線でないことをいう。また、「方向を変えて」とは歩行したラインから2つ以上の直線が見いだせることをいう。具体的には動体は旋回したり右左折したりする。ラインとは動体が移動する経路、道筋、軌跡をいう。   The moving object walks while changing its direction or changing its direction. “While changing the direction” means that at least the walking line is not a straight line. “Changing the direction” means that two or more straight lines can be found from the walking line. Specifically, the moving body turns and turns right and left. A line refers to a path, path, or locus along which a moving object moves.

また、加速度は進行する対象の進行動作を評価できる情報の一例である。進行する対象の進行動作を評価できる情報は、進行する対象の進行に伴って変動する情報をいう。あるいは、進行する対象に装着された場合に進行に伴って変動する情報でもよい。あるいは、進行動作を良否などを評価可能な情報といってもよい。具体的には、加速度、角速度、位置又は方位等である。   Further, acceleration is an example of information that can evaluate the traveling motion of a traveling object. The information that can evaluate the progress of the progressing object refers to information that varies with the progress of the progressing object. Alternatively, it may be information that varies with progress when attached to a target that travels. Or you may say that progress operation | movement is the information which can evaluate quality etc. Specifically, it is acceleration, angular velocity, position or orientation.

画像データと測定データが対応づけられるとは、いくつかある画像データのうち1つ以上の画像データが決まると、いくつかある測定データのうち1つ以上の測定データが決まることをいう。あるいは、ほぼ同じ時刻に測定された画像データと測定データが特定され、時刻、画像データ又は測定データの1つが決まると残りが決まることをいう。   Correspondence between image data and measurement data means that when one or more pieces of image data are determined from some image data, one or more pieces of measurement data are determined. Alternatively, image data and measurement data measured at substantially the same time are specified, and when one of time, image data, or measurement data is determined, the rest is determined.

指導者とは、歩行者の歩行動作を映像で確認して歩行動作を評価し改善点等を立案できる者をいう。具体的には保健師、臨床検査技師、義肢装具士などの資格の保有者が挙げられるが、資格はなくてもよい。また、歩行動作を評価し改善点等を立案できる者でなくても画像表示システム100の操作は可能であり、指導者は操作者、ユーザ、又は利用者等と呼ばれてもよい。   A leader refers to a person who can confirm a walking motion of a pedestrian with a video, evaluate the walking motion, and plan improvement points. Specific examples include holders of qualifications such as public health nurses, clinical laboratory technicians, and prosthetic limb orthoses. Moreover, even if it is not a person who can evaluate a walking motion and can plan an improvement point etc., operation of the image display system 100 is possible, and a leader may be called an operator, a user, or a user.

<システム構成例>
図2は、本実施形態の画像表示システム100の概略構成図の一例を示す。画像表示システム100は、ネットワークNを介して相互に通信可能なサーバ10、加速度測定装置50、全天球画像撮像装置60、及び、表示装置30を有する。
<System configuration example>
FIG. 2 shows an example of a schematic configuration diagram of the image display system 100 of the present embodiment. The image display system 100 includes a server 10, an acceleration measuring device 50, an omnidirectional image capturing device 60, and a display device 30 that can communicate with each other via a network N.

ネットワークNは、画像表示システム100が配置されている施設などに構築されているLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等により構築されている。ネットワークNが複数のLANを有する場合、ネットワークNはWANやインターネットと呼ばれる。ネットワークNは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。また、表示装置30が直接、回線電話網や携帯電話網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。   The network N is constructed by a LAN constructed in a facility where the image display system 100 is arranged, a provider network of a provider that connects the LAN to the Internet, a line provided by a circuit provider, and the like. When the network N has a plurality of LANs, the network N is called a WAN or the Internet. The network N may be constructed by either wired or wireless, and wired and wireless may be combined. When the display device 30 is directly connected to a line telephone network or a mobile phone network, it can be connected to a provider network without going through a LAN.

全天球画像撮像装置60は全天球画像又は全方位画像(以下、単に全天球画像又は全方位画像という)と呼ばれる周囲360°の風景を撮像する撮像装置(カメラ)である。後述する光学系を備えることで全天球画像撮像装置60は一回の撮像動作で全天球画像を得ることができる。全天球画像にはほぼ死角なく周囲360°の画像が撮像されているため、指導者等は任意の領域を選択的にディスプレイ等に表示させ閲覧することができる。なお、本実施形態では、緯度方向(画像の上下方向)で360°度の撮像範囲を有していなくてもよい。天井部や床の領域は歩行者が映らないためである。また、経度方向(画像の水平方向)で360°度の全範囲で撮像できなくてもよい。これは、歩行者の歩行動作を指導者等が解析するために全天球画像撮像装置60の全周の旋回までは必要でない場合があるためである。また、全天球画像撮像装置60として、ある画角の矩形範囲を撮像する撮像装置が撮像した複数の画像をつなぎ合わせることで全天球画像を得る撮像装置が用いられてもよい。   The omnidirectional image capturing device 60 is an image capturing device (camera) that captures a 360 ° surrounding landscape called an omnidirectional image or an omnidirectional image (hereinafter simply referred to as an omnidirectional image or an omnidirectional image). By providing an optical system to be described later, the omnidirectional image capturing device 60 can obtain an omnidirectional image by one imaging operation. Since the omnidirectional image has an image of 360 ° around the blind spot, the instructor can selectively display an arbitrary area on the display or the like for viewing. In the present embodiment, it is not necessary to have an imaging range of 360 degrees in the latitude direction (up and down direction of the image). This is because pedestrians are not shown in the ceiling and floor areas. Further, it may not be possible to capture an image in the entire range of 360 degrees in the longitude direction (the horizontal direction of the image). This is because it may not be necessary to turn the entire omnidirectional image capturing device 60 in order for the instructor to analyze the walking motion of the pedestrian. Further, as the omnidirectional image capturing device 60, an image capturing device that obtains an omnidirectional image by connecting a plurality of images captured by an image capturing device that captures a rectangular range of a certain angle of view may be used.

加速度測定装置50は、歩行者の加速度を測定する装置である。加速度は鉛直方向加速度、進行方向加速度、左右方向加速度の3軸それぞれで測定されることが好適であるが、いずれか一方向の加速度でもよい。加速度測定装置50として加速度を測定する専用のセンサも存在するが、加速度測定装置50は加速度センサを有している装置であればよい。具体的には、スマートフォン、携帯電話、タブレット端末、ノートPC、ウェアラブルPC(ヘッドマウントディスプレイ、サングラスや腕時計などとして装着される)、歩度計などであるが、これらには限られない。   The acceleration measuring device 50 is a device that measures the acceleration of a pedestrian. The acceleration is preferably measured on each of the three axes of vertical acceleration, traveling acceleration, and lateral acceleration, but may be acceleration in any one direction. Although there is a dedicated sensor for measuring acceleration as the acceleration measuring device 50, the acceleration measuring device 50 may be a device having an acceleration sensor. Specific examples include smartphones, mobile phones, tablet terminals, notebook PCs, wearable PCs (mounted as head mounted displays, sunglasses, watches, etc.), pedometers, and the like, but are not limited thereto.

また、加速度測定装置50は、加速度の他、角速度、位置、方位などを測定する機能を有してよい。角速度を測定するセンサはジャイロセンサと呼ばれ、位置はGPS衛星、IMES、又は、ビーコンなどにより加速度測定装置50に提供される。東西南北の方位を例えば北を基準に検出するセンサは方位センサと呼ばれる。これらはいずれも加速度と同様に歩行動作の評価に用いられることができる。本実施形態では、説明を簡便にするため加速度測定装置50が加速度を測定するものとして説明するが、加速度測定装置50はこれら歩行動作の評価に用いられる測定データをサーバ10に送信できる。   Further, the acceleration measuring device 50 may have a function of measuring angular velocity, position, orientation, etc. in addition to acceleration. The sensor that measures the angular velocity is called a gyro sensor, and the position is provided to the acceleration measuring device 50 by a GPS satellite, IMES, or a beacon. A sensor that detects the direction of east, west, north, and south, for example, with reference to the north is called an orientation sensor. Any of these can be used for the evaluation of the walking motion as well as the acceleration. In the present embodiment, the acceleration measuring device 50 is described as measuring acceleration for the sake of simplicity, but the acceleration measuring device 50 can transmit measurement data used for evaluating these walking motions to the server 10.

サーバ10は、全天球画像撮像装置60からの画像データを受信して加工したり、測定データを受信して画像データと時間軸を同期させたりする情報処理装置である。このサーバ10の機能を加速度測定装置50や表示装置30が兼用することができる。   The server 10 is an information processing device that receives and processes image data from the omnidirectional image capturing device 60, or receives measurement data and synchronizes the image data with the time axis. The function of the server 10 can be shared by the acceleration measuring device 50 and the display device 30.

表示装置30は、指導者等が画像データと測定データを表示させる端末装置として使用される情報処理装置である。具体的には、例えば、PC(Personal Computer)、スマートフォン、タブレット装置、携帯電話機、カーナビゲーション端末、ウェアラブルコンピュータ(ヘッドマウントディスプレイ、サングラス、腕時計など)、カメラ、電子黒板、プロジェクタ、ゲーム機、又は、MFP(Multifunction Peripheral/Printer/Product)などが挙げられる。   The display device 30 is an information processing device used as a terminal device that allows an instructor or the like to display image data and measurement data. Specifically, for example, PC (Personal Computer), smart phone, tablet device, mobile phone, car navigation terminal, wearable computer (head mounted display, sunglasses, wristwatch, etc.), camera, electronic blackboard, projector, game machine, or MFP (Multifunction Peripheral / Printer / Product) etc. are mentioned.

<ハードウェア構成例>
図3は、サーバ10のハードウェア構成図の一例である。なお、図示するサーバ10のハードウェア構成は、1つの筐体に収納されていたりひとまとまりの装置として備えられていたりする必要はなく、サーバ10が備えていることが好ましいハード的な要素を示す。サーバ10の構成は負荷などに応じて適宜リソースが配分されるクラウドコンピューティングにより決定されてもよい。
<Hardware configuration example>
FIG. 3 is an example of a hardware configuration diagram of the server 10. Note that the hardware configuration of the server 10 shown in the figure does not need to be housed in a single casing or provided as a single device, and represents a hardware element that is preferably provided in the server 10. . The configuration of the server 10 may be determined by cloud computing in which resources are appropriately allocated according to a load or the like.

サーバ10は、バス110に接続されたCPU101、ROM102、RAM103、HDD105、メディアドライブ107、ディスプレイ108、ネットワークI/F109、キーボード111、マウス112、及び、光学ドライブ114を有する。CPU101は、HD104に記憶されている画像処理プログラムを実行して、サーバ10の全体の動作を制御する。ROM102はIPL(Initial Program Reader)等のCPU101の駆動に用いられるプログラムを記憶している。RAM103はCPU101のワークエリアとして使用される主記憶装置である。HD104は不揮発性メモリを搭載した記憶装置である。   The server 10 includes a CPU 101, ROM 102, RAM 103, HDD 105, media drive 107, display 108, network I / F 109, keyboard 111, mouse 112, and optical drive 114 connected to the bus 110. The CPU 101 executes an image processing program stored in the HD 104 and controls the overall operation of the server 10. The ROM 102 stores a program used for driving the CPU 101 such as an IPL (Initial Program Reader). A RAM 103 is a main storage device used as a work area for the CPU 101. The HD 104 is a storage device equipped with a nonvolatile memory.

HDD(Hard Disk Drive)105はCPU101の制御に従ってHD104に対する各種データの読み出し又は書き込みを制御する。ディスプレイ(表示装置30)108はカーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。ネットワークI/F109はネットワークNとのインタフェースである。   An HDD (Hard Disk Drive) 105 controls reading or writing of various data with respect to the HD 104 according to the control of the CPU 101. A display (display device 30) 108 displays various information such as a cursor, menu, window, character, or image. A network I / F 109 is an interface with the network N.

キーボード111及びマウス112は入出力装置であり、キーボード111は文字、数値、各種指示などの入力のための複数のキーを備えこれらからの入力を受け付ける。マウス112はマウスポインターの移動及び各種指示の選択や実行、処理対象の選択などを受け付ける。   A keyboard 111 and a mouse 112 are input / output devices. The keyboard 111 includes a plurality of keys for inputting characters, numerical values, various instructions, and the like, and receives inputs from these keys. The mouse 112 receives movement of the mouse pointer, selection and execution of various instructions, selection of a processing target, and the like.

メディアドライブ107はフラッシュメモリ等の記録メディア106に対するデータの読み出し又は書き込み(記憶)を制御する。光学ドライブ114は着脱可能な記録媒体の一例としてのCD(Compact Disc)113等に対する各種データの読み出し又は書き込みを制御する。   The media drive 107 controls reading or writing (storage) of data with respect to the recording medium 106 such as a flash memory. The optical drive 114 controls reading or writing of various data with respect to a CD (Compact Disc) 113 as an example of a removable recording medium.

なお、上記画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルで、記録メディア106やCD113等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。あるいは、画像処理プログラムは、任意のサーバ10型の情報処理装置からダウンロードされる形態で配布されてもよい。   The image processing program may be installed in an installable or executable format, recorded on a computer-readable recording medium such as the recording medium 106 or the CD 113, and distributed. Alternatively, the image processing program may be distributed in a form downloaded from any server 10 type information processing apparatus.

なお、表示装置30のハードウェア構成は図3と同様であるか、又は、異なっているとしても本実施形態の説明の上で支障はないものとする。   It should be noted that the hardware configuration of the display device 30 is the same as or different from that in FIG.

図4は、加速度測定装置50のハードウェア構成図の一例を示す。なお、図4は加速度測定装置50としてスマートフォンやタブレット装置が想定された構成になっているが、加速度測定装置50のハードウェア構成としてはこれに限られない。   FIG. 4 shows an example of a hardware configuration diagram of the acceleration measuring device 50. In FIG. 4, a smartphone or a tablet device is assumed as the acceleration measuring device 50, but the hardware configuration of the acceleration measuring device 50 is not limited to this.

加速度測定装置50は、互いにバス210に接続された、CPU201、ROM202、RAM203、フラッシュメモリ204、CMOSセンサ205、加速度・方位センサ206、ジャイロセンサ207、メディアドライブ208、音声入力部211、音声出力部212、通信装置213、GPS受信部、ディスプレイ215、及び、タッチパネル216を有する。バス210は、これら各部を電気的に接続するためのアドレスバスやデータバス等である。   The acceleration measuring apparatus 50 includes a CPU 201, a ROM 202, a RAM 203, a flash memory 204, a CMOS sensor 205, an acceleration / orientation sensor 206, a gyro sensor 207, a media drive 208, an audio input unit 211, and an audio output unit that are connected to the bus 210. 212, a communication device 213, a GPS receiver, a display 215, and a touch panel 216. The bus 210 is an address bus, a data bus, or the like for electrically connecting these units.

CPU201はフラッシュメモリ204に記憶されているプログラムを実行することで表示装置30全体の動作を制御する。ROM202はIPLや基本入出力プログラムを記憶している。RAM203は、CPU201がプログラムを実行する際にワークエリアとして使用される主記憶装置である。フラッシュメモリ204は表示装置30が実行するプログラムや各種のデータを記憶する不揮発性の記憶装置である。プログラムは、例えば、オペレーティングシステム、全天球画像撮像装置60が実行する装置プログラムである。   The CPU 201 controls the overall operation of the display device 30 by executing a program stored in the flash memory 204. The ROM 202 stores IPL and basic input / output programs. A RAM 203 is a main storage device used as a work area when the CPU 201 executes a program. The flash memory 204 is a nonvolatile storage device that stores programs executed by the display device 30 and various data. The program is, for example, an operating system and a device program executed by the omnidirectional image capturing device 60.

CMOSセンサ205は、CPU201の制御に従って被写体を撮像し画像データを得る撮像素子である。CMOSセンサ205の代わりにCCDセンサを用いてもよい。加速度・方位センサ206は、地磁気を検知する電子磁気コンパスとしての機能や3軸方向の加速度を測定する機能等を備えている。ジャイロセンサ207は、x軸、y軸又はz軸に対し加速度測定装置50が回転する際の角速度を検出する。それぞれの軸の回転角度はヨー角、ピッチ角、ロール角と呼ばれる。   The CMOS sensor 205 is an image sensor that captures an image of a subject under the control of the CPU 201 and obtains image data. A CCD sensor may be used instead of the CMOS sensor 205. The acceleration / orientation sensor 206 has a function as an electronic magnetic compass for detecting geomagnetism, a function for measuring acceleration in three axial directions, and the like. The gyro sensor 207 detects an angular velocity when the acceleration measuring device 50 rotates with respect to the x axis, the y axis, or the z axis. The rotation angle of each axis is called a yaw angle, a pitch angle, and a roll angle.

メディアドライブ208は、フラッシュメモリ等の記録メディア209に対するデータの読み出し又は書き込み(記憶)を制御する。メディアドライブ208の制御に従って、既に記録されていたデータが読み出され、又は新たにデータが書き込まれて記憶する記録メディア209が着脱自在な構成となっている。   The media drive 208 controls reading or writing (storage) of data with respect to a recording medium 209 such as a flash memory. According to the control of the media drive 208, the recording medium 209 from which already recorded data is read or newly written and stored is detachable.

音声入力部211は音声を音声信号に変換するマイクである。音声出力部212は、音声信号を音声に変換するスピーカである。通信装置213は、アンテナ213aを利用して無線通信信号により、最寄りの無線局装置9と通信を行う。あるいは、通信装置213はLANに接続するLANカードの場合がある。GPS受信部214は、GPS衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって表示装置30の位置情報(緯度、経度、及び高度)を検出する。   The voice input unit 211 is a microphone that converts voice into a voice signal. The audio output unit 212 is a speaker that converts an audio signal into audio. The communication device 213 communicates with the nearest wireless station device 9 by a wireless communication signal using the antenna 213a. Alternatively, the communication device 213 may be a LAN card connected to the LAN. The GPS receiving unit 214 detects position information (latitude, longitude, and altitude) of the display device 30 by an IMES (Indoor MEssaging System) as a GPS satellite or indoor GPS.

ディスプレイ215はCPU201の制御により全天球画像を表示したり、ユーザが表示装置30を操作するための各種のメニュー、アイコンなどを表示する。タッチパネル216は、ディスプレイ215上に一体に重畳され指やタッチペン等によるタッチに対しディスプレイ215上におけるタッチ位置(座標)を検出する。   The display 215 displays an omnidirectional image under the control of the CPU 201 and displays various menus, icons, and the like for the user to operate the display device 30. The touch panel 216 is integrally superimposed on the display 215 and detects a touch position (coordinates) on the display 215 with respect to a touch with a finger or a touch pen.

なお、装置プログラムは、インストール可能な形式又は実行可能な形式のファイルで、記録メディア209等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。あるいは、装置プログラムは、任意のサーバ10型の情報処理装置からダウンロードされる形態で配布されてもよい。   The device program may be recorded in a computer-readable recording medium such as the recording medium 209 and distributed as a file in an installable or executable format. Alternatively, the device program may be distributed in a form downloaded from any server 10 type information processing device.

図5は、全天球画像撮像装置60のハードウェア構成図の一例である。以下では、全天球画像撮像装置60は、2つの撮像素子を使用した全方位撮像装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に全天球画像撮像装置60と同じ機能を有するようにしてもよい。   FIG. 5 is an example of a hardware configuration diagram of the omnidirectional image capturing apparatus 60. In the following, the omnidirectional image capturing device 60 is an omnidirectional image capturing device using two image capturing elements, but the number of image capturing elements may be three or more. In addition, it is not always necessary to use an apparatus dedicated to omnidirectional imaging. By attaching a retrofit omnidirectional imaging unit to a normal digital camera or smartphone, it has substantially the same function as the omnidirectional imaging apparatus 60. It may be.

図5に示されているように、全天球画像撮像装置60は、撮像ユニット301、画像処理ユニット304、撮像制御ユニット305、マイク308、音処理ユニット309、音声出力部319、CPU311、ROM312、SRAM313、DRAM314、操作部315、ネットワークI/F316、通信装置317、及び、アンテナ317aを有している。   As shown in FIG. 5, the omnidirectional image capturing apparatus 60 includes an image capturing unit 301, an image processing unit 304, an image capturing control unit 305, a microphone 308, a sound processing unit 309, an audio output unit 319, a CPU 311, a ROM 312, An SRAM 313, a DRAM 314, an operation unit 315, a network I / F 316, a communication device 317, and an antenna 317a are provided.

このうち、撮像ユニット301は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)302a,302bと、各広角レンズに対応させて設けられている2つの撮像素子303a,303bを備えている。撮像素子303a,303bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。   Among these, the imaging unit 301 includes wide-angle lenses (so-called fish-eye lenses) 302a and 302b each having an angle of view of 180 ° or more for forming a hemispherical image, and two imaging units provided corresponding to the wide-angle lenses. Elements 303a and 303b are provided. The image pickup elements 303a and 303b are image sensors such as a CMOS (Complementary Metal Oxide Semiconductor) sensor and a CCD (Charge Coupled Device) sensor that convert an optical image obtained by a fisheye lens into image data of an electrical signal and output the image data. A timing generation circuit for generating a vertical synchronization signal, a pixel clock, and the like, and a register group in which various commands and parameters necessary for the operation of the image sensor are set.

撮像ユニット301の撮像素子303a,303bは、各々、画像処理ユニット304とはパラレルI/Fバスで接続されている。一方、撮像ユニット301の撮像素子303a,303bは、撮像制御ユニット305とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット304及び撮像制御ユニット305は、バス310を介してCPU311と接続される。さらに、バス310には、ROM312、SRAM313、DRAM314、操作部315、ネットワークI/F316、通信装置317、及び電子コンパス318なども接続される。   The imaging elements 303a and 303b of the imaging unit 301 are each connected to the image processing unit 304 by a parallel I / F bus. On the other hand, the imaging elements 303 a and 303 b of the imaging unit 301 are connected to a serial I / F bus (I2C bus or the like) separately from the imaging control unit 305. The image processing unit 304 and the imaging control unit 305 are connected to the CPU 311 via the bus 310. Further, ROM 312, SRAM 313, DRAM 314, operation unit 315, network I / F 316, communication device 317, electronic compass 318, and the like are also connected to the bus 310.

画像処理ユニット304は、撮像素子303a,303bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、正距円筒図法の画像のデータを作成する。   The image processing unit 304 takes in the image data output from the image sensors 303a and 303b through the parallel I / F bus, performs predetermined processing on the respective image data, and then combines these image data. Creates equirectangular image data.

撮像制御ユニット305は、一般に撮像制御ユニット305をマスタデバイス、撮像素子303a,303bをスレーブデバイスとして、I2Cバスを利用して、撮像素子303a,303bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU311から受け取る。また、該撮像制御ユニット305は、同じくI2Cバスを利用して、撮像素子303a,303bのレジスタ群のステータスデータ等を取り込み、CPU311に送る。   The imaging control unit 305 generally sets commands and the like in the register groups of the imaging elements 303a and 303b using the I2C bus with the imaging control unit 305 as a master device and the imaging elements 303a and 303b as slave devices. Necessary commands and the like are received from the CPU 311. The imaging control unit 305 also takes in the status data of the register groups of the imaging elements 303a and 303b using the I2C bus and sends them to the CPU 311.

また、撮像制御ユニット305は、操作部315のシャッターボタンが押下されたタイミングで、撮像素子303a,303bに画像データの出力を指示する。全天球画像撮像装置60によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子303a,303bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。   The imaging control unit 305 instructs the imaging elements 303a and 303b to output image data at the timing when the shutter button of the operation unit 315 is pressed. Some omnidirectional image capturing devices 60 may have a preview display function by a display or a function corresponding to a moving image display. In this case, output of image data from the image sensors 303a and 303b is continuously performed at a predetermined frame rate (frame / minute).

また、撮像制御ユニット305は、後述するように、CPU311と協働して撮像素子303a,303bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、全天球画像撮像装置60には表示部が設けられていないが、表示部を設けてもよい。   Further, as will be described later, the imaging control unit 305 also functions as a synchronization control unit that synchronizes the output timing of the image data of the imaging elements 303a and 303b in cooperation with the CPU 311. In the present embodiment, the omnidirectional image capturing device 60 is not provided with a display unit, but may be provided with a display unit.

マイク308は、音を音(信号)データに変換する。音処理ユニット309は、マイク308から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。音声出力部319は、音声信号を音声に変換するスピーカである。   The microphone 308 converts sound into sound (signal) data. The sound processing unit 309 takes in sound data output from the microphone 308 through the I / F bus and performs predetermined processing on the sound data. The audio output unit 319 is a speaker that converts an audio signal into audio.

CPU311は、全天球画像撮像装置60の全体の動作を制御すると共に必要な処理を実行する。ROM312は、CPU311のための種々のプログラムを記憶している。SRAM313及びDRAM314はワークメモリであり、CPU311で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM314は、画像処理ユニット304での処理途中の画像データや処理済みの正距円筒図法により作成された画像のデータを記憶する。   The CPU 311 controls the overall operation of the omnidirectional image capturing apparatus 60 and executes necessary processes. The ROM 312 stores various programs for the CPU 311. The SRAM 313 and the DRAM 314 are work memories, and store programs executed by the CPU 311 and data being processed. In particular, the DRAM 314 stores image data being processed by the image processing unit 304 and image data created by a processed equirectangular projection.

操作部315は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。   The operation unit 315 is a general term for various operation buttons, a power switch, a shutter button, a touch panel that has both display and operation functions, and the like. The user inputs various imaging modes, imaging conditions, and the like by operating the operation buttons.

ネットワークI/F316は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F316としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM314に記憶された正距円筒図法により作成された画像のデータは、このネットワークI/F316を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F316を介して外部装置に送信されたりする。   The network I / F 316 is a general term for an interface circuit (USB I / F or the like) with an external medium such as an SD card or a personal computer. The network I / F 316 may be a network interface regardless of wireless or wired. Data of the image created by the equirectangular projection stored in the DRAM 314 is recorded on an external medium via the network I / F 316, or the network I / F 316 which becomes a network I / F as necessary. Or transmitted to an external device.

通信装置317は、全天球画像撮像装置60に設けられたアンテナ317aを介して、WiFi(wireless fidelity)、NFC、又はLTE(Long Term Evolution)等の離無線技術によって外部装置と通信を行う。この通信装置317によっても、正距円筒図法により作成された画像のデータを外部装置に送信することができる。   The communication device 317 communicates with an external device via a wireless technology such as WiFi (wireless fidelity), NFC, or LTE (Long Term Evolution) via an antenna 317a provided in the omnidirectional image capturing device 60. The communication device 317 can also transmit image data created by equirectangular projection to an external device.

電子コンパス318は、地球の磁気から全天球画像撮像装置60の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。   The electronic compass 318 calculates the azimuth and tilt (Roll rotation angle) of the omnidirectional imaging device 60 from the earth's magnetism, and outputs azimuth / tilt information. This azimuth / tilt information is an example of related information (metadata) along Exif, and is used for image processing such as image correction of a captured image. The related information includes each data of the image capturing date and time and the data capacity of the image data.

<機能構成>
次に、図6を用いて、サーバ10、表示装置30、全天球画像撮像装置60、及び、加速度測定装置50の機能構成について説明する。図6は、サーバ10、表示装置30、全天球画像撮像装置60、及び、加速度測定装置50の機能ブロック図の一例である。
<Functional configuration>
Next, functional configurations of the server 10, the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50 will be described with reference to FIG. FIG. 6 is an example of a functional block diagram of the server 10, the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50.

<<サーバ10の各機能構成>>
サーバ10は、通信部11、画像調整部12、加速度データ加工部13、操作入力受付部14、同期指示部15、及び、記憶・読出部19を有している。サーバ10が有するこれらの各部は、図3に示されている各構成要素のいずれかが、HD104からRAM103上に展開された画像処理プログラム1010に従ったCPU101からの命令によって動作することで実現される機能、又は機能される手段である。
<< Each functional configuration of server 10 >>
The server 10 includes a communication unit 11, an image adjustment unit 12, an acceleration data processing unit 13, an operation input receiving unit 14, a synchronization instruction unit 15, and a storage / reading unit 19. Each of these units included in the server 10 is realized by any one of the components illustrated in FIG. 3 operating according to an instruction from the CPU 101 according to the image processing program 1010 expanded from the HD 104 onto the RAM 103. Function or means to be functioned.

また、サーバ10は、図3に示されているHD104、ROM102及びRAM103のいずれか1つ以上によって構築される記憶部1000を有している。記憶部1000には、画像処理プログラム1010、測定データDB1001、及び、画像データDB1002が記憶されている。測定データDB1001は、加速度測定装置50から送信された測定データが記憶される記憶手段である。画像データDB1002は、全天球画像撮像装置60から送信された画像データが記憶される記憶手段である。   In addition, the server 10 includes a storage unit 1000 constructed by one or more of the HD 104, the ROM 102, and the RAM 103 illustrated in FIG. The storage unit 1000 stores an image processing program 1010, a measurement data DB 1001, and an image data DB 1002. The measurement data DB 1001 is a storage unit that stores measurement data transmitted from the acceleration measurement device 50. The image data DB 1002 is a storage unit that stores image data transmitted from the omnidirectional image capturing device 60.

サーバ10の通信部11は、図3に示されているCPU101からの命令、及びネットワークI/F109等によって実現され、ネットワークNを介して、加速度測定装置50、全天球画像撮像装置60、及び、表示装置30と各種データの送受信を行う。なお、以下ではサーバ10が通信部11の機能で通信する場合でも「通信部11を介して通信する」という記載を省略する場合がある。表示装置30,全天球画像撮像装置60及び加速度測定装置50についても同様である。   The communication unit 11 of the server 10 is realized by a command from the CPU 101 illustrated in FIG. 3 and a network I / F 109, and the like, and via the network N, the acceleration measuring device 50, the omnidirectional image capturing device 60, and Various data are transmitted to and received from the display device 30. In the following description, even when the server 10 communicates with the function of the communication unit 11, the description “communication via the communication unit 11” may be omitted. The same applies to the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50.

画像調整部12は、図3に示されているCPU101からの命令等により実現され、全天球画像撮像装置60から取得した画像データと加速度測定装置50から取得した測定データの時間軸を同期させる。   The image adjustment unit 12 is realized by a command or the like from the CPU 101 shown in FIG. 3, and synchronizes the time axis of the image data acquired from the omnidirectional image capturing device 60 and the measurement data acquired from the acceleration measuring device 50. .

加速度データ加工部13は、図3に示されているCPU101からの命令等により実現され、離散的な測定データを滑らかに結合したりして時間軸に対するグラフに変換する。   The acceleration data processing unit 13 is realized by a command or the like from the CPU 101 shown in FIG. 3, and converts discrete measurement data into a graph with respect to the time axis by smoothly combining them.

操作入力受付部14は、図3に示されているCPU101からの命令、キーボード111、及びマウス112等によって実現され、指導者等による表示装置30への各種の操作や入力を受け付ける。   The operation input receiving unit 14 is realized by a command from the CPU 101 illustrated in FIG. 3, a keyboard 111, a mouse 112, and the like, and receives various operations and inputs to the display device 30 by a leader or the like.

同期指示部15は、図3に示されているCPU101からの命令等により実現され、測定データと画像データの同期に関する処理を行う。具体的には同時期に測定開始と撮像開始を全天球画像撮像装置60と加速度測定装置50に要求したり、同時期に測定終了と撮像終了を全天球画像撮像装置60と加速度測定装置50に要求したりする。また、絶対時刻を全天球画像撮像装置60と加速度測定装置50に提供したりする。   The synchronization instructing unit 15 is realized by an instruction from the CPU 101 shown in FIG. 3 and performs processing related to synchronization of measurement data and image data. Specifically, the omnidirectional image capturing device 60 and the acceleration measuring device 50 are requested to start measurement and start imaging at the same time, or the omnidirectional image capturing device 60 and the acceleration measuring device to end measurement and image capturing at the same time. Or request to 50. Also, the absolute time is provided to the omnidirectional image capturing device 60 and the acceleration measuring device 50.

記憶・読出部19は、図3に示されているCPU101からの命令及びHDD105等により実現され、記憶部1000に各種データを記憶したり、記憶部1000に記憶された各種データを読み出したりする処理を行う。なお、以下ではサーバ10が記憶部1000にアクセスする場合でも「記憶・読出部19を介して読み書きする」という記載を省略する場合がある。表示装置30,全天球画像撮像装置60及び加速度測定装置50についても同様である。   The storage / reading unit 19 is realized by an instruction from the CPU 101 and the HDD 105 shown in FIG. 3, and stores various data in the storage unit 1000 or reads various data stored in the storage unit 1000. I do. In the following description, even when the server 10 accesses the storage unit 1000, the description “read / write via the storage / reading unit 19” may be omitted. The same applies to the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50.

<<表示装置30の各機能構成>>
表示装置30は、通信部31、表示制御部32、操作入力受付部33、画像回転部34、動体検出部35、及び、記憶・読出部39を有している。
<< Functional configuration of display device 30 >>
The display device 30 includes a communication unit 31, a display control unit 32, an operation input reception unit 33, an image rotation unit 34, a moving object detection unit 35, and a storage / readout unit 39.

表示装置30が有するこれら各部は、図3に示されている各構成要素のいずれかが、HD104からRAM103上に展開された端末プログラム3010に従ったCPU101からの命令によって動作することで実現される機能、又は機能される手段である。なお、端末プログラム3010に限られずサーバ10が送信するWebページ(HTMLデータ、XMLデータ、及び、JavaScript(登録商標)などで記述されたプログラム)によって実現される機能、又は機能される手段も含まれる。   Each unit included in the display device 30 is realized by any one of the constituent elements illustrated in FIG. 3 operating according to a command from the CPU 101 according to the terminal program 3010 expanded from the HD 104 onto the RAM 103. A function, or a means to be functioned. In addition, the function implement | achieved by the web page (The program described by HTML data, XML data, JavaScript (trademark), etc.) which is not restricted to the terminal program 3010, and a function is included. .

また、表示装置30は、図3に示されているHD104、ROM102及びRAM103のいずれか1つ以上によって構築される記憶部3000を有している。記憶部3000には、端末プログラム3010が記憶されている。また、記憶部3000にはサーバ10から送信された測定データと画像データが記憶される。   In addition, the display device 30 includes a storage unit 3000 configured by one or more of the HD 104, the ROM 102, and the RAM 103 illustrated in FIG. The storage unit 3000 stores a terminal program 3010. The storage unit 3000 stores measurement data and image data transmitted from the server 10.

(表示装置30の機能)
表示装置30の通信部31は、図3に示されているCPU101からの命令、及びネットワークI/F109等によって実現され、ネットワークNを介してサーバ10と各種データの送受信を行う。
(Function of the display device 30)
The communication unit 31 of the display device 30 is realized by a command from the CPU 101 illustrated in FIG. 3 and a network I / F 109 and the like, and transmits and receives various data to and from the server 10 via the network N.

表示制御部32は、図3に示されているCPU101からの命令等によって実現され、サーバ10から送信された画像データと測定データをディスプレイ108に表示する。   The display control unit 32 is realized by a command from the CPU 101 shown in FIG. 3 and the like, and displays the image data and measurement data transmitted from the server 10 on the display 108.

操作入力受付部33は、図3に示されているCPU101からの命令、キーボード111、及びマウス112等によって実現され、指導者等による表示装置30への各種の操作や入力を受け付ける。   The operation input accepting unit 33 is realized by a command from the CPU 101 shown in FIG. 3, a keyboard 111, a mouse 112, and the like, and accepts various operations and inputs to the display device 30 by an instructor or the like.

動体検出部35は、図3に示されているCPU101からの命令等によって実現され、全天球画像から動体を検出する。この動体は主に歩行者である。歩行者が検出されるので、画像回転部34が歩行者を含む画像をトリミングすることができる。   The moving object detection unit 35 is realized by an instruction from the CPU 101 shown in FIG. 3 and detects a moving object from the omnidirectional image. This moving body is mainly a pedestrian. Since the pedestrian is detected, the image rotation unit 34 can trim the image including the pedestrian.

画像回転部34は、図3に示されているCPU101からの命令等によって実現され、歩行者が写っている領域がディスプレイ108に表示されるように全天球画像である画像データから表示範囲をトリミングする。   The image rotation unit 34 is realized by a command or the like from the CPU 101 shown in FIG. 3, and the display range is determined from image data that is an omnidirectional image so that an area where a pedestrian is shown is displayed on the display 108. Trim.

記憶・読出部39は、図3に示されているCPU101からの命令及びHDD105等により実現され、記憶部3000に各種データを記憶したり、記憶部3000に記憶された各種データを読み出したりする処理を行う。   The storage / reading unit 39 is realized by an instruction from the CPU 101 and the HDD 105 shown in FIG. 3, and stores various data in the storage unit 3000 or reads out various data stored in the storage unit 3000. I do.

<<加速度測定装置50の各機能構成>>
加速度測定装置50は、通信部51、加速度検出部52、及び、記憶・読出部59を有している。加速度測定装置50が有するこれら各部は、図4に示されている各構成要素のいずれかが、フラッシュメモリ204からRAM203上に展開された装置プログラムに従ったCPU201からの命令によって動作することで実現される機能、又は機能される手段である。
<< Functional configuration of acceleration measuring device 50 >>
The acceleration measuring device 50 includes a communication unit 51, an acceleration detection unit 52, and a storage / readout unit 59. These components of the acceleration measuring device 50 are realized by any one of the components shown in FIG. 4 operating according to commands from the CPU 201 according to the device program expanded from the flash memory 204 onto the RAM 203. Function or means to be functioned.

また、加速度測定装置50は、図4に示されているフラッシュメモリ204、ROM202及びRAM203のいずれか1つ以上によって構築される記憶部5000を有している。記憶部5000には、装置プログラム5010が記憶されている。記憶部5000には加速度測定装置50が測定した加速度などの測定データが記憶される。   Further, the acceleration measuring apparatus 50 includes a storage unit 5000 constructed by any one or more of the flash memory 204, the ROM 202, and the RAM 203 shown in FIG. The storage unit 5000 stores an apparatus program 5010. The storage unit 5000 stores measurement data such as acceleration measured by the acceleration measuring device 50.

(加速度測定装置50の機能)
加速度測定装置50の通信部51は、図4に示されているCPU201からの命令、及び通信装置213等によって実現され、ネットワークNを介してサーバ10と各種データの送受信を行う。
(Function of acceleration measuring device 50)
The communication unit 51 of the acceleration measuring device 50 is realized by a command from the CPU 201 illustrated in FIG. 4 and the communication device 213 and the like, and transmits and receives various data to and from the server 10 via the network N.

加速度検出部52は、図4に示されているCPU201からの命令、及び加速度・方位センサ206等によって実現され、加速度測定装置50に生じる加速度を測定する。加速度は一定間隔又は不定期に測定され、時間と共に変化する加速度が得られる。時系列の加速度が含まれる測定データは記憶部5000に記憶される。   The acceleration detection unit 52 is realized by a command from the CPU 201 shown in FIG. 4, the acceleration / direction sensor 206, and the like, and measures the acceleration generated in the acceleration measuring device 50. Acceleration is measured at regular intervals or irregularly to obtain acceleration that varies with time. Measurement data including time-series acceleration is stored in the storage unit 5000.

記憶・読出部59は、図4に示されているCPU201からの命令、フラッシュメモリ204、ROM202、及びRAM203等により実現され、記憶部5000に各種データを記憶したり、記憶部5000に記憶された各種データを読み出したりする処理を行う。   The storage / reading unit 59 is realized by the instruction from the CPU 201 illustrated in FIG. 4, the flash memory 204, the ROM 202, the RAM 203, and the like, and stores various data in the storage unit 5000 or stored in the storage unit 5000. Performs processing to read various data.

<<全天球画像撮像装置60の各機能構成>>
全天球画像撮像装置60は、通信部61、撮像部62、及び、記憶・読出部69を有している。全天球画像撮像装置60が有するこれら各部は、図5に示されている各構成要素のいずれかが、ROM312からSRAM313又はDRAM314に展開された撮像プログラムに従ったCPU311からの命令によって動作することで実現される機能、又は機能される手段である。
<< Functional configuration of omnidirectional imaging device 60 >>
The omnidirectional image capturing device 60 includes a communication unit 61, an image capturing unit 62, and a storage / reading unit 69. Each of these components included in the omnidirectional image capturing device 60 operates according to an instruction from the CPU 311 according to the image capturing program developed from the ROM 312 to the SRAM 313 or the DRAM 314. A function realized by or a means to be functioned.

また、全天球画像撮像装置60は、図5に示されているROM312、SRAM313及びDRAM314のいずれか1つ以上によって構築される記憶部6000を有している。記憶部6000には、全天球画像の画像データや撮像プログラム6010が記憶されている。   Further, the omnidirectional image capturing device 60 includes a storage unit 6000 constructed by one or more of the ROM 312, the SRAM 313, and the DRAM 314 shown in FIG. 5. The storage unit 6000 stores image data of an omnidirectional image and an imaging program 6010.

(全天球画像撮像装置60の機能)
全天球画像撮像装置60の通信部61は、図5に示されているCPU101からの命令、及びネットワークI/F316等によって実現され、ネットワークNを介してサーバ10と各種データの送受信を行う。
(Function of the omnidirectional imaging device 60)
The communication unit 61 of the omnidirectional image capturing apparatus 60 is realized by a command from the CPU 101 illustrated in FIG. 5 and a network I / F 316 or the like, and transmits and receives various data to and from the server 10 via the network N.

撮像部62は、図5に示されているCPU101からの命令、撮像ユニット301及び画像処理ユニット304等によって実現され、全天球画像を撮像し画像データを生成する。全天球画像は静止画でも動画でもよい。いずれの場合も、撮像部62は歩行している歩行者を時間の経過に従って撮像する。動画の場合、全天球画像は一定間隔又は不定期に撮像される。静止画の場合は、歩行者が歩行している間に時間の間隔を置いて複数の全天球画像が撮像される。時系列の全天球画像が含まれる画像データは記憶部6000に記憶される。   The imaging unit 62 is realized by a command from the CPU 101 shown in FIG. 5, an imaging unit 301, an image processing unit 304, and the like, and captures an omnidirectional image and generates image data. The spherical image may be a still image or a moving image. In any case, the imaging unit 62 images a walking pedestrian over time. In the case of a moving image, the omnidirectional image is captured at regular intervals or irregularly. In the case of a still image, a plurality of omnidirectional images are captured at time intervals while the pedestrian is walking. Image data including time-series spherical images is stored in the storage unit 6000.

記憶・読出部69は、図5に示されているCPU201からの命令、ROM312、SRAM313及びDRAM314のいずれか1つ以上によって実現され、記憶部6000に各種データを記憶したり、記憶部6000に記憶された各種データを読み出したりする処理を行う。   The storage / reading unit 69 is realized by any one or more of the instruction from the CPU 201 shown in FIG. 5, ROM 312, SRAM 313, and DRAM 314, and stores various data in the storage unit 6000 or storage in the storage unit 6000. A process for reading out various data is performed.

<歩行者の歩行について>
図7(a)を用いて、全天球画像撮像装置60の周囲を歩行者がどのように歩行するかを説明する。図7(a)は、全天球画像撮像装置60の周囲を歩行する歩行者200を模式的に説明する図の一例である。歩行者200は加速度測定装置50を腰などに装着している。加速度測定装置50が装着される場所は歩行者200の重心に近い場所であることが好ましい。腰の他、胸、背中、胴部などに装着されてもよい。また、加速度測定装置50は複数台、装着されていてもよい。
<About walking of pedestrians>
How the pedestrian walks around the omnidirectional image capturing device 60 will be described with reference to FIG. FIG. 7A is an example of a diagram schematically illustrating a pedestrian 200 walking around the omnidirectional image capturing device 60. The pedestrian 200 wears the acceleration measuring device 50 on the waist or the like. The place where the acceleration measuring device 50 is mounted is preferably a place close to the center of gravity of the pedestrian 200. In addition to the waist, it may be attached to the chest, back, torso, etc. A plurality of acceleration measuring devices 50 may be mounted.

歩行者200は全天球画像撮像装置60の周囲を方向を変えながら旋回するようにして歩行する。複数の歩行者間の歩行動作の比較を容易にするため、又は、歩行者200が歩行する経路を認識できるように、歩行面に円形状のラインLが形成されていてもよい。また、ラインLには等間隔に連続する番号などが付されたマーカが配置されていてもよい。指導者等が画像データを確認する際に、全天球画像撮像装置60に対する歩行者200の位置を容易に把握できる。   The pedestrian 200 walks while turning around the omnidirectional image capturing device 60 while changing the direction. A circular line L may be formed on the walking surface in order to facilitate comparison of walking motions between a plurality of pedestrians or to recognize a route on which the pedestrian 200 walks. In addition, markers with numbers or the like that are continuously spaced at equal intervals may be arranged on the line L. When a leader or the like confirms the image data, the position of the pedestrian 200 with respect to the omnidirectional image capturing device 60 can be easily grasped.

歩行者200はラインLで示される円の接線方向に正面(胸)を向けて前方に移動する。これにより、全天球画像撮像装置60の周囲を旋回するように歩行する。歩行者200が歩行している間、加速度測定装置50は加速度を測定している。歩行者200と加速度測定装置50の相対位置は固定されているものとし、歩行者200の進行方向(前方)をx方向、左右方向をy方向、垂直方向をz方向とする。   The pedestrian 200 moves forward with the front (chest) facing in the tangential direction of the circle indicated by the line L. Thereby, it walks so that the circumference | surroundings of the omnidirectional image imaging device 60 may turn. While the pedestrian 200 is walking, the acceleration measuring device 50 measures acceleration. The relative positions of the pedestrian 200 and the acceleration measuring device 50 are fixed, and the traveling direction (front) of the pedestrian 200 is the x direction, the left / right direction is the y direction, and the vertical direction is the z direction.

なお、歩行者200は円形状のラインLの全体を歩行しなければならないわけではなく歩行動作の評価に適切な距離以上、歩行すればよい。また、歩行者200は円形状のラインLを1周より多く歩行してもよい。   Note that the pedestrian 200 does not have to walk the entire circular line L, but may walk more than a distance appropriate for the evaluation of the walking motion. Moreover, the pedestrian 200 may walk the circular line L more than 1 round.

図7(b)は、四角形に沿って全天球画像撮像装置60の周囲を歩行する歩行者200を模式的に説明する図の一例である。図7(b)では例えば四角形の形状のラインLが歩行面に形成されている。歩行者200がラインLに沿って(又はライン上を)歩行すると、歩行者200は方向を変えるため(右折するため)、全天球画像撮像装置60は右折する際の歩行者200を撮像できる。また、歩行者200が逆方向に歩行すれば、全天球画像撮像装置60は左折する際の歩行者200を撮像できる。   FIG. 7B is an example of a diagram schematically illustrating a pedestrian 200 walking around the omnidirectional image capturing device 60 along a square. In FIG. 7B, for example, a square line L is formed on the walking surface. When the pedestrian 200 walks along the line L (or on the line), the pedestrian 200 changes its direction (to make a right turn), and the omnidirectional image pickup device 60 can take an image of the pedestrian 200 when making a right turn. . Further, if the pedestrian 200 walks in the opposite direction, the omnidirectional image capturing device 60 can capture the pedestrian 200 when turning left.

また、このラインLは直線部分Sを有している。歩行者200はこの直線部分Sに沿って(又は直線部分の上を)往復するので、全天球画像撮像装置60は背後から歩行する歩行者200、180度の方向転換を行う歩行者200、及び、全天球画像撮像装置60に正面から接近する歩行者200を撮像できる。   The line L has a straight line portion S. Since the pedestrian 200 reciprocates along (or on) the straight line portion S, the omnidirectional image pickup device 60 is a pedestrian 200 walking from behind, a pedestrian 200 performing 180-degree change of direction, And the pedestrian 200 approaching the omnidirectional image pickup device 60 from the front can be picked up.

また、歩行者200が歩行するラインLは8の字(8-shaped loop、又は、無限大(インフィニティの形状)などでもよく、図7に示したものには限られない。ラインLは歩行動作を評価するために好ましい形状であればよい。   Further, the line L on which the pedestrian 200 walks may be an 8-shaped loop or an infinite shape (infinity shape), and is not limited to that shown in Fig. 7. The line L is a walking motion. The shape may be any shape that is preferable for the evaluation.

<動作手順>
続いて、図8〜12を用いて、画像表示システム100の動作手順について説明する。図8は画像表示システム100の全体的な動作を説明するシーケンス図の一例である。図8では、サーバ10が加速度測定装置50と全天球画像撮像装置60に対してそれぞれ測定開始、撮像開始の指示を行う場合のシーケンス図である。
<Operation procedure>
Subsequently, an operation procedure of the image display system 100 will be described with reference to FIGS. FIG. 8 is an example of a sequence diagram illustrating the overall operation of the image display system 100. FIG. 8 is a sequence diagram when the server 10 instructs the acceleration measuring device 50 and the omnidirectional image capturing device 60 to start measurement and start imaging, respectively.

S1:歩行動作の測定を始める際、指導者等は歩行動作の測定を開始する操作をサーバ10に入力する。サーバ10の操作入力受付部14は指導者等の操作を受け付ける。   S1: When starting measurement of walking motion, a leader or the like inputs an operation for starting measurement of walking motion to the server 10. The operation input receiving unit 14 of the server 10 receives an operation of a leader or the like.

S2:サーバ10の通信部11は測定開始要求を加速度測定装置50に送信する。   S2: The communication unit 11 of the server 10 transmits a measurement start request to the acceleration measuring device 50.

S3:加速度測定装置50の通信部51は測定開始要求を受信する。測定開始要求を取得することで、加速度測定装置50は音声出力部212からブザー音などを出力する。これにより、歩行者は歩行を開始してよいことを把握できる。なお、「歩行を開始してください」などの音声メッセージ、バイブレーション機能による振動、ディスプレイ215へのメッセージの表示、ディスプレイ215の明滅などにより、歩行者に歩行開始を報知してもよい。   S3: The communication unit 51 of the acceleration measuring device 50 receives the measurement start request. By acquiring the measurement start request, the acceleration measuring device 50 outputs a buzzer sound or the like from the sound output unit 212. Thereby, the pedestrian can grasp | ascertain that a walk may be started. The pedestrian may be informed of the start of walking by a voice message such as “Please start walking”, vibration by the vibration function, display of a message on the display 215, blinking of the display 215, or the like.

S4:サーバ10の通信部11は撮像開始要求を全天球画像撮像装置60に送信する。   S4: The communication unit 11 of the server 10 transmits an imaging start request to the omnidirectional image imaging device 60.

S5:全天球画像撮像装置60の通信部61は撮像開始要求を受信する。撮像開始要求の取得により、全天球画像撮像装置60は音声出力部319からブザー音などを出力する。これにより、歩行者は歩行を開始してよいことを把握できる。この他の通知態様はステップS3と同様である。また、全天球画像撮像装置60は歩行者の視野に入る場合があるので、全天球画像撮像装置60がパトランプなどを点灯させてもよい。これにより、歩行者だけでなく周囲の指導者等も歩行者が歩行を開始してよいことを把握できる。なお、ステップS3とS5のブザーによる通知はどちらか一方があればよい。   S5: The communication unit 61 of the omnidirectional image capturing apparatus 60 receives the imaging start request. Upon acquisition of the imaging start request, the omnidirectional image imaging device 60 outputs a buzzer sound or the like from the audio output unit 319. Thereby, the pedestrian can grasp | ascertain that a walk may be started. Other notification modes are the same as in step S3. In addition, since the omnidirectional image capturing apparatus 60 may enter the pedestrian's field of view, the omnidirectional image capturing apparatus 60 may light a patrol lamp or the like. Thereby, not only a pedestrian but the surrounding leaders can grasp that a pedestrian may start walking. Note that only one of the notifications by the buzzer in steps S3 and S5 is sufficient.

S6、S7:測定開始要求により加速度測定装置50の加速度検出部52は加速度の測定を開始する。撮像開始要求により全天球画像撮像装置60の撮像部62は撮像を開始する。加速度測定装置50の加速度検出部52は歩行者が歩行している間に生じる加速度を測定し、全天球画像撮像装置60の撮像部62は、歩行する歩行者を撮像する。このようにサーバ10からの指示により、測定データの測定開始と画像データの撮像開始をほぼ同時に同期させることができる。なお、ステップS2〜S7の順序は順不同である。サーバ10は、同時期に測定データの測定開始と画像データの撮像開始を加速度測定装置50と全天球画像撮像装置60に送信すればよい。   S6, S7: In response to the measurement start request, the acceleration detector 52 of the acceleration measuring device 50 starts measuring the acceleration. In response to the imaging start request, the imaging unit 62 of the omnidirectional image imaging device 60 starts imaging. The acceleration detector 52 of the acceleration measuring device 50 measures the acceleration that occurs while the pedestrian is walking, and the imaging unit 62 of the omnidirectional image capturing device 60 images the walking pedestrian. In this way, the measurement data measurement start and the image data imaging start can be synchronized almost simultaneously by an instruction from the server 10. Note that the order of steps S2 to S7 is random. The server 10 may transmit the measurement data measurement start and the image data imaging start to the acceleration measurement device 50 and the omnidirectional image imaging device 60 at the same time.

S8:歩行者が十分に歩行したと指導者等が判断すると、指導者等は歩行動作の測定を終了する操作をサーバ10に入力する。サーバ10の操作入力受付部14は指導者等の操作を受け付ける。   S8: When the leader or the like determines that the pedestrian has sufficiently walked, the leader or the like inputs an operation to end the measurement of the walking motion to the server 10. The operation input receiving unit 14 of the server 10 receives an operation of a leader or the like.

S9:サーバ10の通信部11は測定終了要求を加速度測定装置50に送信する。加速度測定装置50の通信部11は測定終了要求を受信し、加速度検出部52は加速度の測定を終了する。なお、ステップS3のように終了の旨を歩行者などに通知してもよい。   S9: The communication unit 11 of the server 10 transmits a measurement end request to the acceleration measuring device 50. The communication unit 11 of the acceleration measuring apparatus 50 receives the measurement end request, and the acceleration detection unit 52 ends the acceleration measurement. Note that a pedestrian or the like may be notified of the end as in step S3.

S10:サーバ10の通信部11は撮像終了要求を全天球画像撮像装置60に送信する。全天球画像撮像装置60の通信部61は撮像終了要求を受信し、撮像部62が全天球画像の撮像を終了する。なお、ステップS5のように終了の旨を歩行者などに通知してもよい。ステップS9、S10の順序は順不同である。サーバ10は、同時期に測定データの測定終了と画像データの撮像終了を加速度測定装置50と全天球画像撮像装置60に送信すればよい。   S10: The communication unit 11 of the server 10 transmits an imaging end request to the omnidirectional imaging device 60. The communication unit 61 of the omnidirectional image imaging device 60 receives the imaging end request, and the imaging unit 62 ends imaging of the omnidirectional image. Note that a pedestrian or the like may be notified of the end as in step S5. The order of steps S9 and S10 is random. The server 10 may transmit the measurement data measurement end and the image data imaging end to the acceleration measuring device 50 and the omnidirectional image capturing device 60 at the same time.

このようにサーバ10からの指示により、測定データの測定終了と画像データの撮像終了をほぼ同時に同期させることができる。   In this way, by the instruction from the server 10, the measurement data measurement end and the image data imaging end can be synchronized almost simultaneously.

S11:加速度測定装置50の通信部51は記憶部5000に記憶しておいた測定データをサーバ10に送信する。   S11: The communication unit 51 of the acceleration measuring device 50 transmits the measurement data stored in the storage unit 5000 to the server 10.

S12:全天球画像撮像装置60の通信部61は記憶部6000に記憶しておいた画像データをサーバ10に送信する。   S12: The communication unit 61 of the omnidirectional image capturing apparatus 60 transmits the image data stored in the storage unit 6000 to the server 10.

S13:サーバ10の通信部11は測定データと画像データを受信して、測定データDB1001と画像データDB1002にそれぞれ記憶させる。そして、サーバ10の加速度データ加工部13は離散データである加速度データを折線グラフなどに加工する。なお、このような加工は表示装置30が行ってもよい。   S13: The communication unit 11 of the server 10 receives the measurement data and the image data, and stores them in the measurement data DB 1001 and the image data DB 1002, respectively. Then, the acceleration data processing unit 13 of the server 10 processes acceleration data that is discrete data into a line graph or the like. Such processing may be performed by the display device 30.

S14:次に、サーバ10の画像調整部12は、測定データと画像データの時間軸を同期させる処理を行う。測定データと画像データはほぼ同じ時間で取得されているが、測定データのデータ数と画像データのデータ数(フレーム数)は異なっている場合が多い。このため、画像調整部12は測定データと画像データを対応付けることで時間軸を同期させる。測定開始時刻と撮像開始時刻がほぼ同じで測定終了時刻と撮像終了時刻がほぼ同じなので、測定データと画像データのデータ数の比率で時間軸を同期させることができる。例えば、測定データのデータ数が400、画像データのデータ数が200であれば、画像データの2フレームを測定データの1つの加速度に対応付ける。あるいは、測定時間に対する各測定データ(加速度)の測定時刻の比を算出し、撮像時間に対する各画像データ(フレーム)の撮像時刻の比を算出し、比が最も近いフレームと加速度を対応付けてもよい。あるいは、測定開始からの経過時間と撮像開始からの経過時間がほぼ同じ測定データと画像データを対応付けてもよい。   S14: Next, the image adjustment unit 12 of the server 10 performs a process of synchronizing the time axes of the measurement data and the image data. Although the measurement data and the image data are acquired at substantially the same time, the number of measurement data and the number of image data (frame number) are often different. For this reason, the image adjustment unit 12 synchronizes the time axis by associating the measurement data with the image data. Since the measurement start time and the imaging start time are almost the same, and the measurement end time and the imaging end time are almost the same, the time axis can be synchronized with the ratio of the number of data of the measurement data and the image data. For example, if the number of measurement data is 400 and the number of image data is 200, two frames of image data are associated with one acceleration of the measurement data. Alternatively, the ratio of the measurement time of each measurement data (acceleration) with respect to the measurement time is calculated, the ratio of the imaging time of each image data (frame) with respect to the imaging time is calculated, and the frame with the closest ratio is associated with the acceleration. Good. Alternatively, the measurement data and the image data may be associated with the elapsed time from the start of measurement and the elapsed time from the start of imaging.

さらに、後述するように測定開始時刻、測定終了時刻、撮像開始時刻及び撮像終了時刻の絶対時刻が得られる場合は、測定開始時刻から測定終了時刻と、撮像開始時刻から撮像終了時刻の重複部分を取り出し、重複部分の測定データと画像データを同様の比率計算などにより対応付ける。   Furthermore, when the absolute time of the measurement start time, the measurement end time, the imaging start time, and the imaging end time is obtained as described later, an overlapping portion of the measurement end time from the measurement start time and the imaging end time from the imaging start time is obtained. Take out and associate the measurement data and image data of the overlapping part by the same ratio calculation.

S15,S16:サーバ10は測定データと画像データを表示装置30に送信する。具体的には、指導者等は表示装置30などを介してサーバ10に対し測定データと画像データを要求する。あるいは、指導者等はサーバ10に対し測定データと画像データを要求する操作を行い、サーバ10の操作入力受付部14がこの操作を受け付けてもよい。あるいは、表示装置30がポーリングなどにより測定データと画像データの有無を問い合わせ、サーバ10に測定データと画像データが送信されると、サーバ10が問い合わせに対し測定データと画像データを表示装置30に送信してもよい。   S15, S16: The server 10 transmits the measurement data and the image data to the display device 30. Specifically, a leader or the like requests measurement data and image data from the server 10 via the display device 30 or the like. Alternatively, a leader or the like may perform an operation of requesting measurement data and image data from the server 10 and the operation input receiving unit 14 of the server 10 may receive this operation. Alternatively, when the display device 30 inquires about the presence or absence of measurement data and image data by polling or the like and the measurement data and image data are transmitted to the server 10, the server 10 transmits the measurement data and image data to the display device 30 in response to the inquiry. May be.

S17:表示装置30の通信部31は測定データと画像データを受信し、表示制御部32がディスプレイ108に測定データと画像データを同じ時間軸で表示する。表示のための処理を図14以下で説明する。   S17: The communication unit 31 of the display device 30 receives the measurement data and the image data, and the display control unit 32 displays the measurement data and the image data on the display 108 on the same time axis. Processing for display will be described with reference to FIG.

<<動作の変形例>>
図9は画像表示システム100の全体的な動作の変形例を説明するシーケンス図の一例である。図9では、図8との差異を説明する。図9では、測定開始の契機が図8と異なっている。
<< Operation Variation >>
FIG. 9 is an example of a sequence diagram illustrating a modified example of the overall operation of the image display system 100. In FIG. 9, differences from FIG. 8 will be described. In FIG. 9, the trigger for starting measurement is different from that in FIG.

S1:歩行動作の測定を始める際、指導者等は歩行動作の測定を開始する操作を表示装置30に入力する。表示装置30の操作入力受付部33は指導者等の操作を受け付ける。   S1: When starting measurement of walking motion, a leader or the like inputs an operation for starting measurement of walking motion to the display device 30. The operation input receiving unit 33 of the display device 30 receives an operation of a leader or the like.

S1-1:表示装置30の通信部31は測定開始要求をサーバ10に送信する。表示装置30とサーバ10はHTTPなどで通信できる。測定開始要求は、加速度の測定開始と歩行者の撮像開始の少なくとも一方を要求するものである。   S1-1: The communication unit 31 of the display device 30 transmits a measurement start request to the server 10. The display device 30 and the server 10 can communicate by HTTP or the like. The measurement start request requests at least one of acceleration measurement start and pedestrian imaging start.

S8:歩行者が十分に歩行したと指導者等が判断すると、指導者等は歩行動作の測定を終了する操作を表示装置30に入力する。表示装置30の操作入力受付部33は指導者等の操作を受け付ける。   S8: When the leader or the like determines that the pedestrian has sufficiently walked, the leader or the like inputs an operation to end the measurement of the walking motion to the display device 30. The operation input receiving unit 33 of the display device 30 receives an operation of a leader or the like.

S8-1:表示装置30の通信部31は測定終了要求をサーバ10に送信する。以降の処理は図8と同様である。測定終了要求は、加速度の測定終了と歩行者の撮像終了の少なくとも一方を要求するものである。   S8-1: The communication unit 31 of the display device 30 transmits a measurement end request to the server 10. The subsequent processing is the same as in FIG. The measurement end request is a request for at least one of the end of measurement of acceleration and the end of imaging of a pedestrian.

従って、指導者はサーバ10を操作しなくても表示装置30から測定開始と測定終了をサーバ10に要求できる。指導者等が表示装置30を操作している場合はサーバ10まで移動する必要をなくすことができる。   Therefore, the instructor can request the server 10 to start and end the measurement from the display device 30 without operating the server 10. When a leader or the like is operating the display device 30, it is not necessary to move to the server 10.

<<動作の変形例>>
図10は画像表示システム100の全体的な動作の変形例を説明するシーケンス図の一例である。図10では、図8との差異を説明する。図10では、歩行者が歩行を開始したことを測定開始の契機とする。歩行者は例えば指導者等の指導で歩行を開始し、また終了する。あるいは、ライン上のスタート位置からラインを一周してスタート位置などで停止する。
<< Operation Variation >>
FIG. 10 is an example of a sequence diagram illustrating a modified example of the overall operation of the image display system 100. In FIG. 10, the difference from FIG. 8 will be described. In FIG. 10, the start of measurement is that the pedestrian has started walking. The pedestrian starts walking and ends with the guidance of a leader or the like, for example. Alternatively, the circuit goes around the line from the start position on the line and stops at the start position.

S1:加速度測定装置50の加速度検出部52は、加速度に基づいて歩行者が歩行を開始したことを検知する。例えば、x方向、y方向及びz方向の1つ以上で閾値以上の加速度が検出されたこと、又は、加速度を2回積分して得られる単位時間当たりの位置の変化が閾値以上になったこと、などにより歩行の開始を判断できる。ジャイロセンサ207が検出する角速度や、GPS受信部214が検出する位置、加速度・方位センサ206が検出する方位に基づいて判断してもよい。歩行開始を検知したことで、加速度検出部52は加速度の測定を開始する(S6)。   S1: The acceleration detector 52 of the acceleration measuring device 50 detects that a pedestrian has started walking based on the acceleration. For example, an acceleration exceeding a threshold value was detected in one or more of the x direction, the y direction, and the z direction, or a change in position per unit time obtained by integrating the acceleration twice exceeded the threshold value. The start of walking can be determined by, etc. The determination may be made based on the angular velocity detected by the gyro sensor 207, the position detected by the GPS receiver 214, and the direction detected by the acceleration / direction sensor 206. By detecting the start of walking, the acceleration detector 52 starts measuring acceleration (S6).

S2:加速度測定装置50の通信部51は歩行開始通知をサーバ10に送信する。これにより、サーバ10は全天球画像撮像装置60に撮像開始要求を送信できる。なお、サーバ10を介することなく、加速度測定装置50の通信部51は全天球画像撮像装置60に歩行開始通知を送信してもよい。   S2: The communication unit 51 of the acceleration measuring device 50 transmits a walking start notification to the server 10. Thereby, the server 10 can transmit an imaging start request to the omnidirectional image capturing device 60. Note that the communication unit 51 of the acceleration measuring device 50 may transmit a walking start notification to the omnidirectional image capturing device 60 without going through the server 10.

S8:加速度測定装置50の加速度検出部52は、加速度に基づいて歩行者が歩行を停止したことを検知する。例えば、x方向、y方向及びz方向の1つ以上で閾値以上の加速度が検出されなくなった、又は、加速度を2回積分して得られる単位時間の位置の変化が閾値未満になったこと、などにより歩行の終了(停止)を判断できる。ジャイロセンサ207が検出する角速度や、GPS受信部214が検出する位置、加速度・方位センサ206が検出する方位に基づいて判断してもよい。歩行停止を検知したことで、加速度検出部52は加速度の測定を終了する。   S8: The acceleration detector 52 of the acceleration measuring device 50 detects that the pedestrian has stopped walking based on the acceleration. For example, acceleration that is greater than or equal to the threshold is no longer detected in one or more of the x, y, and z directions, or the change in position in unit time obtained by integrating acceleration twice is less than the threshold, The end (stop) of walking can be determined by, for example. The determination may be made based on the angular velocity detected by the gyro sensor 207, the position detected by the GPS receiver 214, and the direction detected by the acceleration / direction sensor 206. By detecting the stop of walking, the acceleration detector 52 ends the measurement of acceleration.

S9:加速度測定装置50の通信部51は歩行終了通知をサーバ10に送信する。これにより、サーバ10は全天球画像撮像装置60に撮像終了要求を送信できる。なお、サーバ10を介することなく、加速度測定装置50の通信部51は全天球画像撮像装置60に歩行終了通知を送信してもよい。以降の処理は図8と同様でよい。   S9: The communication unit 51 of the acceleration measuring device 50 transmits a walk end notification to the server 10. Thereby, the server 10 can transmit an imaging end request to the omnidirectional image capturing device 60. Note that the communication unit 51 of the acceleration measuring device 50 may transmit a walking end notification to the omnidirectional image capturing device 60 without using the server 10. The subsequent processing may be the same as in FIG.

図10の処理によれば、指導者等が測定開始や測定終了等の操作を行わなくても、歩行動作の測定を開始しまた終了できる。   According to the processing of FIG. 10, the measurement of walking motion can be started and ended without an instructor or the like performing an operation such as measurement start or measurement end.

<<動作の変形例>>
図11は画像表示システム100の全体的な動作の変形例を説明するシーケンス図の一例である。図11では、図8との差異を説明する。本実施形態では、測定データと画像データの時間軸を同期させることが有効なので図8では測定開始と撮像開始、及び、測定終了と撮像終了をそれぞれ同期させた。従って、絶対時刻は不要であるが、図11のようにサーバ10は絶対時刻を用いて測定データと画像データを同期させてもよい。
<< Operation Variation >>
FIG. 11 is an example of a sequence diagram illustrating a modified example of the overall operation of the image display system 100. In FIG. 11, differences from FIG. 8 will be described. In this embodiment, since it is effective to synchronize the time axes of measurement data and image data, in FIG. 8, the measurement start and imaging start, and the measurement end and imaging end are synchronized, respectively. Therefore, although absolute time is unnecessary, the server 10 may synchronize the measurement data and the image data using the absolute time as shown in FIG.

S3-1:ステップS2で測定開始要求を加速度測定装置50の通信部51が受信すると、加速度測定装置50の加速度検出部52は開始時刻をサーバ10に要求する。   S3-1: When the communication start part 51 of the acceleration measuring device 50 receives the measurement start request in step S2, the acceleration detecting part 52 of the acceleration measuring device 50 requests the server 10 for the start time.

S3-2:これにより、加速度測定装置50の加速度検出部52はサーバ10から測定を開始した絶対時刻(測定開始時刻)を取得できる。   S3-2: Thereby, the acceleration detector 52 of the acceleration measuring device 50 can acquire the absolute time (measurement start time) at which the measurement is started from the server 10.

S5-1:ステップS4で撮像開始要求を全天球画像撮像装置60の通信部61が受信すると、全天球画像撮像装置60の撮像部62は開始時刻をサーバ10に要求する。
S5-2:これにより、全天球画像撮像装置60の撮像部62はサーバ10から撮像を開始した絶対時刻(撮像開始時刻)を取得できる。
S5-1: When the communication unit 61 of the omnidirectional image imaging device 60 receives the imaging start request in step S4, the imaging unit 62 of the omnidirectional image imaging device 60 requests the server 10 for the start time.
S5-2: Thereby, the imaging unit 62 of the omnidirectional image imaging device 60 can acquire the absolute time (imaging start time) when imaging was started from the server 10.

S9-1:ステップS9で測定終了要求を加速度測定装置50の通信部51が受信すると、加速度測定装置50の加速度検出部52は終了時刻をサーバ10に要求する。
S9-2:これにより、加速度測定装置50の加速度検出部52はサーバ10から測定を終了した絶対時刻(測定終了時刻)を取得できる。
S9-1: When the communication unit 51 of the acceleration measuring device 50 receives the measurement end request in step S9, the acceleration detecting unit 52 of the acceleration measuring device 50 requests the server 10 for the end time.
S9-2: Thereby, the acceleration detection unit 52 of the acceleration measuring device 50 can acquire the absolute time (measurement end time) when the measurement is ended from the server 10.

S10-1:ステップS10で撮像終了要求を全天球画像撮像装置60の通信部61が受信すると、全天球画像撮像装置60の撮像部62は終了時刻をサーバ10に要求する。   S10-1: When the communication unit 61 of the omnidirectional image imaging device 60 receives the imaging end request in step S10, the imaging unit 62 of the omnidirectional image imaging device 60 requests the server 10 for the end time.

S10-2:これにより、全天球画像撮像装置60の撮像部62はサーバ10から撮像を終了した絶対時刻(撮像終了時刻)を取得できる。   S10-2: As a result, the imaging unit 62 of the omnidirectional image capturing apparatus 60 can acquire the absolute time (imaging end time) when the imaging is completed from the server 10.

サーバ10は、加速度の測定開始時刻と測定終了時刻、及び、歩行者の撮像開始時刻と撮像終了時刻を測定データ及び画像データと共に取得する。何らかの理由で加速度の測定開始と撮像開始にタイムラグが発生したり、加速度の測定終了と撮像終了にタイムラグが発生したりしても、サーバ10は測定データと画像データの時間軸を同期させることができる。   The server 10 acquires acceleration measurement start time and measurement end time, and pedestrian imaging start time and imaging end time together with measurement data and image data. Even if a time lag occurs between the start of acceleration measurement and the start of imaging for some reason, or a time lag occurs between the end of measurement of acceleration and the end of imaging, the server 10 can synchronize the time axes of the measurement data and the image data. it can.

<<動作の変形例>>
図12は画像表示システム100の全体的な動作の変形例を説明するシーケンス図の一例である。図12では、図11との差異を説明する。図11では、サーバ10が加速度測定装置50と全天球画像撮像装置60にそれぞれ測定開始要求、撮像開始要求、測定終了要求、撮像終了要求を送信した。図12では、サーバ10は加速度測定装置50と通信して、測定開始要求と測定終了要求を送信する。
<< Operation Variation >>
FIG. 12 is an example of a sequence diagram illustrating a modified example of the overall operation of the image display system 100. In FIG. 12, differences from FIG. 11 will be described. In FIG. 11, the server 10 transmits a measurement start request, an imaging start request, a measurement end request, and an imaging end request to the acceleration measuring device 50 and the omnidirectional image capturing device 60, respectively. In FIG. 12, the server 10 communicates with the acceleration measuring device 50 and transmits a measurement start request and a measurement end request.

S2-1:加速度測定装置50の通信部51は測定開始要求を受信すると、全天球画像撮像装置60に撮像開始要求を送信する。   S2-1: Upon receiving the measurement start request, the communication unit 51 of the acceleration measuring device 50 transmits an imaging start request to the omnidirectional image capturing device 60.

S2-2:全天球画像撮像装置60の通信部61は撮像開始要求を受信し、全天球画像撮像装置60の撮像部62は開始時刻を加速度測定装置50に要求する。   S2-2: The communication unit 61 of the omnidirectional image imaging device 60 receives the imaging start request, and the imaging unit 62 of the omnidirectional image imaging device 60 requests the acceleration measuring device 50 for the start time.

S2-3:加速度測定装置50の通信部51は開始時刻を要求されると、サーバ10に対し開始時刻を要求する。   S2-3: When the communication unit 51 of the acceleration measuring apparatus 50 is requested for the start time, the communication unit 51 requests the server 10 for the start time.

S2-4:これに対し、サーバ10は測定開始時刻を加速度測定装置50に送信する。   S2-4: In response to this, the server 10 transmits the measurement start time to the acceleration measuring device 50.

S2-5:加速度測定装置50は全天球画像撮像装置60に撮像開始時刻を送信する。従って、加速度測定装置50と全天球画像撮像装置60は同じ開始時刻をそれぞれ測定開始時刻と撮像開始時刻として扱うことができる。   S2-5: The acceleration measuring device 50 transmits the imaging start time to the omnidirectional imaging device 60. Therefore, the acceleration measuring device 50 and the omnidirectional image capturing device 60 can treat the same start time as the measurement start time and the image capturing start time, respectively.

なお、ステップS2-2の時点で、加速度測定装置50が保持している時刻(現在の時刻)を全天球画像撮像装置60に送信してもよい。加速度測定装置50はこの時刻から加速度の測定を開始し、全天球画像撮像装置60はこの時刻から撮像を開始するので、測定開始時刻と撮像開始時刻を同期させることができる。   Note that the time (current time) held by the acceleration measuring device 50 at the time of step S2-2 may be transmitted to the omnidirectional imaging device 60. The acceleration measuring device 50 starts measuring the acceleration from this time, and the omnidirectional imaging device 60 starts imaging from this time, so that the measurement start time and the imaging start time can be synchronized.

測定と撮像の終了時の処理も同様である。   The processing at the end of measurement and imaging is the same.

S9-1:加速度測定装置50の通信部51は測定終了要求を受信すると、全天球画像撮像装置60に撮像終了要求を送信する。   S9-1: Upon receiving the measurement end request, the communication unit 51 of the acceleration measuring device 50 transmits an imaging end request to the omnidirectional image capturing device 60.

S9-2:全天球画像撮像装置60の通信部61は撮像終了要求を受信して、全天球画像撮像装置60の撮像部62は終了時刻を加速度測定装置50に要求する。   S9-2: The communication unit 61 of the omnidirectional image imaging device 60 receives the imaging end request, and the imaging unit 62 of the omnidirectional image imaging device 60 requests the acceleration measuring device 50 for the end time.

S9-3:加速度測定装置50の通信部51は終了時刻を要求されると、サーバ10に対し終了時刻を要求する。
S9-4:これに対し、サーバ10は測定終了時刻を加速度測定装置50に送信する。
S9-5:加速度測定装置50は全天球画像撮像装置60に撮像終了時刻を送信する。従って、加速度測定装置50と全天球画像撮像装置60は同じ終了時刻をそれぞれ測定終了時刻と撮像終了時刻として扱うことができる。
S9-3: When the communication unit 51 of the acceleration measuring apparatus 50 is requested for the end time, the communication unit 51 requests the server 10 for the end time.
S9-4: In response to this, the server 10 transmits the measurement end time to the acceleration measuring device 50.
S9-5: The acceleration measuring device 50 transmits the imaging end time to the omnidirectional image capturing device 60. Therefore, the acceleration measuring device 50 and the omnidirectional imaging device 60 can treat the same end time as the measurement end time and the imaging end time, respectively.

なお、ステップS9-2の時点で、加速度測定装置50が保持している時刻(現在の時刻)を全天球画像撮像装置60に送信してもよい。加速度測定装置50はこの時刻に加速度の測定を終了し、全天球画像撮像装置60はこの時刻に撮像を終了するので、測定終了時刻と撮像終了時刻を同期させることができる。   Note that the time (current time) held by the acceleration measuring device 50 at the time of step S9-2 may be transmitted to the omnidirectional imaging device 60. The acceleration measuring device 50 finishes measuring the acceleration at this time, and the omnidirectional imaging device 60 finishes the imaging at this time, so that the measurement end time and the imaging end time can be synchronized.

<画像データと測定データの表示例>
図13を用いて、画像データと測定データの表示例について説明する。図13は表示装置30がディスプレイ108に表示した画像データと測定データの一例を示す。図13のような画面をデータ表示画面501という。データ表示画面501は、主に画像データ欄502と測定データ欄503を有する。表示制御部32は、画像データ欄502に画像データを表示し、測定データ欄503に測定データを表示する。表示制御部32は、全天球画像の画像データから歩行者の撮像範囲を取り出して、画像データ欄502に表示する。この処理については後述する。
<Display example of image data and measurement data>
A display example of image data and measurement data will be described with reference to FIG. FIG. 13 shows an example of image data and measurement data displayed on the display 108 by the display device 30. A screen as shown in FIG. 13 is referred to as a data display screen 501. The data display screen 501 mainly has an image data field 502 and a measurement data field 503. The display control unit 32 displays the image data in the image data column 502 and displays the measurement data in the measurement data column 503. The display control unit 32 extracts the pedestrian imaging range from the image data of the omnidirectional image and displays it in the image data field 502. This process will be described later.

画像データ欄502について説明する。図13ではx方向、y方向及びz方向それぞれの加速度が時系列に表示されている。x方向、y方向又はz方向のうち任意の1つ以上の方向の加速度を指導者等が表示させることができる。画像データが静止画の場合、指導者等がボタン504を押下すると操作入力受付部33が操作を受け付け、表示制御部32は時間的に次の画像データを画像データ欄502に表示する。同様にボタン操作により表示制御部32は時間的に前の画像データを画像データ欄502に表示することができる。また、表示制御部32は静止画である画像データを一定の時間間隔で次々に画像データ欄502に表示してもよい。   The image data column 502 will be described. In FIG. 13, accelerations in the x direction, y direction, and z direction are displayed in time series. An instructor or the like can display the acceleration in any one or more directions among the x direction, the y direction, and the z direction. When the image data is a still image, when an instructor or the like presses the button 504, the operation input receiving unit 33 receives the operation, and the display control unit 32 displays the next image data in the image data column 502 in terms of time. Similarly, the display control unit 32 can display the previous image data in the image data column 502 by operating the button. In addition, the display control unit 32 may display image data as a still image in the image data column 502 one after another at a constant time interval.

画像データが動画の場合、指導者等がボタン504を押下すると操作入力受付部33が操作を受け付け、表示制御部32は撮像速度(フレーム数/sec)と同じ再生速度で画像データを動画として再生する。高速再生及び低速再生止なども可能である。指導者等が再度ボタン504を押下すると操作入力受付部33が操作を受け付け、表示制御部32は再生を停止させる。よって、指導者等は任意のタイミングの画像データを表示することができる。なお、画像データだけでなく、画像データと共に集音された音声を出力してもよい。   When the image data is a moving image, when an instructor or the like presses the button 504, the operation input receiving unit 33 receives the operation, and the display control unit 32 reproduces the image data as a moving image at the same reproduction speed as the imaging speed (number of frames / sec). To do. High-speed playback and low-speed playback can be stopped. When a leader or the like presses the button 504 again, the operation input receiving unit 33 receives the operation, and the display control unit 32 stops the reproduction. Therefore, a leader or the like can display image data at an arbitrary timing. Note that not only the image data but also sound collected together with the image data may be output.

測定データ欄503について説明する。画像データが静止画又は動画のどちらの場合でも、測定データは連続的に測定されている。あるいは、静止画の場合は、加速度測定装置50と全天球画像撮像装置60が同期を取って、静止画の全天球画像が撮像されるタイミングで加速度測定装置50が加速度を取得してもよい。   The measurement data column 503 will be described. Whether the image data is a still image or a moving image, the measurement data is continuously measured. Alternatively, in the case of a still image, the acceleration measuring device 50 and the omnidirectional image capturing device 60 are synchronized so that the acceleration measuring device 50 acquires acceleration at the timing when the omnidirectional image of the still image is captured. Good.

表示制御部32は測定データの全てが測定データ欄503に表示しきれるように測定データを変倍して測定データ欄503に表示する。あるいは、ある程度の時間分の測定データを測定データ欄503に表示し、一定時間ごとに切り替えてもよい。図13(a)のようにある程度の長さの測定データが測定データ欄503に表示されている場合、表示制御部32は画像データ欄502に表示されている画像データに対応付けられている測定データを指し示すバー505を測定データ欄503に表示させる。例えば、測定データ欄503に全体又はある時間分の測定データが表示されており、動画の画像データが再生されている場合、表示制御部32は表示中の画像データのフレームに対応付けられている測定データにバー505を重畳させる。従って、時間と共に又は動画の再生が進むにつれて、バー505が測定データ欄503を右に移動する。逆に、指導者等がバー505を移動させると操作入力受付部33が操作を受け付けて、移動後のバー505が指し示す測定データに対応付けられている画像データのフレームを表示制御部32が画像データ欄502に表示させる。   The display control unit 32 scales and displays the measurement data in the measurement data column 503 so that all of the measurement data can be displayed in the measurement data column 503. Alternatively, measurement data for a certain amount of time may be displayed in the measurement data column 503 and switched at regular time intervals. When measurement data having a certain length is displayed in the measurement data column 503 as shown in FIG. 13A, the display control unit 32 performs measurement associated with the image data displayed in the image data column 502. A bar 505 indicating data is displayed in the measurement data column 503. For example, when the measurement data for the whole or a certain time is displayed in the measurement data column 503 and the image data of the moving image is reproduced, the display control unit 32 is associated with the frame of the image data being displayed. A bar 505 is superimposed on the measurement data. Therefore, the bar 505 moves the measurement data column 503 to the right with time or as the reproduction of the moving image proceeds. Conversely, when an instructor or the like moves the bar 505, the operation input accepting unit 33 accepts the operation, and the display control unit 32 displays an image data frame associated with the measurement data indicated by the moved bar 505. It is displayed in the data column 502.

また、図13(b)のように測定データを表示してもよい。図13(b)では、画像データ欄502に表示されている画像データに対応付けられている測定データとその前後の測定データだけが測定データ欄503に表示される。測定データ欄503には例えば1秒〜数秒程度の測定データだけが同時に表示される。なお、点線の測定データは測定データが連続していることを示すもので画面には表示されない。   Moreover, you may display measurement data like FIG.13 (b). In FIG. 13B, only the measurement data associated with the image data displayed in the image data column 502 and the measurement data before and after that are displayed in the measurement data column 503. In the measurement data column 503, for example, only measurement data of about 1 second to several seconds is displayed at the same time. Note that the dotted measurement data indicates that the measurement data is continuous and is not displayed on the screen.

図13(b)の場合、動画や静止画の進行に応じて表示制御部32が画像データ欄502に表示されている全天球画像と対応付けられている測定データを測定データ欄503の中央に表示する。サーバ10により画像データと測定データとは対応付けられているので、画像データ欄502に表示されている画像データのフレームに対応付けられている測定データを少なくとも測定データ欄503に表示することができる。画像データ欄502の動画や静止画が停止されると、測定データも停止する。   In the case of FIG. 13B, the display control unit 32 displays the measurement data associated with the omnidirectional image displayed in the image data column 502 in the center of the measurement data column 503 as the moving image or still image progresses. To display. Since the image data and the measurement data are associated with each other by the server 10, at least the measurement data associated with the frame of the image data displayed in the image data column 502 can be displayed in the measurement data column 503. . When the moving image or still image in the image data field 502 is stopped, the measurement data is also stopped.

<<測定データの評価>>
測定データが加速度の場合、一般的な歩き方ではピークが周期的に現れまたピークの高さもあまり変動しない。これに対し、年齢やケガなどで歩行機能が衰えたりすると、加速度のピークが周期的に現れなくなったり、ピークの高さも変動しやすくなる。指導者等は、画像データを見るだけでも歩行動作を評価できる場合があるが、さらに歩行動作が適切でないことを測定データにより裏付けることができる。また、測定データに乱れがある場所を指導者等が特定して、画像データで確認したりすることができる。測定データには一覧性があるが、画像データはある瞬間のフレームしか表示されないので、指導者等は適切でない歩行動作を短時間で画像データから探すことができる。
<< Evaluation of measurement data >>
When the measurement data is acceleration, peaks appear periodically and the peak height does not fluctuate so much in general walking. On the other hand, if the walking function declines due to age or injury, the peak of acceleration does not appear periodically or the height of the peak tends to fluctuate. The instructor or the like may be able to evaluate the walking motion only by looking at the image data, but the measurement data can support that the walking motion is not appropriate. In addition, an instructor or the like can specify a place where the measurement data is disturbed and can check the image data. Although the measurement data has a list property, since the image data is displayed only at a frame at a certain moment, an instructor or the like can search the image data for an inappropriate walking motion in a short time.

また、本実施形態では加速度を例にして説明しているが、ジャイロセンサ207による角速度、GPS受信部等が検出した位置、加速度・方位センサが検出する方位などによっても、歩行動作が適切かどうかの裏付け等が可能である。例えば、ジャイロセンサ207が測定する角速度により歩行者が歩行する際のヨー角、ピッチ角、ロール角の変化の速さが分かる。この場合も加速度と同様に一般的な歩き方ではピークが周期的に現れまたピークの高さもあまり変動しないことが知られている。また、位置を2回微分すれば加速度が得られるため、位置も加速度と同等の情報を与える。また、旋回歩行の場合、方位は定常的に変化するが、方位を2回微分することで方位の変化の加速度が得られる。この場合も、ピークの周期と高さが評価の目安となる。また、これらの測定データでは、ピークが周期的で高さの変動が少ない場合でもピークが極端に大きいような場合には、歩行動作に改善点がある可能性があるとして指導者が画像データを確認することができる。   In this embodiment, the acceleration is described as an example. However, whether or not the walking motion is appropriate depending on the angular velocity by the gyro sensor 207, the position detected by the GPS receiver, the direction detected by the acceleration / direction sensor, and the like. Can be supported. For example, the angular velocity measured by the gyro sensor 207 indicates the speed of change of the yaw angle, pitch angle, and roll angle when a pedestrian walks. In this case as well, it is known that, as with acceleration, peaks appear periodically and the peak height does not fluctuate much in general walking. Further, since the acceleration is obtained by differentiating the position twice, the position also gives information equivalent to the acceleration. In the case of turning walking, the azimuth constantly changes, but acceleration of the change in azimuth can be obtained by differentiating the azimuth twice. In this case as well, the peak period and height are a guide for evaluation. In addition, in these measurement data, if the peak is periodic and the peak fluctuation is extremely large even if the height fluctuation is small, the instructor may indicate that there is a possibility of improvement in walking motion. Can be confirmed.

また、表示装置30の画像回転部34は加速度と加速度=0の軸との面積を算出してもよい。例えば、円形状に旋回歩行している場合、y方向は歩行者の左右方向(円の半径方向)の加速度なので、加速度が正側の面積と負側の面積は、ラインに対する半径方向の加速度のぶれを示す。ラインの上を歩行者が歩行すれば、正側の面積と負側の面積はほぼ等しくなる。従って、正側の面積と負側の面積が大きく異なるような場合、左脚と右脚のバランスが悪いことが分かる。   Further, the image rotation unit 34 of the display device 30 may calculate the area between the acceleration and the acceleration = 0 axis. For example, if you are walking in a circular shape, the y direction is the acceleration in the left-right direction of the pedestrian (the radial direction of the circle), so the area on the positive side and the area on the negative side are the acceleration in the radial direction relative to the line. Show shake. If a pedestrian walks on the line, the area on the positive side will be approximately equal to the area on the negative side. Therefore, it can be understood that the balance between the left leg and the right leg is poor when the area on the positive side and the area on the negative side are greatly different.

このように、指導者などは時間軸が同期された測定データと画像データを見ることで多くの情報を得ることができる。   Thus, a leader or the like can obtain a lot of information by viewing the measurement data and the image data whose time axes are synchronized.

<全天球画像から歩行者のトリミング>
画像データには、周囲360°の映像が映っているため、全体を表示すると画像が歪んでしまい歩行動作がわかりにくい。このため、表示制御部32は歩行者が写っている範囲だけを画像データ欄502に表示することが好ましい。このような処理を全天球画像のトリミング、歩行者の抽出、全天球画像の回転、又は、取り出しなどと表現する。全天球画像の回転とは、全天球画像を水平方向に(経度方向に)回転させ画像データ欄502に表示される範囲を決定することをいう。
<Trimming pedestrians from spherical images>
Since the image data includes an image of 360 ° around, if the entire image is displayed, the image is distorted and the walking motion is difficult to understand. For this reason, it is preferable that the display control unit 32 displays only the range where the pedestrian is shown in the image data field 502. Such processing is expressed as trimming of the omnidirectional image, extraction of pedestrians, rotation of the omnidirectional image, or extraction. The rotation of the omnidirectional image refers to determining the range displayed in the image data field 502 by rotating the omnidirectional image horizontally (longitudinal direction).

図14は、歩行者が写っている範囲を動体検出部35が特定して画像データ欄502に表示する手順を示すフローチャート図の一例である。図14の処理は、例えば表示装置30が画像データを受信し、動画又は静止画の再生が行われるとスタートする。   FIG. 14 is an example of a flowchart illustrating a procedure in which the moving object detection unit 35 specifies a range in which a pedestrian is shown and displays it in the image data field 502. The processing in FIG. 14 starts when, for example, the display device 30 receives image data and a moving image or a still image is played back.

まず、動体検出部35は歩行者の足の位置を特定する(S10)。足とは履き物の部分をいう、履き物を履いていない場合はかかとからつま先までである。ただし、腰より下や膝より下を足として検出してもよい。動画の場合、歩行者が何回か足踏みするような動作を行えば、動体検出部35は動体を検出することで歩行者を検出できる。あるいは顔を認識しても歩行者を検出できる。全天球画像撮像装置60の周囲に歩行者以外の人が存在する可能性があるが、最も大きな画素範囲を占める移動体を歩行者として検出する。移動体のうち緯度が最も低い画素が足の位置である。この他、動体検出部35が機械学習により足の画像を学習しておき、全天球画像から足を認識してもよい。   First, the moving body detection unit 35 specifies the position of the pedestrian's foot (S10). Foot refers to the part of the footwear, from the heel to the toe when not wearing footwear. However, it may be detected as a foot below the waist or below the knee. In the case of a moving image, if the pedestrian performs an action that steps several times, the moving object detection unit 35 can detect the pedestrian by detecting the moving object. Or a pedestrian can be detected even if a face is recognized. There is a possibility that a person other than the pedestrian exists around the omnidirectional image capturing device 60, but the moving body occupying the largest pixel range is detected as a pedestrian. The pixel with the lowest latitude among the moving objects is the foot position. In addition, the moving object detection unit 35 may learn a foot image by machine learning and recognize the foot from the omnidirectional image.

また、歩行者が決まった位置から歩行を開始することを想定すると、歩行者の初期位置は全天球画像の水平方向の決まった位置である。従って、この場合、動体検出部35は測定対象の歩行者を容易に特定できる。   Further, assuming that the pedestrian starts walking from a predetermined position, the initial position of the pedestrian is a predetermined position in the horizontal direction of the omnidirectional image. Therefore, in this case, the moving object detection unit 35 can easily identify the pedestrian to be measured.

一度、全天球画像から歩行者を特定できれば、以降の全天球画像の歩行者の位置は、特定された歩行者の近くから検出できるはずなので、比較的、短時間で容易に検出できる。   Once the pedestrian can be identified from the omnidirectional image, the position of the pedestrian in the subsequent omnidirectional image should be able to be detected from the vicinity of the identified pedestrian, and can be easily detected in a relatively short time.

また、静止画の場合、初期の全天球画像の歩行者の位置は決まっているか又は指導者等が入力する。あるいは顔を認識しても歩行者を検出できる。初期の全天球画像の歩行者の外接矩形を用いて以降の全天球画像に対しパターンマッチングすることなどで、各静止画から歩行者を検出できる。   In the case of a still image, the position of the pedestrian in the initial omnidirectional image is determined or input by a leader or the like. Or a pedestrian can be detected even if a face is recognized. A pedestrian can be detected from each still image by performing pattern matching on the subsequent omnidirectional image using the circumscribed rectangle of the pedestrian in the initial omnidirectional image.

歩行者が歩行を開始すると動体検出部35は足の位置の変化から単位時間ごとの歩行者の角速度を算出する(S20)。図15を用いて角速度について説明する。図15は全天球画像の上面図における歩行者の足511の位置を模式的に示す図である。例えば、北向きが基準であるとする。足511は経度方向に360°の範囲で位置(北向きをゼロ度とする角度)θを取り得る。1つのフレームで2つの足511が検出されるのでその平均を足511の位置とする。例えば過去の数秒間の足511の変化量の平均を所定時間ごと(例えばフレームを更新するごと)に算出する。これにより変動が少ない歩行者の角速度を算出できる。角速度は全天球画像撮像装置60から見た歩行速度(移動速度)ということができる。なお、実空間におけるx方向の歩行速度はx方向の加速度を積分して得られる。   When the pedestrian starts walking, the moving body detection unit 35 calculates the angular velocity of the pedestrian per unit time from the change in the position of the foot (S20). The angular velocity will be described with reference to FIG. FIG. 15 is a diagram schematically showing the position of the pedestrian's foot 511 in the top view of the omnidirectional image. For example, assume that the north direction is the reference. The foot 511 can take a position θ in the range of 360 ° in the longitude direction (an angle with the north facing zero degree) θ. Since two legs 511 are detected in one frame, the average is set as the position of the legs 511. For example, the average change amount of the foot 511 in the past several seconds is calculated every predetermined time (for example, every time the frame is updated). Thereby, the angular velocity of a pedestrian with little fluctuation | variation can be calculated. The angular velocity can be referred to as a walking speed (moving speed) viewed from the omnidirectional image capturing device 60. The walking speed in the x direction in real space is obtained by integrating the acceleration in the x direction.

画像回転部34は、ステップS20で算出した角速度で画像を回転させる(S30)。すなわち、動画の再生のためフレームが切り替わると、画像回転部34は角速度で歩行者が移動した位置を中心に画像データ欄502の表示範囲(所定範囲)の画像をトリミングする。これにより、画像回転部34が取り出す画像にはほぼ中央に歩行者が映っている。   The image rotation unit 34 rotates the image at the angular velocity calculated in step S20 (S30). That is, when the frame is switched for the reproduction of the moving image, the image rotation unit 34 trims the image in the display range (predetermined range) of the image data column 502 around the position where the pedestrian moves at the angular velocity. Thereby, the pedestrian is reflected in the center of the image taken out by the image rotation unit 34.

表示制御部32は、画像回転部34がトリミングした表示範囲の画像を画像データ欄502に表示する。従って、指導者等は全天球画像から歩行者を探す必要なく、歩行者の歩行動作を評価できる。   The display control unit 32 displays the image in the display range trimmed by the image rotation unit 34 in the image data field 502. Therefore, a leader or the like can evaluate the walking motion of the pedestrian without searching for the pedestrian from the omnidirectional image.

なお、通常の画角のカメラでは歩行者が映るように撮像されているので、回転やトリミングなどの処理は必要ない。また、動体検出部35と画像回転部34の機能をサーバ10又は全天球画像撮像装置60が有していてもよい。この場合、サーバ10又は全天球画像撮像装置60から表示装置30へ画像データが送信される際の通信負荷や通信時間を低減できる。   In addition, since a camera with a normal angle of view is captured so that a pedestrian can be seen, processing such as rotation and trimming is not necessary. The server 10 or the omnidirectional image capturing device 60 may have the functions of the moving object detection unit 35 and the image rotation unit 34. In this case, communication load and communication time when image data is transmitted from the server 10 or the omnidirectional image capturing device 60 to the display device 30 can be reduced.

<<顔認識による全天球画像の回転>>
足の位置に着目する他、画像回転部34は全天球画像から顔を認識することで歩行者を認識し、全天球画像を回転させてもよい。
<< Rotating spherical images by face recognition >>
In addition to paying attention to the position of the foot, the image rotation unit 34 may recognize a pedestrian by recognizing a face from the omnidirectional image and rotate the omnidirectional image.

図16は、歩行者が写っている範囲を動体検出部35が特定して画像データ欄502に表示する手順を示すフローチャート図の一例である。図16の処理は、例えば表示装置30が画像データを受信し、動画又は静止画の再生が行われるとスタートする。   FIG. 16 is an example of a flowchart illustrating a procedure in which the moving object detection unit 35 specifies a range in which a pedestrian is shown and displays it in the image data field 502. The processing of FIG. 16 starts when, for example, the display device 30 receives image data and a moving image or a still image is reproduced.

まず、動体検出部35は全天球画像ごとに顔を認識する(S10)。図17は顔512の認識を模式的に説明する図の一例である。顔512の認識は適切な特徴量の設定と、学習識別装置の学習により行われる。例えば、特徴量としては、Haar-like特徴、LBP(Local Binary Patterns)特徴、HOG(Histogram of Oriented Gradients)特徴などが知られている。また、学習識別装置の学習方法としては、SVM(Support Vector Machines)、AdaBoostなどが知られている。ただし、これらに限られるものではなく顔512を認識できればよい。   First, the moving object detection unit 35 recognizes a face for each omnidirectional image (S10). FIG. 17 is an example of a diagram for schematically explaining the recognition of the face 512. The face 512 is recognized by setting an appropriate feature amount and learning by a learning identification device. For example, as feature quantities, Haar-like features, LBP (Local Binary Patterns) features, HOG (Histogram of Oriented Gradients) features, and the like are known. As learning methods of the learning identification device, SVM (Support Vector Machines), AdaBoost, and the like are known. However, the present invention is not limited to these, and it is sufficient that the face 512 can be recognized.

画像回転部34は、全天球画像から顔512を中心に画像データ欄502の表示範囲513(所定範囲)の画像をトリミングする。これにより、画像回転部34が取り出す画像にはほぼ中央に歩行者が映っている。   The image rotation unit 34 trims the image in the display range 513 (predetermined range) in the image data field 502 around the face 512 from the omnidirectional image. Thereby, the pedestrian is reflected in the center of the image taken out by the image rotation unit 34.

表示制御部32は、画像回転部34がトリミングした表示範囲513の画像を画像データ欄502に表示する。従って、指導者等は全天球画像から歩行者を探す必要なく、歩行者の歩行動作を評価できる。   The display control unit 32 displays the image in the display range 513 trimmed by the image rotation unit 34 in the image data field 502. Therefore, a leader or the like can evaluate the walking motion of the pedestrian without searching for the pedestrian from the omnidirectional image.

なお、全天球画像ごとに顔512の位置を決定してトリミングするのではなく、画像回転部34は、過去のいくつかの全天球画像の顔512の位置から経度方向の移動速度を算出することで、次に表示する全天球画像から表示範囲を決定してもよい。顔512の位置が変動しにくくなるので、滑らかな動画を表示できる。   Instead of determining and trimming the position of the face 512 for each omnidirectional image, the image rotation unit 34 calculates the moving speed in the longitude direction from the positions of the faces 512 of several past omnidirectional images. Thus, the display range may be determined from the omnidirectional image to be displayed next. Since the position of the face 512 is less likely to fluctuate, a smooth moving image can be displayed.

<複数の全天球画像を使用した動体の検出>
動画又は動画と見なせる程度の時間間隔で撮像される連続した静止画の全天球画像では、時間的に連続した複数の全天球画像を使用して動体を検出できる。
<Detection of moving objects using multiple spherical images>
In continuous spherical omnidirectional images captured at time intervals that can be regarded as moving images or moving images, a moving object can be detected using a plurality of temporally continuous omnidirectional images.

まず、図18を用いて動体の検出の概略を説明する。図18は、動体の検出を模式的に説明する図の一例である。   First, an outline of detection of a moving object will be described with reference to FIG. FIG. 18 is an example of a diagram that schematically illustrates detection of a moving object.

図18(a)では、着目フレーム画像181とその直前のフレーム画像182が表示されている。フレーム速度が例えば30fpsであれば、着目フレーム画像181と直前のフレーム画像182には、約33〔ミリ秒〕の間隔がある。着目フレーム画像181と直前のフレーム画像182でなく、着目フレーム画像181に対し数フレーム前のフレーム画像を採用してもよい。動体検出部35は着目フレーム画像とその直前のフレーム画像の差分を算出する。差分とは、同じ位置の画素の画素値を引き算することをいう。全く同じ被写体が映っていても(動体がなくても)蛍光灯の点滅、遠方の人の動き、影の変化などにより差分がゼロにならない場合があるので、差分が閾値未満の場合はゼロと見なす。   In FIG. 18A, a frame image 181 of interest and a frame image 182 immediately before it are displayed. If the frame rate is 30 fps, for example, there is an interval of approximately 33 [milliseconds] between the frame image 181 of interest and the immediately preceding frame image 182. Instead of the target frame image 181 and the immediately preceding frame image 182, a frame image several frames before the target frame image 181 may be adopted. The moving object detection unit 35 calculates the difference between the frame image of interest and the immediately preceding frame image. Difference means subtracting pixel values of pixels at the same position. Even if the exact same subject is shown (even if there is no moving object), the difference may not become zero due to blinking of fluorescent light, movement of a distant person, change of shadow, etc., so if the difference is less than the threshold, it will be zero Consider.

図18(b)は、差分画像の一例を示す。図18(b)では、差分が閾値以上の画素が白画素に置き換えられている。従って、着目フレーム画像と直前のフレーム画像を比較すると、白画素に重なるように歩行者が存在する可能性が高い。   FIG. 18B shows an example of the difference image. In FIG. 18B, pixels whose difference is greater than or equal to the threshold are replaced with white pixels. Therefore, when comparing the frame image of interest with the immediately preceding frame image, there is a high possibility that a pedestrian exists so as to overlap the white pixel.

次に、図18(c)に示すように、動体検出部35は、白画素に画素膨張処理を複数回実行する。画素膨張処理とは、白画素に接した8画素(又は上下左右に隣接した4画素)を画素を白画素に置き換えることをいう。複数回の処理により白画素に接した画素が辿られるため、回数が増えるごとに白画素が膨張するように見える。複数回とは例えば8回や10回など決まった数であり、実験的に好適値が定められている。あるいは、白画素の面積が一定以上になった場合に画素膨張処理を止めてもよい。差分の算出直後では点在していた白画素が、大きさを持った塊になる。歩行者の場合は差分画像が縦長なので、画素膨張処理により白画素は縦方向に大きくなり、動体よりもやや大きな(歩行者よりやや大きい範囲)を特定できる。   Next, as illustrated in FIG. 18C, the moving object detection unit 35 performs pixel expansion processing on white pixels a plurality of times. Pixel expansion processing refers to replacing 8 pixels (or 4 pixels adjacent vertically and horizontally) in contact with white pixels with white pixels. Since the pixel in contact with the white pixel is traced by a plurality of processes, the white pixel appears to expand as the number of times increases. Multiple times is a fixed number such as 8 times or 10 times, and a suitable value is experimentally determined. Alternatively, the pixel expansion process may be stopped when the area of the white pixel exceeds a certain level. Immediately after the difference is calculated, the scattered white pixels become a block having a size. In the case of a pedestrian, since the difference image is vertically long, white pixels are enlarged in the vertical direction by the pixel expansion process, and a slightly larger range (a slightly larger range than the pedestrian) can be specified.

次に、図18(d)に示すように、白画素が連続する領域の外接矩形601などを特定する。以上の処理で検出された外接矩形601の座標(中心や重心など)が中央に来るよう、画像回転部34は全天球画像から表示範囲をトリミングする。なお、全天球画像撮像装置60の周囲には歩行者以外の動体が存在する可能性があるため、複数の外接矩形601が検出された場合は外接矩形601の面積が最も大きい外接矩形601を採用する。   Next, as shown in FIG. 18D, a circumscribed rectangle 601 or the like of a region where white pixels are continuous is specified. The image rotation unit 34 trims the display range from the omnidirectional image so that the coordinates (center, center of gravity, etc.) of the circumscribed rectangle 601 detected by the above processing are in the center. Since there is a possibility that moving objects other than pedestrians exist around the omnidirectional image capturing device 60, when a plurality of circumscribed rectangles 601 are detected, the circumscribed rectangle 601 having the largest area of the circumscribed rectangle 601 is displayed. adopt.

<<全天球画像からのトリミングについて>>
図19(a)は全天球画像からトリミングされる表示範囲を説明する図の一例である。全天球画像は球体であるが、メルカトル図法などにより図19に示すように長方形に変形することができる。従って、経度方向(水平方向、X方向)に360°、緯度方向(上下方向、Y方向)に180°の広さを有する。X方向の座標がゼロとなる経度は決まっているものとする。
<< Trimming from spherical image >>
FIG. 19A is an example for explaining a display range that is trimmed from the omnidirectional image. The omnidirectional image is a sphere, but can be transformed into a rectangle as shown in FIG. 19 by Mercator projection or the like. Therefore, it has a width of 360 ° in the longitude direction (horizontal direction, X direction) and 180 ° in the latitude direction (vertical direction, Y direction). It is assumed that the longitude at which the coordinate in the X direction is zero is determined.

図19(a)に示すように外接矩形601が求められた場合、外接矩形601の4つのコーナーの座標も明らかなので、画像回転部34は外接矩形601の中心O(x,y)を決定できる。画像回転部34は中心Oを中心に経度方向に所定の範囲をトリミングし、中心Oを中心に緯度方向に所定の範囲をトリミングする。この範囲が画像データ欄502に表示される表示範囲である。図19では点線の範囲がトリミングされる表示範囲513である。なお、歩行者の高さはあまり変動しないので、緯度方向の表示範囲は固定値でもよい。この場合、表示装置30が表示した際に歩行者の上下が変動しにくくなる利点が生じうる。 When the circumscribed rectangle 601 is obtained as shown in FIG. 19A, the coordinates of the four corners of the circumscribed rectangle 601 are also apparent, so the image rotation unit 34 determines the center O (x 0 , y 0 ) of the circumscribed rectangle 601. Can be determined. The image rotation unit 34 trims a predetermined range in the longitude direction around the center O, and trims a predetermined range in the latitude direction around the center O. This range is the display range displayed in the image data column 502. In FIG. 19, the range of the dotted line is the display range 513 to be trimmed. Since the height of the pedestrian does not vary much, the display range in the latitude direction may be a fixed value. In this case, there is an advantage that the pedestrian is less likely to fluctuate when displayed on the display device 30.

歩行者が全天球画像撮像装置60から離れるようなラインLで歩行した場合、外接矩形601は小さくなる。逆に全天球画像撮像装置60に接近した場合、外接矩形601は大きくなる。そこで、外接矩形601のサイズに応じて表示倍率の調整(ズームイン/ズームアウト)を行うことが好適である。例えば、一定の外接矩形601のサイズを予め決定しておき、検出した外接矩形601のサイズとの比率に応じて表示倍率を決定する。例えば、外接矩形601の面積や高さ、横幅の比率を算出する。この比率を表示倍率として全天球画像を変倍することで、表示される歩行者の大きさをほぼ一定にでき、閲覧しやすくなる。   When the pedestrian walks along the line L that is away from the omnidirectional image capturing device 60, the circumscribed rectangle 601 becomes smaller. Conversely, when approaching the omnidirectional image capturing apparatus 60, the circumscribed rectangle 601 becomes larger. Therefore, it is preferable to adjust the display magnification (zoom in / zoom out) according to the size of the circumscribed rectangle 601. For example, the size of a fixed circumscribed rectangle 601 is determined in advance, and the display magnification is determined according to the ratio with the detected size of the circumscribed rectangle 601. For example, the ratio of the area, height, and width of the circumscribed rectangle 601 is calculated. By scaling the omnidirectional image using this ratio as a display magnification, the size of the displayed pedestrian can be made almost constant and it is easy to view.

ところで、歩行者が移動すると経度方向の端部(0°又は360°)に到達し、他方の端部(360°又は0°)から進入して再度、撮像される。この場合、2つの端部の両方で1つの動体が検出される過渡的な状態が生じうる。   By the way, when the pedestrian moves, it reaches the end in the longitude direction (0 ° or 360 °), enters from the other end (360 ° or 0 °), and is imaged again. In this case, a transient state in which one moving body is detected at both of the two end portions may occur.

図19(b)は2つの端部の両方で動体が検出される場合を説明する図の一例である。歩行者は経度が小さくなる方向に移動しているものとする。歩行者が端部にさしかかると0°側の端部と360°側の端部の2箇所で動体が検出されてしまう。歩行者がどちらにいるかを決定するために、外接矩形601のサイズが大きい方を優先することが考えられる。例えば、図19(b)で外接矩形601aの面積の方が外接矩形601bの面積よりも大きい場合、動体検出部35は外接矩形601bの中心Oaを歩行者の中心と判断する。   FIG. 19B is an example of a diagram illustrating a case where a moving object is detected at both of two ends. It is assumed that the pedestrian is moving in the direction of decreasing longitude. When a pedestrian approaches the end, a moving object is detected at two locations, an end on the 0 ° side and an end on the 360 ° side. In order to determine where the pedestrian is, it may be considered to give priority to the larger size of the circumscribed rectangle 601. For example, in FIG. 19B, when the area of the circumscribed rectangle 601a is larger than the area of the circumscribed rectangle 601b, the moving object detection unit 35 determines the center Oa of the circumscribed rectangle 601b as the center of the pedestrian.

歩行者がさらに移動すると、外接矩形601bの面積の方が外接矩形601aの面積よりも大きくなる。動体検出部35は外接矩形601bの中心Obを歩行者の中心と判断する。従って、歩行者が端部を跨いで歩行しても外接矩形601の中心Oを決定できるが、外接矩形601aの面積よりも外接矩形601bの面積の方が大きいと判断された瞬間は表示範囲513が大きく移動してしまう。これは、外接矩形601の中心Oは必ず端部よりも内側にあるためである。また、端部の2つの外接矩形601a、601bの面積の大小関係が一様に変化しない場合、表示範囲513の位置が安定しない(あるフレームでは外接矩形601aの面積よりも外接矩形601bの面積の方が大きいと判断され、次のふれーむでは外接矩形601bの面積よりも外接矩形601aの面積の方が大きいと判断される)ことになる。表示範囲513の位置が安定しないと、フレームごとに表示範囲513の位置が経度方向にぶれるおそれがある。   When the pedestrian moves further, the area of the circumscribed rectangle 601b becomes larger than the area of the circumscribed rectangle 601a. The moving body detection unit 35 determines that the center Ob of the circumscribed rectangle 601b is the center of the pedestrian. Accordingly, the center O of the circumscribed rectangle 601 can be determined even when the pedestrian walks across the end, but the display range 513 is instantly determined when the area of the circumscribed rectangle 601b is larger than the area of the circumscribed rectangle 601a. Will move greatly. This is because the center O of the circumscribed rectangle 601 is always inside the end. In addition, when the size relationship between the two circumscribed rectangles 601a and 601b at the end portions does not change uniformly, the position of the display range 513 is not stable (in one frame, the area of the circumscribed rectangle 601b is larger than the area of the circumscribed rectangle 601a). In the next frame, it is determined that the area of the circumscribed rectangle 601a is larger than the area of the circumscribed rectangle 601b). If the position of the display range 513 is not stable, the position of the display range 513 may be shifted in the longitude direction for each frame.

そこで、本実施形態では以下の2つの方法で外接矩形601の中心Oを決定する。
I.常に2つの全天球画像を監視する方法
図20は、2つの全天球画像を用いて外接矩形601の中心Oを決定する方法を説明する図の一例である。全天球画像A(第1の画像データ)は0°を端部として360°までが映っている。この0°は全天球画像撮像装置60が撮像する全天球画像の予め定められた基準の位置として定められている。これに対し、全天球画像B(第2の画像データ)は180°を端部として180°までが映っている。すなわち、全天球画像AとBでは、経度方向に切り取りの開始位置が180°ずれている。なお、切り取りの終了位置は開始位置と同じか直前までである。
Therefore, in the present embodiment, the center O of the circumscribed rectangle 601 is determined by the following two methods.
I. Method of always monitoring two omnidirectional images FIG. 20 is an example of a diagram illustrating a method of determining the center O of the circumscribed rectangle 601 using two omnidirectional images. The omnidirectional image A (first image data) shows up to 360 ° with 0 ° as an end. This 0 ° is determined as a predetermined reference position of the omnidirectional image captured by the omnidirectional image capturing device 60. On the other hand, the omnidirectional image B (second image data) shows 180 ° up to 180 °. That is, in the omnidirectional images A and B, the cut start position is shifted by 180 ° in the longitude direction. The cut end position is the same as or just before the start position.

動体検出部35は、従来から全天球画像Aを用いて画像処理を行っているが、本実施形態では全天球画像Bを作成する。動体検出部35は全天球画像Aから外接矩形601a、601bを、全天球画像Bから外接矩形601cをそれぞれ検出することができる。そして、面積が最も大きい外接矩形601cを特定し、この外接矩形601cの中心Ocを表示範囲513のために使用する。経度方向の中心Oが定まれば表示範囲513は全天球画像AとBのどちらからトリミングしてもよい。これにより、端部に歩行者がさしかかっても表示範囲513のブレを抑制し安定した表示範囲513が得られる。   The moving object detection unit 35 conventionally performs image processing using the omnidirectional image A, but creates the omnidirectional image B in this embodiment. The moving object detection unit 35 can detect the circumscribed rectangles 601a and 601b from the omnidirectional image A and the circumscribed rectangle 601c from the omnidirectional image B, respectively. Then, the circumscribed rectangle 601c having the largest area is specified, and the center Oc of the circumscribed rectangle 601c is used for the display range 513. If the center O in the longitude direction is determined, the display range 513 may be trimmed from either the omnidirectional image A or B. Thereby, even if a pedestrian approaches the end, blurring of the display range 513 is suppressed and a stable display range 513 is obtained.

なお、歩行者が端部にさしかかっていない場合、全天球画像AとBは同じものなので、外接矩形601の面積は同じになる。外接矩形601の面積が同じ場合は、全天球画像AとBのどちらで外接矩形601の中心Oを決定してもよい。   When the pedestrian is not approaching the end, the omnidirectional images A and B are the same, so the area of the circumscribed rectangle 601 is the same. When the area of the circumscribed rectangle 601 is the same, the center O of the circumscribed rectangle 601 may be determined by either the omnidirectional image A or B.

図21は、表示装置30が常に2つの全天球画像を監視して表示範囲513をトリミングする手順のフローチャート図の一例である。図21の処理はフレームごとに繰り返し実行される。   FIG. 21 is an example of a flowchart of a procedure in which the display device 30 always monitors two omnidirectional images and trims the display range 513. The process of FIG. 21 is repeatedly executed for each frame.

表示制御部32は全天球画像をメルカトル図法などで変換して全天球画像Aを作成する。動体検出部35はこの全天球画像Aを利用して動体を検出するため全天球画像Aを縮小する(S10)。縮小は必須の処理ではないが、縮小することでサイズが小さくなるのでメモリの消費量を抑制でき、画像処理の時間を短縮できる。特に、全天球画像はサイズが大きいため縮小することが有効である。また、動体の検出にはある程度の画素数の画像で十分である。   The display control unit 32 creates an omnidirectional image A by converting the omnidirectional image by Mercator projection or the like. The moving object detector 35 reduces the omnidirectional image A in order to detect moving objects using the omnidirectional image A (S10). Although reduction is not an indispensable process, the size can be reduced by reduction, so that the memory consumption can be suppressed and the time for image processing can be shortened. In particular, since the omnidirectional image is large in size, it is effective to reduce it. An image with a certain number of pixels is sufficient for detecting a moving object.

動体検出部35は全天球画像Aとは切り取りの開始位置が180°異なる全天球画像Bを生成し、同様に縮小する(S20)。   The moving object detection unit 35 generates an omnidirectional image B that is 180 ° different from the omnidirectional image A in the cutting start position, and similarly reduces (S20).

動体検出部35は全天球画像A、Bそれぞれで動体を検出し、外接矩形601の面積を算出する(S30)。全天球画像A、Bのそれぞれで複数の外接矩形601が検出される場合は、全天球画像A、Bのそれぞれから最も大きい外接矩形601を決定する。   The moving object detection unit 35 detects moving objects in the omnidirectional images A and B, and calculates the area of the circumscribed rectangle 601 (S30). When a plurality of circumscribed rectangles 601 are detected in each of the omnidirectional images A and B, the largest circumscribed rectangle 601 is determined from each of the omnidirectional images A and B.

動体検出部35は全天球画像A,Bで外接矩形601の面積が同じか否かを判断する(S40)。   The moving object detection unit 35 determines whether or not the area of the circumscribed rectangle 601 is the same in the omnidirectional images A and B (S40).

ステップS40の判断がYesの場合、歩行者は端部にさしかかっていないので、動体検出部35は全天球画像Aの外接矩形601aの中心Oを決定する(S50)。なお、全天球画像Bの外接矩形601bの中心Oを決定してもよい。   If the determination in step S40 is Yes, since the pedestrian is not approaching the end, the moving object detection unit 35 determines the center O of the circumscribed rectangle 601a of the omnidirectional image A (S50). Note that the center O of the circumscribed rectangle 601b of the omnidirectional image B may be determined.

ステップS40の判断がNoの場合、歩行者が端部にさしかかっている可能性があるため、動体検出部35は面積が最も大きい外接矩形601の中心を決定する(S60)。これにより、全天球画像A、Bのうち端部でない方の外接矩形601が選択されるので、外接矩形601の中心Oを安定して算出できる。   If the determination in step S40 is No, there is a possibility that the pedestrian is approaching the end, so the moving object detection unit 35 determines the center of the circumscribed rectangle 601 having the largest area (S60). As a result, the circumscribed rectangle 601 that is not the end of the omnidirectional images A and B is selected, so that the center O of the circumscribed rectangle 601 can be stably calculated.

ステップS50又はS60に続いて、画像回転部34は外接矩形601の中心Oに基づいて表示範囲513をトリミングする(S70)。   Subsequent to step S50 or S60, the image rotation unit 34 trims the display range 513 based on the center O of the circumscribed rectangle 601 (S70).

以上のような処理により、表示装置30は歩行者が中央に映っているブレの少ない表示範囲513を表示できる。   Through the processing as described above, the display device 30 can display the display range 513 with less blurring in which the pedestrian is reflected in the center.

II.歩行者が端部に近寄った場合に全天球画像を切り替える方法
図22は、歩行者が端部に近寄った場合に全天球画像を切り替える方法を説明する図の一例である。全天球画像A、Bは図20と同様である。
II. Method for switching omnidirectional image when pedestrian approaches end part FIG. 22 is an example of a diagram for explaining a method for switching an omnidirectional image when a pedestrian approaches the end part. The omnidirectional images A and B are the same as those in FIG.

まず、図22(a)に示すように、歩行者が全天球画像Aの中央付近を歩行しているものとする。動体検出部35は全天球画像Aから歩行者を検出できる。次に、図22(b)に示すように、歩行者が全天球画像Aの端部に接近した場合、図22(c)に示すように動体検出部35は全天球画像Aから全天球画像Bを生成する。なお、接近したか否かは端部から外接矩形601の中心Oまでの距離が閾値K未満となったか否かにより判断できる。あるいは、外接矩形601の左端や右端と端部との距離を閾値Kと比較してもよい。   First, it is assumed that a pedestrian is walking near the center of the omnidirectional image A as shown in FIG. The moving object detection unit 35 can detect a pedestrian from the omnidirectional image A. Next, as shown in FIG. 22B, when the pedestrian approaches the end of the omnidirectional image A, the moving object detection unit 35 detects the omnidirectional image A from the omnidirectional image A as shown in FIG. A celestial sphere image B is generated. Whether or not the vehicle has approached can be determined based on whether or not the distance from the end to the center O of the circumscribed rectangle 601 is less than the threshold value K. Alternatively, the distance between the left end or the right end of the circumscribed rectangle 601 and the end may be compared with the threshold value K.

図22(c)に示すように、全天球画像Bは切り取りの開始位置が180°異なっているので全天球画像Bの歩行者は中央付近に映る。従って、動体検出部35が全天球画像Bから歩行者を検出することで、ブレの少ない外接矩形601の中心Oを決定できる。この後、歩行者が歩行して180°の端部に接近し距離が閾値K未満となると、動体検出部35は全天球画像Aに切り替える。   As shown in FIG. 22C, since the omnidirectional image B has a start position of clipping different by 180 °, the pedestrian of the omnidirectional image B appears near the center. Therefore, when the moving object detection unit 35 detects a pedestrian from the omnidirectional image B, the center O of the circumscribed rectangle 601 with less blur can be determined. Thereafter, when the pedestrian walks and approaches the end of 180 ° and the distance becomes less than the threshold value K, the moving object detection unit 35 switches to the omnidirectional image A.

全天球画像Bの切り取りの開始位置は一例であって例えば90°〜90°で切り取られてもよい。この場合、進行方向のスペースが180°〜180°で切り取るよりも長くなるため、切り取りの開始位置の切り替え頻度を低減できる。また、切り取りの開始位置が閾値Kに応じて決定されてもよい。例えば、閾値Kよりもやや大きい経度をずらして切り取りの開始位置を決定する。この場合、閾値Kに対して切り取りの開始位置を最適に決定できる。   The start position of the cut out of the omnidirectional image B is an example, and may be cut out at 90 ° to 90 °, for example. In this case, since the space in the advancing direction is longer than that of cutting at 180 ° to 180 °, switching frequency of the cutting start position can be reduced. In addition, the cut start position may be determined according to the threshold value K. For example, the cut start position is determined by shifting the longitude slightly larger than the threshold value K. In this case, the cut start position can be optimally determined with respect to the threshold value K.

図23は、歩行者が端部に近寄った場合に全天球画像を切り替えて表示装置30が表示範囲513をトリミングする手順のフローチャート図の一例である。図23の処理はフレームごとに繰り返し実行される。   FIG. 23 is an example of a flowchart of a procedure in which the omnidirectional image is switched and the display device 30 trims the display range 513 when a pedestrian approaches the end. The process of FIG. 23 is repeatedly executed for each frame.

まず、動体検出部35は、前回の外接矩形601の中心Oが端部から閾値未満(閾値K未満)か否かを判断する(S10)。中心Oの位置は全天球画像A又はBのどちらからも取得される場合もある。前回とは1フレーム前のフレーム画像で検出された外接矩形601の中心Oをいう。なお、歩行者の進行方向が一定方向に決まっている場合は、0°又は360°のいずれかの端部とだけ距離と閾値を比較すればよい。歩行者の進行方向が一定方向に決まっていない場合、端部からの中心Oの距離は歩行者の進行方向が考慮される。歩行者の進行方向は過去の2フレーム以上の中心O(経度方向)の差の正負により判断できる。例えば、0°の端部に接近する進行方向の場合、0°の端部とだけ中心Oの距離と閾値を比較すればよい。   First, the moving object detection unit 35 determines whether or not the center O of the previous circumscribed rectangle 601 is less than the threshold value (less than the threshold value K) from the end (S10). The position of the center O may be acquired from either the omnidirectional image A or B. The previous time refers to the center O of the circumscribed rectangle 601 detected in the frame image one frame before. When the pedestrian travel direction is fixed, the distance and the threshold need only be compared with either the 0 ° or 360 ° end. When the traveling direction of the pedestrian is not determined in a certain direction, the traveling direction of the pedestrian is considered as the distance from the end to the center O. The traveling direction of the pedestrian can be determined by the sign of the difference between the centers O (longitude directions) of the past two frames or more. For example, in the case of the traveling direction approaching the 0 ° end, the distance between the center O and the threshold may be compared only with the 0 ° end.

ステップS10の判断がYesの場合、動体検出部35は全天球画像の切り取りの開始位置を変更する(S20)。従って、前回、全天球画像Aが使用されていれば全天球画像Bに切り替え、前回、全天球画像Bが使用されていれば全天球画像Aに切り替える。表示装置30が全天球画像Aを自動的に生成する場合で、全天球画像Aが切り取り範囲の場合は全天球画像Aを生成する必要はない。表示装置30が全天球画像Aを自動的に生成しない場合で、全天球画像Aが切り取り範囲の場合は全天球画像Aを生成する。全天球画像Bが切り取り範囲の場合は全天球画像Bを生成する。   When the determination in step S10 is Yes, the moving object detection unit 35 changes the start position for cutting the omnidirectional image (S20). Therefore, if the omnidirectional image A was used last time, it is switched to the omnidirectional image B, and if the omnidirectional image B was used last time, it is switched to the omnidirectional image A. When the display device 30 automatically generates the omnidirectional image A and the omnidirectional image A is in the cutout range, it is not necessary to generate the omnidirectional image A. When the display device 30 does not automatically generate the omnidirectional image A and the omnidirectional image A is in the cutout range, the omnidirectional image A is generated. When the omnidirectional image B is in the cut-out range, the omnidirectional image B is generated.

ステップS10の判断がNoの場合、処理はステップS30に進むので、全天球画像の切り取り範囲は変更されない。   If the determination in step S10 is No, the process proceeds to step S30, so that the clipping range of the omnidirectional image is not changed.

次に、動体検出部35は切り取られている全天球画像を縮小する(S30)。縮小の効果は図21で説明した。   Next, the moving object detection unit 35 reduces the cut-out omnidirectional image (S30). The effect of reduction has been described with reference to FIG.

次に、動体検出部35は全天球画像A又はBの外接矩形601の中心Oを決定する(S40)。そして、画像回転部34が表示範囲513をトリミングする(S50)。   Next, the moving object detection unit 35 determines the center O of the circumscribed rectangle 601 of the omnidirectional image A or B (S40). Then, the image rotation unit 34 trims the display range 513 (S50).

このような処理によれば、表示範囲513のブレを抑制でき、全天球画像A又はBのいずれかから外接矩形601の中心Oを決定すればよいので、処理負荷を低減できる。   According to such processing, blurring of the display range 513 can be suppressed, and the processing load can be reduced because the center O of the circumscribed rectangle 601 can be determined from either the omnidirectional image A or B.

<複数の歩行者がいる場合>
全天球画像撮像装置60の周囲を複数の歩行者が歩行している場合を説明する。複数の歩行者のうち指導者等が監視する歩行者が決まっている場合、表示装置30は指導者等が指定した歩行者のみを検出すればよい。例えば、指導者が指定した歩行者の位置を表示装置30が受け付けて、撮像時刻が異なる全天球画像から位置が最も近い外接矩形601に目的の歩行者が映っていると判断する。
<When there are multiple pedestrians>
A case where a plurality of pedestrians are walking around the omnidirectional image capturing device 60 will be described. When a pedestrian to be monitored by a leader or the like is determined among a plurality of pedestrians, the display device 30 may detect only a pedestrian designated by the leader or the like. For example, the display device 30 receives the position of the pedestrian designated by the instructor, and determines that the target pedestrian is reflected in the circumscribed rectangle 601 having the closest position from the omnidirectional images having different imaging times.

しかし、複数の歩行者が撮像されていると、歩行者の歩行速度の違いや歩行方向の違いによって二人の歩行者の外接矩形601が重畳するおそれがある。このため、以下のように歩行者の歩行速度を推定することが有効になる。   However, when a plurality of pedestrians are imaged, the circumscribed rectangles 601 of the two pedestrians may be superimposed due to differences in walking speeds and walking directions. For this reason, it is effective to estimate the walking speed of the pedestrian as follows.

図24は、二人の歩行者が撮像される場合の外接矩形601A、601Bの中心Oを説明する図の一例である。図24(a)は時刻t-2の全天球画像(フレーム画像)を、図24(b)は時刻t-1の全天球画像を、図24(c)は時刻t-0の全天球画像を、それぞれ示す。それぞれの全天球画像で二人の歩行者が撮像されている。この場合、動体検出部35は最も面積が大きい外接矩形601だけでなく、面積が閾値以上の外接矩形601を決定する。これにより、複数の歩行者を検出できる。   FIG. 24 is an example of a diagram illustrating the center O of the circumscribed rectangles 601A and 601B when two pedestrians are imaged. 24A shows the omnidirectional image (frame image) at time t-2, FIG. 24B shows the omnidirectional image at time t-1, and FIG. 24C shows the omnidirectional image at time t-0. Each celestial sphere image is shown. Two pedestrians are captured in each spherical image. In this case, the moving object detection unit 35 determines not only the circumscribed rectangle 601 having the largest area but also the circumscribed rectangle 601 whose area is equal to or larger than the threshold value. Thereby, a plurality of pedestrians can be detected.

時刻t-0〜t-2の全天球画像は撮像された時刻が異なるが、時刻の違いはわずかなのである時刻の全天球画像の歩行者は、次の時刻の全天球画像において位置が最も近い歩行者であると判断できる。従って、動体検出部35は面積が閾値以上の外接矩形601に歩行者A、Bのラベリングが可能である。また、過去の少なくとも2つ以上のフレーム画像の外接矩形601の中心Oの差分から、動体検出部35は歩行者A,Bの歩行速度(方向を含む)を算出できる。従って、時刻t+1の全天球画像において歩行者A,Bの経度方向の位置を予測できる。これにより、歩行者A,Bが重なった場合でもそれぞれの外接矩形601A,601Bの中心Oを精度よく決定しやすくなる。   Although the omnidirectional images from time t-0 to t-2 are captured at different times, the pedestrian of the omnidirectional image at the time when the time difference is slight is the position in the omnidirectional image at the next time. Can be determined to be the nearest pedestrian. Therefore, the moving object detection unit 35 can label the pedestrians A and B on the circumscribed rectangle 601 whose area is equal to or larger than the threshold. Further, the moving object detection unit 35 can calculate the walking speed (including direction) of the pedestrians A and B from the difference between the centers O of the circumscribed rectangles 601 of at least two past frame images. Accordingly, the positions of the pedestrians A and B in the longitude direction can be predicted in the omnidirectional image at time t + 1. Thereby, even when the pedestrians A and B overlap, it becomes easy to accurately determine the center O of each circumscribed rectangle 601A and 601B.

図25は歩行者が重複した場合の外接矩形の中心Oを説明する図の一例である。図25(a)では歩行者AとBの外接矩形601A、601Bは別々に検出されている。また、過去の全天球画像により歩行者A、Bの歩行速度V、Vが算出されている。 FIG. 25 is an example of a diagram illustrating the center O of the circumscribed rectangle when pedestrians overlap. In FIG. 25A, circumscribed rectangles 601A and 601B of pedestrians A and B are detected separately. In addition, walking speeds VA and VB of pedestrians A and B are calculated from past omnidirectional images.

図25(b)では歩行者AとBの外接矩形が重複して1つの外接矩形601が検出された。この場合、動体検出部35は、歩行者A、Bの歩行速度V、Vを用いて、歩行者A,Bそれぞれの外接矩形601A、601Bの中心O、Oを算出する。例えば、外接矩形601Aの中心OはO+V・Δt、外接矩形601Bの中心OはO+V・Δtである。Δtは全天球画像の撮像間隔である。こうすることで、歩行者AとBの外接矩形601A、601Bが重複してもそれぞれの歩行者の位置(中心O)を比較的精度よく検出できる。 In FIG. 25 (b), the circumscribed rectangles of pedestrians A and B overlap, and one circumscribed rectangle 601 is detected. In this case, the moving object detection unit 35, a pedestrian A, walking speed V A of B, and using V B, Pedestrian A, B respectively of the circumscribed rectangles 601A, the center of 601B O A, calculates the O B. For example, the center O A of the circumscribed rectangle 601A is O A + V A · Δt, and the center O B of the circumscribed rectangle 601B is O B + V B · Δt. Δt is the imaging interval of the omnidirectional image. By doing so, even if the circumscribed rectangles 601A and 601B of the pedestrians A and B overlap, the position (center O) of each pedestrian can be detected with relatively high accuracy.

図26は、表示装置30が複数の歩行者の位置を特定し表示範囲513をトリミングする手順のフローチャート図の一例である。図26の処理はフレームごとに繰り返し実行される。   FIG. 26 is an example of a flowchart of a procedure in which the display device 30 identifies the positions of a plurality of pedestrians and trims the display range 513. The process of FIG. 26 is repeatedly executed for each frame.

まず、動体検出部35は外接矩形601と中心Oを算出する(S10)。この時点では、外接矩形601の数などは検討しない。複数の外接矩形601が検出された場合はそれぞれの中心Oを算出する。   First, the moving object detection unit 35 calculates the circumscribed rectangle 601 and the center O (S10). At this time, the number of circumscribed rectangles 601 is not examined. When a plurality of circumscribed rectangles 601 are detected, the respective centers O are calculated.

次に、動体検出部35は過去のフレームで歩行者が複数検出されたか否かを判断する(S20)。   Next, the moving object detection unit 35 determines whether or not a plurality of pedestrians have been detected in the past frame (S20).

ステップS20の判断がNoの場合、処理はステップS60に進む。すなわち、歩行者は常に一人なので上記のように表示範囲513がトリミングされる。   If the determination in step S20 is no, the process proceeds to step S60. That is, since there is always one pedestrian, the display range 513 is trimmed as described above.

ステップS20の判断がYesの場合、動体検出部35は歩行者の数が減少したか否かを判断する(S30)。歩行者の数が減少した場合、外接矩形601が重複したおそれがある。   When the determination in step S20 is Yes, the moving object detection unit 35 determines whether or not the number of pedestrians has decreased (S30). When the number of pedestrians decreases, the circumscribed rectangle 601 may overlap.

このため、ステップS30の判断がYesの場合、動体検出部35は複数の歩行者のそれぞれの歩行速度で中心Oを算出する(S40)。すなわち、ステップS10の中心Oでなく歩行速度で中心Oが推定される。   For this reason, when determination of step S30 is Yes, the moving body detection part 35 calculates the center O with each walking speed of several pedestrians (S40). That is, the center O is estimated not by the center O in step S10 but by the walking speed.

ステップS30の判断がNoの場合、複数の歩行者の外接矩形601が別々に特定されているので、動体検出部35はそれぞれの歩行速度を算出しておく(S50)。   When the determination in step S30 is No, since the circumscribed rectangles 601 of a plurality of pedestrians are specified separately, the moving object detection unit 35 calculates each walking speed (S50).

ステップS20、S40又はS50に続いて、画像回転部34は表示範囲513をトリミングする(S60)。従ってステップS40を通過した場合はステップS40で推定された中心Oに基づいて表示範囲513をトリミングできる。ステップS50を通過した場合はステップS10で算出された中心Oに基づいて表示範囲513をトリミングできる。   Following step S20, S40, or S50, the image rotation unit 34 trims the display range 513 (S60). Therefore, when the process passes through step S40, the display range 513 can be trimmed based on the center O estimated in step S40. When passing through step S50, the display range 513 can be trimmed based on the center O calculated in step S10.

このような処理により、全天球画像撮像装置60の周囲を複数の歩行者が歩行していても、それぞれの歩行者の表示範囲513をトリミングできる。   By such processing, even if a plurality of pedestrians are walking around the omnidirectional image capturing device 60, the display range 513 of each pedestrian can be trimmed.

実施例1では旋回方向について詳細に説明されていないが、指導者等が歩き方を分析する場合、左右どちらか一方向の旋回だけでなく、右旋回(第一の旋回方向)と左旋回(第二の旋回方向)の画像を比較することが有効な場合がある。これは、脚部(片方又は両方)の機能が低下している場合、どちらの脚が旋回方向の内側かによって歩き方に影響が出る場合があるためである。しかし、歩行者が右旋回した場合と左旋回した場合では、画像における歩行者の移動方向が逆になり、身体の向きも逆になってしまい、比較しづらいという不都合があった。   Although the turning direction is not described in detail in the first embodiment, when the instructor or the like analyzes how to walk, not only turning left or right but also turning right (first turning direction) and turning left It may be effective to compare images of (second turning direction). This is because when the function of the leg portion (one or both) is deteriorated, the way of walking may be affected depending on which leg is inside the turning direction. However, when the pedestrian turns to the right and to the left, the moving direction of the pedestrian in the image is reversed, and the direction of the body is also reversed, which makes it difficult to compare.

本実施例では、指導者等が右旋回と左旋回の画像を容易に比較できる画像表示システム100について説明する。   In the present embodiment, an image display system 100 that allows an instructor or the like to easily compare a right turn image and a left turn image will be described.

図27は、表示装置30の機能ブロック図の一例である。なお、図27ではサーバ10,全天球画像撮像装置60、及び、加速度測定装置50については省略した。また、本実施例において、図6において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。   FIG. 27 is an example of a functional block diagram of the display device 30. In FIG. 27, the server 10, the omnidirectional image capturing device 60, and the acceleration measuring device 50 are omitted. Further, in the present embodiment, the components denoted by the same reference numerals in FIG. 6 perform the same function, and therefore, only the main components of the present embodiment may be mainly described.

本実施例の表示装置30は左右反転部36を有している。左右反転部36は図3に示されているCPU101からの命令等によって実現され、左右反転部36は、画像回転部34がトリミングした表示範囲513に左右反転処理を施す。   The display device 30 of this embodiment has a left / right reversing unit 36. The left / right reversing unit 36 is realized by a command from the CPU 101 shown in FIG. 3, and the left / right reversing unit 36 performs a left / right reversing process on the display range 513 trimmed by the image rotating unit 34.

<右旋回、左旋回>
図28は旋回する歩行者を説明する図の一例である。図28(a)は右旋回する歩行者を示し、図28(b)は左旋回する歩行者を示す。図28(a)では右方向に移動する歩行者が画像データに撮像されるので、右肩が手前に写る。図28(b)では左方向に移動する歩行者が画像データに撮像されるので、左肩が手前に写る。なお、画像データと測定データが表示装置30に送信されるまでの手順は図8等にて説明されている。右旋回の画像データ及び測定データと、左旋回の画像データ及び測定データは同時に送信されても別々に送信されてもよい。しかしながら、両者は同一の歩行者であることを示す情報(例えば、歩行者IDなど)に紐付けられていることが好ましい。また、右旋回と左旋回が区別されるように画像データのファイル名や属性情報が設定されている。
<Right turn, left turn>
FIG. 28 is an example for explaining a pedestrian turning. FIG. 28A shows a pedestrian turning right, and FIG. 28B shows a pedestrian turning left. In FIG. 28A, since a pedestrian moving in the right direction is imaged in the image data, the right shoulder appears in front. In FIG. 28B, since a pedestrian moving in the left direction is imaged in the image data, the left shoulder appears in front. The procedure until the image data and the measurement data are transmitted to the display device 30 is described with reference to FIG. The right turn image data and measurement data and the left turn image data and measurement data may be transmitted simultaneously or separately. However, it is preferable that both are associated with information (for example, a pedestrian ID) indicating that they are the same pedestrian. Further, the file name and attribute information of the image data are set so that the right turn and the left turn are distinguished.

右旋回と左旋回で、歩行者は同じ位置から歩行を開始しても別の位置から歩行を開始してもよい。移動する距離はほぼ同じラインLの1周分などであるが、画像データの撮像時間は歩行者の歩行速度によって変わってよい。右旋回と左旋回で歩行速度が異なる歩行者も少なくないためである。あるいは、サーバ10等が、右旋回と左旋回で同じ時間だけ歩行者が歩行したら画像データの撮像と測定データの測定を打ち切ってもよい。   In the right turn and the left turn, the pedestrian may start walking from the same position or may start walking from another position. The moving distance is approximately one turn of the same line L, but the imaging time of the image data may vary depending on the walking speed of the pedestrian. This is because many pedestrians have different walking speeds when turning right and left. Alternatively, when the server 10 or the like walks the pedestrian for the same amount of time during the right turn and the left turn, the imaging of the image data and the measurement data may be discontinued.

<画像の反転>
図29は、表示装置30がディスプレイ108に表示したデータ表示画面501の一例を示す。図29では測定データが非表示であるが、ユーザが所定の操作を行うと測定データも表示できる。図29(a)は左右反転前の画像データを示し、図29(b)は左旋回の画像データが左右反転された画像データを示す。図29(a)では右旋回と左旋回で歩行者の身体の向きが逆になっている。これに対し、図29(b)では左旋回の画像データが左右反転されているため、右旋回と左旋回で歩行者の身体の向きが同じになっている。したがって、指導者等が比較しやすい。なお、右旋回の画像データを左右反転してもよい。すなわち、右旋回の画像データと左旋回の画像データはどちらか一方のみが左右反転されればよい。
<Invert image>
FIG. 29 shows an example of a data display screen 501 displayed on the display 108 by the display device 30. Although the measurement data is not displayed in FIG. 29, the measurement data can also be displayed when the user performs a predetermined operation. FIG. 29A shows image data before left-right reversal, and FIG. 29B shows image data obtained by left-right reversing left-turn image data. In FIG. 29 (a), the direction of the pedestrian's body is reversed between the right turn and the left turn. On the other hand, in FIG. 29B, since the image data of the left turn is reversed left and right, the pedestrian's body direction is the same for the right turn and the left turn. Therefore, it is easy for leaders to compare. Note that the right-turn image data may be reversed horizontally. That is, only one of the right-turn image data and the left-turn image data needs to be horizontally reversed.

ボタン504については図13と同様である。ユーザは右旋回又は左旋回それぞれの画像データを、ボタン504を押下することで再生したり停止させたりすることができる。なお、ボタン504を1つにして右旋回又は左旋回それぞれの画像データを1回の操作で再生、停止できるようにしてもよい。あるいは、右旋回又は左旋回のボタン504のいずれかを押下すると、右旋回及び左旋回それぞれの画像データを再生、停止してもよい。   The button 504 is the same as in FIG. The user can play back or stop the image data of the right turn or the left turn by pressing a button 504. Note that the button 504 may be set to one so that the image data of each of the right turn and the left turn can be reproduced and stopped by one operation. Alternatively, when either the right turn or left turn button 504 is pressed, the image data of the right turn and the left turn may be reproduced and stopped.

また、画像データを反転するか否か、及び、反転する方の画像データをユーザが選択可能であってもよい。   Further, the user may be able to select whether or not to reverse the image data and the image data to be reversed.

図30は、画像データの反転を説明する図の一例である。画像データの反転は公知の技術を使用すればよい。例えば、左右反転部36は画像データの左右の画素列を交換する。すなわち、中央から同じ距離の画素列Ci(iは中央からの画素番号)を交換する。距離Ciの左側の画素列を、右側の距離Ciに移動し、距離Ciの右側の画素列を、左側の距離Ciに移動する。これを中央から左端及び右端まで繰り返すことで左右反転部36は画像データを左右反転させることができる。なお、図示した左右反転の方法は一例に過ぎず、どのように左右反転されてもよい。   FIG. 30 is an example of a diagram illustrating inversion of image data. A known technique may be used to invert the image data. For example, the left / right reversing unit 36 exchanges the left and right pixel columns of the image data. That is, the pixel columns Ci (i is a pixel number from the center) having the same distance from the center are exchanged. The pixel column on the left side of the distance Ci is moved to the distance Ci on the right side, and the pixel column on the right side of the distance Ci is moved to the distance Ci on the left side. By repeating this from the center to the left end and the right end, the left-right inversion unit 36 can invert the image data left-right. Note that the illustrated horizontal reversal method is merely an example, and the horizontal reversal may be performed in any manner.

図31は、表示装置30が歩行者が写っている範囲を左右反転して画像データ欄502に表示する手順を示すフローチャート図の一例である。なお、図31では主に図14との相違を説明する。ステップS10〜S30の処理は図14と同様でよい。ただし、左旋回と右旋回の両方で行われる。   FIG. 31 is an example of a flowchart illustrating a procedure in which the display device 30 displays the image data field 502 in a horizontally reversed range in which a pedestrian is shown. FIG. 31 mainly explains differences from FIG. The processing in steps S10 to S30 may be the same as in FIG. However, both the left turn and the right turn are performed.

ステップS30で画像が回転させられると、左右反転部36は左旋回か右旋回のどちらかの画像データの左右を反転させる(S35)。具体的には、表示範囲513だけを左右反転すればよい。   When the image is rotated in step S30, the left / right reversing unit 36 reverses the left / right of the left turn or right turn image data (S35). Specifically, only the display range 513 needs to be reversed left and right.

これにより、表示制御部32は人物が常に画角の中央に表示される画像データをディスプレイ108に表示できる(S40)。   Thereby, the display control part 32 can display the image data by which a person is always displayed in the center of an angle of view on the display 108 (S40).

<歩行位置の表示>
本実施例では画像データから表示範囲513がトリミングされているため、歩行者の位置を指導者等が特定しにくい。一方、歩行速度が右旋回と左旋回でどのくらい違うかを指導者等が把握したい場合があるし、歩行のラインLに障害物がある場合には障害物に対する歩行者の位置を把握したい場合などもある。そこで、画像データと共に歩行者の位置情報を表示することが有効である。
<Indication of walking position>
In this embodiment, since the display range 513 is trimmed from the image data, it is difficult for a leader or the like to specify the position of the pedestrian. On the other hand, instructors may want to know how much the walking speed differs between right turn and left turn, and when there is an obstacle on the walking line L, the person wants to know the position of the pedestrian with respect to the obstacle. There are also. Therefore, it is effective to display pedestrian position information together with image data.

図32は、歩行者の位置を説明する図の一例である。説明のため、全天球画像撮像装置60を中心とする円の所定位置を基準とする角度θで歩行者の位置を特定するものとする。この所定位置を基準位置Fとする。歩行者はこの基準位置Fから歩き始める。したがって、歩行開始からの経過時間が同じでも歩行速度によって歩行者の位置θが異なる。なお、基準位置Fに対する位置θが分かればよいので、歩行者は基準位置Fから歩行を開始しなくてもよい。なお、位置θは基準位置Fから右回り(時計回り)に測定される。   FIG. 32 is an example of a diagram illustrating the position of a pedestrian. For the sake of explanation, it is assumed that the position of the pedestrian is specified by an angle θ with reference to a predetermined position of a circle centered on the omnidirectional image capturing device 60. This predetermined position is set as a reference position F. The pedestrian starts walking from this reference position F. Therefore, even if the elapsed time from the start of walking is the same, the position θ of the pedestrian varies depending on the walking speed. Note that since the position θ with respect to the reference position F only needs to be known, the pedestrian does not have to start walking from the reference position F. The position θ is measured clockwise (clockwise) from the reference position F.

画像回転部34は実施例1で説明したように歩行者の足の位置や顔を画像データから検出している。したがって、水平方向に360°撮像されている画像データから検出した足や顔の重心を歩行者の位置θとして検出できる。あるいは、外接矩形601の重心などを用いてもよい。画像回転部34は画像データの各フレームから検出された位置θを表示制御部32に通知するので、表示制御部32は画像データと共に位置θを表示することができる。   As described in the first embodiment, the image rotation unit 34 detects the position and face of the pedestrian's feet from the image data. Therefore, the center of gravity of the foot or face detected from the image data imaged 360 ° in the horizontal direction can be detected as the position θ of the pedestrian. Alternatively, the center of gravity of the circumscribed rectangle 601 may be used. Since the image rotation unit 34 notifies the display control unit 32 of the position θ detected from each frame of the image data, the display control unit 32 can display the position θ together with the image data.

図33は、歩行者の位置が表示されたデータ表示画面501を説明する図である。図33のデータ表示画面501はそれぞれの旋回方向に位置表示欄506を有する。位置表示欄506にはラインLを表す経路形状アイコン508と位置アイコン507が表示される。表示制御部32は経路形状アイコン508上の画像回転部34が検出した位置θに位置アイコン507を表示する。これにより、画像データの再生に伴い位置アイコン507が経路形状アイコン508を移動する。指導者等はユーザがラインL上のどこを歩行しているかを把握できる。例えば、右旋回では位置アイコン507が右回りに回転し、左旋回では位置アイコン507が左回りに回転する。したがって、画像データが反転されていても指導者等は旋回方向を判断できる。   FIG. 33 is a diagram for explaining a data display screen 501 on which the position of a pedestrian is displayed. The data display screen 501 in FIG. 33 has a position display field 506 in each turning direction. In the position display field 506, a route shape icon 508 representing a line L and a position icon 507 are displayed. The display control unit 32 displays a position icon 507 at the position θ detected by the image rotation unit 34 on the route shape icon 508. As a result, the position icon 507 moves the path shape icon 508 as the image data is reproduced. A leader or the like can grasp where the user is walking on the line L. For example, the position icon 507 rotates clockwise when turning right, and the position icon 507 rotates counterclockwise when turning left. Therefore, even if the image data is inverted, the leader can determine the turning direction.

一方、画像データが反転された場合、位置表示欄506も反転してよい。この場合、実際のラインLにおける歩行者の位置と、経路形状アイコン508上の位置アイコン507の位置が異なってしまうが、画像データ欄502において歩行者が移動する向きと位置アイコン507の移動方向(回転方向)を一致させることができる。   On the other hand, when the image data is inverted, the position display field 506 may also be inverted. In this case, although the position of the pedestrian in the actual line L and the position of the position icon 507 on the route shape icon 508 are different, the direction in which the pedestrian moves in the image data field 502 and the moving direction of the position icon 507 ( (Direction of rotation) can be matched.

図34は、反転される位置アイコン507の位置の決定方法を説明する図の一例である。歩行者は左旋回しているものとする。歩行者の実際の位置(画像回転部34が検出した位置θ)は基準位置Fから右回りにθである。したがって、θからθ'を算出できる。   FIG. 34 is an example of a diagram illustrating a method for determining the position of the position icon 507 to be reversed. It is assumed that the pedestrian is turning left. The actual position of the pedestrian (position θ detected by the image rotation unit 34) is θ clockwise from the reference position F. Therefore, θ ′ can be calculated from θ.

θ'=360−θ
基準位置Fから左回りの位置θ'が位置θと一致するので、位置アイコン507を反転させるためには基準位置Fから右回りにθ'だけ位置アイコン507を移動させればよい。表示制御部32はこのθ'に位置アイコン507を表示する。
θ ′ = 360−θ
Since the counterclockwise position θ ′ from the reference position F coincides with the position θ, in order to invert the position icon 507, the position icon 507 may be moved clockwise from the reference position F by θ ′. The display control unit 32 displays a position icon 507 at this θ ′.

図35は、位置アイコン507が反転されたデータ表示画面の一例を示す。図35では右旋回と左旋回で位置アイコン507がほぼ同じ位置にあるため、この歩行者は右旋回でも左旋回でもほぼ同じ歩行速度であると指導者等が判断できる。換言すると、右旋回と左旋回で歩行速度が異なる歩行者を指導者等が発見しやすくなる。   FIG. 35 shows an example of a data display screen in which the position icon 507 is inverted. In FIG. 35, since the position icon 507 is substantially the same for the right turn and the left turn, the pedestrian can determine that the pedestrian has substantially the same walking speed for both the right turn and the left turn. In other words, it becomes easy for a leader or the like to find a pedestrian whose walking speed is different between right turn and left turn.

図36は、表示制御部32がデータ表示画面501を表示する手順を説明するフローチャート図の一例である。図36の処理は画像データの1フレームごとに繰り返し実行される。   FIG. 36 is an example of a flowchart for explaining a procedure for the display control unit 32 to display the data display screen 501. The processing in FIG. 36 is repeatedly executed for each frame of image data.

まず、表示制御部32は図14,16等の処理を利用して人物を中央に表示する(S10)。   First, the display control unit 32 displays a person in the center using the processing of FIGS. 14 and 16 (S10).

次に、画像回転部34は右旋回と左旋回のそれぞれで歩行者の位置θを検出する(S20)。   Next, the image rotation unit 34 detects the position θ of the pedestrian in each of the right turn and the left turn (S20).

次に、表示制御部32は、左右反転した画像データにおいて歩行者の位置θをθ'に変換する(S30)。   Next, the display control unit 32 converts the pedestrian position θ into θ ′ in the horizontally reversed image data (S30).

表示制御部32は右旋回と左旋回のそれぞれの画像データの位置表示欄506に位置アイコン507を表示する(S40)。すなわち、左右反転していない画像データの位置表示欄506には位置θに位置アイコン507を表示する。左右反転した画像データの位置表示欄506には位置θ'に位置アイコン507を表示する。   The display control unit 32 displays the position icon 507 in the position display field 506 of the image data for each of the right turn and the left turn (S40). That is, the position icon 507 is displayed at the position θ in the position display field 506 of the image data that has not been horizontally reversed. A position icon 507 is displayed at the position θ ′ in the position display field 506 of the image data reversed left and right.

<経路に直線部が含まれる場合>
ラインLが曲線であることで旋回する際に重心を崩しやすい歩行者を指導者等が発見しやすいと期待される。しかし、歩行者によっては直線歩行と旋回歩行とを比較することが有効な場合がある。例えば、直線歩行では支障なく歩行する歩行者が、旋回歩行では歩行に支障がある場合、指導者等は例えば重心を崩しやすいと判断できる。これに対し、直線歩行と旋回歩行の両方で歩行に支障がある歩行者の場合、指導者等は身体的な特徴によるものである可能性が高いと判断できる。
<When a straight line is included in the route>
Since the line L is a curve, it is expected that a leader or the like can easily find a pedestrian who easily loses the center of gravity when turning. However, for some pedestrians, it may be effective to compare linear walking and turning walking. For example, if a pedestrian who walks without any trouble in a straight walk and has trouble with a walk in a turning walk, the leader or the like can determine that the center of gravity is easily broken, for example. On the other hand, in the case of a pedestrian who has difficulty in walking in both linear walking and turning walking, it can be determined that the leader or the like is likely to be due to physical characteristics.

したがって、ラインLには直線部分と旋回部分が含まれていることが有効な場合がある。また、このようなラインLでも指導者等が右旋回と左旋回を比較することが有効であるが、右旋回と左旋回の直線部分同士を比較し、右旋回と左旋回の旋回部分同士を比較することが好ましい。しかし、歩行者の歩行速度が右旋回と左旋回で異なると、指導者等が旋回歩行の画像データと直線歩行の画像データを比較してしまうおそれがある。   Therefore, it may be effective that the line L includes a straight portion and a turning portion. It is also effective for the leaders to compare the right turn and the left turn even in such a line L, but the straight parts of the right turn and the left turn are compared, and the right turn and the left turn It is preferable to compare the parts. However, if the walking speed of the pedestrian is different between the right turn and the left turn, the instructor or the like may compare the image data of the turning walk with the image data of the straight walking.

そこで、表示装置30は、右旋回と左旋回の画像データを直線部分、旋回部分同士で同期させて表示させる。   Therefore, the display device 30 displays the image data of the right turn and the left turn in synchronization with each other between the straight part and the turning part.

図37は、直線部分と旋回部分で区分された形状を含むラインLを示す図の一例である。図37のポイントP1からP2、P3からP4が直線部分、ポイントP2からP3,P4からP1が旋回部分である。このようにポイントP1〜P4でラインLが区分されている。例えば、ポイントP1を基準位置Fとすると、右旋回する歩行者はポイントP1、P2、P3,P4の順に歩行する。また、左旋回する場合はポイントP4を基準位置Fとすると、左旋回する歩行者はポイントP4、P3、P2,P1の順に歩行する。右旋回と左旋回で基準位置Fが異なるのは、右旋回と左旋回で直線部分同士及び旋回部分同士を比較するためである。   FIG. 37 is an example of a diagram illustrating a line L including a shape divided into a linear portion and a turning portion. In FIG. 37, points P1 to P2, P3 to P4 are straight portions, and points P2 to P3 and P4 to P1 are turning portions. In this way, the line L is divided by the points P1 to P4. For example, assuming that the point P1 is the reference position F, a pedestrian turning right walks in the order of points P1, P2, P3, and P4. Further, when turning left, assuming that the point P4 is the reference position F, a pedestrian who turns left walks in the order of points P4, P3, P2 and P1. The reason why the reference position F differs between the right turn and the left turn is to compare the straight portions and the turn portions in the right turn and the left turn.

ポイントP1〜P4は固定なので、それぞれの位置θ1、θ2、θ3、θ4は既知である。表示制御部32は例えば右旋回の歩行者が先にP2に到達すると、左旋回の歩行者がP3に到達するまで右旋回の歩行者の画像データの再生を停止する。右旋回の他のポイントP3〜P1、左旋回の他のポイントP2,P1、P4についても同様である。   Since the points P1 to P4 are fixed, the respective positions θ1, θ2, θ3, and θ4 are known. For example, when the right turn pedestrian first reaches P2, the display control unit 32 stops the reproduction of the image data of the right turn pedestrian until the left turn pedestrian reaches P3. The same applies to the other points P3 to P1 of the right turn and the other points P2, P1 and P4 of the left turn.

逆に、表示制御部32は、左旋回の歩行者が先にP3に到達すると、右旋回の歩行者がP2に到達するまで、左旋回の歩行者の画像データの再生を停止する。右旋回の他のポイントP3〜P1、左旋回の他のポイントP2,P1、P4についても同様である。こうすることで、表示装置30は、右旋回と左旋回の画像データを直線部分、旋回部分同士で同期させて表示させる。   Conversely, when the left turn pedestrian first reaches P3, the display control unit 32 stops the reproduction of the image data of the left turn pedestrian until the right turn pedestrian reaches P2. The same applies to the other points P3 to P1 of the right turn and the other points P2, P1 and P4 of the left turn. By doing so, the display device 30 displays the image data of the right turn and the left turn in synchronization with each other between the straight portion and the turning portion.

なお、図37では、基準位置Fが異なるので、位置アイコン507を反転させる場合の位置θ'の算出方法が異なる。すなわち、左旋回する場合の位置θ4が右旋回する場合の位置θ1(0°)であるので、反転された位置アイコン507の位置θ'は以下で算出される。   In FIG. 37, since the reference position F is different, the calculation method of the position θ ′ when the position icon 507 is reversed is different. That is, since the position θ4 when turning left is the position θ1 (0 °) when turning right, the position θ ′ of the inverted position icon 507 is calculated as follows.

θ'=270−θ
図38は、直線部分と旋回部分を含むラインLを歩行中の画像データが表示されたデータ表示画面501を説明する図の一例である。なお、図38では左旋回の画像データが左右反転され、さらに、左旋回の位置アイコン507も反転して表示されている。
θ ′ = 270−θ
FIG. 38 is an example of a diagram illustrating a data display screen 501 on which image data while walking on a line L including a straight line portion and a turning portion is displayed. In FIG. 38, the left turn image data is reversed left and right, and the left turn position icon 507 is also reversed and displayed.

図38(a)の上側の画像データはポイントP1からP2の直線部分の画像データであり、図38(a)の下側の画像データはポイントP4からP3の直線部分の画像データである。どちらも直線歩行なので位置アイコン507の位置から分かるように、この歩行者の歩行速度は右旋回でも左旋回でも同様である。したがって、この歩行者は歩行開始からほぼ同じ時間でポイントP2(右旋回の場合)とポイントP3(左旋回の場合)に到達する。   The upper image data in FIG. 38A is the image data of the straight line portion from the points P1 to P2, and the lower image data in FIG. 38A is the image data of the straight line portion from the points P4 to P3. Since both are linear walks, as can be seen from the position of the position icon 507, the walking speed of this pedestrian is the same whether turning right or turning left. Therefore, this pedestrian reaches point P2 (in the case of a right turn) and point P3 (in the case of a left turn) in substantially the same time from the start of walking.

なお、位置表示欄506ではポイントP1〜P4も反転表示されるので、指導者等が実際の歩行者の位置を把握しやすい。   In addition, since the points P1 to P4 are also highlighted in the position display column 506, it is easy for a leader or the like to grasp the actual position of the pedestrian.

図38(b)の上側の画像データはポイントP2からP3の旋回部分の画像データであり、図38(b)の下側の画像データはポイントP3からP2の旋回部分の画像データである。位置アイコン507の位置から、この歩行者の歩行速度は左旋回の方が右旋回よりも速いことが分かる。したがって、この歩行者はポイントP2からポイントP3に到達するまでの時間(右旋回の場合)の方が、ポイントP3からポイントP2に到達するまでの時間(左旋回の場合)よりも長い。このような場合、表示制御部32は左旋回の歩行者がポイントP2に到達したら左旋回の画像データを停止し、右旋回の歩行者がポイントP3に到達したら左旋回の画像データの再生を再開する。こうすることで、指導者等は右旋回と左旋回の直線部分同士を比較し、右旋回と左旋回の旋回部分同士を比較することができる。   The upper image data in FIG. 38B is the image data of the turning portion from the points P2 to P3, and the lower image data in FIG. 38B is the image data of the turning portion from the points P3 to P2. From the position of the position icon 507, it can be seen that the walking speed of the pedestrian is faster when turning left than when turning right. Therefore, the time required for this pedestrian to reach point P3 from point P2 (in the case of a right turn) is longer than the time required to reach point P2 from point P3 (in the case of a left turn). In such a case, the display control unit 32 stops the left turn image data when the left turn pedestrian reaches the point P2, and reproduces the left turn image data when the right turn pedestrian reaches the point P3. Resume. By doing so, the leader or the like can compare the straight portions of the right turn and the left turn, and can compare the turning portions of the right turn and the left turn.

図39は、表示制御部32が画像データを表示する手順を示すフローチャート図の一例である。図39の処理は画像データの再生によりスタートする。   FIG. 39 is an example of a flowchart illustrating a procedure in which the display control unit 32 displays image data. The process of FIG. 39 starts with the reproduction of the image data.

表示制御部32は、右旋回の画像データで歩行者がポイントP2に到達したか否かを判定する(S10)。   The display control unit 32 determines whether or not the pedestrian has reached the point P2 based on the right-turn image data (S10).

ステップS10の判定がNoの場合、表示制御部32は、左旋回の画像データで歩行者がポイントP3に到達したか否かを判定する(S20)。ステップS20の判定がNoの場合、処理はステップS10に戻る。なお、ステップS10,S20の判定は順不同である。   When the determination in step S10 is No, the display control unit 32 determines whether or not the pedestrian has reached the point P3 with the left turn image data (S20). If the determination in step S20 is No, the process returns to step S10. The determinations in steps S10 and S20 are in no particular order.

ステップS10の判定がYesの場合、表示制御部32は、左旋回の画像データで歩行者がポイントP3に到達するまで右旋回の画像データを停止する(S30)。すなわち、左旋回の歩行者の位置θ'がP3に到達するまでは右旋回の画像データを停止し、位置θ'がP3に到達すると右旋回の画像データを再開する。左旋回の画像データは停止することなく表示される。   When the determination in step S10 is Yes, the display control unit 32 stops the right turn image data until the pedestrian reaches the point P3 with the left turn image data (S30). That is, the image data of the right turn is stopped until the position θ ′ of the left turn pedestrian reaches P3, and the image data of the right turn is restarted when the position θ ′ reaches P3. The left turn image data is displayed without stopping.

ステップS20の判定がYesの場合、表示制御部32は、右旋回の画像データで歩行者がポイントP2に到達するまで左旋回の画像データを停止する(S40)。すなわち、右旋回の歩行者の位置θがP2に到達するまでは左旋回の画像データを停止し、位置θがP2に到達すると左旋回の画像データを再開する。右旋回の画像データは停止することなく表示される。   When the determination in step S20 is Yes, the display control unit 32 stops the left turn image data until the pedestrian reaches the point P2 with the right turn image data (S40). That is, the image data of the left turn is stopped until the position θ of the right turn pedestrian reaches P2, and the image data of the left turn is restarted when the position θ reaches P2. Right-turn image data is displayed without stopping.

表示制御部32がこの処理をポイント毎に行うことで、指導者等は右旋回と左旋回の直線部分同士を比較し、右旋回と左旋回の旋回部分同士を比較することができる。   When the display control unit 32 performs this process for each point, the leader or the like can compare the straight portions of the right turn and the left turn, and can compare the turning portions of the right turn and the left turn.

なお、図39のように画像データの再生を停止するのでなく、再生時間の短縮又は再生時間の延長を表示制御部32が行ってもよい。画像回転部34により、右旋回と左旋回で歩行者が各ポイントを通過するまでの経過時間が分かる。例えば、右旋回の場合、P1〜P2の経過時間をTr、左旋回の場合、P4〜P3の経過時間をTl、とする。Tr>Tlである場合、表示制御部32は右旋回の画像データの再生時間を短縮する。
短縮された再生時間=元の再生時間×(Tl/Tr)
表示制御部32は右旋回の画像データの撮像時のフレームレートをTl/Trの逆数だけ大きくしたり、右旋回の画像データのフレーム数がTl/Trになるように間引くなどにより、再生時間を短縮する。
Note that the display control unit 32 may shorten the reproduction time or extend the reproduction time instead of stopping the reproduction of the image data as shown in FIG. The elapsed time until the pedestrian passes each point by the right turn and the left turn is known by the image rotation unit 34. For example, in the case of right turn, the elapsed time of P1 to P2 is Tr, and in the case of left turn, the elapsed time of P4 to P3 is Tl. When Tr> Tl, the display control unit 32 shortens the reproduction time of the right-turn image data.
Reduced playback time = original playback time x (Tl / Tr)
The display control unit 32 reproduces the image by increasing the frame rate at the time of capturing the right turn image data by the reciprocal of Tl / Tr or by thinning the right turn image data so that the number of frames becomes Tl / Tr. Reduce time.

逆に、表示制御部32は左旋回の画像データの再生時間を延長してもよい。
延長された再生時間=元の再生時間×(Tr/Tl)
表示制御部32は画像データの撮像時のフレームレートをTr/Tlの逆数だけ小さくしたり、画像データのフレーム数がTr/Tlを乗じた数になるように補間するなどにより、再生時間を延長する。
Conversely, the display control unit 32 may extend the reproduction time of the left-turn image data.
Extended playback time = original playback time x (Tr / Tl)
The display control unit 32 extends the reproduction time by reducing the frame rate at the time of image data capture by the reciprocal of Tr / Tl or interpolating so that the number of frames of the image data is multiplied by Tr / Tl. To do.

このような処理により、指導者等は右旋回と左旋回の直線部分同士を比較し、右旋回と左旋回の旋回部分同士を比較することができる。   By such processing, the leader or the like can compare the straight portions of the right turn and the left turn, and can compare the turning portions of the right turn and the left turn.

<まとめ>
以上説明したように、本実施形態の画像表示システム100では、全天球画像撮像装置60の周囲を旋回したり右左折する歩行者が撮像されるので、歩行者の様々な歩行動作を撮像可能になる。カメラを移動させたりモーションキャプチャを用いたりする必要がない。ただし、マーカを装着した歩行者が撮像されることを否定する趣旨ではない。また、歩行者の加速度などが画像データと同じ時間軸で表示されるので、指導者等は画像データと測定データを相補的に利用して歩行動作を評価できる。また、右旋回と左旋回の画像データの一方を左右反転するので指導者等が比較しやすくなる。
<Summary>
As described above, in the image display system 100 of the present embodiment, since a pedestrian turning around the omnidirectional image capturing device 60 or turning left and right is imaged, various walking motions of the pedestrian can be imaged. become. There is no need to move the camera or use motion capture. However, this is not to deny that a pedestrian wearing a marker is imaged. Further, since the acceleration of the pedestrian and the like are displayed on the same time axis as the image data, the instructor and the like can evaluate the walking motion using the image data and the measurement data in a complementary manner. In addition, since one of the right turn and left turn image data is reversed left and right, it is easy for a leader or the like to compare.

<その他の構成例>
図2の構成例は一例に過ぎず、画像表示システム100は以下のような構成でもよい。図40(a)は、画像表示システム100の概略構成図の別の一例を示す。図40(a)ではサーバ10がディスプレイ108を有している。この構成では、サーバ10が図5の表示装置30の機能を有しており、サーバ10が時間軸の同期だけでなく全天球画像の回転等を行い測定データと画像データを表示する。
<Other configuration examples>
The configuration example in FIG. 2 is merely an example, and the image display system 100 may have the following configuration. FIG. 40A shows another example of a schematic configuration diagram of the image display system 100. In FIG. 40A, the server 10 has a display 108. In this configuration, the server 10 has the function of the display device 30 in FIG. 5, and the server 10 not only synchronizes the time axis but also rotates the omnidirectional image and displays measurement data and image data.

図40(b)では、サーバ10と表示装置30がなくなっている。この構成では、加速度測定装置50が、図5のサーバ10と表示装置30の機能を有している。   In FIG. 40B, the server 10 and the display device 30 are eliminated. In this configuration, the acceleration measuring device 50 has the functions of the server 10 and the display device 30 of FIG.

図41は、図40(b)のような構成において、加速度測定装置50が測定データと画像データを表示するシーケンス図である。   FIG. 41 is a sequence diagram in which the acceleration measuring device 50 displays measurement data and image data in the configuration as shown in FIG.

S1:歩行動作の測定を始める際、指導者又は歩行者は歩行動作の測定を開始する操作を加速度測定装置50に入力する。加速度測定装置50は指導者又は歩行者の操作を受け付ける。   S1: When starting measurement of walking motion, a leader or a pedestrian inputs an operation for starting measurement of walking motion to the acceleration measuring device 50. The acceleration measuring device 50 receives an operation of a leader or a pedestrian.

S2:加速度測定装置50は撮像開始要求を全天球画像撮像装置60に送信する。   S2: The acceleration measuring device 50 transmits an imaging start request to the omnidirectional imaging device 60.

S3,S4:加速度測定装置50は加速度の測定を開始し、全天球画像撮像装置60は歩行者の撮像を開始する。   S3, S4: The acceleration measuring device 50 starts measuring acceleration, and the omnidirectional image capturing device 60 starts capturing a pedestrian.

S5:歩行が終了すると、指導者又は歩行者は歩行動作の測定を終了する操作を加速度測定装置50に入力する。加速度測定装置50は指導者又は歩行者の操作を受け付ける。   S5: When the walking is finished, the leader or the pedestrian inputs an operation to finish the measurement of the walking motion to the acceleration measuring device 50. The acceleration measuring device 50 receives an operation of a leader or a pedestrian.

S6:加速度測定装置50は撮像終了要求を全天球画像撮像装置60に送信する。   S6: The acceleration measuring device 50 transmits an imaging end request to the omnidirectional image capturing device 60.

S7:全天球画像撮像装置60は撮像を終了し画像データを加速度測定装置50に送信する。   S7: The omnidirectional image capturing device 60 ends the image capturing and transmits the image data to the acceleration measuring device 50.

S8:加速度測定装置50はサーバ10で説明したように測定データを加工する。   S8: The acceleration measuring device 50 processes the measurement data as described in the server 10.

S9:また、加速度測定装置50はサーバ10が行ったように測定データと画像データの時間軸を同期させる。   S9: Further, the acceleration measuring device 50 synchronizes the time axes of the measurement data and the image data as performed by the server 10.

S10:加速度測定装置50は自機のディスプレイ215に測定データと画像データを表示する。   S10: The acceleration measuring device 50 displays the measurement data and the image data on the display 215 of its own device.

S11:あるいは、加速度測定装置50は指導者などの端末(サーバ10など)に測定データと画像データを送信してもよい。   S11: Alternatively, the acceleration measuring device 50 may transmit the measurement data and the image data to a terminal such as a leader (such as the server 10).

S12:これにより、指導者などの端末は測定データと画像データを表示する。   S12: Thereby, a terminal such as a leader displays measurement data and image data.

従って、図40(b)のような構成によれば、システム構成を簡易化できる。歩行者は加速度測定装置50を装着して歩行し、歩行の終了後は加速度測定装置50を指導者などに渡せば指導者から指導を受けることができる。   Therefore, according to the configuration shown in FIG. 40B, the system configuration can be simplified. A pedestrian walks while wearing the acceleration measuring device 50. After the end of walking, the pedestrian can receive guidance from the instructor by passing the acceleration measuring device 50 to the instructor.

なお、歩行者が複数の場合でも、歩行者が端部にさしかかった場合の処理は歩行者が一人の場合の処理を適用できる。   In addition, even when there are a plurality of pedestrians, the processing when the pedestrian is approaching the end can be applied to the processing when there is only one pedestrian.

<サーバ10が表示範囲を決定する場合>
図2の構成においてサーバ10が表示範囲を決定してもよい。この場合の機能構成図を図42に示す。なお、図42の説明では図2との相違を主に説明する。図42ではサーバ10が動体検出部35を有している。サーバ10が動体の検出を行い外接矩形601の中心O又は表示範囲513(位置情報)を各フレームに対応付けて表示装置30に送信する。従って、表示装置30は動体の検出等が不要であり、表示装置30の負荷を低減できる。
<When server 10 determines display range>
In the configuration of FIG. 2, the server 10 may determine the display range. FIG. 42 shows a functional configuration diagram in this case. In the description of FIG. 42, differences from FIG. 2 will be mainly described. In FIG. 42, the server 10 has a moving object detection unit 35. The server 10 detects the moving object and transmits the center O of the circumscribed rectangle 601 or the display range 513 (position information) to the display device 30 in association with each frame. Therefore, the display device 30 does not need to detect moving objects, and the load on the display device 30 can be reduced.

また、サーバ10がさらに画像回転部34を有してもよい。従って、サーバ10は全天球画像から表示範囲513をトリミングして表示装置30に送信できる。この場合、サーバ10と表示装置30の間の通信時間を短縮でき、表示装置30のメモリを圧迫しにくい。   Further, the server 10 may further include an image rotation unit 34. Accordingly, the server 10 can trim the display range 513 from the omnidirectional image and transmit it to the display device 30. In this case, the communication time between the server 10 and the display device 30 can be shortened, and the memory of the display device 30 is hardly pressed.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、本実施形態では、測定データの測定終了後及び画像データの撮像終了後に、測定データ及び画像データが表示されているが、リアルタイムに測定データ及び画像データが表示されてもよい。この場合、表示される測定データ及び画像データはほぼ同時期に撮像されたものである。   For example, in the present embodiment, the measurement data and the image data are displayed after the measurement data is measured and the image data is captured. However, the measurement data and the image data may be displayed in real time. In this case, the displayed measurement data and image data are taken at almost the same time.

また、以上の実施例で示した図5などの構成例は、サーバ10、表示装置30、全天球画像撮像装置60、及び、加速度測定装置50の処理の理解を容易にするために、主な機能に応じて分割したものである。例えば、サーバ10が複数、存在し、複数のサーバ10が協働して本実施形態の処理を行ってもよい。また、サーバ10の記憶部1000はサーバ10が有している必要がなく、記憶部1000はサーバ10が記憶部1000のデータを読み書き可能な場所にあればよい。   Further, the configuration example such as FIG. 5 shown in the above embodiment is mainly for the purpose of facilitating understanding of the processing of the server 10, the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50. It is divided according to various functions. For example, a plurality of servers 10 may exist, and a plurality of servers 10 may cooperate to perform the processing of this embodiment. Further, the storage unit 1000 of the server 10 does not need to be included in the server 10, and the storage unit 1000 may be in a location where the server 10 can read and write data in the storage unit 1000.

また、図6ではサーバ10、表示装置30、全天球画像撮像装置60、及び、加速度測定装置50の機能をいくつかの処理単位に分割して説明した。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。サーバ10、表示装置30、全天球画像撮像装置60、及び、加速度測定装置50の処理は、処理内容に応じてさらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。   In FIG. 6, the functions of the server 10, the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50 have been described by dividing them into several processing units. However, the present invention is not limited by the way of dividing or the name of each processing unit. The processing of the server 10, the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50 can be divided into more processing units depending on the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes.

なお、全天球画像撮像装置60は広角撮像装置の一例であり、通信部11は取得手段及び送信手段の一例であり、表示制御部32は表示制御手段の一例であり、動体検出部35は動体検出手段の一例であり、画像回転部34は画像切出手段の一例である。左右反転部36は左右反転手段の一例である。   The omnidirectional imaging device 60 is an example of a wide-angle imaging device, the communication unit 11 is an example of an acquisition unit and a transmission unit, the display control unit 32 is an example of a display control unit, and the moving object detection unit 35 is It is an example of a moving body detection means, and the image rotation part 34 is an example of an image cut-out means. The left / right reversing unit 36 is an example of a left / right reversing unit.

10 サーバ10
12 画像調整部
30 表示装置30
32 表示制御部
33 操作入力受付部
34 画像回転部
35 動体検出部
50 加速度測定装置
60 全天球画像撮像装置
100 画像表示システム
10 server 10
12 Image adjustment unit 30 Display device 30
32 Display Control Unit 33 Operation Input Accepting Unit 34 Image Rotating Unit 35 Moving Object Detection Unit 50 Acceleration Measuring Device 60 Global Image Imaging Device 100 Image Display System

特開2010‐172394号公報JP 2010-172394 A

Claims (18)

1つ以上の情報処理装置、及び、表示装置を有する画像表示システムであって、
水平方向の周囲を撮像できる広角撮像装置が撮像した画像データを取得する取得手段と、
前記画像データに映っている動体を前記表示装置に表示させる表示制御手段と、
を有する画像表示システム。
An image display system having one or more information processing devices and a display device,
Acquisition means for acquiring image data captured by a wide-angle imaging device capable of imaging the periphery in the horizontal direction;
Display control means for causing the display device to display a moving object shown in the image data;
An image display system.
前記広角撮像装置は、方向を変えながら又は方向を変えて前記広角撮像装置の周囲を進行する前記動体を撮像し、
前記表示制御手段は、前記動体を前記表示装置に表示させる請求項1に記載の画像表示システム。
The wide-angle imaging device images the moving object that travels around the wide-angle imaging device while changing the direction or changing the direction,
The image display system according to claim 1, wherein the display control unit displays the moving object on the display device.
前記画像データから前記動体を検出する動体検出手段と、
前記動体検出手段が検出した前記動体を水平方向の中心として前記画像データから所定範囲の画像を切り出す画像切出手段と、を有し、
前記表示制御手段は、前記所定範囲の画像を前記表示装置に表示させることで、前記動体を前記表示装置のほぼ中央に表示させる請求項1又は2に記載の画像表示システム。
Moving object detection means for detecting the moving object from the image data;
Image cutting means for cutting out an image of a predetermined range from the image data with the moving body detected by the moving body detection means as the center in the horizontal direction;
3. The image display system according to claim 1, wherein the display control unit displays the image of the predetermined range on the display device to display the moving object at substantially the center of the display device.
前記動体検出手段は、撮像された時刻が異なる複数の前記画像データの差分を算出し、前記差分が検出された画素に前記動体が存在すると判断する請求項3に記載の画像表示システム。   The image display system according to claim 3, wherein the moving object detection unit calculates a difference between a plurality of the image data having different captured times, and determines that the moving object exists in a pixel in which the difference is detected. 前記動体検出手段は、前記差分が検出された画素に接した画素を辿ることで画素範囲を作成する処理を行い、
前記画像データに複数の前記画素範囲がある場合、最も大きい前記画素範囲に動体が存在すると判断する請求項4に記載の画像表示システム。
The moving object detection means performs a process of creating a pixel range by tracing a pixel in contact with the pixel in which the difference is detected,
The image display system according to claim 4, wherein when there are a plurality of the pixel ranges in the image data, it is determined that a moving object exists in the largest pixel range.
前記画像データには水平方向の周囲360°が撮像されており、
前記動体検出手段は、1つの前記画像データから水平方向の切り取り開始位置が異なる第1の画像データと第2の画像データを生成し、
前記第1の画像データと前記第2の画像データのそれぞれから前記画素範囲を作成し、面積が最も大きい前記画素範囲に基づいて前記動体を検出する請求項5に記載の画像表示システム。
The image data is imaged around 360 ° in the horizontal direction,
The moving object detection means generates first image data and second image data having different horizontal cutting start positions from the one image data,
The image display system according to claim 5, wherein the pixel range is created from each of the first image data and the second image data, and the moving object is detected based on the pixel range having the largest area.
前記画像データは水平方向の周囲360°が撮像され、水平方向の所定の切り取り開始位置で切り取られており、
前記動体検出手段は、画像データの端部から閾値未満で前記動体が検出された場合、水平方向の前記切り取り開始位置を変更して前記画像データを生成し、
前記切り取り開始位置が変更された前記画像データから前記画素範囲を作成し、前記画素範囲に基づいて前記動体を検出する請求項5に記載の画像表示システム。
The image data is imaged around 360 ° in the horizontal direction, and is cut out at a predetermined cutting start position in the horizontal direction.
The moving object detection means generates the image data by changing the cutting start position in the horizontal direction when the moving object is detected from an end of the image data with less than a threshold value.
The image display system according to claim 5, wherein the pixel range is created from the image data in which the cut start position is changed, and the moving object is detected based on the pixel range.
前記動体検出手段は、過去の前記画像データで検出された前記動体の位置に基づき前記動体の移動速度を算出し、前記移動速度に基づいて前記画像データにおける前記動体の位置を推定する請求項5に記載の画像表示システム。   6. The moving object detection means calculates a moving speed of the moving object based on the position of the moving object detected in the past image data, and estimates the position of the moving object in the image data based on the moving speed. The image display system described in 1. 前記画素範囲が重複することで前記画像データから検出される前記動体の数が、過去の前記画像データで検出された前記動体の数よりも減少した場合、
前記動体検出手段は、前記移動速度に基づいて前記画像データにおける前記動体の位置を推定する請求項8に記載の画像表示システム。
When the number of moving objects detected from the image data due to overlap of the pixel range is less than the number of moving objects detected in the past image data,
The image display system according to claim 8, wherein the moving object detection unit estimates the position of the moving object in the image data based on the moving speed.
前記動体検出手段は、前記画像データを縮小してから前記動体を検出する請求項3〜9のいずれか1項に記載の画像表示システム。   The image display system according to claim 3, wherein the moving object detection unit detects the moving object after reducing the image data. 前記広角撮像装置は、前記広角撮像装置の周囲を第一の旋回方向で進行する前記動体と第二の旋回方向で進行する前記動体を撮像し、
前記第一の旋回方向の前記動体が撮像された画像データ又は前記第二の旋回方向の前記動体が撮像された画像データのどちらかに左右反転の処理を施す左右反転手段、を有し、
前記表示制御手段は、左右反転された画像データと左右反転されていない画像データを前記表示装置に表示させる請求項1〜10のいずれか1項に記載の画像表示システム。
The wide-angle imaging device images the moving body that travels in the first turning direction and the moving body that travels in the second turning direction around the wide-angle imaging device,
Left-right reversing means for performing left-right reversal processing on either the image data obtained by imaging the moving object in the first turning direction or the image data obtained by photographing the moving object in the second turning direction,
The image display system according to any one of claims 1 to 10, wherein the display control unit causes the display device to display image data that is horizontally reversed and image data that is not horizontally reversed.
前記表示制御手段は、さらに、前記動体が進行した経路における前記動体の位置を前記画像データと共に表示する請求項11に記載の画像表示システム。   The image display system according to claim 11, wherein the display control unit further displays a position of the moving body in a path along which the moving body has traveled together with the image data. 前記表示制御手段は、前記左右反転手段が画像データに左右反転の処理を施した旋回方向で進行した前記動体の前記経路における前記位置を、左右反転の処理が施されていない旋回方向における前記位置に変換して前記画像データと共に表示する請求項12に記載の画像表示システム。   The display control means is configured such that the position of the moving body that has traveled in the turning direction in which the left-right reversing means has performed the left-right reversing process on the image data is the position in the turning direction in which the left-right reversing process has not been performed. The image display system according to claim 12, wherein the image display system displays the image data together with the image data. 前記経路は経路の部分の形状によって予め区分されており、
前記表示制御手段は、前記部分を前記第一の旋回方向で移動する画像データと、
前記第一の旋回方向で前記動体が移動する前記部分と同じ形状の前記部分を、前記第二の旋回方向で前記動体が移動する画像データと、を同期させて表示する請求項12又は13に記載の画像表示システム。
The route is preliminarily divided according to the shape of the portion of the route,
The display control means includes image data for moving the portion in the first turning direction;
The part of the same shape as the part in which the moving body moves in the first turning direction is displayed in synchronization with the image data in which the moving body moves in the second turning direction. The image display system described.
1つ以上の情報処理装置を有する画像表示システムであって、
水平方向の周囲を撮像できる広角撮像装置が撮像した画像データを取得する取得手段と、
前記画像データに映っている動体を検出する動体検出手段と、
前記動体の位置情報と共に前記画像データを表示装置に送信する送信手段と、
を有する画像表示システム。
An image display system having one or more information processing devices,
Acquisition means for acquiring image data captured by a wide-angle imaging device capable of imaging the periphery in the horizontal direction;
Moving object detection means for detecting a moving object reflected in the image data;
Transmitting means for transmitting the image data together with the position information of the moving object to a display device;
An image display system.
水平方向の周囲を撮像できる広角撮像装置が撮像した画像データを表示する表示装置であって、
前記画像データを取得する取得手段と、
前記画像データに映っている動体を表示する表示制御手段と、
を有する表示装置。
A display device that displays image data captured by a wide-angle imaging device capable of imaging the surroundings in the horizontal direction,
Obtaining means for obtaining the image data;
Display control means for displaying a moving object shown in the image data;
A display device.
情報処理装置を、
水平方向の周囲を撮像できる広角撮像装置が撮像した画像データを取得する取得手段と、
前記画像データに映っている動体を検出する動体検出手段と、
前記動体の位置情報と共に前記画像データを表示装置に送信する送信手段、として機能させるためのプログラム。
Information processing device
Acquisition means for acquiring image data captured by a wide-angle imaging device capable of imaging the periphery in the horizontal direction;
Moving object detection means for detecting a moving object reflected in the image data;
The program for functioning as a transmission means which transmits the said image data to a display apparatus with the positional information on the said moving body.
水平方向の周囲を撮像できる広角撮像装置が撮像した画像データを表示する表示装置を、
前記画像データを取得する取得手段と、
前記画像データに映っている動体を表示する表示制御手段、として機能させるためのプログラム。
A display device that displays image data captured by a wide-angle imaging device capable of imaging the periphery in the horizontal direction,
Obtaining means for obtaining the image data;
A program for functioning as display control means for displaying a moving object shown in the image data.
JP2016125383A 2016-02-29 2016-06-24 Image display system, display device, and program Pending JP2017158169A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016038105 2016-02-29
JP2016038105 2016-02-29

Publications (1)

Publication Number Publication Date
JP2017158169A true JP2017158169A (en) 2017-09-07

Family

ID=59810412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016125383A Pending JP2017158169A (en) 2016-02-29 2016-06-24 Image display system, display device, and program

Country Status (1)

Country Link
JP (1) JP2017158169A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110392206A (en) * 2018-04-18 2019-10-29 株式会社理光 Information processing equipment and recording medium
JP2020047065A (en) * 2018-09-20 2020-03-26 学校法人立命館 Three-dimensional coordinate data generation system, method thereof, and action analysis apparatus using the method
JP2021105887A (en) * 2019-12-26 2021-07-26 国立大学法人 東京大学 Three-dimensional pose obtaining method and device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110392206A (en) * 2018-04-18 2019-10-29 株式会社理光 Information processing equipment and recording medium
CN110392206B (en) * 2018-04-18 2021-04-02 株式会社理光 Information processing apparatus and recording medium
US10991071B2 (en) 2018-04-18 2021-04-27 Ricoh Company, Ltd. Information processing apparatus and recording medium
JP2020047065A (en) * 2018-09-20 2020-03-26 学校法人立命館 Three-dimensional coordinate data generation system, method thereof, and action analysis apparatus using the method
JP2021105887A (en) * 2019-12-26 2021-07-26 国立大学法人 東京大学 Three-dimensional pose obtaining method and device
JP7427188B2 (en) 2019-12-26 2024-02-05 国立大学法人 東京大学 3D pose acquisition method and device

Similar Documents

Publication Publication Date Title
WO2021128777A1 (en) Method, apparatus, device, and storage medium for detecting travelable region
US10169923B2 (en) Wearable display system that displays a workout guide
JP7305249B2 (en) Method for determining motion information of image feature points, task execution method and device
US20210390765A1 (en) Output of virtual content
JP5765019B2 (en) Display control apparatus, display control method, and program
WO2016031105A1 (en) Information-processing device, information processing method, and program
CN112307642B (en) Data processing method, device, system, computer equipment and storage medium
CN110245552A (en) Interaction processing method, device, equipment and the client of vehicle damage image taking
He et al. Wearable ego-motion tracking for blind navigation in indoor environments
CN103907340A (en) Image generation device and image generation method
CN107404615B (en) Image recording method and electronic equipment
CN103907341A (en) Image generation device, and image generation method
JP2013258614A (en) Image generation device and image generation method
US11212639B2 (en) Information display method and apparatus
CN111062981A (en) Image processing method, device and storage medium
CN112119627A (en) Target following method and device based on holder, holder and computer storage medium
CN112040126A (en) Shooting method, shooting device, electronic equipment and readable storage medium
JP5861667B2 (en) Information processing apparatus, imaging system, imaging apparatus, information processing method, and program
CN111724412A (en) Method and device for determining motion trail and computer storage medium
JP2017158169A (en) Image display system, display device, and program
CN110570465A (en) real-time positioning and map construction method and device and computer readable storage medium
WO2017005070A1 (en) Display control method and device
CN110633336B (en) Method and device for determining laser data search range and storage medium
JP6776600B2 (en) Image display system, information processing device, and program
JP2017151281A (en) Image display system, information processing device, and program