JP2017199980A - Image display system, information processing apparatus, imaging apparatus, and program - Google Patents

Image display system, information processing apparatus, imaging apparatus, and program Download PDF

Info

Publication number
JP2017199980A
JP2017199980A JP2016087437A JP2016087437A JP2017199980A JP 2017199980 A JP2017199980 A JP 2017199980A JP 2016087437 A JP2016087437 A JP 2016087437A JP 2016087437 A JP2016087437 A JP 2016087437A JP 2017199980 A JP2017199980 A JP 2017199980A
Authority
JP
Japan
Prior art keywords
image data
imaging
image
measurement
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016087437A
Other languages
Japanese (ja)
Other versions
JP6776600B2 (en
Inventor
陽平 藤田
Yohei Fujita
陽平 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016087437A priority Critical patent/JP6776600B2/en
Publication of JP2017199980A publication Critical patent/JP2017199980A/en
Application granted granted Critical
Publication of JP6776600B2 publication Critical patent/JP6776600B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image display system capable of evaluating an operation of a moving object easily.SOLUTION: An image display system having an information processing apparatus, multiple wide angle imaging apparatuses capable of imaging the circumference in the horizontal direction, respectively, and a measuring apparatus for measuring the operation of a moving object, further includes acquisition means for acquiring multiple pieces of image data generated by capturing the object with the multiple wide angle imaging apparatuses, respectively, and measurement data generated by measuring the operation of the object with the measuring apparatus, mapping means for mapping the multiple pieces of image data, respectively, to the measurement data, determination means for determining the image data of display object, out of the multiple pieces of image data mapped to the measurement data, respectively, and display means for displaying the determined image data and the measurement data in a display device.SELECTED DRAWING: Figure 1

Description

本発明は、画像表示システム、情報処理装置、撮像装置、及びプログラムに関する。   The present invention relates to an image display system, an information processing apparatus, an imaging apparatus, and a program.

人の歩行動作を分析するモーションキャプチャシステムが従来から知られている。モーションキャプチャシステムでは、例えば、身体の関節位置等に所定のマーカを装着した人をカメラで撮像して、トラッカーによりマーカの動きを追跡することで、人の歩行動作を分析することができる。   2. Description of the Related Art A motion capture system that analyzes a person's walking motion is conventionally known. In the motion capture system, for example, a person wearing a predetermined marker at a joint position or the like of a body is imaged with a camera, and the movement of the person can be analyzed by tracking the movement of the marker with a tracker.

ここで、モーションキャプチャシステムは、様々な角度から人の動作を捉えるために多数のマーカが必要であり、歩行動作の撮像までの準備や撮像後の分析に時間やコストが掛かる傾向があった。また、実験室等のような特別な環境以外では歩行動作の分析を行うことが困難であった。   Here, the motion capture system requires a large number of markers in order to capture human movements from various angles, and there is a tendency that it takes time and cost to prepare for imaging of walking motion and analysis after imaging. In addition, it is difficult to analyze walking motions except in a special environment such as a laboratory.

これらの問題に対して、身体の所定の部位に複数のマークが装着された歩行者の撮像画像を用いて、比較的簡単な構成で歩行動作を分析できる技術が知られている(例えば特許文献1参照)。   For these problems, a technique is known that can analyze walking motion with a relatively simple configuration using captured images of a pedestrian with a plurality of marks attached to a predetermined part of the body (for example, Patent Documents). 1).

しかしながら、上記の従来技術では、撮像可能な歩行動作が限られるという問題がある。これは、歩行することで人は徐々に移動するのに対して、カメラの位置や向きは固定されているためである。例えば、カメラが固定されている場合、直線的に歩行する歩行者の歩行動作以外の歩行動作等(例えば、カメラの周囲を旋回しながらの歩行する歩行者の歩行動作等)を撮像することは困難である。   However, the above-described conventional technique has a problem that the walking motion that can be imaged is limited. This is because the position and orientation of the camera are fixed while the person gradually moves by walking. For example, when the camera is fixed, it is possible to capture a walking motion other than the walking motion of a pedestrian walking in a straight line (for example, a walking motion of a pedestrian walking while turning around the camera). Have difficulty.

本発明の実施の形態は、上記の点に鑑みてなされたもので、移動する対象の動作を評価しやすい画像表示システムを提供することを目的する。   Embodiments of the present invention have been made in view of the above points, and an object of the present invention is to provide an image display system that can easily evaluate the movement of a moving object.

上記目的を達成するため、本発明の実施の形態は、情報処理装置と、水平方向の周囲をそれぞれ撮像可能な複数の広角撮像装置と、移動する対象の動作を測定する測定装置とを有する画像表示システムであって、前記複数の広角撮像装置が前記対象をそれぞれ撮像することにより生成した複数の画像データと、前記測定装置が前記対象の動作を測定することにより生成した測定データとを取得する取得手段と、前記複数の画像データそれぞれと、前記測定データとを対応づける対応付け手段と、前記測定データとそれぞれ対応付けられた前記複数の画像データのうち、表示対象の画像データを決定する決定手段と、決定された前記画像データと前記測定データとを表示装置に表示させる表示手段と、を有する。   In order to achieve the above object, an embodiment of the present invention is an image including an information processing device, a plurality of wide-angle imaging devices capable of imaging the periphery of the horizontal direction, and a measuring device that measures the movement of a moving object. In the display system, a plurality of image data generated by the plurality of wide-angle imaging devices respectively capturing the target, and measurement data generated by the measurement device measuring the operation of the target are acquired. An acquisition unit; an association unit that associates each of the plurality of image data with the measurement data; and a determination that determines image data to be displayed among the plurality of image data respectively associated with the measurement data Means, and display means for displaying the determined image data and measurement data on a display device.

本発明の実施の形態によれば、移動する対象の動作を評価しやすい画像表示システムを提供することができる。   According to the embodiment of the present invention, it is possible to provide an image display system that can easily evaluate the movement of a moving object.

画像表示システムの概略的な動作の一例を説明する図である。It is a figure explaining an example of schematic operation | movement of an image display system. 画像表示システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of an image display system. サーバ及び表示装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a server and a display apparatus. 加速度測定装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an acceleration measuring device. 全天球画像撮像装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an omnidirectional image imaging device. サーバ、表示装置、加速度測定装置、及び全天球画像撮像装置の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of a server, a display apparatus, an acceleration measuring apparatus, and an omnidirectional image imaging device. 歩行者の歩行の一例を説明する図である。It is a figure explaining an example of a pedestrian's walk. 画像表示システムの全体的な動作の一例を説明するシーケンス図である。It is a sequence diagram explaining an example of the whole operation | movement of an image display system. 画像表示システムの全体的な動作の変形例(その1)を説明するシーケンス図である。It is a sequence diagram explaining the modification (the 1) of the whole operation | movement of an image display system. 画像表示システムの全体的な動作の変形例(その2)を説明するシーケンス図である。It is a sequence diagram explaining the modification (the 2) of the whole operation | movement of an image display system. 画像表示システムの全体的な動作の変形例(その3)を説明するシーケンス図である。It is a sequence diagram explaining the modification (the 3) of the whole operation | movement of an image display system. 画像表示システムの全体的な動作の変形例(その4)を説明するシーケンス図である。FIG. 10 is a sequence diagram illustrating a modification (No. 4) of the overall operation of the image display system. 画像表示システムの全体的な動作の変形例(その5)を説明するシーケンス図である。It is a sequence diagram explaining the modification (the 5) of the whole operation | movement of an image display system. 表示画像作成処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a display image creation process. 歩行者が写っている矩形領域の特定の一例を模式的に説明する図である。It is a figure which illustrates typically an example of specification of a rectangular field in which a pedestrian is reflected. 表示画像作成処理の変形例を説明するフローチャートである。It is a flowchart explaining the modification of a display image creation process. 歩行者の歩行の他の例を説明する図である。It is a figure explaining the other example of a pedestrian's walk. 表示装置に表示された表示画像データと測定データの一例を示す図である。It is a figure which shows an example of the display image data and measurement data which were displayed on the display apparatus. 歩行者が写っている範囲を画像データ欄に表示する処理の一例の示すフローチャートである。It is a flowchart which shows an example of the process which displays the range which the pedestrian is reflected in an image data column. 全天球画像の上面図における歩行者の足の位置の一例を模式的に説明する図である。It is a figure which illustrates typically an example of the position of the foot of a pedestrian in the top view of an omnidirectional image. 歩行者が写っている範囲を画像データ欄に表示する処理の他の例の示すフローチャートである。It is a flowchart which shows the other example of the process which displays the range where the pedestrian is reflected in the image data column. 顔の認識の一例を模式的に説明する図である。It is a figure which illustrates an example of recognition of a face typically. 画像表示システムのシステム構成の他の例を示す図である。It is a figure which shows the other example of the system configuration | structure of an image display system. 加速度測定装置が測定データと表示画像データを表示する場合における画像表示システムの全体的な動作の一例を説明するシーケンス図である。It is a sequence diagram explaining an example of the whole operation | movement of an image display system in case an acceleration measuring apparatus displays measurement data and display image data.

以下、本発明の実施の形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<画像表示システムの概略>
まず、本実施形態に係る画像表示システム100の概略的な動作について説明する。図1は、本実施形態に係る画像表示システム100の概略的な動作の一例を説明する図である。
<Outline of image display system>
First, a schematic operation of the image display system 100 according to the present embodiment will be described. FIG. 1 is a diagram illustrating an example of a schematic operation of the image display system 100 according to the present embodiment.

本実施形態に係る画像表示システム100では、2台の全天球画像撮像装置60A及び60Bが設置されており、ラインLに沿って周囲を歩行する歩行者200を全天球画像撮像装置60A及び60Bが撮像する。また、歩行者200には、加速度測定装置50が身体に装着されており、歩行者200の歩行中に生じる加速度を加速度測定装置50が測定している。   In the image display system 100 according to the present embodiment, two omnidirectional image capturing devices 60A and 60B are installed, and a pedestrian 200 walking around the line L is treated as an omnidirectional image capturing device 60A and 60A. 60B images. In addition, the pedestrian 200 is equipped with an acceleration measuring device 50 on the body, and the acceleration measuring device 50 measures the acceleration generated during walking of the pedestrian 200.

(1)全天球画像撮像装置60Aは、歩行者200を撮像することにより生成した画像データAをサーバ10に送信する。同様に、全天球画像撮像装置60Bは、歩行者200を撮像することにより生成した画像データBをサーバ10に送信する。   (1) The omnidirectional image capturing apparatus 60 </ b> A transmits image data A generated by capturing the pedestrian 200 to the server 10. Similarly, the omnidirectional image capturing device 60 </ b> B transmits image data B generated by capturing the pedestrian 200 to the server 10.

また、加速度測定装置50は、歩行者200の歩行中に生じた加速度を測定することにより生成した測定データをサーバ10に送信する。   In addition, the acceleration measuring device 50 transmits measurement data generated by measuring acceleration generated during walking of the pedestrian 200 to the server 10.

なお、画像データA及び画像データBの撮像開始時刻と測定データの測定開始時刻とは同期しており、画像データA及び画像データBの撮像終了時刻と測定データの測定終了時刻とは同期している。   The imaging start time of image data A and image data B and the measurement start time of measurement data are synchronized, and the imaging end time of image data A and image data B and the measurement end time of measurement data are synchronized. Yes.

(2)サーバ10は、画像データAと測定データの時間軸を同期させると共に、画像データBと測定データの時間軸を同期させる。そして、サーバ10は、時間に応じて、画像データA又は画像データBのいずれかを表示する表示画像データを作成する。   (2) The server 10 synchronizes the time axes of the image data A and the measurement data, and synchronizes the time axes of the image data B and the measurement data. And the server 10 produces the display image data which displays either the image data A or the image data B according to time.

(3)サーバ10は、表示画像データと測定データを表示装置30に送信する。これにより、表示装置30は、表示画像データと測定データを同じ時間軸で表示することができる。なお、表示画像データとは、例えば、画像データA及び画像データBのうち、歩行者200がより大きく写っている方を表示する画像データである。   (3) The server 10 transmits display image data and measurement data to the display device 30. Thereby, the display device 30 can display the display image data and the measurement data on the same time axis. The display image data is, for example, image data that displays which of the image data A and the image data B the pedestrian 200 is shown larger.

図1に示したような構成によれば、2台の全天球画像撮像装置60A及び60Bが用いられ、その周囲を歩行する歩行者200が撮像されるので、直線的に移動する歩行者200だけでなく、旋回や右折、左折等する歩行者200を撮像可能になる。歩行者200は、旋回や右折、左折等する際に重心を崩し易いことが知られている。このため、本実施形態に係る画像表示システム100では、直線的に移動する場合に加えて、旋回や右折、左折等する歩行者200の歩行動作の分析を有効に行うことができるようになる。   According to the configuration shown in FIG. 1, two omnidirectional image capturing devices 60A and 60B are used, and the pedestrian 200 walking around the pedestrian 200 is imaged. Therefore, the pedestrian 200 moving linearly is used. In addition, it is possible to image the pedestrian 200 that turns, turns right, turns left, and the like. It is known that the pedestrian 200 easily loses its center of gravity when turning, turning right, turning left, or the like. For this reason, in the image display system 100 according to the present embodiment, in addition to the case of linear movement, it is possible to effectively analyze the walking motion of the pedestrian 200 that makes a turn, right turn, left turn, or the like.

また、全天球画像撮像装置60A及び60Bは、カメラを移動させることなく歩行者200の側面を撮像することができるため、歩行者200の身体の前後方向の揺れ方等を撮像できる。このため、本実施形態に係る画像表示システム100によれば、歩き方の指導者等は、歩行者200の歩行動作を映像で確認及び評価して、改善点を指導することができるようになる。   Further, since the omnidirectional image capturing devices 60A and 60B can capture the side surface of the pedestrian 200 without moving the camera, it is possible to capture how the body of the pedestrian 200 shakes in the front-rear direction. For this reason, according to the image display system 100 according to the present embodiment, an instructor or the like of walking can check and evaluate the walking motion of the pedestrian 200 with an image, and can guide improvement points. .

また、本実施形態に係る画像表示システム100では、歩行者200の加速度等が測定された測定データが表示画像データと同じ時間軸で表示される。このため、指導者等が改善すべき歩行動作を発見した場合に、歩行動作が良好でないことを測定データで裏付けることができる。   In the image display system 100 according to the present embodiment, the measurement data obtained by measuring the acceleration or the like of the pedestrian 200 is displayed on the same time axis as the display image data. For this reason, when a leader etc. discover the walking motion which should be improved, it can be proved by measurement data that the walking motion is not good.

また、本実施形態に係る画像表示システム100では、予め用意されている良好とされる測定データと、歩行者200の測定データとを比較することで、指導者等は、良好でない測定データを発見することもできる。良好でない測定データは、表示画像データと対応付けられているので、指導者等は改善すべき歩行動作を表示画像データから特定することができるようになる。   In addition, in the image display system 100 according to the present embodiment, a leader or the like finds measurement data that is not good by comparing the measurement data that is prepared in advance with good measurement data and the measurement data of the pedestrian 200. You can also Since the measurement data that is not good is associated with the display image data, the instructor or the like can specify the walking motion to be improved from the display image data.

したがって、本実施形態に係る画像表示システム100を用いることで、指導者等は、測定データと表示画像データとを相補的に利用して歩行動作を評価することができるようになる。   Therefore, by using the image display system 100 according to the present embodiment, a leader or the like can evaluate the walking motion using the measurement data and the display image data in a complementary manner.

なお、以降では、全天球画像撮像装置60A及び60Bについて、それぞれを区別しないときは、単に、「全天球画像撮像装置60」と表す。また、全天球画像撮像装置60Aが撮像することにより生成した画像データAと、全天球画像撮像装置60Bが撮像することにより生成した画像データBとをそれぞれ区別しないときは、単に「画像データ」と表す。さらに、以降では、画像データは、動画データであるものとして説明する。したがって、画像データには、1フレーム分の画像(フレーム画像)のデータであるフレームデータが複数含まれる。ただし、画像データは、動画に限られず、静止画の画像データ(静止画データ)であっても良い。   Hereinafter, when the omnidirectional image capturing devices 60A and 60B are not distinguished from each other, they are simply expressed as “omnidirectional image capturing device 60”. When the image data A generated by the omnidirectional image capturing device 60A and the image data B generated by the omnidirectional image capturing device 60B are not distinguished from each other, simply “image data” is used. ". Further, in the following description, it is assumed that the image data is moving image data. Therefore, the image data includes a plurality of frame data that is data of an image (frame image) for one frame. However, the image data is not limited to moving images, and may be image data of still images (still image data).

ここで、歩行者200は、歩行等の動作により、前方、後方、横方向等に移動する対象であるが、人に限られず、例えば、動物、ロボット等であっても良い。また、歩行には、走ることが含まれていても良く、後ろ向きに歩行しても良い。さらに、移動する対象は、車椅子、義足を装着した人、自転車、竹馬、三輪車等であっても良い。以降では、便宜上、移動する対象は、「歩行者200」であるものとして説明する。   Here, the pedestrian 200 is an object that moves forward, backward, laterally, and the like by an action such as walking, but is not limited to a person, and may be, for example, an animal, a robot, or the like. Also, walking may include running or may walk backwards. Further, the object to be moved may be a wheelchair, a person wearing a prosthetic leg, a bicycle, a stilt, a tricycle, or the like. Hereinafter, for the sake of convenience, it is assumed that the moving object is “pedestrian 200”.

また、測定データは、移動する対象の動作を評価するために用いられる情報であるが、加速度に限られず、例えば、角速度、位置、又は方位等であっても良い。   The measurement data is information used to evaluate the movement of the moving object, but is not limited to acceleration, and may be, for example, angular velocity, position, or direction.

また、画像データAと測定データとが対応付けられるとは、画像データAに含まれるフレームデータAのうち、1つ以上のフレームデータAが決まると、測定データに含まれる測定値(具体的には、加速度等)のうち、1つ以上の測定値が決まることをいう。又は、ほぼ同じ時刻に撮像された画像データAに含まれるフレームデータAと、測定データに含まれる測定値とが特定された場合に、時刻、フレームデータA、又は測定値の1つが決まると残りが決まることをいう。なお、画像データBや表示画像データについても同様である。   The image data A and the measurement data are associated with each other when the one or more frame data A among the frame data A included in the image data A is determined. Means that one or more measured values are determined. Alternatively, when the frame data A included in the image data A captured at substantially the same time and the measurement value included in the measurement data are specified, the remaining time is determined when one of the time, the frame data A, or the measurement value is determined. Is determined. The same applies to image data B and display image data.

指導者とは、歩行者200の歩行動作を映像で確認して、当該歩行動作を評価し、改善点等を立案できる者をいう。具体的には、保健師、臨床検査技師、義肢装具士等の資格の保有者が挙げられるが、資格はなくても良い。   The instructor refers to a person who can confirm the walking motion of the pedestrian 200 with an image, evaluate the walking motion, and plan improvement points. Specific examples include holders of qualifications such as public health nurses, clinical laboratory technicians, and prosthetic limb orthoses.

また、歩行動作を評価し、改善点等を立案できる者でなくても、画像表示システム100の操作は可能であり、指導者は、操作者、ユーザ、又は利用者等と呼ばれても良い。   Further, even if the person is not a person who can evaluate the walking motion and plan improvement points, the image display system 100 can be operated, and the instructor may be called an operator, a user, a user, or the like. .

<システム構成>
次に、本実施形態に係る画像表示システム100のシステム構成について説明する。図2は、本実施形態に係る画像表示システム100のシステム構成の一例を示す図である。
<System configuration>
Next, the system configuration of the image display system 100 according to the present embodiment will be described. FIG. 2 is a diagram illustrating an example of a system configuration of the image display system 100 according to the present embodiment.

本実施形態に係る画像表示システム100は、サーバ10、表示装置30、加速度測定装置50、及び全天球画像撮像装置60を有し、ネットワークNを介して相互に通信可能に接続されている。   An image display system 100 according to the present embodiment includes a server 10, a display device 30, an acceleration measuring device 50, and an omnidirectional image capturing device 60, which are connected to each other via a network N so as to communicate with each other.

ネットワークNは、画像表示システム100が配置されている施設等に構築されているLAN(Local Area Network)等である。ネットワークNには、インターネットや電話回線網等が含まれていても良い。また、ネットワークNは、有線又は無線のいずれで構築されていても良く、有線と無線とが組み合わされていても良い。   The network N is a LAN (Local Area Network) constructed in a facility where the image display system 100 is arranged. The network N may include the Internet, a telephone line network, and the like. Further, the network N may be constructed by either wired or wireless, and may be a combination of wired and wireless.

全天球画像撮像装置60は、全天球画像又は全方位画像(以降では、単に「全天球画像」と表す。)と呼ばれる周囲360°を撮像する撮像装置(カメラ)である。全天球画像撮像装置60は、後述する光学系を備えることで、一回の撮像動作で全天球画像を得ることができる。全天球画像には、ほぼ死角なく周囲360°の画像が撮像されているため、指導者等は任意の領域を選択的にディスプレイ等に表示させて、閲覧することができる。   The omnidirectional image capturing device 60 is an image capturing device (camera) that captures a 360-degree circumference called an omnidirectional image or an omnidirectional image (hereinafter simply referred to as an “omnidirectional image”). The omnidirectional image capturing device 60 includes an optical system to be described later, so that an omnidirectional image can be obtained by a single imaging operation. Since the omnidirectional image includes an image of 360 ° around the blind spot, an instructor or the like can selectively display an arbitrary region on a display or the like for viewing.

なお、本実施形態において、全天球画像撮像装置60は、緯度方向(画像の上下方向)で360°の撮像範囲を有していなくても良い。天井や床等の領域には、歩行者200が写らないためである。   In the present embodiment, the omnidirectional image capturing device 60 may not have an image capturing range of 360 ° in the latitude direction (the vertical direction of the image). This is because the pedestrian 200 is not shown in the area such as the ceiling or the floor.

また、全天球画像撮像装置60は、経度方向(画像の水平方向)で360°の撮像範囲を有していなくても良い。これは、歩行者200の歩行動作を指導者等が分析するために、全天球画像撮像装置60の全周の画像までは必要ない場合があるためである。   Further, the omnidirectional image capturing device 60 may not have an imaging range of 360 ° in the longitude direction (the horizontal direction of the image). This is because an image of the entire celestial sphere image capturing device 60 may not be necessary for the instructor to analyze the walking motion of the pedestrian 200.

なお、全天球画像撮像装置60として、ある画角で複数の矩形範囲をそれぞれ撮像した複数の画像を繋ぎ合わせることで全天球画像を得る撮像装置が用いられても良い。   As the omnidirectional image capturing device 60, an image capturing device that obtains an omnidirectional image by connecting a plurality of images obtained by capturing a plurality of rectangular ranges at a certain angle of view may be used.

加速度測定装置50は、歩行者200の加速度を測定して、測定した加速度を示す測定値を含む測定データを得る装置である。加速度は、鉛直方向加速度、進行方向加速度、左右方向加速度の3軸それぞれで測定されることが好適であるが、少なくとも一方向の加速度でも良い。   The acceleration measuring device 50 is a device that measures the acceleration of the pedestrian 200 and obtains measurement data including a measured value indicating the measured acceleration. The acceleration is preferably measured on each of the three axes of vertical direction acceleration, traveling direction acceleration, and left-right direction acceleration, but may be acceleration in at least one direction.

加速度測定装置50として加速度を測定する専用のセンサ(加速度センサ)も存在するが、加速度測定装置50は、加速度センサを有している装置であっても良い。具体的には、加速度測定装置50は、例えば、スマートフォン、携帯電話、タブレット端末、ノートPC(Personal Computer)、ウェアラブル端末(ヘッドマウントディスプレイ、サングラスや腕時計等として装着されるPC)、歩度計等であっても良い。   A dedicated sensor (acceleration sensor) for measuring acceleration also exists as the acceleration measuring device 50, but the acceleration measuring device 50 may be a device having an acceleration sensor. Specifically, the acceleration measuring device 50 is, for example, a smartphone, a mobile phone, a tablet terminal, a notebook PC (Personal Computer), a wearable terminal (a PC mounted as a head mounted display, sunglasses, a wristwatch, or the like), a pedometer, or the like. There may be.

また、加速度測定装置50は、加速度以外にも、例えば、角速度、位置、方位等を測定する機能を有していても良い。   Further, the acceleration measuring device 50 may have a function of measuring, for example, angular velocity, position, azimuth, and the like in addition to acceleration.

角速度は、例えば、ジャイロセンサを用いて測定することができる。位置は、例えば、GPS(Global Positioning System)衛星、IMES(Indoor MEssaging System)、又はビーコン等を用いて測定することができる。方位は、例えば、東西南北の方位を、例えば北を基準に検出する方位センサを用いて測定することができる。これらは、いずれも加速度と同様に、歩行者200の歩行動作の評価に用いることができる。   The angular velocity can be measured using, for example, a gyro sensor. The position can be measured using, for example, a GPS (Global Positioning System) satellite, IMES (Indoor MEssaging System), or a beacon. The azimuth can be measured, for example, using an azimuth sensor that detects the east, west, south, and north directions, for example, based on the north. Any of these can be used for evaluating the walking motion of the pedestrian 200 as well as the acceleration.

本実施形態では、加速度測定装置50が加速度を測定するものとして説明するが、これに限られず、加速度測定装置50は、角速度、位置、方位等、歩行動作の評価に用いられる各種の測定値を含む測定データをサーバ10に送信しても良い。   In the present embodiment, the acceleration measurement device 50 is described as measuring acceleration. However, the present invention is not limited to this, and the acceleration measurement device 50 uses various measurement values used for evaluation of walking motion, such as angular velocity, position, and orientation. The included measurement data may be transmitted to the server 10.

サーバ10は、全天球画像撮像装置60から受信した画像データと、加速度測定装置50から受信した測定データとの時間軸を同期させる情報処理装置である。また、サーバ10は、全天球画像撮像装置60から受信した画像データから表示画像データを作成する。なお、サーバ10の機能は、加速度測定装置50や表示装置30が有していても良い。   The server 10 is an information processing device that synchronizes the time axes of the image data received from the omnidirectional image capturing device 60 and the measurement data received from the acceleration measuring device 50. Further, the server 10 creates display image data from the image data received from the omnidirectional image capturing device 60. The function of the server 10 may be included in the acceleration measuring device 50 or the display device 30.

表示装置30は、指導者等が表示画像データと測定データとを表示させる端末装置として使用される情報処理装置である。具体的には、例えば、PC、スマートフォン、タブレット端末、携帯電話、カーナビゲーション端末、ウェアラブル端末、カメラ、電子黒板、プロジェクタ、ゲーム機、MFP(Multifunction Peripheral/Printer/Product)等である。   The display device 30 is an information processing device used as a terminal device that allows a leader or the like to display display image data and measurement data. Specifically, for example, a PC, a smartphone, a tablet terminal, a mobile phone, a car navigation terminal, a wearable terminal, a camera, an electronic blackboard, a projector, a game machine, an MFP (Multifunction Peripheral / Printer / Product), and the like.

<ハードウェア構成>
次に、本実施形態に係るサーバ10、表示装置30、加速度測定装置50、及び全天球画像撮像装置60のハードウェア構成について説明する。
<Hardware configuration>
Next, the hardware configuration of the server 10, the display device 30, the acceleration measuring device 50, and the omnidirectional image capturing device 60 according to the present embodiment will be described.

図3は、サーバ10及び表示装置30のハードウェア構成の一例を示す図である。図3に示すサーバ10及び表示装置30のハードウェア構成は、1つの筐体に配置されている例を示しているが、これに限られない。サーバ10及び表示装置30のハードウェア構成は、それぞれのハードウェアが通信可能なように、例えば、複数の筐体等に分散して配置されていても良い。なお、サーバ10及び表示装置30は、同様のハードウェア構成を有しているため、以降では、主に、サーバ10のハードウェア構成について説明する。   FIG. 3 is a diagram illustrating an example of a hardware configuration of the server 10 and the display device 30. Although the hardware configurations of the server 10 and the display device 30 illustrated in FIG. 3 are illustrated as examples arranged in one housing, the present invention is not limited thereto. The hardware configurations of the server 10 and the display device 30 may be distributed in, for example, a plurality of cases so that the respective hardware can communicate with each other. Since the server 10 and the display device 30 have the same hardware configuration, the hardware configuration of the server 10 will be mainly described below.

サーバ10は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、HDD(Hard Disk Drive)105、及びメディアドライブ107を有する。また、サーバ10は、ディスプレイ108、ネットワークI/F109、キーボード111、マウス112、及び光学ドライブ114を有する。これらの各ハードウェアは、それぞれがバス110で互いに接続されている。   The server 10 includes a central processing unit (CPU) 101, a read only memory (ROM) 102, a random access memory (RAM) 103, a hard disk drive (HDD) 105, and a media drive 107. The server 10 also includes a display 108, a network I / F 109, a keyboard 111, a mouse 112, and an optical drive 114. Each of these pieces of hardware is connected to each other by a bus 110.

CPU101は、HD(Hard Disk)104に記憶されている画像処理プログラムを実行して、サーバ10の全体の動作を制御する。ROM102は、IPL(Initial Program Reader)等、CPU101の駆動に用いられるプログラムを記憶している。RAM103は、CPU101のワークエリアとして使用される主記憶装置である。HD104は、不揮発性メモリを搭載した記憶装置である。   The CPU 101 executes an image processing program stored in an HD (Hard Disk) 104 and controls the overall operation of the server 10. The ROM 102 stores a program used to drive the CPU 101 such as an IPL (Initial Program Reader). The RAM 103 is a main storage device used as a work area for the CPU 101. The HD 104 is a storage device equipped with a nonvolatile memory.

HDD105は、CPU101の制御に従ってHD104に対する各種データの読み出し又は書き込みを制御する。ディスプレイ108は、カーソル、メニュー、ウィンドウ、文字、又は画像等の各種情報を表示する。ネットワークI/F109は、ネットワークNとのインタフェースである。なお、サーバ10のディスプレイ108が表示装置30であっても良い。   The HDD 105 controls reading or writing of various data with respect to the HD 104 according to the control of the CPU 101. The display 108 displays various information such as a cursor, menu, window, character, or image. The network I / F 109 is an interface with the network N. The display 108 of the server 10 may be the display device 30.

キーボード111及びマウス112は、入出力装置である。キーボード111は、文字、数値、各種指示等の入力のための複数のキーを備え、これらの複数のキーからの入力を受け付ける。マウス112は、マウスポインターの移動及び各種指示の選択や実行、処理対象の選択等を受け付ける。   The keyboard 111 and the mouse 112 are input / output devices. The keyboard 111 includes a plurality of keys for inputting characters, numerical values, various instructions, and the like, and receives input from the plurality of keys. The mouse 112 receives movement of the mouse pointer, selection and execution of various instructions, selection of a processing target, and the like.

メディアドライブ107は、フラッシュメモリ等の記録メディア106に対する各種データの読み出し又は書き込みを制御する。光学ドライブ114は、着脱可能な記録媒体の一例としてのCD(Compact Disc)113等に対する各種データの読み出し又は書き込みを制御する。   The media drive 107 controls reading or writing of various data with respect to the recording medium 106 such as a flash memory. The optical drive 114 controls reading or writing of various data with respect to a CD (Compact Disc) 113 as an example of a removable recording medium.

なお、上記の画像処理プログラムは、例えば、インストール可能な形式又は実行可能な形式のファイルで、記録メディア106やCD113等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしても良い。画像処理プログラムは、例えば、所定のサーバ装置等からダウンロードされる形態で配布されても良い。   Note that the above-described image processing program may be recorded and distributed on a computer-readable recording medium such as the recording medium 106 or the CD 113, for example, in a file in an installable format or an executable format. For example, the image processing program may be distributed in a form downloaded from a predetermined server device or the like.

本実施形態に係るサーバ10及び表示装置30は、図3に示すハードウェア構成を有することにより、後述する各種処理を実現することができる。   The server 10 and the display device 30 according to the present embodiment can implement various processes described later by having the hardware configuration illustrated in FIG. 3.

図4は、加速度測定装置50のハードウェア構成の一例を示す図である。なお、図4では、一例として、加速度測定装置50がスマートフォンやタブレット端末である場合のハードウェア構成を示すが、加速度測定装置50のハードウェア構成は、これに限られない。   FIG. 4 is a diagram illustrating an example of a hardware configuration of the acceleration measuring device 50. In addition, in FIG. 4, although the hardware configuration in case the acceleration measuring apparatus 50 is a smart phone or a tablet terminal is shown as an example, the hardware configuration of the acceleration measuring apparatus 50 is not restricted to this.

加速度測定装置50は、CPU201、ROM202、RAM203、フラッシュメモリ204、加速度・方位センサ205、ジャイロセンサ206、及びメディアドライブ207を有する。また、加速度測定装置50は、音声入力装置210、音声出力装置211、通信装置212、GPS受信装置213、ディスプレイ214、及びタッチパネル215を有する。これらの各ハードウェアは、それぞれがバス209で互いに接続されている。   The acceleration measuring apparatus 50 includes a CPU 201, ROM 202, RAM 203, flash memory 204, acceleration / direction sensor 205, gyro sensor 206, and media drive 207. The acceleration measuring device 50 includes a voice input device 210, a voice output device 211, a communication device 212, a GPS receiver 213, a display 214, and a touch panel 215. These pieces of hardware are connected to each other via a bus 209.

CPU201は、フラッシュメモリ204に記憶されているプログラムを実行することで加速度測定装置50全体の動作を制御する。ROM202は、IPLや基本入出力プログラムを記憶している。RAM203は、CPU201がプログラムを実行する際にワークエリアとして使用される主記憶装置である。   The CPU 201 controls the overall operation of the acceleration measuring device 50 by executing a program stored in the flash memory 204. The ROM 202 stores IPL and basic input / output programs. A RAM 203 is a main storage device used as a work area when the CPU 201 executes a program.

フラッシュメモリ204は、加速度測定装置50が実行するプログラムや各種データを記憶する不揮発性の記憶装置である。なお、プログラムは、例えば、オペレーティングシステム、加速度測定装置50が実行する装置プログラム等である。   The flash memory 204 is a nonvolatile storage device that stores programs executed by the acceleration measuring device 50 and various data. The program is, for example, an operating system, a device program executed by the acceleration measuring device 50, or the like.

加速度・方位センサ205は、地磁気を検知する電子磁気コンパスとしての機能や3軸方向の加速度を測定する機能等を備えている。ジャイロセンサ206は、x軸、y軸、又はz軸に対して、加速度測定装置50が回転する際の角速度を検出する。なお、それぞれの軸の回転角度は、ヨー角、ピッチ角、ロール角と呼ばれる。   The acceleration / orientation sensor 205 has a function as an electronic magnetic compass for detecting geomagnetism, a function for measuring acceleration in three axial directions, and the like. The gyro sensor 206 detects an angular velocity when the acceleration measuring device 50 rotates with respect to the x axis, the y axis, or the z axis. The rotation angle of each axis is called a yaw angle, a pitch angle, and a roll angle.

メディアドライブ207は、フラッシュメモリ等の記録メディア208に対するデータの読み出し又は書き込み(記憶)を制御する。   The media drive 207 controls reading or writing (storage) of data with respect to a recording medium 208 such as a flash memory.

音声入力装置210は、音声を音声信号に変換するマイクである。音声出力装置211は、音声信号を音声に変換するスピーカである。通信装置212は、アンテナ212aを利用して無線通信信号により通信を行う。なお、通信装置212は、LANに接続するLANカード等であっても良い。   The voice input device 210 is a microphone that converts voice into a voice signal. The audio output device 211 is a speaker that converts an audio signal into audio. The communication device 212 performs communication using a wireless communication signal using the antenna 212a. The communication device 212 may be a LAN card connected to the LAN.

GPS受信装置213は、GPS衛星、又は屋内GPSとしてのIMES等によって加速度測定装置50の位置情報(例えば、緯度や経度、高度等)を検出する。   The GPS receiver 213 detects position information (for example, latitude, longitude, altitude, etc.) of the acceleration measuring device 50 by a GPS satellite or IMES as indoor GPS.

ディスプレイ214は、カーソル、メニュー、ウィンドウ、文字、又は画像等の各種情報を表示する。タッチパネル215は、ディスプレイ214上に重畳されており、指やタッチペン等による操作に対して、ディスプレイ214上におけるタッチ位置(座標)を検出する。   The display 214 displays various information such as a cursor, menu, window, character, or image. The touch panel 215 is superimposed on the display 214 and detects a touch position (coordinates) on the display 214 in response to an operation with a finger, a touch pen, or the like.

なお、上記の装置プログラムは、例えば、インストール可能な形式又は実行可能な形式のファイルで、記録メディア208等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしても良い。装置プログラムは、例えば、所定のサーバ装置等からダウンロードされる形態で配布されても良い。   Note that the above-described apparatus program may be recorded in a computer-readable recording medium such as the recording medium 208 and distributed, for example, in an installable or executable file. The device program may be distributed, for example, in a form downloaded from a predetermined server device or the like.

本実施形態に係る加速度測定装置50は、図4に示すハードウェア構成を有することにより、後述する各種処理を実現することができる。   The acceleration measuring apparatus 50 according to the present embodiment can realize various processes described later by having the hardware configuration shown in FIG.

図5は、全天球画像撮像装置60のハードウェア構成の一例を示す図である。図5では、一例として、全天球画像撮像装置60は、2つの撮像素子を使用した撮像装置であるものとして説明するが、撮像素子は3つ以上であっても良い。また、全天球画像撮像装置60は、必ずしも全天球画像を撮像するための専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全天球画像撮像ユニットを取り付けることで、実質的に全天球画像撮像装置60と同じ機能を有するようにしても良い。   FIG. 5 is a diagram illustrating an example of a hardware configuration of the omnidirectional image capturing apparatus 60. In FIG. 5, as an example, the omnidirectional image pickup device 60 is described as an image pickup device using two image pickup devices, but the number of image pickup devices may be three or more. Further, the omnidirectional image capturing device 60 is not necessarily a dedicated device for capturing an omnidirectional image. By attaching a retrospective omnidirectional image capturing unit to an ordinary digital camera, a smartphone, or the like. The omnidirectional image pickup device 60 may have substantially the same function.

全天球画像撮像装置60は、撮像ユニット301、画像処理ユニット304、撮像制御ユニット305、マイク308、音処理ユニット309、音声出力装置319、及びCPU311を有する。また、全天球画像撮像装置60は、ROM312、SRAM(Static RAM)313、DRAM(Dynamic RAM)314、操作装置315、外部I/F316、及び通信装置317を有する。   The omnidirectional image capturing device 60 includes an image capturing unit 301, an image processing unit 304, an image capturing control unit 305, a microphone 308, a sound processing unit 309, an audio output device 319, and a CPU 311. The omnidirectional image capturing device 60 includes a ROM 312, an SRAM (Static RAM) 313, a DRAM (Dynamic RAM) 314, an operation device 315, an external I / F 316, and a communication device 317.

撮像ユニット301は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる、魚眼レンズ)302a及び302bと、各広角レンズに対応させて設けられている2つの撮像素子303a及び303bとを備えている。   The imaging unit 301 includes wide-angle lenses (so-called fish-eye lenses) 302a and 302b each having an angle of view of 180 ° or more for forming a hemispherical image, and two imaging elements 303a provided corresponding to the wide-angle lenses. And 303b.

撮像素子303a及び303bは、それぞれ対応する広角レンズ302a又は302bによる光学像を電気信号の画像データに変換して出力する画像センサ、この画像センサの水平又は垂直同期信号や画素クロック等を生成するタイミング生成回路等を有している。また、撮像素子303a及び303bは、これらの撮像素子の動作に必要な種々のコマンドやパラメータ等が設定されるレジスタ群等を有している。なお、画像センサは、例えば、CMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等が挙げられる。   The image sensors 303a and 303b each convert an optical image obtained by the corresponding wide-angle lens 302a or 302b into image data of an electrical signal and output it, and a timing for generating a horizontal or vertical synchronization signal, a pixel clock, and the like of the image sensor. A generation circuit and the like. The image sensors 303a and 303b include a register group in which various commands, parameters, and the like necessary for the operation of these image sensors are set. Examples of the image sensor include a CMOS (Complementary Metal Oxide Semiconductor) sensor and a CCD (Charge Coupled Device) sensor.

撮像ユニット301の撮像素子303a及び303bは、それぞれ、画像処理ユニット304とはパラレルI/Fバスで接続されている。また、撮像ユニット301の撮像素子303a及び303bは、撮像制御ユニット305とシリアルI/Fバス(I2Cバス等)で接続されている。   The imaging elements 303a and 303b of the imaging unit 301 are connected to the image processing unit 304 by a parallel I / F bus. In addition, the imaging elements 303a and 303b of the imaging unit 301 are connected to the imaging control unit 305 by a serial I / F bus (I2C bus or the like).

画像処理ユニット304及び撮像制御ユニット305は、バス310を介してCPU311と接続されている。また、バス310には、ROM312、SRAM313、DRAM314、操作装置315、外部I/F316、通信装置317、及び電子コンパス318等も接続されている。   The image processing unit 304 and the imaging control unit 305 are connected to the CPU 311 via the bus 310. In addition, a ROM 312, an SRAM 313, a DRAM 314, an operation device 315, an external I / F 316, a communication device 317, an electronic compass 318, and the like are connected to the bus 310.

画像処理ユニット304は、撮像素子303a及び303bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、正距円筒図法の画像の画像データを作成する。   The image processing unit 304 takes in the image data output from the image sensors 303a and 303b through the parallel I / F bus, performs predetermined processing on each image data, and then combines these image data. Create image data of equirectangular images.

撮像制御ユニット305は、一般に、撮像制御ユニット305をマスタデバイス、撮像素子303a及び303bをスレーブデバイスとして、I2Cバスを利用して、撮像素子303a及び303bのレジスタ群にコマンド等を設定する。このとき、必要なコマンド等は、CPU311から受け取る。また、撮像制御ユニット305は、同じくI2Cバスを利用して、撮像素子303a及び303bのレジスタ群のステータスデータ等を取り込み、CPU311に送る。   In general, the imaging control unit 305 sets a command or the like in a register group of the imaging elements 303a and 303b using the I2C bus with the imaging control unit 305 as a master device and the imaging elements 303a and 303b as slave devices. At this time, necessary commands and the like are received from the CPU 311. In addition, the imaging control unit 305 also uses the I2C bus to capture the status data of the register groups of the imaging elements 303a and 303b and send it to the CPU 311.

また、撮像制御ユニット305は、操作装置315のシャッターボタンが押下されたタイミングで、撮像素子303a及び303bに画像データの出力を指示する。全天球画像撮像装置60によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子303a及び303bからの画像データの出力は、所定のフレームレートによって連続して行われる。   The imaging control unit 305 instructs the imaging elements 303a and 303b to output image data at the timing when the shutter button of the operation device 315 is pressed. Some omnidirectional image capturing devices 60 may have a preview display function by a display or a function corresponding to a moving image display. In this case, output of image data from the image sensors 303a and 303b is continuously performed at a predetermined frame rate.

また、撮像制御ユニット305は、CPU311と協働して撮像素子303a及び303bの画像データの出力タイミングの同期をとる制御を行う。なお、本実施形態では、全天球画像撮像装置60には、表示装置が設けられていないが、表示装置が設けられていても良い。   In addition, the imaging control unit 305 performs control to synchronize the output timing of the image data of the imaging elements 303a and 303b in cooperation with the CPU 311. In the present embodiment, the omnidirectional imaging device 60 is not provided with a display device, but may be provided with a display device.

マイク308は、音を音データに変換する。音処理ユニット309は、マイク308から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施して音声信号を作成する。音声出力装置319は、音声信号を音声に変換するスピーカである。   The microphone 308 converts sound into sound data. The sound processing unit 309 takes in the sound data output from the microphone 308 through the I / F bus, performs predetermined processing on the sound data, and creates an audio signal. The audio output device 319 is a speaker that converts an audio signal into audio.

CPU311は、全天球画像撮像装置60の全体の動作を制御すると共に、必要な処理を実行する。ROM312は、CPU311のための種々のプログラムを記憶している。SRAM313及びDRAM314はワークメモリであり、CPU311で実行するプログラムや処理途中のデータ等を記憶する。特に、DRAM314は、画像処理ユニット304での処理途中の画像データや処理済みの正距円筒図法により作成された画像の画像データを記憶する。   The CPU 311 controls the overall operation of the omnidirectional image capturing apparatus 60 and executes necessary processing. The ROM 312 stores various programs for the CPU 311. The SRAM 313 and the DRAM 314 are work memories, and store programs executed by the CPU 311 and data being processed. In particular, the DRAM 314 stores image data being processed by the image processing unit 304 and image data of an image created by a processed equirectangular projection.

操作装置315は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネル等である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件等を入力することができる。   The operation device 315 is various operation buttons, a power switch, a shutter button, a touch panel having both display and operation functions, and the like. The user can input various imaging modes, imaging conditions, and the like by operating the operation buttons.

外部I/F316は、SDカード等の外付けのメディアやPC等とのインタフェース(例えば、USB I/F等)である。また、外部I/F316は、無線、有線を問わずにネットワークインタフェースであっても良い。DRAM314に記憶された正距円筒図法により作成された画像の画像データは、この外部I/F316を介して外付けのメディアに記録されたり、必要に応じて外部I/F316を介して外部装置(例えば、PC等)に送信されたりしても良い。   The external I / F 316 is an interface (for example, USB I / F) with an external medium such as an SD card or a PC. Further, the external I / F 316 may be a network interface regardless of wireless or wired. The image data of the image created by the equirectangular projection stored in the DRAM 314 is recorded on an external medium via the external I / F 316, or an external device (via the external I / F 316 as necessary). For example, it may be transmitted to a PC or the like.

通信装置317は、全天球画像撮像装置60に設けられたアンテナ317aを介して、Wi−Fi(Wireless Fidelity)、NFC、又はLTE(Long Term Evolution)等の無線技術によって外部装置と通信を行う。この通信装置317を介して、正距円筒図法により作成された画像の画像データを外部装置に送信しても良い。   The communication device 317 communicates with an external device by a wireless technology such as Wi-Fi (Wireless Fidelity), NFC, or LTE (Long Term Evolution) via an antenna 317 a provided in the omnidirectional image capturing device 60. . Image data of an image created by equirectangular projection may be transmitted to an external device via the communication device 317.

電子コンパス318は、地球の磁気から全天球画像撮像装置60の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)であり、例えば、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、画像データのデータ容量等も含まれる。   The electronic compass 318 calculates the azimuth and tilt (Roll rotation angle) of the omnidirectional imaging device 60 from the earth's magnetism, and outputs azimuth / tilt information. This azimuth / tilt information is related information (metadata) along Exif, and is used for image processing such as image correction of a captured image, for example. The related information includes the date and time of image capturing, the data capacity of image data, and the like.

本実施形態に係る全天球画像撮像装置60は、図5に示すハードウェア構成を有することにより、後述する各種処理を実現することができる。   The omnidirectional image capturing apparatus 60 according to the present embodiment has the hardware configuration shown in FIG. 5, and can implement various processes described later.

<機能構成>
次に、サーバ10、表示装置30、加速度測定装置50、及び全天球画像撮像装置60の機能構成について説明する。図6は、サーバ10、表示装置30、加速度測定装置50、及び全天球画像撮像装置60の機能ブロックの一例を示す図である。
<Functional configuration>
Next, functional configurations of the server 10, the display device 30, the acceleration measuring device 50, and the omnidirectional image capturing device 60 will be described. FIG. 6 is a diagram illustrating an example of functional blocks of the server 10, the display device 30, the acceleration measuring device 50, and the omnidirectional image capturing device 60.

≪サーバ10の機能構成≫
サーバ10は、通信部11、画像調整部12、加速度データ加工部13、操作入力受付部14、同期指示部15、表示画像作成部16、及び記憶・読出部19を有する。これらの各部は、図3に示されている各構成要素のいずれかが、RAM103上に展開された画像処理プログラム1010に従ったCPU101からの命令によって動作することで実現される。
<< Functional configuration of server 10 >>
The server 10 includes a communication unit 11, an image adjustment unit 12, an acceleration data processing unit 13, an operation input reception unit 14, a synchronization instruction unit 15, a display image creation unit 16, and a storage / readout unit 19. Each of these units is realized by any one of the constituent elements shown in FIG. 3 operating according to an instruction from the CPU 101 according to the image processing program 1010 expanded on the RAM 103.

また、サーバ10は、図3に示されているHD104、ROM102、及びRAM103のいずれか1つ以上によって構築される記憶部1000を有する。記憶部1000には、画像処理プログラム1010、測定データDB1001、及び画像データDB1002が記憶されている。測定データDB1001には、加速度測定装置50から送信された測定データが記憶される。画像データDB1002には、全天球画像撮像装置60から送信された画像データが記憶される。   Further, the server 10 includes a storage unit 1000 constructed by any one or more of the HD 104, the ROM 102, and the RAM 103 shown in FIG. The storage unit 1000 stores an image processing program 1010, a measurement data DB 1001, and an image data DB 1002. The measurement data DB 1001 stores measurement data transmitted from the acceleration measurement device 50. The image data DB 1002 stores image data transmitted from the omnidirectional image capturing device 60.

通信部11は、CPU101からの命令、及びネットワークI/F109等によって実現され、ネットワークNを介して、加速度測定装置50、全天球画像撮像装置60、及び表示装置30と各種データの送受信を行う。   The communication unit 11 is realized by a command from the CPU 101, a network I / F 109, and the like, and transmits and receives various data to and from the acceleration measuring device 50, the omnidirectional image capturing device 60, and the display device 30 via the network N. .

なお、以降では、サーバ10が通信部11の機能で通信する場合でも「通信部11を介して通信する」という記載を省略する場合がある。表示装置30、全天球画像撮像装置60、及び加速度測定装置50についても同様である。   Hereinafter, even when the server 10 communicates with the function of the communication unit 11, the description “communication via the communication unit 11” may be omitted. The same applies to the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50.

画像調整部12は、CPU101からの命令等により実現され、全天球画像撮像装置60から取得した画像データと、加速度測定装置50から取得した測定データとの時間軸を同期させる。   The image adjustment unit 12 is realized by an instruction from the CPU 101 and the like, and synchronizes the time axes of the image data acquired from the omnidirectional image capturing device 60 and the measurement data acquired from the acceleration measuring device 50.

加速度データ加工部13は、CPU101からの命令等により実現され、離散的な測定データを、例えば、滑らかに結合する等により、時間軸に対して連続的なグラフで表されるデータに変換する。   The acceleration data processing unit 13 is realized by an instruction from the CPU 101, and converts discrete measurement data into data represented by a continuous graph with respect to the time axis by, for example, smooth coupling.

操作入力受付部14は、CPU101からの命令、キーボード111、及びマウス112等によって実現され、指導者等によるサーバ10への各種の操作や入力を受け付ける。   The operation input receiving unit 14 is realized by a command from the CPU 101, a keyboard 111, a mouse 112, and the like, and receives various operations and inputs to the server 10 by a leader or the like.

同期指示部15は、CPU101からの命令等により実現され、測定データと画像データとの同期に関する処理を行う。具体的には、同期指示部15は、同時期に、加速度測定装置50及び全天球画像撮像装置60に対して、それぞれ測定開始及び撮像開始を要求する。同様に、同期指示部15は、同時期に、加速度測定装置50及び全天球画像撮像装置60に対して、それぞれ測定終了及び撮像終了を要求する。また、同期指示部15は、同期のための絶対時刻を全天球画像撮像装置60及び加速度測定装置50に提供したりする。   The synchronization instructing unit 15 is realized by an instruction from the CPU 101, and performs processing related to synchronization between measurement data and image data. Specifically, the synchronization instruction unit 15 requests the acceleration measurement device 50 and the omnidirectional image imaging device 60 to start measurement and imaging at the same time. Similarly, the synchronization instruction unit 15 requests the acceleration measurement device 50 and the omnidirectional image imaging device 60 to end measurement and imaging at the same time, respectively. The synchronization instruction unit 15 provides absolute time for synchronization to the omnidirectional image capturing device 60 and the acceleration measuring device 50.

表示画像作成部16は、CPU101からの命令等により実現され、全天球画像撮像装置60A及び60Bのそれぞれから受信した画像データA及び画像データBに基づいて、表示画像データを作成する。例えば、表示画像作成部16は、同時刻における画像データAに含まれるフレームデータAと、画像データBに含まれるフレームデータBとを比較して、フレーム画像において歩行者200がより大きく写っているフレームデータを含む表示画像データを作成する。   The display image creation unit 16 is realized by an instruction from the CPU 101 and creates display image data based on the image data A and the image data B received from the omnidirectional image capturing devices 60A and 60B. For example, the display image creation unit 16 compares the frame data A included in the image data A at the same time with the frame data B included in the image data B, and the pedestrian 200 is shown larger in the frame image. Display image data including frame data is created.

記憶・読出部19は、CPU101からの命令及びHDD105等により実現され、記憶部1000に各種データを記憶したり、記憶部1000に記憶されている各種データを読み出したりする処理を行う。   The storage / reading unit 19 is realized by an instruction from the CPU 101, the HDD 105, and the like, and performs processing for storing various data in the storage unit 1000 and reading various data stored in the storage unit 1000.

なお、以降では、サーバ10が記憶部1000にアクセスする場合でも「記憶・読出部19を介して読み書きする」という記載を省略する場合がある。表示装置30、全天球画像撮像装置60、及び加速度測定装置50についても同様である。   Hereinafter, even when the server 10 accesses the storage unit 1000, the description “read / write via the storage / reading unit 19” may be omitted. The same applies to the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50.

≪表示装置30の機能構成≫
表示装置30は、通信部31、表示制御部32、操作入力受付部33、画像回転部34、及び記憶・読出部39を有する。これら各部は、図3に示されている各構成要素のいずれかが、RAM103上に展開された端末プログラム3010に従ったCPU101からの命令によって動作することで実現される。なお、これら各部は、端末プログラム3010に限られず、例えば、サーバ10が送信するWebページ(HTML(HyperText Markup Language)、XML(Extensible Markup Language)、JavaScript(登録商標)等)によって実現されても良い。
<< Functional Configuration of Display Device 30 >>
The display device 30 includes a communication unit 31, a display control unit 32, an operation input reception unit 33, an image rotation unit 34, and a storage / readout unit 39. Each of these units is realized by any one of the components shown in FIG. 3 operating according to a command from the CPU 101 according to the terminal program 3010 expanded on the RAM 103. These units are not limited to the terminal program 3010, and may be realized by, for example, a Web page (HTML (HyperText Markup Language), XML (Extensible Markup Language), JavaScript (registered trademark), etc.) transmitted by the server 10. .

また、表示装置30は、図3に示されているHD104、ROM102、及びRAM103のいずれか1つ以上によって構築される記憶部3000を有する。記憶部3000には、端末プログラム3010が記憶されている。また、記憶部3000にはサーバ10から送信された測定データと表示画像データとが記憶される。   In addition, the display device 30 includes a storage unit 3000 configured by any one or more of the HD 104, the ROM 102, and the RAM 103 illustrated in FIG. The storage unit 3000 stores a terminal program 3010. The storage unit 3000 stores measurement data and display image data transmitted from the server 10.

通信部31は、CPU101からの命令、及びネットワークI/F109等によって実現され、ネットワークNを介してサーバ10と各種データの送受信を行う。   The communication unit 31 is realized by a command from the CPU 101, a network I / F 109, and the like, and transmits and receives various data to and from the server 10 via the network N.

表示制御部32は、CPU101からの命令等によって実現され、サーバ10から受信した表示画像データと測定データとをディスプレイ108に表示する。   The display control unit 32 is realized by an instruction from the CPU 101 and the like, and displays the display image data and measurement data received from the server 10 on the display 108.

操作入力受付部33は、CPU101からの命令、キーボード111、及びマウス112等によって実現され、指導者等による表示装置30への各種の操作や入力を受け付ける。   The operation input receiving unit 33 is realized by a command from the CPU 101, a keyboard 111, a mouse 112, and the like, and receives various operations and inputs to the display device 30 by a leader or the like.

画像回転部34は、CPU101からの命令等によって実現され、歩行者200が写っている領域がディスプレイ108に表示されるように、全天球画像である表示画像データを水平方向に回転させる(又はトリミングする)。   The image rotation unit 34 is realized by a command from the CPU 101 or the like, and rotates display image data that is an omnidirectional image in the horizontal direction so that an area where the pedestrian 200 is reflected is displayed on the display 108 (or Trimming).

記憶・読出部39は、CPU101からの命令及びHDD105等により実現され、記憶部3000に各種データを記憶したり、記憶部3000に記憶された各種データを読み出したりする処理を行う。   The storage / reading unit 39 is realized by an instruction from the CPU 101, the HDD 105, and the like, and performs a process of storing various data in the storage unit 3000 and reading out various data stored in the storage unit 3000.

≪加速度測定装置50の機能構成≫
加速度測定装置50は、通信部51、加速度検出部52、音出力部53、及び記憶・読出部59を有する。これら各部は、図4に示されている各構成要素のいずれかが、RAM203上に展開された装置プログラム5010に従ったCPU201からの命令によって動作することで実現される。
≪Functional configuration of acceleration measuring device 50≫
The acceleration measuring device 50 includes a communication unit 51, an acceleration detection unit 52, a sound output unit 53, and a storage / readout unit 59. Each of these units is realized by any one of the constituent elements shown in FIG. 4 operating according to a command from the CPU 201 according to the device program 5010 expanded on the RAM 203.

また、加速度測定装置50は、図4に示されているフラッシュメモリ204、ROM202及びRAM203のいずれか1つ以上によって構築される記憶部5000を有する。記憶部5000には、装置プログラム5010が記憶されている。また、記憶部5000には、加速度測定装置50が測定した加速度等の測定値を含む測定データが記憶される。   Further, the acceleration measuring apparatus 50 includes a storage unit 5000 configured by any one or more of the flash memory 204, the ROM 202, and the RAM 203 illustrated in FIG. The storage unit 5000 stores an apparatus program 5010. Further, the storage unit 5000 stores measurement data including measurement values such as acceleration measured by the acceleration measuring device 50.

通信部51は、CPU201からの命令、及び通信装置212等によって実現され、ネットワークNを介してサーバ10と各種データの送受信を行う。   The communication unit 51 is realized by a command from the CPU 201, the communication device 212, and the like, and transmits and receives various data to and from the server 10 via the network N.

加速度検出部52は、CPU201からの命令、及び加速度・方位センサ205等によって実現され、加速度測定装置50に生じる加速度を測定する。加速度は、一定間隔又は不定期に測定され、時間と共に変化する加速度が測定値として得られる。そして、加速度検出部52は、時系列で得られた測定値を含む測定データを記憶部5000に記憶する。   The acceleration detection unit 52 is realized by a command from the CPU 201 and the acceleration / direction sensor 205 and the like, and measures the acceleration generated in the acceleration measuring device 50. The acceleration is measured at regular intervals or irregularly, and an acceleration that changes with time is obtained as a measurement value. Then, the acceleration detection unit 52 stores measurement data including measurement values obtained in time series in the storage unit 5000.

音出力部53は、CPU201からの命令、及び音声出力装置211等によって実現され、例えばブザー音等の音を出力する。   The sound output unit 53 is realized by a command from the CPU 201, the sound output device 211, and the like, and outputs a sound such as a buzzer sound.

記憶・読出部59は、CPU201からの命令、フラッシュメモリ204、ROM202、及びRAM203等により実現され、記憶部5000に各種データを記憶したり、記憶部5000に記憶された各種データを読み出したりする処理を行う。   The storage / reading unit 59 is realized by an instruction from the CPU 201, the flash memory 204, the ROM 202, the RAM 203, and the like, and stores various data in the storage unit 5000 and reads out various data stored in the storage unit 5000. I do.

≪全天球画像撮像装置60の機能構成≫
全天球画像撮像装置60は、通信部61、撮像部62、音出力部63、及び記憶・読出部69を有する。これら各部は、図5に示されている各構成要素のいずれかが、SRAM313又はDRAM314に展開された撮像プログラム6010に従ったCPU311からの命令によって動作することで実現される。
≪Functional configuration of omnidirectional imaging device 60≫
The omnidirectional image capturing apparatus 60 includes a communication unit 61, an image capturing unit 62, a sound output unit 63, and a storage / readout unit 69. Each of these units is realized by any one of the constituent elements illustrated in FIG. 5 operating according to a command from the CPU 311 according to the imaging program 6010 expanded in the SRAM 313 or the DRAM 314.

また、全天球画像撮像装置60は、図5に示されているROM312、SRAM313及びDRAM314のいずれか1つ以上によって構築される記憶部6000を有する。記憶部6000には、撮像プログラム6010が記憶されている。また、記憶部6000には、全天球画像撮像装置60により撮像された画像データが記憶される。   Further, the omnidirectional image capturing device 60 includes a storage unit 6000 constructed by one or more of the ROM 312, the SRAM 313, and the DRAM 314 shown in FIG. The storage unit 6000 stores an imaging program 6010. The storage unit 6000 stores image data captured by the omnidirectional image capturing device 60.

通信部61は、CPU311からの命令、通信装置317、及び外部I/F316等によって実現され、ネットワークNを介してサーバ10と各種データの送受信を行う。   The communication unit 61 is realized by an instruction from the CPU 311, a communication device 317, an external I / F 316, and the like, and transmits / receives various data to / from the server 10 via the network N.

撮像部62は、CPU311からの命令、撮像ユニット301、及び画像処理ユニット304等によって実現され、全天球画像を撮像し画像データを生成する。すなわち、撮像部62は、例えば、一定間隔又は不定期に撮像することで、撮像間隔毎のフレームデータが含まれる画像データを生成する。   The imaging unit 62 is realized by a command from the CPU 311, the imaging unit 301, the image processing unit 304, and the like, and captures an omnidirectional image and generates image data. That is, the imaging unit 62 generates image data including frame data for each imaging interval, for example, by capturing images at regular intervals or irregularly.

音出力部63は、CPU311からの命令、及び音声出力装置319等によって実現され、例えばブザー音等の音を出力する。   The sound output unit 63 is realized by a command from the CPU 311, a sound output device 319, and the like, and outputs a sound such as a buzzer sound.

なお、本実施形態では、上述したように、画像データは、動画の画像データであるものとして説明するが、これに限られず、静止画の画像データであっても良い。この場合、撮像部62は、例えば、歩行者200が歩行している間に、所定の時間の間隔毎に撮像することで、複数の画像データを生成すれば良い。   In the present embodiment, as described above, the image data is described as moving image data, but is not limited thereto, and may be still image data. In this case, for example, the imaging unit 62 may generate a plurality of image data by capturing images at predetermined time intervals while the pedestrian 200 is walking.

そして、撮像部62は、時系列のフレームデータが含まれる画像データを記憶部6000に記憶する。なお、撮像部62は、静止画の画像データを生成した場合には、時系列の複数の画像データを記憶部6000に記憶する。   Then, the imaging unit 62 stores image data including time-series frame data in the storage unit 6000. Note that the imaging unit 62 stores a plurality of time-series image data in the storage unit 6000 when image data of a still image is generated.

記憶・読出部69は、CPU311からの命令、ROM312、SRAM313及びDRAM314のいずれか1つ以上によって実現され、記憶部6000に各種データを記憶したり、記憶部6000に記憶された各種データを読み出したりする処理を行う。   The storage / reading unit 69 is realized by any one or more of instructions from the CPU 311, ROM 312, SRAM 313, and DRAM 314. The storage / reading unit 69 stores various data in the storage unit 6000 and reads various data stored in the storage unit 6000. Perform the process.

<歩行者200の歩行について>
ここで、全天球画像撮像装置60の周囲を歩行者200がどのように歩行するかについて説明する。図7は、歩行者200の歩行の一例を説明する図である。
<About walking of pedestrian 200>
Here, how the pedestrian 200 walks around the omnidirectional imaging device 60 will be described. FIG. 7 is a diagram for explaining an example of walking of the pedestrian 200.

図7に示すように、歩行者200は、加速度測定装置50を腰等に装着している。加速度測定装置50が装着される場所は、歩行者200の重心に近い場所であることが好ましいが、腰の他、胸、背中、胴部等に装着されても良い。また、歩行者200は、複数台の加速度測定装置50を装着していても良い。   As shown in FIG. 7, the pedestrian 200 wears the acceleration measuring device 50 on the waist or the like. The place where the acceleration measuring device 50 is attached is preferably a place close to the center of gravity of the pedestrian 200, but may be attached to the chest, back, torso, etc. in addition to the waist. The pedestrian 200 may be equipped with a plurality of acceleration measuring devices 50.

歩行者200は、右旋回部分と、左旋回部分と、直線部分とが含まれるラインL(8の字型のラインL)に沿って、全天球画像撮像装置60A及び60Bの周囲を歩行する。このように、ラインLに沿って歩行者200が歩行することで、指導者等は、歩行者200が右に旋回して歩行している場合の歩行動作、左に旋回している場合の歩行動作、及び直進している場合の歩行動作を効率的に評価することができる。   The pedestrian 200 walks around the omnidirectional image pickup devices 60A and 60B along a line L (an 8-shaped line L) including a right turn portion, a left turn portion, and a straight portion. To do. Thus, when the pedestrian 200 walks along the line L, the instructor or the like walks when the pedestrian 200 turns to the right and walks, and walks when the pedestrian 200 turns to the left. It is possible to efficiently evaluate the movement and the walking movement when the vehicle is traveling straight.

なお、複数の歩行者200間の歩行動作の比較を容易にするため、又は歩行者200自身が歩行する経路を認識できるように、ラインL上にマーカ等が配置されていても良い。これにより、指導者等は、表示画像データを確認する際に、全天球画像撮像装置60に対する歩行者200の位置を容易に把握できる。   Note that a marker or the like may be arranged on the line L in order to make it easy to compare walking motions between the plurality of pedestrians 200 or to recognize a route on which the pedestrian 200 itself walks. Thereby, a leader etc. can grasp | ascertain easily the position of the pedestrian 200 with respect to the omnidirectional image imaging device 60, when confirming display image data.

なお、歩行者200がラインLに沿って歩行している間、加速度測定装置50は、歩行者200の加速度を測定している。歩行者200と加速度測定装置50の相対位置は固定されているものとして、歩行者200の進行方向(前方)をx方向、左右方向をy方向、垂直方向をz方向とする。   Note that while the pedestrian 200 is walking along the line L, the acceleration measuring device 50 measures the acceleration of the pedestrian 200. Assuming that the relative position of the pedestrian 200 and the acceleration measuring device 50 is fixed, the traveling direction (front) of the pedestrian 200 is the x direction, the left and right direction is the y direction, and the vertical direction is the z direction.

また、歩行者200は8の字型のラインL全体を歩行しなければならないわけではなく、歩行動作の評価に適切な距離以上、歩行すれば良い。すなわち、歩行者200は、例えば、ラインLに含まれる2箇所の直線部分については、どちらか一方を歩行すれば良い。また、歩行者200は、所定の回数、8の字型のラインLを周回しても良い。   Moreover, the pedestrian 200 does not have to walk the whole figure-shaped line L, and should just walk more than the distance suitable for evaluation of walking motion. That is, the pedestrian 200 should just walk either one about the two linear parts contained in the line L, for example. The pedestrian 200 may go around the figure-shaped line L a predetermined number of times.

<動作手順>
次に、本実施形態に係る画像表示システム100の動作手順について説明する。
<Operation procedure>
Next, an operation procedure of the image display system 100 according to the present embodiment will be described.

≪全体的な動作≫
図8は、画像表示システム100の全体的な動作の一例を説明するシーケンス図である。図8は、サーバ10が、加速度測定装置50及び全天球画像撮像装置60に対して、それぞれ測定開始の要求及び撮像開始の要求を行う場合のシーケンス図である。
≪Overall operation≫
FIG. 8 is a sequence diagram illustrating an example of the overall operation of the image display system 100. FIG. 8 is a sequence diagram when the server 10 issues a measurement start request and an imaging start request to the acceleration measuring device 50 and the omnidirectional image capturing device 60, respectively.

まず、歩行動作の測定を始める際、指導者等は、歩行動作の測定を開始するための操作をサーバ10に入力する。すると、サーバ10の操作入力受付部14は、指導者等の操作を受け付ける(ステップS101)。   First, when starting measurement of walking motion, a leader or the like inputs an operation for starting measurement of walking motion to the server 10. Then, the operation input reception part 14 of the server 10 receives operation of a leader etc. (step S101).

次に、サーバ10の同期指示部15は、操作入力受付部14により指導者等の操作を受け付けると、通信部11を介して、測定開始要求を加速度測定装置50に送信する(ステップS102)。   Next, the synchronization instruction unit 15 of the server 10 transmits a measurement start request to the acceleration measuring device 50 via the communication unit 11 when the operation input receiving unit 14 receives an operation of a leader or the like (step S102).

加速度測定装置50の音出力部53は、通信部51により測定開始要求を受信すると、ブザー音等を出力する(ステップS103)。これにより、歩行者200は、歩行を開始して良いことを知ることができる。   When the communication unit 51 receives the measurement start request, the sound output unit 53 of the acceleration measuring device 50 outputs a buzzer sound or the like (step S103). Thereby, the pedestrian 200 can know that a walk may be started.

なお、加速度測定装置50は、例えば、「歩行を開始して下さい」等の音声メッセージ、バイブレーション機能による振動、ディスプレイ214へのメッセージの表示、ディスプレイ214の明滅等により歩行者200に歩行開始を知らせても良い。   The acceleration measuring device 50 notifies the pedestrian 200 of the start of walking by, for example, a voice message such as “Please start walking”, vibration by the vibration function, display of a message on the display 214, blinking of the display 214, or the like. May be.

次に、サーバ10の同期指示部15は、通信部11を介して、撮像開始要求を全天球画像撮像装置60A及び60Bにそれぞれ送信する(ステップS104及びS105)。   Next, the synchronization instruction unit 15 of the server 10 transmits an imaging start request to the omnidirectional image capturing devices 60A and 60B via the communication unit 11 (steps S104 and S105).

全天球画像撮像装置60A及び60Bの音出力部63は、通信部61により撮像開始要求を受信すると、それぞれブザー音等を出力する(ステップS106及びS107)。これにより、上記と同様に、歩行者200は、歩行を開始して良いことを知ることができる。   When the communication unit 61 receives the imaging start request, the sound output unit 63 of the omnidirectional image capturing devices 60A and 60B outputs a buzzer sound or the like (steps S106 and S107). Thereby, similarly to the above, the pedestrian 200 can know that the walking may be started.

なお、全天球画像撮像装置60は、上記のステップS103と同様に、音声メッセージや振動等により歩行者200に歩行開始を知らせても良い。   Note that the omnidirectional image capturing device 60 may notify the pedestrian 200 of the start of walking by a voice message, vibration, or the like, similar to step S103 described above.

また、全天球画像撮像装置60は、歩行者200の視野に入る場合があるので、例えば、パトランプ等を点灯させても良い。これにより、歩行者200だけでなく周囲の指導者等も、歩行者200が歩行を開始して良いことを知ることができる。   Further, since the omnidirectional image capturing device 60 may enter the field of view of the pedestrian 200, for example, a patrol lamp or the like may be turned on. Thereby, not only the pedestrian 200 but also the surrounding leaders can know that the pedestrian 200 may start walking.

なお、ステップS103、ステップS106、及びステップS107のブザーによる通知は、いずれか1つが行われれば良い。   Note that any one of notifications by the buzzer in steps S103, S106, and S107 may be performed.

次に、加速度測定装置50の加速度検出部52は、加速度の測定を開始する(ステップS108)。そして、加速度測定装置50の加速度検出部52は、歩行者200が歩行している間に生じる加速度を測定して、時系列で得られた測定値を含む測定データを記憶部5000に記憶させる。   Next, the acceleration detector 52 of the acceleration measuring device 50 starts measuring acceleration (step S108). Then, the acceleration detection unit 52 of the acceleration measuring device 50 measures acceleration generated while the pedestrian 200 is walking, and stores measurement data including measurement values obtained in time series in the storage unit 5000.

また、全天球画像撮像装置60A及び60Bの撮像部62は、それぞれ撮像を開始する(ステップS109及びS110)。そして、全天球画像撮像装置60A及び60Bの撮像部62は、それぞれ、歩行する歩行者200を撮像することで得られた画像データA及び画像データBを記憶部6000に記憶させる。   In addition, the imaging units 62 of the omnidirectional imaging devices 60A and 60B start imaging (steps S109 and S110), respectively. Then, the imaging units 62 of the omnidirectional image imaging devices 60A and 60B store the image data A and the image data B obtained by imaging the walking pedestrian 200 in the storage unit 6000, respectively.

このように、加速度測定装置50及び全天球画像撮像装置60は、サーバ10からの指示により、測定データの測定開始と画像データの撮像開始とをほぼ同時に同期させることができる。   As described above, the acceleration measuring device 50 and the omnidirectional image capturing device 60 can synchronize the measurement data measurement start and the image data imaging start almost simultaneously with an instruction from the server 10.

なお、ステップS102、ステップS104、及びステップS105の順序は順不同である。サーバ10は、同時期に、測定開始要求と撮像開始要求とを、それぞれ加速度測定装置50と全天球画像撮像装置60に送信すれば良い。   In addition, the order of step S102, step S104, and step S105 is random. The server 10 may transmit the measurement start request and the imaging start request to the acceleration measuring device 50 and the omnidirectional image capturing device 60, respectively, at the same time.

次に、例えば、歩行者200が十分に歩行したと指導者等が判断した場合、指導者等は、歩行動作の測定を終了する操作をサーバ10に入力する。すると、サーバ10の操作入力受付部14は、指導者等の操作を受け付ける(ステップS111)。   Next, for example, when a leader or the like determines that the pedestrian 200 has sufficiently walked, the leader or the like inputs an operation to end the measurement of the walking motion to the server 10. Then, the operation input reception part 14 of the server 10 receives operation of a leader etc. (step S111).

次に、サーバ10の同期指示部15は、操作入力受付部14により指導者等の操作を受け付けると、通信部11を介して、測定終了要求を加速度測定装置50に送信する(ステップS112)。そして、加速度測定装置50の加速度検出部52は、通信部51により測定終了要求を受信すると、加速度の測定を終了する。なお、ステップS103と同様に、測定の終了をブザー等で歩行者200等に通知しても良い。   Next, when the operation input accepting unit 14 accepts an operation of a leader or the like, the synchronization instruction unit 15 of the server 10 transmits a measurement end request to the acceleration measuring device 50 via the communication unit 11 (step S112). And the acceleration detection part 52 of the acceleration measuring apparatus 50 will complete | finish the measurement of an acceleration, if the communication end part 51 receives a measurement end request | requirement. Note that, similarly to step S103, the end of measurement may be notified to the pedestrian 200 or the like with a buzzer or the like.

次に、サーバ10の同期指示部15は、通信部11を介して、撮像終了要求を全天球画像撮像装置60A及び60Bにそれぞれ送信する(ステップS113及びS114)。そして、全天球画像撮像装置60の撮像部62は、通信部61により撮像終了要求を受信すると、撮像を終了する。なお、ステップS106及びステップS107と同様に、撮像の終了をブザー等で歩行者200等に通知しても良い。   Next, the synchronization instruction unit 15 of the server 10 transmits an imaging end request to the omnidirectional image capturing devices 60A and 60B via the communication unit 11 (steps S113 and S114). Then, when the imaging unit 62 of the omnidirectional image imaging device 60 receives the imaging end request through the communication unit 61, the imaging unit 62 ends imaging. Note that, similarly to step S106 and step S107, the end of imaging may be notified to the pedestrian 200 or the like with a buzzer or the like.

このように、加速度測定装置50及び全天球画像撮像装置60は、サーバ10からの指示により、測定データの測定終了と画像データの撮像終了とをほぼ同時に同期させることができる。   In this way, the acceleration measuring device 50 and the omnidirectional image capturing device 60 can synchronize the measurement data measurement end and the image data image capturing end almost simultaneously in response to an instruction from the server 10.

なお、ステップS112、ステップS113、及びステップS114の順序は順不同である。サーバ10は、同時期に、測定終了要求と撮像終了要求とを、それぞれ加速度測定装置50と全天球画像撮像装置60に送信すれば良い。   In addition, the order of step S112, step S113, and step S114 is random. The server 10 may transmit a measurement end request and an imaging end request to the acceleration measuring device 50 and the omnidirectional image capturing device 60, respectively, at the same time.

次に、加速度測定装置50の通信部51は、記憶部5000に記憶されている測定データをサーバ10に送信する(ステップS115)。また、全天球画像撮像装置60A及び60Bの通信部61は、それぞれ記憶部6000に記憶されている画像データA及び画像Bをサーバ10に送信する(ステップS116及びS117)。   Next, the communication unit 51 of the acceleration measuring device 50 transmits the measurement data stored in the storage unit 5000 to the server 10 (step S115). Further, the communication units 61 of the omnidirectional image capturing apparatuses 60A and 60B transmit the image data A and the image B stored in the storage unit 6000 to the server 10 (steps S116 and S117).

次に、サーバ10の加速度データ加工部13は、通信部11により測定データ、画像データA、及び画像データBを受信すると、測定データを測定データDB1001に、画像データA及び画像データBを画像データDB1002にそれぞれ記憶させる。そして、加速度データ加工部13は、離散的なデータである測定データを、例えば、折線グラフ等で表される連続的なデータに加工する(ステップS118)。なお、このような加工は、表示装置30が行っても良い。   Next, when the acceleration data processing unit 13 of the server 10 receives the measurement data, the image data A, and the image data B by the communication unit 11, the measurement data is stored in the measurement data DB 1001, and the image data A and the image data B are stored in the image data. Each of them is stored in the DB 1002. Then, the acceleration data processing unit 13 processes the measurement data, which is discrete data, into continuous data represented by, for example, a line graph (step S118). Such processing may be performed by the display device 30.

次に、サーバ10の画像調整部12は、測定データと画像データAの時間軸、及び測定データと画像データBの時間軸をそれぞれ同期させる処理を行う(ステップS119)。すなわち、画像調整部12は、測定データに含まれる各測定値と、画像データAに含まれる各フレームデータAとを対応付ける。同様に、画像調整部12は、測定データに含まれる各測定値と、画像データBに含まれる各フレームデータBとを対応付ける。   Next, the image adjustment unit 12 of the server 10 performs a process of synchronizing the time axes of the measurement data and the image data A and the time axes of the measurement data and the image data B (step S119). That is, the image adjustment unit 12 associates each measurement value included in the measurement data with each frame data A included in the image data A. Similarly, the image adjustment unit 12 associates each measurement value included in the measurement data with each frame data B included in the image data B.

ここで、測定データ及び画像データは、ほぼ同じ時間で取得されているが、測定データのデータ数(測定値の数)と、画像データのデータ数(フレームデータの数)とは異なっている場合が多い。このため、画像調整部12は、測定データと画像データとを対応付けることで時間軸を同期させる。測定開始時刻と撮像開始時刻とがほぼ同じで、測定終了時刻と撮像終了時刻とがほぼ同じなので、画像調整部12は、測定データと画像データのデータ数の比率で時間軸を同期させることができる。   Here, the measurement data and image data are acquired at almost the same time, but the number of measurement data (number of measurement values) is different from the number of image data (number of frame data). There are many. For this reason, the image adjustment unit 12 synchronizes the time axis by associating the measurement data with the image data. Since the measurement start time and the imaging start time are substantially the same, and the measurement end time and the imaging end time are substantially the same, the image adjustment unit 12 can synchronize the time axis with the ratio of the number of data of the measurement data and the image data. it can.

例えば、測定データのデータ数が200、画像データのデータ数が400の場合、画像データに含まれる2つのフレームデータを、測定データに含まれる1つの測定値に対応付ければ良い。又は、測定時間に対する各測定値の測定時刻の比と、撮像時間に対する各フレームデータの撮像時刻の比とをそれぞれ算出し、比が最も近いフレームデータと測定値とを対応付けても良い。又は、測定開始からの経過時間と、撮像開始からの経過時間とがほぼ同じ測定値とフレームデータとを対応付けても良い。   For example, when the number of measurement data is 200 and the number of image data is 400, two frame data included in the image data may be associated with one measurement value included in the measurement data. Alternatively, the ratio of the measurement time of each measurement value with respect to the measurement time and the ratio of the imaging time of each frame data with respect to the imaging time may be calculated, and the frame data with the closest ratio may be associated with the measurement value. Alternatively, a measurement value and frame data having substantially the same elapsed time from the start of measurement and the elapsed time from the start of imaging may be associated with each other.

また、後述するように、測定開始時刻、測定終了時刻、撮像開始時刻、及び撮像終了時刻の絶対時刻が得られる場合には、画像調整部12は、次のようにして、測定データと画像データとを対応付けても良い。すなわち、画像調整部12は、測定開始時刻から測定終了時刻までの時間と、撮像開始時刻から撮像終了時刻までの時間との重複部分における測定値及びフレームデータを取り出して、上記と同様の比率計算等で対応付ければ良い。   As will be described later, when the absolute time of the measurement start time, the measurement end time, the imaging start time, and the imaging end time is obtained, the image adjustment unit 12 performs measurement data and image data as follows. May be associated with each other. That is, the image adjustment unit 12 extracts the measurement value and the frame data in the overlapping portion between the time from the measurement start time to the measurement end time and the time from the imaging start time to the imaging end time, and calculates the ratio as described above. It is sufficient to associate with each other.

次に、サーバ10の表示画像作成部16は、画像データA及び画像データBに基づいて、表示画像データを作成する(ステップS120)。すなわち、例えば、表示画像作成部16は、同時刻における画像データAに含まれるフレームデータA及び画像データBに含まれるフレームデータBを取得する。そして、表示画像作成部16は、取得したフレームデータAにより表示されるフレーム画像Aと、フレームデータBにより表示されるフレーム画像Bとを比較して、歩行者200がより大きく写っている方のフレームデータが含まれるように表示画像データを作成する。   Next, the display image creation unit 16 of the server 10 creates display image data based on the image data A and the image data B (step S120). That is, for example, the display image creation unit 16 acquires frame data A included in the image data A and frame data B included in the image data B at the same time. Then, the display image creation unit 16 compares the frame image A displayed by the acquired frame data A and the frame image B displayed by the frame data B, and the one where the pedestrian 200 is shown larger. Display image data is created so as to include frame data.

これにより、全天球画像撮像装置60Aと全天球画像撮像装置60Bのそれぞれで撮像された画像のうち、歩行者200がより大きく写っている方の画像を表示装置30に表示させることができるようになる。このため、指導者等は、歩行者200の歩行動作を確認し易くなる。なお、ステップS120の処理の詳細については後述する。   Thereby, it is possible to cause the display device 30 to display an image in which the pedestrian 200 is larger in the images captured by the omnidirectional image capturing device 60A and the omnidirectional image capturing device 60B. It becomes like this. For this reason, it becomes easy for a leader etc. to confirm walk operation of pedestrian 200. Details of the processing in step S120 will be described later.

次に、サーバ10の通信部11は、測定データと表示画像データとを表示装置30に送信する(ステップS121及びS122)。   Next, the communication unit 11 of the server 10 transmits the measurement data and the display image data to the display device 30 (Steps S121 and S122).

具体的には、例えば、指導者等は、表示装置30等を介して、サーバ10に測定データと表示画像データとを要求する。又は、指導者等は、測定データと表示画像データとを要求する操作をサーバ10に対して行って、サーバ10の操作入力受付部14がこの操作を受け付けても良い。又は、表示装置30がポーリング等により、測定データと表示画像データの有無を問い合わせて、この問い合わせに対してサーバ10が測定データと表示画像データを表示装置30に送信しても良い。   Specifically, for example, a leader or the like requests measurement data and display image data from the server 10 via the display device 30 or the like. Or a leader etc. may perform operation which requests | requires measurement data and display image data with respect to the server 10, and the operation input reception part 14 of the server 10 may receive this operation. Alternatively, the display device 30 may inquire about the presence of measurement data and display image data by polling or the like, and the server 10 may transmit the measurement data and display image data to the display device 30 in response to the inquiry.

次に、表示装置30の表示制御部32は、通信部31により測定データと表示画像データとを受信すると、ディスプレイ108に測定データと表示画像データとを同じ時間軸で表示する(ステップS123)。なお、測定データと表示画像データとを表示するための処理については、後述する。   Next, when the measurement data and the display image data are received by the communication unit 31, the display control unit 32 of the display device 30 displays the measurement data and the display image data on the display 108 on the same time axis (step S123). A process for displaying the measurement data and the display image data will be described later.

≪全体的な動作の変形例(その1)≫
ここで、画像表示システム100の全体的な動作の変形例(その1)について説明する。図9は、画像表示システム100の全体的な動作の変形例(その1)を説明するシーケンス図である。図9に示す変形例(その1)では、測定開始の契機が図8と異なる。なお、図9のステップS203〜ステップS211及びステップS214〜ステップS225は、それぞれ、図8のステップS102〜ステップS110及びステップS112〜ステップS123と同様であるため、その説明を省略する。
≪Modification of overall operation (part 1) ≫
Here, a modified example (part 1) of the overall operation of the image display system 100 will be described. FIG. 9 is a sequence diagram illustrating a modification example (No. 1) of the overall operation of the image display system 100. In the modified example (part 1) shown in FIG. 9, the trigger for starting measurement is different from that in FIG. Note that step S203 to step S211 and step S214 to step S225 in FIG. 9 are the same as step S102 to step S110 and step S112 to step S123 in FIG.

まず、歩行動作の測定を始める際、指導者等は、歩行動作の測定を開始するための操作を表示装置30に入力する。すると、表示装置30の操作入力受付部33は、指導者等の操作を受け付ける(ステップS201)。   First, when starting measurement of walking motion, a leader or the like inputs an operation for starting measurement of walking motion to the display device 30. Then, the operation input receiving unit 33 of the display device 30 receives an operation of a leader or the like (step S201).

次に、表示装置30の通信部31は、操作入力受付部33により指導者等の操作を受け付けると、測定開始要求をサーバ10に送信する(ステップS202)。なお、表示装置30は、例えば、HTTP(Hypertext Transfer Protocol)等でサーバ10と通信することができる。また、測定開始要求は、加速度の測定開始と歩行者200の撮像開始のうちの少なくとも一方を要求するものである。   Next, the communication part 31 of the display apparatus 30 will transmit a measurement start request | requirement to the server 10, if operation of a leader etc. is received by the operation input reception part 33 (step S202). The display device 30 can communicate with the server 10 by, for example, HTTP (Hypertext Transfer Protocol). The measurement start request is a request for at least one of acceleration measurement start and pedestrian 200 imaging start.

例えば、歩行者200が十分に歩行したと指導者等が判断した場合、指導者等は、歩行動作の測定を終了する操作を表示装置30に入力する。すると、表示装置30の操作入力受付部33は、指導者等の操作を受け付ける(ステップS212)。   For example, when the leader or the like determines that the pedestrian 200 has sufficiently walked, the leader or the like inputs an operation to end the measurement of the walking motion to the display device 30. Then, the operation input receiving unit 33 of the display device 30 receives an operation of a leader or the like (step S212).

次に、表示装置30の通信部31は、操作入力受付部33により指導者等の操作を受け付けると、測定終了要求をサーバ10に送信する(ステップS213)。なお、測定終了要求は、加速度の測定終了と歩行者200の撮像終了のうちの少なくとも一方を要求するものである。   Next, the communication part 31 of the display apparatus 30 will transmit a measurement end request | requirement to the server 10, if operation of a leader etc. is received by the operation input reception part 33 (step S213). The measurement end request is a request for at least one of the acceleration measurement end and the pedestrian 200 imaging end.

このように、図9に示す全体的な動作の変形例(その1)では、指導者等は、サーバ10を操作しなくても表示装置30から測定開始と測定終了をサーバ10に要求することができる。このため、指導者等が表示装置30を操作している場合は、指導者等は、サーバ10まで移動する必要なく、測定を開始することができる。   As described above, in the modified example (No. 1) of the overall operation illustrated in FIG. 9, the leader or the like requests the server 10 to start and end the measurement from the display device 30 without operating the server 10. Can do. For this reason, when a leader or the like is operating the display device 30, the leader or the like can start measurement without having to move to the server 10.

≪全体的な動作の変形例(その2)≫
次に、画像表示システム100の全体的な動作の変形例(その2)について説明する。図10は、画像表示システム100の全体的な動作の変形例(その2)を説明するシーケンス図である。図10に示す変形例(その2)では、歩行者200が歩行を開始したことを測定開始の契機とするものである。歩行者200は、例えば、指導者等の指示等により歩行を開始及び終了する。又は、ラインL上のスタート位置から歩行を開始して、ラインLを一周してスタート位置に戻ること等で歩行を終了する。なお、図10のステップS306〜ステップS310及びステップS315〜ステップ323は、それぞれ、図8のステップS108〜ステップS110及びステップS115〜ステップS123と同様であるため、その説明を省略する。
<< Modified example of overall operation (2) >>
Next, a modification (No. 2) of the overall operation of the image display system 100 will be described. FIG. 10 is a sequence diagram illustrating a modification (No. 2) of the overall operation of the image display system 100. In the modification (No. 2) shown in FIG. 10, the start of measurement is triggered by the start of walking by the pedestrian 200. The pedestrian 200 starts and ends walking, for example, according to instructions from a leader or the like. Alternatively, walking is started by starting walking from the start position on the line L, going around the line L and returning to the starting position. Note that steps S306 to S310 and steps S315 to 323 in FIG. 10 are the same as steps S108 to S110 and steps S115 to S123 in FIG.

まず、加速度測定装置50の加速度検出部52は、加速度に基づいて歩行者200が歩行を開始したことを検知する(ステップS301)。   First, the acceleration detector 52 of the acceleration measuring device 50 detects that the pedestrian 200 has started walking based on the acceleration (step S301).

例えば、加速度検出部52は、x方向、y方向、及びz方向うちの1つ以上で閾値以上の加速度が検出されたことで、歩行者200が歩行を開始したことを検知することができる。また、例えば、加速度検出部52は、加速度を2回積分して得られる単位時間当たりの位置の変化が閾値以上になったことで、歩行者200が歩行を開始したことを検知しても良い。これら以外にも、加速度検出部52は、例えば、ジャイロセンサ206が検出する角速度や、GPS受信装置213が検出する位置、加速度・方位センサ205が検出する方位等に基づいて、歩行者200が歩行を開始したことを検知しても良い。   For example, the acceleration detection unit 52 can detect that the pedestrian 200 has started walking by detecting an acceleration equal to or greater than a threshold value in one or more of the x direction, the y direction, and the z direction. In addition, for example, the acceleration detection unit 52 may detect that the pedestrian 200 has started walking because a change in position per unit time obtained by integrating acceleration twice is equal to or greater than a threshold value. . In addition to these, the acceleration detection unit 52 is configured so that the pedestrian 200 walks based on the angular velocity detected by the gyro sensor 206, the position detected by the GPS receiver 213, the direction detected by the acceleration / direction sensor 205, and the like. May be detected.

そして、加速度測定装置50の加速度検出部52は、歩行者200の歩行の開始を検知したことで、加速度の測定を開始する。   And the acceleration detection part 52 of the acceleration measuring apparatus 50 starts the measurement of acceleration by detecting the start of the walk of the pedestrian 200.

次に、加速度測定装置50の通信部51は、歩行開始通知をサーバ10に送信する(ステップS302)。また、加速度測定装置50の音出力部53は、歩行が開始されたことを知らせるためのブザー音等を出力する(ステップS303)。   Next, the communication unit 51 of the acceleration measuring device 50 transmits a walking start notification to the server 10 (step S302). Further, the sound output unit 53 of the acceleration measuring device 50 outputs a buzzer sound or the like for notifying that the walking has started (step S303).

次に、サーバ10の同期指示部15は、通信部11を介して、撮像開始要求を全天球画像撮像装置60A及び60Bにそれぞれ送信する(ステップS304及びS305)。なお、加速度測定装置50は、全天球画像撮像装置60A及び60Bに、撮像開始要求として、それぞれ歩行開始通知を送信しても良い。   Next, the synchronization instruction unit 15 of the server 10 transmits an imaging start request to the omnidirectional image capturing devices 60A and 60B via the communication unit 11 (steps S304 and S305). In addition, the acceleration measuring device 50 may transmit a walking start notification to the omnidirectional image capturing devices 60A and 60B as an imaging start request.

加速度測定装置50の加速度検出部52は、加速度に基づいて歩行者200が歩行を停止したことを検知する(ステップS311)。   The acceleration detector 52 of the acceleration measuring device 50 detects that the pedestrian 200 has stopped walking based on the acceleration (step S311).

例えば、加速度検出部52は、x方向、y方向及びz方向の1つ以上で閾値以上の加速度が検出されなくなったことで、歩行者200が歩行を停止したことを検知することができる。また、例えば、加速度検出部52は、加速度を2回積分して得られる単位時間の位置の変化が閾値未満になったことで、歩行者200が歩行を停止したことを検知しても良い。これら以外にも、加速度検出部52は、例えば、ジャイロセンサ206が検出する角速度や、GPS受信装置213が検出する位置、加速度・方位センサ205が検出する方位等に基づいて、歩行者200が歩行を停止したことを検知しても良い。   For example, the acceleration detection unit 52 can detect that the pedestrian 200 has stopped walking because no acceleration greater than or equal to the threshold is detected in one or more of the x direction, the y direction, and the z direction. Further, for example, the acceleration detection unit 52 may detect that the pedestrian 200 has stopped walking because the change in the position of the unit time obtained by integrating the acceleration twice becomes less than the threshold value. In addition to these, the acceleration detection unit 52 is configured so that the pedestrian 200 walks based on the angular velocity detected by the gyro sensor 206, the position detected by the GPS receiver 213, the direction detected by the acceleration / direction sensor 205, and the like. It may be detected that has stopped.

そして、加速度検出部52は、歩行者200の歩行の停止を検知したことで、加速度の測定を終了する。   And the acceleration detection part 52 complete | finishes the measurement of acceleration by detecting the stop of the walk of the pedestrian 200. FIG.

加速度測定装置50の通信部51は、歩行終了通知をサーバ10に送信する(ステップS312)。   The communication unit 51 of the acceleration measuring device 50 transmits a walking end notification to the server 10 (step S312).

次に、サーバ10の同期指示部15は、通信部11を介して、撮像終了要求を全天球画像撮像装置60A及び60Bにそれぞれ送信する(ステップS313及びS314)。なお、加速度測定装置50は、全天球画像撮像装置60A及び60Bに、撮像終了要求として、それぞれ歩行終了通知を送信しても良い。   Next, the synchronization instruction unit 15 of the server 10 transmits an imaging end request to the omnidirectional image imaging devices 60A and 60B via the communication unit 11 (steps S313 and S314). In addition, the acceleration measuring device 50 may transmit a walking end notification to the omnidirectional image capturing devices 60A and 60B as an imaging end request.

このように、図10に示す全体的な動作の変形例(その2)では、指導者等が測定開始や測定終了等の操作を行わなくても、歩行動作の測定を開始及び終了することができる。   As described above, in the modified example (No. 2) of the overall movement shown in FIG. 10, the measurement of the walking movement may be started and ended without an instructor or the like performing an operation such as measurement start or measurement end. it can.

≪全体的な動作の変形例(その3)≫
次に、画像表示システム100の全体的な動作の変形例(その3)について説明する。図11は、画像表示システム100の全体的な動作の変形例(その3)を説明するシーケンス図である。図11に示す変形例(その3)では、絶対時刻を用いて測定データと画像データとを同期させるものである。なお、図11におけるステップS401〜ステップS403、ステップS405〜ステップS408、及びステップS411〜ステップS415は、それぞれ、図8のステップS101〜ステップS103、ステップS104〜ステップS107、及びステップS108〜ステップS112と同様であるため、その説明を省略する。また、図11におけるステップS417〜ステップS418及びステップS421〜ステップS429は、それぞれ、図8のステップS113〜ステップS114及びステップS115〜ステップS123と同様であるため、その説明を省略する。
<< Modified example of overall operation (part 3) >>
Next, a modification (No. 3) of the overall operation of the image display system 100 will be described. FIG. 11 is a sequence diagram for explaining a modification (No. 3) of the overall operation of the image display system 100. In the modification (No. 3) shown in FIG. 11, the measurement data and the image data are synchronized using the absolute time. Note that steps S401 to S403, steps S405 to S408, and steps S411 to S415 in FIG. 11 are the same as steps S101 to S103, steps S104 to S107, and steps S108 to S112 in FIG. 8, respectively. Therefore, the description thereof is omitted. Further, steps S417 to S418 and steps S421 to S429 in FIG. 11 are the same as steps S113 to S114 and steps S115 to S123 in FIG.

加速度測定装置50の通信部51は、測定開始要求を受信すると、開始時刻要求をサーバ10に送信する(ステップS404)。すると、サーバ10の同期指示部15は、通信部11を介して、加速度測定装置50が測定を開始した絶対時刻(測定開始時刻)を返信する。これにより、加速度測定装置50は、測定開始時刻を得ることができる。   When receiving the measurement start request, the communication unit 51 of the acceleration measuring device 50 transmits a start time request to the server 10 (step S404). Then, the synchronization instruction unit 15 of the server 10 returns the absolute time (measurement start time) when the acceleration measuring device 50 starts measurement via the communication unit 11. Thereby, the acceleration measuring device 50 can obtain the measurement start time.

次に、全天球画像撮像装置60A及び60Bの通信部61は、撮像開始要求を受信すると、それぞれ、開始時刻要求をサーバ10に送信する(ステップS409及びS410)。すると、サーバ10の同期指示部15は、通信部11を介して、全天球画像撮像装置60A及び60Bが撮像を開始した絶対時刻(撮像開始時刻)を返信する。これにより、全天球画像撮像装置60A及び60Bは、それぞれ撮像開始時刻を得ることができる。   Next, when the communication unit 61 of the omnidirectional image capturing apparatuses 60A and 60B receives the imaging start request, the communication unit 61 transmits a start time request to the server 10 (steps S409 and S410), respectively. Then, the synchronization instruction unit 15 of the server 10 returns the absolute time (imaging start time) when the omnidirectional image capturing devices 60A and 60B start capturing via the communication unit 11. Thereby, the omnidirectional image capturing devices 60A and 60B can obtain the imaging start time, respectively.

加速度測定装置50の通信部51は、測定終了要求を受信すると、終了時刻要求をサーバ10に送信する(ステップS416)。すると、サーバ10の同期指示部15は、通信部11を介して、加速度測定装置50が測定を終了した絶対時刻(測定終了時刻)を返信する。これにより、加速度測定装置50は、測定終了時刻を得ることができる。   When receiving the measurement end request, the communication unit 51 of the acceleration measuring device 50 transmits an end time request to the server 10 (step S416). Then, the synchronization instruction unit 15 of the server 10 returns an absolute time (measurement end time) when the acceleration measuring device 50 ends the measurement via the communication unit 11. Thereby, the acceleration measuring apparatus 50 can obtain the measurement end time.

全天球画像撮像装置60A及び60Bの通信部61は、撮像終了要求を受信すると、それぞれ、終了時刻要求をサーバ10に送信する(ステップS419及びS420)。すると、サーバ10の同期指示部15は、通信部11を介して、全天球画像撮像装置60A及び60Bが撮像を終了した絶対時刻(撮像終了時刻)を返信する。これにより、全天球画像撮像装置60A及び60Bは、それぞれ撮像終了時刻を得ることができる。   When receiving the imaging end request, the communication unit 61 of the omnidirectional image capturing apparatuses 60A and 60B transmits an end time request to the server 10 (steps S419 and S420). Then, the synchronization instruction unit 15 of the server 10 returns the absolute time (imaging end time) when the omnidirectional image capturing devices 60 </ b> A and 60 </ b> B end capturing via the communication unit 11. As a result, the omnidirectional image capturing devices 60A and 60B can obtain the imaging end time.

このように、図11に示す全体的な動作の変形例(その3)では、サーバ10は、測定開始時刻と測定終了時刻を加速度測定装置50に返信すると共に、撮像開始時刻と撮像終了時刻を全天球画像撮像装置60に返信する。このため、変形例(その3)では、サーバ10は、ステップS424において、測定データと画像データとを絶対時刻に基づいて対応付ける。したがって、例えば、何らかの理由で加速度の測定開始と撮像開始との間や、加速度の測定終了と撮像終了との間にタイムラグ等が発生しても、サーバ10は、測定データと画像データの時間軸を同期させることができるようになる。   As described above, in the modified example (No. 3) of the overall operation illustrated in FIG. 11, the server 10 returns the measurement start time and the measurement end time to the acceleration measuring device 50, and sets the imaging start time and the imaging end time. It returns to the omnidirectional image capturing device 60. For this reason, in the modification (No. 3), the server 10 associates the measurement data with the image data based on the absolute time in step S424. Therefore, for example, even if a time lag or the like occurs between the start of acceleration measurement and the start of imaging for some reason, or between the end of measurement of acceleration and the end of imaging, the server 10 Can be synchronized.

≪全体的な動作の変形例(その4)≫
次に、画像表示システム100の全体的な動作の変形例(その4)について説明する。図12は、画像表示システム100の全体的な動作の変形例(その4)を説明するシーケンス図である。図12に示す変形例(その4)では、加速度測定装置50が全天球画像撮像装置60に撮像開始要求を送信すると共に、全天球画像撮像装置60からの要求に応じて、絶対時刻を返信するものである。なお、図12のステップS501〜ステップS502及びステップS508は、それぞれ、図8のステップS101〜ステップS102及びステップS103と同様であるため、その説明を省略する。また、図12のステップS509〜ステップS515及びステップS521〜ステップS529は、それぞれ、図8のステップS106〜ステップS112及びステップS115〜ステップS123と同様であるため、その説明を省略する。
<< Modified example of overall operation (Part 4) >>
Next, a modification (No. 4) of the overall operation of the image display system 100 will be described. FIG. 12 is a sequence diagram illustrating a modification (No. 4) of the overall operation of the image display system 100. In the modification (No. 4) shown in FIG. 12, the acceleration measuring device 50 transmits an imaging start request to the omnidirectional image capturing device 60, and the absolute time is set according to the request from the omnidirectional image capturing device 60. I will reply. Note that steps S501 to S502 and step S508 in FIG. 12 are the same as steps S101 to S102 and step S103 in FIG. 12 are the same as Step S106 to Step S112 and Step S115 to Step S123 of FIG. 8, respectively, and thus description thereof is omitted.

加速度測定装置50の通信部51は、測定開始要求を受信すると、全天球画像撮像装置60A及び60Bにそれぞれ撮像開始要求を送信する(ステップS503及びステップS504)。   When receiving the measurement start request, the communication unit 51 of the acceleration measuring device 50 transmits the imaging start request to the omnidirectional image capturing devices 60A and 60B, respectively (steps S503 and S504).

全天球画像撮像装置60A及び60Bの通信部61は、撮像開始要求を受信すると、それぞれ開始時刻要求を加速度測定装置50に送信する(ステップS505及びステップS506)。   When receiving the imaging start request, the communication unit 61 of the omnidirectional image imaging devices 60A and 60B transmits a start time request to the acceleration measuring device 50, respectively (step S505 and step S506).

次に、加速度測定装置50の通信部51は、開始時刻要求を受信すると、開始時刻要求をサーバ10に送信する(ステップS507)。すると、サーバ10の同期指示部15は、通信部11を介して、測定開始時刻を返信する。そして、加速度測定装置50の通信部51は、測定開始時刻を受信すると、撮像開始時刻を全天球画像撮像装置60A及び60Bにそれぞれ返信する。   Next, when receiving the start time request, the communication unit 51 of the acceleration measuring device 50 transmits the start time request to the server 10 (step S507). Then, the synchronization instruction unit 15 of the server 10 returns the measurement start time via the communication unit 11. And the communication part 51 of the acceleration measuring apparatus 50 will return an imaging start time to the omnidirectional image imaging devices 60A and 60B, respectively, if a measurement start time is received.

なお、加速度測定装置50は、サーバ10から受信した測定開始時刻と同じ時刻を、撮像開始時刻として全天球画像撮像装置60に返信すれば良い。   The acceleration measuring device 50 may return the same time as the measurement start time received from the server 10 to the omnidirectional image imaging device 60 as the imaging start time.

なお、ステップS505及びステップS506において、加速度測定装置50が保持している時刻(現在の時刻)を撮像開始時刻として全天球画像撮像装置60に返信しても良い。加速度測定装置50は、現在の時刻から加速度の測定を開始すると共に、全天球画像撮像装置60は撮像開始時刻から撮像を開始するので、測定開始時刻と撮像開始時刻とを同期させることができる。   In step S505 and step S506, the time (current time) held by the acceleration measuring device 50 may be returned to the omnidirectional imaging device 60 as the imaging start time. The acceleration measuring device 50 starts measuring acceleration from the current time, and the omnidirectional imaging device 60 starts imaging from the imaging start time. Therefore, the measurement start time and the imaging start time can be synchronized. .

加速度測定装置50の通信部51は、測定終了要求を受信すると、全天球画像撮像装置60A及び60Bにそれぞれ撮像終了要求を送信する(ステップS516及びステップS517)。   When receiving the measurement end request, the communication unit 51 of the acceleration measuring device 50 transmits the imaging end request to the omnidirectional image capturing devices 60A and 60B, respectively (step S516 and step S517).

全天球画像撮像装置60A及び60Bの通信部61は、撮像終了要求を受信すると、終了時刻要求を加速度測定装置50に送信する(ステップS518及びステップS519)。   When the communication unit 61 of the omnidirectional image capturing devices 60A and 60B receives the imaging end request, it transmits an end time request to the acceleration measuring device 50 (step S518 and step S519).

次に、加速度測定装置50の通信部51は、終了時刻要求を受信すると、終了時刻要求をサーバ10に送信する(ステップS520)。すると、サーバ10の同期指示部15は、通信部11を介して、測定終了時刻を返信する。そして、加速度測定装置50の通信部51は、測定終了時刻を受信すると、撮像終了時刻を全天球画像撮像装置60A及び60Bにそれぞれ返信する。   Next, when receiving the end time request, the communication unit 51 of the acceleration measuring device 50 transmits the end time request to the server 10 (step S520). Then, the synchronization instruction unit 15 of the server 10 returns the measurement end time via the communication unit 11. Then, when receiving the measurement end time, the communication unit 51 of the acceleration measuring device 50 returns the imaging end time to the omnidirectional image capturing devices 60A and 60B, respectively.

なお、加速度測定装置50は、サーバ10から受信した測定終了時刻と同じ時刻を、撮像終了時刻として全天球画像撮像装置60に返信すれば良い。   The acceleration measuring device 50 may return the same time as the measurement end time received from the server 10 to the omnidirectional image imaging device 60 as the imaging end time.

なお、ステップS518及びステップS519において、加速度測定装置50が保持している時刻(現在の時刻)を撮像終了時刻として全天球画像撮像装置60に返信しても良い。加速度測定装置50は、現在の時刻で加速度の測定を終了すると共に、全天球画像撮像装置60は撮像終了時刻に撮像を終了するので、測定終了時刻と撮像終了時刻とを同期させることができる。   In step S518 and step S519, the time (current time) held by the acceleration measuring device 50 may be returned to the omnidirectional imaging device 60 as the imaging end time. The acceleration measuring device 50 finishes measuring the acceleration at the current time, and the omnidirectional imaging device 60 finishes imaging at the imaging end time, so that the measurement end time and the imaging end time can be synchronized. .

≪全体的な動作の変形例(その5)≫
次に、画像表示システム100の全体的な動作の変形例(その5)について説明する。図13は、画像表示システム100の全体的な動作の変形例(その5)を説明するシーケンス図である。図13に示す変形例(その5)では、複数台の全天球画像撮像装置60のうち、一台の全天球画像撮像装置60が、他の全天球画像撮像装置60に撮像開始を要求すると共に、加速度測定装置50に測定開始を要求するものである。なお、図13のステップS601及びステップS605は、それぞれ、図8のステップS101及び103と同様であるため、その説明を省略する。また、図13のステップS606〜ステップS611及びステップS618〜ステップS623は、それぞれ、図8のステップS106〜ステップS111及びステップS118〜ステップS123と同様であるため、その説明を省略する。
<< Modified example of overall operation (part 5) >>
Next, a modification (No. 5) of the overall operation of the image display system 100 will be described. FIG. 13 is a sequence diagram for explaining a modification (No. 5) of the overall operation of the image display system 100. In the modified example (No. 5) illustrated in FIG. 13, one omnidirectional image imaging device 60 among the plurality of omnidirectional image imaging devices 60 starts imaging to the other omnidirectional image imaging devices 60. In addition to requesting, the acceleration measuring device 50 is requested to start measurement. Note that steps S601 and S605 in FIG. 13 are the same as steps S101 and 103 in FIG. Further, Steps S606 to S611 and Steps S618 to S623 in FIG. 13 are the same as Steps S106 to S111 and Steps S118 to S123 in FIG.

サーバ10の同期指示部15は、操作入力受付部14により指導者等の操作(歩行動作の測定を開始するための操作)を受け付けると、通信部11を介して、撮像開始要求を全天球画像撮像装置60Aに送信する(ステップS602)。なお、通信部11は、複数の全天球画像撮像装置60のうち、予め設定された一台の全天球画像撮像装置60に撮像開始要求を送信する。したがって、通信部11は、例えば、全天球画像撮像装置60Bに撮像開始要求を送信しても良い。以降では、サーバ10の通信部11は、全天球画像撮像装置60Aに撮像開始要求を送信した場合について説明する。   The synchronization instruction unit 15 of the server 10 receives an operation of a leader or the like (operation for starting measurement of walking motion) by the operation input reception unit 14, and issues an imaging start request via the communication unit 11. The image is transmitted to the image capturing device 60A (step S602). The communication unit 11 transmits an imaging start request to one preset omnidirectional image capturing device 60 among the plurality of omnidirectional image capturing devices 60. Therefore, for example, the communication unit 11 may transmit an imaging start request to the omnidirectional image capturing device 60B. Hereinafter, a case where the communication unit 11 of the server 10 transmits an imaging start request to the omnidirectional image capturing device 60A will be described.

次に、全天球画像撮像装置60Aの通信部61は、撮像開始要求を受信すると、測定開始要求を加速度測定装置50に送信すると共に、撮像開始要求を全天球画像撮像装置60Bに送信する(ステップS603及びステップS604)。このように、複数の全天球画像撮像装置60のうちの一の全天球画像撮像装置60が撮像開始要求を受信すると、当該一の全天球画像撮像装置60は、加速度測定装置50に測定開始要求を送信すると共に、他の全天球画像撮像装置60に撮像開始要求を送信する。   Next, when receiving the imaging start request, the communication unit 61 of the omnidirectional image capturing apparatus 60A transmits a measurement start request to the acceleration measuring apparatus 50 and transmits an imaging start request to the omnidirectional image capturing apparatus 60B. (Step S603 and Step S604). As described above, when one omnidirectional image capturing device 60 among the plurality of omnidirectional image capturing devices 60 receives the imaging start request, the one omnidirectional image capturing device 60 transmits to the acceleration measuring device 50. A measurement start request is transmitted, and an imaging start request is transmitted to another omnidirectional image capturing apparatus 60.

サーバ10の同期指示部15は、操作入力受付部14により指導者等の操作(歩行動作の測定を終了するための操作)を受け付けると、通信部11を介して、撮像終了要求を全天球画像撮像装置60Aに送信する(ステップS612)。   When the operation instruction accepting unit 14 accepts an operation of a leader or the like (an operation for ending the measurement of walking motion) by the operation input accepting unit 14, the synchronization instruction unit 15 of the server 10 sends an imaging end request via the communication unit 11. The image is transmitted to the image capturing device 60A (step S612).

次に、全天球画像撮像装置60Aの通信部61は、撮像終了要求を受信すると、測定終了要求を加速度測定装置50に送信すると共に、撮像終了要求を全天球画像撮像装置60Bに送信する(ステップS613及びステップS614)。このように、複数の全天球画像撮像装置60のうちの一の全天球画像撮像装置60が撮像終了要求を受信すると、当該一の全天球画像撮像装置60は、加速度測定装置50に測定終了要求を送信すると共に、他の全天球画像撮像装置60に撮像終了要求を送信する。   Next, when receiving the imaging end request, the communication unit 61 of the omnidirectional image capturing apparatus 60A transmits a measurement end request to the acceleration measuring apparatus 50 and transmits an imaging end request to the omnidirectional image capturing apparatus 60B. (Step S613 and Step S614). As described above, when one omnidirectional image capturing device 60 among the plurality of omnidirectional image capturing devices 60 receives the imaging end request, the one omnidirectional image capturing device 60 transmits the acceleration measuring device 50 to the acceleration measuring device 50. A measurement end request is transmitted, and an imaging end request is transmitted to the other omnidirectional imaging device 60.

次に、加速度測定装置50の通信部51は、記憶部5000に記憶されている測定データを全天球画像撮像装置60Aに送信する(ステップS615)。また、全天球画像撮像装置60Bの通信部61は、記憶部6000に記憶されている画像データBを全天球画像撮像装置60Aに送信する(ステップS616)。   Next, the communication unit 51 of the acceleration measuring device 50 transmits the measurement data stored in the storage unit 5000 to the omnidirectional image capturing device 60A (step S615). In addition, the communication unit 61 of the omnidirectional image capturing apparatus 60B transmits the image data B stored in the storage unit 6000 to the omnidirectional image capturing apparatus 60A (step S616).

次に、全天球画像撮像装置60Aの通信部51は、加速度測定装置50及び全天球画像撮像装置60からそれぞれ受信した測定データ及び画像データBを、記憶部6000に記憶されている画像データAと共に、サーバ10に送信する(ステップS617)。   Next, the communication unit 51 of the omnidirectional image capturing apparatus 60A receives the measurement data and the image data B received from the acceleration measuring apparatus 50 and the omnidirectional image capturing apparatus 60, respectively, as image data stored in the storage unit 6000. A together with A is transmitted to the server 10 (step S617).

このように、図13に示す全体的な動作の変形例(その5)では、1台の全天球画像撮像装置60が中継して、加速度測定装置50や他の全天球画像撮像装置60に開始要求を送信する。このため、例えば、加速度測定装置50や他の全天球画像撮像装置60等がネットワークNに接続されていない場合に、1台の全天球画像撮像装置60により、Bluetooth(登録商標)等の近距離無線通信を用いて、開始要求を送信することができる。   As described above, in the modified example (No. 5) of the overall operation illustrated in FIG. 13, one celestial sphere image capturing device 60 relays, and the acceleration measuring device 50 or another omnidirectional image capturing device 60. Send a start request to For this reason, for example, when the acceleration measuring device 50 and the other omnidirectional image capturing device 60 are not connected to the network N, the single omnidirectional image capturing device 60 uses Bluetooth (registered trademark) or the like. The start request can be transmitted using short-range wireless communication.

≪表示画像の作成処理≫
次に、図8のステップS120等の表示画像の作成処理について説明する。図14は、表示画像作成処理の一例を説明するフローチャートである。ここで、以降では、全天球画像撮像装置60により生成された画像データには、時刻t=t(n=1,2,・・・,N)毎に、N個のフレームデータが含まれているものとする。なお、Δt=t−tn−1(n=2,3,・・・,N)は、撮像間隔である。
≪Display image creation process≫
Next, display image creation processing in step S120 of FIG. 8 will be described. FIG. 14 is a flowchart illustrating an example of the display image creation process. Hereafter, N frame data is included in the image data generated by the omnidirectional image capturing device 60 every time t = t n (n = 1, 2,..., N). It shall be assumed. Note that Δt n = t n −t n−1 (n = 2, 3,..., N) is an imaging interval.

まず、表示画像作成部16は、時刻t=t(n=2)とする(ステップS701)。 First, the display image creation unit 16 sets time t = t n (n = 2) (step S701).

次に、表示画像作成部16は、画像データA及び画像データBのそれぞれから時刻tのフレームデータA及びフレームデータBを取得する(ステップS702)。   Next, the display image creation unit 16 acquires the frame data A and the frame data B at time t from the image data A and the image data B (step S702).

次に、表示画像作成部16は、フレームデータA及びフレームデータBのそれぞれについて、1つ前のフレームデータ(すなわち、時刻t=tn−1のフレームデータ)との差分から歩行者200が写っている矩形領域を特定する(ステップS703)。 Next, the display image creation unit 16 captures the pedestrian 200 based on the difference between the frame data A and the frame data B from the previous frame data (that is, the frame data at time t = t n−1 ). A rectangular area is identified (step S703).

ここで、歩行者200が写っている矩形領域の特定について、図15を用いて説明する。図15は、歩行者200が写っている矩形領域の特定の一例を模式的に説明する図である。   Here, the specification of the rectangular area in which the pedestrian 200 is shown will be described with reference to FIG. FIG. 15 is a diagram schematically illustrating an example of specifying a rectangular area in which a pedestrian 200 is shown.

まず、図15(a)では、t=tのフレームデータが表示するフレーム画像181と、t=tn−1のフレームデータが表示するフレーム画像182(すなわち、フレーム画像181の直前のフレーム画像)とが表示されている。なお、例えば、フレームレートが30fpsであれば、フレーム画像181と、その直前のフレーム画像182との間に、約33(ミリ秒)の間隔がある。 First, in FIG. 15 (a), t = t and n frame image 181 frame data is displayed, t = t n-1 frame image 182 frame data is displayed (i.e., the previous frame image of the frame image 181 ) And are displayed. For example, when the frame rate is 30 fps, there is an interval of about 33 (milliseconds) between the frame image 181 and the immediately preceding frame image 182.

なお、フレーム画像181と、その直前のフレーム画像182でなく、フレーム画像181に対して、数フレーム前のフレーム画像をフレーム画像182としても良い。   The frame image 182 may be a frame image that is several frames before the frame image 181 instead of the frame image 181 and the immediately preceding frame image 182.

表示画像作成部16は、フレーム画像181と、その直前のフレーム画像182の差分を算出する。差分とは、フレーム画像181とフレーム画像182との同じ位置の画素の画素値を引き算することをいう。なお、全く同じ被写体が映っていても(動体がなくても)蛍光灯の点滅、遠方の人の動き、影の変化等により差分がゼロにならない場合があるので、差分が閾値未満の場合はゼロと見なす。   The display image creation unit 16 calculates the difference between the frame image 181 and the immediately preceding frame image 182. The difference means that the pixel values of the pixels at the same position in the frame image 181 and the frame image 182 are subtracted. Note that even if the exact same subject is shown (even if there is no moving object), the difference may not be zero due to the blinking of the fluorescent light, the movement of a distant person, the change of the shadow, etc. Consider zero.

図15(b)は、差分画像の一例である。図15(b)では、差分が閾値以上の画素が白画素に置き換えられている。したがって、フレーム画像181と直前のフレーム画像182とを比較すると、白画素に重なるように歩行者200が存在する可能性が高いといえる。   FIG. 15B is an example of the difference image. In FIG. 15B, a pixel whose difference is greater than or equal to a threshold is replaced with a white pixel. Therefore, when the frame image 181 and the immediately preceding frame image 182 are compared, it can be said that there is a high possibility that the pedestrian 200 exists so as to overlap the white pixels.

次に、図15(c)に示すように、表示画像作成部16は、白画素に画素膨張処理を複数回実行する。画素膨張処理とは、白画素に接した8画素(又は上下左右に隣接した4画素)を白画素に置き換える処理である。複数回の画素膨張処理により白画素に接した画素が辿られるため、回数が増える毎に白画素が膨張するように見える。   Next, as illustrated in FIG. 15C, the display image creation unit 16 performs pixel expansion processing on white pixels a plurality of times. The pixel expansion process is a process of replacing 8 pixels in contact with white pixels (or 4 pixels adjacent vertically and horizontally) with white pixels. Since the pixel in contact with the white pixel is traced by a plurality of pixel expansion processes, the white pixel appears to expand each time the number of times increases.

なお、複数回とは、例えば、8回や10回等、予め決められた数であり、実験的に好適値が定められている。又は、白画素の面積が一定以上になった場合に、画素膨張処理を止めても良い。   The multiple times is a predetermined number such as 8 times or 10 times, and a suitable value is experimentally determined. Alternatively, the pixel expansion process may be stopped when the area of the white pixel exceeds a certain value.

画素膨張処理を複数回実行することで、フレーム画像181と直前のフレーム画像182との差分を算出した直後では点在していた白画素が、大きさを持った塊になる。歩行者200の場合は差分画像が縦長なので、画素膨張処理により白画素は縦方向に大きくなり、動体よりもやや大きな(歩行者200よりやや大きい範囲)を特定できる。   By executing the pixel expansion process a plurality of times, the white pixels that are scattered immediately after the difference between the frame image 181 and the immediately preceding frame image 182 is calculated become a block having a size. In the case of the pedestrian 200, since the difference image is vertically long, the white pixel is enlarged in the vertical direction by the pixel expansion process, and a slightly larger size than the moving object (a range slightly larger than the pedestrian 200) can be specified.

次に、図15(d)に示すように、白画素が連続する領域の外接矩形を矩形領域601として特定する。これにより、歩行者200が写っている矩形領域601が特定される。なお、全天球画像撮像装置60の周囲には歩行者200以外の動体が存在する可能性があるため、複数の矩形領域601が検出された場合は、例えば、矩形領域601のうち、面積が最も大きい矩形領域601を歩行者200が写っているものとすれば良い。   Next, as shown in FIG. 15D, a circumscribed rectangle of a region where white pixels are continuous is specified as a rectangular region 601. Thereby, the rectangular area | region 601 in which the pedestrian 200 is reflected is specified. Note that there is a possibility that moving objects other than the pedestrian 200 exist around the omnidirectional image capturing device 60. Therefore, when a plurality of rectangular areas 601 are detected, for example, the area of the rectangular area 601 has an area. What is necessary is just to let the pedestrian 200 be reflected in the largest rectangular area 601.

図14に戻る。表示画像作成部16は、フレームデータA及びフレームデータBのうち、上記のステップS703で特定された矩形領域が大きい(すなわち、面積が大きい)方のフレームデータを、表示フレームデータとする(ステップS704)。すなわち、表示画像作成部16は、上記のステップS703で特定された矩形領域が大きい方のフレームデータを、表示画像データにおける時刻t=tのフレーム画像を表示するフレームデータ(表示フレームデータ)とする。 Returning to FIG. The display image creation unit 16 sets the frame data having the larger rectangular area (ie, the larger area) specified in step S703 out of the frame data A and the frame data B as display frame data (step S704). ). That is, the display image creation unit 16 uses the frame data having the larger rectangular area specified in step S703 as frame data (display frame data) for displaying the frame image at time t = t n in the display image data. To do.

次に、表示画像作成部16は、nがN未満であるか否かを判定する(ステップS705)。そして、表示画像作成部16は、nがN未満である場合、nに1を加算して(ステップS706)、ステップS702に戻る。このように、表示画像作成部16は、n=2〜Nに対して、フレームデータA及びフレームデータBのうち、歩行者200が大きく写っているフレームデータを、時刻t=tの表示フレームデータとする。 Next, the display image creation unit 16 determines whether n is less than N (step S705). If n is less than N, the display image creation unit 16 adds 1 to n (step S706), and returns to step S702. In this way, the display image creation unit 16 displays the frame data in which the pedestrian 200 is greatly captured among the frame data A and the frame data B with respect to n = 2 to N, as the display frame at the time t = t n . Data.

一方、表示画像作成部16は、nがN未満でない場合、各時刻t=t(n=1,2,・・・,N)の表示フレームデータを含む表示画像データを作成する(ステップS707)。表示画像作成部16は、このように表示画像データを作成することで、フレームデータA及びフレームデータBのうち、歩行者200が大きく写っているフレームデータを表示フレームデータとした表示画像データを作成することができる。なお、n=1については、表示画像作成部16は、n=2のときに表示フレームデータとしたフレームデータの直前のフレームデータを表示フレームデータとすれば良い。 On the other hand, if n is not less than N, the display image creation unit 16 creates display image data including display frame data at each time t = t n (n = 1, 2,..., N) (step S707). ). By creating display image data in this way, the display image creation unit 16 creates display image data using the frame data in which the pedestrian 200 is greatly photographed out of the frame data A and the frame data B as display frame data. can do. For n = 1, the display image creation unit 16 may use the frame data immediately before the frame data used as the display frame data when n = 2 as the display frame data.

なお、例えば、表示装置30においてストリーミング等により表示画像データを再生する場合には、サーバ10は、上記のステップS704の処理が実行された後に、表示フレームデータを表示装置30に送信すれば良い。   For example, when the display image data is played back by streaming or the like on the display device 30, the server 10 may transmit the display frame data to the display device 30 after the process of step S <b> 704 is performed.

≪表示画像の作成処理の変形例≫
次に、図8のステップS120等の表示画像の作成処理の変形例について説明する。図16は、表示画像作成処理の変形例を説明するフローチャートである。図16に示す表示画像作成処理の変形例では、直後のフレームデータにおける歩行者200の矩形領域の大きさにも基づいて表示フレームデータを決めるものである。これにより、表示画像作成部16は、歩行者200が近付いている方向にある全天球画像撮像装置60により撮像された画像データを表示することができる。言い換えれば、表示画像作成部16は、歩行者200の正面が撮像された画像データを表示することができる。
≪Modification of display image creation process≫
Next, a modification of the display image creation process in step S120 of FIG. 8 will be described. FIG. 16 is a flowchart illustrating a modification of the display image creation process. In the modification of the display image creation process shown in FIG. 16, the display frame data is determined based on the size of the rectangular area of the pedestrian 200 in the immediately following frame data. Thereby, the display image creation unit 16 can display the image data captured by the omnidirectional image capturing device 60 in the direction in which the pedestrian 200 is approaching. In other words, the display image creation unit 16 can display image data in which the front of the pedestrian 200 is captured.

まず、表示画像作成部16は、時刻t=t(n=2)とする(ステップS801)。 First, the display image creation unit 16 sets time t = t n (n = 2) (step S801).

次に、表示画像作成部16は、画像データA及び画像データBのそれぞれから時刻t=t(n=2)のフレームデータA及びフレームデータBを取得する(ステップS802)。 Next, the display image creation unit 16 acquires frame data A and frame data B at time t = t n (n = 2) from each of the image data A and the image data B (step S802).

次に、表示画像作成部16は、フレームデータA及びフレームデータBのそれぞれについて、1つ前のフレームデータ(すなわち、時刻t=tn−1のフレームデータ)との差分から歩行者200が写っている矩形領域を特定する(ステップS803)。これは、図14のステップS703と同様の方法で矩形領域を特定すれば良い。 Next, the display image creation unit 16 captures the pedestrian 200 based on the difference between the frame data A and the frame data B from the previous frame data (that is, the frame data at time t = t n−1 ). A rectangular area is identified (step S803). This can be done by specifying a rectangular area in the same way as in step S703 in FIG.

次に、表示画像作成部16は、フレームデータA及びフレームデータBのうち、上記のステップS803で特定された矩形領域が大きい(すなわち、面積が大きい)方のフレームデータを、時刻t=t(n=2)の表示フレームデータとする(ステップS804)。 Next, the display image creation unit 16 obtains frame data having a larger rectangular area (that is, a larger area) identified in step S803 from the frame data A and the frame data B at time t = t n. The display frame data is (n = 2) (step S804).

次に、表示画像作成部16は、nがN未満であるか否かを判定する(ステップS805)。そして、表示画像作成部16は、nがN未満である場合、ステップS806〜ステップS810を行う。   Next, the display image creation unit 16 determines whether n is less than N (step S805). Then, when n is less than N, the display image creating unit 16 performs Steps S806 to S810.

すなわち、まず、表示画像作成部16は、表示フレームデータとしたフレームデータと、当該フレームデータが含まれる画像データにおける直後のフレームデータ(すなわち、時刻t=tn+1のフレームデータ)との矩形領域を比較する(ステップS806)。例えば、時刻t=tの表示フレームデータがフレームデータAである場合、表示画像作成部は、当該フレームデータAと、時刻t=tn+1のフレームデータAとで、歩行者200が写っている矩形領域の大きさを比較する。なお、矩形領域の特定方法は、図14のステップS703と同様の方法を用いれば良い。 That is, first, the display image creation unit 16 creates a rectangular area between frame data as display frame data and frame data immediately after the image data including the frame data (that is, frame data at time t = t n + 1 ). Compare (step S806). For example, when the display frame data at time t = t n is frame data A, the display image creation unit shows the pedestrian 200 with the frame data A and the frame data A at time t = t n + 1 . Compare the size of the rectangular areas. Note that a rectangular area specifying method may be the same as that in step S703 in FIG.

次に、表示画像作成部16は、時刻t=tn+1のフレームデータの矩形領域の方が小さいか否かを判定する(ステップS807)。そして、表示画像作成部16は、時刻t=tn+1のフレームデータの矩形領域の方が小さいと判定した場合、画像データを切り替えて、切り替えた画像データにおける時刻t=tn+1のフレームデータを表示フレームデータとする(ステップS808)。 Next, the display image creating unit 16 determines whether or not the rectangular area of the frame data at time t = t n + 1 is smaller (step S807). If the display image creation unit 16 determines that the rectangular area of the frame data at time t = t n + 1 is smaller, the display image creation unit 16 switches the image data and displays the frame data at time t = t n + 1 in the switched image data. Frame data is set (step S808).

例えば、時刻t=tの表示フレームデータがフレームデータAである場合、表示画像作成部16は、画像データAから画像データBに切り替えて、画像データBにおける時刻t=tn+1のフレームデータBを、時刻t=tn+1の表示フレームデータとする。 For example, when the display frame data at time t = t n is frame data A, the display image creation unit 16 switches from image data A to image data B, and the frame data B at time t = t n + 1 in the image data B. Is the display frame data at time t = t n + 1 .

一方、表示画像作成部16は、時刻t=tn+1のフレームデータの矩形領域の方が小さいと判定しなかった場合、当該フレームデータを表示フレームデータとする(ステップS809)。 On the other hand, if the display image creation unit 16 does not determine that the rectangular area of the frame data at time t = t n + 1 is smaller, the display image creation unit 16 sets the frame data as display frame data (step S809).

例えば、時刻t=tの表示フレームデータがフレームデータAである場合、表示画像作成部16は、画像データAにおける時刻t=tn+1のフレームデータを、表示画像データにおける時刻t=tn+1の時刻表示フレームデータとする。 For example, when the display frame data at the time t = t n is the frame data A, the display image creating unit 16 converts the frame data at the time t = t n + 1 in the image data A to the frame data at the time t = t n + 1 in the display image data. Time display frame data.

このように、表示画像作成部16は、表示フレームデータとしたフレームデータが含まれる画像データにおける次のフレームデータにおいて、歩行者200の矩形領域が小さくなったか否かを判定する。そして、表示画像作成部16は、当該矩形領域が小さくなった場合に、画像データを他の画像データに切り替える。これにより、歩行者200が全天球画像撮像装置60から離れていく方向に移動している場合に、他の画像データに切り替えて表示することができる。言い換えれば、歩行者200が近付いていく方向にある全天球画像撮像装置60により撮像された画像データを表示することができる。   As described above, the display image creation unit 16 determines whether or not the rectangular area of the pedestrian 200 has become smaller in the next frame data in the image data including the frame data as the display frame data. Then, the display image creation unit 16 switches the image data to other image data when the rectangular area becomes smaller. Thereby, when the pedestrian 200 is moving in a direction away from the omnidirectional image capturing device 60, it can be switched to other image data and displayed. In other words, the image data captured by the omnidirectional image capturing device 60 in the direction in which the pedestrian 200 approaches can be displayed.

次に、表示画像作成部16は、nに1を加算して(ステップS810)、ステップS805に戻る。   Next, the display image creation unit 16 adds 1 to n (step S810) and returns to step S805.

また、表示画像作成部16は、ステップS805においてnがN未満でない場合、表示フレームデータとしたフレームデータが含まれる画像データにおける時刻t=tのフレームデータを表示フレームデータとする(ステップS811)。 If n is not less than N in step S805, the display image creation unit 16 sets the frame data at time t = t n in the image data including the frame data as display frame data as display frame data (step S811). .

そして、表示画像作成部16は、表示フレームデータを含む表示画像データを作成する(ステップS812)。このように表示画像データを作成することで、フレームデータA及びフレームデータBのうち、歩行者200が正面を向いているフレームデータを表示フレームデータとした表示画像データを作成することができる。したがって、例えば、指導者等は、歩行者200の歩行を容易に確認及び評価することができるようになる。   Then, the display image creation unit 16 creates display image data including display frame data (step S812). By creating display image data in this way, it is possible to create display image data in which the frame data in which the pedestrian 200 is facing the front of the frame data A and the frame data B is used as the display frame data. Therefore, for example, a leader or the like can easily confirm and evaluate the walking of the pedestrian 200.

なお、n=1については、表示画像作成部16は、n=2のときに表示フレームデータとしたフレームデータの直前のフレームデータを表示フレームデータとすれば良い。   For n = 1, the display image creation unit 16 may use the frame data immediately before the frame data used as the display frame data when n = 2 as the display frame data.

なお、図8のステップS807では、表示画像作成部16は、時刻t=tn+1のフレームデータの矩形領域の方が小さいか否かを判定したが、当該矩形領域の方が大きいか否かを判定しても良い。そして、表示画像作成部16は、当該矩形領域の方が大きい場合に、当該フレームデータを表示フレームデータとしても良い。 In step S807 in FIG. 8, the display image creating unit 16 determines whether or not the rectangular area of the frame data at time t = t n + 1 is smaller, but determines whether or not the rectangular area is larger. You may judge. The display image creation unit 16 may use the frame data as display frame data when the rectangular area is larger.

<歩行者200の歩行の他の例について>
ここで、歩行者200の歩行の他の例について説明する。図17は、歩行者200の歩行の他の例を説明する図である。
<About other examples of walking of pedestrian 200>
Here, another example of walking of the pedestrian 200 will be described. FIG. 17 is a diagram for explaining another example of walking of the pedestrian 200.

図17(a)に示すように、歩行者200は、全天球画像撮像装置60A及び60Bの周囲を、楕円状のラインLに沿って歩行しても良い。このような歩行により、指導者等は、歩行者200が大きく旋回するような歩行の歩行動作を評価することができる。   As shown in FIG. 17A, the pedestrian 200 may walk along the oval line L around the omnidirectional image capturing devices 60A and 60B. By such walking, a leader or the like can evaluate the walking motion of the walking in which the pedestrian 200 makes a large turn.

また、図17(b)に示すように、歩行者200は、全天球画像撮像装置60A及び60Bの周囲を、2つの菱形状のラインLに沿って歩行しても良い。このような歩行により、指導者等は、歩行者200が直角に曲がる(右折や左折)歩行の歩行動作を評価することができる。   As shown in FIG. 17B, the pedestrian 200 may walk along the two rhombus lines L around the omnidirectional image capturing devices 60A and 60B. By such walking, a leader or the like can evaluate the walking motion of walking in which the pedestrian 200 bends at a right angle (right turn or left turn).

<表示画像データと測定データの表示>
次に、表示画像データと測定データの表示例について説明する。図18は、表示装置30に表示された表示画像データと測定データの一例を示す図である。
<Display image data and measurement data>
Next, display examples of display image data and measurement data will be described. FIG. 18 is a diagram illustrating an example of display image data and measurement data displayed on the display device 30.

図18に示すデータ表示画面501は、主に、画像データ欄502と、測定データ欄503とを有する。表示制御部32は、画像データ欄502に表示画像データを表示し、測定データ欄503に測定データを表示する。   A data display screen 501 shown in FIG. 18 mainly has an image data column 502 and a measurement data column 503. The display control unit 32 displays the display image data in the image data column 502 and displays the measurement data in the measurement data column 503.

このとき、表示制御部32は、表示画像データから歩行者200の撮像範囲を取り出して、画像データ欄502に表示する。この処理については、後述する。   At this time, the display control unit 32 extracts the imaging range of the pedestrian 200 from the display image data and displays it in the image data field 502. This process will be described later.

まず、画像データ欄502について説明する。指導者等がボタン504を押下すると、操作入力受付部33が当該押下操作を受け付ける。そして、表示制御部32は、フレームレート(fps)と同じ再生速度で表示画像データを動画として再生する。なお、高速再生や低速再生等が可能であっても良い。   First, the image data column 502 will be described. When a leader or the like presses the button 504, the operation input receiving unit 33 receives the pressing operation. The display control unit 32 reproduces the display image data as a moving image at the same reproduction speed as the frame rate (fps). Note that high-speed playback, low-speed playback, and the like may be possible.

指導者等が、再度、ボタン504を押下すると、操作入力受付部33は、当該押下操作を受け付ける。そして、表示制御部32は、表示画像データの再生を停止させる。このように、指導者等は、任意のタイミングの表示画像データを表示することができる。なお、表示画像データだけでなく、画像データAや画像データBと共に集音された音声を出力しても良い。   When a leader or the like presses the button 504 again, the operation input receiving unit 33 receives the pressing operation. Then, the display control unit 32 stops the reproduction of the display image data. In this way, a leader or the like can display display image data at an arbitrary timing. Note that not only the display image data but also the sound collected together with the image data A and the image data B may be output.

なお、表示画像データが静止画の場合、指導者等がボタン504を押下すると、表示制御部32は、次の表示画像データを画像データ欄502に表示する。同様に、ボタン操作により、表示制御部32は、前の表示画像データを画像データ欄502に表示することができる。また、表示制御部32は、表示画像データを所定の時間間隔で次々に画像データ欄502に表示しても良い。   When the display image data is a still image, when the instructor or the like presses the button 504, the display control unit 32 displays the next display image data in the image data column 502. Similarly, the display control unit 32 can display the previous display image data in the image data field 502 by a button operation. The display control unit 32 may display the display image data in the image data column 502 one after another at a predetermined time interval.

次に、測定データ欄503について説明する。図18では、x方向、y方向、及びz方向のそれぞれの加速度が時系列で表示されている。図18において、x方向、y方向、又はz方向のうち、指導者等の操作により、任意の1つ以上の方向の加速度を表示させても良い。なお、測定データは、連続的に表示されているが、例えば、表示画像データが静止画である場合には、全天球画像撮像装置60が画像を撮像したタイミングで加速度測定装置50により測定された加速度を表示しても良い。   Next, the measurement data column 503 will be described. In FIG. 18, the respective accelerations in the x direction, the y direction, and the z direction are displayed in time series. In FIG. 18, acceleration in any one or more directions may be displayed by an operation of a leader or the like among the x direction, the y direction, or the z direction. The measurement data is continuously displayed. For example, when the display image data is a still image, the measurement data is measured by the acceleration measuring device 50 at the timing when the omnidirectional image capturing device 60 captures the image. Acceleration may be displayed.

表示制御部32は、測定データに含まれる測定値の全てが測定データ欄503に表示されるように測定データを変倍して測定データ欄503に表示する。なお、表示制御部32は、ある程度の時間分の測定値を測定データ欄503に表示し、所定の時間ごとに切り替えても良い。   The display control unit 32 scales and displays the measurement data in the measurement data column 503 so that all the measurement values included in the measurement data are displayed in the measurement data column 503. Note that the display control unit 32 may display measurement values for a certain amount of time in the measurement data column 503 and switch them at predetermined intervals.

図18(a)のように、表示制御部32は、画像データ欄502に表示されているフレーム画像の表示フレームデータに対応付けられている測定値を指し示すバー505を測定データ欄503に表示させる。例えば、測定データ欄503に全体又はある時間分の測定値が表示されており、表示画像データが再生されている場合、表示制御部32は、表示中のフレーム画像の表示フレームデータに対応付けられている測定値にバー505を重畳させる。   As illustrated in FIG. 18A, the display control unit 32 causes the measurement data column 503 to display a bar 505 indicating the measurement value associated with the display frame data of the frame image displayed in the image data column 502. . For example, when the measurement values for the whole or a certain time are displayed in the measurement data column 503 and the display image data is reproduced, the display control unit 32 is associated with the display frame data of the frame image being displayed. A bar 505 is superimposed on the measured value.

したがって、表示制御部32は、時間の経過と共に、又は動画の再生が進むにつれて、バー505を測定データ欄503において右方向に移動させる。なお、指導者等がバー505を移動させると操作入力受付部33が操作を受け付けて、移動後のバー505が指し示す測定値に対応付けられている表示フレームデータのフレーム画像を、表示制御部32が画像データ欄502に表示させても良い。   Therefore, the display control unit 32 moves the bar 505 to the right in the measurement data column 503 as time elapses or as the reproduction of the moving image proceeds. When a leader or the like moves the bar 505, the operation input accepting unit 33 accepts the operation, and the display control unit 32 displays a frame image of the display frame data associated with the measurement value indicated by the moved bar 505. May be displayed in the image data field 502.

また、図18(b)のように、画像データ欄502に表示されているフレーム画像の表示フレームデータに対応付けられている測定値と、その前後の測定値とが測定データ欄503に表示される。測定データ欄503には、例えば、1秒〜数秒程度の間隔の測定値だけが同時に表示される。なお、破線の測定データは、測定データが連続していることを示すもので画面には表示されない。   Further, as shown in FIG. 18B, the measurement value associated with the display frame data of the frame image displayed in the image data column 502 and the measurement values before and after the measurement value are displayed in the measurement data column 503. The In the measurement data column 503, for example, only measured values at intervals of about 1 second to several seconds are displayed simultaneously. The broken line measurement data indicates that the measurement data is continuous and is not displayed on the screen.

図18(b)の場合、動画や静止画の進行に応じて、表示制御部32は、画像データ欄502に表示されているフレーム画像の表示フレームデータと対応付けられている測定値を測定データ欄503の中央に表示する。サーバ10により表示画像データと測定データとは対応付けられているので、表示制御部32は、画像データ欄502に表示されているフレーム画像の表示フレームデータに対応付けられている測定値を少なくとも測定データ欄503に表示することができる。また、表示制御部32は、画像データ欄502の動画や静止画が停止されると、測定データの表示も停止する。   In the case of FIG. 18B, the display control unit 32 displays the measurement value associated with the display frame data of the frame image displayed in the image data field 502 as the measurement data according to the progress of the moving image or the still image. Displayed in the center of the column 503. Since the display image data and the measurement data are associated with each other by the server 10, the display control unit 32 measures at least the measurement value associated with the display frame data of the frame image displayed in the image data field 502. It can be displayed in the data column 503. In addition, when the moving image or the still image in the image data field 502 is stopped, the display control unit 32 also stops displaying the measurement data.

≪測定データの評価について≫
ここで、測定データが加速度の場合、一般的な歩き方ではピークが周期的に現れると共に、ピークの高さもあまり変動しない。これに対して、年齢やケガ等で歩行機能が衰えたりすると、加速度のピークが周期的に現れなくなったり、ピークの高さも変動し易くなる。
≪About evaluation of measurement data≫
Here, when the measurement data is acceleration, a peak appears periodically in a general way of walking, and the height of the peak does not vary much. On the other hand, if the walking function deteriorates due to age, injury, or the like, the peak of acceleration does not appear periodically or the height of the peak tends to fluctuate.

このため、指導者等は、表示画像データを見るだけでも歩行動作を評価できる場合があるが、さらに、歩行動作が適切でないことを測定データにより裏付けることができる。また、指導者等は、測定データに乱れがある場所を特定して、表示画像データで確認したりすることができる。なお、表示画像データはある瞬間のフレーム画像しか表示されないが、測定データには一覧性があるため、指導者等は、適切でない歩行動作が表示されるフレーム画像を、測定データに基づいて短時間で探すことができる。   For this reason, the instructor or the like may be able to evaluate the walking motion only by looking at the display image data, but can further support the measurement data that the walking motion is not appropriate. In addition, a leader or the like can identify a place where the measurement data is disturbed and can check the display image data. Although the display image data is displayed only for a frame image at a certain moment, since the measurement data has a list property, an instructor or the like can quickly display a frame image on which an inappropriate walking motion is displayed based on the measurement data. You can search by

また、本実施形態では、加速度を例にして説明しているが、ジャイロセンサ206により検出した角速度、GPS受信装置213等が検出した位置、加速度・方位センサ205が検出する方位等を用いて、歩行動作が適切かどうかの評価を行うことも可能である。   In the present embodiment, the acceleration is described as an example. However, the angular velocity detected by the gyro sensor 206, the position detected by the GPS receiver 213, the azimuth detected by the acceleration / direction sensor 205, etc. It is also possible to evaluate whether the walking motion is appropriate.

例えば、ジャイロセンサ206が検出した角速度により、歩行者200が歩行する際のヨー角、ピッチ角、ロール角の変化の速さが分かる。この場合も、加速度と同様に、一般的な歩き方ではピークが周期的に現れると共に、ピークの高さもあまり変動しないことが知られている。   For example, the angular velocity detected by the gyro sensor 206 indicates the speed of change of the yaw angle, pitch angle, and roll angle when the pedestrian 200 walks. In this case as well, as with acceleration, it is known that peaks appear periodically in a general way of walking and the height of the peak does not vary much.

また、位置を2回微分すれば加速度が得られるため、GPS受信装置213等が検出した位置も加速度と同等の情報として用いることができる。また、旋回歩行の場合、方位は定常的に変化するが、方位を2回微分することで方位の変化の加速度が得られる。この場合も、ピークの周期と高さが評価の目安となる。また、これらの測定データでは、ピークが周期的で、高さの変動が少ない場合でも、ピークが極端に大きいような場合には、歩行動作に改善点がある可能性があるとして、指導者等が表示画像データを確認することができる。   Further, since the acceleration is obtained by differentiating the position twice, the position detected by the GPS receiver 213 and the like can be used as information equivalent to the acceleration. In the case of turning walking, the azimuth constantly changes, but acceleration of the change in azimuth can be obtained by differentiating the azimuth twice. In this case as well, the peak period and height are a guide for evaluation. In addition, in these measurement data, even if the peak is periodic and the height fluctuation is small, if the peak is extremely large, there may be an improvement in walking motion. Can confirm the display image data.

また、表示装置30の表示制御部32は、加速度と加速度=0の軸との面積を算出し、表示しても良い。例えば、8の字型に歩行している歩行者200が旋回歩行している場合には、y方向は歩行者200の左右方向の加速度なので、加速度が正側の面積と、負側の面積とは、ラインLに対する左右のぶれを示す。ラインLの上を歩行者200が歩行すれば、正側の面積と、負側の面積とはほぼ等しくなる。したがって、正側の面積と負側の面積が大きく異なるような場合、歩行者200の左脚と右脚のバランスが悪いことが分かる。   The display control unit 32 of the display device 30 may calculate and display the area between the acceleration and the axis of acceleration = 0. For example, when the pedestrian 200 walking in the shape of figure 8 is turning, the y direction is the acceleration in the left-right direction of the pedestrian 200, so that the acceleration is an area on the positive side and an area on the negative side. Indicates left and right blurring with respect to the line L. If the pedestrian 200 walks on the line L, the area on the positive side and the area on the negative side are almost equal. Therefore, when the area on the positive side is significantly different from the area on the negative side, it can be seen that the balance between the left leg and the right leg of the pedestrian 200 is poor.

このように、指導者等は時間軸が同期された測定データと表示画像データとを見ることで、歩行者200の歩行動作を評価するための多くの情報を得ることができる。   In this way, a leader or the like can obtain a lot of information for evaluating the walking motion of the pedestrian 200 by looking at the measurement data and the display image data whose time axes are synchronized.

<全天球画像の回転>
表示画像データには、全天球画像撮像装置60A又は60Bの周囲360°の画像が映っているため、全体を表示すると画像が歪んでしまい歩行動作がわかりにくい。このため、表示制御部32は、歩行者200が写っている範囲だけを画像データ欄502に表示することが好ましい。このような処理を全天球画像の回転、トリミング、歩行者200の抽出、又は取り出し等と表現する。全天球画像の回転とは、全天球画像を水平方向に(経度方向に)回転させて、画像データ欄502に表示される範囲を決定することをいう。
<Rotation of spherical image>
Since the 360 ° image around the omnidirectional image capturing device 60A or 60B is reflected in the display image data, the image is distorted when the entire image is displayed, and the walking motion is difficult to understand. For this reason, it is preferable that the display control unit 32 displays only the range in which the pedestrian 200 is shown in the image data field 502. Such processing is expressed as rotation of the omnidirectional image, trimming, extraction or extraction of the pedestrian 200, or the like. The rotation of the omnidirectional image refers to determining the range displayed in the image data field 502 by rotating the omnidirectional image in the horizontal direction (in the longitude direction).

図19は、歩行者200が写っている範囲を画像回転部34が特定して、画像データ欄502に表示する処理の一例を示すフローチャートである。図19の処理は、例えば、表示装置30が表示画像データを受信して、当該表示画像データの再生が行われると開始される。   FIG. 19 is a flowchart illustrating an example of processing in which the image rotation unit 34 specifies a range in which the pedestrian 200 is shown and displays the range in the image data field 502. The processing in FIG. 19 is started, for example, when the display device 30 receives display image data and the display image data is reproduced.

まず、画像回転部34は、歩行者200の足の位置を特定する(S901)。なお、足とは、歩行者200が履いている靴等の部分を言うが、靴等を履いていない場合には、踵からつま先までの部分である。画像回転部34は、腰より下や膝より下を足として特定しても良い。   First, the image rotation unit 34 specifies the position of the foot of the pedestrian 200 (S901). In addition, although a leg means the parts of the shoes etc. which the pedestrian 200 is wearing, when not wearing shoes etc., it is a part from a heel to a toe. The image rotation unit 34 may specify a leg below the waist or below the knee as a foot.

ここで、表示画像データが動画の場合、歩行者200が何回か足踏みするような動作を行えば、画像回転部34は、動体を検出することで歩行者200を検出することができる。また、画像回転部34は、顔を認識しても歩行者200を検出しても良い。全天球画像撮像装置60の周囲に歩行者200以外の人が存在する可能性があるが、画像回転部34は、最も大きな画素範囲を占める移動体を歩行者200として検出すれば良い。この他、画像回転部34は、例えば、機械学習により足の画像を学習しておき、表示画像データから足を認識しても良い。   Here, when the display image data is a moving image, the image rotating unit 34 can detect the pedestrian 200 by detecting a moving object if the pedestrian 200 performs an operation that steps several times. Further, the image rotation unit 34 may detect the pedestrian 200 even if the face is recognized. Although there is a possibility that a person other than the pedestrian 200 exists around the omnidirectional image capturing device 60, the image rotation unit 34 may detect the moving object occupying the largest pixel range as the pedestrian 200. In addition, the image rotation unit 34 may learn a foot image by machine learning, for example, and recognize the foot from the display image data.

また、歩行者200が予め決まった位置から歩行を開始する場合、歩行者200の初期位置は、表示画像データの水平方向の決まった位置である。したがって、この場合、画像回転部34は、測定対象の歩行者200を容易に特定できる。   When the pedestrian 200 starts walking from a predetermined position, the initial position of the pedestrian 200 is a predetermined position in the horizontal direction of the display image data. Therefore, in this case, the image rotation unit 34 can easily identify the pedestrian 200 to be measured.

一方、静止画の場合、画像回転部34は、顔を認識して歩行者200を検出することができる。また、画像回転部34は、パターンマッチング等により各静止画の表示画像データから歩行者200を検出しても良いし、例えば指導者等が歩行者200の位置を入力しても良い。   On the other hand, in the case of a still image, the image rotation unit 34 can recognize the face and detect the pedestrian 200. Moreover, the image rotation part 34 may detect the pedestrian 200 from the display image data of each still image by pattern matching etc., for example, a leader etc. may input the position of the pedestrian 200.

次に、画像回転部34は、歩行者200の歩行による足の位置の変化から単位時間毎の歩行者200の角速度を算出する(S902)。   Next, the image rotation unit 34 calculates the angular velocity of the pedestrian 200 per unit time from the change in the position of the foot due to the walking of the pedestrian 200 (S902).

ここで、図20を用いて角速度について説明する。図20は、全天球画像の上面図における歩行者200の足511の位置の一例を模式的に示す図である。   Here, the angular velocity will be described with reference to FIG. FIG. 20 is a diagram schematically illustrating an example of the position of the foot 511 of the pedestrian 200 in the top view of the omnidirectional image.

図20では、一例として、北向きが基準であるとする。このとき、歩行者200の足は、経度方向に360°の範囲で位置(北向きをゼロ度とする角度)θ及びθを取り得る。そこで、1つのフレーム画像内における歩行者200の2つの足の位置θ及びθの平均を足511の位置θとする。 In FIG. 20, as an example, the north direction is the reference. At this time, the foot of the pedestrian 200 can take positions (angles in which the north direction is zero degrees) θ 1 and θ 2 in the range of 360 ° in the longitude direction. Therefore, an average of the two feet positions θ 1 and θ 2 of the pedestrian 200 in one frame image is set as the position θ of the foot 511.

そして、例えば、過去の数秒間の位置θの変化量の平均を所定の時間毎(例えば、フレームを更新する毎)に算出する。これにより、画像回転部34は、変動が少ない歩行者200の角速度を算出することができる。なお、角速度は全天球画像撮像装置60から見た歩行速度(進行速度情報)ということができる。なお、実空間におけるx方向の歩行速度は、x方向の加速度を積分して得られる。   Then, for example, the average amount of change in the position θ in the past several seconds is calculated every predetermined time (for example, every time the frame is updated). Thereby, the image rotation part 34 can calculate the angular velocity of the pedestrian 200 with little fluctuation | variation. The angular velocity can be referred to as walking speed (traveling speed information) viewed from the omnidirectional image capturing device 60. The walking speed in the x direction in the real space can be obtained by integrating the acceleration in the x direction.

次に、画像回転部34は、ステップS902で算出した角速度で、フレーム画像を回転させる(S903)。すなわち、表示画像データに含まれるフレームデータが切り替わると、画像回転部34は、角速度で歩行者200が移動した位置を中心に画像データ欄502の表示範囲(所定の範囲)を回転させることで、フレーム画像をトリミングする。これにより、画像回転部34によりトリミングされたフレーム画像のほぼ中央に歩行者200が写るようにすることができる。   Next, the image rotation unit 34 rotates the frame image at the angular velocity calculated in step S902 (S903). That is, when the frame data included in the display image data is switched, the image rotation unit 34 rotates the display range (predetermined range) of the image data column 502 around the position where the pedestrian 200 has moved at the angular velocity. Trim the frame image. Thereby, it is possible to make the pedestrian 200 appear in substantially the center of the frame image trimmed by the image rotation unit 34.

表示制御部32は、画像回転部34によりトリミングされた表示範囲のフレーム画像を画像データ欄502に表示する(ステップS904)。このため、指導者等は、360°の範囲が撮像されている全天球画像から歩行者200を探す必要なく、歩行者200の歩行動作を評価することができる。   The display control unit 32 displays the frame image of the display range trimmed by the image rotation unit 34 in the image data field 502 (step S904). For this reason, a leader etc. can evaluate walking action of the pedestrian 200, without searching for the pedestrian 200 from the omnidirectional image by which the range of 360 degrees was imaged.

なお、通常の画角のカメラでは歩行者200が映るように撮像されているので、回転やトリミング等の処理は必要ない。また、画像回転部34の機能をサーバ10又は全天球画像撮像装置60が有していても良い。この場合、サーバ10や全天球画像撮像装置60から表示装置30へ表示画像データや画像データA、画像データBが送信される際の通信負荷や通信時間を低減することができる。   In addition, since a camera with a normal angle of view is picked up so that the pedestrian 200 is reflected, processing such as rotation and trimming is not necessary. Further, the server 10 or the omnidirectional image capturing device 60 may have the function of the image rotation unit 34. In this case, the communication load and communication time when display image data, image data A, and image data B are transmitted from the server 10 or the omnidirectional image capturing device 60 to the display device 30 can be reduced.

<全天球画像の回転の他の例>
ここで、フレーム画像から顔を認識することで歩行者200を認識し、フレーム画像を回転させる場合について説明する。図21は、歩行者200が写っている範囲を画像データ欄502に表示する処理の他の例の示すフローチャートである。図21の処理は、例えば、表示装置30が表示画像データを受信して、当該表示画像データの再生が行われると開始される。
<Another example of rotation of a spherical image>
Here, the case where the pedestrian 200 is recognized by recognizing the face from the frame image and the frame image is rotated will be described. FIG. 21 is a flowchart illustrating another example of processing for displaying the range in which the pedestrian 200 is shown in the image data field 502. The process of FIG. 21 is started, for example, when the display device 30 receives display image data and the display image data is reproduced.

まず、画像回転部34は、全天球画像(すなわち、フレーム画像)毎に顔を認識する(ステップS1001)。図22は、顔512の認識を模式的に説明する図の一例である。顔512の認識は、適切な特徴量の設定と、学習識別装置の学習により行われる。   First, the image rotation unit 34 recognizes a face for each omnidirectional image (that is, a frame image) (step S1001). FIG. 22 is an example of a diagram for schematically explaining the recognition of the face 512. The recognition of the face 512 is performed by setting an appropriate feature amount and learning by a learning identification device.

例えば、画像回転部34は、特徴量として、Haar−like特徴量、LBP(Local Binary Patterns)特徴量、HOG(Histogram of Oriented Gradients)特徴等を用いることができる。また、画像回転部34は、学習識別装置の学習方法として、SVM(Support Vector Machines)、AdaBoost等を用いることができる。ただし、これらに限られるものではなく、画像回転部34は、顔512を認識できる種々の特徴量、学習識別装置の学習方法を用いることができる。   For example, the image rotation unit 34 can use Haar-like feature values, LBP (Local Binary Patterns) feature values, HOG (Histogram of Oriented Gradients) features, and the like as feature values. The image rotation unit 34 can use SVM (Support Vector Machines), AdaBoost, or the like as a learning method of the learning identification device. However, the present invention is not limited to these, and the image rotation unit 34 can use various feature quantities that can recognize the face 512 and learning methods of the learning identification device.

次に、画像回転部34は、全天球画像(フレーム画像)から顔512を中心に、画像データ欄502の表示範囲513(所定範囲)の画像をトリミングする(ステップS1002)。これにより、画像回転部34が取り出す画像には、ほぼ中央に歩行者200が写るようにすることができる。   Next, the image rotation unit 34 trims the image in the display range 513 (predetermined range) in the image data field 502 around the face 512 from the omnidirectional image (frame image) (step S1002). Thereby, it is possible to make the pedestrian 200 appear in the center of the image taken out by the image rotation unit 34.

表示制御部32は、画像回転部34によりトリミングされた表示範囲513のフレーム画像を画像データ欄502に表示する(ステップS1003)。このため、指導者等は、360°の範囲が撮像されている全天球画像から歩行者200を探す必要なく、歩行者200の歩行動作を評価することができる。   The display control unit 32 displays the frame image of the display range 513 trimmed by the image rotation unit 34 in the image data field 502 (step S1003). For this reason, a leader etc. can evaluate walking action of the pedestrian 200, without searching for the pedestrian 200 from the omnidirectional image by which the range of 360 degrees was imaged.

なお、画像回転部34は、全天球画像毎に顔512の位置を決定してトリミングするのではなく、過去のいくつかの全天球画像の顔512の位置から経度方向の移動速度を算出することで、次に表示する全天球画像から表示範囲を決定しても良い。これにより、顔512の位置が変動しにくくなるので、滑らかな動画を表示できる。   Note that the image rotation unit 34 does not determine and crop the position of the face 512 for each omnidirectional image, but calculates the moving speed in the longitude direction from the position of the face 512 of several past omnidirectional images. Thus, the display range may be determined from the omnidirectional image to be displayed next. Thereby, the position of the face 512 is less likely to fluctuate, so that a smooth moving image can be displayed.

以上のように、本実施形態に係る画像表示システム100では、複数の全天球画像撮像装置60の周囲を旋回、右左折する歩行者200が撮像されるので、歩行者200の様々な歩行動作を撮像可能になる。そして、本実施形態に係る画像表示システム100では、撮像された歩行者200が大きく写っている画像や正面を向いている画像等を、歩行者200の加速度等の測定データと共に表示装置30に表示する。   As described above, in the image display system 100 according to the present embodiment, since the pedestrian 200 turning around the plurality of omnidirectional image capturing devices 60 and turning left and right is imaged, various walking motions of the pedestrian 200 are performed. Can be imaged. In the image display system 100 according to the present embodiment, the captured image of the pedestrian 200, an image facing the front, and the like are displayed on the display device 30 together with measurement data such as acceleration of the pedestrian 200. To do.

このため、本実施形態に係る画像表示システム100によれば、指導者等が歩行者200の歩行動作を評価し易い画像を表示させることができる。   For this reason, according to the image display system 100 which concerns on this embodiment, an instructor etc. can display the image which is easy to evaluate the walking motion of the pedestrian 200. FIG.

<画像表示システム100の他のシステム構成>
ここで、画像表示システム100の他のシステム構成について説明する。図23は、画像表示システム100のシステム構成の他の例を示す図である。
<Other System Configurations of Image Display System 100>
Here, another system configuration of the image display system 100 will be described. FIG. 23 is a diagram illustrating another example of the system configuration of the image display system 100.

図23(a)は、画像表示システム100のシステム構成の他の例である。図23(a)に示す画像表示システム100では、サーバ10がディスプレイ108を有している。図23(a)に示す構成では、サーバ10が表示装置30の各種機能を有している。すなわち、サーバ10は、測定データと画像データの時間軸の同期や表示画像データの作成に加えて、フレーム画像の回転等を行って、測定データと表示画像データを表示する。   FIG. 23A shows another example of the system configuration of the image display system 100. In the image display system 100 illustrated in FIG. 23A, the server 10 includes a display 108. In the configuration shown in FIG. 23A, the server 10 has various functions of the display device 30. That is, the server 10 displays the measurement data and the display image data by synchronizing the time axis of the measurement data and the image data and creating the display image data, and rotating the frame image.

図23(b)は、画像表示システム100のシステム構成の他の例である。図23(b)に示す画像表示システム100では、サーバ10及び表示装置30を有しない。図23(b)に示す構成では、加速度測定装置50が、サーバ10と表示装置30の各種機能を有している。   FIG. 23B is another example of the system configuration of the image display system 100. The image display system 100 illustrated in FIG. 23B does not include the server 10 and the display device 30. In the configuration shown in FIG. 23B, the acceleration measuring device 50 has various functions of the server 10 and the display device 30.

ここで、図23(b)に示す画像表示システム100における全体的な動作について説明する。図24は、加速度測定装置50が測定データと表示画像データを表示する場合における画像表示システム100の全体的な動作の一例を説明するシーケンス図である。   Here, the overall operation in the image display system 100 shown in FIG. 23B will be described. FIG. 24 is a sequence diagram illustrating an example of the overall operation of the image display system 100 when the acceleration measuring device 50 displays measurement data and display image data.

まず、歩行動作の測定を始める際、指導者又は歩行者200等は、歩行動作の測定を開始するための操作を加速度測定装置50に入力する。すると、加速度測定装置50は、指導者又は歩行者200等の操作を受け付ける(ステップS1101)。   First, when starting measurement of walking motion, a leader or a pedestrian 200 inputs an operation for starting measurement of walking motion to the acceleration measuring device 50. Then, the acceleration measuring device 50 receives an operation of a leader or a pedestrian 200 (step S1101).

次に、加速度測定装置50の通信部51は、撮像開始要求を全天球画像撮像装置60A及び60Bにそれぞれ送信する(ステップS1102及びS1103)。   Next, the communication unit 51 of the acceleration measuring device 50 transmits an imaging start request to the omnidirectional image capturing devices 60A and 60B (steps S1102 and S1103).

次に、加速度測定装置50の加速度検出部52は、加速度の測定を開始する(ステップS1104)。また、全天球画像撮像装置60A及び60Bの撮像部62は、それぞれ、歩行者200の撮像を開始する(ステップS1105及びS1106)。   Next, the acceleration detector 52 of the acceleration measuring device 50 starts measuring acceleration (step S1104). In addition, the imaging units 62 of the omnidirectional imaging devices 60A and 60B start imaging the pedestrian 200 (steps S1105 and S1106), respectively.

次に、歩行者200の歩行が終了した場合、指導者又は歩行者200は、歩行動作の測定を終了する操作を加速度測定装置50に入力する。すると、加速度測定装置50は、指導者又は歩行者200の操作を受け付ける(ステップS1107)。   Next, when the walking of the pedestrian 200 is finished, the leader or the pedestrian 200 inputs an operation for ending the measurement of the walking motion to the acceleration measuring device 50. Then, the acceleration measuring device 50 receives the operation of the instructor or the pedestrian 200 (step S1107).

次に、加速度測定装置50の通信部51は、撮像終了要求を全天球画像撮像装置60A及び60Bにそれぞれ送信する(ステップS1108及びS1109)。   Next, the communication unit 51 of the acceleration measuring device 50 transmits an imaging end request to the omnidirectional image capturing devices 60A and 60B (steps S1108 and S1109).

全天球画像撮像装置60A及び60Bの撮像部62は、通信部61により撮像終了要求を受信すると、撮像を終了する。そして、全天球画像撮像装置60A及び60Bの通信部61は、それぞれ、画像データA及び画像データBを加速度測定装置50に送信する(ステップS1110及びS1111)。   When the imaging unit 62 of the omnidirectional image imaging devices 60A and 60B receives the imaging end request from the communication unit 61, the imaging unit 62 ends imaging. Then, the communication units 61 of the omnidirectional image capturing devices 60A and 60B transmit the image data A and the image data B to the acceleration measuring device 50, respectively (steps S1110 and S1111).

加速度測定装置50の加速度データ加工部13は、図8のステップS118と同様に、測定データを加工する(ステップS1112)。   The acceleration data processing unit 13 of the acceleration measuring device 50 processes the measurement data in the same manner as in step S118 of FIG. 8 (step S1112).

次に、加速度測定装置50の画像調整部12は、図8のステップS119と同様に、測定データと画像データの時間軸を同期させる(ステップS1113)。   Next, the image adjustment unit 12 of the acceleration measuring device 50 synchronizes the time axes of the measurement data and the image data, similarly to step S119 of FIG. 8 (step S1113).

次に、加速度測定装置50の表示画像作成部16は、図8のステップS120と同様に、表示画像データを作成する(ステップS1114)。   Next, the display image creation unit 16 of the acceleration measuring device 50 creates display image data, similarly to step S120 in FIG. 8 (step S1114).

次に、加速度測定装置50は、自機のディスプレイ214に測定データと表示画像データを表示する(ステップS1115)。なお、加速度測定装置50は、指導者等の端末(サーバ10等)に測定データと表示画像データを送信しても良い(ステップS1116)。この場合、指導者等の端末は、測定データと表示画像データを表示する(ステップS1117)。   Next, the acceleration measuring device 50 displays the measurement data and the display image data on the display 214 of the own device (step S1115). The acceleration measuring apparatus 50 may transmit the measurement data and the display image data to a terminal such as a leader (server 10 or the like) (step S1116). In this case, a terminal such as a leader displays measurement data and display image data (step S1117).

したがって、図23(b)に示す構成によれば、画像表示システム100のシステム構成を簡易化できる。歩行者200は、加速度測定装置50を装着して歩行し、歩行の終了後は加速度測定装置50を指導者等に渡せば指導者から指導を受けることができるようになる。   Therefore, according to the configuration shown in FIG. 23B, the system configuration of the image display system 100 can be simplified. The pedestrian 200 walks while wearing the acceleration measuring device 50. After the end of walking, the pedestrian 200 can receive guidance from the instructor by passing the acceleration measuring device 50 to the instructor or the like.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、本実施形態では、測定データの測定終了後及び画像データの撮像終了後に、測定データ及び表示画像データが表示されているが、リアルタイムに測定データ及び表示画像データが表示されても良い。この場合、表示される測定データ及び表示画像データはほぼ同時期に撮像されたものである。   For example, in the present embodiment, the measurement data and the display image data are displayed after the measurement data is measured and the image data is captured. However, the measurement data and the display image data may be displayed in real time. In this case, the displayed measurement data and display image data are taken at substantially the same time.

また、以上の実施例で示した図6等の構成例は、サーバ10、表示装置30、全天球画像撮像装置60、及び加速度測定装置50の処理の理解を容易にするために、主な機能に応じて分割したものである。例えば、サーバ10が複数台存在し、複数のサーバ10が協働して本実施形態の処理を行っても良い。また、サーバ10の記憶部1000はサーバ10が有している必要はなく、記憶部1000は、サーバ10が当該記憶部1000のデータを読み書き可能な場所にあれば良い。   In addition, the configuration example of FIG. 6 and the like shown in the above embodiment is mainly used for easy understanding of the processing of the server 10, the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50. It is divided according to the function. For example, a plurality of servers 10 may exist, and a plurality of servers 10 may cooperate to perform the processing of this embodiment. Further, the storage unit 1000 of the server 10 does not need to be included in the server 10, and the storage unit 1000 only needs to be in a place where the server 10 can read and write data in the storage unit 1000.

また、図6では、サーバ10、表示装置30、全天球画像撮像装置60、及び加速度測定装置50の機能をいくつかの処理単位に分割して説明した。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。サーバ10、表示装置30、全天球画像撮像装置60、及び加速度測定装置50の処理は、処理内容に応じてさらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。   In FIG. 6, the functions of the server 10, the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50 have been described by being divided into several processing units. However, the present invention is not limited by the way of dividing or the name of each processing unit. The processing of the server 10, the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50 can be divided into more processing units depending on the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes.

10 サーバ
12 画像調整部
16 表示画像作成部
30 表示装置
32 表示制御部
33 操作入力受付部
34 画像回転部
50 加速度測定装置
60 全天球画像撮像装置
100 画像表示システム
DESCRIPTION OF SYMBOLS 10 Server 12 Image adjustment part 16 Display image creation part 30 Display apparatus 32 Display control part 33 Operation input reception part 34 Image rotation part 50 Acceleration measuring apparatus 60 Omnispherical image imaging device 100 Image display system

特開2010−172394号公報JP 2010-172394 A

Claims (17)

情報処理装置と、水平方向の周囲をそれぞれ撮像可能な複数の広角撮像装置と、移動する対象の動作を測定する測定装置とを有する画像表示システムであって、
前記複数の広角撮像装置が前記対象をそれぞれ撮像することにより生成した複数の画像データと、前記測定装置が前記対象の動作を測定することにより生成した測定データとを取得する取得手段と、
前記複数の画像データそれぞれと、前記測定データとを対応づける対応付け手段と、
前記測定データとそれぞれ対応付けられた前記複数の画像データのうち、表示対象の画像データを決定する決定手段と、
決定された前記画像データと前記測定データとを表示装置に表示させる表示手段と、
を有する画像表示システム。
An image display system having an information processing device, a plurality of wide-angle imaging devices capable of imaging each of the surroundings in the horizontal direction, and a measuring device that measures the movement of a moving object,
Acquisition means for acquiring a plurality of image data generated by imaging the target by the plurality of wide-angle imaging devices and measurement data generated by measuring the operation of the target by the measuring device;
Association means for associating each of the plurality of image data with the measurement data;
Determining means for determining image data to be displayed among the plurality of image data respectively associated with the measurement data;
Display means for displaying the determined image data and the measured data on a display device;
An image display system.
前記決定手段は、
前記複数の画像データのそれぞれについて、該画像データから前記対象が含まれる画像領域を特定して、特定した画像領域が最も大きい画像データを表示対象として決定する、請求項1に記載の画像表示システム。
The determining means includes
2. The image display system according to claim 1, wherein, for each of the plurality of image data, an image area including the target is specified from the image data, and image data having the largest specified image area is determined as a display target. .
前記決定手段は、
前記複数の画像データのうち、前記対象が所定の方向から撮像されている画像データを表示対象として決定する、請求項1に記載の画像表示システム。
The determining means includes
The image display system according to claim 1, wherein among the plurality of image data, image data in which the target is imaged from a predetermined direction is determined as a display target.
前記決定手段は、
前記複数の画像データの一の画像データについて、該一の画像データに含まれるフレーム画像データから前記対象が含まれる画像領域を特定して、前後のフレーム画像データにおける前記画像領域の大きさの変化により、該一の画像データを表示対象にするか否かを決定する、請求項3に記載の画像表示システム。
The determining means includes
For one image data of the plurality of image data, the image area including the object is specified from the frame image data included in the one image data, and the size of the image area in the preceding and following frame image data is changed. The image display system according to claim 3, wherein whether or not the one image data is to be displayed is determined.
前記複数の広角撮像装置は、
方向を変えながら又は方向を変えて、前記複数の広角撮像装置の周囲を進行する前記対象をそれぞれ撮像し、
前記対応付け手段は、
方向を変えながら又は方向を変えて進行する前記対象がそれぞれ撮像された前記複数の画像データそれぞれと、前記測定データとを対応付ける、請求項1乃至4の何れか一項に記載の画像表示システム。
The plurality of wide-angle imaging devices include:
Imaging each of the objects traveling around the plurality of wide-angle imaging devices while changing the direction or changing the direction;
The association means includes
5. The image display system according to claim 1, wherein the measurement data is associated with each of the plurality of pieces of image data obtained by imaging the object that progresses while changing the direction or changing the direction. 6.
前記情報処理装置は、
前記測定装置に測定開始及び測定終了を要求すると共に、前記複数の広角撮像装置のそれぞれに撮像開始及び撮像終了を要求する指示手段を有し、
前記対応付け手段は、
前記複数の画像データそれぞれの撮像開始及び前記測定データの測定開始と、前記複数の画像データそれぞれの撮像終了及び前記測定データの測定終了とに基づいて、前記複数の画像データそれぞれと、前記測定データとを対応付ける、請求項1乃至5の何れか一項に記載の画像表示システム。
The information processing apparatus includes:
Requesting the measurement device to start measurement and end measurement, and having an instruction means to request imaging start and imaging end of each of the plurality of wide-angle imaging devices,
The association means includes
Based on the imaging start of each of the plurality of image data and the measurement start of the measurement data, and the imaging end of each of the plurality of image data and the measurement end of the measurement data, each of the plurality of image data, and the measurement data And the image display system according to any one of claims 1 to 5.
前記表示装置は、
前記対象の動作の測定開始又は前記対象の撮像開始の少なくとも一方を受け付ける受付手段と、
前記受付手段が受け付けた前記測定開始又は前記撮像開始の少なくとも一方を前記情報処理装置に通知する通知手段と、
を有する、請求項6に記載の画像表示システム。
The display device
Receiving means for receiving at least one of measurement start of the target motion or imaging start of the target;
Notification means for notifying the information processing apparatus of at least one of the measurement start or the imaging start received by the reception means;
The image display system according to claim 6, comprising:
前記測定データには、前記対象の動作を測定した測定値が複数含まれ、
前記測定装置は、
所定の閾値以上の前記測定値が検出された場合に、前記測定データの生成を開始すると共に、撮像の開始を前記複数の広角撮像装置それぞれに要求する測定手段を有し、
前記広角撮像装置は、
前記測定手段による撮像の開始要求を受け取ると、前記対象の撮像を開始して、前記画像データの生成を開始する撮像手段、
を有する、請求項1乃至7の何れか一項に記載の画像表示システム。
The measurement data includes a plurality of measurement values obtained by measuring the operation of the object,
The measuring device is
When the measurement value equal to or greater than a predetermined threshold is detected, the measurement data is started and the measurement means for requesting each of the plurality of wide-angle imaging devices to start imaging,
The wide-angle imaging device
Upon receiving a request to start imaging by the measuring unit, the imaging unit starts imaging the target and starts generating the image data.
The image display system according to claim 1, comprising:
前記測定手段は、
所定の閾値未満の前記測定値が検出された場合に、前記測定データの生成を終了すると共に、撮像の終了を前記複数の広角撮像装置それぞれに要求し、
前記撮像手段は、
前記測定手段による撮像の終了要求を受け取ると、前記対象の撮像を終了して、前記画像データの生成を終了する、請求項8に記載の画像表示システム。
The measuring means includes
When the measurement value less than a predetermined threshold is detected, the generation of the measurement data is terminated, and the end of imaging is requested to each of the plurality of wide-angle imaging devices,
The imaging means includes
The image display system according to claim 8, wherein upon receiving a request to end imaging by the measurement unit, imaging of the target is ended and generation of the image data is ended.
前記広角撮像装置は、
前記対象の撮像を開始することを報知する第1の報知手段を有する、請求項1乃至9の何れか一項に記載の画像表示システム。
The wide-angle imaging device
The image display system according to any one of claims 1 to 9, further comprising: a first notification unit that notifies the start of imaging of the target.
前記測定装置は、
前記対象の動作の測定を開始することを報知する第2の報知手段を有する、請求項1乃至10の何れか一項に記載の画像表示システム。
The measuring device is
11. The image display system according to claim 1, further comprising a second notification unit that notifies that measurement of the movement of the target is started.
水平方向の周囲をそれぞれ撮像可能な複数の広角撮像装置と、移動する対象の動作を測定する測定装置と通信可能な情報処理装置であって、
前記複数の広角撮像装置が前記対象をそれぞれ撮像することにより生成した複数の画像データと、前記測定装置が前記対象の動作を測定することにより生成した測定データを取得する取得手段と、
前記複数の画像データそれぞれと、前記測定データとを対応づける対応付け手段と、
前記測定データとそれぞれ対応付けられた前記複数の画像データのうち、表示対象の画像データを決定する決定手段と、
決定された前記画像データと前記測定データとを表示装置に表示させる表示手段と、
を有する情報処理装置。
An information processing device capable of communicating with a plurality of wide-angle imaging devices capable of imaging the surroundings in the horizontal direction and a measuring device that measures the movement of a moving object,
Acquisition means for acquiring a plurality of image data generated by each of the plurality of wide-angle imaging devices imaging the target, and measurement data generated by the measurement device measuring an operation of the target;
Association means for associating each of the plurality of image data with the measurement data;
Determining means for determining image data to be displayed among the plurality of image data respectively associated with the measurement data;
Display means for displaying the determined image data and the measured data on a display device;
An information processing apparatus.
水平方向の周囲をそれぞれ撮像可能な複数の広角撮像装置と通信可能な情報処理装置であって、
移動する対象の動作を測定して、測定データを生成する測定手段と、
前記複数の広角撮像装置が前記対象をそれぞれ撮像することにより生成した複数の画像データを取得する取得手段と、
前記複数の画像データそれぞれと、前記測定データとを対応づける対応付け手段と、
前記測定データとそれぞれ対応付けられた前記複数の画像データのうち、表示対象の画像データを決定する決定手段と、
決定された前記画像データと前記測定データとを表示装置に表示させる表示手段と、
を有する情報処理装置。
An information processing device capable of communicating with a plurality of wide-angle imaging devices capable of imaging the surroundings in the horizontal direction,
Measuring means for measuring the movement of the moving object and generating measurement data;
Acquisition means for acquiring a plurality of image data generated by each of the plurality of wide-angle imaging devices imaging the target;
Association means for associating each of the plurality of image data with the measurement data;
Determining means for determining image data to be displayed among the plurality of image data respectively associated with the measurement data;
Display means for displaying the determined image data and the measured data on a display device;
An information processing apparatus.
水平方向の周囲を撮像可能な撮像装置であって、他の撮像装置と、情報処理装置と、移動する対象の動作を測定する測定装置と通信可能な撮像装置において、
前記対象を撮像することにより第1の画像データを生成する撮像手段と、
前記他の撮像装置が前記対象を撮像することにより生成した第2の画像データと、前記測定装置が前記対象の動作を測定することにより生成した測定データとを取得する取得手段と、
前記第1の画像データと、前記第2の画像データと、前記測定データとを前記情報処理装置に送信する送信手段と、
を有する撮像装置。
In an imaging device capable of imaging the surroundings in the horizontal direction and capable of communicating with another imaging device, an information processing device, and a measuring device that measures the movement of a moving object,
Imaging means for generating first image data by imaging the object;
Acquisition means for acquiring second image data generated by imaging the target by the other imaging device and measurement data generated by measuring the operation of the target by the measurement device;
Transmitting means for transmitting the first image data, the second image data, and the measurement data to the information processing apparatus;
An imaging apparatus having
水平方向の周囲をそれぞれ撮像可能な複数の広角撮像装置と、移動する対象の動作を測定する測定装置と通信可能な情報処理装置を、
前記複数の広角撮像装置が前記対象をそれぞれ撮像することにより生成した複数の画像データと、前記測定装置が前記対象の動作を測定することにより生成した測定データとを取得する取得手段、
前記複数の画像データそれぞれと、前記測定データとを対応づける対応付け手段、
前記測定データとそれぞれ対応付けられた前記複数の画像データのうち、表示対象の画像データを決定する決定手段、
決定された前記画像データと前記測定データとを表示装置に表示させる表示手段、
として機能させるためのプログラム。
An information processing device capable of communicating with a plurality of wide-angle imaging devices capable of imaging the surroundings in the horizontal direction and a measuring device that measures the movement of a moving object,
Acquisition means for acquiring a plurality of image data generated by imaging the target by the plurality of wide-angle imaging devices, and measurement data generated by measuring the operation of the target by the measuring device;
Association means for associating each of the plurality of image data with the measurement data;
Determining means for determining image data to be displayed among the plurality of image data respectively associated with the measurement data;
Display means for displaying the determined image data and measurement data on a display device;
Program to function as.
水平方向の周囲をそれぞれ撮像可能な複数の広角撮像装置と通信可能な情報処理装置であって、
移動する対象の動作を測定して、測定データを生成する測定手段、
前記複数の広角撮像装置が前記対象をそれぞれ撮像することにより生成した複数の画像データを取得する取得手段、
前記複数の画像データそれぞれと、前記測定データとを対応づける対応付け手段、
前記測定データとそれぞれ対応付けられた前記複数の画像データのうち、表示対象の画像データを決定する決定手段、
決定された前記画像データと前記測定データとを表示装置に表示させる表示手段、
として機能させるためのプログラム。
An information processing device capable of communicating with a plurality of wide-angle imaging devices capable of imaging the surroundings in the horizontal direction,
Measuring means for measuring the movement of the moving object and generating measurement data,
Acquisition means for acquiring a plurality of image data generated by each of the plurality of wide-angle imaging devices imaging the target;
Association means for associating each of the plurality of image data with the measurement data;
Determining means for determining image data to be displayed among the plurality of image data respectively associated with the measurement data;
Display means for displaying the determined image data and measurement data on a display device;
Program to function as.
水平方向の周囲を撮像可能な撮像装置であって、他の撮像装置と、情報処理装置と、移動する対象の動作を測定する測定装置と通信可能な撮像装置を、
前記対象を撮像することにより第1の画像データを生成する撮像手段、
前記他の撮像装置が前記対象を撮像することにより生成した第2の画像データと、前記測定装置が前記対象の動作を測定することにより生成した測定データとを取得する取得手段、
前記第1の画像データと、前記第2の画像データと、前記測定データとを前記情報処理装置に送信する送信手段、
として機能させるためのプログラム。
An imaging device capable of imaging the surroundings in the horizontal direction, the imaging device capable of communicating with another imaging device, an information processing device, and a measuring device that measures the movement of a moving object,
Imaging means for generating first image data by imaging the object;
Acquisition means for acquiring second image data generated by imaging the target by the other imaging device and measurement data generated by measuring the operation of the target by the measurement device;
Transmitting means for transmitting the first image data, the second image data, and the measurement data to the information processing apparatus;
Program to function as.
JP2016087437A 2016-04-25 2016-04-25 Image display system, information processing device, and program Active JP6776600B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016087437A JP6776600B2 (en) 2016-04-25 2016-04-25 Image display system, information processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016087437A JP6776600B2 (en) 2016-04-25 2016-04-25 Image display system, information processing device, and program

Publications (2)

Publication Number Publication Date
JP2017199980A true JP2017199980A (en) 2017-11-02
JP6776600B2 JP6776600B2 (en) 2020-10-28

Family

ID=60239521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016087437A Active JP6776600B2 (en) 2016-04-25 2016-04-25 Image display system, information processing device, and program

Country Status (1)

Country Link
JP (1) JP6776600B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022009515A1 (en) * 2020-07-06 2022-01-13 株式会社島津製作所 Data measurement system and presentation method for measurement data

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11275557A (en) * 1998-03-20 1999-10-08 Matsushita Electric Ind Co Ltd Supervisory image recording system
JP2006209468A (en) * 2005-01-28 2006-08-10 Yakahi Kikuko Work operation analysis device, work operation analysis method and work operation analysis program
JP2007158860A (en) * 2005-12-06 2007-06-21 Canon Inc Photographing system, photographing device, image switching device, and data storage device
JP2013088730A (en) * 2011-10-21 2013-05-13 Toyota Motor East Japan Inc Skill acquisition supporting system and skill acquisition support method
JP2014178149A (en) * 2013-03-13 2014-09-25 Casio Comput Co Ltd Moving state measurement instrument, moving state measurement method, and moving state measurement program
JP2015192694A (en) * 2014-03-31 2015-11-05 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Locomotion analysis device, method and system, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11275557A (en) * 1998-03-20 1999-10-08 Matsushita Electric Ind Co Ltd Supervisory image recording system
JP2006209468A (en) * 2005-01-28 2006-08-10 Yakahi Kikuko Work operation analysis device, work operation analysis method and work operation analysis program
JP2007158860A (en) * 2005-12-06 2007-06-21 Canon Inc Photographing system, photographing device, image switching device, and data storage device
JP2013088730A (en) * 2011-10-21 2013-05-13 Toyota Motor East Japan Inc Skill acquisition supporting system and skill acquisition support method
JP2014178149A (en) * 2013-03-13 2014-09-25 Casio Comput Co Ltd Moving state measurement instrument, moving state measurement method, and moving state measurement program
JP2015192694A (en) * 2014-03-31 2015-11-05 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Locomotion analysis device, method and system, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022009515A1 (en) * 2020-07-06 2022-01-13 株式会社島津製作所 Data measurement system and presentation method for measurement data

Also Published As

Publication number Publication date
JP6776600B2 (en) 2020-10-28

Similar Documents

Publication Publication Date Title
US10277836B2 (en) Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
JP6635037B2 (en) Information processing apparatus, information processing method, and program
JP6683127B2 (en) Information processing apparatus, information processing method, and program
US10169923B2 (en) Wearable display system that displays a workout guide
US9661470B1 (en) Methods and systems for locating an actor within an environment
JP5765019B2 (en) Display control apparatus, display control method, and program
JP7026819B2 (en) Camera positioning method and equipment, terminals and computer programs
CN104252712B (en) Video generation device, image generating method and recording medium
WO2016031105A1 (en) Information-processing device, information processing method, and program
EP3772217A1 (en) Output control apparatus, display terminal, remote control system, control method, and carrier medium
JP6631694B2 (en) Search support device, search support system, search support method, and program
US20220343795A1 (en) Orientation assistance system
JP2017158169A (en) Image display system, display device, and program
JP6776600B2 (en) Image display system, information processing device, and program
JP2016194783A (en) Image management system, communication terminal, communication system, image management method, and program
JP2016194784A (en) Image management system, communication terminal, communication system, image management method, and program
WO2020017600A1 (en) Display control device, display control method and program
JP2017208631A (en) Image display system, information processing apparatus, imaging apparatus, program
JP5801690B2 (en) Image processing apparatus and image processing method
JP2017151281A (en) Image display system, information processing device, and program
JP2017225722A (en) Information processing unit, program and image display system
JP2017202020A (en) Image display system, information processing device, imaging device, and program
JP2017184025A (en) Communication terminal, image communication system, image transmission method, image display method, and program
JP6523353B2 (en) Terminal device and program
EP4246282A1 (en) Information processing apparatus, information processing system, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200921

R151 Written notification of patent or utility model registration

Ref document number: 6776600

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151