JP2017208631A - Image display system, information processing apparatus, imaging apparatus, program - Google Patents

Image display system, information processing apparatus, imaging apparatus, program Download PDF

Info

Publication number
JP2017208631A
JP2017208631A JP2016098456A JP2016098456A JP2017208631A JP 2017208631 A JP2017208631 A JP 2017208631A JP 2016098456 A JP2016098456 A JP 2016098456A JP 2016098456 A JP2016098456 A JP 2016098456A JP 2017208631 A JP2017208631 A JP 2017208631A
Authority
JP
Japan
Prior art keywords
image data
measurement
data
imaging
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016098456A
Other languages
Japanese (ja)
Inventor
堀川 裕文
Hirofumi Horikawa
裕文 堀川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016098456A priority Critical patent/JP2017208631A/en
Publication of JP2017208631A publication Critical patent/JP2017208631A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display system capable of evaluating the movement of a moving object easily.SOLUTION: An image display system having an information processing device, a wide angle imaging device capable of imaging the horizontal perimeter, and one or more measuring apparatuses for measuring the movement of one or more moving objects, respectively, further includes acquisition means for acquiring image data generated when the wide angle imaging device images the one or more objects, and one or more pieces of measurement data generated when the one or more measuring apparatuses measure movement of the one or more moving objects, respectively, first mapping means for specifying the positions of the one or more moving objects in the image data, respectively, and mapping the positions to the image data, second mapping means for mapping the one or more pieces of measurement data, respectively, to the one or more pieces of image data, and display means for displaying the image data, and one or more pieces of measurement data mapped to the image data, based on the positions mapped to the image data.SELECTED DRAWING: Figure 1

Description

本発明は、画像表示システム、情報処理装置、撮像装置、及びプログラムに関する。   The present invention relates to an image display system, an information processing apparatus, an imaging apparatus, and a program.

人の歩行動作を分析するモーションキャプチャシステムが従来から知られている。モーションキャプチャシステムでは、例えば、身体の関節位置等に所定のマーカを装着した人をカメラで撮像して、トラッカーによりマーカの動きを追跡することで、人の歩行動作を分析することができる。   2. Description of the Related Art A motion capture system that analyzes a person's walking motion is conventionally known. In the motion capture system, for example, a person wearing a predetermined marker at a joint position or the like of a body is imaged with a camera, and the movement of the person can be analyzed by tracking the movement of the marker with a tracker.

ここで、モーションキャプチャシステムは、様々な角度から人の動作を捉えるために多数のマーカが必要であり、歩行動作の撮像までの準備や撮像後の分析に時間やコストが掛かる傾向があった。また、実験室等のような特別な環境以外では歩行動作の分析を行うことが困難であった。   Here, the motion capture system requires a large number of markers in order to capture human movements from various angles, and there is a tendency that it takes time and cost to prepare for imaging of walking motion and analysis after imaging. In addition, it is difficult to analyze walking motions except in a special environment such as a laboratory.

これらの問題に対して、身体の所定の部位に複数のマークが装着された歩行者の撮像画像を用いて、比較的簡単な構成で歩行動作を分析できる技術が知られている(例えば特許文献1参照)。   For these problems, a technique is known that can analyze walking motion with a relatively simple configuration using captured images of a pedestrian with a plurality of marks attached to a predetermined part of the body (for example, Patent Documents). 1).

しかしながら、上記の従来技術では、撮像可能な歩行動作が限られるという問題がある。これは、歩行することで人は徐々に移動するのに対して、カメラの位置や向きは固定されているためである。例えば、カメラが固定されている場合、直線的に歩行する歩行者の歩行動作以外の歩行動作等(例えば、カメラの周囲を旋回しながらの歩行する歩行者の歩行動作等)を撮像することは困難である。   However, the above-described conventional technique has a problem that the walking motion that can be imaged is limited. This is because the position and orientation of the camera are fixed while the person gradually moves by walking. For example, when the camera is fixed, it is possible to capture a walking motion other than the walking motion of a pedestrian walking in a straight line (for example, a walking motion of a pedestrian walking while turning around the camera). Have difficulty.

本発明の実施の形態は、上記の点に鑑みてなされたもので、移動する対象の動作を評価しやすい画像表示システムを提供することを目的する。   Embodiments of the present invention have been made in view of the above points, and an object of the present invention is to provide an image display system that can easily evaluate the movement of a moving object.

上記目的を達成するため、本発明の実施の形態は、情報処理装置と、水平方向の周囲を撮像可能な広角撮像装置と、移動する1以上の対象の動作をそれぞれ測定する1以上の測定装置とを有する画像表示システムであって、前記広角撮像装置が前記1以上の対象を撮像することにより生成した画像データと、前記1以上の測定装置が前記1以上の対象の動作をそれぞれ測定することにより生成した1以上の測定データとを取得する取得手段と、前記画像データにおける前記1以上の対象の位置をそれぞれ特定し、特定した前記位置を前記画像データと対応付ける第1の対応付け手段と、前記1以上の測定データそれぞれと、前記画像データとを対応付ける第2の対応付け手段と、前記画像データに対応付けられている前記位置に基づいて、前記画像データと、該画像データに対応付けられている前記1以上の測定データとを表示装置に表示させる表示手段と、を有する。   In order to achieve the above object, an embodiment of the present invention includes an information processing device, a wide-angle imaging device capable of imaging the surroundings in the horizontal direction, and one or more measurement devices that respectively measure the motion of one or more moving objects. The image display system includes: image data generated by the wide-angle imaging device capturing the one or more objects; and the one or more measuring devices respectively measuring the operations of the one or more objects. Acquisition means for acquiring one or more measurement data generated by the first and second association means for identifying the positions of the one or more objects in the image data and associating the identified positions with the image data; Based on the second association means for associating each of the one or more measurement data with the image data, and the position associated with the image data, It includes an image data, and a display means for displaying on the display device and the one or more measurement data associated with the image data.

本発明の実施の形態によれば、移動する対象の動作を評価しやすい画像表示システムを提供することができる。   According to the embodiment of the present invention, it is possible to provide an image display system that can easily evaluate the movement of a moving object.

画像表示システムの概略的な動作の一例を説明する図である。It is a figure explaining an example of schematic operation | movement of an image display system. 画像表示システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of an image display system. サーバ及び表示装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a server and a display apparatus. 加速度測定装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an acceleration measuring device. 全天球画像撮像装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an omnidirectional image imaging device. サーバ、表示装置、加速度測定装置、及び全天球画像撮像装置の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of a server, a display apparatus, an acceleration measuring apparatus, and an omnidirectional image imaging device. 歩行者の歩行の一例を説明する図である。It is a figure explaining an example of a pedestrian's walk. 画像表示システムの全体的な動作の一例を説明するシーケンス図である。It is a sequence diagram explaining an example of the whole operation | movement of an image display system. 画像表示システムの全体的な動作の変形例(その1)を説明するシーケンス図である。It is a sequence diagram explaining the modification (the 1) of the whole operation | movement of an image display system. 画像表示システムの全体的な動作の変形例(その2)を説明するシーケンス図である。It is a sequence diagram explaining the modification (the 2) of the whole operation | movement of an image display system. 画像表示システムの全体的な動作の変形例(その3)を説明するシーケンス図である。It is a sequence diagram explaining the modification (the 3) of the whole operation | movement of an image display system. 画像表示システムの全体的な動作の変形例(その4)を説明するシーケンス図である。FIG. 10 is a sequence diagram illustrating a modification (No. 4) of the overall operation of the image display system. 画像表示システムの全体的な動作の変形例(その5)を説明するシーケンス図である。It is a sequence diagram explaining the modification (the 5) of the whole operation | movement of an image display system. 表示画像作成処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a display image creation process. 歩行者が写っている矩形領域の特定の一例を模式的に説明する図である。It is a figure which illustrates typically an example of specification of a rectangular field in which a pedestrian is reflected. 表示フレームデータ毎に対応付けられた歩行者の位置の一例を説明する図である。It is a figure explaining an example of the position of the pedestrian matched for every display frame data. 表示画像作成処理の他の例(その1)を説明するフローチャートである。It is a flowchart explaining the other example (the 1) of a display image creation process. 表示フレームデータ毎に対応付けられた歩行者の位置の他の例(その1)を説明する図である。It is a figure explaining the other example (the 1) of the position of the pedestrian matched for every display frame data. 表示画像作成処理の他の例(その2)を説明するフローチャートである。12 is a flowchart for explaining another example (part 2) of the display image creation process. 表示フレームデータ毎に対応付けられた歩行者の位置の他の例(その2)を説明する図である。It is a figure explaining the other example (the 2) of the position of the pedestrian matched for every display frame data. 表示装置に表示された表示画像データと測定データの一例を示す図である。It is a figure which shows an example of the display image data and measurement data which were displayed on the display apparatus. 歩行者が写っている範囲を画像データ欄に表示する処理の一例の示すフローチャートである。It is a flowchart which shows an example of the process which displays the range which the pedestrian is reflected in an image data column. 画像表示システムのシステム構成の他の例を示す図である。It is a figure which shows the other example of the system configuration | structure of an image display system. 加速度測定装置が測定データと表示画像データを表示する場合における画像表示システムの全体的な動作の一例を説明するシーケンス図である。It is a sequence diagram explaining an example of the whole operation | movement of an image display system in case an acceleration measuring apparatus displays measurement data and display image data.

以下、本発明の実施の形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<画像表示システム100の概略>
まず、本実施形態に係る画像表示システム100の概略的な動作について説明する。図1は、本実施形態に係る画像表示システム100の概略的な動作の一例を説明する図である。
<Outline of Image Display System 100>
First, a schematic operation of the image display system 100 according to the present embodiment will be described. FIG. 1 is a diagram illustrating an example of a schematic operation of the image display system 100 according to the present embodiment.

本実施形態に係る画像表示システム100では、全天球画像撮像装置60が設置されており、ラインLに沿って周囲を歩行する歩行者200A及び歩行者200Bを全天球画像撮像装置60が撮像する。   In the image display system 100 according to the present embodiment, the omnidirectional image capturing device 60 is installed, and the omnidirectional image capturing device 60 captures the pedestrian 200A and the pedestrian 200B walking around the line L. To do.

また、歩行者200Aには、加速度測定装置50Aが身体に装着されており、歩行者200Aの歩行中に生じる加速度を加速度測定装置50Aが測定している。同様に、歩行者200Bには、加速度測定装置50Bが身体に装着されており、歩行者200Bの歩行中に生じる加速度を加速度測定装置50Bが測定している。   Further, the pedestrian 200A is equipped with an acceleration measuring device 50A on the body, and the acceleration measuring device 50A measures the acceleration generated during walking of the pedestrian 200A. Similarly, an acceleration measuring device 50B is attached to the body of the pedestrian 200B, and the acceleration measuring device 50B measures the acceleration that occurs during walking of the pedestrian 200B.

(1)全天球画像撮像装置60は、歩行者200A及び歩行者200Bを撮像することにより生成した画像データをサーバ10に送信する。   (1) The omnidirectional image capturing device 60 transmits image data generated by capturing the pedestrian 200 </ b> A and the pedestrian 200 </ b> B to the server 10.

また、加速度測定装置50Aは、歩行者200Aの歩行中に生じた加速度を測定することにより生成した測定データAをサーバ10に送信する。同様に、加速度測定装置50Bは、歩行者200Bの歩行中に生じた加速度を測定することにより生成した測定データBをサーバ10に送信する。   Further, the acceleration measuring device 50A transmits the measurement data A generated by measuring the acceleration generated during walking of the pedestrian 200A to the server 10. Similarly, the acceleration measuring device 50B transmits the measurement data B generated by measuring the acceleration generated during walking of the pedestrian 200B to the server 10.

なお、画像データの撮像開始時刻と、測定データA及び測定データBの測定開始時刻とは同期している。また、画像データの撮像終了時刻と、測定データA及び測定データBの測定終了時刻とは同期している。   The imaging start time of the image data is synchronized with the measurement start times of the measurement data A and the measurement data B. In addition, the image data capture end time and the measurement data A and measurement data B measurement end times are synchronized.

(2)サーバ10は、画像データに写っている歩行者200Aや歩行者200Bの歩行動作を表示するための表示画像データを作成する。そして、サーバ10は、表示画像データと測定データAの時間軸を同期させると共に、表示画像データと測定データBの時間軸を同期させる。   (2) The server 10 creates display image data for displaying the walking motions of the pedestrian 200A and the pedestrian 200B shown in the image data. Then, the server 10 synchronizes the time axes of the display image data and the measurement data A and synchronizes the time axes of the display image data and the measurement data B.

(3)サーバ10は、表示画像データ、測定データA、及び測定データBを表示装置30に送信する。これにより、表示装置30は、表示画像データ、測定データA、及び測定データBを同じ時間軸で表示することができる。   (3) The server 10 transmits display image data, measurement data A, and measurement data B to the display device 30. Thereby, the display device 30 can display the display image data, the measurement data A, and the measurement data B on the same time axis.

なお、表示画像データとは、例えば、表示装置30において、画像データに写っている歩行者200Aや歩行者200Bを切り替えて表示するための画像データである。   The display image data is, for example, image data for switching and displaying the pedestrian 200A and the pedestrian 200B shown in the image data on the display device 30.

図1に示したような構成によれば、全天球画像撮像装置60が用いられ、その周囲を歩行する歩行者200A及び歩行者200B(以降では、歩行者200A及び歩行者200Bを区別しないときは、「歩行者200」と表す。)が撮像される。   According to the configuration shown in FIG. 1, the omnidirectional imaging device 60 is used, and the pedestrian 200A and the pedestrian 200B walking around the pedestrian 200A (hereinafter, when the pedestrian 200A and the pedestrian 200B are not distinguished from each other). Is represented as “pedestrian 200”).

このため、本実施形態に係る画像表示システム100では、直線的に歩行する歩行者200だけでなく、右旋回や左旋回等しながら歩行する歩行者200を撮像することができる。歩行者200は、旋回等する際に重心を崩し易いことが知られている。したがって、本実施形態に係る画像表示システム100では、直線的に移動する場合に加えて、旋回等する複数の歩行者200の歩行動作の分析を有効に行うことができるようになる。   For this reason, in the image display system 100 according to the present embodiment, not only the pedestrian 200 walking linearly but also the pedestrian 200 walking while turning right or turning left can be imaged. It is known that the pedestrian 200 easily loses its center of gravity when turning. Therefore, in the image display system 100 according to the present embodiment, in addition to the case of moving linearly, it becomes possible to effectively analyze the walking motions of a plurality of pedestrians 200 that turn.

なお、図1では、歩行者200が2人である場合について説明したが、歩行者200は、3人以上であっても良い。また、歩行者200は、1人であっても良い。さらに、例えば、複数の歩行者200の中には、加速度測定装置50を装着していない歩行者200がいても良い。   In addition, although FIG. 1 demonstrated the case where there were two pedestrians 200, the number of pedestrians 200 may be three or more. Moreover, the pedestrian 200 may be one person. Further, for example, among the plurality of pedestrians 200, there may be a pedestrian 200 not wearing the acceleration measuring device 50.

全天球画像撮像装置60は、カメラを移動させることなく歩行者200の側面を撮像することができるため、歩行者200の身体の前後方向の揺れ方等を撮像できる。このため、本実施形態に係る画像表示システム100によれば、歩き方の指導者等は、歩行者200の歩行動作を映像で確認及び評価して、改善点を指導することができるようになる。   Since the omnidirectional image capturing device 60 can capture the side surface of the pedestrian 200 without moving the camera, the omnidirectional image capturing device 60 can capture how the body of the pedestrian 200 shakes in the front-rear direction. For this reason, according to the image display system 100 according to the present embodiment, an instructor or the like of walking can check and evaluate the walking motion of the pedestrian 200 with an image, and can guide improvement points. .

また、本実施形態に係る画像表示システム100では、歩行者200の加速度等が測定された測定データAや測定データB(以降では、測定データA及び測定データBを区別しないときは、「測定データ」と表す。)が表示画像データと同じ時間軸で表示される。このため、指導者等が改善すべき歩行動作を発見した場合に、歩行動作が良好でないことを測定データで裏付けることができる。   In the image display system 100 according to the present embodiment, the measurement data A and the measurement data B in which the acceleration of the pedestrian 200 is measured (hereinafter, when the measurement data A and the measurement data B are not distinguished from each other, “measurement data Is displayed on the same time axis as the display image data. For this reason, when a leader etc. discover the walking motion which should be improved, it can be proved by measurement data that the walking motion is not good.

また、本実施形態に係る画像表示システム100では、予め用意されている良好とされる測定データと、歩行者200の測定データとを比較することで、指導者等は、良好でない測定データを発見することもできる。歩行者200の良好でない測定データは、表示画像データと対応付けられているので、指導者等は改善すべき歩行動作を表示画像データから特定することができるようになる。   In addition, in the image display system 100 according to the present embodiment, a leader or the like finds measurement data that is not good by comparing the measurement data that is prepared in advance with good measurement data and the measurement data of the pedestrian 200. You can also Since the measurement data of the pedestrian 200 that is not good is associated with the display image data, the instructor or the like can specify the walking motion to be improved from the display image data.

したがって、本実施形態に係る画像表示システム100を用いることで、指導者等は、測定データと表示画像データとを相補的に利用して歩行動作を評価することができるようになる。   Therefore, by using the image display system 100 according to the present embodiment, a leader or the like can evaluate the walking motion using the measurement data and the display image data in a complementary manner.

なお、以降では、加速度測定装置50A及び加速度測定装置50Bを区別しないときは、「加速度測定装置50」と表す。また、以降では、画像データ及び表示画像データは、動画データであるものとして説明する。したがって、画像データには、1フレーム分の画像(フレーム画像)のデータであるフレームデータが複数含まれる。同様に、表示画像データには、フレーム画像のデータである表示フレームデータが複数含まれる。ただし、画像データは、動画に限られず、静止画の画像データ(静止画データ)であっても良い。   Hereinafter, when the acceleration measuring device 50A and the acceleration measuring device 50B are not distinguished, they are expressed as “acceleration measuring device 50”. In the following description, it is assumed that the image data and the display image data are moving image data. Therefore, the image data includes a plurality of frame data that is data of an image (frame image) for one frame. Similarly, the display image data includes a plurality of display frame data, which is frame image data. However, the image data is not limited to moving images, and may be image data of still images (still image data).

ここで、歩行者200は、歩行等の動作により、前方、後方、横方向等に移動する対象であるが、人に限られず、例えば、動物、ロボット等であっても良い。また、歩行には、走ることが含まれていても良く、後ろ向きに歩行しても良い。さらに、移動する対象は、車椅子、義足を装着した人、自転車、竹馬、三輪車等であっても良い。以降では、便宜上、移動する対象は、「歩行者200」であるものとして説明する。   Here, the pedestrian 200 is an object that moves forward, backward, laterally, and the like by an action such as walking, but is not limited to a person, and may be, for example, an animal, a robot, or the like. Also, walking may include running or may walk backwards. Further, the object to be moved may be a wheelchair, a person wearing a prosthetic leg, a bicycle, a stilt, a tricycle, or the like. Hereinafter, for the sake of convenience, it is assumed that the moving object is “pedestrian 200”.

また、測定データは、移動する対象の動作を評価するために用いられる情報であるが、加速度に限られず、例えば、角速度、位置、又は方位等であっても良い。   The measurement data is information used to evaluate the movement of the moving object, but is not limited to acceleration, and may be, for example, angular velocity, position, or direction.

また、表示画像データと測定データとが対応付けられるとは、表示画像データに含まれる表示フレームデータのうち、1つ以上の表示フレームデータが決まると、測定データに含まれる測定値のうち、1つ以上の測定値が決まることをいう。又は、ほぼ同じ時刻の表示フレームデータと、測定値とが特定される場合に、時刻、表示フレームデータ、又は測定値の1つが決まると残りが決まることをいう。   Further, the display image data and the measurement data are associated with each other when one or more display frame data among the display frame data included in the display image data is determined, It means that two or more measured values are determined. Alternatively, when display frame data and a measurement value at substantially the same time are specified, if the time, display frame data, or one of the measurement values is determined, the rest is determined.

指導者とは、歩行者200の歩行動作を映像で確認して、当該歩行動作を評価し、改善点等を立案できる者をいう。具体的には、保健師、臨床検査技師、義肢装具士等の資格の保有者が挙げられるが、資格はなくても良い。   The instructor refers to a person who can confirm the walking motion of the pedestrian 200 with an image, evaluate the walking motion, and plan improvement points. Specific examples include holders of qualifications such as public health nurses, clinical laboratory technicians, and prosthetic limb orthoses.

また、歩行動作を評価し、改善点等を立案できる者でなくても、画像表示システム100の操作は可能であり、指導者は、操作者、ユーザ、又は利用者等と呼ばれても良い。   Further, even if the person is not a person who can evaluate the walking motion and plan improvement points, the image display system 100 can be operated, and the instructor may be called an operator, a user, a user, or the like. .

<システム構成>
次に、本実施形態に係る画像表示システム100のシステム構成について説明する。図2は、本実施形態に係る画像表示システム100のシステム構成の一例を示す図である。
<System configuration>
Next, the system configuration of the image display system 100 according to the present embodiment will be described. FIG. 2 is a diagram illustrating an example of a system configuration of the image display system 100 according to the present embodiment.

本実施形態に係る画像表示システム100は、サーバ10、表示装置30、加速度測定装置50、及び全天球画像撮像装置60を有し、ネットワークNを介して相互に通信可能に接続されている。   An image display system 100 according to the present embodiment includes a server 10, a display device 30, an acceleration measuring device 50, and an omnidirectional image capturing device 60, which are connected to each other via a network N so as to communicate with each other.

ネットワークNは、画像表示システム100が配置されている施設等に構築されているLAN(Local Area Network)等である。ネットワークNには、インターネットや電話回線網等が含まれていても良い。また、ネットワークNは、有線又は無線のいずれで構築されていても良く、有線と無線とが組み合わされていても良い。   The network N is a LAN (Local Area Network) constructed in a facility where the image display system 100 is arranged. The network N may include the Internet, a telephone line network, and the like. Further, the network N may be constructed by either wired or wireless, and may be a combination of wired and wireless.

全天球画像撮像装置60は、全天球画像又は全方位画像(以降では、「全天球画像」と表す。)と呼ばれる周囲360°を撮像する撮像装置(カメラ)である。全天球画像撮像装置60は、後述する光学系を備えることで、一回の撮像動作で全天球画像を得ることができる。全天球画像には、ほぼ死角なく周囲360°の画像が撮像されているため、指導者等は任意の範囲を選択的にディスプレイ等に表示させて、閲覧することができる。   The omnidirectional image capturing device 60 is an image capturing device (camera) that captures a 360 ° circumference called an omnidirectional image or an omnidirectional image (hereinafter referred to as an “omnidirectional image”). The omnidirectional image capturing device 60 includes an optical system to be described later, so that an omnidirectional image can be obtained by a single imaging operation. Since the omnidirectional image includes an image of 360 ° around the blind spot, an instructor or the like can selectively display an arbitrary range on the display or the like for viewing.

なお、本実施形態において、全天球画像撮像装置60は、緯度方向(画像の上下方向)で360°の撮像範囲を有していなくても良い。天井や床等を撮像しても歩行者200が写らないためである。   In the present embodiment, the omnidirectional image capturing device 60 may not have an image capturing range of 360 ° in the latitude direction (the vertical direction of the image). This is because the pedestrian 200 is not captured even when the ceiling or floor is imaged.

また、全天球画像撮像装置60は、経度方向(画像の水平方向)で360°の撮像範囲を有していなくても良い。これは、歩行者200の歩行動作を指導者等が分析するために、全天球画像撮像装置60の全周の画像までは必要ない場合があるためである。   Further, the omnidirectional image capturing device 60 may not have an imaging range of 360 ° in the longitude direction (the horizontal direction of the image). This is because an image of the entire celestial sphere image capturing device 60 may not be necessary for the instructor to analyze the walking motion of the pedestrian 200.

なお、全天球画像撮像装置60として、ある画角で複数の矩形範囲をそれぞれ撮像した複数の画像を繋ぎ合わせることで全天球画像を得る撮像装置が用いられても良い。   As the omnidirectional image capturing device 60, an image capturing device that obtains an omnidirectional image by connecting a plurality of images obtained by capturing a plurality of rectangular ranges at a certain angle of view may be used.

加速度測定装置50は、歩行者200の加速度を測定して、測定した加速度を示す測定値を含む測定データを得る装置である。加速度は、鉛直方向加速度、進行方向加速度、左右方向加速度の3軸それぞれで測定されることが好適であるが、少なくとも一方向の加速度でも良い。   The acceleration measuring device 50 is a device that measures the acceleration of the pedestrian 200 and obtains measurement data including a measured value indicating the measured acceleration. The acceleration is preferably measured on each of the three axes of vertical direction acceleration, traveling direction acceleration, and left-right direction acceleration, but may be acceleration in at least one direction.

加速度測定装置50として加速度を測定する専用のセンサ(加速度センサ)も存在するが、加速度測定装置50は、加速度センサを有している装置であっても良い。具体的には、加速度測定装置50は、例えば、スマートフォン、携帯電話、タブレット端末、ノートPC(Personal Computer)、ウェアラブル端末(ヘッドマウントディスプレイ、サングラスや腕時計等として装着されるPC)、歩度計等であっても良い。   A dedicated sensor (acceleration sensor) for measuring acceleration also exists as the acceleration measuring device 50, but the acceleration measuring device 50 may be a device having an acceleration sensor. Specifically, the acceleration measuring device 50 is, for example, a smartphone, a mobile phone, a tablet terminal, a notebook PC (Personal Computer), a wearable terminal (a PC mounted as a head mounted display, sunglasses, a wristwatch, or the like), a pedometer, or the like. There may be.

また、加速度測定装置50は、加速度以外にも、例えば、角速度、位置、方位等を測定する機能を有していても良い。   Further, the acceleration measuring device 50 may have a function of measuring, for example, angular velocity, position, azimuth, and the like in addition to acceleration.

角速度は、例えば、ジャイロセンサを用いて測定することができる。位置は、例えば、GPS(Global Positioning System)衛星、IMES(Indoor MEssaging System)、又はビーコン等を用いて測定することができる。方位は、例えば、東西南北の方位を、例えば北を基準に検出する方位センサを用いて測定することができる。これらは、いずれも加速度と同様に、歩行者200の歩行動作の評価に用いることができる。   The angular velocity can be measured using, for example, a gyro sensor. The position can be measured using, for example, a GPS (Global Positioning System) satellite, IMES (Indoor MEssaging System), or a beacon. The azimuth can be measured, for example, using an azimuth sensor that detects the east, west, south, and north directions, for example, based on the north. Any of these can be used for evaluating the walking motion of the pedestrian 200 as well as the acceleration.

本実施形態では、加速度測定装置50が加速度を測定するものとして説明するが、これに限られず、加速度測定装置50は、角速度、位置、方位等、歩行動作の評価に用いられる各種の測定値を含む測定データをサーバ10に送信しても良い。   In the present embodiment, the acceleration measurement device 50 is described as measuring acceleration. However, the present invention is not limited to this, and the acceleration measurement device 50 uses various measurement values used for evaluation of walking motion, such as angular velocity, position, and orientation. The included measurement data may be transmitted to the server 10.

サーバ10は、全天球画像撮像装置60から画像データを受信して、表示画像データを作成する情報処理装置である。また、サーバ10は、作成した表示画像データと、加速度測定装置50から受信した測定データとの時間軸を同期させる。なお、サーバ10の機能は、加速度測定装置50や表示装置30が有していても良い。   The server 10 is an information processing device that receives image data from the omnidirectional image capturing device 60 and creates display image data. Further, the server 10 synchronizes the time axis between the created display image data and the measurement data received from the acceleration measuring device 50. The function of the server 10 may be included in the acceleration measuring device 50 or the display device 30.

表示装置30は、指導者等が表示画像データと測定データとを表示させる端末装置として使用される情報処理装置である。具体的には、例えば、PC、スマートフォン、タブレット端末、携帯電話、カーナビゲーション端末、ウェアラブル端末、カメラ、電子黒板、プロジェクタ、ゲーム機、MFP(Multifunction Peripheral/Printer/Product)等である。   The display device 30 is an information processing device used as a terminal device that allows a leader or the like to display display image data and measurement data. Specifically, for example, a PC, a smartphone, a tablet terminal, a mobile phone, a car navigation terminal, a wearable terminal, a camera, an electronic blackboard, a projector, a game machine, an MFP (Multifunction Peripheral / Printer / Product), and the like.

<ハードウェア構成>
次に、本実施形態に係るサーバ10、表示装置30、加速度測定装置50、及び全天球画像撮像装置60のハードウェア構成について説明する。
<Hardware configuration>
Next, the hardware configuration of the server 10, the display device 30, the acceleration measuring device 50, and the omnidirectional image capturing device 60 according to the present embodiment will be described.

図3は、サーバ10及び表示装置30のハードウェア構成の一例を示す図である。図3に示すサーバ10及び表示装置30のハードウェア構成は、1つの筐体に配置されている例を示しているが、これに限られない。サーバ10及び表示装置30のハードウェア構成は、それぞれのハードウェアが通信可能なように、例えば、複数の筐体等に分散して配置されていても良い。なお、サーバ10及び表示装置30は、同様のハードウェア構成を有しているため、以降では、主に、サーバ10のハードウェア構成について説明する。   FIG. 3 is a diagram illustrating an example of a hardware configuration of the server 10 and the display device 30. Although the hardware configurations of the server 10 and the display device 30 illustrated in FIG. 3 are illustrated as examples arranged in one housing, the present invention is not limited thereto. The hardware configurations of the server 10 and the display device 30 may be distributed in, for example, a plurality of cases so that the respective hardware can communicate with each other. Since the server 10 and the display device 30 have the same hardware configuration, the hardware configuration of the server 10 will be mainly described below.

サーバ10は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、HDD(Hard Disk Drive)105、及びメディアドライブ107を有する。また、サーバ10は、ディスプレイ108、ネットワークI/F109、キーボード111、マウス112、及び光学ドライブ114を有する。これらの各ハードウェアは、それぞれがバス110で互いに接続されている。   The server 10 includes a central processing unit (CPU) 101, a read only memory (ROM) 102, a random access memory (RAM) 103, a hard disk drive (HDD) 105, and a media drive 107. The server 10 also includes a display 108, a network I / F 109, a keyboard 111, a mouse 112, and an optical drive 114. Each of these pieces of hardware is connected to each other by a bus 110.

CPU101は、HD(Hard Disk)104に記憶されている画像処理プログラムを実行して、サーバ10の全体の動作を制御する。ROM102は、IPL(Initial Program Reader)等、CPU101の駆動に用いられるプログラムを記憶している。RAM103は、CPU101のワークエリアとして使用される主記憶装置である。HD104は、不揮発性メモリを搭載した記憶装置である。   The CPU 101 executes an image processing program stored in an HD (Hard Disk) 104 and controls the overall operation of the server 10. The ROM 102 stores a program used to drive the CPU 101 such as an IPL (Initial Program Reader). The RAM 103 is a main storage device used as a work area for the CPU 101. The HD 104 is a storage device equipped with a nonvolatile memory.

HDD105は、CPU101の制御に従ってHD104に対する各種データの読み出し又は書き込みを制御する。ディスプレイ108は、カーソル、メニュー、ウィンドウ、文字、又は画像等の各種情報を表示する。ネットワークI/F109は、ネットワークNとのインタフェースである。なお、サーバ10のディスプレイ108が表示装置30であっても良い。   The HDD 105 controls reading or writing of various data with respect to the HD 104 according to the control of the CPU 101. The display 108 displays various information such as a cursor, menu, window, character, or image. The network I / F 109 is an interface with the network N. The display 108 of the server 10 may be the display device 30.

キーボード111及びマウス112は、入出力装置である。キーボード111は、文字、数値、各種指示等の入力のための複数のキーを備え、これらの複数のキーからの入力を受け付ける。マウス112は、マウスポインターの移動及び各種指示の選択や実行、処理対象の選択等を受け付ける。   The keyboard 111 and the mouse 112 are input / output devices. The keyboard 111 includes a plurality of keys for inputting characters, numerical values, various instructions, and the like, and receives input from the plurality of keys. The mouse 112 receives movement of the mouse pointer, selection and execution of various instructions, selection of a processing target, and the like.

メディアドライブ107は、フラッシュメモリ等の記録メディア106に対する各種データの読み出し又は書き込みを制御する。光学ドライブ114は、着脱可能な記録媒体の一例としてのCD(Compact Disc)113等に対する各種データの読み出し又は書き込みを制御する。   The media drive 107 controls reading or writing of various data with respect to the recording medium 106 such as a flash memory. The optical drive 114 controls reading or writing of various data with respect to a CD (Compact Disc) 113 as an example of a removable recording medium.

なお、上記の画像処理プログラムは、例えば、インストール可能な形式又は実行可能な形式のファイルで、記録メディア106やCD113等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしても良い。画像処理プログラムは、例えば、所定のサーバ装置等からダウンロードされる形態で配布されても良い。   Note that the above-described image processing program may be recorded and distributed on a computer-readable recording medium such as the recording medium 106 or the CD 113, for example, in a file in an installable format or an executable format. For example, the image processing program may be distributed in a form downloaded from a predetermined server device or the like.

本実施形態に係るサーバ10及び表示装置30は、図3に示すハードウェア構成を有することにより、後述する各種処理を実現することができる。   The server 10 and the display device 30 according to the present embodiment can implement various processes described later by having the hardware configuration illustrated in FIG. 3.

図4は、加速度測定装置50のハードウェア構成の一例を示す図である。なお、図4では、一例として、加速度測定装置50がスマートフォンやタブレット端末である場合のハードウェア構成を示すが、加速度測定装置50のハードウェア構成は、これに限られない。   FIG. 4 is a diagram illustrating an example of a hardware configuration of the acceleration measuring device 50. In addition, in FIG. 4, although the hardware configuration in case the acceleration measuring apparatus 50 is a smart phone or a tablet terminal is shown as an example, the hardware configuration of the acceleration measuring apparatus 50 is not restricted to this.

加速度測定装置50は、CPU201、ROM202、RAM203、フラッシュメモリ204、加速度・方位センサ205、ジャイロセンサ206、及びメディアドライブ207を有する。また、加速度測定装置50は、音声入力装置210、音声出力装置211、通信装置212、GPS受信装置213、ディスプレイ214、及びタッチパネル215を有する。これらの各ハードウェアは、それぞれがバス209で互いに接続されている。   The acceleration measuring apparatus 50 includes a CPU 201, ROM 202, RAM 203, flash memory 204, acceleration / direction sensor 205, gyro sensor 206, and media drive 207. The acceleration measuring device 50 includes a voice input device 210, a voice output device 211, a communication device 212, a GPS receiver 213, a display 214, and a touch panel 215. These pieces of hardware are connected to each other via a bus 209.

CPU201は、フラッシュメモリ204に記憶されているプログラムを実行することで加速度測定装置50全体の動作を制御する。ROM202は、IPLや基本入出力プログラムを記憶している。RAM203は、CPU201がプログラムを実行する際にワークエリアとして使用される主記憶装置である。   The CPU 201 controls the overall operation of the acceleration measuring device 50 by executing a program stored in the flash memory 204. The ROM 202 stores IPL and basic input / output programs. A RAM 203 is a main storage device used as a work area when the CPU 201 executes a program.

フラッシュメモリ204は、加速度測定装置50が実行するプログラムや各種データを記憶する不揮発性の記憶装置である。なお、プログラムは、例えば、オペレーティングシステム、加速度測定装置50が実行する装置プログラム等である。   The flash memory 204 is a nonvolatile storage device that stores programs executed by the acceleration measuring device 50 and various data. The program is, for example, an operating system, a device program executed by the acceleration measuring device 50, or the like.

加速度・方位センサ205は、地磁気を検知する電子磁気コンパスとしての機能や3軸方向の加速度を測定する機能等を備えている。ジャイロセンサ206は、x軸、y軸、又はz軸に対して、加速度測定装置50が回転する際の角速度を検出する。なお、それぞれの軸の回転角度は、ヨー角、ピッチ角、ロール角と呼ばれる。   The acceleration / orientation sensor 205 has a function as an electronic magnetic compass for detecting geomagnetism, a function for measuring acceleration in three axial directions, and the like. The gyro sensor 206 detects an angular velocity when the acceleration measuring device 50 rotates with respect to the x axis, the y axis, or the z axis. The rotation angle of each axis is called a yaw angle, a pitch angle, and a roll angle.

メディアドライブ207は、フラッシュメモリ等の記録メディア208に対するデータの読み出し又は書き込み(記憶)を制御する。   The media drive 207 controls reading or writing (storage) of data with respect to a recording medium 208 such as a flash memory.

音声入力装置210は、音声を音声信号に変換するマイクである。音声出力装置211は、音声信号を音声に変換するスピーカである。通信装置212は、アンテナ212aを利用して無線通信信号により通信を行う。なお、通信装置212は、LANに接続するLANカード等であっても良い。   The voice input device 210 is a microphone that converts voice into a voice signal. The audio output device 211 is a speaker that converts an audio signal into audio. The communication device 212 performs communication using a wireless communication signal using the antenna 212a. The communication device 212 may be a LAN card connected to the LAN.

GPS受信装置213は、GPS衛星、又は屋内GPSとしてのIMES等によって加速度測定装置50の位置情報(例えば、緯度や経度、高度等)を検出する。   The GPS receiver 213 detects position information (for example, latitude, longitude, altitude, etc.) of the acceleration measuring device 50 by a GPS satellite or IMES as indoor GPS.

ディスプレイ214は、カーソル、メニュー、ウィンドウ、文字、又は画像等の各種情報を表示する。タッチパネル215は、ディスプレイ214上に重畳されており、指やタッチペン等による操作に対して、ディスプレイ214上におけるタッチ位置(座標)を検出する。   The display 214 displays various information such as a cursor, menu, window, character, or image. The touch panel 215 is superimposed on the display 214 and detects a touch position (coordinates) on the display 214 in response to an operation with a finger, a touch pen, or the like.

なお、上記の装置プログラムは、例えば、インストール可能な形式又は実行可能な形式のファイルで、記録メディア208等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしても良い。装置プログラムは、例えば、所定のサーバ装置等からダウンロードされる形態で配布されても良い。   Note that the above-described apparatus program may be recorded in a computer-readable recording medium such as the recording medium 208 and distributed, for example, in an installable or executable file. The device program may be distributed, for example, in a form downloaded from a predetermined server device or the like.

本実施形態に係る加速度測定装置50は、図4に示すハードウェア構成を有することにより、後述する各種処理を実現することができる。   The acceleration measuring apparatus 50 according to the present embodiment can realize various processes described later by having the hardware configuration shown in FIG.

図5は、全天球画像撮像装置60のハードウェア構成の一例を示す図である。図5では、一例として、全天球画像撮像装置60は、2つの撮像素子を使用した撮像装置であるものとして説明するが、撮像素子は3つ以上であっても良い。また、全天球画像撮像装置60は、必ずしも全天球画像を撮像するための専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全天球画像撮像ユニットを取り付けることで、実質的に全天球画像撮像装置60と同じ機能を有するようにしても良い。   FIG. 5 is a diagram illustrating an example of a hardware configuration of the omnidirectional image capturing apparatus 60. In FIG. 5, as an example, the omnidirectional image pickup device 60 is described as an image pickup device using two image pickup devices, but the number of image pickup devices may be three or more. Further, the omnidirectional image capturing device 60 is not necessarily a dedicated device for capturing an omnidirectional image. By attaching a retrospective omnidirectional image capturing unit to an ordinary digital camera, a smartphone, or the like. The omnidirectional image pickup device 60 may have substantially the same function.

全天球画像撮像装置60は、撮像ユニット301、画像処理ユニット304、撮像制御ユニット305、マイク308、音処理ユニット309、音声出力装置319、及びCPU311を有する。また、全天球画像撮像装置60は、ROM312、SRAM(Static RAM)313、DRAM(Dynamic RAM)314、操作装置315、外部I/F316、通信装置317、及び電子コンパス318を有する。   The omnidirectional image capturing device 60 includes an image capturing unit 301, an image processing unit 304, an image capturing control unit 305, a microphone 308, a sound processing unit 309, an audio output device 319, and a CPU 311. The omnidirectional image capturing device 60 includes a ROM 312, an SRAM (Static RAM) 313, a DRAM (Dynamic RAM) 314, an operation device 315, an external I / F 316, a communication device 317, and an electronic compass 318.

撮像ユニット301は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる、魚眼レンズ)302a及び302bと、各広角レンズに対応させて設けられている2つの撮像素子303a及び303bとを備えている。   The imaging unit 301 includes wide-angle lenses (so-called fish-eye lenses) 302a and 302b each having an angle of view of 180 ° or more for forming a hemispherical image, and two imaging elements 303a provided corresponding to the wide-angle lenses. And 303b.

撮像素子303a及び303bは、それぞれ対応する広角レンズ302a又は302bによる光学像を電気信号の画像データに変換して出力する画像センサ、この画像センサの水平又は垂直同期信号や画素クロック等を生成するタイミング生成回路等を有している。また、撮像素子303a及び303bは、これらの撮像素子の動作に必要な種々のコマンドやパラメータ等が設定されるレジスタ群等を有している。なお、画像センサは、例えば、CMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等が挙げられる。   The image sensors 303a and 303b each convert an optical image obtained by the corresponding wide-angle lens 302a or 302b into image data of an electrical signal and output it, and a timing for generating a horizontal or vertical synchronization signal, a pixel clock, and the like of the image sensor. A generation circuit and the like. The image sensors 303a and 303b include a register group in which various commands, parameters, and the like necessary for the operation of these image sensors are set. Examples of the image sensor include a CMOS (Complementary Metal Oxide Semiconductor) sensor and a CCD (Charge Coupled Device) sensor.

撮像ユニット301の撮像素子303a及び303bは、それぞれ、画像処理ユニット304とはパラレルI/Fバスで接続されている。また、撮像ユニット301の撮像素子303a及び303bは、撮像制御ユニット305とシリアルI/Fバス(I2Cバス等)で接続されている。   The imaging elements 303a and 303b of the imaging unit 301 are connected to the image processing unit 304 by a parallel I / F bus. In addition, the imaging elements 303a and 303b of the imaging unit 301 are connected to the imaging control unit 305 by a serial I / F bus (I2C bus or the like).

画像処理ユニット304及び撮像制御ユニット305は、バス310を介してCPU311と接続されている。また、バス310には、ROM312、SRAM313、DRAM314、操作装置315、外部I/F316、通信装置317、及び電子コンパス318等も接続されている。   The image processing unit 304 and the imaging control unit 305 are connected to the CPU 311 via the bus 310. In addition, a ROM 312, an SRAM 313, a DRAM 314, an operation device 315, an external I / F 316, a communication device 317, an electronic compass 318, and the like are connected to the bus 310.

画像処理ユニット304は、撮像素子303a及び303bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、正距円筒図法の画像の画像データを作成する。   The image processing unit 304 takes in the image data output from the image sensors 303a and 303b through the parallel I / F bus, performs predetermined processing on each image data, and then combines these image data. Create image data of equirectangular images.

撮像制御ユニット305は、一般に、撮像制御ユニット305をマスタデバイス、撮像素子303a及び303bをスレーブデバイスとして、I2Cバスを利用して、撮像素子303a及び303bのレジスタ群にコマンド等を設定する。このとき、必要なコマンド等は、CPU311から受け取る。また、撮像制御ユニット305は、同じくI2Cバスを利用して、撮像素子303a及び303bのレジスタ群のステータスデータ等を取り込み、CPU311に送る。   In general, the imaging control unit 305 sets a command or the like in a register group of the imaging elements 303a and 303b using the I2C bus with the imaging control unit 305 as a master device and the imaging elements 303a and 303b as slave devices. At this time, necessary commands and the like are received from the CPU 311. In addition, the imaging control unit 305 also uses the I2C bus to capture the status data of the register groups of the imaging elements 303a and 303b and send it to the CPU 311.

また、撮像制御ユニット305は、操作装置315のシャッターボタンが押下されたタイミングで、撮像素子303a及び303bに画像データの出力を指示する。全天球画像撮像装置60によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子303a及び303bからの画像データの出力は、所定のフレームレートによって連続して行われる。   The imaging control unit 305 instructs the imaging elements 303a and 303b to output image data at the timing when the shutter button of the operation device 315 is pressed. Some omnidirectional image capturing devices 60 may have a preview display function by a display or a function corresponding to a moving image display. In this case, output of image data from the image sensors 303a and 303b is continuously performed at a predetermined frame rate.

また、撮像制御ユニット305は、CPU311と協働して撮像素子303a及び303bの画像データの出力タイミングの同期をとる制御を行う。なお、本実施形態では、全天球画像撮像装置60には、表示装置が設けられていないが、表示装置が設けられていても良い。   In addition, the imaging control unit 305 performs control to synchronize the output timing of the image data of the imaging elements 303a and 303b in cooperation with the CPU 311. In the present embodiment, the omnidirectional imaging device 60 is not provided with a display device, but may be provided with a display device.

マイク308は、音を音データに変換する。音処理ユニット309は、マイク308から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施して音声信号を作成する。音声出力装置319は、音声信号を音声に変換するスピーカである。   The microphone 308 converts sound into sound data. The sound processing unit 309 takes in the sound data output from the microphone 308 through the I / F bus, performs predetermined processing on the sound data, and creates an audio signal. The audio output device 319 is a speaker that converts an audio signal into audio.

CPU311は、全天球画像撮像装置60の全体の動作を制御すると共に、必要な処理を実行する。ROM312は、CPU311のための種々のプログラムを記憶している。SRAM313及びDRAM314は、ワークメモリであり、CPU311で実行するプログラムや処理途中のデータ等を記憶する。特に、DRAM314は、画像処理ユニット304での処理途中の画像データや処理済みの正距円筒図法により作成された画像の画像データを記憶する。   The CPU 311 controls the overall operation of the omnidirectional image capturing apparatus 60 and executes necessary processing. The ROM 312 stores various programs for the CPU 311. The SRAM 313 and the DRAM 314 are work memories, and store programs executed by the CPU 311 and data being processed. In particular, the DRAM 314 stores image data being processed by the image processing unit 304 and image data of an image created by a processed equirectangular projection.

操作装置315は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネル等である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件等を入力することができる。   The operation device 315 is various operation buttons, a power switch, a shutter button, a touch panel having both display and operation functions, and the like. The user can input various imaging modes, imaging conditions, and the like by operating the operation buttons.

外部I/F316は、SDカード等の外付けのメディアやPC等とのインタフェース(例えば、USB I/F等)である。また、外部I/F316は、無線、有線を問わずにネットワークインタフェースであっても良い。DRAM314に記憶された正距円筒図法により作成された画像の画像データは、この外部I/F316を介して外付けのメディアに記録されたり、必要に応じて外部I/F316を介して外部装置(例えば、PC等)に送信されたりしても良い。   The external I / F 316 is an interface (for example, USB I / F) with an external medium such as an SD card or a PC. Further, the external I / F 316 may be a network interface regardless of wireless or wired. The image data of the image created by the equirectangular projection stored in the DRAM 314 is recorded on an external medium via the external I / F 316, or an external device (via the external I / F 316 as necessary). For example, it may be transmitted to a PC or the like.

通信装置317は、全天球画像撮像装置60に設けられたアンテナ317aを介して、Wi−Fi(Wireless Fidelity)、NFC、又はLTE(Long Term Evolution)等の無線技術によって外部装置と通信を行う。この通信装置317を介して、正距円筒図法により作成された画像の画像データを外部装置に送信しても良い。   The communication device 317 communicates with an external device by a wireless technology such as Wi-Fi (Wireless Fidelity), NFC, or LTE (Long Term Evolution) via an antenna 317 a provided in the omnidirectional image capturing device 60. . Image data of an image created by equirectangular projection may be transmitted to an external device via the communication device 317.

電子コンパス318は、地球の磁気から全天球画像撮像装置60の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)であり、例えば、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、画像データのデータ容量等も含まれる。   The electronic compass 318 calculates the azimuth and tilt (Roll rotation angle) of the omnidirectional imaging device 60 from the earth's magnetism, and outputs azimuth / tilt information. This azimuth / tilt information is related information (metadata) along Exif, and is used for image processing such as image correction of a captured image, for example. The related information includes the date and time of image capturing, the data capacity of image data, and the like.

本実施形態に係る全天球画像撮像装置60は、図5に示すハードウェア構成を有することにより、後述する各種処理を実現することができる。   The omnidirectional image capturing apparatus 60 according to the present embodiment has the hardware configuration shown in FIG. 5, and can implement various processes described later.

<機能構成>
次に、サーバ10、表示装置30、加速度測定装置50、及び全天球画像撮像装置60の機能構成について説明する。図6は、サーバ10、表示装置30、加速度測定装置50、及び全天球画像撮像装置60の機能ブロックの一例を示す図である。
<Functional configuration>
Next, functional configurations of the server 10, the display device 30, the acceleration measuring device 50, and the omnidirectional image capturing device 60 will be described. FIG. 6 is a diagram illustrating an example of functional blocks of the server 10, the display device 30, the acceleration measuring device 50, and the omnidirectional image capturing device 60.

≪サーバ10の機能構成≫
サーバ10は、通信部11、操作入力受付部12、同期指示部13、加速度データ加工部14、表示画像作成部15、画像調整部16、及び記憶・読出部19を有する。これらの各部は、図3に示されている各構成要素のいずれかが、RAM103上に展開された画像処理プログラム1010に従ったCPU101からの命令によって動作することで実現される。
<< Functional configuration of server 10 >>
The server 10 includes a communication unit 11, an operation input reception unit 12, a synchronization instruction unit 13, an acceleration data processing unit 14, a display image creation unit 15, an image adjustment unit 16, and a storage / readout unit 19. Each of these units is realized by any one of the constituent elements shown in FIG. 3 operating according to an instruction from the CPU 101 according to the image processing program 1010 expanded on the RAM 103.

また、サーバ10は、図3に示されているHD104、ROM102、及びRAM103のいずれか1つ以上によって構築される記憶部1000を有する。記憶部1000には、画像処理プログラム1010、測定データDB1001、及び画像データDB1002が記憶されている。測定データDB1001には、加速度測定装置50から送信された測定データが記憶される。画像データDB1002には、全天球画像撮像装置60から送信された画像データが記憶される。   Further, the server 10 includes a storage unit 1000 constructed by any one or more of the HD 104, the ROM 102, and the RAM 103 shown in FIG. The storage unit 1000 stores an image processing program 1010, a measurement data DB 1001, and an image data DB 1002. The measurement data DB 1001 stores measurement data transmitted from the acceleration measurement device 50. The image data DB 1002 stores image data transmitted from the omnidirectional image capturing device 60.

通信部11は、CPU101からの命令、及びネットワークI/F109等によって実現され、ネットワークNを介して、加速度測定装置50、全天球画像撮像装置60、及び表示装置30と各種データの送受信を行う。   The communication unit 11 is realized by a command from the CPU 101, a network I / F 109, and the like, and transmits and receives various data to and from the acceleration measuring device 50, the omnidirectional image capturing device 60, and the display device 30 via the network N. .

なお、以降では、サーバ10が通信部11の機能で通信する場合でも「通信部11を介して通信する」という記載を省略する場合がある。表示装置30、全天球画像撮像装置60、及び加速度測定装置50についても同様である。   Hereinafter, even when the server 10 communicates with the function of the communication unit 11, the description “communication via the communication unit 11” may be omitted. The same applies to the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50.

操作入力受付部12は、CPU101からの命令、キーボード111、及びマウス112等によって実現され、指導者等によるサーバ10への各種の操作や入力を受け付ける。   The operation input receiving unit 12 is realized by a command from the CPU 101, a keyboard 111, a mouse 112, and the like, and receives various operations and inputs to the server 10 by a leader or the like.

同期指示部13は、CPU101からの命令等により実現され、測定データと表示画像データとの同期に関する処理を行う。具体的には、同期指示部13は、同時期に、加速度測定装置50及び全天球画像撮像装置60に対して、それぞれ測定開始及び撮像開始を要求する。同様に、同期指示部13は、同時期に、加速度測定装置50及び全天球画像撮像装置60に対して、それぞれ測定終了及び撮像終了を要求する。また、同期指示部13は、同期のための絶対時刻を全天球画像撮像装置60及び加速度測定装置50に提供したりする。   The synchronization instructing unit 13 is realized by an instruction from the CPU 101, and performs processing related to synchronization between measurement data and display image data. Specifically, the synchronization instruction unit 13 requests the acceleration measurement device 50 and the omnidirectional image imaging device 60 to start measurement and imaging at the same time. Similarly, the synchronization instruction unit 13 requests the acceleration measuring device 50 and the omnidirectional image capturing device 60 to end measurement and image capturing at the same time. Further, the synchronization instruction unit 13 provides absolute time for synchronization to the omnidirectional image capturing device 60 and the acceleration measuring device 50.

加速度データ加工部14は、CPU101からの命令等により実現され、離散的な測定データを、例えば、滑らかに結合する等により、時間軸に対して連続的なグラフで表されるデータに変換する。   The acceleration data processing unit 14 is realized by a command or the like from the CPU 101, and converts discrete measurement data into data represented by a continuous graph with respect to the time axis, for example, by smoothly combining the data.

表示画像作成部15は、CPU101からの命令等により実現され、全天球画像撮像装置60から受信した画像データに基づいて、表示画像データを作成する。   The display image creating unit 15 is realized by an instruction from the CPU 101 and the like, and creates display image data based on the image data received from the omnidirectional image capturing device 60.

すなわち、表示画像作成部15は、例えば、画像データに含まれるフレームデータ毎に、フレームデータと、当該フレームデータに写っている歩行者200を識別する歩行者ID及び当該歩行者200の位置とを対応付けることで、表示フレームデータを作成する。そして、表示画像作成部15は、このように作成した表示フレームデータが含まれるように表示画像データを作成する。   That is, for example, for each frame data included in the image data, the display image creation unit 15 determines the frame data, the pedestrian ID that identifies the pedestrian 200 reflected in the frame data, and the position of the pedestrian 200. Display frame data is created by associating with each other. Then, the display image creation unit 15 creates display image data so that the display frame data created in this way is included.

画像調整部16は、CPU101からの命令等により実現され、表示画像作成部15により作成された表示画像データと、加速度測定装置50から取得した測定データとの時間軸を同期させる。   The image adjustment unit 16 is realized by an instruction from the CPU 101 and the like, and synchronizes the time axes of the display image data created by the display image creation unit 15 and the measurement data acquired from the acceleration measuring device 50.

記憶・読出部19は、CPU101からの命令及びHDD105等により実現され、記憶部1000に各種データを記憶したり、記憶部1000に記憶されている各種データを読み出したりする処理を行う。   The storage / reading unit 19 is realized by an instruction from the CPU 101, the HDD 105, and the like, and performs processing for storing various data in the storage unit 1000 and reading various data stored in the storage unit 1000.

なお、以降では、サーバ10が記憶部1000にアクセスする場合でも「記憶・読出部19を介して読み書きする」という記載を省略する場合がある。表示装置30、全天球画像撮像装置60、及び加速度測定装置50についても同様である。   Hereinafter, even when the server 10 accesses the storage unit 1000, the description “read / write via the storage / reading unit 19” may be omitted. The same applies to the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50.

≪表示装置30の機能構成≫
表示装置30は、通信部31、表示制御部32、操作入力受付部33、画像回転部34、及び記憶・読出部39を有する。これら各部は、図3に示されている各構成要素のいずれかが、RAM103上に展開された端末プログラム3010に従ったCPU101からの命令によって動作することで実現される。なお、これら各部は、端末プログラム3010に限られず、例えば、サーバ10が送信するWebページ(HTML(HyperText Markup Language)、XML(Extensible Markup Language)、JavaScript(登録商標)等)によって実現されても良い。
<< Functional Configuration of Display Device 30 >>
The display device 30 includes a communication unit 31, a display control unit 32, an operation input reception unit 33, an image rotation unit 34, and a storage / readout unit 39. Each of these units is realized by any one of the components shown in FIG. 3 operating according to a command from the CPU 101 according to the terminal program 3010 expanded on the RAM 103. These units are not limited to the terminal program 3010, and may be realized by, for example, a Web page (HTML (HyperText Markup Language), XML (Extensible Markup Language), JavaScript (registered trademark), etc.) transmitted by the server 10. .

また、表示装置30は、図3に示されているHD104、ROM102、及びRAM103のいずれか1つ以上によって構築される記憶部3000を有する。記憶部3000には、端末プログラム3010が記憶されている。また、記憶部3000にはサーバ10から送信された測定データと表示画像データとが記憶される。   In addition, the display device 30 includes a storage unit 3000 configured by any one or more of the HD 104, the ROM 102, and the RAM 103 illustrated in FIG. The storage unit 3000 stores a terminal program 3010. The storage unit 3000 stores measurement data and display image data transmitted from the server 10.

通信部31は、CPU101からの命令、及びネットワークI/F109等によって実現され、ネットワークNを介してサーバ10と各種データの送受信を行う。   The communication unit 31 is realized by a command from the CPU 101, a network I / F 109, and the like, and transmits and receives various data to and from the server 10 via the network N.

表示制御部32は、CPU101からの命令等によって実現され、サーバ10から受信した表示画像データと測定データとをディスプレイ108に表示する。   The display control unit 32 is realized by an instruction from the CPU 101 and the like, and displays the display image data and measurement data received from the server 10 on the display 108.

操作入力受付部33は、CPU101からの命令、キーボード111、及びマウス112等によって実現され、指導者等による表示装置30への各種の操作や入力を受け付ける。   The operation input receiving unit 33 is realized by a command from the CPU 101, a keyboard 111, a mouse 112, and the like, and receives various operations and inputs to the display device 30 by a leader or the like.

画像回転部34は、CPU101からの命令等によって実現され、歩行者200が写っている範囲がディスプレイ108に表示されるように、全天球画像である表示画像データを水平方向に回転させる(又はトリミングする)。   The image rotation unit 34 is realized by a command from the CPU 101 or the like, and rotates display image data that is an omnidirectional image in the horizontal direction so that the range in which the pedestrian 200 is reflected is displayed on the display 108 (or Trimming).

記憶・読出部39は、CPU101からの命令及びHDD105等により実現され、記憶部3000に各種データを記憶したり、記憶部3000に記憶された各種データを読み出したりする処理を行う。   The storage / reading unit 39 is realized by an instruction from the CPU 101, the HDD 105, and the like, and performs a process of storing various data in the storage unit 3000 and reading out various data stored in the storage unit 3000.

≪加速度測定装置50の機能構成≫
加速度測定装置50は、通信部51、加速度検出部52、音出力部53、及び記憶・読出部59を有する。これら各部は、図4に示されている各構成要素のいずれかが、RAM203上に展開された装置プログラム5010に従ったCPU201からの命令によって動作することで実現される。
≪Functional configuration of acceleration measuring device 50≫
The acceleration measuring device 50 includes a communication unit 51, an acceleration detection unit 52, a sound output unit 53, and a storage / readout unit 59. Each of these units is realized by any one of the constituent elements shown in FIG. 4 operating according to a command from the CPU 201 according to the device program 5010 expanded on the RAM 203.

また、加速度測定装置50は、図4に示されているフラッシュメモリ204、ROM202及びRAM203のいずれか1つ以上によって構築される記憶部5000を有する。記憶部5000には、装置プログラム5010が記憶されている。また、記憶部5000には、加速度測定装置50が測定した加速度等の測定値を含む測定データが記憶される。   Further, the acceleration measuring apparatus 50 includes a storage unit 5000 configured by any one or more of the flash memory 204, the ROM 202, and the RAM 203 illustrated in FIG. The storage unit 5000 stores an apparatus program 5010. Further, the storage unit 5000 stores measurement data including measurement values such as acceleration measured by the acceleration measuring device 50.

通信部51は、CPU201からの命令、及び通信装置212等によって実現され、ネットワークNを介してサーバ10と各種データの送受信を行う。   The communication unit 51 is realized by a command from the CPU 201, the communication device 212, and the like, and transmits and receives various data to and from the server 10 via the network N.

加速度検出部52は、CPU201からの命令、及び加速度・方位センサ205等によって実現され、加速度測定装置50に生じる加速度を測定する。加速度は、一定間隔又は不定期に測定され、時間と共に変化する加速度が測定値として得られる。そして、加速度検出部52は、時系列で得られた測定値を含む測定データを記憶部5000に記憶する。   The acceleration detection unit 52 is realized by a command from the CPU 201 and the acceleration / direction sensor 205 and the like, and measures the acceleration generated in the acceleration measuring device 50. The acceleration is measured at regular intervals or irregularly, and an acceleration that changes with time is obtained as a measurement value. Then, the acceleration detection unit 52 stores measurement data including measurement values obtained in time series in the storage unit 5000.

音出力部53は、CPU201からの命令、及び音声出力装置211等によって実現され、例えばブザー音等の音を出力する。   The sound output unit 53 is realized by a command from the CPU 201, the sound output device 211, and the like, and outputs a sound such as a buzzer sound.

記憶・読出部59は、CPU201からの命令、フラッシュメモリ204、ROM202、及びRAM203等により実現され、記憶部5000に各種データを記憶したり、記憶部5000に記憶された各種データを読み出したりする処理を行う。   The storage / reading unit 59 is realized by an instruction from the CPU 201, the flash memory 204, the ROM 202, the RAM 203, and the like, and stores various data in the storage unit 5000 and reads out various data stored in the storage unit 5000. I do.

≪全天球画像撮像装置60の機能構成≫
全天球画像撮像装置60は、通信部61、撮像部62、音出力部63、及び記憶・読出部69を有する。これら各部は、図5に示されている各構成要素のいずれかが、SRAM313又はDRAM314に展開された撮像プログラム6010に従ったCPU311からの命令によって動作することで実現される。
≪Functional configuration of omnidirectional imaging device 60≫
The omnidirectional image capturing apparatus 60 includes a communication unit 61, an image capturing unit 62, a sound output unit 63, and a storage / readout unit 69. Each of these units is realized by any one of the constituent elements illustrated in FIG. 5 operating according to a command from the CPU 311 according to the imaging program 6010 expanded in the SRAM 313 or the DRAM 314.

また、全天球画像撮像装置60は、図5に示されているROM312、SRAM313及びDRAM314のいずれか1つ以上によって構築される記憶部6000を有する。記憶部6000には、撮像プログラム6010が記憶されている。また、記憶部6000には、全天球画像撮像装置60により撮像された画像データが記憶される。   Further, the omnidirectional image capturing device 60 includes a storage unit 6000 constructed by one or more of the ROM 312, the SRAM 313, and the DRAM 314 shown in FIG. The storage unit 6000 stores an imaging program 6010. The storage unit 6000 stores image data captured by the omnidirectional image capturing device 60.

通信部61は、CPU311からの命令、通信装置317、及び外部I/F316等によって実現され、ネットワークNを介してサーバ10と各種データの送受信を行う。   The communication unit 61 is realized by an instruction from the CPU 311, a communication device 317, an external I / F 316, and the like, and transmits / receives various data to / from the server 10 via the network N.

撮像部62は、CPU311からの命令、撮像ユニット301、及び画像処理ユニット304等によって実現され、全天球画像を撮像し画像データを生成する。すなわち、撮像部62は、例えば、一定間隔又は不定期に撮像することで、撮像間隔毎のフレームデータが含まれる画像データを生成する。   The imaging unit 62 is realized by a command from the CPU 311, the imaging unit 301, the image processing unit 304, and the like, and captures an omnidirectional image and generates image data. That is, the imaging unit 62 generates image data including frame data for each imaging interval, for example, by capturing images at regular intervals or irregularly.

音出力部63は、CPU311からの命令、及び音声出力装置319等によって実現され、例えばブザー音等の音を出力する。   The sound output unit 63 is realized by a command from the CPU 311, a sound output device 319, and the like, and outputs a sound such as a buzzer sound.

なお、本実施形態では、上述したように、画像データは、動画の画像データであるものとして説明するが、これに限られず、静止画の画像データであっても良い。この場合、撮像部62は、例えば、歩行者200が歩行している間に、所定の時間の間隔毎に撮像することで、複数の画像データを生成すれば良い。   In the present embodiment, as described above, the image data is described as moving image data, but is not limited thereto, and may be still image data. In this case, for example, the imaging unit 62 may generate a plurality of image data by capturing images at predetermined time intervals while the pedestrian 200 is walking.

そして、撮像部62は、時系列のフレームデータが含まれる画像データを記憶部6000に記憶する。なお、撮像部62は、静止画の画像データを生成した場合には、時系列の複数の画像データを記憶部6000に記憶する。   Then, the imaging unit 62 stores image data including time-series frame data in the storage unit 6000. Note that the imaging unit 62 stores a plurality of time-series image data in the storage unit 6000 when image data of a still image is generated.

記憶・読出部69は、CPU311からの命令、ROM312、SRAM313及びDRAM314のいずれか1つ以上によって実現され、記憶部6000に各種データを記憶したり、記憶部6000に記憶された各種データを読み出したりする処理を行う。   The storage / reading unit 69 is realized by any one or more of instructions from the CPU 311, ROM 312, SRAM 313, and DRAM 314. The storage / reading unit 69 stores various data in the storage unit 6000 and reads various data stored in the storage unit 6000. Perform the process.

<歩行者200の歩行について>
ここで、全天球画像撮像装置60の周囲を歩行者200A及び歩行者200Bがどのように歩行するかについて説明する。図7は、歩行者200の歩行の一例を説明する図である。
<About walking of pedestrian 200>
Here, how the pedestrian 200A and the pedestrian 200B walk around the omnidirectional image capturing device 60 will be described. FIG. 7 is a diagram for explaining an example of walking of the pedestrian 200.

歩行者200Aは、加速度測定装置50Aを腰等に装着している。同様に、歩行者200Bは、加速度測定装置50Bを腰等に装着している。加速度測定装置50が装着される場所は、歩行者200の重心に近い場所であることが好ましいが、腰の他、胸、背中、胴部等に装着されても良い。また、歩行者200は、複数台の加速度測定装置50を装着していても良い。   The pedestrian 200A wears the acceleration measuring device 50A on the waist or the like. Similarly, the pedestrian 200B wears the acceleration measuring device 50B on the waist or the like. The place where the acceleration measuring device 50 is attached is preferably a place close to the center of gravity of the pedestrian 200, but may be attached to the chest, back, torso, etc. in addition to the waist. The pedestrian 200 may be equipped with a plurality of acceleration measuring devices 50.

このとき、図7(a)に示すように、歩行者200Aは、地点PからラインLに沿って、全天球画像撮像装置60の周囲を旋回するように歩行する。同様に、図7(a)に示すように、歩行者200Bは、地点PからラインLに沿って、全天球画像撮像装置60の周囲を旋回するように歩行する。 At this time, as shown in FIG. 7 (a), the pedestrian 200A along from the point P 1 the line L, walks to pivot around the omnidirectional imaging apparatus 60. Similarly, as shown in FIG. 7 (a), the pedestrian 200B along from the point P 2 on the line L, walks to pivot around the omnidirectional imaging apparatus 60.

このように、歩行者200A及び歩行者200BがラインLに沿って歩行することで、全天球画像撮像装置60は、歩行者200A及び歩行者200Bの歩行動作を同時に撮像することができる。したがって、指導者等は、表示画像データを確認することで、例えば、歩行者200A及び歩行者200Bが旋回して歩行している場合の歩行動作を比較しながら評価することができるようになる。   Thus, when the pedestrian 200A and the pedestrian 200B walk along the line L, the omnidirectional image capturing device 60 can simultaneously capture the walking motions of the pedestrian 200A and the pedestrian 200B. Therefore, the instructor and the like can evaluate the walking image when the pedestrian 200A and the pedestrian 200B are walking while turning by checking the display image data.

なお、複数の歩行者200間の歩行動作の比較を容易にするため、又は歩行者200自身が歩行する経路を認識できるように、ラインL上にマーカ等が配置されていても良い。これにより、指導者等は、表示画像データを確認する際に、全天球画像撮像装置60に対する各歩行者200の位置を容易に把握できる。   Note that a marker or the like may be arranged on the line L in order to make it easy to compare walking motions between the plurality of pedestrians 200 or to recognize a route on which the pedestrian 200 itself walks. Thereby, a leader etc. can grasp | ascertain easily the position of each pedestrian 200 with respect to the omnidirectional image imaging device 60, when confirming display image data.

なお、各歩行者200がラインLに沿って歩行している間、各歩行者200が装着している加速度測定装置50は、各歩行者200の加速度を測定している。歩行者200と加速度測定装置50の相対位置は固定されているものとして、歩行者200の進行方向(前方)をx方向、左右方向をy方向、垂直方向をz方向とする。   In addition, while each pedestrian 200 is walking along the line L, the acceleration measurement device 50 worn by each pedestrian 200 measures the acceleration of each pedestrian 200. Assuming that the relative position of the pedestrian 200 and the acceleration measuring device 50 is fixed, the traveling direction (front) of the pedestrian 200 is the x direction, the left and right direction is the y direction, and the vertical direction is the z direction.

ここで、歩行者200は、円形状のラインLの全体を歩行しなければならないわけではなく、歩行動作の評価に適切な距離以上、歩行すれば良い。また、歩行者200は、円形状のラインLを1周以上歩行しても良い。   Here, the pedestrian 200 does not have to walk the entire circular line L, and may walk more than a distance appropriate for the evaluation of the walking motion. In addition, the pedestrian 200 may walk the circular line L one or more times.

また、図7(b)に示すように、同一の地点PからラインLに沿って、まず、歩行者200Aが先行して歩行を開始した後、続いて歩行者200Bが歩行を開始しても良い。 Further, as shown in FIG. 7 (b), along the same point P 1 the line L, first, the pedestrian 200A has started walking ahead, followed by pedestrians 200B starts to walk Also good.

図7(b)は、歩行者200が地点Pから歩行を開始して、直線部分Sを含むラインLに沿って歩行をする場合を示している。この場合、歩行者200がラインLに沿って歩行すると、歩行者200は右折や左折を行うため、全天球画像撮像装置60は右折や左折する際の歩行者200を撮像できる。 FIG. 7B shows a case where the pedestrian 200 starts walking from the point P 1 and walks along the line L including the straight line portion S. In this case, when the pedestrian 200 walks along the line L, since the pedestrian 200 makes a right turn or a left turn, the omnidirectional image capturing device 60 can capture the pedestrian 200 when making a right turn or a left turn.

また、歩行者200は、直線部分Sに沿って往復するので、全天球画像撮像装置60は、背後から歩行する歩行者200、180°の方向転換を行う歩行者200、及び全天球画像撮像装置60に正面から接近する歩行者200を撮像することができる。   Further, since the pedestrian 200 reciprocates along the straight line portion S, the omnidirectional image capturing device 60 includes the pedestrian 200 walking from behind, the pedestrian 200 performing a 180 ° change of direction, and the omnidirectional image. A pedestrian 200 approaching the imaging device 60 from the front can be imaged.

なお、歩行者200が歩行するラインLは、上記に限られず、例えば、8の字等で合っても良い。すなわち、ラインLは、歩行動作を評価するために好ましい形状であれば良い。また、図7では、歩行者200A及び歩行者200Bが時計回りに旋回しながら歩行する場合を示しているが、例えば、歩行者200Aが時計回りに旋回しながら歩行する一方で、歩行者200Bが反時計回りに旋回しながら歩行しても良い。   Note that the line L on which the pedestrian 200 walks is not limited to the above, and may be a figure 8 or the like, for example. That is, the line L should just be a shape preferable in order to evaluate walking motion. 7 shows a case where the pedestrian 200A and the pedestrian 200B walk while turning clockwise. For example, while the pedestrian 200A walks while turning clockwise, the pedestrian 200B You may walk while turning counterclockwise.

<動作手順>
≪全体的な動作≫
図8は、画像表示システム100の全体的な動作の一例を説明するシーケンス図である。図8は、サーバ10が、加速度測定装置50及び全天球画像撮像装置60に対して、それぞれ測定開始の要求及び撮像開始の要求を行う場合のシーケンス図である。
<Operation procedure>
≪Overall operation≫
FIG. 8 is a sequence diagram illustrating an example of the overall operation of the image display system 100. FIG. 8 is a sequence diagram when the server 10 issues a measurement start request and an imaging start request to the acceleration measuring device 50 and the omnidirectional image capturing device 60, respectively.

まず、歩行動作の測定を始める際、指導者等は、歩行動作の測定を開始するための操作をサーバ10に入力する。すると、サーバ10の操作入力受付部12は、指導者等の操作を受け付ける(ステップS101)。   First, when starting measurement of walking motion, a leader or the like inputs an operation for starting measurement of walking motion to the server 10. Then, the operation input reception part 12 of the server 10 receives operation of a leader etc. (step S101).

次に、サーバ10の同期指示部13は、操作入力受付部12により指導者等の操作を受け付けると、通信部11を介して、測定開始要求を加速度測定装置50A及び加速度測定装置50Bのそれぞれに送信する(ステップS102及びステップS103)。   Next, when the synchronization input unit 13 of the server 10 receives an operation of a leader or the like by the operation input receiving unit 12, a measurement start request is sent to each of the acceleration measuring device 50A and the acceleration measuring device 50B via the communication unit 11. Transmit (step S102 and step S103).

加速度測定装置50A及び加速度測定装置50Bの音出力部53は、通信部51により測定開始要求を受信すると、それぞれブザー音等を出力する(ステップS104及びステップS105)。これにより、加速度測定装置50Aを装着している歩行者200Aは、歩行を開始して良いことを知ることができる。同様に、加速度測定装置50Bを装着している歩行者200Bは、歩行を開始して良いことを知ることができる。   When the communication unit 51 receives the measurement start request, the sound output unit 53 of the acceleration measurement device 50A and the acceleration measurement device 50B outputs a buzzer sound or the like (step S104 and step S105). Thereby, the pedestrian 200A wearing the acceleration measuring device 50A can know that the walking may be started. Similarly, the pedestrian 200B wearing the acceleration measuring device 50B can know that the walking may be started.

なお、加速度測定装置50は、例えば、「歩行を開始して下さい」等の音声メッセージ、バイブレーション機能による振動、ディスプレイ214へのメッセージの表示、ディスプレイ214の明滅等により歩行者200に歩行開始を知らせても良い。   The acceleration measuring device 50 notifies the pedestrian 200 of the start of walking by, for example, a voice message such as “Please start walking”, vibration by the vibration function, display of a message on the display 214, blinking of the display 214, or the like. May be.

また、加速度測定装置50A及び加速度測定装置50Bは、同時にブザー音等を出力する必要はない。例えば、歩行者200Aが歩行者200Bに先行して歩行を開始する場合には、加速度測定装置50Aが先にブザー音等を出力して、その後、加速度測定装置50Bがブザー音等を出力しても良い。   Further, the acceleration measuring device 50A and the acceleration measuring device 50B do not need to output a buzzer sound or the like at the same time. For example, when the pedestrian 200A starts walking before the pedestrian 200B, the acceleration measuring device 50A outputs a buzzer sound first, and then the acceleration measuring device 50B outputs a buzzer sound or the like. Also good.

次に、サーバ10の同期指示部13は、通信部11を介して、撮像開始要求を全天球画像撮像装置60に送信する(ステップS106)。   Next, the synchronization instruction unit 13 of the server 10 transmits an imaging start request to the omnidirectional image imaging device 60 via the communication unit 11 (step S106).

全天球画像撮像装置60の音出力部63は、通信部61により撮像開始要求を受信すると、ブザー音等を出力する(ステップS107)。これにより、上記と同様に、歩行者200は、歩行を開始して良いことを知ることができる。   When the communication unit 61 receives the imaging start request, the sound output unit 63 of the omnidirectional image capturing apparatus 60 outputs a buzzer sound or the like (step S107). Thereby, similarly to the above, the pedestrian 200 can know that the walking may be started.

なお、全天球画像撮像装置60は、上記のステップS104及びステップS105と同様に、音声メッセージや振動等により歩行者200に歩行開始を知らせても良い。   Note that the omnidirectional image capturing device 60 may notify the pedestrian 200 of the start of walking by means of a voice message, vibration, or the like, similar to steps S104 and S105 described above.

また、全天球画像撮像装置60は、歩行者200の視野に入る場合があるので、例えば、パトランプ等を点灯させても良い。これにより、歩行者200だけでなく周囲の指導者等も、歩行者200が歩行を開始して良いことを知ることができる。   Further, since the omnidirectional image capturing device 60 may enter the field of view of the pedestrian 200, for example, a patrol lamp or the like may be turned on. Thereby, not only the pedestrian 200 but also the surrounding leaders can know that the pedestrian 200 may start walking.

なお、ステップS104、ステップS105、及びステップS107のブザーによる通知は、いずれか1つが行われれば良い。   Note that any one of notifications by the buzzer in steps S104, S105, and S107 may be performed.

次に、加速度測定装置50A及び加速度測定装置50Bの加速度検出部52は、加速度の測定をそれぞれ開始する(ステップS108及びステップS109)。そして、加速度測定装置50A及び加速度測定装置50Bの加速度検出部52は、歩行者200が歩行している間に生じる加速度をそれぞれ測定して、時系列で得られた測定値を含む測定データをそれぞれ記憶部5000に記憶させる。   Next, the acceleration detector 52 of the acceleration measuring device 50A and the acceleration measuring device 50B starts measuring the acceleration, respectively (step S108 and step S109). Then, the acceleration detectors 52 of the acceleration measuring device 50A and the acceleration measuring device 50B respectively measure the acceleration generated while the pedestrian 200 is walking, and each of the measurement data including the measurement values obtained in time series is obtained. The data is stored in the storage unit 5000.

また、全天球画像撮像装置60の撮像部62は、撮像を開始する(ステップS110)。そして、全天球画像撮像装置60の撮像部62は、歩行する歩行者200を撮像することで得られた画像データを記憶部6000に記憶させる。   Further, the imaging unit 62 of the omnidirectional image imaging device 60 starts imaging (step S110). Then, the imaging unit 62 of the omnidirectional image imaging device 60 stores image data obtained by imaging the walking pedestrian 200 in the storage unit 6000.

このように、加速度測定装置50及び全天球画像撮像装置60は、サーバ10からの指示により、測定データの測定開始と画像データの撮像開始とをほぼ同時に同期させることができる。   As described above, the acceleration measuring device 50 and the omnidirectional image capturing device 60 can synchronize the measurement data measurement start and the image data imaging start almost simultaneously with an instruction from the server 10.

なお、ステップS102、ステップS103、及びステップS106の順序は順不同である。サーバ10は、同時期に、測定開始要求と撮像開始要求とを、それぞれ加速度測定装置50と全天球画像撮像装置60に送信すれば良い。   Note that the order of step S102, step S103, and step S106 is random. The server 10 may transmit the measurement start request and the imaging start request to the acceleration measuring device 50 and the omnidirectional image capturing device 60, respectively, at the same time.

次に、例えば、歩行者200が十分に歩行したと指導者等が判断した場合、指導者等は、歩行動作の測定を終了する操作をサーバ10に入力する。すると、サーバ10の操作入力受付部12は、指導者等の操作を受け付ける(ステップS111)。   Next, for example, when a leader or the like determines that the pedestrian 200 has sufficiently walked, the leader or the like inputs an operation to end the measurement of the walking motion to the server 10. Then, the operation input reception part 12 of the server 10 receives operation of a leader etc. (step S111).

次に、サーバ10の同期指示部13は、操作入力受付部12により指導者等の操作を受け付けると、通信部11を介して、測定終了要求を加速度測定装置50A及び加速度測定装置50Bのそれぞれに送信する(ステップS112及びステップS113)。   Next, when the synchronization instruction unit 13 of the server 10 receives an operation of a leader or the like by the operation input reception unit 12, a measurement end request is sent to each of the acceleration measurement device 50A and the acceleration measurement device 50B via the communication unit 11. Transmit (step S112 and step S113).

そして、加速度測定装置50A及び加速度測定装置50Bの加速度検出部52は、通信部51により測定終了要求を受信すると、加速度の測定をそれぞれ終了する。なお、ステップS104及びステップS105と同様に、測定の終了をブザー等で歩行者200等に通知しても良い。   And the acceleration detection part 52 of 50 A of acceleration measuring apparatuses and the acceleration measuring apparatus 50B will respectively complete | finish the measurement of acceleration, if the measurement end request | requirement is received by the communication part 51. FIG. Note that, similarly to step S104 and step S105, the end of measurement may be notified to the pedestrian 200 or the like with a buzzer or the like.

次に、サーバ10の同期指示部13は、通信部11を介して、撮像終了要求を全天球画像撮像装置60に送信する(ステップS114)。そして、全天球画像撮像装置60の撮像部62は、通信部61により撮像終了要求を受信すると、撮像を終了する。なお、ステップS107と同様に、撮像の終了をブザー等で歩行者200等に通知しても良い。   Next, the synchronization instruction unit 13 of the server 10 transmits an imaging end request to the omnidirectional image imaging device 60 via the communication unit 11 (step S114). Then, when the imaging unit 62 of the omnidirectional image imaging device 60 receives the imaging end request through the communication unit 61, the imaging unit 62 ends imaging. Note that, similarly to step S107, the end of imaging may be notified to the pedestrian 200 or the like with a buzzer or the like.

このように、加速度測定装置50及び全天球画像撮像装置60は、サーバ10からの指示により、測定データの測定終了と画像データの撮像終了とをほぼ同時に同期させることができる。   In this way, the acceleration measuring device 50 and the omnidirectional image capturing device 60 can synchronize the measurement data measurement end and the image data image capturing end almost simultaneously in response to an instruction from the server 10.

なお、ステップS112、ステップS113、及びステップS114の順序は順不同である。サーバ10は、同時期に、測定終了要求と撮像終了要求とを、それぞれ加速度測定装置50と全天球画像撮像装置60に送信すれば良い。   In addition, the order of step S112, step S113, and step S114 is random. The server 10 may transmit a measurement end request and an imaging end request to the acceleration measuring device 50 and the omnidirectional image capturing device 60, respectively, at the same time.

次に、加速度測定装置50A及び加速度測定装置50Bの通信部51は、それぞれ記憶部5000に記憶されている測定データA及び測定データBをサーバ10に送信する(ステップS115及びステップS116)。また、全天球画像撮像装置60の通信部61は、記憶部6000に記憶されている画像データをサーバ10に送信する(ステップS117)。   Next, the communication unit 51 of the acceleration measuring device 50A and the acceleration measuring device 50B transmits the measurement data A and the measurement data B stored in the storage unit 5000 to the server 10 (step S115 and step S116). Further, the communication unit 61 of the omnidirectional image capturing apparatus 60 transmits the image data stored in the storage unit 6000 to the server 10 (step S117).

次に、サーバ10の加速度データ加工部14は、通信部11により測定データA、測定データB、及び画像データを受信すると、測定データA及び測定データBを測定データDB1001に、画像データを画像データDB1002にそれぞれ記憶させる。そして、加速度データ加工部14は、離散的なデータである測定データA及び測定データBを、それぞれ、例えば、折線グラフ等で表される連続的なデータに加工する(ステップS118)。なお、このような加工は、表示装置30が行っても良い。   Next, when the acceleration data processing unit 14 of the server 10 receives the measurement data A, the measurement data B, and the image data through the communication unit 11, the measurement data A and the measurement data B are stored in the measurement data DB 1001, and the image data is converted into the image data. Each of them is stored in the DB 1002. Then, the acceleration data processing unit 14 processes the measurement data A and measurement data B, which are discrete data, into continuous data represented by, for example, a line graph (step S118). Such processing may be performed by the display device 30.

次に、サーバ10の表示画像作成部15は、全天球画像撮像装置60から受信した画像データに基づいて、表示画像データを作成する(ステップS119)。すなわち、表示画像作成部15は、例えば、画像データに含まれるフレームデータ毎に、フレームデータと、当該フレームデータに写っている歩行者200の歩行者ID及び位置とを対応付けた表示フレームデータを作成する。そして、表示画像作成部15は、作成した表示フレームデータが含まれるように表示画像データを作成する。なお、歩行者IDとは、各歩行者200を識別するための識別情報であり、同一の歩行者200に対して同一の歩行者IDが付与される。   Next, the display image creation unit 15 of the server 10 creates display image data based on the image data received from the omnidirectional image capturing device 60 (step S119). That is, for example, the display image creating unit 15 displays, for each frame data included in the image data, display frame data in which the frame data is associated with the pedestrian ID and position of the pedestrian 200 reflected in the frame data. create. Then, the display image creation unit 15 creates display image data so that the created display frame data is included. The pedestrian ID is identification information for identifying each pedestrian 200, and the same pedestrian ID is assigned to the same pedestrian 200.

これにより、全天球画像撮像装置60で撮像された画像に複数の歩行者200が写っている場合に、例えば、表示装置30において、指導者等の選択に応じて、歩行者200毎に表示を切り替えることができるようになる。このため、指導者等は、各歩行者200の歩行動作の確認、各歩行者200間の歩行動作の比較等が行い易くなる。なお、ステップS119の処理の詳細については後述する。   Thereby, when the several pedestrian 200 is reflected in the image imaged with the omnidirectional image imaging device 60, for example, in the display device 30, it displays for every pedestrian 200 according to selection of a leader etc. Can be switched. For this reason, it becomes easy for a leader etc. to perform confirmation of the walking motion of each pedestrian 200, comparison of walking motion between each pedestrian 200, etc. Details of the process in step S119 will be described later.

次に、サーバ10の画像調整部16は、測定データAと表示画像データの時間軸、及び測定データBと表示画像データの時間軸をそれぞれ同期させる処理を行う(ステップS120)。すなわち、画像調整部16は、測定データAに含まれる各測定値と、表示画像データに含まれる各表示フレームデータと、歩行者200Aの歩行者IDとを対応付ける。同様に、画像調整部16は、測定データBに含まれる各測定値と、表示画像データに含まれる各表示フレームデータと、歩行者200Bの歩行者IDとを対応付ける。   Next, the image adjustment unit 16 of the server 10 performs a process of synchronizing the measurement data A and the time axis of the display image data, and the measurement data B and the time axis of the display image data, respectively (step S120). That is, the image adjustment unit 16 associates each measurement value included in the measurement data A, each display frame data included in the display image data, and the pedestrian ID of the pedestrian 200A. Similarly, the image adjustment unit 16 associates each measurement value included in the measurement data B, each display frame data included in the display image data, and the pedestrian ID of the pedestrian 200B.

ここで、測定データ及び画像データは、ほぼ同じ時間で取得されているが、測定データのデータ数(測定値の数)と、表示画像データのデータ数(表示フレームデータの数)とは異なっている場合が多い。このため、画像調整部16は、測定データと表示画像データとを対応付けることで時間軸を同期させる。測定開始時刻と撮像開始時刻とがほぼ同じで、測定終了時刻と撮像終了時刻とがほぼ同じなので、画像調整部16は、測定データと表示画像データのデータ数の比率で時間軸を同期させることができる。   Here, the measurement data and the image data are acquired at almost the same time, but the number of measurement data (number of measurement values) is different from the number of display image data (number of display frame data). There are many cases. For this reason, the image adjustment unit 16 synchronizes the time axis by associating the measurement data with the display image data. Since the measurement start time and the imaging start time are almost the same, and the measurement end time and the imaging end time are almost the same, the image adjustment unit 16 synchronizes the time axis with the ratio of the number of measurement data and display image data. Can do.

例えば、測定データのデータ数が200、表示画像データのデータ数が400の場合、表示画像データに含まれる2つの表示フレームデータを、測定データに含まれる1つの測定値に対応付ければ良い。又は、測定時間に対する各測定値の測定時刻の比と、撮像時間に対する各表示フレームデータの撮像時刻の比とをそれぞれ算出し、比が最も近い表示フレームデータと測定値とを対応付けても良い。又は、測定開始からの経過時間と、撮像開始からの経過時間とがほぼ同じ測定値と表示フレームデータとを対応付けても良い。   For example, when the number of measurement data is 200 and the number of display image data is 400, two display frame data included in the display image data may be associated with one measurement value included in the measurement data. Alternatively, the ratio of the measurement time of each measurement value with respect to the measurement time and the ratio of the imaging time of each display frame data with respect to the imaging time may be calculated, and the display frame data with the closest ratio may be associated with the measurement value. . Alternatively, the measurement value and the display frame data in which the elapsed time from the start of measurement and the elapsed time from the start of imaging are substantially the same may be associated with each other.

また、測定データと歩行者IDとの対応付けは、例えば、指導者等が行っても良いし、後述する歩行者200毎の速度や代表色等に基づいて、測定データと歩行者IDとの対応付けを行っても良い。   The association between the measurement data and the pedestrian ID may be performed by, for example, an instructor or the like, and the measurement data and the pedestrian ID may be associated with each other based on the speed and representative color of each pedestrian 200 described later. Correlation may be performed.

また、後述するように、測定開始時刻、測定終了時刻、撮像開始時刻、及び撮像終了時刻の絶対時刻が得られる場合には、画像調整部16は、次のようにして、測定データと表示画像データとを対応付けても良い。すなわち、画像調整部16は、測定開始時刻から測定終了時刻までの時間と、撮像開始時刻から撮像終了時刻までの時間との重複部分における測定値及び表示フレームデータを取り出して、上記と同様の比率計算等で対応付ければ良い。   As will be described later, when the absolute time of the measurement start time, the measurement end time, the imaging start time, and the imaging end time is obtained, the image adjustment unit 16 performs the measurement data and the display image as follows. Data may be associated. That is, the image adjustment unit 16 extracts the measurement value and the display frame data in the overlapping portion between the time from the measurement start time to the measurement end time and the time from the imaging start time to the imaging end time, and the ratio similar to the above What is necessary is just to associate by calculation etc.

次に、サーバ10の通信部11は、測定データA、測定データB、及び表示画像データを表示装置30に送信する(ステップS121〜ステップS123)。   Next, the communication unit 11 of the server 10 transmits the measurement data A, the measurement data B, and the display image data to the display device 30 (Steps S121 to S123).

具体的には、例えば、指導者等は、表示装置30等を介して、サーバ10に測定データと表示画像データとを要求する。又は、指導者等は、測定データと表示画像データとを要求する操作をサーバ10に対して行って、サーバ10の操作入力受付部12がこの操作を受け付けても良い。又は、表示装置30がポーリング等により、測定データと表示画像データの有無を問い合わせて、この問い合わせに対してサーバ10が測定データと表示画像データを表示装置30に送信しても良い。   Specifically, for example, a leader or the like requests measurement data and display image data from the server 10 via the display device 30 or the like. Or a leader etc. may perform operation which requests | requires measurement data and display image data with respect to the server 10, and the operation input reception part 12 of the server 10 may receive this operation. Alternatively, the display device 30 may inquire about the presence of measurement data and display image data by polling or the like, and the server 10 may transmit the measurement data and display image data to the display device 30 in response to the inquiry.

次に、表示装置30の表示制御部32は、通信部31により測定データと表示画像データとを受信すると、ディスプレイ108に測定データと表示画像データとを同じ時間軸で表示する(ステップS124)。なお、測定データと表示画像データとを表示するための処理については、後述する。   Next, when the measurement data and display image data are received by the communication unit 31, the display control unit 32 of the display device 30 displays the measurement data and display image data on the display 108 on the same time axis (step S124). A process for displaying the measurement data and the display image data will be described later.

≪全体的な動作の変形例(その1)≫
ここで、画像表示システム100の全体的な動作の変形例(その1)について説明する。図9は、画像表示システム100の全体的な動作の変形例(その1)を説明するシーケンス図である。図9に示す変形例(その1)では、測定開始の契機が図8と異なる。なお、図9のステップS203〜ステップS211及びステップS214〜ステップS226は、それぞれ、図8のステップS102〜ステップS110及びステップS112〜ステップS124と同様であるため、その説明を省略する。
≪Modification of overall operation (part 1) ≫
Here, a modified example (part 1) of the overall operation of the image display system 100 will be described. FIG. 9 is a sequence diagram illustrating a modification example (No. 1) of the overall operation of the image display system 100. In the modified example (part 1) shown in FIG. 9, the trigger for starting measurement is different from that in FIG. Note that steps S203 to S211 and steps S214 to S226 in FIG. 9 are the same as steps S102 to S110 and steps S112 to S124 in FIG.

まず、歩行動作の測定を始める際、指導者等は、歩行動作の測定を開始するための操作を表示装置30に入力する。すると、表示装置30の操作入力受付部33は、指導者等の操作を受け付ける(ステップS201)。   First, when starting measurement of walking motion, a leader or the like inputs an operation for starting measurement of walking motion to the display device 30. Then, the operation input receiving unit 33 of the display device 30 receives an operation of a leader or the like (step S201).

次に、表示装置30の通信部31は、操作入力受付部33により指導者等の操作を受け付けると、測定開始要求をサーバ10に送信する(ステップS202)。なお、表示装置30は、例えば、HTTP(Hypertext Transfer Protocol)等でサーバ10と通信することができる。また、測定開始要求は、加速度の測定開始と歩行者200の撮像開始のうちの少なくとも一方を要求するものである。   Next, the communication part 31 of the display apparatus 30 will transmit a measurement start request | requirement to the server 10, if operation of a leader etc. is received by the operation input reception part 33 (step S202). The display device 30 can communicate with the server 10 by, for example, HTTP (Hypertext Transfer Protocol). The measurement start request is a request for at least one of acceleration measurement start and pedestrian 200 imaging start.

例えば、歩行者200が十分に歩行したと指導者等が判断した場合、指導者等は、歩行動作の測定を終了する操作を表示装置30に入力する。すると、表示装置30の操作入力受付部33は、指導者等の操作を受け付ける(ステップS212)。   For example, when the leader or the like determines that the pedestrian 200 has sufficiently walked, the leader or the like inputs an operation to end the measurement of the walking motion to the display device 30. Then, the operation input receiving unit 33 of the display device 30 receives an operation of a leader or the like (step S212).

次に、表示装置30の通信部31は、操作入力受付部33により指導者等の操作を受け付けると、測定終了要求をサーバ10に送信する(ステップS213)。なお、測定終了要求は、加速度の測定終了と歩行者200の撮像終了のうちの少なくとも一方を要求するものである。   Next, the communication part 31 of the display apparatus 30 will transmit a measurement end request | requirement to the server 10, if operation of a leader etc. is received by the operation input reception part 33 (step S213). The measurement end request is a request for at least one of the acceleration measurement end and the pedestrian 200 imaging end.

このように、図9に示す全体的な動作の変形例(その1)では、指導者等は、サーバ10を操作しなくても表示装置30から測定開始と測定終了をサーバ10に要求することができる。このため、指導者等が表示装置30を操作している場合は、指導者等は、サーバ10まで移動する必要なく、測定を開始することができる。   As described above, in the modified example (No. 1) of the overall operation illustrated in FIG. 9, the leader or the like requests the server 10 to start and end the measurement from the display device 30 without operating the server 10. Can do. For this reason, when a leader or the like is operating the display device 30, the leader or the like can start measurement without having to move to the server 10.

≪全体的な動作の変形例(その2)≫
次に、画像表示システム100の全体的な動作の変形例(その2)について説明する。図10は、画像表示システム100の全体的な動作の変形例(その2)を説明するシーケンス図である。図10に示す変形例(その2)では、歩行者200が歩行を開始したことを測定開始の契機とするものである。歩行者200は、例えば、指導者等の指示等により歩行を開始及び終了する。又は、ラインL上のスタート位置から歩行を開始して、ラインLを一周してスタート位置に戻ること等で歩行を終了する。なお、図10のステップS305〜ステップS311及びステップS316〜ステップ326は、それぞれ、図8のステップS104〜ステップS110及びステップS114〜ステップS124と同様であるため、その説明を省略する。
<< Modified example of overall operation (2) >>
Next, a modification (No. 2) of the overall operation of the image display system 100 will be described. FIG. 10 is a sequence diagram illustrating a modification (No. 2) of the overall operation of the image display system 100. In the modification (No. 2) shown in FIG. 10, the start of measurement is triggered by the start of walking by the pedestrian 200. The pedestrian 200 starts and ends walking, for example, according to instructions from a leader or the like. Alternatively, walking is started by starting walking from the start position on the line L, going around the line L and returning to the starting position. Note that steps S305 to S311 and steps S316 to S326 in FIG. 10 are the same as steps S104 to S110 and S114 to S124 in FIG.

まず、加速度測定装置50A及び加速度測定装置50Bの加速度検出部52は、加速度に基づいて、歩行者200A及び歩行者200Bが歩行を開始したことをそれぞれ検知する(ステップS301及びステップS302)。   First, the acceleration detection unit 52 of the acceleration measuring device 50A and the acceleration measuring device 50B detects that the pedestrian 200A and the pedestrian 200B have started walking based on the acceleration, respectively (step S301 and step S302).

例えば、加速度検出部52は、x方向、y方向、及びz方向うちの1つ以上で閾値以上の加速度が検出されたことで、歩行者200が歩行を開始したことを検知することができる。また、例えば、加速度検出部52は、加速度を2回積分して得られる単位時間当たりの位置の変化が閾値以上になったことで、歩行者200が歩行を開始したことを検知しても良い。これら以外にも、加速度検出部52は、例えば、ジャイロセンサ206が検出する角速度や、GPS受信装置213が検出する位置、加速度・方位センサ205が検出する方位等に基づいて、歩行者200が歩行を開始したことを検知しても良い。   For example, the acceleration detection unit 52 can detect that the pedestrian 200 has started walking by detecting an acceleration equal to or greater than a threshold value in one or more of the x direction, the y direction, and the z direction. In addition, for example, the acceleration detection unit 52 may detect that the pedestrian 200 has started walking because a change in position per unit time obtained by integrating acceleration twice is equal to or greater than a threshold value. . In addition to these, the acceleration detection unit 52 is configured so that the pedestrian 200 walks based on the angular velocity detected by the gyro sensor 206, the position detected by the GPS receiver 213, the direction detected by the acceleration / direction sensor 205, and the like. May be detected.

そして、加速度測定装置50A及び加速度測定装置50Bの加速度検出部52は、歩行者200A及び歩行者200Bの歩行の開始をそれぞれ検知したことで、加速度の測定をそれぞれ開始する。   And the acceleration detection part 52 of 50 A of acceleration measuring apparatuses and the acceleration measuring apparatus 50B each starts the measurement of acceleration by detecting the start of walking of the pedestrian 200A and the pedestrian 200B, respectively.

次に、加速度測定装置50A及び加速度測定装置50Bの通信部51は、歩行開始通知をサーバ10にそれぞれ送信する(ステップS303及びステップS304)。   Next, the communication unit 51 of the acceleration measuring device 50A and the acceleration measuring device 50B transmits a walk start notification to the server 10 (step S303 and step S304).

なお、歩行開始通知は、少なくとも1台の加速度測定装置50(例えば、先に歩行開始を検知した加速度測定装置50)がサーバ10に送信すれば良い。ただし、ステップS307において、サーバ10は、すべての加速度測定装置50から歩行開始通知を受信した場合に、撮像開始要求を全天球画像撮像装置60に送信するようにしても良い。   The walking start notification may be transmitted to the server 10 by at least one acceleration measuring device 50 (for example, the acceleration measuring device 50 that detects the start of walking first). However, in step S307, the server 10 may transmit an imaging start request to the omnidirectional image imaging device 60 when the walking start notification is received from all the acceleration measuring devices 50.

加速度測定装置50A及び加速度測定装置50Bの加速度検出部52は、加速度に基づいて、歩行者200A及び歩行者200Bが歩行を停止したことをそれぞれ検知する(ステップS312及びステップS313)。   The acceleration detector 52 of the acceleration measuring device 50A and the acceleration measuring device 50B detects that the pedestrian 200A and the pedestrian 200B have stopped walking based on the acceleration, respectively (step S312 and step S313).

例えば、加速度検出部52は、x方向、y方向及びz方向の1つ以上で閾値以上の加速度が検出されなくなったことで、歩行者200が歩行を停止したことを検知することができる。また、例えば、加速度検出部52は、加速度を2回積分して得られる単位時間の位置の変化が閾値未満になったことで、歩行者200が歩行を停止したことを検知しても良い。これら以外にも、加速度検出部52は、例えば、ジャイロセンサ206が検出する角速度や、GPS受信装置213が検出する位置、加速度・方位センサ205が検出する方位等に基づいて、歩行者200が歩行を停止したことを検知しても良い。   For example, the acceleration detection unit 52 can detect that the pedestrian 200 has stopped walking because no acceleration greater than or equal to the threshold is detected in one or more of the x direction, the y direction, and the z direction. Further, for example, the acceleration detection unit 52 may detect that the pedestrian 200 has stopped walking because the change in the position of the unit time obtained by integrating the acceleration twice becomes less than the threshold value. In addition to these, the acceleration detection unit 52 is configured so that the pedestrian 200 walks based on the angular velocity detected by the gyro sensor 206, the position detected by the GPS receiver 213, the direction detected by the acceleration / direction sensor 205, and the like. It may be detected that has stopped.

そして、加速度測定装置50A及び加速度測定装置50Bの加速度検出部52は、歩行者200A及び歩行者200Bの歩行の停止をそれぞれ検知したことで、加速度の測定をそれぞれ終了する。   Then, the acceleration detectors 52 of the acceleration measuring device 50A and the acceleration measuring device 50B detect the stop of walking of the pedestrian 200A and the pedestrian 200B, respectively, thereby ending the measurement of acceleration.

加速度測定装置50A及び加速度測定装置50Bの通信部51は、それぞれ歩行終了通知をサーバ10に送信する(ステップS314及びステップS315)。   The communication units 51 of the acceleration measuring device 50A and the acceleration measuring device 50B each transmit a walking end notification to the server 10 (steps S314 and S315).

このように、図10に示す全体的な動作の変形例(その2)では、指導者等が測定開始や測定終了等の操作を行わなくても、加速度測定装置50が歩行者200の歩行動作の開始や終了を検知することで、測定を開始及び終了することができる。   As described above, in the modified example (No. 2) of the overall operation illustrated in FIG. 10, the acceleration measuring device 50 performs the walking operation of the pedestrian 200 even if the leader or the like does not perform an operation such as measurement start or measurement end. By detecting the start and end of the measurement, the measurement can be started and ended.

≪全体的な動作の変形例(その3)≫
次に、画像表示システム100の全体的な動作の変形例(その3)について説明する。図11は、画像表示システム100の全体的な動作の変形例(その3)を説明するシーケンス図である。図11に示す変形例(その3)では、絶対時刻を用いて測定データと画像データとを同期させるものである。なお、図11におけるステップS401〜ステップS405、及びステップS408〜ステップS409は、それぞれ、図8のステップS101〜ステップS105、及びステップS106〜ステップS107と同様であるため、その説明を省略する。また、図11におけるステップS411〜ステップS416、ステップS419、及びステップS421〜ステップS430は、それぞれ、図8のステップS108〜ステップS113、ステップS114、及びステップS115〜ステップS124と同様であるため、その説明を省略する。
<< Modified example of overall operation (part 3) >>
Next, a modification (No. 3) of the overall operation of the image display system 100 will be described. FIG. 11 is a sequence diagram for explaining a modification (No. 3) of the overall operation of the image display system 100. In the modification (No. 3) shown in FIG. 11, the measurement data and the image data are synchronized using the absolute time. Note that steps S401 to S405 and steps S408 to S409 in FIG. 11 are the same as steps S101 to S105 and steps S106 to S107 in FIG. Further, Step S411 to Step S416, Step S419, and Step S421 to Step S430 in FIG. 11 are the same as Step S108 to Step S113, Step S114, and Step S115 to Step S124 in FIG. Is omitted.

加速度測定装置50A及び加速度測定装置50Bの通信部51は、測定開始要求を受信すると、それぞれ開始時刻要求をサーバ10に送信する(ステップS406及びステップS407)。すると、サーバ10の同期指示部13は、通信部11を介して、加速度測定装置50A及び加速度測定装置50Bが測定を開始した絶対時刻(測定開始時刻)を加速度測定装置50A及び加速度測定装置50Bのそれぞれに返信する。これにより、加速度測定装置50は、測定開始時刻を得ることができる。   When receiving the measurement start request, the communication units 51 of the acceleration measurement device 50A and the acceleration measurement device 50B respectively transmit a start time request to the server 10 (steps S406 and S407). Then, the synchronization instruction unit 13 of the server 10 sends the absolute time (measurement start time) when the acceleration measurement device 50A and the acceleration measurement device 50B start measurement via the communication unit 11 to the acceleration measurement device 50A and the acceleration measurement device 50B. Reply to each. Thereby, the acceleration measuring device 50 can obtain the measurement start time.

また、全天球画像撮像装置60の通信部61は、撮像開始要求を受信すると、開始時刻要求をサーバ10に送信する(ステップS410)。すると、サーバ10の同期指示部13は、通信部11を介して、全天球画像撮像装置60が撮像を開始した絶対時刻(撮像開始時刻)を返信する。これにより、全天球画像撮像装置60は、撮像開始時刻を得ることができる。   Further, when receiving the imaging start request, the communication unit 61 of the omnidirectional image capturing apparatus 60 transmits a start time request to the server 10 (step S410). Then, the synchronization instruction unit 13 of the server 10 returns the absolute time (imaging start time) when the omnidirectional image capturing device 60 starts capturing via the communication unit 11. Thereby, the omnidirectional image imaging device 60 can obtain the imaging start time.

加速度測定装置50A及び加速度測定装置50Bの通信部51は、測定終了要求を受信すると、それぞれ終了時刻要求をサーバ10に送信する(ステップS417及びステップS418)。すると、サーバ10の同期指示部13は、通信部11を介して、加速度測定装置50A及び加速度測定装置50Bが測定を終了した絶対時刻(測定終了時刻)を加速度測定装置50A及び加速度測定装置50Bのそれぞれに返信する。これにより、加速度測定装置50は、測定終了時刻を得ることができる。   When the communication unit 51 of the acceleration measuring device 50A and the acceleration measuring device 50B receives the measurement end request, it transmits an end time request to the server 10 (step S417 and step S418). Then, the synchronization instruction unit 13 of the server 10 transmits the absolute time (measurement end time) at which the acceleration measurement device 50A and the acceleration measurement device 50B finish measurement via the communication unit 11 to the acceleration measurement device 50A and the acceleration measurement device 50B. Reply to each. Thereby, the acceleration measuring apparatus 50 can obtain the measurement end time.

全天球画像撮像装置60の通信部61は、撮像終了要求を受信すると、終了時刻要求をサーバ10に送信する(ステップS420)。すると、サーバ10の同期指示部13は、通信部11を介して、全天球画像撮像装置60が撮像を終了した絶対時刻(撮像終了時刻)を返信する。これにより、全天球画像撮像装置60は、撮像終了時刻を得ることができる。   When receiving the imaging end request, the communication unit 61 of the omnidirectional image capturing apparatus 60 transmits an end time request to the server 10 (step S420). Then, the synchronization instruction unit 13 of the server 10 returns the absolute time (imaging end time) when the omnidirectional image capturing device 60 has completed the imaging via the communication unit 11. Thereby, the omnidirectional image imaging device 60 can obtain the imaging end time.

このように、図11に示す全体的な動作の変形例(その3)では、サーバ10は、測定開始時刻と測定終了時刻を加速度測定装置50に返信すると共に、撮像開始時刻と撮像終了時刻を全天球画像撮像装置60に返信する。このため、変形例(その3)では、サーバ10は、ステップS426において、測定データと表示画像データとを絶対時刻に基づいて対応付けることができる。したがって、例えば、何らかの理由で加速度の測定開始と撮像開始との間や、加速度の測定終了と撮像終了との間にタイムラグ等が発生しても、サーバ10は、測定データと表示画像データの時間軸を同期させることができるようになる。   As described above, in the modified example (No. 3) of the overall operation illustrated in FIG. 11, the server 10 returns the measurement start time and the measurement end time to the acceleration measuring device 50, and sets the imaging start time and the imaging end time. It returns to the omnidirectional image capturing device 60. For this reason, in the modified example (part 3), the server 10 can associate the measurement data and the display image data on the basis of the absolute time in step S426. Therefore, for example, even if a time lag or the like occurs between the start of acceleration measurement and the start of imaging for some reason, or between the end of measurement of acceleration and the end of imaging, the server 10 determines the time between measurement data and display image data. Axis can be synchronized.

≪全体的な動作の変形例(その4)≫
次に、画像表示システム100の全体的な動作の変形例(その4)について説明する。図12は、画像表示システム100の全体的な動作の変形例(その4)を説明するシーケンス図である。図12に示す変形例(その4)では、複数台の加速度測定装置50のうちの一台の加速度測定装置50が、他の加速度測定装置50に測定開始要求を送信すると共に、全天球画像撮像装置60に撮像開始要求を送信する。そして、他の加速度測定装置50及び全天球画像撮像装置60からの要求に応じて、当該一台の加速度測定装置50が絶対時刻を返信するものである。
<< Modified example of overall operation (Part 4) >>
Next, a modification (No. 4) of the overall operation of the image display system 100 will be described. FIG. 12 is a sequence diagram illustrating a modification (No. 4) of the overall operation of the image display system 100. In the modification (No. 4) illustrated in FIG. 12, one acceleration measurement device 50 among the plurality of acceleration measurement devices 50 transmits a measurement start request to the other acceleration measurement device 50, and an omnidirectional image. An imaging start request is transmitted to the imaging device 60. In response to a request from the other acceleration measuring device 50 and the omnidirectional image capturing device 60, the one acceleration measuring device 50 returns the absolute time.

なお、図12のステップS501、及びステップS508〜ステップS509は、それぞれ、図8のステップS101、及びステップS104〜ステップS105と同様であるため、その説明を省略する。また、図12のステップS510〜ステップS514、及びステップS524〜ステップS530は、それぞれ、図8のステップS107〜ステップS111、及びステップS118〜ステップS124と同様であるため、その説明を省略する。   Note that steps S501 and S508 to S509 in FIG. 12 are the same as steps S101 and S104 to S105 in FIG. 12 are the same as Step S107 to Step S111 and Step S118 to Step S124 of FIG. 8, respectively, and thus description thereof is omitted.

サーバ10の同期指示部13は、操作入力受付部12により指導者等の操作(歩行動作の測定を開始するための操作)を受け付けると、通信部11を介して、測定開始要求を加速度測定装置50Aに送信する(ステップS502)。なお、通信部11は、複数の加速度測定装置50のうち、予め設定された一台の加速度測定装置50に測定開始要求を送信する。したがって、通信部11は、例えば、測定開始要求を加速度測定装置50Bに送信しても良い。以降では、サーバ10の通信部11は、測定開始要求を加速度測定装置50Aに送信した場合について説明する。   The synchronization instruction unit 13 of the server 10 receives a measurement start request via the communication unit 11 when the operation input reception unit 12 receives an operation of a leader or the like (operation for starting measurement of walking motion). 50A is transmitted (step S502). Note that the communication unit 11 transmits a measurement start request to one of the plurality of acceleration measuring devices 50 set in advance. Therefore, for example, the communication unit 11 may transmit a measurement start request to the acceleration measurement device 50B. Hereinafter, a case where the communication unit 11 of the server 10 transmits a measurement start request to the acceleration measuring device 50A will be described.

加速度測定装置50Aの通信部51は、測定開始要求を受信すると、測定開始要求を加速度測定装置50Bに送信すると共に、撮像開始要求を全天球画像撮像装置60に送信する(ステップS503及びステップS504)。   When receiving the measurement start request, the communication unit 51 of the acceleration measuring device 50A transmits the measurement start request to the acceleration measuring device 50B and transmits the imaging start request to the omnidirectional image capturing device 60 (steps S503 and S504). ).

加速度測定装置50Bの通信部51は、測定開始要求を受信すると、開始時刻要求を加速度測定装置50Aに送信する(ステップS505)。また、全天球画像撮像装置60の通信部61は、撮像開始要求を受信すると、開始時刻要求を加速度測定装置50Aに送信する(ステップS506)。   When receiving the measurement start request, the communication unit 51 of the acceleration measurement device 50B transmits a start time request to the acceleration measurement device 50A (step S505). Further, when receiving the imaging start request, the communication unit 61 of the omnidirectional image imaging device 60 transmits a start time request to the acceleration measuring device 50A (step S506).

次に、加速度測定装置50Aの通信部51は、加速度測定装置50B及び全天球画像撮像装置60から開始時刻要求を受信すると、開始時刻要求をサーバ10に送信する(ステップS507)。すると、サーバ10の同期指示部13は、通信部11を介して、測定開始時刻を返信する。そして、加速度測定装置50Aの通信部51は、測定開始時刻を受信すると、当該測定開始時刻を加速度測定装置50Bに返信すると共に、撮像開始時刻を全天球画像撮像装置60に返信する。   Next, when receiving the start time request from the acceleration measurement device 50B and the omnidirectional image capturing device 60, the communication unit 51 of the acceleration measurement device 50A transmits the start time request to the server 10 (step S507). Then, the synchronization instruction unit 13 of the server 10 returns the measurement start time via the communication unit 11. Then, when receiving the measurement start time, the communication unit 51 of the acceleration measurement device 50A returns the measurement start time to the acceleration measurement device 50B and returns the imaging start time to the omnidirectional image imaging device 60.

なお、加速度測定装置50Aは、サーバ10から受信した測定開始時刻と同じ時刻を、撮像開始時刻として全天球画像撮像装置60に返信すれば良い。   The acceleration measuring device 50A may return the same time as the measurement start time received from the server 10 to the omnidirectional image imaging device 60 as the imaging start time.

なお、ステップS505及びステップS506において、加速度測定装置50Aが保持している時刻(現在の時刻)を測定開始時刻及び撮像開始時刻として加速度測定装置50B及び全天球画像撮像装置60に返信しても良い。加速度測定装置50は、現在の時刻から加速度の測定を開始すると共に、全天球画像撮像装置60は撮像開始時刻から撮像を開始するので、測定開始時刻と撮像開始時刻とを同期させることができる。   In step S505 and step S506, even if the time (current time) held by the acceleration measurement device 50A is returned to the acceleration measurement device 50B and the omnidirectional image imaging device 60 as the measurement start time and imaging start time. good. The acceleration measuring device 50 starts measuring acceleration from the current time, and the omnidirectional imaging device 60 starts imaging from the imaging start time. Therefore, the measurement start time and the imaging start time can be synchronized. .

サーバ10の同期指示部13は、操作入力受付部12により指導者等の操作(歩行動作の測定を終了するための操作)を受け付けると、通信部11を介して、測定終了要求を加速度測定装置50Aに送信する(ステップS515)。   The synchronization instruction unit 13 of the server 10 receives an operation of an instructor or the like (operation for ending the measurement of walking motion) by the operation input receiving unit 12, and sends a measurement end request via the communication unit 11 to the acceleration measuring device. It transmits to 50A (step S515).

加速度測定装置50Aの通信部51は、測定終了要求を受信すると、測定終了要求を加速度測定装置50Bに送信すると共に、撮像終了要求を全天球画像撮像装置60に送信する(ステップS516及びステップS517)。   When receiving the measurement end request, the communication unit 51 of the acceleration measuring device 50A transmits the measurement end request to the acceleration measuring device 50B and transmits the imaging end request to the omnidirectional image capturing device 60 (steps S516 and S517). ).

加速度測定装置50Bの通信部51は、測定終了要求を受信すると、終了時刻要求を加速度測定装置50Aに送信する(ステップS518)。また、全天球画像撮像装置60の通信部61は、撮像終了要求を受信すると、終了時刻要求を加速度測定装置50Aに送信する(ステップS519)。   When receiving the measurement end request, the communication unit 51 of the acceleration measuring device 50B transmits an end time request to the acceleration measuring device 50A (step S518). Further, when receiving the imaging end request, the communication unit 61 of the omnidirectional image imaging device 60 transmits an end time request to the acceleration measuring device 50A (step S519).

次に、加速度測定装置50Aの通信部51は、加速度測定装置50B及び全天球画像撮像装置60から終了時刻要求を受信すると、終了時刻要求をサーバ10に送信する(ステップS520)。すると、サーバ10の同期指示部13は、通信部11を介して、測定終了時刻を返信する。そして、加速度測定装置50Aの通信部51は、測定終了時刻を受信すると、当該測定終了時刻を加速度測定装置50Bに返信すると共に、撮像終了時刻を全天球画像撮像装置60に返信する。   Next, when receiving the end time request from the acceleration measuring device 50B and the omnidirectional image capturing device 60, the communication unit 51 of the acceleration measuring device 50A transmits the end time request to the server 10 (step S520). Then, the synchronization instruction unit 13 of the server 10 returns the measurement end time via the communication unit 11. Then, when receiving the measurement end time, the communication unit 51 of the acceleration measurement device 50A returns the measurement end time to the acceleration measurement device 50B and returns the imaging end time to the omnidirectional image imaging device 60.

なお、加速度測定装置50Aは、サーバ10から受信した測定終了時刻と同じ時刻を、撮像終了時刻として全天球画像撮像装置60に返信すれば良い。   The acceleration measurement device 50A may return the same time as the measurement end time received from the server 10 to the omnidirectional image imaging device 60 as the imaging end time.

なお、ステップS518及びステップS519において、加速度測定装置50Aが保持している時刻(現在の時刻)を測定終了時刻及び撮像終了時刻として加速度測定装置60A及び全天球画像撮像装置60に返信しても良い。加速度測定装置50は、現在の時刻で加速度の測定を終了すると共に、全天球画像撮像装置60は撮像終了時刻に撮像を終了するので、測定終了時刻と撮像終了時刻とを同期させることができる。   In step S518 and step S519, the time (current time) held by the acceleration measurement device 50A is returned to the acceleration measurement device 60A and the omnidirectional image imaging device 60 as the measurement end time and imaging end time. good. The acceleration measuring device 50 finishes measuring the acceleration at the current time, and the omnidirectional imaging device 60 finishes imaging at the imaging end time, so that the measurement end time and the imaging end time can be synchronized. .

加速度測定装置50Bの通信部51は、記憶部5000に記憶されている測定データBを加速度測定装置50Aに送信する(ステップS521)。また、全天球画像撮像装置60の通信部61は、記憶部6000に記憶されている画像データを加速度測定装置50Aに送信する(ステップS522)。   The communication unit 51 of the acceleration measuring device 50B transmits the measurement data B stored in the storage unit 5000 to the acceleration measuring device 50A (step S521). Further, the communication unit 61 of the omnidirectional image capturing apparatus 60 transmits the image data stored in the storage unit 6000 to the acceleration measuring apparatus 50A (step S522).

そして、加速度測定装置50Aの通信部51は、記憶部500に記憶されている測定データAと、加速度測定装置50Bから受信した測定データBと、全天球画像撮像装置60から受信した画像データとをサーバ10に送信する(ステップS523)。   The communication unit 51 of the acceleration measuring device 50A includes the measurement data A stored in the storage unit 500, the measurement data B received from the acceleration measuring device 50B, and the image data received from the omnidirectional image capturing device 60. Is transmitted to the server 10 (step S523).

このように、図12に示す全体的な動作の変形例(その4)では、一台の加速度測定装置50が他の加速度測定装置50や全天球画像撮像装置60に絶対時刻を返信すると共に、測定データや画像データを中継する。このため、例えば、他の加速度測定装置50や全天球画像撮像装置60等がネットワークNに接続されていない場合に、一台の加速度測定装置50がBluetooth(登録商標)等の近距離無線通信を用いて、サーバ10との間でデータの中継を行うことができる。   As described above, in the modified example (No. 4) of the overall operation illustrated in FIG. 12, one acceleration measuring device 50 returns the absolute time to the other acceleration measuring device 50 and the omnidirectional image capturing device 60. , Relay measurement data and image data. For this reason, for example, when no other acceleration measuring device 50 or omnidirectional image capturing device 60 is connected to the network N, one acceleration measuring device 50 can perform near field communication such as Bluetooth (registered trademark). Can be used to relay data to and from the server 10.

≪全体的な動作の変形例(その5)≫
次に、画像表示システム100の全体的な動作の変形例(その5)について説明する。図13は、画像表示システム100の全体的な動作の変形例(その5)を説明するシーケンス図である。図13に示す変形例(その5)では、各加速度測定装置50で測定された測定データを全天球画像撮像装置60が中継して、サーバ10に送信するものである。
<< Modified example of overall operation (part 5) >>
Next, a modification (No. 5) of the overall operation of the image display system 100 will be described. FIG. 13 is a sequence diagram for explaining a modification (No. 5) of the overall operation of the image display system 100. In the modified example (No. 5) shown in FIG. 13, the omnidirectional image capturing device 60 relays the measurement data measured by each acceleration measuring device 50 and transmits it to the server 10.

なお、図13のステップS601、ステップS605〜ステップS606は、それぞれ、図8のステップS101、及びステップS104〜ステップS105と同様であるため、その説明を省略する。また、図13のステップS607〜ステップS611、及びステップS618〜ステップS624は、それぞれ、図8のステップS107〜ステップS111、及びステップS118〜ステップS124と同様であるため、その説明を省略する。   Note that steps S601 and S605 to S606 in FIG. 13 are the same as steps S101 and S104 to S105 in FIG. Further, Steps S607 to S611 and Steps S618 to S624 in FIG. 13 are the same as Steps S107 to S111 and Steps S118 to S124 in FIG.

サーバ10の同期指示部13は、操作入力受付部12により指導者等の操作(歩行動作の測定を開始するための操作)を受け付けると、通信部11を介して、撮像開始要求を全天球画像撮像装置60に送信する(ステップS602)。   The synchronization instruction unit 13 of the server 10 receives an operation of an instructor or the like (operation for starting the measurement of walking motion) by the operation input receiving unit 12, and sends an imaging start request via the communication unit 11. It transmits to the image pick-up device 60 (step S602).

次に、全天球画像撮像装置60の通信部61は、撮像開始要求を受信すると、測定開始要求を加速度測定装置50A及び加速度測定装置50Bのそれぞれに送信する(ステップS603及びステップS604)。このように、全天球画像撮像装置60は、サーバ10から撮像開始要求を受信すると、測定開始要求を加速度測定装置50に送信する。   Next, when receiving the imaging start request, the communication unit 61 of the omnidirectional image imaging device 60 transmits a measurement start request to each of the acceleration measuring device 50A and the acceleration measuring device 50B (steps S603 and S604). As described above, when the omnidirectional image capturing apparatus 60 receives the imaging start request from the server 10, the omnidirectional image capturing apparatus 60 transmits the measurement start request to the acceleration measuring apparatus 50.

サーバ10の同期指示部13は、操作入力受付部12により指導者等の操作(歩行動作の測定を終了するための操作)を受け付けると、通信部11を介して、撮像終了要求を全天球画像撮像装置60に送信する(ステップS612)。   The synchronization instruction unit 13 of the server 10 receives an imaging end request via the communication unit 11 when the operation input reception unit 12 receives an operation of a leader or the like (operation for ending the measurement of walking motion). It transmits to the image pick-up device 60 (step S612).

次に、全天球画像撮像装置60の通信部61は、撮像終了要求を受信すると、測定終了要求を加速度測定装置50A及び加速度測定装置50Bのそれぞれに送信する(ステップS613及びステップS614)。このように、全天球画像撮像装置60は、サーバ10から撮像終了要求を受信すると、測定終了要求を加速度測定装置50に送信する。   Next, when receiving the imaging end request, the communication unit 61 of the omnidirectional image imaging device 60 transmits a measurement end request to each of the acceleration measuring device 50A and the acceleration measuring device 50B (steps S613 and S614). As described above, when the omnidirectional image capturing apparatus 60 receives the imaging end request from the server 10, the omnidirectional image capturing apparatus 60 transmits the measurement end request to the acceleration measuring apparatus 50.

次に、加速度測定装置50A及び加速度測定装置50Bの通信部51は、それぞれ記憶部5000に記憶されている測定データA及び測定データBを全天球画像撮像装置60に送信する(ステップS615及びステップS616)。   Next, the communication unit 51 of the acceleration measuring device 50A and the acceleration measuring device 50B transmits the measurement data A and the measurement data B stored in the storage unit 5000 to the omnidirectional image pickup device 60 (step S615 and step S615). S616).

そして、全天球画像撮像装置60の通信部61は、記憶部6000に記憶されている画像データと、加速度測定装置50Aから受信した測定データAと、加速度測定装置50Bから受信した測定データBとをサーバ10に送信する(ステップS617)。   Then, the communication unit 61 of the omnidirectional imaging device 60 includes the image data stored in the storage unit 6000, the measurement data A received from the acceleration measurement device 50A, and the measurement data B received from the acceleration measurement device 50B. Is transmitted to the server 10 (step S617).

このように、図13に示す全体的な動作の変形例(その5)では、全天球画像撮像装置60が中継して、加速度測定装置50に測定開始要求を送信する。このため、例えば、加速度測定装置50がネットワークNに接続されていない場合に、全天球画像撮像装置60により、Bluetooth等の近距離無線通信を用いて、サーバ10との間でデータの中継を行うことができる。   As described above, in the modified example (No. 5) of the overall operation illustrated in FIG. 13, the omnidirectional image capturing device 60 relays and transmits a measurement start request to the acceleration measuring device 50. For this reason, for example, when the acceleration measuring device 50 is not connected to the network N, the omnidirectional image capturing device 60 relays data to and from the server 10 using short-range wireless communication such as Bluetooth. It can be carried out.

≪表示画像の作成処理≫
次に、図8のステップS119等の表示画像の作成処理について説明する。図14は、表示画像作成処理の一例を説明するフローチャートである。ここで、以降では、全天球画像撮像装置60により生成された画像データには、時刻t=t(n=1,2,・・・,N)毎に、N個のフレームデータが含まれているものとする。時刻t=t(n=1,2,・・・,N)のフレームデータには、それぞれフレーム番号「f00n」(n=1,2,・・・,N)が付与されているものとする。なお、Δt=t−tn−1(n=2,3,・・・,N)は、撮像間隔である。
≪Display image creation process≫
Next, display image creation processing in step S119 of FIG. 8 will be described. FIG. 14 is a flowchart illustrating an example of the display image creation process. Hereafter, N frame data is included in the image data generated by the omnidirectional image capturing device 60 every time t = t n (n = 1, 2,..., N). It shall be assumed. Frame data “f00n” (n = 1, 2,..., N) is assigned to the frame data at time t = t n (n = 1, 2,..., N), respectively. To do. Note that Δt n = t n −t n−1 (n = 2, 3,..., N) is an imaging interval.

まず、表示画像作成部15は、時刻t=tのフレームデータを画像データから取得する(ステップS701)。すなわち、表示画像作成部15は、フレーム番号「f001」のフレームデータを画像データから取得する。 First, the display image creation unit 15 acquires frame data at time t = t 1 from image data (step S701). That is, the display image creation unit 15 acquires frame data of the frame number “f001” from the image data.

次に、表示画像作成部15は、上記のステップS701で取得したフレームデータに写っている歩行者200を特定して、特定した歩行者200の位置を算出する(ステップS702)。なお、ここで算出する位置は、例えば、フレーム画像の水平方向にx軸、垂直方向にy軸を定義した場合におけるxy座標である。   Next, the display image creating unit 15 specifies the pedestrian 200 shown in the frame data acquired in step S701, and calculates the position of the specified pedestrian 200 (step S702). The position calculated here is, for example, the xy coordinates when the x-axis is defined in the horizontal direction and the y-axis is defined in the vertical direction of the frame image.

ここで、表示画像作成部15は、例えば、歩行者200の顔を認識することで、歩行者200を特定すれば良い。ただし、これに限られず、表示画像作成部15は、例えば、歩行者200の足等を認識することで、歩行者200を特定しても良い。   Here, the display image creation unit 15 may identify the pedestrian 200 by recognizing the face of the pedestrian 200, for example. However, it is not restricted to this, For example, the display image preparation part 15 may identify the pedestrian 200 by recognizing the leg | foot etc. of the pedestrian 200.

また、表示画像作成部15は、例えば、顔として認識された領域や足として認識された領域の中心や重心の位置を歩行者200の位置とすれば良い。   The display image creation unit 15 may set the position of the pedestrian 200 at the center or the center of gravity of the area recognized as a face or the area recognized as a foot, for example.

次に、表示画像作成部15は、上記のステップS702で特定した各歩行者200に歩行者IDを付与する(ステップS703)。   Next, the display image creation unit 15 assigns a pedestrian ID to each pedestrian 200 identified in step S702 (step S703).

ここで、表示画像作成部15は、例えば、上記のステップS702で2人の歩行者200を特定した場合、特定した順に、それぞれ歩行者ID「m001」及び「m002」を付与すれば良い。このように、表示画像作成部15は、時刻t=tのフレームデータに写っている各歩行者200を特定すると、各歩行者200を識別する歩行者IDを付与する。 Here, for example, when two pedestrians 200 are specified in step S702 described above, the display image creating unit 15 may assign pedestrian IDs “m001” and “m002” in the specified order. Thus, when the display image creation unit 15 specifies each pedestrian 200 in the frame data at time t = t 1 , the display image creation unit 15 assigns a pedestrian ID that identifies each pedestrian 200.

次に、表示画像作成部15は、上記のステップS702で特定された歩行者200の位置と、当該歩行者200の歩行者IDとを、フレーム番号「f001」のフレームデータに対応付けることで、表示フレームデータを作成する(ステップS704)。これにより、時刻t=tの表示フレームデータが作成される。 Next, the display image creation unit 15 associates the position of the pedestrian 200 identified in step S702 and the pedestrian ID of the pedestrian 200 with the frame data of the frame number “f001”, thereby displaying the display. Frame data is created (step S704). As a result, display frame data at time t = t 1 is created.

すなわち、例えば、上記のステップS702で2人の歩行者200を特定し、それぞれの歩行者IDが「m001」及び「m002」、それぞれの位置が「x11,y11」及び「x21,y21」であるとする。この場合、表示画像作成部15は、フレーム番号「f001」のフレームデータに、歩行者ID「m001」及び位置「x11,y11」と、歩行者ID「m002」及び位置「x21,y21」とを対応付ける。 That is, for example, two pedestrians 200 are specified in the above step S702, the pedestrian IDs are “m001” and “m002”, and the respective positions are “x 11 , y 11 ” and “x 21 , y”. 21 ”. In this case, the display image creating unit 15 adds the pedestrian ID “m001” and the position “x 11 , y 11 ”, the pedestrian ID “m002” and the position “x 21 , y” to the frame data of the frame number “f001”. 21 ”.

次に、表示画像作成部15は、時刻t=t(n=2)とする(ステップS705)。 Next, the display image creation unit 15 sets time t = t n (n = 2) (step S705).

次に、表示画像作成部15は、時刻t=tのフレームデータを画像データから取得する(ステップS706)。すなわち、表示画像作成部15は、フレーム番号「f00n」のフレームデータを画像データから取得する。 Next, the display image generation unit 15 acquires the frame data at time t = t n from the image data (step S706). In other words, the display image creating unit 15 acquires frame data of the frame number “f00n” from the image data.

次に、表示画像作成部15は、上記のステップS706で取得したフレームデータに写っている歩行者200を特定して、特定した歩行者200の位置を算出する(ステップS707)。   Next, the display image creating unit 15 specifies the pedestrian 200 shown in the frame data acquired in step S706 and calculates the position of the specified pedestrian 200 (step S707).

なお、表示画像作成部15は、上記のステップS702と同様の方法で、歩行者200を特定して、歩行者200の位置を算出すれば良い。また、表示画像作成部15は、例えば、歩行者200が写っている矩形領域を特定することで、歩行者200を特定して、当該矩形領域の中心や重心の位置を歩行者200の位置としても良い。   Note that the display image creation unit 15 may identify the pedestrian 200 and calculate the position of the pedestrian 200 by the same method as in step S702 described above. Further, the display image creating unit 15 identifies the pedestrian 200 by identifying a rectangular area in which the pedestrian 200 is shown, for example, and uses the center of the rectangular area and the position of the center of gravity as the position of the pedestrian 200. Also good.

ここで、歩行者200が写っている矩形領域の特定について、図15を用いて説明する。図15は、歩行者200が写っている矩形領域の特定の一例を模式的に説明する図である。   Here, the specification of the rectangular area in which the pedestrian 200 is shown will be described with reference to FIG. FIG. 15 is a diagram schematically illustrating an example of specifying a rectangular area in which a pedestrian 200 is shown.

まず、図15(a)では、時刻t=tのフレームデータが表示するフレーム画像181と、時刻t=tn−1のフレームデータが表示するフレーム画像182(すなわち、フレーム画像181の直前のフレーム画像)とが表示されている。なお、例えば、フレームレートが30fpsであれば、フレーム画像181と、その直前のフレーム画像182との間に、約33(ミリ秒)の間隔がある。 First, in FIG. 15 (a), the frame image 181 frame data at time t = t n is displayed, the frame image 182 that time t = t n-1 frame data is displayed (i.e., the previous frame image 181 Frame image) is displayed. For example, when the frame rate is 30 fps, there is an interval of about 33 (milliseconds) between the frame image 181 and the immediately preceding frame image 182.

なお、フレーム画像181と、その直前のフレーム画像182でなく、フレーム画像181に対して、数フレーム前のフレーム画像をフレーム画像182としても良い。   The frame image 182 may be a frame image that is several frames before the frame image 181 instead of the frame image 181 and the immediately preceding frame image 182.

表示画像作成部15は、フレーム画像181と、その直前のフレーム画像182の差分を算出する。差分とは、フレーム画像181とフレーム画像182との同じ位置の画素の画素値を引き算することをいう。なお、全く同じ被写体が映っていても(動体がなくても)蛍光灯の点滅、遠方の人の動き、影の変化等により差分がゼロにならない場合があるので、差分が閾値未満の場合はゼロと見なす。   The display image creation unit 15 calculates the difference between the frame image 181 and the immediately preceding frame image 182. The difference means that the pixel values of the pixels at the same position in the frame image 181 and the frame image 182 are subtracted. Note that even if the exact same subject is shown (even if there is no moving object), the difference may not be zero due to the blinking of the fluorescent light, the movement of a distant person, the change of the shadow, etc. Consider zero.

図15(b)は、差分画像の一例である。図15(b)では、差分が閾値以上の画素が白画素に置き換えられている。したがって、フレーム画像181と直前のフレーム画像182とを比較すると、白画素に重なるように歩行者200が存在する可能性が高いといえる。   FIG. 15B is an example of the difference image. In FIG. 15B, a pixel whose difference is greater than or equal to a threshold is replaced with a white pixel. Therefore, when the frame image 181 and the immediately preceding frame image 182 are compared, it can be said that there is a high possibility that the pedestrian 200 exists so as to overlap the white pixels.

次に、図15(c)に示すように、表示画像作成部15は、白画素に画素膨張処理を複数回実行する。画素膨張処理とは、白画素に接した8画素(又は上下左右に隣接した4画素)を白画素に置き換える処理である。複数回の画素膨張処理により白画素に接した画素が辿られるため、回数が増える毎に白画素が膨張するように見える。   Next, as illustrated in FIG. 15C, the display image creating unit 15 performs pixel expansion processing on white pixels a plurality of times. The pixel expansion process is a process of replacing 8 pixels in contact with white pixels (or 4 pixels adjacent vertically and horizontally) with white pixels. Since the pixel in contact with the white pixel is traced by a plurality of pixel expansion processes, the white pixel appears to expand each time the number of times increases.

なお、複数回とは、例えば、8回や10回等、予め決められた数であり、実験的に好適値が定められている。又は、白画素の面積が一定以上になった場合に、画素膨張処理を止めても良い。   The multiple times is a predetermined number such as 8 times or 10 times, and a suitable value is experimentally determined. Alternatively, the pixel expansion process may be stopped when the area of the white pixel exceeds a certain value.

画素膨張処理を複数回実行することで、フレーム画像181と直前のフレーム画像182との差分を算出した直後では点在していた白画素が、大きさを持った塊になる。歩行者200の場合は差分画像が縦長なので、画素膨張処理により白画素は縦方向に大きくなり、動体よりもやや大きな(歩行者200よりやや大きい範囲)を特定できる。   By executing the pixel expansion process a plurality of times, the white pixels that are scattered immediately after the difference between the frame image 181 and the immediately preceding frame image 182 is calculated become a block having a size. In the case of the pedestrian 200, since the difference image is vertically long, the white pixel is enlarged in the vertical direction by the pixel expansion process, and a slightly larger size than the moving object (a range slightly larger than the pedestrian 200) can be specified.

次に、図15(d)に示すように、白画素が連続する領域の外接矩形を矩形領域601として特定する。これにより、歩行者200が写っている矩形領域601が特定される。   Next, as shown in FIG. 15D, a circumscribed rectangle of a region where white pixels are continuous is specified as a rectangular region 601. Thereby, the rectangular area | region 601 in which the pedestrian 200 is reflected is specified.

図14に戻る。表示画像作成部15は、時刻t=tn−1のフレームデータに対応付けられている歩行者ID及び位置に基づいて、上記のステップS707で特定した各歩行者200に歩行者IDを付与する(ステップS708)。 Returning to FIG. The display image creation unit 15 assigns a pedestrian ID to each pedestrian 200 identified in step S707 based on the pedestrian ID and position associated with the frame data at time t = t n−1. (Step S708).

すなわち、表示画像作成部15は、上記のステップS707で特定した各歩行者200について、当該歩行者200の位置から所定の範囲内の位置に対応付けられている歩行者IDを時刻t=tn−1のフレームデータから取得する。そして、表示画像作成部15は、取得した歩行者IDを、当該歩行者200の歩行者IDとする。 That is, for each pedestrian 200 identified in step S707, the display image creation unit 15 sets the pedestrian ID associated with a position within a predetermined range from the position of the pedestrian 200 at time t = t n. -1 from the frame data. Then, the display image creating unit 15 sets the acquired pedestrian ID as the pedestrian ID of the pedestrian 200.

例えば、上記のステップS707で特定した歩行者200の位置「x1n,y1n」から所定の範囲内に、時刻t=tn−1のフレームデータに対応付けられている位置「x1n−1,y1n−1」が含まれるものとする。この場合、表示画像作成部15は、時刻t=tn−1のフレームデータにおいて位置「x1n−1,y1n−1」と対応付けられている歩行者ID「m001」を、上記のステップS707で特定した歩行者200に付与する。 For example, the position “x 1n−1 ” associated with the frame data at time t = t n−1 within a predetermined range from the position “x 1n , y 1n ” of the pedestrian 200 identified in step S707 above. , Y 1n-1 ”. In this case, the display image creation unit 15 sets the pedestrian ID “m001” associated with the position “x 1n−1 , y 1n−1 ” in the frame data at time t = t n−1 to the above step. This is given to the pedestrian 200 identified in S707.

これにより、表示画像作成部15は、時刻t=tn−1のフレームデータと、時刻t=tのフレームデータとの間で、近い位置にいる歩行者200を同一の歩行者200であるものとして、同一の歩行者IDを付与することができる。すなわち、表示画像作成部15は、全天球画像撮像装置60の周囲を移動する各歩行者200を識別する歩行者IDを付与することができる。 As a result, the display image creation unit 15 makes the pedestrian 200 close to the same pedestrian 200 between the frame data at time t = t n−1 and the frame data at time t = t n. As a thing, the same pedestrian ID can be given. That is, the display image creation unit 15 can assign a pedestrian ID that identifies each pedestrian 200 that moves around the omnidirectional image capturing device 60.

なお、例えば、上記のステップS707で特定した歩行者200の位置から所定の範囲内に、時刻t=tn−1のフレームデータに対応付けられている複数の位置が含まれる場合、複数の位置のうち、最も近い位置と対応付けられている歩行者IDを付与すれば良い。 For example, when a plurality of positions associated with the frame data at time t = t n−1 are included within a predetermined range from the position of the pedestrian 200 identified in step S707 above, a plurality of positions Of these, a pedestrian ID associated with the closest position may be given.

また、表示画像作成部15は、上記のステップS707で特定した歩行者200の位置から所定の範囲内に、時刻t=tn−1のフレームデータに対応付けられている位置が含まれない場合、当該特定した歩行者200に異なる歩行者IDを付与する。表示画像作成部15は、上記のステップS707において、例えば、新たな歩行者200を特定する場合等があるからである。 Further, the display image creation unit 15 does not include a position associated with the frame data at time t = t n−1 within a predetermined range from the position of the pedestrian 200 identified in step S707 above. A different pedestrian ID is assigned to the identified pedestrian 200. This is because the display image creation unit 15 may specify a new pedestrian 200, for example, in step S707 described above.

次に、表示画像作成部15は、上記のステップS707で特定された歩行者200の位置と、当該歩行者200の歩行者IDとを、フレーム番号「f00n」のフレームデータに対応付けることで、表示フレームデータを作成する(ステップS709)。これにより、時刻t=tの表示フレームデータが作成される。 Next, the display image creating unit 15 associates the position of the pedestrian 200 identified in step S707 and the pedestrian ID of the pedestrian 200 with the frame data of the frame number “f00n” to display the pedestrian 200. Frame data is created (step S709). Thus, the display frame data at time t = t n is created.

すなわち、例えば、上記のステップS707で2人の歩行者200を特定し、それぞれの歩行者IDが「m001」及び「m002」、それぞれの位置が「x1n,y1n」及び「x2n,y2n」であるとする。この場合、表示画像作成部15は、フレーム番号「f00n」のフレームデータに、歩行者ID「m001」及び位置「x1n,y1n」と、歩行者ID「m002」及び位置「x2n,y2n」とを対応付ける。 That is, for example, two pedestrians 200 are specified in the above step S707, the respective pedestrian IDs are “m001” and “m002”, and the respective positions are “x 1n , y 1n ” and “x 2n , y”. 2n ". In this case, the display image creating unit 15 adds the pedestrian ID “m001” and the position “x 1n , y 1n ”, the pedestrian ID “m002” and the position “x 2n , y” to the frame data of the frame number “f00n”. 2n ".

次に、表示画像作成部15は、nがN未満であるか否かを判定する(ステップS710)。そして、表示画像作成部15は、nがN未満である場合、nに1を加算して(ステップS711)、ステップS706に戻る。   Next, the display image creation unit 15 determines whether n is less than N (step S710). If n is less than N, the display image creation unit 15 adds 1 to n (step S711), and returns to step S706.

このように、表示画像作成部15は、n=2〜Nに対して、画像データに含まれる各フレームデータから表示フレームデータを作成する。   In this way, the display image creation unit 15 creates display frame data from each frame data included in the image data for n = 2 to N.

ここで、表示フレームデータ毎に対応付けられた歩行者200の位置について、図16を用いて説明する。図16は、表示フレームデータ毎に対応付けられた歩行者200の位置の一例を説明する図である。   Here, the position of the pedestrian 200 associated with each display frame data will be described with reference to FIG. FIG. 16 is a diagram illustrating an example of the position of the pedestrian 200 associated with each display frame data.

図16は、各時刻t=tの表示フレームデータfnに対応付けられている歩行者ID及び位置を示している。すなわち、図16に示すように、時刻t=tの表示フレームデータf1には、歩行者ID「m001」及び位置「x11,y11」と、歩行者ID「m002」及び位置「x21,y21」とが対応付けられている。 Figure 16 shows a pedestrian ID and location associated with the display frame data fn at each time t = t n. That is, as shown in FIG. 16, the display frame data f1 at time t = t 1 includes the pedestrian ID “m001” and the position “x 11 , y 11 ”, the pedestrian ID “m002”, and the position “x 21. , Y 21 ”.

同様に、時刻t=tの表示フレームデータf2には、歩行者ID「m001」及び位置「x12,y12」と、歩行者ID「m002」及び位置「x22,y22」とが対応付けられている。また、同様に、時刻t=tの表示フレームデータfNには、歩行者ID「m001」及び位置「x1N,y1N」と、歩行者ID「m002」及び位置「x2N,y2N」とが対応付けられている。 Similarly, the display frame data f2 at time t = t 2 includes a pedestrian ID “m001” and a position “x 12 , y 12 ”, a pedestrian ID “m002” and a position “x 22 , y 22 ”. It is associated. Similarly, the display frame data fN at time t = t N includes a pedestrian ID “m001” and a position “x 1N , y 1N ”, a pedestrian ID “m002” and a position “x 2N , y 2N ”. Are associated with each other.

このように、各表示フレームデータfnには、当該表示フレームデータfnに写っている歩行者200の歩行者IDと、当該歩行者200の位置とが対応付けられている。これにより、本実施形態に係る画像表示システム100では、指導者等は、全天球画像撮像装置60の周囲を歩行する各歩行者200の動作を個別に又は比較しながら評価することができるようになる。   Thus, each display frame data fn is associated with the pedestrian ID of the pedestrian 200 shown in the display frame data fn and the position of the pedestrian 200. Thereby, in the image display system 100 which concerns on this embodiment, a leader etc. can evaluate the operation | movement of each pedestrian 200 who walks the circumference | surroundings of the omnidirectional image pick-up device 60 separately or comparing. become.

一方、表示画像作成部15は、nがN未満でない場合、各時刻t=t(n=1,2,・・・,N)の表示フレームデータを含む表示画像データを作成する(ステップS712)。 On the other hand, when n is not less than N, the display image creation unit 15 creates display image data including display frame data at each time t = t n (n = 1, 2,..., N) (step S712). ).

なお、例えば、表示装置30においてストリーミング等により表示画像データを再生する場合には、サーバ10は、上記のステップS709の処理が実行された後に、表示フレームデータを表示装置30に送信すれば良い。   For example, when the display image data is reproduced by streaming or the like on the display device 30, the server 10 may transmit the display frame data to the display device 30 after the process of step S <b> 709 is executed.

≪表示画像の作成処理の他の例(その1)≫
次に、図8のステップS119等の表示画像の作成処理の他の例(その1)について説明する。図17は、表示画像作成処理の他の例(その1)を説明するフローチャートである。図17に示す表示画像作成処理の他の例(その1)では、さらに、表示フレームデータに写っている各歩行者200の速度にも基づいて、各歩行者200に歩行者IDを付与するものである。これにより、表示画像作成部15は、より高い精度で、同一の歩行者200に同一の歩行者IDを付与することができるようになる。
<< Other examples of display image creation processing (part 1) >>
Next, another example (part 1) of the display image creation process in step S119 of FIG. 8 will be described. FIG. 17 is a flowchart for explaining another example (part 1) of the display image creation process. In another example (part 1) of the display image creation process shown in FIG. 17, a pedestrian ID is assigned to each pedestrian 200 based on the speed of each pedestrian 200 shown in the display frame data. It is. As a result, the display image creation unit 15 can assign the same pedestrian ID to the same pedestrian 200 with higher accuracy.

なお、図17におけるステップS801、ステップS805〜ステップS806、ステップS810〜ステップS812は、それぞれ、図14のステップS701、ステップS705〜ステップS706、及びステップS710〜ステップS712と同様であるため、その説明を省略する。   Note that step S801, step S805 to step S806, and step S810 to step S812 in FIG. 17 are the same as step S701, step S705 to step S706, and step S710 to step S712 in FIG. Omitted.

ステップS801に続いて、表示画像作成部15は、ステップS801で取得したフレームデータに写っている歩行者200を特定して、特定した歩行者200の位置及び速度を算出する(ステップS802)。ここで、歩行者200の速度は、例えば、特定した歩行者200の時刻t=tにおける加速度を積分して算出すれば良い。 Subsequent to step S801, the display image creation unit 15 specifies the pedestrian 200 shown in the frame data acquired in step S801, and calculates the position and speed of the specified pedestrian 200 (step S802). Here, the speed of the pedestrian 200 may be calculated by, for example, integrating the acceleration of the identified pedestrian 200 at time t = t 1 .

次に、表示画像作成部15は、上記のステップS802で特定した各歩行者200に歩行者IDを付与する(ステップS803)。なお、表示画像作成部15は、図14におけるステップS703と同様の方法で、各歩行者200に歩行者IDを付与すれば良い。   Next, the display image creation unit 15 assigns a pedestrian ID to each pedestrian 200 identified in step S802 (step S803). Note that the display image creation unit 15 may assign a pedestrian ID to each pedestrian 200 in the same manner as in step S703 in FIG.

次に、表示画像作成部15は、上記のステップS802で特定した歩行者200の位置及び速度と、当該歩行者200の歩行者IDとを、フレーム番号「f001」のフレームデータに対応付けることで、表示フレームデータを作成する(ステップS804)。これにより、時刻t=tの表示フレームデータが作成される。 Next, the display image creating unit 15 associates the position and speed of the pedestrian 200 identified in step S802 and the pedestrian ID of the pedestrian 200 with the frame data of the frame number “f001”. Display frame data is created (step S804). As a result, display frame data at time t = t 1 is created.

ステップS806に続いて、表示画像作成部15は、ステップS806で取得したフレームデータに写っている歩行者200を特定して、特定した歩行者200の位置及び速度を算出する(ステップS807)。なお、表示画像作成部15は、上記のステップS802と同様の方法で、歩行者200を特定して、歩行者200の位置及び速度を算出すれば良い。   Subsequent to step S806, the display image creating unit 15 specifies the pedestrian 200 shown in the frame data acquired in step S806, and calculates the position and speed of the specified pedestrian 200 (step S807). The display image creating unit 15 may identify the pedestrian 200 and calculate the position and speed of the pedestrian 200 by the same method as in step S802 above.

次に、表示画像作成部15は、時刻t=tn−1のフレームデータに対応付けられている歩行者ID、位置、及び速度に基づいて、上記のステップS807で特定した各歩行者200に歩行者IDを付与する(ステップS808)。 Next, the display image creation unit 15 adds to each pedestrian 200 identified in step S807 based on the pedestrian ID, position, and speed associated with the frame data at time t = t n−1. A pedestrian ID is assigned (step S808).

すなわち、表示画像作成部15は、特定した各歩行者200について、当該歩行者200の位置から所定の範囲内の位置、かつ、当該歩行者200の速度から所定の範囲内の速度に対応付けられている歩行者IDを、時刻t=tn−1のフレームデータから取得する。そして、表示画像作成部15は、取得した歩行者IDを、当該歩行者200の歩行者IDとする。 That is, the display image creating unit 15 associates each identified pedestrian 200 with a position within a predetermined range from the position of the pedestrian 200 and with a speed within a predetermined range from the speed of the pedestrian 200. Pedestrian ID is obtained from the frame data at time t = t n−1 . Then, the display image creating unit 15 sets the acquired pedestrian ID as the pedestrian ID of the pedestrian 200.

これにより、表示画像作成部15は、例えば、時刻t=tのフレームデータにおいて、異なる歩行者200が近くに写っている場合にも、各歩行者200の速度に基づいて、同一の歩行者200に同一の歩行者IDを付与することができるようになる。具体的には、表示画像作成部15は、歩行者200Aが歩行者200Bを追い越すような場合や歩行者200Aと歩行者200Bとがすれ違うような場合等でも、同一の歩行者200に同一の歩行者IDを付与することができるようになる。 Thus, the display image generation unit 15, for example, in the frame data at time t = t n, even when different pedestrian 200 is captured near, based on the speed of the pedestrian 200, the same pedestrian 200 can be given the same pedestrian ID. Specifically, the display image creating unit 15 performs the same walking for the same pedestrian 200 even when the pedestrian 200A passes the pedestrian 200B or when the pedestrian 200A and the pedestrian 200B pass each other. Person ID can be given.

次に、表示画像作成部15は、上記のステップS807で特定された歩行者200の位置及び速度と、当該歩行者200の歩行者IDとを、フレーム番号「f00n」のフレームデータに対応付けることで、表示フレームデータを作成する(ステップS809)。これにより、時刻t=tの表示フレームデータが作成される。 Next, the display image creation unit 15 associates the position and speed of the pedestrian 200 identified in step S807 and the pedestrian ID of the pedestrian 200 with the frame data of the frame number “f00n”. Display frame data is created (step S809). Thus, the display frame data at time t = t n is created.

ここで、表示フレームデータ毎に対応付けられた歩行者200の位置について、図18を用いて説明する。図18は、表示フレームデータ毎に対応付けられた歩行者の位置の他の例(その1)を説明する図である。   Here, the position of the pedestrian 200 associated with each display frame data will be described with reference to FIG. FIG. 18 is a diagram illustrating another example (part 1) of the position of the pedestrian associated with each display frame data.

図18は、各時刻t=tの表示フレームデータfnに対応付けられている歩行者ID、位置、及び速度を示している。すなわち、図16に示すように、時刻t=tの表示フレームデータf1には、歩行者ID「m001」、位置「x11,y11」、及び速度「v11」と、歩行者ID「m002」、位置「x21,y21」、及び速度「v21」とが対応付けられている。 Figure 18 is a pedestrian ID associated with the display frame data fn at each time t = t n, it indicates a position, and speed. That is, as shown in FIG. 16, the display frame data f1 at time t = t 1 includes the pedestrian ID “m001”, the position “x 11 , y 11 ”, the speed “v 11 ”, and the pedestrian ID “ m002 ”, position“ x 21 , y 21 ”, and speed“ v 21 ”are associated with each other.

同様に、時刻t=tの表示フレームデータf2には、歩行者ID「m001」、位置「x12,y12」、及び速度「v12」と、歩行者ID「m002」、位置「x22,y22」、及び速度「v22」とが対応付けられている。また、同様に、時刻t=tの表示フレームデータfNには、歩行者ID「m001」、位置「x1N,y1N」、及び速度「v1N」と、歩行者ID「m002」、位置「x2N,y2N」、及び速度「v2N」とが対応付けられている。 Similarly, the display frame data f2 at time t = t 2 includes a pedestrian ID “m001”, a position “x 12 , y 12 ”, a speed “v 12 ”, a pedestrian ID “m002”, and a position “x”. 22 , y 22 ”and speed“ v 22 ”are associated with each other. Similarly, the display frame data fN at time t = t N includes a pedestrian ID “m001”, a position “x 1N , y 1N ”, a speed “v 1N ”, a pedestrian ID “m002”, a position “X 2N , y 2N ” and speed “v 2N ” are associated with each other.

このように、各表示フレームデータfnには、当該表示フレームデータfnに写っている歩行者200の歩行者IDと、当該歩行者200の位置及び速度とが対応付けられている。これにより、本実施形態に係る画像表示システム100では、図14の表示画像の作成処理と比較して、より高い精度で、同一の歩行者200に同一の歩行者IDを付与することができるようになる。   Thus, each display frame data fn is associated with the pedestrian ID of the pedestrian 200 reflected in the display frame data fn and the position and speed of the pedestrian 200. Thereby, in the image display system 100 according to the present embodiment, the same pedestrian ID can be given to the same pedestrian 200 with higher accuracy than the display image creation processing of FIG. become.

≪表示画像の作成処理の他の例(その2)≫
次に、図8のステップS119等の表示画像の作成処理の他の例(その2)について説明する。図19は、表示画像作成処理の他の例(その2)を説明するフローチャートである。図19に示す表示画像作成処理の他の例(その2)では、さらに、表示フレームデータに写っている各歩行者200の色(代表色)にも基づいて、各歩行者200に歩行者IDを付与するものである。これにより、表示画像作成部15は、より高い精度で、同一の歩行者200に同一の歩行者IDを付与することができるようになる。
≪Other example of display image creation processing (part 2) ≫
Next, another example (part 2) of the display image creation process in step S119 of FIG. 8 will be described. FIG. 19 is a flowchart for explaining another example (part 2) of the display image creation process. In another example (part 2) of the display image creation process shown in FIG. 19, the pedestrian ID is assigned to each pedestrian 200 based on the color (representative color) of each pedestrian 200 shown in the display frame data. Is given. As a result, the display image creation unit 15 can assign the same pedestrian ID to the same pedestrian 200 with higher accuracy.

なお、図19におけるステップS901、ステップS905〜ステップS906、ステップS910〜ステップS912は、それぞれ、図14のステップS701、ステップS705〜ステップS706、及びステップS710〜ステップS712と同様であるため、その説明を省略する。   Note that step S901, step S905 to step S906, and step S910 to step S912 in FIG. 19 are the same as step S701, step S705 to step S706, and step S710 to step S712 in FIG. Omitted.

ステップS901に続いて、表示画像作成部15は、ステップS901で取得したフレームデータに写っている歩行者200を特定して、特定した歩行者200の位置及び代表色を算出する(ステップS902)。ここで、歩行者200の代表色は、例えば、特定した歩行者200の位置における画素の色とすれば良い。ただし、これに限られず、歩行者200の代表色は、例えば、特定した歩行者200の位置を含む周辺の画素(例えば、周囲8画素)の色の平均等であっても良い。   Subsequent to step S901, the display image creation unit 15 specifies the pedestrian 200 shown in the frame data acquired in step S901, and calculates the position and representative color of the specified pedestrian 200 (step S902). Here, the representative color of the pedestrian 200 may be the color of the pixel at the specified position of the pedestrian 200, for example. However, the present invention is not limited to this, and the representative color of the pedestrian 200 may be, for example, an average color of surrounding pixels including the specified position of the pedestrian 200 (for example, surrounding 8 pixels).

次に、表示画像作成部15は、上記のステップS902で特定した各歩行者200に歩行者IDを付与する(ステップS903)。なお、表示画像作成部15は、図14におけるステップS703と同様の方法で、各歩行者200に歩行者IDを付与すれば良い。   Next, the display image creation unit 15 assigns a pedestrian ID to each pedestrian 200 identified in step S902 (step S903). Note that the display image creation unit 15 may assign a pedestrian ID to each pedestrian 200 in the same manner as in step S703 in FIG.

次に、表示画像作成部15は、上記のステップS902で特定された歩行者200の位置及び代表色と、当該歩行者200の歩行者IDとを、フレーム番号「f001」のフレームデータに対応付けることで、表示フレームデータを作成する(ステップS904)。これにより、時刻t=tの表示フレームデータが作成される。 Next, the display image creation unit 15 associates the position and representative color of the pedestrian 200 specified in step S902 above and the pedestrian ID of the pedestrian 200 with the frame data of the frame number “f001”. Thus, display frame data is created (step S904). As a result, display frame data at time t = t 1 is created.

ステップS906に続いて、表示画像作成部15は、ステップS906で取得したフレームデータに写っている歩行者200を特定して、特定した歩行者200の位置及び代表色を算出する(ステップS907)。なお、表示画像作成部15は、上記のステップS902と同様の方法で、歩行者200を特定して、歩行者200の位置及び代表色を算出すれば良い。   Subsequent to step S906, the display image creating unit 15 specifies the pedestrian 200 in the frame data acquired in step S906, and calculates the position and representative color of the specified pedestrian 200 (step S907). The display image creating unit 15 may identify the pedestrian 200 and calculate the position and representative color of the pedestrian 200 by the same method as in step S902 above.

次に、表示画像作成部15は、時刻t=tn−1のフレームデータに対応付けられている歩行者ID、位置、及び代表色に基づいて、上記のステップS907で特定した各歩行者200に歩行者IDを付与する(ステップS908)。 Next, the display image creation unit 15 determines each pedestrian 200 identified in step S907 above based on the pedestrian ID, position, and representative color associated with the frame data at time t = t n−1. Is given a pedestrian ID (step S908).

すなわち、表示画像作成部15は、特定した各歩行者200について、当該歩行者200の位置から所定の範囲内の位置、かつ、当該歩行者200の代表色と近い代表色に対応付けられている歩行者IDを、時刻t=tn−1のフレームデータから取得する。そして、表示画像作成部15は、取得した歩行者IDを、当該歩行者200の歩行者IDとする。 That is, the display image creation unit 15 associates each identified pedestrian 200 with a representative color that is close to the representative color of the pedestrian 200 and a position within a predetermined range from the position of the pedestrian 200. The pedestrian ID is acquired from the frame data at time t = t n−1 . Then, the display image creating unit 15 sets the acquired pedestrian ID as the pedestrian ID of the pedestrian 200.

なお、代表色が近いとは、所定の色空間(例えば、RGB色空間やCMY色空間等)おいて、特定した歩行者200の代表色と、時刻t=tn−1のフレームデータに対応付けられている代表色との距離が所定の閾値以下であることをいう。 Note that the closeness of representative colors corresponds to the specified representative color of the pedestrian 200 and frame data at time t = t n−1 in a predetermined color space (for example, RGB color space, CMY color space, etc.). This means that the distance from the attached representative color is not more than a predetermined threshold.

これにより、表示画像作成部15は、例えば、時刻t=tのフレームデータにおいて、異なる歩行者200が近くに写っている場合にも、各歩行者200の代表色に基づいて、同一の歩行者200に同一の歩行者IDを付与することができるようになる。したがって、本実施形態に係る画像表示システム100では、例えば、各歩行者200にそれぞれ異なる色の服を着用させることで、より高い精度で、同一の歩行者200に同一の歩行者IDを付与することができるようになる。 Thus, the display image generation unit 15, for example, in the frame data at time t = t n, even when different pedestrian 200 is captured near, based on the representative color of the pedestrian 200, the same walking The person 200 can be given the same pedestrian ID. Therefore, in the image display system 100 according to the present embodiment, for example, by causing each pedestrian 200 to wear clothes of different colors, the same pedestrian ID is given to the same pedestrian 200 with higher accuracy. Will be able to.

次に、表示画像作成部15は、上記のステップS907で特定した歩行者200の位置及び代表色と、当該歩行者200の歩行者IDとを、フレーム番号「f00n」のフレームデータに対応付けることで、表示フレームデータを作成する(ステップS909)。これにより、時刻t=tの表示フレームデータが作成される。 Next, the display image creation unit 15 associates the position and representative color of the pedestrian 200 identified in step S907 and the pedestrian ID of the pedestrian 200 with the frame data of the frame number “f00n”. Display frame data is created (step S909). Thus, the display frame data at time t = t n is created.

ここで、表示フレームデータ毎に対応付けられた歩行者200の位置について、図20を用いて説明する。図20は、表示フレームデータ毎に対応付けられた歩行者の位置の他の例(その2)を説明する図である。   Here, the position of the pedestrian 200 associated with each display frame data will be described with reference to FIG. FIG. 20 is a diagram for explaining another example (part 2) of the position of the pedestrian associated with each display frame data.

図20は、各時刻t=tの表示フレームデータfnに対応付けられている歩行者ID、位置、及び代表色を示している。すなわち、図20に示すように、時刻t=tの表示フレームデータf1には、歩行者ID「m001」、位置「x11,y11」、及び代表色「#FF2398」と、歩行者ID「m002」、位置「x21,y21」、及び代表色「#87AC75」とが対応付けられている。 Figure 20 is a pedestrian ID associated with the display frame data fn at each time t = t n, it indicates a position, and the representative color. That is, as shown in FIG. 20, the display frame data f1 at time t = t 1 includes a pedestrian ID “m001”, a position “x 11 , y 11 ”, a representative color “# FF2398”, and a pedestrian ID. “M002”, position “x 21 , y 21 ”, and representative color “# 87AC75” are associated with each other.

同様に、時刻t=tの表示フレームデータf2には、歩行者ID「m001」、位置「x12,y12」、及び代表色「#FF2398」と、歩行者ID「m002」、位置「x22,y22」、及び代表色「#FF87AC74」とが対応付けられている。また、同様に、時刻t=tの表示フレームデータfNには、歩行者ID「m001」、位置「x1N,y1N」、及び代表色「#FF2397」と、歩行者ID「m002」、位置「x2N,y2N」、及び代表色「#87AC75」とが対応付けられている。 Similarly, the display frame data f2 at time t = t 2 includes a pedestrian ID “m001”, a position “x 12 , y 12 ”, a representative color “# FF2398”, a pedestrian ID “m002”, and a position “ x 22 , y 22 ”and the representative color“ # FF87AC74 ”are associated with each other. Similarly, the display frame data fN of time t = t N, pedestrians ID "m001" position and "x 1N, y 1N", and the representative color "# FF2397", pedestrians ID "m002" The position “x 2N , y 2N ” and the representative color “# 87AC75” are associated with each other.

このように、各表示フレームデータfnには、当該表示フレームデータfnに写っている歩行者200の歩行者IDと、当該歩行者200の位置及び代表色とが対応付けられている。これにより、本実施形態に係る画像表示システム100では、図14と比較して、より高い精度で、同一の歩行者200に同一の歩行者IDを付与することができるようになる。   In this way, each display frame data fn is associated with the pedestrian ID of the pedestrian 200 reflected in the display frame data fn, the position of the pedestrian 200, and the representative color. Thereby, in the image display system 100 according to the present embodiment, the same pedestrian ID can be assigned to the same pedestrian 200 with higher accuracy than in FIG.

<表示画像データと測定データの表示>
次に、表示画像データと測定データの表示例について説明する。図21は、表示装置30に表示された表示画像データと測定データの一例を示す図である。
<Display image data and measurement data>
Next, display examples of display image data and measurement data will be described. FIG. 21 is a diagram illustrating an example of display image data and measurement data displayed on the display device 30.

図21に示すデータ表示画面501は、主に、画像データ欄502と、選択欄503と、測定データ欄504とを有する。表示制御部32は、画像データ欄502に表示画像データを表示し、測定データ欄504に測定データを表示する。   A data display screen 501 shown in FIG. 21 mainly includes an image data column 502, a selection column 503, and a measurement data column 504. The display control unit 32 displays the display image data in the image data column 502 and displays the measurement data in the measurement data column 504.

このとき、表示制御部32は、選択欄503で選択された歩行者IDの歩行者200が写っている撮像範囲を表示画像データから取り出して、画像データ欄502に表示する。この処理については、後述する。   At this time, the display control unit 32 takes out the imaging range in which the pedestrian 200 having the pedestrian ID selected in the selection field 503 is captured from the display image data and displays it in the image data field 502. This process will be described later.

まず、画像データ欄502について説明する。指導者等が選択欄503で歩行者IDを選択した上で、ボタン505を押下すると、操作入力受付部33が当該押下操作を受け付ける。そして、表示制御部32は、選択された歩行者IDの歩行者200が写っている撮像範囲を表示画像データから取り出した上で、フレームレート(fps)と同じ再生速度で動画として再生する。なお、高速再生や低速再生等が可能であっても良い。   First, the image data column 502 will be described. When a leader or the like selects a pedestrian ID in the selection field 503 and presses the button 505, the operation input receiving unit 33 receives the pressing operation. And the display control part 32 reproduces | regenerates as a moving image at the same reproduction speed as a frame rate (fps), after taking out the imaging range which the pedestrian 200 of the selected pedestrian ID is reflected from display image data. Note that high-speed playback, low-speed playback, and the like may be possible.

指導者等が、再度、ボタン505を押下すると、操作入力受付部33は、当該押下操作を受け付ける。そして、表示制御部32は、表示画像データの再生を停止させる。このように、指導者等は、任意のタイミングの表示画像データを表示することができる。なお、表示画像データだけでなく、画像データAや画像データBと共に集音された音声を出力しても良い。   When a leader or the like presses the button 505 again, the operation input receiving unit 33 receives the pressing operation. Then, the display control unit 32 stops the reproduction of the display image data. In this way, a leader or the like can display display image data at an arbitrary timing. Note that not only the display image data but also the sound collected together with the image data A and the image data B may be output.

また、指導者等が、表示画像データの再生中に、選択欄503から別の歩行者IDを選択すると、操作入力受付部33は、当該選択操作を受け付ける。そして、表示制御部32は、選択された歩行者IDが写っている撮像範囲を表示画像データから取り出した上で、動画として再生する。   When a leader or the like selects another pedestrian ID from the selection field 503 during reproduction of the display image data, the operation input reception unit 33 receives the selection operation. And the display control part 32 reproduces | regenerates as a moving image, after taking out the imaging range in which the selected pedestrian ID is reflected from display image data.

なお、表示画像データが静止画の場合、指導者等がボタン505を押下すると、表示制御部32は、次の表示画像データを画像データ欄502に表示する。同様に、ボタン操作により、表示制御部32は、前の表示画像データを画像データ欄502に表示することができる。また、表示制御部32は、表示画像データを所定の時間間隔で次々に画像データ欄502に表示しても良い。   When the display image data is a still image, when a leader or the like presses the button 505, the display control unit 32 displays the next display image data in the image data column 502. Similarly, the display control unit 32 can display the previous display image data in the image data field 502 by a button operation. The display control unit 32 may display the display image data in the image data column 502 one after another at a predetermined time interval.

次に、測定データ欄504について説明する。図21では、選択欄503で選択された歩行者IDの歩行者200のx方向、y方向、及びz方向のそれぞれの加速度が時系列で表示されている。図21において、x方向、y方向、又はz方向のうち、指導者等の操作により、任意の1つ以上の方向の加速度を表示させても良い。なお、測定データは、連続的に表示されているが、例えば、表示画像データが静止画である場合には、全天球画像撮像装置60が画像を撮像したタイミングで加速度測定装置50により測定された加速度を表示しても良い。   Next, the measurement data column 504 will be described. In FIG. 21, the accelerations in the x direction, the y direction, and the z direction of the pedestrian 200 with the pedestrian ID selected in the selection field 503 are displayed in time series. In FIG. 21, acceleration in any one or more directions may be displayed by an operation of a leader or the like among the x direction, the y direction, or the z direction. The measurement data is continuously displayed. For example, when the display image data is a still image, the measurement data is measured by the acceleration measuring device 50 at the timing when the omnidirectional image capturing device 60 captures the image. Acceleration may be displayed.

表示制御部32は、測定データに含まれる測定値の全てが測定データ欄504に表示されるように測定データを変倍して測定データ欄504に表示する。なお、表示制御部32は、ある程度の時間分の測定値を測定データ欄504に表示し、所定の時間毎に切り替えても良い。   The display control unit 32 scales the measurement data so that all the measurement values included in the measurement data are displayed in the measurement data column 504, and displays them in the measurement data column 504. Note that the display control unit 32 may display measurement values for a certain amount of time in the measurement data column 504 and switch them at predetermined intervals.

図21(a)のように、表示制御部32は、画像データ欄502に表示されている歩行者200の歩行者IDと対応付けられている測定値を指し示すバー506を測定データ欄504に表示させる。例えば、測定データ欄504に全体又はある時間分の測定値が表示されており、表示画像データが再生されている場合、表示制御部32は、フレーム画像に表示されている歩行者200の歩行者IDに対応付けられている測定値にバー506を重畳させる。   As shown in FIG. 21A, the display control unit 32 displays a bar 506 indicating the measurement value associated with the pedestrian ID of the pedestrian 200 displayed in the image data field 502 in the measurement data field 504. Let For example, when the measurement values for the whole or a certain time are displayed in the measurement data column 504 and the display image data is reproduced, the display control unit 32 displays the pedestrian 200 pedestrian displayed in the frame image. A bar 506 is superimposed on the measurement value associated with the ID.

したがって、表示制御部32は、時間の経過と共に、又は動画の再生が進むにつれて、バー506を測定データ欄504において右方向に移動させる。なお、指導者等がバー506を移動させると操作入力受付部33が操作を受け付けて、移動後のバー506が指し示す測定値に対応付けられている表示フレームデータのフレーム画像を、表示制御部32が画像データ欄502に表示させても良い。   Therefore, the display control unit 32 moves the bar 506 to the right in the measurement data column 504 as time elapses or as the reproduction of the moving image proceeds. When a leader or the like moves the bar 506, the operation input accepting unit 33 accepts the operation, and the display control unit 32 displays a frame image of the display frame data associated with the measurement value indicated by the moved bar 506. May be displayed in the image data field 502.

また、図18(b)のように、歩行者ID「m001」の歩行者200Aを表示する画像データ欄502Aと、歩行者ID「m002」の歩行者200Bを表示する画像データ欄502Bとが表示されていても良い。このとき、同様に、歩行者ID「m001」の歩行者200Aの測定データAを表示する測定データ欄504Aと、歩行者ID「m002」の歩行者200Bの測定データBを表示する測定データ欄504Bとが表示される。   Also, as shown in FIG. 18B, an image data field 502A for displaying a pedestrian 200A with a pedestrian ID “m001” and an image data field 502B for displaying a pedestrian 200B with a pedestrian ID “m002” are displayed. May be. At this time, similarly, a measurement data column 504A for displaying the measurement data A of the pedestrian 200A with the pedestrian ID “m001” and a measurement data column 504B for displaying the measurement data B of the pedestrian 200B with the pedestrian ID “m002” are displayed. Is displayed.

これにより、指導者等は、歩行者IDを選択欄503で切り替えることなく、複数の歩行者200の歩行動作を比較しながら容易に評価することができるようになる。   Thereby, the leaders can easily evaluate the walking behavior of the plurality of pedestrians 200 without comparing the pedestrian IDs in the selection field 503.

≪測定データの評価について≫
ここで、測定データが加速度の場合、一般的な歩き方ではピークが周期的に現れると共に、ピークの高さもあまり変動しない。これに対して、年齢やケガ等で歩行機能が衰えたりすると、加速度のピークが周期的に現れなくなったり、ピークの高さも変動し易くなる。
≪About evaluation of measurement data≫
Here, when the measurement data is acceleration, a peak appears periodically in a general way of walking, and the height of the peak does not vary much. On the other hand, if the walking function deteriorates due to age, injury, or the like, the peak of acceleration does not appear periodically or the height of the peak tends to fluctuate.

このため、指導者等は、表示画像データを見るだけでも歩行動作を評価できる場合があるが、さらに、歩行動作が適切でないことを測定データにより裏付けることができる。また、指導者等は、測定データに乱れがある場所を特定して、表示画像データで確認したりすることができる。なお、表示画像データはある瞬間のフレーム画像しか表示されないが、測定データには一覧性があるため、指導者等は、適切でない歩行動作が表示されるフレーム画像を、測定データに基づいて短時間で探すことができる。   For this reason, the instructor or the like may be able to evaluate the walking motion only by looking at the display image data, but can further support the measurement data that the walking motion is not appropriate. In addition, a leader or the like can identify a place where the measurement data is disturbed and can check the display image data. Although the display image data is displayed only for a frame image at a certain moment, since the measurement data has a list property, an instructor or the like can quickly display a frame image on which an inappropriate walking motion is displayed based on the measurement data. You can search by

また、本実施形態では、加速度を例にして説明しているが、ジャイロセンサ206により検出した角速度、GPS受信装置213等が検出した位置、加速度・方位センサ205が検出する方位等を用いて、歩行動作が適切かどうかの評価を行うことも可能である。   In the present embodiment, the acceleration is described as an example. However, the angular velocity detected by the gyro sensor 206, the position detected by the GPS receiver 213, the azimuth detected by the acceleration / direction sensor 205, etc. It is also possible to evaluate whether the walking motion is appropriate.

例えば、ジャイロセンサ206が検出した角速度により、歩行者200が歩行する際のヨー角、ピッチ角、ロール角の変化の速さが分かる。この場合も、加速度と同様に、一般的な歩き方ではピークが周期的に現れると共に、ピークの高さもあまり変動しないことが知られている。   For example, the angular velocity detected by the gyro sensor 206 indicates the speed of change of the yaw angle, pitch angle, and roll angle when the pedestrian 200 walks. In this case as well, as with acceleration, it is known that peaks appear periodically in a general way of walking and the height of the peak does not vary much.

また、位置を2回微分すれば加速度が得られるため、GPS受信装置213等が検出した位置も加速度と同等の情報として用いることができる。また、旋回歩行の場合、方位は定常的に変化するが、方位を2回微分することで方位の変化の加速度が得られる。この場合も、ピークの周期と高さが評価の目安となる。また、これらの測定データでは、ピークが周期的で、高さの変動が少ない場合でも、ピークが極端に大きいような場合には、歩行動作に改善点がある可能性があるとして、指導者等が表示画像データを確認することができる。   Further, since the acceleration is obtained by differentiating the position twice, the position detected by the GPS receiver 213 and the like can be used as information equivalent to the acceleration. In the case of turning walking, the azimuth constantly changes, but acceleration of the change in azimuth can be obtained by differentiating the azimuth twice. In this case as well, the peak period and height are a guide for evaluation. In addition, in these measurement data, even if the peak is periodic and the height fluctuation is small, if the peak is extremely large, there may be an improvement in walking motion. Can confirm the display image data.

また、表示装置30の表示制御部32は、加速度と加速度=0の軸との面積を算出し、表示しても良い。例えば、8の字型に歩行している歩行者200が旋回歩行している場合には、y方向は歩行者200の左右方向の加速度なので、加速度が正側の面積と、負側の面積とは、ラインLに対する左右のぶれを示す。ラインLの上を歩行者200が歩行すれば、正側の面積と、負側の面積とはほぼ等しくなる。したがって、正側の面積と負側の面積が大きく異なるような場合、歩行者200の左脚と右脚のバランスが悪いことが分かる。   The display control unit 32 of the display device 30 may calculate and display the area between the acceleration and the axis of acceleration = 0. For example, when the pedestrian 200 walking in the shape of figure 8 is turning, the y direction is the acceleration in the left-right direction of the pedestrian 200, so that the acceleration is an area on the positive side and an area on the negative side. Indicates left and right blurring with respect to the line L. If the pedestrian 200 walks on the line L, the area on the positive side and the area on the negative side are almost equal. Therefore, when the area on the positive side is significantly different from the area on the negative side, it can be seen that the balance between the left leg and the right leg of the pedestrian 200 is poor.

このように、指導者等は、時間軸が同期された測定データと表示画像データとを見ることで、歩行者200の歩行動作を評価するための多くの情報を得ることができる。   Thus, a leader or the like can obtain a lot of information for evaluating the walking motion of the pedestrian 200 by looking at the measurement data and the display image data whose time axes are synchronized.

<全天球画像の回転>
表示画像データには、全天球画像撮像装置60の周囲360°の画像が映っている。このため、表示制御部32は、指導者等により選択された歩行者IDに応じて、選択された歩行者IDの歩行者200が写っている範囲だけを画像データ欄502に表示する。このような処理を全天球画像の回転、トリミング、歩行者200の抽出、又は取り出し等と表現する。全天球画像の回転とは、全天球画像を水平方向に(経度方向に)回転させて、画像データ欄502に表示される範囲を決定することをいう。
<Rotation of spherical image>
In the display image data, an image of 360 ° around the omnidirectional image capturing device 60 is shown. For this reason, the display control unit 32 displays only the range in which the pedestrian 200 of the selected pedestrian ID is shown in the image data field 502 according to the pedestrian ID selected by the instructor or the like. Such processing is expressed as rotation of the omnidirectional image, trimming, extraction or extraction of the pedestrian 200, or the like. The rotation of the omnidirectional image refers to determining the range displayed in the image data field 502 by rotating the omnidirectional image in the horizontal direction (in the longitude direction).

図22は、選択された歩行者IDの歩行者200が写っている範囲を画像回転部34が特定して、画像データ欄502に表示する処理の一例を示すフローチャートである。図22の処理は、例えば、表示装置30が表示画像データを受信して、当該表示画像データの再生が行われると開始される。   FIG. 22 is a flowchart illustrating an example of a process in which the image rotation unit 34 specifies a range in which the pedestrian 200 with the selected pedestrian ID is shown and displays the range in the image data field 502. The process of FIG. 22 is started, for example, when the display device 30 receives display image data and the display image data is reproduced.

まず、画像回転部34は、指導者等により選択された歩行者IDに対応付けられている位置を表示フレームデータから取得する。そして、画像回転部34は、取得した位置が表示範囲の中心となるようにフレーム画像を回転させる(S1001)。すなわち、表示画像データに含まれる表示フレームデータが切り替わると、画像回転部34は、選択された歩行者IDに対応付けられている位置を取得して、当該位置が表示範囲の中心となるようにフレーム画像を回転させることで、トリミングを行う。   First, the image rotation part 34 acquires the position matched with pedestrian ID selected by the leader etc. from display frame data. Then, the image rotation unit 34 rotates the frame image so that the acquired position becomes the center of the display range (S1001). That is, when the display frame data included in the display image data is switched, the image rotation unit 34 acquires a position associated with the selected pedestrian ID so that the position becomes the center of the display range. Trimming is performed by rotating the frame image.

これにより、フレーム画像のほぼ中央に、指導者等により選択された歩行者IDの歩行者200が写るようにすることができる。   As a result, the pedestrian 200 with the pedestrian ID selected by the instructor or the like can be captured in the approximate center of the frame image.

表示制御部32は、画像回転部34によりトリミングされた表示範囲のフレーム画像を画像データ欄502に表示する(ステップS1002)。このため、指導者等は、360°の範囲が撮像されている全天球画像から歩行者200を探す必要なく、歩行者200の歩行動作を評価することができる。   The display control unit 32 displays the frame image of the display range trimmed by the image rotation unit 34 in the image data field 502 (step S1002). For this reason, a leader etc. can evaluate walking action of the pedestrian 200, without searching for the pedestrian 200 from the omnidirectional image by which the range of 360 degrees was imaged.

なお、画像回転部34の機能をサーバ10又は全天球画像撮像装置60が有していても良い。この場合、サーバ10や全天球画像撮像装置60から表示装置30へ表示画像データが送信される際の通信負荷や通信時間を低減することができる。   Note that the server 10 or the omnidirectional image capturing device 60 may have the function of the image rotation unit 34. In this case, the communication load and communication time when display image data is transmitted from the server 10 or the omnidirectional image capturing device 60 to the display device 30 can be reduced.

<画像表示システム100の他のシステム構成>
ここで、画像表示システム100の他のシステム構成について説明する。図23は、画像表示システム100のシステム構成の他の例を示す図である。
<Other System Configurations of Image Display System 100>
Here, another system configuration of the image display system 100 will be described. FIG. 23 is a diagram illustrating another example of the system configuration of the image display system 100.

図23(a)は、画像表示システム100のシステム構成の他の例である。図23(a)に示す画像表示システム100では、サーバ10がディスプレイ108を有している。図23(a)に示す構成では、サーバ10が表示装置30の各種機能を有している。すなわち、サーバ10は、表示画像データの作成、及び測定データと画像データの時間軸の同期に加えて、フレーム画像の回転等を行って、測定データと表示画像データを表示する。   FIG. 23A shows another example of the system configuration of the image display system 100. In the image display system 100 illustrated in FIG. 23A, the server 10 includes a display 108. In the configuration shown in FIG. 23A, the server 10 has various functions of the display device 30. That is, the server 10 displays the measurement data and the display image data by rotating the frame image in addition to the creation of the display image data and the synchronization of the time axes of the measurement data and the image data.

図23(b)は、画像表示システム100のシステム構成の他の例である。図23(b)に示す画像表示システム100では、サーバ10及び表示装置30を有しない。図23(b)に示す構成では、加速度測定装置50A又は加速度測定装置50Bが、サーバ10と表示装置30の各種機能を有している。   FIG. 23B is another example of the system configuration of the image display system 100. The image display system 100 illustrated in FIG. 23B does not include the server 10 and the display device 30. In the configuration shown in FIG. 23B, the acceleration measuring device 50A or the acceleration measuring device 50B has various functions of the server 10 and the display device 30.

ここで、図23(b)に示す画像表示システム100における全体的な動作について説明する。図24は、加速度測定装置50Aが測定データと表示画像データを表示する場合における画像表示システム100の全体的な動作の一例を説明するシーケンス図である。   Here, the overall operation in the image display system 100 shown in FIG. 23B will be described. FIG. 24 is a sequence diagram illustrating an example of the overall operation of the image display system 100 when the acceleration measuring device 50A displays measurement data and display image data.

まず、歩行動作の測定を始める際、指導者又は歩行者200A等は、歩行動作の測定を開始するための操作を加速度測定装置50Aに入力する。すると、加速度測定装置50Aは、指導者又は歩行者200A等の操作を受け付ける(ステップS1101)。   First, when starting measurement of walking motion, a leader or a pedestrian 200A or the like inputs an operation for starting measurement of walking motion to the acceleration measuring device 50A. Then, the acceleration measuring device 50A accepts an operation of a leader or a pedestrian 200A (step S1101).

次に、加速度測定装置50Aの通信部51は、測定開始要求を加速度測定装置50Bに送信すると共に、撮像開始要求を全天球画像撮像装置60に送信する(ステップS1102及びS1103)。   Next, the communication unit 51 of the acceleration measuring device 50A transmits a measurement start request to the acceleration measuring device 50B and transmits an imaging start request to the omnidirectional image capturing device 60 (steps S1102 and S1103).

次に、加速度測定装置50A及び加速度測定装置50Bの加速度検出部52は、加速度の測定を開始する(ステップS1104及びステップS1105)。また、全天球画像撮像装置60の撮像部62は、歩行者200の撮像を開始する(ステップS1106)。   Next, the acceleration detector 52 of the acceleration measuring device 50A and the acceleration measuring device 50B starts measuring acceleration (steps S1104 and S1105). In addition, the imaging unit 62 of the omnidirectional image imaging device 60 starts imaging the pedestrian 200 (step S1106).

次に、歩行者200の歩行が終了した場合、指導者又は歩行者200A等は、歩行動作の測定を終了する操作を加速度測定装置50Aに入力する。すると、加速度測定装置50Aは、指導者又は歩行者200A等の操作を受け付ける(ステップS1107)。   Next, when the walking of the pedestrian 200 is finished, the instructor or the pedestrian 200A inputs an operation for ending the measurement of the walking motion to the acceleration measuring device 50A. Then, the acceleration measuring device 50A receives an operation of a leader or a pedestrian 200A (step S1107).

次に、加速度測定装置50Aの通信部51は、測定終了要求を加速度測定装置50Bに送信すると共に、撮像終了要求を全天球画像撮像装置60に送信する(ステップS1108及びS1109)。   Next, the communication unit 51 of the acceleration measuring device 50A transmits a measurement end request to the acceleration measuring device 50B and transmits an imaging end request to the omnidirectional image capturing device 60 (steps S1108 and S1109).

次に、加速度測定装置50Bの加速度検出部52は、通信部51により測定終了要求を受信すると、加速度の測定を終了する。そして、加速度測定装置50Bの通信部51は、記憶部5000に記憶されている測定データBを加速度測定装置50Aに送信する(ステップS1110)。   Next, when the communication unit 51 receives a measurement end request, the acceleration detection unit 52 of the acceleration measuring device 50B ends the acceleration measurement. Then, the communication unit 51 of the acceleration measuring device 50B transmits the measurement data B stored in the storage unit 5000 to the acceleration measuring device 50A (step S1110).

また、全天球画像撮像装置60の撮像部62は、通信部61により撮像終了要求を受信すると、撮像を終了する。そして、全天球画像撮像装置60の通信部61は、記憶部6000に記憶されている画像データを加速度測定装置50Aに送信する(ステップS1111)。   In addition, when the imaging unit 62 of the omnidirectional image imaging device 60 receives the imaging end request from the communication unit 61, the imaging unit 62 ends the imaging. Then, the communication unit 61 of the omnidirectional image capturing device 60 transmits the image data stored in the storage unit 6000 to the acceleration measuring device 50A (step S1111).

次に、加速度測定装置50Aは、図8のステップS118と同様に、測定データを加工する(ステップS1112)。   Next, the acceleration measuring device 50A processes the measurement data as in step S118 of FIG. 8 (step S1112).

次に、加速度測定装置50Aは、図8のステップS119と同様に、表示画像データを作成する(ステップS1113)。   Next, the acceleration measuring device 50A creates display image data as in step S119 of FIG. 8 (step S1113).

次に、加速度測定装置50Aは、図8のステップS120と同様に、測定データと画像データの時間軸を同期させる(ステップS1114)。   Next, the acceleration measuring device 50A synchronizes the time axes of the measurement data and the image data as in step S120 of FIG. 8 (step S1114).

次に、加速度測定装置50Aは、自機のディスプレイ214に測定データと表示画像データを表示する(ステップS1115)。なお、加速度測定装置50Aは、指導者等の端末(サーバ10等)に測定データと表示画像データを送信しても良い(ステップS1116)。この場合、指導者等の端末は、測定データと表示画像データを表示する(ステップS1117)。   Next, the acceleration measuring device 50A displays measurement data and display image data on the display 214 of the own device (step S1115). In addition, 50 A of acceleration measuring apparatuses may transmit measurement data and display image data to terminals, such as a leader (server 10 grade | etc.,) (Step S1116). In this case, a terminal such as a leader displays measurement data and display image data (step S1117).

したがって、図23(b)に示す構成によれば、画像表示システム100のシステム構成を簡易化できる。歩行者200は、加速度測定装置50を装着して歩行し、歩行の終了後は加速度測定装置50を指導者等に渡せば指導者から指導を受けることができるようになる。   Therefore, according to the configuration shown in FIG. 23B, the system configuration of the image display system 100 can be simplified. The pedestrian 200 walks while wearing the acceleration measuring device 50. After the end of walking, the pedestrian 200 can receive guidance from the instructor by passing the acceleration measuring device 50 to the instructor or the like.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、本実施形態では、測定データの測定終了後及び画像データの撮像終了後に、測定データ及び表示画像データが表示されているが、リアルタイムに測定データ及び表示画像データが表示されても良い。この場合、表示される測定データ及び表示画像データはほぼ同時期に撮像されたものである。   For example, in the present embodiment, the measurement data and the display image data are displayed after the measurement data is measured and the image data is captured. However, the measurement data and the display image data may be displayed in real time. In this case, the displayed measurement data and display image data are taken at substantially the same time.

また、以上の実施例で示した図6等の構成例は、サーバ10、表示装置30、全天球画像撮像装置60、及び加速度測定装置50の処理の理解を容易にするために、主な機能に応じて分割したものである。例えば、サーバ10が複数台存在し、複数のサーバ10が協働して本実施形態の処理を行っても良い。また、サーバ10の記憶部1000はサーバ10が有している必要はなく、記憶部1000は、サーバ10が当該記憶部1000のデータを読み書き可能な場所にあれば良い。   In addition, the configuration example of FIG. 6 and the like shown in the above embodiment is mainly used for easy understanding of the processing of the server 10, the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50. It is divided according to the function. For example, a plurality of servers 10 may exist, and a plurality of servers 10 may cooperate to perform the processing of this embodiment. Further, the storage unit 1000 of the server 10 does not need to be included in the server 10, and the storage unit 1000 only needs to be in a place where the server 10 can read and write data in the storage unit 1000.

また、図6では、サーバ10、表示装置30、全天球画像撮像装置60、及び加速度測定装置50の機能をいくつかの処理単位に分割して説明した。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。サーバ10、表示装置30、全天球画像撮像装置60、及び加速度測定装置50の処理は、処理内容に応じてさらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。   In FIG. 6, the functions of the server 10, the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50 have been described by being divided into several processing units. However, the present invention is not limited by the way of dividing or the name of each processing unit. The processing of the server 10, the display device 30, the omnidirectional image capturing device 60, and the acceleration measuring device 50 can be divided into more processing units depending on the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes.

10 サーバ
15 表示画像作成部
16 画像調整部
30 表示装置
32 表示制御部
33 操作入力受付部
34 画像回転部
50 加速度測定装置
60 全天球画像撮像装置
100 画像表示システム
DESCRIPTION OF SYMBOLS 10 Server 15 Display image creation part 16 Image adjustment part 30 Display apparatus 32 Display control part 33 Operation input reception part 34 Image rotation part 50 Acceleration measuring apparatus 60 Omnispherical image imaging device 100 Image display system

特開2010−172394号公報JP 2010-172394 A

Claims (19)

情報処理装置と、水平方向の周囲を撮像可能な広角撮像装置と、移動する1以上の対象の動作をそれぞれ測定する1以上の測定装置とを有する画像表示システムであって、
前記広角撮像装置が前記1以上の対象を撮像することにより生成した画像データと、前記1以上の測定装置が前記1以上の対象の動作をそれぞれ測定することにより生成した1以上の測定データとを取得する取得手段と、
前記画像データにおける前記1以上の対象の位置をそれぞれ特定し、特定した前記位置を前記画像データと対応付ける第1の対応付け手段と、
前記1以上の測定データそれぞれと、前記画像データとを対応付ける第2の対応付け手段と、
前記画像データに対応付けられている前記位置に基づいて、前記画像データと、該画像データに対応付けられている前記1以上の測定データとを表示装置に表示させる表示手段と、
を有する画像表示システム。
An image display system comprising: an information processing device; a wide-angle imaging device capable of imaging a surrounding area in the horizontal direction; and one or more measuring devices that respectively measure movements of one or more moving objects.
Image data generated by imaging the one or more objects by the wide-angle imaging device, and one or more measurement data generated by measuring the operations of the one or more objects by the one or more measurement devices, respectively. Acquisition means for acquiring;
A first association unit that identifies each of the one or more target positions in the image data, and associates the identified position with the image data;
A second association means for associating each of the one or more measurement data with the image data;
Display means for displaying on the display device the image data and the one or more measurement data associated with the image data based on the position associated with the image data;
An image display system.
前記広角撮像装置は、
方向を変えながら又は方向を変えて、前記広角撮像装置の周囲を移動する前記1以上の対象を撮像し、
前記第1の対応付け手段は、
方向を変えながら又は方向を変えて進行する前記1以上の対象が撮像された画像データにおける前記1以上の対象の位置をそれぞれ特定し、特定した前記位置を前記画像データと対応付け、
前記第2の対応付け手段は、
前記1以上の測定データそれぞれと、方向を変えながら又は方向を変えて進行する前記1以上の対象が撮像された画像データとを対応付ける、請求項1に記載の画像表示システム。
The wide-angle imaging device
Imaging the one or more objects moving around the wide-angle imaging device while changing direction or changing direction;
The first association means includes
Specifying the positions of the one or more objects in the image data obtained by imaging the one or more objects moving while changing directions or changing directions, and associating the specified positions with the image data;
The second association means includes
2. The image display system according to claim 1, wherein each of the one or more measurement data is associated with image data obtained by capturing the one or more objects that progress while changing directions or changing directions.
前記情報処理装置は、
前記1以上の測定装置のそれぞれに測定開始及び測定終了を要求すると共に、前記広角撮像装置に撮像開始及び撮像終了を要求する指示手段を有し、
前記第2の対応付け手段は、
前記1以上の測定データそれぞれの測定開始及び前記画像データの撮像開始と、前記1以上の測定データそれぞれの測定終了及び前記画像データの撮像終了とに基づいて、前記1以上の測定データそれぞれと、前記画像データとを対応付ける、請求項1又は2に記載の画像表示システム。
The information processing apparatus includes:
Requesting each of the one or more measurement devices to start measurement and end measurement, and to instruct the wide-angle imaging device to start imaging and end imaging,
The second association means includes
Based on the measurement start of each of the one or more measurement data and the imaging start of the image data, the measurement end of each of the one or more measurement data and the imaging end of the image data, The image display system according to claim 1, wherein the image data is associated with the image data.
前記表示装置は、
前記対象の動作の測定開始又は前記対象の撮像開始の少なくとも一方を受け付ける受付手段と、
前記受付手段が受け付けた前記測定開始又は前記撮像開始の少なくとも一方を前記情報処理装置に通知する通知手段と、
を有する、請求項3に記載の画像表示システム。
The display device
Receiving means for receiving at least one of measurement start of the target motion or imaging start of the target;
Notification means for notifying the information processing apparatus of at least one of the measurement start or the imaging start received by the reception means;
The image display system according to claim 3, comprising:
前記測定データには、前記対象の動作を測定した測定値が1以上含まれ、
前記測定装置は、
所定の閾値以上の前記測定値が検出された場合に、前記測定データの生成を開始すると共に、撮像の開始を前記広角撮像装置に要求する測定手段を有し、
前記広角撮像装置は、
前記測定手段による撮像の開始要求を受け取ると、前記対象の撮像を開始して、前記画像データの生成を開始する撮像手段、
を有する、請求項1乃至4の何れか一項に記載の画像表示システム。
The measurement data includes one or more measurement values obtained by measuring the operation of the object,
The measuring device is
When the measurement value equal to or greater than a predetermined threshold is detected, the measurement data is started and the measurement means that requests the wide-angle imaging device to start imaging,
The wide-angle imaging device
Upon receiving a request to start imaging by the measuring unit, the imaging unit starts imaging the target and starts generating the image data.
The image display system according to claim 1, comprising:
前記測定手段は、
所定の閾値未満の前記測定値が検出された場合に、前記測定データの生成を終了すると共に、撮像の終了を前記広角撮像装置に要求し、
前記撮像手段は、
前記測定手段による撮像の終了要求を受け取ると、前記対象の撮像を終了して、前記画像データの生成を終了する、請求項5に記載の画像表示システム。
The measuring means includes
When the measurement value less than a predetermined threshold is detected, the generation of the measurement data is terminated, and the wide-angle imaging device is requested to end imaging.
The imaging means includes
The image display system according to claim 5, wherein upon receiving a request to end imaging by the measuring unit, imaging of the target is terminated and generation of the image data is terminated.
前記広角撮像装置は、
前記対象の撮像を開始することを報知する第1の報知手段を有する、請求項1乃至6の何れか一項に記載の画像表示システム。
The wide-angle imaging device
The image display system according to claim 1, further comprising: a first notification unit that notifies the start of imaging of the target.
前記測定装置は、
前記対象の動作の測定を開始することを報知する第2の報知手段を有する、請求項1乃至7の何れか一項に記載の画像表示システム。
The measuring device is
The image display system according to any one of claims 1 to 7, further comprising a second notification unit that notifies that measurement of the movement of the target is started.
前記第1の対応付け手段は、
前記画像データに含まれるフレーム画像データ毎に、該フレーム画像データにおける前記1以上の対象の位置をそれぞれ特定し、特定した前記位置を前記フレーム画像データに対応付け、
前記第2の対応付け手段は、
前記1以上の測定データそれぞれに含まれる測定値と、前記画像データに含まれるフレーム画像データとを対応付け、
前記表示手段は、
前記フレーム画像データに対応付けられている前記位置に基づいて、前記画像データに含まれるフレーム画像データと、該フレーム画像データに対応付けられている1以上の前記測定値とを前記表示装置に表示させる、請求項1乃至8の何れか一項に記載の画像表示システム。
The first association means includes
For each frame image data included in the image data, specify the position of the one or more objects in the frame image data, and associate the specified position with the frame image data.
The second association means includes
Associating a measurement value included in each of the one or more measurement data with frame image data included in the image data;
The display means includes
Based on the position associated with the frame image data, the frame image data included in the image data and the one or more measurement values associated with the frame image data are displayed on the display device. The image display system according to any one of claims 1 to 8.
前記表示手段は、
前記フレーム画像データにおいて、該フレーム画像データに対応付けられている前記位置を含む所定の範囲の領域を前記表示装置に表示させる、請求項9に記載の画像表示システム。
The display means includes
The image display system according to claim 9, wherein in the frame image data, a region in a predetermined range including the position associated with the frame image data is displayed on the display device.
前記第1の対応付け手段は、
前記画像データに含まれるフレーム画像データ毎に、該フレーム画像データにおける前記1以上の対象の位置をそれぞれ特定し、特定した前記位置と、前記対象を識別する識別情報とを前記フレーム画像データに対応付け、
前記表示手段は、
前記対象の識別情報の指定に応じて、前記フレーム画像データにおいて、該フレーム画像データに対応付けられている前記位置のうち、指定された識別情報に対応付けられている位置を含む所定の範囲の領域を前記表示装置に表示させる、請求項10に記載の画像表示システム。
The first association means includes
For each frame image data included in the image data, the position of the one or more objects in the frame image data is specified, and the specified position and identification information for identifying the object are associated with the frame image data. With
The display means includes
In accordance with the designation of the target identification information, the frame image data has a predetermined range including the position associated with the designated identification information among the positions associated with the frame image data. The image display system according to claim 10, wherein an area is displayed on the display device.
前記第1の対応付け手段は、
前記画像データに含まれるフレーム画像データ毎に、該フレーム画像データにおける前記1以上の対象の速度に基づいて、該対象の識別情報を特定し、特定した識別情報と、前記位置とを前記フレーム画像データに対応付ける、請求項9乃至11の何れか一項に記載の画像表示システム。
The first association means includes
For each frame image data included in the image data, the identification information of the object is specified based on the speed of the one or more objects in the frame image data, and the specified identification information and the position are determined as the frame image. The image display system according to any one of claims 9 to 11, which is associated with data.
前記第1の対応付け手段は、
前記画像データに含まれるフレーム画像データ毎に、該フレーム画像データにおける前記1以上の対象の色に基づいて、該対象の識別情報を特定し、特定した識別情報と、前記位置とを前記フレーム画像データに対応付ける、請求項9乃至11の何れか一項に記載の画像表示システム。
The first association means includes
For each frame image data included in the image data, the identification information of the object is specified based on the color of the one or more objects in the frame image data, and the specified identification information and the position are determined as the frame image. The image display system according to any one of claims 9 to 11, which is associated with data.
水平方向の周囲を撮像可能な広角撮像装置と、移動する1以上の対象の動作をそれぞれ測定する1以上の測定装置と通信可能な情報処理装置であって、
前記広角撮像装置が前記1以上の対象を撮像することにより生成した画像データと、前記1以上の測定装置が前記1以上の対象の動作をそれぞれ測定することにより生成した1以上の測定データとを取得する取得手段と、
前記画像データにおける前記1以上の対象の位置をそれぞれ特定し、特定した前記位置を前記画像データと対応付ける第1の対応付け手段と、
前記1以上の測定データそれぞれと、前記画像データとを対応付ける第2の対応付け手段と、
前記画像データに対応付けられている前記位置に基づいて、前記画像データと、該画像データに対応付けられている前記1以上の測定データとを表示装置に表示させる表示手段と、
を有する情報処理装置。
An information processing apparatus capable of communicating with a wide-angle imaging device capable of imaging a surrounding area in the horizontal direction and one or more measurement devices that measure the movements of one or more moving objects,
Image data generated by imaging the one or more objects by the wide-angle imaging device, and one or more measurement data generated by measuring the operations of the one or more objects by the one or more measurement devices, respectively. Acquisition means for acquiring;
A first association unit that identifies each of the one or more target positions in the image data, and associates the identified position with the image data;
A second association means for associating each of the one or more measurement data with the image data;
Display means for displaying on the display device the image data and the one or more measurement data associated with the image data based on the position associated with the image data;
An information processing apparatus.
水平方向の周囲を撮像可能な広角撮像装置と、移動する第1の対象の動作を測定して第1の測定データを生成する測定装置と通信可能な情報処理装置であって、
移動する第2の対象の動作を測定して第2の測定データを生成する測定手段と、
前記広角撮像装置が前記第1の対象及び前記第2の対象を撮像することにより生成した画像データと、前記第1の測定データとを取得する取得手段と、
前記画像データにおける前記第1の対象の第1の位置と、前記第2の対象の第2の位置とを特定し、特定した前記第1の位置及び前記第2の位置を前記画像データと対応付ける第1の対応付け手段と、
前記第1の測定データ及び前記第2の測定データそれぞれと、前記画像データとを対応付ける第2の対応付け手段と、
前記画像データに対応付けられている前記第1の位置及び/又は第2の位置に基づいて、前記画像データと、該画像データに対応付けられている前記第1の測定データ及び/又は前記第2の測定データとを表示装置に表示させる表示手段と、
を有する情報処理装置。
An information processing apparatus capable of communicating with a wide-angle imaging device capable of imaging a surrounding area in the horizontal direction and a measurement device that measures the movement of a moving first object and generates first measurement data,
Measuring means for measuring the movement of the moving second object and generating second measurement data;
Acquisition means for acquiring image data generated by the wide-angle imaging device imaging the first object and the second object, and the first measurement data;
The first position of the first object and the second position of the second object in the image data are specified, and the specified first position and the second position are associated with the image data. First association means;
Second association means for associating each of the first measurement data and the second measurement data with the image data;
Based on the first position and / or the second position associated with the image data, the image data and the first measurement data and / or the first position associated with the image data. Display means for displaying two measurement data on a display device;
An information processing apparatus.
水平方向の周囲を撮像可能な広角撮像装置であって、移動する1以上の対象の動作をそれぞれ測定する1以上の測定装置と、情報処理装置と通信可能な撮像装置において、
前記広角撮像装置が前記1以上の対象を撮像することにより生成した画像データを生成する撮像手段と、
前記1以上の測定装置が前記1以上の対象の動作をそれぞれ測定することにより生成した1以上の測定データを取得する取得手段と、
前記画像データと、前記1以上の測定データとを前記情報処理装置に送信する送信手段と、
を有する撮像装置。
In a wide-angle imaging device capable of imaging a surrounding area in the horizontal direction, one or more measuring devices each measuring the motion of one or more moving objects, and an imaging device capable of communicating with an information processing device,
Imaging means for generating image data generated by imaging the one or more objects by the wide-angle imaging device;
Obtaining means for obtaining one or more measurement data generated by the one or more measurement devices respectively measuring the movements of the one or more objects;
Transmitting means for transmitting the image data and the one or more measurement data to the information processing apparatus;
An imaging apparatus having
水平方向の周囲を撮像可能な広角撮像装置と、移動する1以上の対象の動作をそれぞれ測定する1以上の測定装置と通信可能な情報処理装置を、
前記広角撮像装置が前記1以上の対象を撮像することにより生成した画像データと、前記1以上の測定装置が前記1以上の対象の動作をそれぞれ測定することにより生成した1以上の測定データとを取得する取得手段、
前記画像データにおける前記1以上の対象の位置をそれぞれ特定し、特定した前記位置を前記画像データと対応付ける第1の対応付け手段、
前記1以上の測定データそれぞれと、前記画像データとを対応付ける第2の対応付け手段、
前記画像データに対応付けられている前記位置に基づいて、前記画像データと、該画像データに対応付けられている前記1以上の測定データとを表示装置に表示させる表示手段、
として機能させるためのプログラム。
An information processing device capable of communicating with a wide-angle imaging device capable of imaging a surrounding area in the horizontal direction and one or more measuring devices that respectively measure movements of one or more moving objects;
Image data generated by imaging the one or more objects by the wide-angle imaging device, and one or more measurement data generated by measuring the operations of the one or more objects by the one or more measurement devices, respectively. Acquisition means to acquire,
First associating means for identifying the positions of the one or more objects in the image data, and associating the identified positions with the image data;
A second association means for associating each of the one or more measurement data with the image data;
Display means for causing the display device to display the image data and the one or more measurement data associated with the image data based on the position associated with the image data;
Program to function as.
水平方向の周囲を撮像可能な広角撮像装置と、移動する第1の対象の動作を測定して第1の測定データを生成する測定装置と通信可能な情報処理装置を、
移動する第2の対象の動作を測定して第2の測定データを生成する測定手段、
前記広角撮像装置が前記第1の対象及び前記第2の対象を撮像することにより生成した画像データと、前記第1の測定データとを取得する取得手段、
前記画像データにおける前記第1の対象の第1の位置と、前記第2の対象の第2の位置とを特定し、特定した前記第1の位置及び前記第2の位置を前記画像データと対応付ける第1の対応付け手段、
前記第1の測定データ及び前記第2の測定データそれぞれと、前記画像データとを対応付ける第2の対応付け手段、
前記画像データに対応付けられている前記第1の位置及び/又は第2の位置に基づいて、前記画像データと、該画像データに対応付けられている前記第1の測定データ及び/又は前記第2の測定データとを表示装置に表示させる表示手段、
として機能させるためのプログラム。
An information processing device capable of communicating with a wide-angle imaging device capable of imaging the periphery of the horizontal direction and a measurement device that measures the movement of the moving first object and generates first measurement data,
Measuring means for measuring the movement of the moving second object and generating second measurement data;
Acquisition means for acquiring image data generated by the wide-angle imaging device imaging the first object and the second object, and the first measurement data;
The first position of the first object and the second position of the second object in the image data are specified, and the specified first position and the second position are associated with the image data. First association means;
A second association means for associating each of the first measurement data and the second measurement data with the image data;
Based on the first position and / or the second position associated with the image data, the image data and the first measurement data and / or the first position associated with the image data. Display means for displaying two measurement data on a display device;
Program to function as.
水平方向の周囲を撮像可能な広角撮像装置であって、移動する1以上の対象の動作をそれぞれ測定する1以上の測定装置と、情報処理装置と通信可能な撮像装置を、
前記広角撮像装置が前記1以上の対象を撮像することにより生成した画像データを生成する撮像手段、
前記1以上の測定装置が前記1以上の対象の動作をそれぞれ測定することにより生成した1以上の測定データを取得する取得手段、
前記画像データと、前記1以上の測定データとを前記情報処理装置に送信する送信手段、
として機能させるためのプログラム。
A wide-angle imaging device capable of imaging a surrounding area in the horizontal direction, wherein one or more measuring devices that respectively measure movements of one or more moving objects, and an imaging device that can communicate with an information processing device,
Imaging means for generating image data generated by the wide-angle imaging device imaging the one or more objects;
Obtaining means for obtaining one or more measurement data generated by the one or more measurement devices respectively measuring the movements of the one or more objects;
Transmitting means for transmitting the image data and the one or more measurement data to the information processing apparatus;
Program to function as.
JP2016098456A 2016-05-17 2016-05-17 Image display system, information processing apparatus, imaging apparatus, program Pending JP2017208631A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016098456A JP2017208631A (en) 2016-05-17 2016-05-17 Image display system, information processing apparatus, imaging apparatus, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016098456A JP2017208631A (en) 2016-05-17 2016-05-17 Image display system, information processing apparatus, imaging apparatus, program

Publications (1)

Publication Number Publication Date
JP2017208631A true JP2017208631A (en) 2017-11-24

Family

ID=60417383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016098456A Pending JP2017208631A (en) 2016-05-17 2016-05-17 Image display system, information processing apparatus, imaging apparatus, program

Country Status (1)

Country Link
JP (1) JP2017208631A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020066695A1 (en) * 2018-09-28 2020-04-02 日本電信電話株式会社 Information synchronization device, information synchronization method, and information synchronization program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020066695A1 (en) * 2018-09-28 2020-04-02 日本電信電話株式会社 Information synchronization device, information synchronization method, and information synchronization program
JP2020057847A (en) * 2018-09-28 2020-04-09 日本電信電話株式会社 Information synchronizer, information synchronizing method, and information synchronizing program
US11418684B2 (en) 2018-09-28 2022-08-16 Nippon Telegraph And Telephone Corporation Information synchronization device, information synchronization method, and information synchronization program
JP7121277B2 (en) 2018-09-28 2022-08-18 日本電信電話株式会社 Information Synchronization Device, Information Synchronization Method and Information Synchronization Program

Similar Documents

Publication Publication Date Title
US10277836B2 (en) Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
JP6683127B2 (en) Information processing apparatus, information processing method, and program
KR101870067B1 (en) Methods and systems for augmented reality to display virtual representations of robotic device actions
US10169923B2 (en) Wearable display system that displays a workout guide
JP7305249B2 (en) Method for determining motion information of image feature points, task execution method and device
WO2016017253A1 (en) Information processing device, information processing method, and program
CN104252712B (en) Video generation device, image generating method and recording medium
WO2016031105A1 (en) Information-processing device, information processing method, and program
JP2012212343A (en) Display control device, display control method, and program
JP6812203B2 (en) Information processing system, information processing method, mobile projection terminal
EP3962090A1 (en) Communication terminal, image communication system, method for displaying image, and carrier means
JP6776600B2 (en) Image display system, information processing device, and program
JP2017158169A (en) Image display system, display device, and program
JP2012019374A (en) Electronic album creation server, information processor, electronic album creation system, and control method of electronic album creation server
JP2016194783A (en) Image management system, communication terminal, communication system, image management method, and program
JP2016194784A (en) Image management system, communication terminal, communication system, image management method, and program
US11195295B2 (en) Control system, method of performing analysis and storage medium
JP2017208631A (en) Image display system, information processing apparatus, imaging apparatus, program
WO2020017600A1 (en) Display control device, display control method and program
KR101452372B1 (en) Method and System for Controlling Camera
JP5801690B2 (en) Image processing apparatus and image processing method
JP2017151281A (en) Image display system, information processing device, and program
JP2017225722A (en) Information processing unit, program and image display system
JP2017202020A (en) Image display system, information processing device, imaging device, and program
JP2017184025A (en) Communication terminal, image communication system, image transmission method, image display method, and program