JP2019211810A - Image display system - Google Patents

Image display system Download PDF

Info

Publication number
JP2019211810A
JP2019211810A JP2018104338A JP2018104338A JP2019211810A JP 2019211810 A JP2019211810 A JP 2019211810A JP 2018104338 A JP2018104338 A JP 2018104338A JP 2018104338 A JP2018104338 A JP 2018104338A JP 2019211810 A JP2019211810 A JP 2019211810A
Authority
JP
Japan
Prior art keywords
display
time
image
imaging
imaging data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018104338A
Other languages
Japanese (ja)
Inventor
大介 市川
Daisuke Ichikawa
大介 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2018104338A priority Critical patent/JP2019211810A/en
Publication of JP2019211810A publication Critical patent/JP2019211810A/en
Pending legal-status Critical Current

Links

Abstract

To view images of the same object at different points in time with a simple operation.SOLUTION: An image display system includes a plurality of portable terminals 1 used for photographing, a server 2 for storing a lot of image data (image files) obtained by the photographing, and an image display apparatus 3 for displaying the images. These are connected with each other via a network N. After photographing, the portable terminal 1 can transmit the obtained image file to the server 2 via the network. At this time, time information, positional information and pose information when generating the image file are transmitted. The server 2 stores the above mentioned image files, the time information, the positional information and the pose information as grouped photographing data D.SELECTED DRAWING: Figure 1

Description

本発明は、多数の画像データを用いて所望の画像を表示させる画像表示システムに関する。   The present invention relates to an image display system that displays a desired image using a large number of image data.

ユーザーから離間した箇所にある機器によって撮像された画像データを、ユーザーが所有するパーソナルコンピューターや携帯端末(スマートフォン等)にサーバーを介して入手させることによって、この画像データに基づく画像(例えば風景の画像)を見ることができる。この画像データとしては、現時点のもの以外に、過去に撮像されたものも含まれる。ここで、同一箇所を撮像した場合においても、同一の撮像条件で撮像されたとは限らず、撮像条件が異なれば、実質的に同一の風景を撮像したにもかかわらず、得られた画像は異なる。   An image based on this image data (for example, an image of a landscape) is obtained by obtaining image data captured by a device at a location away from the user via a server in a personal computer or a mobile terminal (smartphone or the like) owned by the user. ) Can be seen. This image data includes data captured in the past in addition to the current data. Here, even when the same part is imaged, the image is not necessarily captured under the same imaging condition. If the imaging condition is different, the obtained image is different even though the substantially same landscape is captured. .

特許文献1には、ある時点における風景の画像と、これと異なる時点における風景の画像とを比較し、この風景の中で変化があると認められた箇所を特定して示す、例えば異なる時点におけるこの箇所の画像を特定して同時に表示する等の処理を行う画像表示システムが記載されている。この技術においては、多数の携帯端末によって得られた画像データがサーバーに記憶され、この際に携帯端末間で各種の情報が共有されて用いられ、画像データと共に記憶される。これによって、上記のように、異なる時点における画像を適正に比較し、上記のような表示を行わせることができる。   Patent Document 1 compares a landscape image at a certain point in time with a landscape image at a different point in time, and identifies and shows a portion that is recognized as having changed in this landscape. For example, at a different point in time An image display system that performs processing such as specifying an image at this location and simultaneously displaying the image is described. In this technique, image data obtained by a large number of mobile terminals is stored in a server, and various kinds of information are shared between the mobile terminals and stored together with the image data. As a result, as described above, images at different time points can be appropriately compared, and the display as described above can be performed.

特開2016−133701号公報JP 2006-133701 A

上記の画像表示システムは、風景の中の構造物の時間的変化を厳密に認識するためには有効であるが、実際には、このような厳密性は要求せずに、ユーザーが同じ箇所の異なる時点での画像を見ることだけが要求される場合も多い。こうした場合においては、上記の画像表示システムにおいて必要とされる操作はユーザーにとっては容易ではなく、利便性が悪かった。   The image display system described above is effective for accurately recognizing temporal changes of structures in the landscape, but in practice, such a strictness is not required, and the user can In many cases, it is only required to view images at different times. In such a case, the operation required in the image display system described above is not easy for the user and is not convenient.

このため、簡易な操作によって同一対象の異なる時点における画像を見ることができる画像表示装置、画像表示システムが望まれた。   For this reason, an image display device and an image display system that can view images at different times of the same object by a simple operation are desired.

本発明はこのような状況に鑑みてなされたものであり、上記課題を解決できる技術を提供することを目的とする。   This invention is made | formed in view of such a condition, and it aims at providing the technique which can solve the said subject.

本発明の画像表示システムは、異なる時点において撮像端末によって撮像された画像のうち、ユーザーによって選定された画像を表示部で表示させる画像表示システムであって、前記撮像端末が撮像を行うことにより生成された画像ファイルと、当該撮像が行われた日時を表す時刻情報と、当該撮像が行われた際の前記撮像端末の位置を表す位置情報と、当該撮像が行われた際の前記撮像端末の3次元空間中での姿勢を表す姿勢情報と、を一群のデータである撮像データとして複数記憶する記憶部と、前記時刻情報、前記位置情報、及び前記姿勢情報のそれぞれにおける範囲をユーザーによって設定させ、前記時刻情報、前記位置情報、及び前記姿勢情報がそれぞれ設定された範囲内にある前記撮像データに基づく画像を、当該撮像データの前記時刻情報に基づく日時と共に前記表示部で表示させる制御部と、を具備することを特徴とする。   The image display system of the present invention is an image display system that displays an image selected by a user among images captured by an imaging terminal at different times on a display unit, and is generated when the imaging terminal captures an image. Captured image file, time information indicating the date and time when the imaging was performed, position information indicating the position of the imaging terminal when the imaging was performed, and the imaging terminal when the imaging was performed A storage unit that stores a plurality of pieces of posture information representing postures in a three-dimensional space as imaging data that is a group of data, and a range in each of the time information, the position information, and the posture information is set by a user. , The time information, the position information, and the posture information are images based on the imaging data within the set ranges, respectively. A control unit for displaying on the display unit together with the date and time based on the serial time information, characterized by comprising a.

上記の構成により、簡易な操作によって同一対象の異なる時点における画像を見ることができる。   With the above configuration, it is possible to view images of the same object at different points in time with a simple operation.

本発明の実施の形態に係る画像表示システム全体の構成を示す図である。1 is a diagram illustrating a configuration of an entire image display system according to an embodiment of the present invention. 本発明の実施の形態に係る画像表示システムにおいて用いられる撮像端末の構成を示す図である。It is a figure which shows the structure of the imaging terminal used in the image display system which concerns on embodiment of this invention. 本発明の実施の形態に係る画像表示システムにおいて用いられるサーバーの構成を示す図である。It is a figure which shows the structure of the server used in the image display system which concerns on embodiment of this invention. 本発明の実施の形態に係る画像表示システムにおいて用いられる画像表示装置の構成を示す図である。It is a figure which shows the structure of the image display apparatus used in the image display system which concerns on embodiment of this invention. 本発明の実施の形態に係る画像表示システムにおいて用いられる画像表示装置における動作を示すフローチャートである。It is a flowchart which shows operation | movement in the image display apparatus used in the image display system which concerns on embodiment of this invention. 本発明の実施の形態に係る画像表示システムにおける画像表示の例である。It is an example of the image display in the image display system which concerns on embodiment of this invention. 本発明の実施の形態に係る画像表示システムにおける画像表示の他の例である。It is another example of the image display in the image display system which concerns on embodiment of this invention.

以下、本発明を実施の形態に係る画像表示システムについて説明する。図1は、この画像表示システム全体の構成を示す図である。この画像表示システムは、撮像のために用いられる複数の携帯端末(撮像端末)1と、この撮像によって得られた画像データ(画像ファイル)を多数記憶するサーバー2と、画像を表示する画像表示装置3を具備する。これらは互いにネットワークNを介して接続されている。ここで、画像表示装置3は、画像を表示するためのみに用いられ、例えば通常のパーソナルコンピューター等を用いることができる。また、複数の携帯端末1のうちの一つや、サーバー2がこの画像表示装置3を兼ねるものとすることもできる。   Hereinafter, an image display system according to an embodiment of the present invention will be described. FIG. 1 is a diagram showing a configuration of the entire image display system. This image display system includes a plurality of portable terminals (imaging terminals) 1 used for imaging, a server 2 that stores a large number of image data (image files) obtained by the imaging, and an image display device that displays images. 3 is provided. These are connected to each other via a network N. Here, the image display device 3 is used only for displaying an image, and for example, a normal personal computer or the like can be used. Further, one of the plurality of portable terminals 1 or the server 2 can also serve as the image display device 3.

図2は、サーバー2に記憶される画像ファイル等を得るための携帯端末(撮像端末)1の構成を示す図である。この携帯端末1は、撮像を行うために用いられ、全体の制御を行う制御部10、周囲の撮像を行いその画像データを画像ファイルとして入手するための撮像部11を具備する。また、ネットワークと接続してこの画像ファイルを含む各種のデータを授受するためのネットワーク接続部12が設けられる。また、この携帯端末1のユーザーによる操作のために用いられる操作パネル13、表示部14が設けられ、上記の画像ファイル等や各種のデータを記憶する記憶部15が設けられる。操作パネル13と表示部14は、実際にはこれらが一体化されたタッチパネルディスプレイとして設けられる。   FIG. 2 is a diagram illustrating a configuration of a portable terminal (imaging terminal) 1 for obtaining an image file or the like stored in the server 2. The portable terminal 1 includes a control unit 10 that is used for imaging and performs overall control, and an imaging unit 11 that captures surrounding images and obtains the image data as an image file. In addition, a network connection unit 12 is provided for connecting to a network to exchange various data including the image file. In addition, an operation panel 13 and a display unit 14 that are used for operations by the user of the portable terminal 1 are provided, and a storage unit 15 that stores the above-described image file and various data is provided. The operation panel 13 and the display unit 14 are actually provided as a touch panel display in which these are integrated.

また、現在の時刻を認識するための時刻認識部16が設けられ、これにより、制御部10は、現在の時刻情報として、年月日、時刻を認識する。また、GPS信号を受信することにより現在の自己の位置を認識するための位置情報認識部17も設けられる。この位置情報は、例えば緯度、経度、標高で表される。また、現在における自己の姿勢を認識するための姿勢認識部18も設けられる。姿勢認識部18は、例えば特開2015−45583号公報に記載された方位センサと姿勢センサを組み合わせて構成され、地磁気や加速度を検知することにより、撮像部11における視野中心の3次元空間中における向きを検出する。撮像部11が携帯端末1中で固定されていれば、視野中心の3次元空間中における向きは、この携帯端末1の中心軸の3次元空間中における向きが定まれば一義的に定まるため、この携帯端末1の中心軸あるいはある携帯端末1中における定められた軸の向きを代わりに検出してもよい。ここでは、このように検出された向きを、携帯端末1の姿勢と呼称する。ここでは、この姿勢の時間的変化ではなく、撮像部11が撮像を行った時点における姿勢が特に検出される。この姿勢情報は、例えば方位角と仰角で表される。   Moreover, the time recognition part 16 for recognizing the present time is provided, and, thereby, the control part 10 recognizes a date and time as current time information. Further, a position information recognition unit 17 for recognizing the current position by receiving a GPS signal is also provided. This position information is represented by latitude, longitude, and altitude, for example. A posture recognition unit 18 for recognizing the current posture of the subject is also provided. The posture recognition unit 18 is configured by combining an orientation sensor and a posture sensor described in, for example, JP-A-2015-45583, and detects geomagnetism and acceleration in a three-dimensional space at the center of the visual field in the imaging unit 11. Detect orientation. If the imaging unit 11 is fixed in the mobile terminal 1, the orientation of the center of the visual field in the three-dimensional space is uniquely determined if the orientation of the central axis of the mobile terminal 1 in the three-dimensional space is determined. Alternatively, the center axis of the mobile terminal 1 or the orientation of a predetermined axis in a mobile terminal 1 may be detected instead. Here, the direction detected in this way is referred to as the attitude of the mobile terminal 1. Here, not the temporal change of the posture, but the posture at the time when the imaging unit 11 performs the imaging is particularly detected. This posture information is represented by, for example, an azimuth angle and an elevation angle.

携帯端末1(制御部10)は、撮像部11が撮像を行なうと、ユーザーによる操作パネル13の操作により、これによる画像ファイルを、ネットワークNを介してサーバー2に送信することができる。この際に、この画像ファイルと共に、この画像ファイルが作成された(撮像が行われた)際の時刻情報、位置情報、姿勢情報が送信される。   When the imaging unit 11 captures an image, the portable terminal 1 (the control unit 10) can transmit an image file obtained by the operation to the server 2 via the network N by the operation of the operation panel 13 by the user. At this time, together with this image file, time information, position information, and posture information when this image file is created (imaged) are transmitted.

図3は、サーバー2の構成を示す図である。このサーバー2は、ネットワーク接続部21を介して携帯端末1と接続され、上記のように携帯端末1から送信されたデータを記憶する記憶部22、全体を制御する制御部20が設けられる。ここで、このサーバーにデータを送信する携帯端末1は複数あり、かつ各携帯端末1から複数の時点においてデータが送信されるため、記憶部22はこれらのデータ全てを記憶できる程度に大容量とされ、ハードディスクや半導体メモリで構成される。また、ユーザーがこのサーバー2を操作するための操作パネル23、表示部24が設けられる。   FIG. 3 is a diagram illustrating a configuration of the server 2. The server 2 is connected to the mobile terminal 1 via the network connection unit 21 and is provided with a storage unit 22 that stores data transmitted from the mobile terminal 1 as described above and a control unit 20 that controls the whole. Here, there are a plurality of mobile terminals 1 that transmit data to the server, and data is transmitted from each mobile terminal 1 at a plurality of points in time, so that the storage unit 22 has a large capacity to store all of these data. It is composed of a hard disk and semiconductor memory. In addition, an operation panel 23 and a display unit 24 for the user to operate the server 2 are provided.

サーバー2においては、上記の画像ファイル、時刻情報、位置情報、姿勢情報が一群とされた撮像データDとして記憶部22に記憶されている。このため、制御部20は、例えば、時刻情報、位置情報、姿勢情報においてある特定の範囲が指定された場合に、これらの各情報が全てこの範囲内となる撮像データDの有無を認識、あるいはこの撮像データDの抽出をすることができる。   In the server 2, the image file, the time information, the position information, and the posture information are stored in the storage unit 22 as a group of imaging data D. For this reason, for example, when a specific range is specified in the time information, the position information, and the posture information, the control unit 20 recognizes the presence or absence of the imaging data D in which each of these pieces of information is all within this range, or This imaging data D can be extracted.

図4は、画像表示装置3の構成を示す図である。この画像表示装置3においても、制御部30、ネットワーク接続部31、操作パネル32、表示部33、記憶部34が設けられ、これら全体を制御する制御部30が設けられる。携帯端末1の場合と同様に、操作パネル32と表示部33とが一体化されたタッチパネルディスプレイを用いてもよい。前記の通り、この画像表示装置3としては、通常のパーソナルコンピューターを用いることができ、前記の携帯端末1、サーバー2が画像表示装置3を兼ねるものとしてもよい。この画像表示システムにおいては、対象となる画像の表示はこの表示部33で行われる。   FIG. 4 is a diagram illustrating a configuration of the image display device 3. Also in this image display device 3, a control unit 30, a network connection unit 31, an operation panel 32, a display unit 33, and a storage unit 34 are provided, and a control unit 30 that controls these components is provided. As in the case of the portable terminal 1, a touch panel display in which the operation panel 32 and the display unit 33 are integrated may be used. As described above, a normal personal computer can be used as the image display device 3, and the portable terminal 1 and the server 2 may also serve as the image display device 3. In this image display system, the target image is displayed on the display unit 33.

記憶部22に記憶された上記のデータのうち、特に位置情報、姿勢情報は、撮像された画像と撮像部11(携帯端末1)との間の位置関係を反映する。このため、位置情報及び姿勢情報が同一である2つの撮像データDがあれば、これらにおける画像ファイルの画像は、同一の対象が同一の態様で撮像されることによって得られたものとなる。このため、例えばある撮像データD(表示撮像データ)が選択され、その画像が表示部14で表示され、この表示撮像データと位置情報及び姿勢情報が近い撮像データD(類似撮像データ)があれば、この類似撮像データの画像は、現在表示部14で表示されているものと異なる時点における同一対象の画像と推定することができる。このため、このような類似撮像データを記憶部22に記憶された全ての撮像データから抽出し、類似撮像データが複数ある場合に、この中で所望の日時のものを選択して、表示部14に表示させて、表示撮像データによる元の画像と対比させることができる。   Among the above data stored in the storage unit 22, in particular, the position information and the posture information reflect the positional relationship between the captured image and the imaging unit 11 (the portable terminal 1). For this reason, if there are two pieces of image data D having the same position information and posture information, the images of the image file in these are obtained by imaging the same object in the same manner. For this reason, for example, if certain imaging data D (display imaging data) is selected, the image is displayed on the display unit 14, and there is imaging data D (similar imaging data) whose position information and orientation information are close to this display imaging data. The image of the similar imaging data can be estimated as an image of the same target at a time different from that currently displayed on the display unit 14. For this reason, such similar imaging data is extracted from all the imaging data stored in the storage unit 22, and when there are a plurality of similar imaging data, a desired date and time is selected, and the display unit 14 is selected. And can be compared with the original image by the display imaging data.

図5は、この際の動作を示すフローチャートである。ここでは、まず、画像表示装置3における制御部30は、サーバー2側から、記憶部22に記憶された撮像データDのリストを入手する(S1)。ここでは、画像表示装置3は、全ての撮像データDにおけるデータ容量の小さな時刻情報、位置情報、姿勢情報のみを入手し、データ容量の大きな画像ファイルを入手する必要はない。表示部33でこのリストを表示させ(S2)、ユーザーに操作パネル32を用いてそのうちの一つを表示すべき画像(表示撮像データ)として選択させる(S3)。この場合における選択は、ファイル名や、日時(時刻情報)、位置(位置情報)の指定等、任意の方法で行われる。その後、制御部30は、この表示撮像データの画像ファイルをサーバー2(記憶部22)からネットワークNを介して入手し(S4)、その画像ファイルに基づく画像を、時刻情報に基づく日時と共に表示部33に表示させる(S5)。   FIG. 5 is a flowchart showing the operation at this time. Here, first, the control unit 30 in the image display device 3 obtains a list of imaging data D stored in the storage unit 22 from the server 2 side (S1). Here, the image display device 3 obtains only time information, position information, and posture information with a small data capacity in all the imaging data D, and does not need to obtain an image file with a large data capacity. This list is displayed on the display unit 33 (S2), and the user is made to select one of them as an image (display imaging data) to be displayed using the operation panel 32 (S3). Selection in this case is performed by an arbitrary method such as designation of a file name, date and time (time information), and position (position information). Thereafter, the control unit 30 obtains the image file of the display imaging data from the server 2 (storage unit 22) via the network N (S4), and displays the image based on the image file together with the date and time based on the time information. 33 is displayed (S5).

次に、制御部30は、先に入手したリスト(S1)を参照し、表示撮像データよりも日時が前であり、かつ表示撮像データと位置情報及び姿勢情報が近い撮像データを類似撮像データとして抽出する。ここで、位置情報が近いとは、位置情報に基づく2点間の距離が予め定められた閾値(第1の閾値)よりも小さな場合、姿勢情報が近いとは、姿勢情報に基づく2つの方向の角度差が予め定められた閾値(第2の閾値)よりも小さな場合、とすることができる。類似撮像データが見つからなかった場合(S6:No)には、処理は終了する。   Next, the control unit 30 refers to the previously obtained list (S1), and sets the imaging data whose date and time is earlier than the display imaging data and whose position information and orientation information are close to the display imaging data as similar imaging data. Extract. Here, when the position information is close, when the distance between two points based on the position information is smaller than a predetermined threshold (first threshold), the position information is close when two directions based on the position information If the angle difference is smaller than a predetermined threshold (second threshold), it can be determined. If similar imaging data is not found (S6: No), the process ends.

類似撮像データがある場合(S6:Yes)には、制御部30は、表示部33に、前記の画像表示及びその日時の表示(S5)に加えて、時間間隔を線分の長さに対応させて表した時間経過表示を、表示撮像データの画像の表示と共に表示させる(S7)。図6(a)は、この場合における表示部33の表示の例である。ここでは、上側の対象画像表示部33Aにおいて、表示撮像データに基づく画像が表示され、その下側で表示撮像データの日時が日時表示部33Bに表示されている。更にその下側において、時間間隔が横方向の長さに対応するように時間経過が示された時間経過表示33Cが表示される。期間表示33Dにおいては、表示された時間経過表示33Cにおいて示された期間が具体的に表示されている。時間経過表示33Cにおける最も右側は、日時表示部33Bに表示された表示撮像データの日時に対応し、この中で対象画像表示部33Aで現在表示されている画像の日時を示すマーカーMは、この最も右側に存在するように表示される。これよりも左側は、この時点から遡った過去に対応する。この中で、類似撮像データとして存在する撮像データの日時に対応した箇所にマーキング(撮像データ存在マークL)が表示される。   When there is similar imaging data (S6: Yes), the control unit 30 corresponds to the length of the line segment in addition to the image display and the date and time display (S5) on the display unit 33. The time-lapse display expressed as described above is displayed together with the display of the image of the display imaging data (S7). FIG. 6A shows an example of display on the display unit 33 in this case. Here, in the upper target image display unit 33A, an image based on the display imaging data is displayed, and on the lower side, the date and time of the display imaging data is displayed on the date and time display unit 33B. Further below that, a time passage display 33C showing a time passage so that the time interval corresponds to the length in the horizontal direction is displayed. In the period display 33D, the period shown in the displayed time passage display 33C is specifically displayed. The rightmost side in the time lapse display 33C corresponds to the date and time of the display imaging data displayed on the date and time display unit 33B. Among these, the marker M indicating the date and time of the image currently displayed on the target image display unit 33A is It is displayed so that it exists on the rightmost side. The left side corresponds to the past going back from this point. Among these, marking (imaging data existence mark L) is displayed at a location corresponding to the date and time of imaging data existing as similar imaging data.

ユーザーは、操作パネル32(あるいはタッチパネルディスプレイ)を操作して、マーカーMを、図6(a)の位置よりも左側(過去側)に移動させることができる。制御部30は、このようなマーカーMの位置の再設定が行われたら(S8:Yes)、マーカーMの新たな位置に応じた時刻情報をもつ類似撮像データを、前記の表示撮像データの代わりに、前記(S5)と同様に表示する(S9)。図6(b)は、この状態における表示部33の表示の例である。その後は、マーカーMの再設定がある毎にこの動作(S8、S9)が繰り返される。   The user can operate the operation panel 32 (or touch panel display) to move the marker M to the left side (past side) from the position in FIG. When the resetting of the position of the marker M is performed (S8: Yes), the control unit 30 replaces the similar imaging data having time information according to the new position of the marker M with the display imaging data. In the same manner as in the above (S5) (S9). FIG. 6B is an example of display on the display unit 33 in this state. Thereafter, this operation (S8, S9) is repeated every time the marker M is reset.

上記の例では、マーカーMの位置が図6(a)の場合と図6(b)の場合の2種類とされた。しかしながら、マーカーMの移動速度を考慮した動作も可能である。例えば、マーカーMの移動速度が遅く、かつ時間経過表示33Cで示された時間範囲内に多くの類似撮像データがある場合には、移動後のマーカーMが最終的に停止するまでの間において、時間経過表示部33Cは変化させずに、移動中のマーカーMの位置に対応した類似撮像データを順次読み込み、これらの画像を対象画像表示部33Aで順次切り替えて表示させることができる。この場合には、ユーザーは、撮像の対象(風景)の経時変化をより適切に認識することができる。一方、マーカーMの移動速度が速い場合には、マーカーMの始点(図6(a))と終点(図6(b))に応じた2種類のみの画像が対象画像表示部33Aで表示させることができる。こうした動作は、マーカーMの位置の判定のタイミング、時間間隔によって、適宜行わせることができる。   In the above example, the positions of the markers M are two types, that is, the case of FIG. 6A and the case of FIG. However, an operation considering the moving speed of the marker M is also possible. For example, when the movement speed of the marker M is slow and there is a lot of similar imaging data within the time range indicated by the time lapse display 33C, until the marker M after the movement finally stops, The time-lapse display unit 33C can sequentially read similar imaging data corresponding to the position of the moving marker M without changing, and sequentially switch and display these images on the target image display unit 33A. In this case, the user can more appropriately recognize the temporal change of the imaging target (landscape). On the other hand, when the movement speed of the marker M is fast, only two types of images corresponding to the start point (FIG. 6A) and the end point (FIG. 6B) of the marker M are displayed on the target image display unit 33A. be able to. Such an operation can be appropriately performed according to the determination timing of the position of the marker M and the time interval.

図6の例では、対象となる画像を表示する対象画像表示部33Aが一つのみ設けられたが、対象物(対象風景)毎に、これを同時に複数設けることもできる。図7(a)(b)においては、4つの対象画像表示部33A1〜33A4が用いられた場合が示されており、図7(a)は、表示撮像データを表示した直後の表示(S7)の例であり、図7(b)は、マーカーMが再設定された後の表示(S9)の例である。ここでは、対象画像表示部33A1〜33A4の各々における撮像データ(表示撮像データ)の日時は共通(同時)であり、かつ位置情報又は姿勢情報は互いに大きく異なっているため、異なる対象物(風景)が同時に撮像されたものとして認識される。   In the example of FIG. 6, only one target image display unit 33 </ b> A that displays a target image is provided. However, a plurality of target image display units 33 </ b> A can be provided simultaneously for each target object (target landscape). FIGS. 7A and 7B show a case where four target image display units 33A1 to 33A4 are used. FIG. 7A shows a display immediately after displaying the display imaging data (S7). FIG. 7B is an example of display (S9) after the marker M is reset. Here, the date and time of the imaging data (display imaging data) in each of the target image display units 33A1 to 33A4 is common (simultaneous), and the position information or the posture information is greatly different from each other, and therefore different objects (landscapes). Are recognized as being simultaneously captured.

一方、時間経過表示部33C、マーカーMは、対象画像表示部33A1〜33A4において共通とされる。ただし、対象画像表示部33A1〜33A4の各々で示された表示撮像データ毎に類似撮像データは得られ、得られた類似撮像データの日時は一般的には表示撮像データ毎に異なる。このため、ここでは、前記の時間経過表示部33Cにおいて、前記の撮像データ存在マークLは、表示撮像データ(対象画像表示部)毎に異なる態様とされた撮像データ存在マークL1〜L4として表示される。こうした表示によって、ユーザーは、どの時点における過去の対応する画像を見ることができるかを、対象画像表示部33A1〜33A4で表示された画像毎に認識することができる。   On the other hand, the time-lapse display unit 33C and the marker M are shared by the target image display units 33A1 to 33A4. However, similar imaging data is obtained for each display imaging data shown in each of the target image display units 33A1 to 33A4, and the date and time of the obtained similar imaging data generally differs for each display imaging data. For this reason, here, in the time lapse display section 33C, the imaging data presence mark L is displayed as imaging data existence marks L1 to L4 that are different for each display imaging data (target image display section). The By such display, the user can recognize for each image displayed on the target image display units 33A1 to 33A4 which point in time the corresponding image in the past can be viewed.

このように、上記の画像表示システムによって、同一対象の異なる時点における画像を見ることを、簡易な操作によって行うことができる。   As described above, it is possible to perform the simple operation to view the images of the same object at different points in time using the image display system.

上記の例においては、対象画像表示部、時間経過表示部は、図6、7に示されるように表示されたが、同様にユーザーがこれらを認識することができ、同様に使用できる限りにおいて、これらの構成は任意である。   In the above example, the target image display unit and the time lapse display unit are displayed as shown in FIGS. 6 and 7, but as long as the user can recognize them and use them in the same way, These configurations are arbitrary.

また、上記の例においては、図1における画像表示装置3で図6、7に示されたような表示が行われるものとしたが、前記の通り、同様の表示、操作を携帯端末1、サーバー2で行わせることもできる。更に、撮像データを記憶するサーバーとネットワークを介して接続され、同様の表示部を具備する任意の機器を画像表示装置として用いることができる。   Further, in the above example, the display as shown in FIGS. 6 and 7 is performed by the image display device 3 in FIG. 1. However, as described above, the same display and operation are performed by the portable terminal 1 and the server. 2 can also be performed. Furthermore, any device that is connected to a server that stores imaging data via a network and includes a similar display unit can be used as an image display device.

また、上記の例では、単一のサーバー2(記憶部22)が用いられたが、サーバー、撮像データを記憶する記憶部がネットワークを介して複数分散して設けられていてもよい。   In the above example, a single server 2 (storage unit 22) is used. However, a plurality of servers and storage units for storing imaging data may be provided distributed over a network.

また、上記の例では、撮像データを取得する機器が携帯端末とされたが、地上に固定され、かつネットワークと接続された撮像装置を撮像端末として用いることもできる。この場合には、その位置は固定されるため、上記の位置情報認識部は不要である。更に、この撮像端末の撮像の際の姿勢が固定されていれば、上記の姿勢認識部も不要である。これらの場合には、サーバーの制御部は、撮像端末を識別することにより、位置情報、姿勢情報を自動的に認識することができる。   In the above example, the device that acquires the imaging data is the portable terminal. However, an imaging device that is fixed on the ground and connected to the network can also be used as the imaging terminal. In this case, since the position is fixed, the position information recognition unit is not necessary. Furthermore, if the posture at the time of imaging of the imaging terminal is fixed, the posture recognition unit described above is also unnecessary. In these cases, the control unit of the server can automatically recognize the position information and the posture information by identifying the imaging terminal.

1 携帯端末(撮像端末)
2 サーバー
3 画像表示装置
10、20、30 制御部
11 撮像部
12、21、31 ネットワーク接続部
13、23、32 操作パネル
14、24、33 表示部
15、22、34 記憶部
16 時刻認識部
17 位置情報認識部
18 姿勢認識部
33A、33A1、33A2、33A3、33A4 対象画像表示部
33B 日時表示部
33C 時間経過表示
33D 期間表示
D 撮像データ
L、L1〜L4 撮像データ存在マーク
M マーカー
N ネットワーク
1 Mobile terminal (imaging terminal)
2 Server 3 Image display device 10, 20, 30 Control unit 11 Imaging unit 12, 21, 31 Network connection unit 13, 23, 32 Operation panel 14, 24, 33 Display unit 15, 22, 34 Storage unit 16 Time recognition unit 17 Position information recognition unit 18 Posture recognition unit 33A, 33A1, 33A2, 33A3, 33A4 Target image display unit 33B Date and time display unit 33C Time lapse display 33D Period display D Imaging data L, L1 to L4 Imaging data presence mark M Marker N network

Claims (6)

異なる時点において撮像端末によって撮像された画像のうち、ユーザーによって選定された画像を表示部で表示させる画像表示システムであって、
前記撮像端末が撮像を行うことにより生成された画像ファイルと、当該撮像が行われた日時を表す時刻情報と、当該撮像が行われた際の前記撮像端末の位置を表す位置情報と、当該撮像が行われた際の前記撮像端末の3次元空間中での姿勢を表す姿勢情報と、を一群のデータである撮像データとして複数記憶する記憶部と、
前記時刻情報、前記位置情報、及び前記姿勢情報のそれぞれにおける範囲をユーザーによって設定させ、前記時刻情報、前記位置情報、及び前記姿勢情報がそれぞれ設定された範囲内にある前記撮像データに基づく画像を、当該撮像データの前記時刻情報に基づく日時と共に前記表示部で表示させる制御部と、
を具備することを特徴とする画像表示システム。
An image display system that displays an image selected by a user among images captured by an imaging terminal at different times on a display unit,
An image file generated by the imaging terminal imaging, time information indicating the date and time when the imaging was performed, position information indicating the position of the imaging terminal when the imaging was performed, and the imaging A storage unit that stores a plurality of pieces of posture information representing the posture of the imaging terminal in the three-dimensional space at the time when the imaging is performed as imaging data that is a group of data;
A range in each of the time information, the position information, and the posture information is set by a user, and an image based on the imaging data in the range in which the time information, the position information, and the posture information are set, respectively. A control unit for displaying on the display unit together with the date and time based on the time information of the imaging data;
An image display system comprising:
前記制御部は、
前記撮像データのうちの一つである表示撮像データに基づく画像を前記表示部で表示させる際に、
当該表示撮像データ以外の前記撮像データであり、前記位置情報、前記姿勢情報の前記表示撮像データにおける前記位置情報、前記姿勢情報との相違がそれぞれにおいて設定された範囲内にある前記撮像データである類似撮像データを抽出し、前記表示部において、当該類似撮像データにおける前記時刻情報に基づく前記日時が表示されることを特徴とする請求項1に記載の画像表示システム。
The controller is
When displaying an image based on display imaging data that is one of the imaging data on the display unit,
The imaging data other than the display imaging data, and the imaging data in which the difference between the position information and the posture information in the display imaging data is different from the position information and the posture information. The image display system according to claim 1, wherein similar image data is extracted, and the date and time based on the time information in the similar image data is displayed on the display unit.
前記表示部において、
前記日時は、時間間隔を長さに対応させて表示する時間経過表示の中におけるマーカーで表示されることを特徴とする請求項2に記載の画像表示システム。
In the display unit,
The image display system according to claim 2, wherein the date and time is displayed by a marker in a time passage display in which a time interval is displayed corresponding to a length.
前記表示部において、
前記時間経過表示の中で前記マーカーがユーザーによって選択できる設定とされ、選択された前記マーカーに対応した前記日時に対応する前記撮像データに基づく画像が表示されることを特徴とする請求項2又は3に記載の画像表示システム。
In the display unit,
3. The display according to claim 2, wherein the marker is set to be selectable by a user in the time lapse display, and an image based on the imaging data corresponding to the date and time corresponding to the selected marker is displayed. 4. The image display system according to 3.
前記制御部は、前記表示部において、複数の異なる前記表示撮像データに対応する画像を同時に表示させると共に、複数の前記表示撮像データの各々に対応する前記類似撮像データを各々抽出し、
前記時間経過表示の中で、前記マーカーを、対応する前記表示撮像データ毎に異なる態様で表示させることを特徴とする請求項3又は4に記載の画像形成システム。
The control unit simultaneously displays images corresponding to a plurality of different display imaging data on the display unit, and extracts the similar imaging data corresponding to each of the plurality of display imaging data,
5. The image forming system according to claim 3, wherein the marker is displayed in a different manner for each corresponding display imaging data in the time-lapse display.
前記記憶部を具備し前記撮像端末とは別体とされたサーバーと、
当該サーバーとネットワークを介して接続され前記制御部及び前記表示部を具備する画像表示装置と、
を具備することを特徴とする請求項1から請求項5までのいずれか1項に記載の画像表示システム。
A server comprising the storage unit and separated from the imaging terminal;
An image display device connected to the server via a network and including the control unit and the display unit;
The image display system according to any one of claims 1 to 5, further comprising:
JP2018104338A 2018-05-31 2018-05-31 Image display system Pending JP2019211810A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018104338A JP2019211810A (en) 2018-05-31 2018-05-31 Image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018104338A JP2019211810A (en) 2018-05-31 2018-05-31 Image display system

Publications (1)

Publication Number Publication Date
JP2019211810A true JP2019211810A (en) 2019-12-12

Family

ID=68846795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104338A Pending JP2019211810A (en) 2018-05-31 2018-05-31 Image display system

Country Status (1)

Country Link
JP (1) JP2019211810A (en)

Similar Documents

Publication Publication Date Title
US11188187B2 (en) Information processing apparatus, information processing method, and recording medium
US9661214B2 (en) Depth determination using camera focus
US10438409B2 (en) Augmented reality asset locator
WO2017186137A1 (en) Unmanned aerial vehicle control method and device
US20160327946A1 (en) Information processing device, information processing method, terminal device, and setting method
JP2017200208A5 (en) Imaging apparatus, information acquisition system, information search server, and program
US9412202B2 (en) Client terminal, server, and medium for providing a view from an indicated position
KR101533320B1 (en) Apparatus for acquiring 3 dimension object information without pointer
JP6614335B2 (en) Image display system, terminal, method and program
KR20120061110A (en) Apparatus and Method for Providing Augmented Reality User Interface
KR20140009285A (en) Display control device, display control method, and program
US10904431B2 (en) Camera controller
JP2015114996A (en) Information providing device, method and system
CN107193820B (en) Position information acquisition method, device and equipment
CN108430032A (en) A kind of method and apparatus for realizing that VR/AR device locations are shared
KR101762349B1 (en) Method for providing augmented reality in outdoor environment, augmented reality providing server performing the same, and storage medium storing the same
JP7012485B2 (en) Image information processing device and image information processing method
JP5513806B2 (en) Linked display device, linked display method, and program
JP2015090593A (en) Information processing device, information processing method, and information processing system
JP2019211810A (en) Image display system
KR101448727B1 (en) Real time location detecting system based on rfid and camera
JP2017108356A (en) Image management system, image management method and program
JP6085390B1 (en) Image processing apparatus, image processing method, and image processing program
US20220166917A1 (en) Information processing apparatus, information processing method, and program
JP2019002747A (en) Destination specification system