JP6388532B2 - Image providing system and image providing method - Google Patents

Image providing system and image providing method Download PDF

Info

Publication number
JP6388532B2
JP6388532B2 JP2014242551A JP2014242551A JP6388532B2 JP 6388532 B2 JP6388532 B2 JP 6388532B2 JP 2014242551 A JP2014242551 A JP 2014242551A JP 2014242551 A JP2014242551 A JP 2014242551A JP 6388532 B2 JP6388532 B2 JP 6388532B2
Authority
JP
Japan
Prior art keywords
image
subject
unit
display terminal
metadata
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014242551A
Other languages
Japanese (ja)
Other versions
JP2016103248A (en
Inventor
水谷 政美
政美 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014242551A priority Critical patent/JP6388532B2/en
Publication of JP2016103248A publication Critical patent/JP2016103248A/en
Application granted granted Critical
Publication of JP6388532B2 publication Critical patent/JP6388532B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像提供システムおよび画像提供方法に関する。   The present invention relates to an image providing system and an image providing method.

被写体の画像に撮影位置の位置情報を関連付けて、表示する被写体の画像を特定し、特定された被写体の画像を表示する技術がある。例えば、撮影位置と画像データとを関連付けて格納するデータベースから所望の検索対象物が写り込んでいる画像を検索する技術が提案されている。   There is a technique for associating position information of a shooting position with a subject image, specifying a subject image to be displayed, and displaying the specified subject image. For example, there has been proposed a technique for searching for an image in which a desired search object is reflected from a database that stores a shooting position and image data in association with each other.

また、コラージュを作成するために、デジタル画像の自動アノテーションのための、および画像をスラッチするための場所データに基づいて、デジタル画像により取得されたオブジェクトを識別する技術が提案されている(例えば、特許文献1および2参照)。   Also, techniques have been proposed to identify objects acquired by digital images based on location data for automatic annotation of digital images and for latching images to create collages (eg, (See Patent Documents 1 and 2).

国際公開第2013/114473号公報International Publication No. 2013/114473 特表2010−509668号公報Special table 2010-509668 gazette

1つの側面として、本発明は、複数の画像の中から被写体を捉えた区間の一連の画像を簡単な操作で表示することを目的とする。   As one aspect, an object of the present invention is to display a series of images of a section in which a subject is captured from a plurality of images with a simple operation.

1つの態様では、画像提供システムは、サーバと表示端末とを含む画像提供システムであって、前記サーバは、前記表示端末が指定した被写体に関する情報に基づいて、前記被写体の存在地点の位置を特定する特定部と、前記被写体を撮影した撮影位置と前記被写体の存在地点の位置とに基づいて、前記被写体を含む区間の一連の周囲画像を特定する特定データを生成する生成部と、前記特定データを前記表示端末に送信する送信部と、を備え、前記表示端末は、複数の周囲画像が記憶される記憶装置から、前記特定データに基づいて、前記被写体を含む区間の一連の周囲画像を抽出する抽出部と、前記特定データに基づいて、前記抽出部が抽出した一連の周囲画像のうち前記被写体の画像を表示する表示部と、を備える。 In one embodiment, the image providing system, an image providing system including a server and a display terminal, wherein the server, based on the information about the object which the display terminal is specified, identifies the position of existence point of the object A generating unit that generates specific data for specifying a series of surrounding images of a section including the subject, based on a shooting position where the subject is shot and a position of the location where the subject exists, and the specific data And a transmission unit that transmits a series of surrounding images of a section including the subject based on the specific data from a storage device that stores a plurality of surrounding images. And a display unit that displays an image of the subject in a series of surrounding images extracted by the extraction unit based on the specific data.

1つの側面によれば、複数の画像の中から被写体を捉えた区間の一連の画像を簡単な操作で表示することができる。   According to one aspect, a series of images of a section in which a subject is captured from a plurality of images can be displayed with a simple operation.

画像提供システムの一例を示す図である。It is a figure which shows an example of an image provision system. 車両に搭載したカメラと視野との関係の一例を示す図である。It is a figure which shows an example of the relationship between the camera mounted in the vehicle and a visual field. 車両に含まれる制御部の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the control part contained in a vehicle. 車載画像メタデータの一例を示す図である。It is a figure which shows an example of vehicle-mounted image metadata. 制御部が行う処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which a control part performs. 画像蓄積サーバおよびメタデータサーバの処理の一例を示すフローチャートである。It is a flowchart which shows an example of a process of an image storage server and a metadata server. 表示端末と画像検索サーバとが行う処理の一例を示すシーケンスチャートである。It is a sequence chart which shows an example of the process which a display terminal and an image search server perform. 合成画像メタデータの生成の一例を示すフローチャートである。It is a flowchart which shows an example of a production | generation of synthetic | combination image metadata. 車載画像メタデータの区間の一例を示す図である。It is a figure which shows an example of the area of vehicle-mounted image metadata. 被写体を囲うバウンディングボックスの一例を示す図である。It is a figure which shows an example of the bounding box surrounding a to-be-photographed object. 被写体を含むポリゴンデータの一例を示す図である。It is a figure which shows an example of the polygon data containing a to-be-photographed object. 車載画像メタデータと合成映像メタデータとの関係の一例を示す図である。It is a figure which shows an example of the relationship between vehicle-mounted image metadata and synthetic | combination video metadata. 合成画像メタデータの一例を示す図である。It is a figure which shows an example of composite image metadata. 選択画面の一例を示す図である。It is a figure which shows an example of a selection screen. 視野を設定して表示する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which sets and displays a visual field. テクスチャが設定された全周囲画像の一例を示す図である。It is a figure which shows an example of the omnidirectional image to which the texture was set. 被写体を捉えた画像の一例を示す図である。It is a figure which shows an example of the image which caught the to-be-photographed object. 視点、視野を変更した場合の仮想カメラの仮想視野の一例を示す図である。It is a figure which shows an example of the virtual visual field of the virtual camera at the time of changing a viewpoint and a visual field. 表示部に表示される動画の一例を示す図である。It is a figure which shows an example of the moving image displayed on a display part. 可視性に基づく画像選択を行うための画面例を示す図である。It is a figure which shows the example of a screen for performing the image selection based on visibility. 画像検索サーバのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an image search server. 表示端末のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a display terminal.

<発明者の知見>
例えば、全周囲を撮影可能なカメラを搭載した車両が移動しながら所定のタイミングで全周囲画像の撮影を行う。従って、カメラが撮影する全周囲画像は、異なる位置で撮影した画像になる。車両が被写体の近傍を通過しながら撮影を行う場合、被写体が含まれる全周囲画像は一連の全周囲画像になる。
<Inventor's knowledge>
For example, an image of the entire periphery is captured at a predetermined timing while a vehicle equipped with a camera capable of capturing the entire periphery moves. Therefore, the entire surrounding image captured by the camera is an image captured at a different position. When shooting while the vehicle passes near the subject, the omnidirectional image including the subject becomes a series of omnidirectional images.

ユーザの端末(以下、表示端末と称する)が全周囲画像のうち車両の進行方向の視野の画像を表示するように設定されている場合、被写体が全周囲画像に含まれていたとしても、表示端末には被写体が表示されない場合がある。例えば、車両の進行方向に対して後方に被写体がある場合には、全周囲画像に被写体が含まれていたとしても、表示端末には被写体が表示されない。   When the user's terminal (hereinafter referred to as a display terminal) is set to display an image of the field of view in the traveling direction of the vehicle among the all-around image, even if the subject is included in the all-around image, the display The subject may not be displayed on the terminal. For example, when there is a subject behind the traveling direction of the vehicle, the subject is not displayed on the display terminal even if the subject is included in the all-around image.

この場合、ユーザは、表示端末を操作して、手動で視野を設定する。これにより、表示端末は、車両の進行方向に対して後方の被写体を表示することができ、表示端末は、被写体を中心に捉えたカメラワークで撮影した被写体を表示することができる。ただし、この場合、ユーザの手動操作により被写体を中心に捉えたカメラワークで被写体を表示するため、操作性が煩雑になる。   In this case, the user manually sets the field of view by operating the display terminal. As a result, the display terminal can display a subject behind the vehicle in the traveling direction, and the display terminal can display a subject photographed by camera work centered on the subject. However, in this case, since the subject is displayed with camera work centered on the subject by manual operation of the user, the operability becomes complicated.

また、被写体の動画再生を行う場合、視野を手動で設定しながら、被写体を中心に捉えたカメラワークで動画再生を行うことは難しい。従って、被写体を含む区間の一連の周囲画像のうち被写体を中心に捉えたカメラワークの画像は、ユーザによる視野設定の操作が行われることなく、表示されることが望ましい。   In addition, when reproducing a moving image of a subject, it is difficult to reproduce the moving image with camera work centered on the subject while manually setting the field of view. Therefore, it is desirable that the camerawork image captured around the subject in the series of surrounding images including the subject is displayed without the user performing a field-of-view setting operation.

<画像提供システムの全体構成の一例>
以下、図面を参照して、実施形態について説明する。図1は、画像提供システム1の一例を示している。画像提供システム1において、複数の車両2(2A、2B、・・・)と画像蓄積サーバ3と画像検索サーバ4とメタデータサーバ5と地図サーバ6と表示端末7とがネットワーク8を介して接続されている。
<Example of overall configuration of image providing system>
Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 shows an example of an image providing system 1. In the image providing system 1, a plurality of vehicles 2 (2A, 2B,...), An image storage server 3, an image search server 4, a metadata server 5, a map server 6, and a display terminal 7 are connected via a network 8. Has been.

車両2は、例えば自動車である。車両2は、全周囲を撮影可能なカメラを搭載している。実施形態では、複数の車両2は移動しながら、所定のタイミングで全周囲を視野とする全周囲画像を撮影する。複数の車両2が移動しながら全周囲画像を撮影しているため、異なる車両2が同じ被写体を撮影することがある。   The vehicle 2 is an automobile, for example. The vehicle 2 is equipped with a camera capable of photographing the entire periphery. In the embodiment, the plurality of vehicles 2 captures an all-around image having the entire view as a field of view at a predetermined timing while moving. Since the plurality of vehicles 2 capture the entire surrounding image while moving, different vehicles 2 may capture the same subject.

各車両2は、所定のタイミングで、ネットワーク8を介して、撮影した全周囲画像に画像IDを付与して画像蓄積サーバ3に送信する。なお、IDはIdentificationの略称である。また、各車両2は、ネットワーク8を介して、撮影した全周囲画像に関するデータ(以下、車載画像メタデータと称する)をメタデータサーバ5に送信する。   Each vehicle 2 gives an image ID to the captured all-around image and transmits it to the image storage server 3 via the network 8 at a predetermined timing. ID is an abbreviation for Identification. In addition, each vehicle 2 transmits data regarding the captured all-around image (hereinafter referred to as in-vehicle image metadata) to the metadata server 5 via the network 8.

画像蓄積サーバ3は、各車両2から送信される全周囲画像を画像IDと関連付けて記憶する。また、画像蓄積サーバ3は、表示端末7から指定された被写体を含む一連の全周囲画像を抽出して、表示端末7に送信する。画像蓄積サーバ3は、記憶装置の一例である。   The image storage server 3 stores the all-around image transmitted from each vehicle 2 in association with the image ID. Further, the image storage server 3 extracts a series of all-around images including the subject designated from the display terminal 7 and transmits the extracted images to the display terminal 7. The image storage server 3 is an example of a storage device.

画像検索サーバ4は、サーバ通信部11と被写体位置特定部12と合成画像メタデータ生成部13と演算部14とを備える。画像検索サーバ4は、サーバの一例である。サーバ通信部11は、ネットワーク8との間でデータの通信を行う。サーバ通信部11は、送信部の一例である。   The image search server 4 includes a server communication unit 11, a subject position specifying unit 12, a composite image metadata generation unit 13, and a calculation unit 14. The image search server 4 is an example of a server. The server communication unit 11 performs data communication with the network 8. The server communication unit 11 is an example of a transmission unit.

被写体位置特定部12は、指定された被写体の位置を特定する。実施形態では、被写体位置特定部12は、表示端末7から送信された被写体に関するキーワードに基づいて、地図サーバ6からキーワードに対応する被写体の位置を特定する。被写体位置特定部12は、特定部の一例である。   The subject position specifying unit 12 specifies the position of the designated subject. In the embodiment, the subject position specifying unit 12 specifies the position of the subject corresponding to the keyword from the map server 6 based on the keyword related to the subject transmitted from the display terminal 7. The subject position specifying unit 12 is an example of a specifying unit.

合成画像メタデータ生成部13は、合成画像メタデータを生成する。合成画像メタデータは、車載画像メタデータの一連の全周囲画像のうち、表示端末7が指定した被写体を含む区間の全周囲画像を特定するデータである。合成画像メタデータは、特定データの一例である。また、合成画像メタデータ生成部13は、生成部の一例である。   The composite image metadata generation unit 13 generates composite image metadata. The composite image metadata is data that identifies the all-around image of the section including the subject specified by the display terminal 7 in the series of all-around images of the in-vehicle image metadata. The composite image metadata is an example of specific data. The composite image metadata generation unit 13 is an example of a generation unit.

実施形態では、周囲画像に被写体が含まれるか否かは、被写体の位置と撮影位置との距離が所定の閾値以下であるか否かに基づいて判定される。ただし、周囲画像に被写体が含まれているか否かの判定基準は、上記の例には限定されない。   In the embodiment, whether or not the subject is included in the surrounding image is determined based on whether or not the distance between the position of the subject and the shooting position is equal to or less than a predetermined threshold. However, the criterion for determining whether or not the surrounding image includes a subject is not limited to the above example.

演算部14は、合成画像メタデータに含まれる各パラメータの値を演算する。例えば、演算部14は、上述した撮影位置と被写体の位置との間の距離を演算する。また、演算部14は、撮影位置から見た被写体の位置の方位や仰角等を演算する。   The calculation unit 14 calculates the value of each parameter included in the composite image metadata. For example, the calculation unit 14 calculates the distance between the above-described shooting position and the subject position. Further, the calculation unit 14 calculates the azimuth and elevation angle of the position of the subject viewed from the shooting position.

メタデータサーバ5は、上述した車載画像メタデータおよび合成画像メタデータを記憶する。メタデータサーバ5は、複数の車載画像メタデータおよび複数の合成画像メタデータを記憶する。   The metadata server 5 stores the above-described vehicle-mounted image metadata and composite image metadata. The metadata server 5 stores a plurality of in-vehicle image metadata and a plurality of composite image metadata.

地図サーバ6は、地図上の位置とキーワードとを対応付けて記憶している。キーワードは、被写体を特定する情報である。例えば、キーワードは、施設の名称や住所等であってもよい。地図上の位置は、例えば、経度と緯度とにより特定されてもよい。また、地図サーバ6が記憶する地図は3次元地図であってもよい。   The map server 6 stores a map position and a keyword in association with each other. The keyword is information for specifying the subject. For example, the keyword may be a facility name or address. The position on the map may be specified by, for example, longitude and latitude. The map stored in the map server 6 may be a three-dimensional map.

表示端末7は、ユーザが所有する端末である。例えば、パーソナルコンピュータやスマートフォン、携帯電話、タブレット端末等であってもよい。表示端末7は、端末通信部21と画像抽出部22と視野設定部23と画像処理部24と表示部25とを備える。   The display terminal 7 is a terminal owned by the user. For example, a personal computer, a smart phone, a mobile phone, a tablet terminal, or the like may be used. The display terminal 7 includes a terminal communication unit 21, an image extraction unit 22, a visual field setting unit 23, an image processing unit 24, and a display unit 25.

端末通信部21は、ネットワーク8を介して通信を行う。画像抽出部22は、被写体を含む区間の合成画像メタデータに基づいて、画像蓄積サーバ3から複数の全周囲画像の抽出を行う。   The terminal communication unit 21 performs communication via the network 8. The image extraction unit 22 extracts a plurality of omnidirectional images from the image storage server 3 based on the composite image metadata of the section including the subject.

視野設定部23は、画像検索サーバ4から受信する合成画像メタデータに基づいて、全周囲画像の中での視野(仮想視野とも称することがある)を設定する。画像処理部24は、全周囲画像のうち視野設定部23が設定した視野の画像を生成する処理を行う。   The visual field setting unit 23 sets a visual field (also referred to as a virtual visual field) in the entire surrounding image based on the composite image metadata received from the image search server 4. The image processing unit 24 performs processing for generating a field-of-view image set by the field-of-view setting unit 23 among the entire surrounding images.

表示部25は、画像処理部24が処理した画像を表示する。例えば、表示部25は、タッチパネルディスプレイであってもよい。表示部25がタッチパネルディスプレイの場合、表示部25は操作機能を有する。表示端末7が不図示の操作手段(例えば、ボタン等)を有する場合、表示部25は操作機能を有しなくてもよい。   The display unit 25 displays the image processed by the image processing unit 24. For example, the display unit 25 may be a touch panel display. When the display unit 25 is a touch panel display, the display unit 25 has an operation function. When the display terminal 7 has an operation unit (not illustrated) (for example, a button), the display unit 25 may not have an operation function.

図1の例では、画像蓄積サーバ3と画像検索サーバ4とメタデータサーバ5とを別個のサーバとして設けているが、これらのサーバを1つのサーバとしてもよい。例えば、画像検索サーバ4が画像蓄積サーバ3およびメタデータサーバ5の機能を有していてもよい。   In the example of FIG. 1, the image storage server 3, the image search server 4, and the metadata server 5 are provided as separate servers, but these servers may be a single server. For example, the image search server 4 may have the functions of the image storage server 3 and the metadata server 5.

<車両の一例>
図2は、全周囲を撮影可能なカメラを搭載した車両2の一例を示している。車両2の前後左右にはカメラC1〜C4が設けられている。カメラC1〜C4に対応する視野をV1〜V4とする。
<Example of vehicle>
FIG. 2 shows an example of a vehicle 2 equipped with a camera capable of photographing the entire periphery. Cameras C <b> 1 to C <b> 4 are provided on the front, rear, left and right of the vehicle 2. The visual fields corresponding to the cameras C1 to C4 are V1 to V4.

カメラC1〜C4はそれぞれ広角レンズを用いており、視野V1〜V4は3次元的に広い範囲となる。視野V1および視野V4は、視野V2および視野V2およびV3と重なる視野範囲となる。カメラC1〜C4が撮影した画像を合成すると、車両2を中心とした全周囲を視野とした全周囲画像が生成される。   Each of the cameras C1 to C4 uses a wide-angle lens, and the visual fields V1 to V4 are three-dimensionally wide. The visual field V1 and the visual field V4 have a visual field range that overlaps the visual field V2 and the visual fields V2 and V3. When the images captured by the cameras C1 to C4 are combined, an all-around image with the entire view centered on the vehicle 2 as a field of view is generated.

実施形態では、全周囲画像は、カメラC1〜C4が撮影した4チャンネルの画像に基づいて生成することができる。ただし、全周囲画像を生成する図2の例には限定されない。例えば、360度全天周レンズを用いた1台のカメラを車両2の屋根に設置して、このカメラが全周囲画像を撮影してもよい。   In the embodiment, the omnidirectional image can be generated based on images of four channels taken by the cameras C1 to C4. However, the present invention is not limited to the example of FIG. For example, a single camera using a 360-degree omnidirectional lens may be installed on the roof of the vehicle 2 and this camera may shoot an all-around image.

また、実施形態では、車両2に搭載するカメラにより生成される画像は全周囲画像であるものとして説明するが、全周囲画像には限定されない。例えば、車両2に搭載したカメラは350度の周囲画像を撮影してもよい。   In the embodiment, the image generated by the camera mounted on the vehicle 2 is described as an all-around image, but is not limited to the all-around image. For example, a camera mounted on the vehicle 2 may capture a surrounding image of 350 degrees.

図3は、車両2に含まれる制御部30の一例を示している。カメラC1〜C4が撮影した画像は、時刻同期がされている。時刻同期がされた4枚の画像は、一次記憶部31に記憶される。一次記憶部31は、例えばメモリ等であってもよい。   FIG. 3 shows an example of the control unit 30 included in the vehicle 2. The images taken by the cameras C1 to C4 are time synchronized. The four images synchronized in time are stored in the primary storage unit 31. The primary storage unit 31 may be a memory, for example.

時刻同期がされた4枚の画像は、合成されているか否かにかかわらず、全周囲画像と称する。実施形態では、表示端末7の画像処理部24で画像処理がされるまで、全周囲画像は合成されていない画像であるものとする。ただし、時刻同期された4枚の画像は、制御部30で合成されてもよい。   The four images that are time-synchronized are referred to as an all-around image regardless of whether they are synthesized. In the embodiment, it is assumed that the omnidirectional image is an image that has not been synthesized until the image processing unit 24 of the display terminal 7 performs image processing. However, the four images synchronized in time may be combined by the control unit 30.

圧縮符号化部32は、一次記憶部31から全周囲画像を読み出して、読み出した全周囲画像を圧縮符号化する。例えば、全周囲画像の4枚の画像(解像度:640×480)のそれぞれについて、時刻が異なる4枚の全周囲画像を1つにした全周囲画像(解像度:1280×960)に対して、圧縮符号化部32は、圧縮符号化を行ってもよい。圧縮符号化には、例えば、H.264等を適用してもよい、圧縮符号化部32が圧縮符号化を行った全周囲画像は、車載記憶部36に記憶される。   The compression encoding unit 32 reads the all-around image from the primary storage unit 31 and compress-encodes the read all-around image. For example, for each of four images (resolution: 640 × 480) of the omnidirectional image, compression is performed on the omnidirectional image (resolution: 1280 × 960) obtained by combining four omnidirectional images at different times. The encoding unit 32 may perform compression encoding. Examples of compression encoding include H.264. H.264 or the like, to which the compression coding unit 32 performs compression coding, is stored in the in-vehicle storage unit 36.

時刻計測部33は、時刻を計測する。位置情報取得部34は、現在位置の情報を取得する。例えば、位置情報取得部34は、Global Positioning System(GPS)であってもよい。位置情報取得部34と一次記憶部31が記憶する全周囲画像とは時刻同期がされている。   The time measuring unit 33 measures time. The position information acquisition unit 34 acquires information on the current position. For example, the position information acquisition unit 34 may be a Global Positioning System (GPS). The position information acquisition unit 34 and the all-around image stored in the primary storage unit 31 are time-synchronized.

車載画像メタデータ生成部35は、車載画像メタデータを生成する。車載画像メタデータは、カメラC1〜C4が撮影した全周囲画像に関するデータである。図4の例に示される車載画像メタデータは、画像ID、撮影時刻、撮影位置、カメラ固有情報およびカメラ設置情報等のパラメータを含む。   The in-vehicle image metadata generation unit 35 generates in-vehicle image metadata. The in-vehicle image metadata is data related to the all-around image captured by the cameras C1 to C4. The in-vehicle image metadata shown in the example of FIG. 4 includes parameters such as an image ID, a shooting time, a shooting position, camera specific information, and camera installation information.

画像IDは、全周囲画像を特定する識別子である。撮影時刻は、カメラC1〜C4が撮影を行ったときに時刻計測部33が計測した時刻である。撮影位置は、全周囲画像を取得したときに位置情報取得部34が取得する位置情報である。   The image ID is an identifier that identifies the entire surrounding image. The photographing time is a time measured by the time measuring unit 33 when the cameras C1 to C4 perform photographing. The shooting position is position information acquired by the position information acquisition unit 34 when an all-around image is acquired.

カメラ固有情報は、カメラC1〜C4の解像度やレンズ歪み等に関する情報である。カメラ設置情報は、カメラC1〜C4の設置位置や姿勢等に関する情報である。カメラ固有情報およびカメラ設置情報は、既知の情報である。   The camera specific information is information relating to the resolution, lens distortion, and the like of the cameras C1 to C4. The camera installation information is information related to the installation positions and postures of the cameras C1 to C4. The camera specific information and the camera installation information are known information.

車載画像メタデータは、図4の例に示されたパラメータ以外のパラメータを有していてもよい。車両2に搭載されたカメラC1〜C4は、所定のタイミングで全周囲画像を撮影する。車載画像メタデータ生成部35は、全周囲画像が生成されるごとに、それぞれ固有の画像IDを付与して、車載画像メタデータを生成する。   The in-vehicle image metadata may have parameters other than those shown in the example of FIG. Cameras C <b> 1 to C <b> 4 mounted on the vehicle 2 capture an all-around image at a predetermined timing. The in-vehicle image metadata generation unit 35 assigns a unique image ID to generate in-vehicle image metadata each time an all-around image is generated.

車載画像メタデータの画像IDと該画像IDに対応する全周囲画像とは関連付けがされて、車載記憶部36に記憶される。車両通信部37は、所定のタイミングごとに、車載画像メタデータをメタデータサーバに送信し、全周囲画像を画像蓄積サーバ3に送信する。   The image ID of the in-vehicle image metadata and the all-around image corresponding to the image ID are associated and stored in the in-vehicle storage unit 36. The vehicle communication unit 37 transmits the in-vehicle image metadata to the metadata server and transmits the entire surrounding image to the image storage server 3 at every predetermined timing.

なお、車載記憶部36に記憶されている全周囲画像および車載画像メタデータのうち、送信済みの情報は削除されることが望ましい。これにより、車載記憶部36に記憶される情報量を削減することができる。   In addition, it is desirable that the transmitted information is deleted from the all-around image and the in-vehicle image metadata stored in the in-vehicle storage unit 36. Thereby, the information amount memorize | stored in the vehicle-mounted memory | storage part 36 can be reduced.

<制御部の処理の一例を示すフローチャート>
次に、制御部30の各部が行う処理のフローチャートについて、図5を参照して説明する。車両2に搭載されたカメラC1〜C4は撮影を行う(ステップS1)。カメラC1〜C4が撮影した4枚の画像は一次記憶部31に記憶される。
<Flowchart showing an example of processing of the control unit>
Next, a flowchart of processing performed by each unit of the control unit 30 will be described with reference to FIG. The cameras C1 to C4 mounted on the vehicle 2 perform shooting (step S1). The four images captured by the cameras C1 to C4 are stored in the primary storage unit 31.

これら4枚の画像は時刻同期がされており、一次記憶部31には、カメラC1〜C4が撮影した画像が記憶される(ステップS2)。上述したように、実施形態では、時刻同期された4枚の画像を総称して全周囲画像と称する。   These four images are time-synchronized, and images taken by the cameras C1 to C4 are stored in the primary storage unit 31 (step S2). As described above, in the embodiment, the four images synchronized in time are collectively referred to as an all-around image.

圧縮符号化部32は、全周囲画像の圧縮符号化を行う(ステップS3)。制御部30は、圧縮符号化された全周囲画像に対して画像IDを付与する(ステップS4)。制御部30は画像IDが付与された全周囲画像を車載記憶部36に記憶する(ステップS5)。   The compression encoding unit 32 performs compression encoding of the entire surrounding image (step S3). The control unit 30 assigns an image ID to the omnidirectional image that has been compression-encoded (step S4). The control part 30 memorize | stores the omnidirectional image to which image ID was provided in the vehicle-mounted memory | storage part 36 (step S5).

ステップS1〜S5の処理と並行して、以下のステップS6〜S9の処理が行われる。位置情報取得部34は、カメラC1〜C4が撮影したときの位置情報を取得する(ステップS6)。車載画像メタデータ生成部35は、時刻計測部33が計測した時刻と位置情報取得部34が取得した位置情報とを関連付ける(ステップS7)。   In parallel with the processes of steps S1 to S5, the following processes of steps S6 to S9 are performed. The position information acquisition unit 34 acquires position information when the cameras C1 to C4 are photographed (step S6). The in-vehicle image metadata generation unit 35 associates the time measured by the time measurement unit 33 with the position information acquired by the position information acquisition unit 34 (step S7).

車載画像メタデータ生成部35は、位置情報取得部34から取得した位置情報に対応する画像IDを取得する(ステップS8)。これにより、時刻情報と位置情報とを含む車載画像メタデータが全周囲画像と関連付けられて車載記憶部36に記憶される(ステップS9)。   The in-vehicle image metadata generation unit 35 acquires an image ID corresponding to the position information acquired from the position information acquisition unit 34 (step S8). Thereby, the vehicle-mounted image metadata including the time information and the position information is associated with the all-around image and stored in the vehicle-mounted storage unit 36 (step S9).

車両2は移動しながら、カメラC1〜C4を用いて、所定タイミングで撮影を行う。従って、異なる地点で撮影された経時的な一連の全周囲画像が生成される。そして、時刻ごとに、全周囲画像と車載画像メタデータとは関連付けられて車載記憶部36に記憶される。   While the vehicle 2 is moving, the camera 2 uses the cameras C <b> 1 to C <b> 4 to take an image at a predetermined timing. Therefore, a series of omnidirectional images over time taken at different points is generated. Then, for each time, the all-around image and the in-vehicle image metadata are associated with each other and stored in the in-vehicle storage unit 36.

車両通信部37は、画像蓄積サーバ3とコネクションが確立されているか否かを判定する(ステップS10)。コネクションが確立されている場合(ステップS10でYES)、車両通信部37は全周囲画像を画像蓄積サーバ3に送信する(ステップS11)。一方、コネクションが確立されていない場合(ステップS10でNO)、全周囲画像は送信されない。   The vehicle communication unit 37 determines whether or not a connection with the image storage server 3 has been established (step S10). When the connection is established (YES in step S10), the vehicle communication unit 37 transmits the all-around image to the image storage server 3 (step S11). On the other hand, when the connection is not established (NO in step S10), the all-around image is not transmitted.

車両通信部37は、メタデータサーバ5とコネクションが確立されているか否かを判定する(ステップS12)。コネクションが確立されている場合(ステップS12でYES)、車両通信部37は車載画像メタデータをメタデータサーバ5に送信する(ステップS13)。一方、コネクションが確立されていない場合(ステップS12でNO)、車載画像メタデータは送信されない。   The vehicle communication part 37 determines whether the connection with the metadata server 5 is established (step S12). When the connection is established (YES in step S12), the vehicle communication unit 37 transmits the in-vehicle image metadata to the metadata server 5 (step S13). On the other hand, when the connection is not established (NO in step S12), the in-vehicle image metadata is not transmitted.

制御部30は、送信済みの全周囲画像および車載画像メタデータを車載記憶部36から削除してもよい。カメラC1〜C4は所定タイミングで撮影を行うため、全周囲画像および車載映像メタデータは、撮影を行うごとに増えていく。従って、制御部30が送信済みの全周囲画像および車載画像メタデータを車載記憶部36から削除することで、車載記憶部36に記憶される情報量を削減することができる。   The control unit 30 may delete the transmitted all-around image and in-vehicle image metadata from the in-vehicle storage unit 36. Since the cameras C1 to C4 shoot at a predetermined timing, the all-around image and the in-vehicle video metadata increase every time shooting is performed. Therefore, the amount of information stored in the in-vehicle storage unit 36 can be reduced by deleting the entire surrounding image and in-vehicle image metadata that have been transmitted by the control unit 30 from the in-vehicle storage unit 36.

<画像蓄積サーバおよびメタデータサーバの処理の一例>
図6(A)は、画像蓄積サーバ3の処理の一例を示している。画像蓄積サーバ3は、車両2の車両通信部37との間でコネクションを確立しているか否かを判定する(ステップS21)。
<Example of processing of image storage server and metadata server>
FIG. 6A shows an example of processing of the image storage server 3. The image storage server 3 determines whether or not a connection is established with the vehicle communication unit 37 of the vehicle 2 (step S21).

コネクションが確立されている場合(ステップS21でYES)、画像蓄積サーバ3は、車両通信部37から全周囲画像を受信したか否かを判定する(ステップS22)。画像蓄積サーバ3は、全周囲画像を受信したと判定した場合(ステップS22でYES)、受信した全周囲画像を画像IDと関連付けて記憶する(ステップS23)。これにより、画像蓄積サーバ3に全周囲画像が蓄積される。   When the connection is established (YES in step S21), the image storage server 3 determines whether or not an all-around image has been received from the vehicle communication unit 37 (step S22). If it is determined that the omnidirectional image has been received (YES in step S22), the image storage server 3 stores the received omnidirectional image in association with the image ID (step S23). As a result, the all-around image is accumulated in the image accumulation server 3.

画像蓄積サーバ3は、車両通信部37との間でコネクションが確立されていない場合(ステップS21でNO)、または画像を受信しない場合(ステップS22でNO)、ステップS23の処理を行わない。   If the connection with the vehicle communication unit 37 is not established (NO in step S21) or if no image is received (NO in step S22), the image storage server 3 does not perform the process of step S23.

図6(B)は、メタデータサーバ5の処理の一例を示している。メタデータサーバ5は、車両2の車両通信部37との間でコネクションを確立しているか否かを判定する(ステップS24)。   FIG. 6B shows an example of processing of the metadata server 5. The metadata server 5 determines whether or not a connection is established with the vehicle communication unit 37 of the vehicle 2 (step S24).

コネクションが確立されている場合(ステップS24でYES)、メタデータサーバ5は、車両通信部37から車載映像メタデータを受信したか否かを判定する(ステップS25)。メタデータサーバ5は、車載映像メタデータを受信したと判定した場合(ステップS25でYES)、受信した車載映像メタデータを記憶する(ステップS23)。   When the connection is established (YES in step S24), the metadata server 5 determines whether or not the in-vehicle video metadata is received from the vehicle communication unit 37 (step S25). When it is determined that the in-vehicle video metadata has been received (YES in step S25), the metadata server 5 stores the received in-vehicle video metadata (step S23).

メタデータサーバ5は、車両通信部37との間でコネクションが確立されていない場合(ステップS24でNO)、または車載映像メタデータを受信しない場合(ステップS25でNO)、ステップS26の処理を行わない。   If the connection with the vehicle communication unit 37 is not established (NO in step S24), or if the in-vehicle video metadata is not received (NO in step S25), the metadata server 5 performs the process of step S26. Absent.

<表示端末と画像検索サーバとの間で行われる処理の一例>
次に、表示端末7と画像検索サーバ4とが行う処理の一例について、図7のシーケンスチャートを参照して説明する。表示端末7のユーザは、対象となる被写体の情報を表示端末7に入力する。例えば、表示部25が操作機能を有する場合、ユーザは、表示部25を用いて、対象となる被写体の情報を入力する。
<Example of processing performed between display terminal and image search server>
Next, an example of processing performed by the display terminal 7 and the image search server 4 will be described with reference to the sequence chart of FIG. The user of the display terminal 7 inputs information on the subject to be displayed on the display terminal 7. For example, when the display unit 25 has an operation function, the user uses the display unit 25 to input information on a subject to be processed.

表示端末7は、入力された被写体(ユーザにより指定された被写体)の情報を画像検索サーバ4に送信する。実施形態では、ユーザにより指定された被写体の情報は、キーワードであるものとする。   The display terminal 7 transmits information on the input subject (subject specified by the user) to the image search server 4. In the embodiment, it is assumed that the subject information designated by the user is a keyword.

キーワードは、上述したように、施設の名称や住所等であってもよい。従って、端末通信部21は、入力されたキーワードを画像検索サーバ4に送信する(ステップSC1)。なお、ユーザにより指定される被写体の情報は、キーワードには限定されない。例えば、被写体の情報は、被写体の経度および緯度を示す位置情報であってもよい。   As described above, the keyword may be the name or address of the facility. Accordingly, the terminal communication unit 21 transmits the input keyword to the image search server 4 (step SC1). Note that the subject information specified by the user is not limited to keywords. For example, the subject information may be position information indicating the longitude and latitude of the subject.

画像検索サーバ4は、受信したキーワードを地図サーバ6に送信する。地図サーバ6は、キーワードに対応付けられている位置情報を画像検索サーバ4に送信する。これにより、画像検索サーバ4は、キーワードに基づく位置情報を取得する(ステップSC2)。取得した位置情報は、ユーザにより指定された被写体の位置情報である。   The image search server 4 transmits the received keyword to the map server 6. The map server 6 transmits the position information associated with the keyword to the image search server 4. Thereby, the image search server 4 acquires position information based on the keyword (step SC2). The acquired position information is the position information of the subject specified by the user.

画像検索サーバ4は、メタデータサーバ5に記憶されている複数の車載映像メタデータのうち、取得した位置情報(図4の例では撮影位置)を含む車載映像メタデータをメタデータサーバ5から抽出する(ステップSC3)。抽出される車載映像メタデータは複数の場合もある。   The image search server 4 extracts, from the metadata server 5, in-vehicle video metadata including the acquired position information (shooting position in the example of FIG. 4) from among the plurality of in-vehicle video metadata stored in the metadata server 5. (Step SC3). There may be a plurality of in-vehicle video metadata to be extracted.

画像検索サーバ4の合成画像メタデータ生成部13は、車載映像メタデータから被写体を含む区間の画像を特定し、合成画像メタデータを生成する(ステップSC4)。合成画像メタデータの生成の一例について、図8のフローチャートを参照して説明する。   The composite image metadata generation unit 13 of the image search server 4 specifies the image of the section including the subject from the in-vehicle video metadata, and generates composite image metadata (step SC4). An example of the generation of the composite image metadata will be described with reference to the flowchart in FIG.

演算部14は、抽出された車載映像メタデータに含まれる撮影位置と被写体の位置との間の距離Dを算出する(ステップS31)。距離Dは、2つの地点間の距離を算出する以下の式(1)を用いてもよい。   The calculation unit 14 calculates a distance D between the shooting position and the subject position included in the extracted in-vehicle video metadata (step S31). As the distance D, the following formula (1) for calculating the distance between two points may be used.

なお、以下の式(1)において、撮影位置は(経度x1、緯度y1)とし、被写体の位置は(経度x2、緯度y2)とする。撮影位置は、車載映像メタデータに含まれ、被写体の位置は、ステップSC2で取得した位置情報により特定される。rは地球の赤道半径である。
「D=r×cos−1(sin(y1)×sin(y2)+cos(y1)×cos(y2)×cos(x2−x1))」・・・(式1)
In the following formula (1), the shooting position is (longitude x1, latitude y1), and the subject position is (longitude x2, latitude y2). The shooting position is included in the in-vehicle video metadata, and the position of the subject is specified by the position information acquired in step SC2. r is the equator radius of the earth.
“D = r × cos −1 (sin (y1) × sin (y2) + cos (y1) × cos (y2) × cos (x2−x1))” (Formula 1)

次に、演算部14は、上記の式(1)で得られた撮影位置と被写体の位置との距離Dが閾値Dth以下となる区間Tsegを算出する。区間Tsegは、全周囲画像に被写体が含まれている区間を示す。   Next, the calculation unit 14 calculates a section Tseg in which the distance D between the shooting position obtained by the above equation (1) and the subject position is equal to or less than the threshold value Dth. The section Tseg indicates a section in which the subject is included in the entire surrounding image.

図9は、車載画像メタデータのうち区間Tseg(ハッチングを施した区間)を特定した一例を示している。撮影位置と被写体の位置との距離が短ければ、全周囲画像に被写体は鮮明に写る。一方、撮影位置と被写体の位置との距離が長ければ、全周囲画像に写る被写体の鮮明度は低下する。   FIG. 9 shows an example in which the section Tseg (the hatched section) is specified in the in-vehicle image metadata. If the distance between the shooting position and the subject position is short, the subject appears clearly in the entire surrounding image. On the other hand, if the distance between the shooting position and the subject position is long, the sharpness of the subject in the all-around image decreases.

そこで、全周囲画像に被写体が含まれるか否かを判定する基準を上記の閾値Dthとする。閾値Dthは任意の値が設定されてもよい。画像検索サーバ4に対して、閾値Dthが入力されてもよい。   Therefore, the above-mentioned threshold value Dth is used as a reference for determining whether or not a subject is included in the all-around image. An arbitrary value may be set as the threshold value Dth. A threshold value Dth may be input to the image search server 4.

また、後述する図10の被写体のバウンディングボックスBBが得られる場合には、車載画像メタデータに含まれるカメラ固有情報に基づいて、全周囲画像に被写体が所定画素以上で写るために必要な距離をDthとしてもよい。   When the bounding box BB of the subject shown in FIG. 10 to be described later is obtained, the distance necessary for the subject to appear in the entire surrounding image at a predetermined pixel or more is determined based on the camera-specific information included in the in-vehicle image metadata. It may be Dth.

図9の場合、時刻T1から始まる一連の全周囲画像のうち、時刻T4からT7の区間における撮影位置と被写体の位置とが「D≧Dth」を満たす区間である。時刻T3または時刻T8における全周囲画像にも被写体が含まれている可能性がある。ただし、図9の例では、時刻T3および時刻T8は「D≧Dth」を満たさないため、合成画像メタデータ生成部13は、全周囲画像に被写体が含まれていないと判定する。   In the case of FIG. 9, among the series of all-around images starting from time T1, the shooting position and the subject position in the section from time T4 to T7 satisfy “D ≧ Dth”. There is a possibility that the entire surrounding image at the time T3 or the time T8 also includes the subject. However, in the example of FIG. 9, since the time T3 and the time T8 do not satisfy “D ≧ Dth”, the composite image metadata generation unit 13 determines that the subject is not included in the all-around image.

撮影位置は、図9の例に示すように、経時的に変化する。図9の例では、時刻T4においては、撮影位置は位置P4であり、時刻T5においては、位置P5である。つまり、車両2に搭載されたカメラC1〜C4が所定のタイミングで撮影を行うため、撮影したタイミングごとの一連の全周囲画像が生成される。   The shooting position changes with time as shown in the example of FIG. In the example of FIG. 9, the shooting position is position P4 at time T4, and is position P5 at time T5. That is, since the cameras C1 to C4 mounted on the vehicle 2 perform shooting at a predetermined timing, a series of all-around images for each shooting timing is generated.

時刻Tにおける距離をDtとする。上記の式(1)は、Dt=F(X、Pt)としてもよい。Xは、被写体の位置であり、Ptは時刻tにおける撮影位置である。そして、時刻Tにおける距離Dtは、上記の式(1)の関数Fにより求めることができる。   The distance at time T is Dt. The above equation (1) may be Dt = F (X, Pt). X is the position of the subject, and Pt is the shooting position at time t. Then, the distance Dt at time T can be obtained by the function F of the above equation (1).

また、上述したように、「D≧Dth」となる開始時刻をTs、終了時刻Teとすると、上記の区間Tsegは「Ts,Te」として表すことができる。図9の例の場合、区間Tsegの開始時刻TsはT4であり、終了時刻TeはT7である。   Further, as described above, if the start time when “D ≧ Dth” is Ts and the end time Te, the section Tseg can be expressed as “Ts, Te”. In the example of FIG. 9, the start time Ts of the section Tseg is T4, and the end time Te is T7.

図8の例に示すように、区間Tsegが算出された後、合成画像メタデータ生成部13は、方位情報θを算出する(ステップS33)。方位情報θは、撮影位置から被写体の位置を撮影したときの方位である。方位情報θは、例えば、以下の式(2)により得られる。なお、x1、x2、y1およびy2は、上述した式(1)と同様である。
「θ=90−arctan2(sin(x2−x1)、cos(y1)×tan(y2)−sin(y1)×cos(x2−x1))」・・・式(2)
As shown in the example of FIG. 8, after the section Tseg is calculated, the composite image metadata generation unit 13 calculates the azimuth information θ (step S33). The azimuth information θ is the azimuth when the subject position is photographed from the photographing position. The azimuth information θ is obtained by the following equation (2), for example. Note that x1, x2, y1, and y2 are the same as those in the above-described formula (1).
“Θ = 90−arctan2 (sin (x2−x1), cos (y1) × tan (y2) −sin (y1) × cos (x2−x1))” (2)

これにより、撮影位置から見た被写体の方位情報θが得られる。車両2が移動するごとに撮影位置が変化するため、方位情報θも撮影位置によって変化する。撮影位置は撮影時刻によって変化するため、方位情報θも時刻によって変化する。従って、時刻tの方位情報θtはθt=G(X、Pt)として表すことができる。つまり、式(2)を関数Gとして表せば、θt=G(X、Pt)となる。   Thereby, the azimuth information θ of the subject viewed from the photographing position is obtained. Since the shooting position changes each time the vehicle 2 moves, the azimuth information θ also changes depending on the shooting position. Since the shooting position changes with the shooting time, the azimuth information θ also changes with the time. Therefore, the azimuth information θt at time t can be expressed as θt = G (X, Pt). That is, if Expression (2) is expressed as a function G, θt = G (X, Pt).

演算部14は、仰角情報φを算出する(ステップS34)。仰角情報φは、水平面方向を基準とした被写体の仰角を示す。仰角情報φも時刻と共に変化するため、仰角情報φtとすることができる。仰角情報φtは、例えば、図10の破線で示すバウンディングボックスBBに基づいて得ることができる。   The computing unit 14 calculates elevation angle information φ (step S34). The elevation angle information φ indicates the elevation angle of the subject relative to the horizontal plane direction. Since the elevation angle information φ also changes with time, the elevation angle information φt can be obtained. The elevation angle information φt can be obtained, for example, based on the bounding box BB indicated by the broken line in FIG.

仰角情報φtは、被写体を3次元的に囲う直方体形状のバウンディングボックスBBが設定されている場合、バウンディングボックスBBの8つの頂点B1〜B8の中心座標Bcに基づいて、以下の式(3)により得ることができる。なお、中心座標Bcは(xc、yc、zc)とする。xc、yx、zxは、バウンディングボックスBBのx軸、y軸、z軸の中心座標であることを示す。
「φt=arctan(zc/Dt)」・・・(式3)
The elevation angle information φt is obtained by the following equation (3) based on the center coordinates Bc of the eight vertices B1 to B8 of the bounding box BB when a rectangular parallelepiped bounding box BB surrounding the subject three-dimensionally is set. Can be obtained. The center coordinate Bc is (xc, yc, zc). xc, yx, and zx indicate the center coordinates of the x-axis, y-axis, and z-axis of the bounding box BB.
“Φt = arctan (zc / Dt)” (Formula 3)

演算部14は、視野情報FOVを算出する(ステップS35)。視野情報FOVは、図10に一例として示すバウンディングボックスBBを規定する。視野情報FOVは、水平方向の視野角(fovH)および垂直方向の視野角(fovV)により規定される。   The computing unit 14 calculates the visual field information FOV (step S35). The visual field information FOV defines a bounding box BB shown as an example in FIG. The visual field information FOV is defined by a horizontal viewing angle (fovH) and a vertical viewing angle (fovV).

例えば、視野情報FOVは、バウンディングボックスBBをちょうど包含するように設定されてもよいし、固定値としてもよい。視野情報FOVが固定値の場合、演算部14は視野情報FOVを求める演算は行わない。次に、演算部14は、可視性Vを算出する(ステップS36)。   For example, the visual field information FOV may be set to just include the bounding box BB, or may be a fixed value. When the visual field information FOV is a fixed value, the calculation unit 14 does not perform calculation for obtaining the visual field information FOV. Next, the calculating part 14 calculates visibility V (step S36).

可視性Vも、時刻ごとに変化するため、時刻tにおける可視性Vを可視性Vtとする。可視性Vtは、撮影位置から被写体の立体領域(例えば、バウンディングボックスBB)が見える程度を示す。つまり、可視性Vtは、時刻tにおける全周囲画像に写っている被写体の率を示す。   Since the visibility V also changes with time, the visibility V at time t is defined as visibility Vt. Visibility Vt indicates the degree to which a three-dimensional area (for example, a bounding box BB) of a subject can be seen from the shooting position. That is, the visibility Vt indicates the rate of the subject that appears in the all-around image at time t.

例えば、図10に示すように、撮影位置(Pt)からバウンディングボックスBBに向けて所定の角度分解能で視線ベクトルを発したときの該視線ベクトルの本数をN本とする。図11の例は、被写体を含むポリゴンデータの一例である。演算部14は、視線ベクトルが被写体に衝突する率を演算する。演算部14は、被写体のポリゴンにヒット(衝突)した総数がM本の場合、可視性Vtを以下の式(4)で演算する。
「Vt=M/N」・・・(式4)
For example, as shown in FIG. 10, the number of line-of-sight vectors when a line-of-sight vector is emitted with a predetermined angular resolution from the shooting position (Pt) toward the bounding box BB is N. The example of FIG. 11 is an example of polygon data including a subject. The calculation unit 14 calculates the rate at which the line-of-sight vector collides with the subject. When the total number of hits (collisions) on the polygons of the subject is M, the calculation unit 14 calculates the visibility Vt by the following expression (4).
“Vt = M / N” (Formula 4)

例えば、撮影位置と被写体との間に何らかの遮蔽物があると、撮影位置から発した視線ベクトルのうち遮蔽物にヒットした視線ベクトルは、被写体にはヒットしない。このため、Mが低下するため、可視性Vtも低下する。   For example, if there is any shielding object between the shooting position and the subject, the line-of-sight vector that hits the shielding object among the line-of-sight vectors emitted from the shooting position does not hit the subject. For this reason, since M decreases, visibility Vt also decreases.

演算部14は、可視良好性Qを演算する(ステップS37)。可視良好性Qは、ステップS32で求められた区間Tsegにおける可視性Vtから統合的に評価される値である。例えば、可視良好性Qは、以下の式(5)のように、区間Tsegにおける全ての可視性Vの平均値として演算してもよい。
The computing unit 14 computes the visibility goodness Q (step S37). The visibility goodness Q is a value that is comprehensively evaluated from the visibility Vt in the section Tseg obtained in step S32. For example, the visibility goodness Q may be calculated as an average value of all the visibility V in the section Tseg as in the following formula (5).

なお、式(5)において、fsは総フレーム数を示す。例えば、車載画像メタデータと合成映像メタデータとの関係の例を示す図12の例の場合、区間Tsegにおける可視良好性Qは、以下の式(6)のようになる。
「Q=(V4+V5+V6+V7)/4」・・・(式6)
In equation (5), fs indicates the total number of frames. For example, in the case of the example of FIG. 12 showing an example of the relationship between the in-vehicle image metadata and the composite video metadata, the visibility goodness Q in the section Tseg is expressed by the following formula (6).
“Q = (V4 + V5 + V6 + V7) / 4” (Formula 6)

以上により、図7のステップSC4の処理が終了し、合成画像メタデータが生成される。図12の例に示されるように、車載画像メタデータのうち、時刻T4からT7までの間が区間Tseg(ハッチングを施してある区間)である。   Thus, the process of step SC4 in FIG. 7 ends, and composite image metadata is generated. As shown in the example of FIG. 12, in the in-vehicle image metadata, a section from time T4 to T7 is a section Tseg (section where hatching is performed).

演算部14は、区間Tsegの間の方位θ4からθ7、仰角φ4からφ7、視野FOV4からFOV7および可視性V4からV7を演算する。図13は、合成画像メタデータに含まれるパラメータの一例である。   The calculation unit 14 calculates the azimuths θ4 to θ7, the elevation angles φ4 to φ7, the visual fields FOV4 to FOV7, and the visibility V4 to V7 during the section Tseg. FIG. 13 is an example of parameters included in the composite image metadata.

合成画像メタデータIDは、合成画像メタデータを識別する識別子である。画像ID、撮影時刻、撮影位置、カメラ固有情報およびカメラ設置情報は、合成画像メタデータを生成する元となる車載画像メタデータに含まれるデータである。   The composite image metadata ID is an identifier for identifying composite image metadata. The image ID, shooting time, shooting position, camera-specific information, and camera installation information are data included in the in-vehicle image metadata that is a source for generating the composite image metadata.

また、区間情報は、合成画像メタデータが区間Tsegの開始時刻および終了時刻を示す。上述したように、区間情報は「Ts、Te」であるため、図12の例の場合、区間情報は「T4、T7」になる。   The section information indicates the start time and end time of the section Tseg for the composite image metadata. Since the section information is “Ts, Te” as described above, the section information is “T4, T7” in the example of FIG.

合成画像メタデータ生成部13は、区間Tsegに含まれる各時刻について、合成画像メタデータを生成する。図12の例の場合、合成画像メタデータ生成部13は、時刻T4からT7の4つの時刻について、合成画像メタデータを生成する。   The composite image metadata generation unit 13 generates composite image metadata for each time included in the section Tseg. In the case of the example in FIG. 12, the composite image metadata generation unit 13 generates composite image metadata for four times from time T4 to T7.

上述したように、指定された被写体を含む複数の合成画像メタデータが生成されることがある。サーバ通信部11は、生成された複数の合成画像メタデータをそれぞれ特定する合成画像メタデータIDをリスト形式で表示端末7に送信する(ステップSC5)。表示端末7の端末通信部21は、合成画像メタデータIDのリストを受信する。   As described above, a plurality of composite image metadata including a designated subject may be generated. The server communication unit 11 transmits the composite image metadata ID for specifying each of the generated composite image metadata to the display terminal 7 in a list format (step SC5). The terminal communication unit 21 of the display terminal 7 receives the list of composite image metadata IDs.

表示端末7は、リストに含まれる合成画像メタデータIDで特定される複数の合成画像メタデータをメタデータサーバ5から取得する(ステップSC6)。このために、端末通信部21は、リストに含まれる合成画像メタデータIDをメタデータサーバ5に送信する。   The display terminal 7 acquires a plurality of composite image metadata specified by the composite image metadata ID included in the list from the metadata server 5 (step SC6). For this purpose, the terminal communication unit 21 transmits the composite image metadata ID included in the list to the metadata server 5.

メタデータサーバ5は、合成画像メタデータIDで特定される複数の合成画像メタデータを表示端末5に送信する。これにより、表示端末7は、複数の合成画像メタデータを取得する。   The metadata server 5 transmits a plurality of composite image metadata specified by the composite image metadata ID to the display terminal 5. Thereby, the display terminal 7 acquires a plurality of composite image metadata.

表示端末7は、取得した複数の合成画像メタデータのうち何れの合成画像メタデータを表示するかを選択する画面(以下、選択画面と称する)を表示する(ステップSC7)。なお、表示端末7が受信した合成画像メタデータが1つの場合は、ステップSC7の処理は行われなくてもよい。   The display terminal 7 displays a screen (hereinafter referred to as a selection screen) for selecting which composite image metadata is to be displayed among the plurality of obtained composite image metadata (step SC7). Note that when the composite image metadata received by the display terminal 7 is one, the process of step SC7 may not be performed.

図14は、選択画面の一例を示している。選択画面は、1つの合成画像メタデータIDごとに、可視良好性Qを表示する。図14の例では、1つの合成画像メタデータIDについて、撮影時刻とサムネイルとを表示している。   FIG. 14 shows an example of the selection screen. The selection screen displays the visibility goodness Q for each composite image metadata ID. In the example of FIG. 14, the shooting time and thumbnail are displayed for one composite image metadata ID.

可視良好性Qは、区間Tsegにおける1つの全周囲画像についての可視性Vの統合的な評価値であり、動画表示したときの平均的な品質を示す。ユーザは、表示部25に表示されている選択画面の中から所望の合成画像メタデータIDを選択する。従って、ユーザは、可視良好性Qの値が高い合成画像メタデータIDを選択することで、指定した被写体を含む高品質な動画を視聴することができる。   The visual goodness Q is an integrated evaluation value of the visibility V for one entire surrounding image in the section Tseg, and indicates an average quality when a moving image is displayed. The user selects a desired composite image metadata ID from the selection screen displayed on the display unit 25. Therefore, the user can view a high-quality moving image including the designated subject by selecting the composite image metadata ID having a high visibility goodness Q value.

なお、図14の例において、表示部25は、可視良好性Qではなく、可視性Vの最大値を表示してもよい。この場合、ユーザは、合成画像メタデータIDで特定される複数の静止画のうち、可視性Vが高い静止画を選択することができる。これにより、表示部25は、指定した被写体を含む高品質な静止画を表示することができる。   In the example of FIG. 14, the display unit 25 may display the maximum value of the visibility V instead of the visibility goodness Q. In this case, the user can select a still image with high visibility V among a plurality of still images specified by the composite image metadata ID. Thereby, the display unit 25 can display a high-quality still image including the designated subject.

表示端末7の端末通信部21は、選択された合成画像メタデータIDをメタデータサーバ5に送信する。メタデータサーバ5は、選択された合成画像メタデータを表示端末7に送信する。これにより、表示端末7は、選択された合成画像メタデータを取得する(ステップSC8)。   The terminal communication unit 21 of the display terminal 7 transmits the selected composite image metadata ID to the metadata server 5. The metadata server 5 transmits the selected composite image metadata to the display terminal 7. Thereby, the display terminal 7 acquires the selected composite image metadata (step SC8).

図7の例に示すように、画像抽出部22は、合成画像メタデータIDが選択されると、選択された合成画像メタデータIDに基づく一連の画像を画像蓄積サーバ3から抽出する(ステップSC9)。合成画像メタデータは、画像IDと区間情報とを含む。図12の例では、区間情報は、時刻T4から時刻T7を示す情報になる。   As shown in the example of FIG. 7, when the composite image metadata ID is selected, the image extraction unit 22 extracts a series of images based on the selected composite image metadata ID from the image storage server 3 (step SC9). ). The composite image metadata includes an image ID and section information. In the example of FIG. 12, the section information is information indicating time T4 to time T7.

従って、表示端末7は、選択された合成画像メタデータに含まれる画像IDと区間情報とを画像蓄積サーバ3に送信する。画像蓄積サーバ3は、記憶している複数の全周囲画像のうち、画像IDで特定される全周囲画像について、区間情報で特定される一連の全周囲画像を抽出する。画像蓄積サーバ3は、抽出した一連の全周囲画像を端末通信部21に送信する。このときに抽出される一連の全周囲画像は、区間Tsegの一連の全周囲画像になる。   Accordingly, the display terminal 7 transmits the image ID and the section information included in the selected composite image metadata to the image storage server 3. The image storage server 3 extracts a series of all-around images specified by the section information for all-around images specified by the image ID from among the plurality of stored all-around images. The image storage server 3 transmits the extracted series of all-around images to the terminal communication unit 21. A series of all-around images extracted at this time becomes a series of all-around images in the section Tseg.

端末通信部21は、区間Tsegの一連の全周囲画像を受信する。図7の例に示すように、表示端末7は、全周囲画像の中で視野を設定し、設定された視野で画像処理部24が画像処理を行う。そして、画像処理された画像が表示部25に表示される(ステップSC10)。   The terminal communication unit 21 receives a series of all-around images in the section Tseg. As shown in the example of FIG. 7, the display terminal 7 sets a field of view in the entire surrounding image, and the image processing unit 24 performs image processing with the set field of view. Then, the image processed image is displayed on the display unit 25 (step SC10).

図15は、ステップSC8の処理の例を示す。表示端末7が受信する全周囲画像は、上述したように、カメラC1〜C4が撮影した4枚の画像である。画像処理部24は、取得した全周囲画像を合成して、車両2を中心とした3次元曲面を設定する(ステップS41)。3次元曲面は、例えば、ポリゴンで定義されてもよい。   FIG. 15 shows an example of the process of step SC8. As described above, the all-around image received by the display terminal 7 is four images captured by the cameras C1 to C4. The image processing unit 24 synthesizes the acquired all-around image and sets a three-dimensional curved surface centered on the vehicle 2 (step S41). The three-dimensional curved surface may be defined by a polygon, for example.

画像処理部24は、テクスチャの設定を行う(ステップS42)。例えば、画像処理部24は、合成画像メタデータに含まれるカメラ固有情報およびカメラ設置情報に基づいて、仮想空間に配置したカメラから3次元曲面のポリゴン頂点を向く視線ベクトルを算出する。   The image processing unit 24 performs texture setting (step S42). For example, the image processing unit 24 calculates a line-of-sight vector facing the polygon vertex of the three-dimensional curved surface from the camera arranged in the virtual space based on the camera specific information and the camera installation information included in the composite image metadata.

そして、画像処理部24は、視線ベクトルに対応したカメラの画素位置をカメラ固有情報に基づいて算出する。これにより、画像処理部24は、ポリゴン頂点とテクスチャの画素位置との対応関係を算出することができる。   Then, the image processing unit 24 calculates the pixel position of the camera corresponding to the line-of-sight vector based on the camera specific information. Thereby, the image processing unit 24 can calculate the correspondence between the polygon vertex and the texture pixel position.

テクスチャが設定された全周囲画像の一例を図16に示す。図16では、楕円形で全周囲画像41を示しているが、上述したように全周囲画像は3次元曲面である。例えば、テクスチャが設定された全周囲画像は、3次元的に湾曲したお椀型の形状をしている。   An example of the all-around image in which the texture is set is shown in FIG. In FIG. 16, the omnidirectional image 41 is shown as an ellipse. However, as described above, the omnidirectional image is a three-dimensional curved surface. For example, the all-around image in which the texture is set has a bowl-shaped shape that is curved three-dimensionally.

表示端末7は、図16の例の全周囲画像に対応する合成画像メタデータを受信している。従って、視野設定部23は、合成画像メタデータに含まれる方位情報θおよび仰角情報φに基づいて、図16の例の全周囲画像に仮想カメラ42の仮想視野を設定できる。図16では、仮想視野を一点鎖線で示している。この仮想視野には、被写体44が含まれる。   The display terminal 7 receives the composite image metadata corresponding to the omnidirectional image in the example of FIG. Therefore, the visual field setting unit 23 can set the virtual visual field of the virtual camera 42 for the entire peripheral image in the example of FIG. 16 based on the orientation information θ and the elevation angle information φ included in the composite image metadata. In FIG. 16, the virtual visual field is indicated by a one-dot chain line. This virtual visual field includes a subject 44.

画像処理部24は、設定された仮想視野で描画処理を行う(ステップS44)。これにより、図17の例で示されるような被写体44を捉えた画像(被写体44を含む画像)が表示部25に表示される。図17の例の被写体44は、建物を示している。   The image processing unit 24 performs a drawing process with the set virtual visual field (step S44). Thereby, an image (an image including the subject 44) capturing the subject 44 as shown in the example of FIG. 17 is displayed on the display unit 25. The subject 44 in the example of FIG. 17 shows a building.

上述したように、車両2が移動することで、撮影地点は変化し、被写体に対する視点、視野が変化する。つまり、区間Tsegにおいて、一連の全周囲画像の撮影位置は刻々と変化していく。そこで、視野設定部23は、区間Tsegの次の時刻の全周囲画像に対して、この全周囲画像に対応する合成画像メタデータに基づいて、視点、視野の設定を変更する(ステップS45)。   As described above, as the vehicle 2 moves, the shooting location changes, and the viewpoint and field of view of the subject change. That is, in the section Tseg, the shooting positions of a series of all-around images change every moment. Therefore, the visual field setting unit 23 changes the setting of the viewpoint and the visual field for the omnidirectional image at the next time in the section Tseg based on the composite image metadata corresponding to the omnidirectional image (step S45).

図18は、視点、視野を変更した場合の仮想カメラ42の仮想視野の例を示している。視野設定部23は、区間Tsegの次の時刻の方位情報θおよび仰角情報φに基づいて、仮想視野を変更している。   FIG. 18 shows an example of the virtual field of view of the virtual camera 42 when the viewpoint and field of view are changed. The visual field setting unit 23 changes the virtual visual field based on the azimuth information θ and the elevation angle information φ at the next time of the section Tseg.

区間Tsegの一連の全周囲画像は、それぞれ撮影位置が異なる。従って、区間Tsegの一連の全周囲画像の方位情報θおよび仰角情報φは、全周囲画像によって異なる。つまり、全周囲画像によってカメラワークが異なる。   A series of all-around images in the section Tseg has different shooting positions. Therefore, the azimuth information θ and the elevation angle information φ of the series of all-around images in the section Tseg vary depending on the all-around image. That is, camera work differs depending on the entire surrounding image.

画像処理部24は、表示を終了するか否かを判定する(ステップS46)。例えば、区間Tsegの全周囲画像に基づく画像表示が全て終了したとき(ステップS46でYES)、表示部25は表示を終了する。または、表示端末7に対して、表示を終了する操作がされた場合に、表示部25は表示を終了する。   The image processing unit 24 determines whether or not to end the display (step S46). For example, when the image display based on the entire surrounding image in the section Tseg is completed (YES in step S46), the display unit 25 ends the display. Alternatively, when the display terminal 7 is operated to end the display, the display unit 25 ends the display.

一方、表示を終了しない場合(ステップS46でNO)、ステップS43〜S45の処理が繰り返される。従って、区間Tsegの間、ステップS43およびS44の処理が繰り返される。視野設定部23は、合成画像メタデータに含まれる方位情報θおよび仰角情報φに基づいて、随時、被写体を捉えるカメラワークで撮影された画像を表示する。   On the other hand, when the display is not terminated (NO in step S46), the processes in steps S43 to S45 are repeated. Accordingly, the processes in steps S43 and S44 are repeated during the section Tseg. The field-of-view setting unit 23 displays an image captured by camera work that captures the subject as needed based on the orientation information θ and the elevation angle information φ included in the composite image metadata.

これにより、ユーザは、特別な操作を行うことなく、被写体を捉えたカメラワークで撮影された区間Tsegの一連の画像を視聴することができる。視野設定部23は、方位情報θおよび仰角情報φを含むカメラワーク情報に基づいて、仮想カメラ42の位置を変化させる。   Thereby, the user can view a series of images of the section Tseg captured by camera work capturing the subject without performing a special operation. The visual field setting unit 23 changes the position of the virtual camera 42 based on the camera work information including the azimuth information θ and the elevation angle information φ.

従って、区間Tsegの一連の画像を視聴するときに、各画像は、常に被写体を中心に捉えた画像になっている。例えば、区間Tsegの一連の画像を表示端末7が動画表示する場合、ユーザは単にキーワードを指定するだけで、簡単な操作で常に被写体を中心に捉えたカメラワークの動画を視聴することができる。   Therefore, when viewing a series of images in the section Tseg, each image is an image that is always captured around the subject. For example, when the display terminal 7 displays a series of images in the section Tseg as a moving image, the user can simply view a camerawork moving image that always captures the subject with a simple operation simply by specifying a keyword.

図19は、表示部25に表示される動画の一例を示している。図19(A)は、被写体44を正面から撮影する位置に到達する前にカメラC1〜C4が撮影した全周囲画像に基づく画像の一例である。   FIG. 19 shows an example of a moving image displayed on the display unit 25. FIG. 19A is an example of an image based on the entire surrounding image captured by the cameras C1 to C4 before reaching the position where the subject 44 is captured from the front.

図19(A)の場合、遮蔽物45により、被写体44の一部が非表示の状態になる。遮蔽物45としては、例えば、電柱や樹木等がある。図19(A)の例では、遮蔽物45を要因として被写体44の可視性がV=0.7となる。   In the case of FIG. 19A, a part of the subject 44 is hidden by the shield 45. Examples of the shield 45 include a utility pole and a tree. In the example of FIG. 19A, the visibility of the subject 44 is V = 0.7 due to the shield 45.

図19(B)は、被写体44を正面から撮影した全周囲画像に基づく画像の一例である。この場合、カメラワークが変化しており、遮蔽物45により被写体44の可視性Vはそれほど影響を受けない。図19(B)の場合、可視性VはV=0.9である。   FIG. 19B is an example of an image based on an all-around image obtained by photographing the subject 44 from the front. In this case, the camera work has changed, and the visibility V of the subject 44 is not significantly affected by the shield 45. In the case of FIG. 19B, the visibility V is V = 0.9.

図19(C)は、被写体44を正面から通過した位置で撮影した全周囲画像に基づく画像の一例である。この場合、カメラワークが変化しており、遮蔽物45を要因として被写体44の可視性Vが低下する。図19(C)の場合、可視性VはV=0.7である。   FIG. 19C is an example of an image based on an all-around image captured at a position passing through the subject 44 from the front. In this case, the camera work has changed, and the visibility V of the subject 44 is reduced due to the shield 45. In the case of FIG. 19C, the visibility V is V = 0.7.

図20は、可視性Vに基づく画像選択を行うための画面例を示している。表示端末7の表示部25は、画像表示領域51と可視性グラフ52とスライダバー53とを有している。画像表示領域51は、被写体44を含む画像を表示する領域である。   FIG. 20 shows an example of a screen for performing image selection based on the visibility V. The display unit 25 of the display terminal 7 includes an image display area 51, a visibility graph 52, and a slider bar 53. The image display area 51 is an area for displaying an image including the subject 44.

可視性グラフ52は、区間Tsegの中で経時的に変化する可視性Vを示したグラフである。スライダバー53は、可視性グラフ52の任意の時刻Tを指定するためのバーである。ユーザは、スライダバー53を時刻Tの方向に沿って移動させることができる。   The visibility graph 52 is a graph showing the visibility V that changes with time in the section Tseg. The slider bar 53 is a bar for designating an arbitrary time T of the visibility graph 52. The user can move the slider bar 53 along the direction of time T.

従って、最も可視性Vが高い位置にスライダバー53のバーを位置させることで、画像表示領域51には、最も可視性Vが高い静止画が表示される。従って、上述したように、カメラワークが適用された画像において、どの部分が被写体44を良好に捉えているかの指標をユーザに与えることができる。   Accordingly, by positioning the bar of the slider bar 53 at a position where the visibility V is the highest, a still image with the highest visibility V is displayed in the image display area 51. Therefore, as described above, it is possible to give an index to the user as to which part of the image to which camerawork is applied that is capturing the subject 44 well.

<画像検索サーバのハードウェア構成の一例>
次に、図21の例を参照して、画像検索サーバ4のハードウェア構成の一例を説明する。図21の例に示すように、バス100に対して、CPU111とRAM112とROM113と補助記憶装置114と媒体接続部115と通信インタフェース116とが接続されている。
<Example of hardware configuration of image search server>
Next, an example of the hardware configuration of the image search server 4 will be described with reference to the example of FIG. As illustrated in the example of FIG. 21, a CPU 111, a RAM 112, a ROM 113, an auxiliary storage device 114, a medium connection unit 115, and a communication interface 116 are connected to the bus 100.

CPU111は任意の処理回路である。CPU111はRAM112に展開されたプログラムを実行する。実行されるプログラムとしては、実施形態の処理を行うプログラムを適用することができる。ROM113はRAM112に展開されるプログラムを記憶する不揮発性の記憶装置である。   The CPU 111 is an arbitrary processing circuit. The CPU 111 executes the program expanded in the RAM 112. As a program to be executed, a program for performing the processing of the embodiment can be applied. The ROM 113 is a non-volatile storage device that stores programs developed in the RAM 112.

補助記憶装置114は、種々の情報を記憶する記憶装置であり、例えばハードディスクドライブや半導体メモリ等を補助記憶装置114に適用することができる。媒体接続部115は、可搬型記録媒体118と接続可能に設けられている。   The auxiliary storage device 114 is a storage device that stores various information. For example, a hard disk drive, a semiconductor memory, or the like can be applied to the auxiliary storage device 114. The medium connection unit 115 is provided so as to be connectable to the portable recording medium 118.

可搬型記録媒体118としては、可搬型のメモリや光学式ディスク(例えば、Compact Disk(CD)やDigital Versatile Disk(DVD)等)を適用することができる。この可搬型記録媒体118に実施形態の画像検索サーバ4が行う処理のプログラムが記録されていてもよい。   As the portable recording medium 118, a portable memory or an optical disk (for example, Compact Disk (CD), Digital Versatile Disk (DVD), etc.) can be applied. A program for processing performed by the image search server 4 of the embodiment may be recorded on the portable recording medium 118.

画像検索サーバ4のサーバ通信部11以外の各部は、CPU111により実現されてもよい。また、サーバ通信部11は、通信インタフェース116により実現されてもよい。RAM112、ROM113および補助記憶装置114は、何れもコンピュータ読み取り可能な有形の記憶媒体の一例である。これらの有形な記憶媒体は、信号搬送波のような一時的な媒体ではない。   Each unit other than the server communication unit 11 of the image search server 4 may be realized by the CPU 111. The server communication unit 11 may be realized by the communication interface 116. The RAM 112, the ROM 113, and the auxiliary storage device 114 are all examples of a tangible storage medium that can be read by a computer. These tangible storage media are not temporary media such as signal carriers.

<表示端末のハードウェア構成の一例>
次に、図22を参照して、表示端末7のハードウェア構成の一例を説明する。図22の例に示すように、バス200に対して、CPU211とRAM212とROM213と補助記憶装置214と媒体接続部215と通信インタフェース216とが接続されている。
<Example of hardware configuration of display terminal>
Next, an example of the hardware configuration of the display terminal 7 will be described with reference to FIG. As illustrated in the example of FIG. 22, a CPU 211, a RAM 212, a ROM 213, an auxiliary storage device 214, a medium connection unit 215, and a communication interface 216 are connected to the bus 200.

CPU211とRAM212とROM213と補助記憶装置214と媒体接続部215とは上述した例と同様である。CPU211が実行するプログラムは、実施形態の処理を行うプログラムであってもよい。通信インタフェース216は、外部との通信を行う。   The CPU 211, RAM 212, ROM 213, auxiliary storage device 214, and medium connection unit 215 are the same as those described above. The program executed by the CPU 211 may be a program that performs the processing of the embodiment. The communication interface 216 performs communication with the outside.

入出力インタフェース217は、例えば表示部25との間でデータを入出力するインタフェースである。端末通信部21は、通信インタフェース216により実現されてもよい。表示端末7のうち、端末通信部21および表示部25以外の各部はCPU211により実現されてもよい。   The input / output interface 217 is an interface for inputting / outputting data to / from the display unit 25, for example. The terminal communication unit 21 may be realized by the communication interface 216. Of the display terminal 7, each unit other than the terminal communication unit 21 and the display unit 25 may be realized by the CPU 211.

RAM212、ROM213および補助記憶装置214は、何れもコンピュータ読み取り可能な有形の記憶媒体の一例である。これらの有形な記憶媒体は、信号搬送波のような一時的な媒体ではない。   The RAM 212, the ROM 213, and the auxiliary storage device 214 are all examples of a tangible storage medium that can be read by a computer. These tangible storage media are not temporary media such as signal carriers.

<その他>
従って、実施形態では、表示端末7が指定した被写体を含む区間の一連の全周囲画像を特定する合成画像メタデータを画像検索サーバ4が生成し、表示端末7が合成画像メタデータに基づいて画像蓄積サーバ3から全周囲画像の抽出を行っている。これにより、簡単な操作で、表示端末7は被写体を含む区間Tsegの一連の画像を表示することができる。
<Others>
Therefore, in the embodiment, the image search server 4 generates composite image metadata that specifies a series of all-around images of a section including the subject designated by the display terminal 7, and the display terminal 7 generates an image based on the composite image metadata. The entire surrounding image is extracted from the accumulation server 3. Thereby, the display terminal 7 can display a series of images of the section Tseg including the subject with a simple operation.

特に、表示端末7にキーワードが指定されるだけで、表示端末7は、指定した被写体が含まれる区間Tsegの一連の画像を動画表示することができる。従って、ユーザは、簡単な操作で、被写体が含まれる区間の動画を視聴することができる。撮影位置を変化させた静止画を連続して表示する場合も同様である。   In particular, only by specifying a keyword on the display terminal 7, the display terminal 7 can display a series of images in the section Tseg including the specified subject as a moving image. Therefore, the user can view the moving image of the section including the subject with a simple operation. The same applies when still images with different shooting positions are displayed continuously.

また、視野設定部23は、区間Tsegの一連の画像について、合成画像メタデータに含まれる方位情報θおよび仰角情報φに基づいて、被写体が常に画像の中心に位置するように視野を設定することができる。これにより、例えば、区間Tsegの一連の画像について、表示端末7は、被写体が常に中心に位置する動画を再生することができる。   The field of view setting unit 23 sets the field of view of the series of images in the section Tseg so that the subject is always located at the center of the image based on the orientation information θ and the elevation angle information φ included in the composite image metadata. Can do. Thereby, for example, for a series of images in the section Tseg, the display terminal 7 can reproduce a moving image in which the subject is always located at the center.

方位情報θおよび仰角情報φは、カメラワーク情報の一例である。カメラワーク情報は、方位情報θだけであってもよい。この場合、仰角は固定されている。従って、被写体は画像の中心に位置するとは限らない。表示端末7は、方位情報θおよび仰角情報φに基づくカメラワークで被写体を表示すると、被写体が常に中心に位置した動画または静止画を表示することができる。   The azimuth information θ and the elevation angle information φ are examples of camera work information. The camera work information may be only the orientation information θ. In this case, the elevation angle is fixed. Therefore, the subject is not always located at the center of the image. When the display terminal 7 displays the subject by camera work based on the azimuth information θ and the elevation angle information φ, the display terminal 7 can display a moving image or a still image in which the subject is always located at the center.

また、合成画像メタデータは、可視性Vを含む。図20の例に示したように、ユーザは、スライダバー53を操作することで、表示端末7は、可視性Vが良好な画像を選択的に表示することができる。   The composite image metadata includes visibility V. As shown in the example of FIG. 20, the user can selectively display an image with good visibility V by operating the slider bar 53.

また、表示端末7が指定する被写体を多数の車両2のカメラC1〜C4が撮影している場合、メタデータサーバ5は、表示端末7が指定する被写体についての合成画像メタデータを多数蓄積する。   In addition, when the cameras C1 to C4 of a large number of vehicles 2 photograph the subject specified by the display terminal 7, the metadata server 5 stores a large amount of composite image metadata regarding the subject specified by the display terminal 7.

このため、図14のように、表示端末7は、可視良好性Qの一覧から選択する選択画面を表示することで、可視良好性Qが高い高品質な画像を選択的に抽出することができる。これにより、表示する画像(例えば、動画)の合成画像メタデータIDを絞り込むことができる。   For this reason, as shown in FIG. 14, the display terminal 7 can selectively extract a high-quality image with a high visibility goodness Q by displaying a selection screen to be selected from the list of the visibility goodness Q. . Thereby, the composite image metadata ID of the image (for example, moving image) to display can be narrowed down.

上述した実施形態では、可視良好性Qは、可視性Vを統合的に評価する値とする例について説明したが、可視良好性Qは、被写体の見え易さの度合いを示す値であってもよい。例えば、カメラC1〜C4が撮影した画像(つまり、全周囲画像)のうち、画像の中で被写体が写っている位置が中心からの距離に基づく値を可視良好性Qとしてもよい。   In the embodiment described above, the example in which the visibility goodness Q is a value that evaluates the visibility V in an integrated manner has been described, but the visibility goodness Q may be a value that indicates the degree of visibility of the subject. Good. For example, among images captured by the cameras C1 to C4 (that is, all-around images), a value based on the distance from the center where the subject is captured in the image may be used as the visibility goodness Q.

画像の中心に被写体が写っている場合、被写体の見え易さの度合いは高くなる。このため、可視良好性Qの値も高くなる。一方、画像の中心から被写体が離間している場合、被写体の見え易さの度合いは低くなるため、可視良好性Qの値も低くなる。   When the subject is shown in the center of the image, the degree of visibility of the subject increases. For this reason, the value of visibility goodness Q also becomes high. On the other hand, when the subject is separated from the center of the image, the degree of visibility of the subject is low, and the visibility goodness Q is also low.

従って、ユーザが可視良好性Qの高い合成映像メタデータIDを選択することで、画像抽出部22は、画像の中心に被写体が写っている全周囲画像に絞って抽出することができる。   Therefore, when the user selects a composite video metadata ID having a high visual quality Q, the image extraction unit 22 can extract only the entire surrounding image in which the subject is captured at the center of the image.

本実施形態は、以上に述べた実施の形態に限定されるものではなく、本実施形態の要旨を逸脱しない範囲内で種々の構成または実施形態を取ることができる。   The present embodiment is not limited to the above-described embodiment, and various configurations or embodiments can be taken without departing from the gist of the present embodiment.

1 画像提供システム
2 車両
3 画像蓄積サーバ
4 画像検索サーバ
5 メタデータサーバ
6 地図サーバ
11 サーバ通信部
12 被写体位置特定部
13 合成画像メタデータ生成部
14 演算部
21 端末通信部
22 画像抽出部
23 視野設定部
24 画像処理部
25 表示部
30 制御部
33 時刻計測部
34 位置情報取得部
35 車載画像メタデータ生成部
36 車載記憶部
111、211 CPU
112、212 RAM
113、213 ROM
DESCRIPTION OF SYMBOLS 1 Image provision system 2 Vehicle 3 Image storage server 4 Image search server 5 Metadata server 6 Map server 11 Server communication part 12 Subject position specification part 13 Composite image metadata production | generation part 14 Computation part 21 Terminal communication part 22 Image extraction part 23 View field Setting unit 24 Image processing unit 25 Display unit 30 Control unit 33 Time measurement unit 34 Position information acquisition unit 35 In-vehicle image metadata generation unit 36 In-vehicle storage unit 111, 211 CPU
112, 212 RAM
113, 213 ROM

Claims (8)

サーバと表示端末とを含む画像提供システムであって、
前記サーバは、
前記表示端末が指定した被写体に関する情報に基づいて、前記被写体の存在地点の位置を特定する特定部と、
前記被写体を撮影した撮影位置と前記被写体の存在地点の位置とに基づいて、前記被写体を含む区間の一連の周囲画像を特定する特定データを生成する生成部と、
前記特定データを前記表示端末に送信する送信部と、
を備え、
前記表示端末は、
複数の周囲画像が記憶される記憶装置から、前記特定データに基づいて、前記被写体を含む区間の一連の周囲画像を抽出する抽出部と、
前記特定データに基づいて、前記抽出部が抽出した一連の周囲画像のうち前記被写体の画像を表示する表示部と、
を備える画像提供システム。
An image providing system including a server and a display terminal,
The server
Based on the information about the object which the display terminal is specified, a specification unit for specifying a position of presence point of the object,
A generating unit that generates specific data for identifying a series of surrounding images of a section including the subject, based on a photographing position where the subject is photographed and a position of the existence point of the subject;
A transmission unit for transmitting the specific data to the display terminal;
With
The display terminal is
An extraction unit that extracts a series of surrounding images of a section including the subject based on the specific data from a storage device that stores a plurality of surrounding images;
A display unit for displaying an image of the subject in a series of surrounding images extracted by the extraction unit based on the specific data;
An image providing system comprising:
前記生成部は、前記周囲画像の撮影位置と前記被写体の存在地点の位置との距離が所定距離以下のときに、前記被写体を含む周囲画像であると特定する、
請求項1記載の画像提供システム。
The generating unit, the distance between the position of existence point shooting position and the object of the peripheral image when less than a predetermined distance, is identified as a peripheral image including the object,
The image providing system according to claim 1.
前記特定データは、前記撮影位置から見た前記被写体の存在地点の位置の方位を示す方位情報を含み、
前記表示部は、前記周囲画像のうち前記方位情報に基づく視野の画像を表示する、
請求項1または2記載の画像提供システム。
It said specific data includes direction information indicating the orientation of the position of existence point of the object as viewed from the imaging position,
The display unit displays an image of a visual field based on the orientation information among the surrounding images.
The image providing system according to claim 1 or 2.
前記特定データは、前記撮影位置から見た前記被写体の存在地点の位置の仰角を示す仰角情報をさらに含み、
前記表示部は、前記周囲画像のうち前記方位情報と前記仰角情報とに基づく視野の画像を表示する、
請求項3記載の画像提供システム。
The specific data further includes elevation angle information indicating an elevation angle of the position of the subject existing from the shooting position,
The display unit displays an image of a visual field based on the azimuth information and the elevation angle information among the surrounding images.
The image providing system according to claim 3.
前記特定データは、前記周囲画像のうち前記被写体が写っている率を示す可視性を含み、
前記表示端末は、複数の前記特定データのそれぞれの前記可視性のうち何れか1つを選択可能な画面を表示する、
請求項1乃至4のうち何れか1項に記載の画像提供システム。
The specific data includes visibility indicating a rate of the subject in the surrounding image,
The display terminal displays a screen on which any one of the visibility of the plurality of specific data can be selected;
The image providing system according to any one of claims 1 to 4.
前記特定データは、前記表示端末が指定した被写体を含む区間の一連の周囲画像の各周囲画像の前記可視性の統合的な値を示す可視良好性を含み、
前記表示端末は、複数の前記特定データのそれぞれの前記可視良好性のうち何れか1つを選択可能な画面を表示する、
請求項5記載の画像提供システム。
The specific data includes visibility goodness indicating an integrated value of the visibility of each surrounding image of a series of surrounding images of a section including a subject specified by the display terminal,
The display terminal displays a screen on which any one of the visual goodnesses of the plurality of specific data can be selected;
The image providing system according to claim 5.
前記抽出部は、複数の前記被写体を含む区間の一連の周囲画像のうち、前記被写体が前記周囲画像の中心に写っている一連の周囲画像を抽出する、
請求項1乃至6のうち何れか1項に記載の画像提供システム。
The extraction unit extracts a series of surrounding images in which the subject is reflected in the center of the surrounding image among a series of surrounding images of a section including the plurality of subjects.
The image providing system according to any one of claims 1 to 6.
サーバと表示端末とが通信を行う画像提供方法であって、
前記サーバは、
前記表示端末が指定した被写体に関する情報に基づいて、前記被写体の存在地点の位置を特定し、
前記被写体を撮影した撮影位置と前記被写体の存在地点の位置とに基づいて、前記被写体を含む区間の一連の周囲画像を特定する特定データを生成し、
前記特定データを前記表示端末に送信し、
前記表示端末は、
複数の周囲画像が記憶される記憶装置から、前記特定データに基づいて、前記被写体を含む区間の一連の周囲画像を抽出し、
前記特定データに基づいて抽出した前記一連の周囲画像のうち前記被写体の画像を表示する、
画像提供方法。
An image providing method in which a server and a display terminal communicate with each other,
The server
Based on the information about the object which the display terminal is specified, to locate the presence point of the object,
Based on the shooting position at which the subject is shot and the position of the location of the subject , specific data for identifying a series of surrounding images of a section including the subject is generated,
Transmitting the specific data to the display terminal;
The display terminal is
From a storage device that stores a plurality of surrounding images, a series of surrounding images of a section including the subject is extracted based on the specific data,
On the basis of the specific data, and displays an image of the object among the extracted the series of surrounding images,
Image providing method.
JP2014242551A 2014-11-28 2014-11-28 Image providing system and image providing method Active JP6388532B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014242551A JP6388532B2 (en) 2014-11-28 2014-11-28 Image providing system and image providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014242551A JP6388532B2 (en) 2014-11-28 2014-11-28 Image providing system and image providing method

Publications (2)

Publication Number Publication Date
JP2016103248A JP2016103248A (en) 2016-06-02
JP6388532B2 true JP6388532B2 (en) 2018-09-12

Family

ID=56087873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014242551A Active JP6388532B2 (en) 2014-11-28 2014-11-28 Image providing system and image providing method

Country Status (1)

Country Link
JP (1) JP6388532B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10853643B2 (en) * 2017-10-27 2020-12-01 Rakuten, Inc. Image extraction device, image extraction method, and image extraction program
JPWO2020044646A1 (en) * 2018-08-30 2021-11-11 日本電気株式会社 Image processing equipment, image processing methods and programs
JP7383911B2 (en) 2019-06-27 2023-11-21 株式会社リコー Imaging system, image processing device, imaging device and program
JP7020523B2 (en) * 2020-10-08 2022-02-16 株式会社リコー Image display system, image display method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK2793189T3 (en) * 2001-10-03 2017-02-06 Retinalyze As Assessment of lesions in an image
JP2010129032A (en) * 2008-12-01 2010-06-10 Nippon Telegr & Teleph Corp <Ntt> Device and program for retrieving image
JP5870944B2 (en) * 2013-02-27 2016-03-01 ブラザー工業株式会社 Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JP2016103248A (en) 2016-06-02

Similar Documents

Publication Publication Date Title
US10116867B2 (en) Method and apparatus for displaying a light field based image on a user&#39;s device, and corresponding computer program product
US8818097B2 (en) Portable electronic and method of processing a series of frames
JP5260705B2 (en) 3D augmented reality provider
JP6621063B2 (en) Camera selection method and video distribution system
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
KR101335617B1 (en) Method and device for implementing augmented reality in mobile environment
JP2012160904A (en) Information processor, information processing method, program, and imaging apparatus
JP2011166264A (en) Image processing apparatus, imaging device and image processing method, and program
JP6388532B2 (en) Image providing system and image providing method
JP2012068861A (en) Ar processing unit, ar processing method and program
CN109495733B (en) Three-dimensional image reconstruction method, device and non-transitory computer readable storage medium thereof
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
KR101474521B1 (en) Method and apparatus for building image database
US11195295B2 (en) Control system, method of performing analysis and storage medium
JP2015056152A (en) Display control device and method for controlling display control device
JP2014179740A (en) Video retrieval device, video retrieval system, and video retrieval method
JP5001400B2 (en) Shield removal display device
KR20210055381A (en) Apparatus, method and computer program for providing augmented reality contentes through smart display
JP4673861B2 (en) Information display system and information display method
EP3287912A1 (en) Method for creating location-based space object, method for displaying space object, and application system thereof
WO2017181750A2 (en) Image collection method and device for mobile terminal, and computer storage medium
JP6292785B2 (en) Image processing apparatus, image processing method, and program
JP2015005200A (en) Information processing apparatus, information processing system, information processing method, program, and memory medium
JP2010165081A (en) Display apparatus, and system, apparatus and method for creating three-dimensional content
KR102578058B1 (en) Method and device for generating street view image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20180607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180614

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180814

R150 Certificate of patent or registration of utility model

Ref document number: 6388532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150