JP2020077965A - Image processing program, image processing device, image processing system, and image processing method - Google Patents

Image processing program, image processing device, image processing system, and image processing method Download PDF

Info

Publication number
JP2020077965A
JP2020077965A JP2018209757A JP2018209757A JP2020077965A JP 2020077965 A JP2020077965 A JP 2020077965A JP 2018209757 A JP2018209757 A JP 2018209757A JP 2018209757 A JP2018209757 A JP 2018209757A JP 2020077965 A JP2020077965 A JP 2020077965A
Authority
JP
Japan
Prior art keywords
image
terminal device
image processing
images
shooting condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018209757A
Other languages
Japanese (ja)
Other versions
JP7142543B2 (en
Inventor
涼一 舟橋
Ryoichi Funabashi
涼一 舟橋
田中 竜太
Ryuta Tanaka
竜太 田中
多田 厚子
Atsuko Tada
厚子 多田
増井 誠生
Masao Masui
誠生 増井
健介 倉木
Kensuke Kuraki
健介 倉木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018209757A priority Critical patent/JP7142543B2/en
Publication of JP2020077965A publication Critical patent/JP2020077965A/en
Application granted granted Critical
Publication of JP7142543B2 publication Critical patent/JP7142543B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)

Abstract

To reduce data amounts of images transmitted in uplink communication of a communication network.SOLUTION: A computer identifies a second image associated with a photographing condition similar to a photographing condition of a first image taken with a terminal device among a plurality of images stored in a storage unit in association with photographing conditions (step 301). Next, the computer causes the terminal device to obtain the second image (step 302), and receives differential information indicating difference between the first image and the second image from the terminal device (step 303). Then, the computer restores the first image with the use of the second image and the differential information (step 304).SELECTED DRAWING: Figure 3

Description

本発明は、画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法に関する。   The present invention relates to an image processing program, an image processing device, an image processing system, and an image processing method.

近年、スマートフォン、タブレット等の携帯端末装置を用いて画像又は映像を撮影し、サーバへアップロードする、ユーザが増加している。   In recent years, an increasing number of users have taken images or videos using mobile terminal devices such as smartphones and tablets and uploaded them to a server.

図1は、従来の画像アップロードシステムの例を示している。スタジアム等におけるイベントの開催時に、複数のユーザが携帯端末装置101を用いて画像111を撮影する。そして、画像111の画像ファイルが、通信ネットワーク103を介して、各携帯端末装置101からSNS(Social Networking Service)等のサーバ102へアップロードされる。   FIG. 1 shows an example of a conventional image upload system. At the time of holding an event at a stadium or the like, a plurality of users use the mobile terminal device 101 to take an image 111. Then, the image file of the image 111 is uploaded from each mobile terminal device 101 to the server 102 such as an SNS (Social Networking Service) via the communication network 103.

2020年に開催される東京オリンピックに関して、モバイルトラフィックの増大が予想されている(例えば、非特許文献1を参照)。   Mobile traffic is expected to increase with respect to the Tokyo Olympic Games to be held in 2020 (for example, see Non-Patent Document 1).

また、復号器側で得た予測画像を符号器側に伝送することにより情報量の削減を図る動画像符号化処理方法、及び、定型画像信号と取り込んだ画像との差分信号のみを符号化して送信する画像通信方法が知られている(例えば、特許文献1及び2を参照)。   In addition, a moving image coding processing method for reducing the amount of information by transmitting the predicted image obtained on the decoder side to the encoder side, and encoding only the difference signal between the standard image signal and the captured image. An image communication method for transmitting is known (for example, refer to Patent Documents 1 and 2).

特開2001−298744号公報JP 2001-298744 A 特開平8−181963号公報JP-A-8-181963

“東京五輪は「上り」が勝負!モバイルトラフィックはどれくらい増大するのか?”、[online]、business network.jp、2017年3月7日、[平成30年9月26日検索]、インターネット<URL:http://businessnetwork.jp/Detail/tabid/65/artid/5213/Default.aspx>"Uphill" is the game for the Tokyo Olympics! How high will mobile traffic grow? , "Online", business network.jp, March 7, 2017, [September 26, 2018 search], Internet <URL: http://businessnetwork.jp/Detail/tabid/65/artid/5213 /Default.aspx>

従来のモバイル通信は下り帯域に対して最適化されているため、相対的に上り帯域が小さい。例えば、LTE(Long Term Evolution)の規格によれば、上り帯域:下り帯域=1:3であり、実測値では、上り帯域:下り帯域=1:5〜10程度である。   Since conventional mobile communication is optimized for the downlink band, the uplink band is relatively small. For example, according to the LTE (Long Term Evolution) standard, the upstream band: downstream band = 1: 3, and the measured value is about the upstream band: downstream band = 1: 5-10.

特に、スタジアム等におけるイベントの開催時には、多数の携帯端末装置から一斉に画像又は映像がサーバへアップロードされる。このため、上り通信のトラフィックが増大する傾向が見られ、上り帯域の不足が顕在化する。   Particularly, at the time of holding an event at a stadium or the like, images or videos are simultaneously uploaded to a server from a large number of mobile terminal devices. Therefore, there is a tendency that the traffic of the upstream communication increases, and the shortage of the upstream band becomes apparent.

このように、局在する多数の携帯端末装置から大量の画像又は映像がサーバへアップロードされる場合、通信ネットワークの上り帯域が逼迫して、通信困難に陥ることがある。   As described above, when a large number of images or videos are uploaded from a large number of localized mobile terminal devices to the server, the upstream band of the communication network becomes tight and communication may be difficult.

なお、かかる問題は、携帯端末装置から画像又は映像がアップロードされる場合に限らず、他の端末装置から画像又は映像がアップロードされる場合においても生ずるものである。   Note that such a problem occurs not only when an image or video is uploaded from a mobile terminal device, but also when an image or video is uploaded from another terminal device.

1つの側面において、本発明は、通信ネットワークの上り通信で送信される画像のデータ量を削減することを目的とする。   In one aspect, the present invention aims to reduce the amount of image data transmitted in upstream communication of a communication network.

1つの案では、画像処理プログラムは、以下の処理をコンピュータに実行させる。
(1)コンピュータは、撮影条件に関連付けて記憶部に記憶されている複数の画像の中から、端末装置が撮影した第1画像の撮影条件と類似する撮影条件に関連付けられた第2画像を特定する。
(2)コンピュータは、第2画像を端末装置に取得させる。
(3)コンピュータは、第1画像と第2画像との差分を示す差分情報を、端末装置から受信する。
(4)コンピュータは、第2画像と差分情報とを用いて、第1画像を復元する。
In one proposal, the image processing program causes a computer to execute the following processing.
(1) The computer identifies a second image associated with a shooting condition similar to the shooting condition of the first image captured by the terminal device from the plurality of images stored in the storage unit in association with the shooting condition. To do.
(2) The computer causes the terminal device to acquire the second image.
(3) The computer receives difference information indicating a difference between the first image and the second image from the terminal device.
(4) The computer restores the first image using the second image and the difference information.

実施形態によれば、通信ネットワークの上り通信で送信される画像のデータ量を削減することができる。   According to the embodiment, it is possible to reduce the amount of image data transmitted in the upstream communication of the communication network.

画像アップロードシステムを示す図である。It is a figure which shows an image upload system. 画像処理装置の機能的構成図である。It is a functional block diagram of an image processing apparatus. 画像処理のフローチャートである。It is a flowchart of image processing. 画像処理システムの機能的構成図である。It is a functional block diagram of an image processing system. 撮影条件を示す図である。It is a figure which shows a photography condition. 参照画像情報を示す図である。It is a figure which shows reference image information. マッチング処理を示す図である。It is a figure which shows a matching process. 参照パラメータを示す図である。It is a figure which shows a reference parameter. 画像処理システムにおける動作シーケンスを示す図である。It is a figure which shows the operation sequence in an image processing system. アップロード処理のフローチャートである。It is a flowchart of an upload process. 画像処理の具体例を示すフローチャートである。9 is a flowchart showing a specific example of image processing. 情報処理装置の構成図である。It is a block diagram of an information processing apparatus.

以下、図面を参照しながら、実施形態を詳細に説明する。
図2は、実施形態の画像処理装置の機能的構成例を示している。図2の画像処理装置201は、記憶部211、受信部212、制御部213、及び復元部214を含む。記憶部211は、複数の画像とそれぞれの画像の撮影条件とを関連付けて記憶する。
Hereinafter, embodiments will be described in detail with reference to the drawings.
FIG. 2 shows a functional configuration example of the image processing apparatus according to the embodiment. The image processing apparatus 201 in FIG. 2 includes a storage unit 211, a reception unit 212, a control unit 213, and a restoration unit 214. The storage unit 211 stores a plurality of images in association with shooting conditions of each image.

図3は、図2の画像処理装置201が行う画像処理の例を示すフローチャートである。まず、制御部213は、記憶部211に記憶されている複数の画像の中から、端末装置が撮影した第1画像の撮影条件と類似する撮影条件に関連付けられた第2画像を特定し(ステップ301)、第2画像を端末装置に取得させる(ステップ302)。   FIG. 3 is a flowchart showing an example of image processing performed by the image processing apparatus 201 of FIG. First, the control unit 213 identifies a second image associated with a shooting condition similar to the shooting condition of the first image shot by the terminal device from the plurality of images stored in the storage unit 211 (step 301), and the second image is acquired by the terminal device (step 302).

次に、受信部212は、第1画像と第2画像との差分を示す差分情報を、端末装置から受信し(ステップ303)、復元部214は、第2画像と差分情報とを用いて、第1画像を復元する(ステップ304)。   Next, the reception unit 212 receives difference information indicating the difference between the first image and the second image from the terminal device (step 303), and the restoration unit 214 uses the second image and the difference information, The first image is restored (step 304).

図2の画像処理装置201によれば、通信ネットワークの上り通信で送信される画像のデータ量を削減することができる。   According to the image processing device 201 of FIG. 2, it is possible to reduce the data amount of the image transmitted in the upstream communication of the communication network.

図4は、図2の画像処理装置201を含む画像処理システムの機能的構成例を示している。図4の画像処理システムは、画像処理装置401、端末装置402−1〜端末装置402−N(Nは1以上の整数)、及びサーバ403を含む。   FIG. 4 shows a functional configuration example of an image processing system including the image processing apparatus 201 of FIG. The image processing system of FIG. 4 includes an image processing device 401, terminal devices 402-1 to 402-N (N is an integer of 1 or more), and a server 403.

図4の画像処理装置401は、例えば、サーバ等の情報処理装置であり、スポーツ競技、コンサート等のイベントが開催される、スタジアム等のイベント会場に設置されることがある。この場合、各端末装置402−i(i=1〜N)は、例えば、イベントを観覧するユーザのスマートフォン、タブレット等の携帯端末装置である。   The image processing device 401 in FIG. 4 is, for example, an information processing device such as a server, and may be installed in an event venue such as a stadium where events such as sports competitions and concerts are held. In this case, each terminal device 402-i (i = 1 to N) is, for example, a mobile terminal device such as a smartphone or tablet of a user who views the event.

また、画像処理装置401は、路車間通信のアクセスポイントに設置されることもある。この場合、各端末装置402−iは、例えば、道路上を走行する車両に搭載された車載端末装置である。   Further, the image processing device 401 may be installed at an access point for road-to-vehicle communication. In this case, each terminal device 402-i is, for example, an on-vehicle terminal device mounted on a vehicle traveling on a road.

画像処理装置401は、図2の画像処理装置201に対応し、記憶部411、通信部412、制御部413、復元部414、及び通信部415を含む。記憶部411、通信部412、制御部413、及び復元部414は、図2の記憶部211、受信部212、制御部213、及び復元部214にそれぞれ対応する。   The image processing device 401 corresponds to the image processing device 201 of FIG. 2, and includes a storage unit 411, a communication unit 412, a control unit 413, a restoration unit 414, and a communication unit 415. The storage unit 411, the communication unit 412, the control unit 413, and the restoration unit 414 correspond to the storage unit 211, the reception unit 212, the control unit 213, and the restoration unit 214 of FIG. 2, respectively.

通信部412は、無線通信ネットワークを介して、各端末装置402−iと通信することができる。端末装置402−iから画像処理装置401へのデータ送信に用いられる帯域は、無線通信ネットワークの上り帯域に相当し、画像処理装置401から端末装置402−iへのデータ送信に用いられる帯域は、無線通信ネットワークの下り帯域に相当する。通信部415は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークを介して、サーバ403と通信することができる。   The communication unit 412 can communicate with each terminal device 402-i via a wireless communication network. The band used for data transmission from the terminal device 402-i to the image processing device 401 corresponds to the upstream band of the wireless communication network, and the band used for data transmission from the image processing device 401 to the terminal device 402-i is It corresponds to the downlink band of the wireless communication network. The communication unit 415 can communicate with the server 403 via a communication network such as a LAN (Local Area Network) and a WAN (Wide Area Network).

各端末装置402−iは、記憶部421、撮像装置422、処理部423、及び通信部424を含む。通信部424は、無線通信ネットワークを介して、画像処理装置401と通信することができる。通信部424は、別の端末装置402−j(j≠i)と、直接、無線通信を行うこともできる。   Each terminal device 402-i includes a storage unit 421, an imaging device 422, a processing unit 423, and a communication unit 424. The communication unit 424 can communicate with the image processing device 401 via a wireless communication network. The communication unit 424 can also directly perform wireless communication with another terminal device 402-j (j ≠ i).

撮像装置422は、例えば、CCD(Charged-Coupled Device)、CMOS(Complementary Metal-Oxide-Semiconductor)等の撮像素子を有するカメラであり、イベント会場の景観、道路上の景観等の画像を撮影する。記憶部421は、撮像装置422によって撮影された画像を記憶する。   The image pickup device 422 is, for example, a camera having an image pickup device such as a CCD (Charged-Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor), and takes an image of a landscape of an event venue, a landscape on a road, or the like. The storage unit 421 stores the image captured by the imaging device 422.

処理部423は、撮影された画像の撮影条件を取得し、通信部424は、画像の撮影条件を画像処理装置401へ送信する。撮影条件としては、撮影時刻、端末装置402−iの位置、撮像装置422の方向、撮像装置422の画角等を示す情報が用いられる。例えば、処理部423は、撮像装置422のシャッターイベントを検知し、シャッターイベントを検知した時刻を撮影時刻として取得することができる。また、処理部423は、GPS(Global Positioning System)等により、端末装置402−iの位置を取得することができる。   The processing unit 423 acquires the shooting condition of the shot image, and the communication unit 424 transmits the shooting condition of the image to the image processing device 401. Information indicating the shooting time, the position of the terminal device 402-i, the direction of the imaging device 422, the angle of view of the imaging device 422, and the like is used as the imaging condition. For example, the processing unit 423 can detect the shutter event of the imaging device 422 and acquire the time when the shutter event is detected as the shooting time. In addition, the processing unit 423 can acquire the position of the terminal device 402-i by GPS (Global Positioning System) or the like.

画像処理装置401の記憶部411は、参照画像情報431を記憶する。参照画像情報431は、複数の参照画像とそれぞれの参照画像の撮影条件とを含む。参照画像と撮影条件は、互いに関連付けられている。   The storage unit 411 of the image processing device 401 stores the reference image information 431. The reference image information 431 includes a plurality of reference images and shooting conditions of each reference image. The reference image and the shooting condition are associated with each other.

画像処理装置401がイベント会場に設置されている場合、端末装置402−1〜端末装置402−Nによって撮影された画像、又は自由視点映像から切り出された画像が、参照画像として用いられる。自由視点映像は、イベント会場に設置されている自由視点映像システムによって生成される。   When the image processing device 401 is installed in the event venue, images captured by the terminal devices 402-1 to 402-N or images cut out from the free viewpoint video are used as reference images. The free viewpoint video is generated by the free viewpoint video system installed at the event venue.

一方、画像処理装置401が路車間通信のアクセスポイントに設置されている場合、端末装置402−1〜端末装置402−Nによって撮影された画像が、参照画像として用いられる。   On the other hand, when the image processing device 401 is installed at an access point for road-to-vehicle communication, the images taken by the terminal devices 402-1 to 402-N are used as reference images.

通信部412は、端末装置402−iから撮影条件を受信し、制御部413は、参照画像情報431に含まれる参照画像の中から、受信した撮影条件と類似する撮影条件に関連付けられた参照画像を特定する。撮影条件が類似する2枚の画像の間には冗長性があり、それらの画像の差分を求めることで、元の画像のデータ量が削減される可能性が高い。   The communication unit 412 receives the shooting condition from the terminal device 402-i, and the control unit 413 selects the reference image associated with the shooting condition similar to the received shooting condition from the reference images included in the reference image information 431. Specify. There is redundancy between two images having similar shooting conditions, and the data amount of the original image is likely to be reduced by obtaining the difference between the images.

次に、制御部413は、特定した参照画像を端末装置402−iに取得させる。例えば、制御部413は、通信部412を介して、参照画像を端末装置402−iへ送信することで、その参照画像を端末装置402−iに取得させることができる。この場合、上り帯域よりも広い下り帯域を有効利用して、参照画像が端末装置402−iへ送信される。   Next, the control unit 413 causes the terminal device 402-i to acquire the specified reference image. For example, the control unit 413 can cause the terminal device 402-i to acquire the reference image by transmitting the reference image to the terminal device 402-i via the communication unit 412. In this case, the reference image is transmitted to the terminal device 402-i by effectively utilizing the downlink band wider than the uplink band.

また、制御部413は、その参照画像を記憶している別の端末装置402−jに対して、参照画像を端末装置402−iへ送信するように指示することで、参照画像を端末装置402−iに取得させることもできる。この場合、端末装置402−jの通信部424は、記憶部421が記憶している画像のうち、制御部413から指示された画像を、参照画像として端末装置402−iへ直接送信する。   Further, the control unit 413 instructs another terminal device 402-j, which stores the reference image, to transmit the reference image to the terminal device 402-i, so that the reference image is transmitted to the terminal device 402-j. -I can also be obtained. In this case, the communication unit 424 of the terminal device 402-j directly transmits the image instructed by the control unit 413 among the images stored in the storage unit 421 to the terminal device 402-i as a reference image.

制御部413は、無線通信ネットワークの上り帯域の使用状況を監視し、上り帯域が逼迫しているか否かを検知することもできる。この場合、制御部413は、上り帯域が逼迫していることを検知した際に、参照画像を端末装置402−iに取得させる制御を開始してもよい。   The control unit 413 can also monitor the usage status of the upstream band of the wireless communication network and detect whether or not the upstream band is tight. In this case, the control unit 413 may start control for causing the terminal device 402-i to acquire the reference image when detecting that the upstream band is tight.

端末装置402−iの通信部424は、画像処理装置401又は端末装置402−jから参照画像を受信し、処理部423は、撮影された画像と受信した参照画像との差分を示す差分情報432を生成する。そして、通信部424は、差分情報432を画像処理装置401へ送信する。   The communication unit 424 of the terminal device 402-i receives the reference image from the image processing device 401 or the terminal device 402-j, and the processing unit 423 has difference information 432 indicating a difference between the captured image and the received reference image. To generate. Then, the communication unit 424 transmits the difference information 432 to the image processing device 401.

画像処理装置401の通信部412は、端末装置402−iから差分情報432を受信し、受信した差分情報432を記憶部411に格納する。復元部414は、参照画像情報431から、端末装置402−iに取得させた参照画像を取得し、その参照画像と差分情報432とを用いて、端末装置402−iによって撮影された画像を復元する。そして、復元部414は、復元された画像を、新たな参照画像として参照画像情報431に登録する。このとき、端末装置402−iから受信した撮影条件が、新たな参照画像に関連付けられる。   The communication unit 412 of the image processing apparatus 401 receives the difference information 432 from the terminal device 402-i, and stores the received difference information 432 in the storage unit 411. The restoration unit 414 obtains the reference image acquired by the terminal device 402-i from the reference image information 431, and restores the image captured by the terminal device 402-i using the reference image and the difference information 432. To do. Then, the restoration unit 414 registers the restored image in the reference image information 431 as a new reference image. At this time, the shooting condition received from the terminal device 402-i is associated with the new reference image.

通信部415は、復元された画像をサーバ403へ送信する。これにより、端末装置402−iによって撮影された画像が、サーバ403へアップロードされる。サーバ403は、画像処理装置401から受信した画像を蓄積する。   The communication unit 415 transmits the restored image to the server 403. As a result, the image captured by the terminal device 402-i is uploaded to the server 403. The server 403 stores the image received from the image processing device 401.

図4の画像処理システムによれば、端末装置402−iが撮影した画像をサーバ403へアップロードする際、撮影された画像と参照画像の冗長性を利用して、それらの画像の差分がアップロードされる。したがって、上り帯域が逼迫している場合であっても、上り帯域により送信されるデータ量が削減されるため、上り通信のネットワークコストを抑制することができる。   According to the image processing system of FIG. 4, when uploading the image captured by the terminal device 402-i to the server 403, the redundancy between the captured image and the reference image is used to upload the difference between the images. It Therefore, even when the upstream band is tight, the amount of data transmitted in the upstream band is reduced, so that the network cost of upstream communication can be suppressed.

また、別の端末装置402−jに対して参照画像を端末装置402−iへ送信するように指示することで、画像処理装置401から参照画像を送信する必要がなくなる。これにより、画像処理装置401の負荷が軽減されるとともに、下り帯域により送信されるデータ量が削減される。   Further, by instructing another terminal device 402-j to transmit the reference image to the terminal device 402-i, it becomes unnecessary to transmit the reference image from the image processing device 401. This reduces the load on the image processing device 401 and reduces the amount of data transmitted in the downlink band.

画像処理装置401がイベント会場に設置されている場合、画像処理装置401は、上り帯域が逼迫していることを検知した際に、自由視点映像から、イベント会場の各座席エリアに応じた参照画像を切り出して、参照画像情報431に登録してもよい。画像処理装置401は、イベント会場の全周囲画像を、参照画像として参照画像情報431に登録することもできる。   When the image processing device 401 is installed in the event venue, when the image processing device 401 detects that the upstream band is tight, the reference image corresponding to each seat area of the event venue is detected from the free viewpoint video. May be cut out and registered in the reference image information 431. The image processing device 401 can also register the omnidirectional image of the event venue in the reference image information 431 as a reference image.

制御部413は、端末装置402−iに近い場所に存在する端末装置402−jを選択し、選択した端末装置402−jに対して、参照画像を端末装置402−iへ送信するように指示してもよい。端末装置402−jによって撮影された画像は、画像処理装置401へ送信され、参照画像情報431に登録されている。   The control unit 413 selects the terminal device 402-j existing near the terminal device 402-i, and instructs the selected terminal device 402-j to transmit the reference image to the terminal device 402-i. You may. The image captured by the terminal device 402-j is transmitted to the image processing device 401 and registered in the reference image information 431.

例えば、端末装置402−jは、端末間における無線通信を用いて、アクセスポイントを介さずに、参照画像を端末装置402−iへ送信することができる。この場合、制御部413は、参照画像を端末装置402−iへ送信した端末装置402−jに対して、ポイント等のインセンティブを付与する処理を行ってもよい。サーバ403は、例えば、SNSのサーバであり、イベント会場の景観を撮影した画像を蓄積し、蓄積された画像をインターネット等を介して配信する。   For example, the terminal device 402-j can use wireless communication between the terminals to transmit the reference image to the terminal device 402-i without going through an access point. In this case, the control unit 413 may perform a process of giving an incentive such as points to the terminal device 402-j that has transmitted the reference image to the terminal device 402-i. The server 403 is, for example, an SNS server, accumulates images of the landscape of the event venue, and distributes the accumulated images via the Internet or the like.

一方、画像処理装置401が路車間通信のアクセスポイントに設置されている場合、各端末装置402−iは、道路上を走行する車両に搭載されている。この場合、制御部413は、端末装置402−iを搭載した車両に近い場所を走行している、先行車両に搭載された端末装置402−jを選択し、選択した端末装置402−jに対して、参照画像を端末装置402−iへ送信するように指示してもよい。先行車両の端末装置402−jによって撮影された画像は、画像処理装置401へ送信され、参照画像情報431に登録されている。   On the other hand, when the image processing device 401 is installed at an access point for road-to-vehicle communication, each terminal device 402-i is installed in a vehicle traveling on the road. In this case, the control unit 413 selects the terminal device 402-j installed in the preceding vehicle that is traveling in a place near the vehicle equipped with the terminal device 402-i, and selects the selected terminal device 402-j. Then, an instruction may be given to transmit the reference image to the terminal device 402-i. The image captured by the terminal device 402-j of the preceding vehicle is transmitted to the image processing device 401 and registered in the reference image information 431.

例えば、先行車両の端末装置402−jは、車車間通信を用いて、アクセスポイントを介さずに、参照画像を後続車両の端末装置402−iへ送信することができる。サーバ403は、例えば、道路状況を観測する管理サーバであり、道路上の景観を撮影した画像を蓄積し、蓄積された画像を用いて、交差点、事故現場等の定点観測を行う。   For example, the terminal device 402-j of the preceding vehicle can transmit the reference image to the terminal device 402-i of the following vehicle by using the vehicle-to-vehicle communication without passing through the access point. The server 403 is, for example, a management server for observing road conditions, accumulates images of landscapes on the road, and performs fixed-point observation of intersections, accident sites, etc. using the accumulated images.

図5は、端末装置402−iから画像処理装置401へ送信される撮影条件の例を示している。図5の撮影条件は、撮影時刻、位置、方向、画角、及び撮影パラメータを含む。撮影時刻は、撮像装置422によって画像が撮影された日時を表す。位置は、(緯度,経度)のデータを含み、撮影時刻における端末装置402−iの位置を表す。   FIG. 5 shows an example of shooting conditions transmitted from the terminal device 402-i to the image processing device 401. The shooting condition of FIG. 5 includes a shooting time, a position, a direction, an angle of view, and a shooting parameter. The shooting time represents the date and time when the image was taken by the imaging device 422. The position includes the data of (latitude, longitude), and represents the position of the terminal device 402-i at the shooting time.

方向は、(水平角度,垂直角度)のデータを含み、撮影時刻における撮像装置422の方向(姿勢)を表す。水平角度は、左右方向における撮像装置422の光軸の向きを示し、垂直角度は、上下方向における撮像装置422の光軸の向きを示す。画角は、(水平画角,垂直画角)のデータを含み、撮像装置422の画角を表す。水平画角は、画像の左端と右端の間の画角であり、垂直画角は、画像の上端と下端の間の画角である。図5の水平角度、垂直角度、水平画角、及び垂直画角の単位は、「度」である。   The direction includes data of (horizontal angle, vertical angle), and represents the direction (posture) of the image pickup device 422 at the time of shooting. The horizontal angle indicates the direction of the optical axis of the image pickup device 422 in the left-right direction, and the vertical angle indicates the direction of the optical axis of the image pickup device 422 in the vertical direction. The angle of view includes data of (horizontal angle of view, vertical angle of view) and represents the angle of view of the image pickup device 422. The horizontal angle of view is the angle of view between the left and right ends of the image, and the vertical angle of view is the angle of view between the upper and lower ends of the image. The unit of the horizontal angle, the vertical angle, the horizontal angle of view, and the vertical angle of view in FIG. 5 is “degree”.

撮影パラメータは、撮像装置422の撮影パラメータを表す。撮影パラメータとしては、例えば、絞り値、露光時間、ISO(International Organization for Standardization)感度等を用いることができる。   The shooting parameter represents the shooting parameter of the imaging device 422. As the shooting parameter, for example, an aperture value, exposure time, ISO (International Organization for Standardization) sensitivity, etc. can be used.

撮影条件としては、撮影時刻、位置、方向、画角、及び撮影パラメータのすべての情報を用いてもよく、一部の情報のみを用いてもよい。   As the shooting condition, all information of shooting time, position, direction, angle of view, and shooting parameter may be used, or only a part of the information may be used.

図6は、参照画像情報431の例を示している。図6の参照画像情報431のエントリは、参照画像ID、参照画像データ、撮影時刻、位置、方向、画角、撮影パラメータ、及び端末IDを含む。参照画像IDは、参照画像の識別情報であり、参照画像データは、参照画像のバイナリデータである。   FIG. 6 shows an example of the reference image information 431. The entry of the reference image information 431 in FIG. 6 includes a reference image ID, reference image data, shooting time, position, direction, angle of view, shooting parameter, and terminal ID. The reference image ID is identification information of the reference image, and the reference image data is binary data of the reference image.

撮影時刻、位置、方向、画角、及び撮影パラメータは、参照画像が撮影されたときの撮影条件を表す。端末IDは、画像を撮影した端末装置402−iの識別情報である。端末IDとして、端末装置402−iのMAC(Media Access Control)アドレス等のアドレス情報を用いてもよい。   The shooting time, position, direction, angle of view, and shooting parameter represent shooting conditions when the reference image was shot. The terminal ID is identification information of the terminal device 402-i that captured the image. Address information such as a MAC (Media Access Control) address of the terminal device 402-i may be used as the terminal ID.

制御部413は、端末装置402−iから受信した撮影条件と、参照画像情報431の各エントリの撮影条件とを比較する。そして、制御部413は、受信した撮影条件と特定のエントリの撮影条件との差分が所定範囲内である場合、そのエントリの参照画像データを、受信した撮影条件と類似する撮影条件に関連付けられた参照画像として用いる。   The control unit 413 compares the shooting condition received from the terminal device 402-i with the shooting condition of each entry of the reference image information 431. Then, when the difference between the received shooting condition and the shooting condition of the specific entry is within the predetermined range, the control unit 413 associates the reference image data of the entry with the shooting condition similar to the received shooting condition. Used as a reference image.

撮影時刻及び位置の差分が小さい場合、2枚の画像に写っている景観が近似している可能性があり、さらに方向及び画角の差分が小さい場合、それらの景観に含まれる撮影対象が重複している可能性が高い。また、撮影パラメータの差分が小さい場合、2枚の画像の画質が近似している可能性が高い。   If the difference between the shooting time and the position is small, the scenery in the two images may be similar, and if the difference in the direction and the angle of view is small, the shooting objects included in those scenery overlap. It is highly possible that Further, when the difference between the shooting parameters is small, there is a high possibility that the two images have similar image qualities.

例えば、制御部413は、以下の手順に従って、類似する撮影条件に関連付けられた参照画像を選択することができる。
(P1)制御部413は、参照画像情報431から、撮影時刻及び位置の差分が閾値以下であるエントリを抽出する。例えば、撮影時刻の差分に対する閾値は、1秒〜10秒の範囲の数値であってもよく、位置を示す緯度又は経度の差分に対する閾値は、0.00005度〜0.0002度の範囲の数値であってもよい。
(P2)制御部413は、手順(P1)で抽出されたエントリの中から、方向及び画角の差分が閾値以下であるエントリを抽出する。方向又は画角の差分に対する閾値としては、2枚の画像に同じ撮影対象が含まれると推定される範囲の数値が用いられる。例えば、方向又は画角の差分に対する閾値は、1度〜10度の範囲の数値であってもよい。
(P3)制御部413は、手順(P2)で抽出されたエントリの個数が所定数よりも多い場合、それらのエントリの中から、撮影パラメータの差分が閾値以下であるエントリを抽出する。
(P4)制御部413は、手順(P1)〜手順(P3)で抽出されたエントリに含まれる参照画像データを選択する。
For example, the control unit 413 can select a reference image associated with a similar shooting condition according to the following procedure.
(P1) The control unit 413 extracts, from the reference image information 431, an entry in which the difference between the shooting time and the position is less than or equal to the threshold value. For example, the threshold value for the difference in shooting time may be a numerical value in the range of 1 second to 10 seconds, and the threshold value for the difference in latitude or longitude indicating a position is a numerical value in the range of 0.00005 degrees to 0.0002 degrees. May be
(P2) The control unit 413 extracts, from the entries extracted in the procedure (P1), an entry in which the difference between the direction and the angle of view is equal to or less than the threshold value. As the threshold value for the difference in the direction or the angle of view, a numerical value in a range in which it is estimated that the same image capturing target is included in two images is used. For example, the threshold value for the difference in the direction or the angle of view may be a numerical value in the range of 1 degree to 10 degrees.
(P3) When the number of entries extracted in the procedure (P2) is larger than the predetermined number, the control unit 413 extracts, from those entries, the entry in which the difference in the imaging parameter is equal to or less than the threshold value.
(P4) The control unit 413 selects the reference image data included in the entry extracted in the procedure (P1) to the procedure (P3).

このように、撮影時刻、位置、方向、画角、及び撮影パラメータが類似している参照画像を選択することで、端末装置402−iによって撮影された画像と参照画像との差分が小さくなり、差分情報432のデータ量が削減される。   In this way, by selecting a reference image having similar shooting time, position, direction, angle of view, and shooting parameter, the difference between the image shot by the terminal device 402-i and the reference image is reduced, The data amount of the difference information 432 is reduced.

手順(P1)〜手順(P3)で複数のエントリが抽出された場合、制御部413は、撮影条件の差分が最小となるエントリの参照画像を選択してもよく、すべてのエントリの参照画像を候補画像として選択してもよい。   When a plurality of entries are extracted in the procedure (P1) to the procedure (P3), the control unit 413 may select the reference image of the entry having the smallest difference between the imaging conditions, and the reference images of all the entries are selected. You may select as a candidate image.

撮影条件の差分が最小となる参照画像が選択された場合、制御部413は、その参照画像を参照画像IDとともに、端末装置402−iに取得させる。このとき、制御部413は、選択された参照画像に関連付けられた端末IDが示す端末装置402−jに対して、その参照画像を端末装置402−iへ送信するように指示してもよい。端末装置402−iの処理部423は、取得した参照画像を用いて差分情報432を生成する。通信部424は、取得した参照画像IDとともに、差分情報432を画像処理装置401へ送信する。   When the reference image with the smallest difference in shooting conditions is selected, the control unit 413 causes the terminal device 402-i to acquire the reference image together with the reference image ID. At this time, the control unit 413 may instruct the terminal device 402-j indicated by the terminal ID associated with the selected reference image to transmit the reference image to the terminal device 402-i. The processing unit 423 of the terminal device 402-i generates the difference information 432 using the acquired reference image. The communication unit 424 transmits the difference information 432 to the image processing device 401 together with the acquired reference image ID.

一方、複数の参照画像が候補画像として選択された場合、制御部413は、それらの参照画像を参照画像IDとともに、端末装置402−iに取得させる。そして、端末装置402−iの処理部423は、複数の参照画像の中から、撮影された画像との差分が最小となる参照画像を選択して、差分情報432を生成する。通信部424は、差分情報432の生成に用いられた参照画像を示す参照画像IDとともに、差分情報432を画像処理装置401へ送信する。   On the other hand, when a plurality of reference images are selected as candidate images, the control unit 413 causes the terminal device 402-i to acquire these reference images together with the reference image ID. Then, the processing unit 423 of the terminal device 402-i selects the reference image having the smallest difference from the captured image from the plurality of reference images, and generates the difference information 432. The communication unit 424 transmits the difference information 432 to the image processing device 401 together with the reference image ID indicating the reference image used to generate the difference information 432.

画像処理装置401の通信部412は、端末装置402−iから参照画像ID及び差分情報432を受信する。復元部414は、参照画像情報431から、受信した参照画像IDが示す参照画像データを取得し、その参照画像データと受信した差分情報432とを用いて、撮影された画像を復元する。   The communication unit 412 of the image processing device 401 receives the reference image ID and the difference information 432 from the terminal device 402-i. The restoration unit 414 acquires the reference image data indicated by the received reference image ID from the reference image information 431, and restores the captured image using the reference image data and the received difference information 432.

そして、復元部414は、復元された画像を、新たな参照画像として参照画像情報431に登録し、通信部412は、登録された参照画像を示す参照画像IDを、端末装置402−iへ送信する。端末装置402−iは、受信した参照画像IDを、撮影された画像と関連付けて記憶部421に格納する。   Then, the restoration unit 414 registers the restored image in the reference image information 431 as a new reference image, and the communication unit 412 transmits the reference image ID indicating the registered reference image to the terminal device 402-i. To do. The terminal device 402-i stores the received reference image ID in the storage unit 421 in association with the captured image.

複数の参照画像が候補画像として選択された場合、端末装置402−iは、それらの参照画像の中から差分が最小となる参照画像を選択して、差分情報432を生成することができる。これにより、差分情報432のデータ量のさらなる削減が期待できる。   When a plurality of reference images are selected as candidate images, the terminal device 402-i can select the reference image having the smallest difference from those reference images and generate the difference information 432. As a result, further reduction of the data amount of the difference information 432 can be expected.

また、端末装置402−iが、参照画像情報431に登録された参照画像を示す参照画像IDと、撮影された画像とを関連付けて記憶することで、その画像を参照画像として別の端末装置402−k(k≠i)へ送信することが可能になる。   Further, the terminal device 402-i stores the reference image ID indicating the reference image registered in the reference image information 431 and the captured image in association with each other, so that the image is used as a reference image for another terminal device 402. It becomes possible to transmit to −k (k ≠ i).

端末装置402−iは、差分情報432を生成する際に、撮影された画像と参照画像との差分を最小化するマッチング処理を行ってもよい。マッチング処理を行うことで、差分情報432のデータ量を最小化することができる。   When generating the difference information 432, the terminal device 402-i may perform matching processing that minimizes the difference between the captured image and the reference image. The data amount of the difference information 432 can be minimized by performing the matching process.

図7は、端末装置402−iが行うマッチング処理の例を示している。画像701は、端末装置402−iによって撮影された画像を表す。処理部423は、参照画像を拡大又は縮小することで参照画像702を生成する。   FIG. 7 shows an example of matching processing performed by the terminal device 402-i. The image 701 represents an image captured by the terminal device 402-i. The processing unit 423 generates the reference image 702 by enlarging or reducing the reference image.

次に、処理部423は、参照画像702に対する画像701の相対位置座標(x,y)及び回転角度θを変化させながら、参照画像702内において画像701と重複する領域の画素値と、画像701の画素値との差分を計算する。そして、処理部423は、差分が最小となるような、拡大縮小率、相対位置座標、及び回転角度を、マッチング処理のパラメータ(参照パラメータ)として求める。図7の例では、(x,y)=(28,95)、θ=−32°である。   Next, the processing unit 423 changes the relative position coordinates (x, y) and the rotation angle θ of the image 701 with respect to the reference image 702, while changing the pixel value of the area in the reference image 702 overlapping the image 701 and the image 701. The difference from the pixel value of is calculated. Then, the processing unit 423 obtains the enlargement / reduction ratio, the relative position coordinates, and the rotation angle that minimize the difference, as the matching process parameters (reference parameters). In the example of FIG. 7, (x, y) = (28, 95) and θ = −32 °.

図8は、参照パラメータの例を示している。図8の参照パラメータは、相対位置座標、画素数、拡大縮小率、及び回転角度を含む。画素数は、図7の画像701の画素数を表し、拡大縮小率は、図7の参照画像702の拡大縮小率を表す。相対位置座標及び回転角度は、参照画像702に対する画像701の相対位置座標及び回転角度を表す。   FIG. 8 shows an example of reference parameters. The reference parameters in FIG. 8 include the relative position coordinates, the number of pixels, the scaling ratio, and the rotation angle. The number of pixels represents the number of pixels of the image 701 in FIG. 7, and the scaling rate represents the scaling rate of the reference image 702 in FIG. 7. The relative position coordinate and the rotation angle represent the relative position coordinate and the rotation angle of the image 701 with respect to the reference image 702.

通信部424は、参照画像ID、最小の差分を示す差分情報432、及び参照パラメータを、画像処理装置401へ送信し、画像処理装置401の通信部412は、端末装置402−iからそれらの情報を受信する。復元部414は、受信した参照パラメータに基づいて、参照画像IDが示す参照画像を変換し、変換後の参照画像と差分情報432とを用いて、撮影された画像を復元する。   The communication unit 424 transmits the reference image ID, the difference information 432 indicating the minimum difference, and the reference parameter to the image processing apparatus 401, and the communication unit 412 of the image processing apparatus 401 uses the information from the terminal device 402-i. To receive. The restoration unit 414 converts the reference image indicated by the reference image ID based on the received reference parameter, and restores the captured image using the converted reference image and the difference information 432.

例えば、復元部414は、以下の手順に従って、撮影された画像を復元することができる。
(P11)復元部414は、参照パラメータに含まれる拡大縮小率に従って、参照画像IDが示す参照画像を拡大又は縮小する。拡大縮小率が1である場合は、参照画像のサイズは変更されない。
(P12)復元部414は、参照パラメータに含まれる相対位置座標、回転角度、及び画素数に基づいて参照画像をクロップすることで、参照画像から、撮影された画像に対応する領域の画像を生成する。
(P13)復元部414は、生成された画像を変換後の参照画像として用い、変換後の参照画像の画素値に、差分情報432が示す差分を加算することで、撮影された画像を復元する。
For example, the restoration unit 414 can restore the captured image according to the following procedure.
(P11) The restoration unit 414 enlarges or reduces the reference image indicated by the reference image ID according to the enlargement / reduction ratio included in the reference parameter. When the enlargement / reduction ratio is 1, the size of the reference image is not changed.
(P12) The restoration unit 414 crops the reference image based on the relative position coordinates, the rotation angle, and the number of pixels included in the reference parameter, thereby generating an image of a region corresponding to the captured image from the reference image. To do.
(P13) The restoration unit 414 restores the captured image by using the generated image as the converted reference image and adding the difference indicated by the difference information 432 to the pixel value of the converted reference image. ..

端末装置402−iがマッチング処理を行うことで、差分情報432のデータ量が最小化される。また、参照パラメータを端末装置402−iから画像処理装置401へ送信することで、画像処理装置401は、参照画像及び差分情報432から、撮影された画像を復元することができる。   The data amount of the difference information 432 is minimized by the terminal device 402-i performing the matching process. Further, by transmitting the reference parameter from the terminal device 402-i to the image processing device 401, the image processing device 401 can restore the captured image from the reference image and the difference information 432.

端末装置402−iは、参照画像のアフィン変換を含むマッチング処理を行い、アフィン変換パラメータを参照パラメータとして画像処理装置401へ送信することもできる。この場合、マッチング処理において、参照画像の線形変換全般(拡大縮小、剪断、回転等)を扱うことが可能になる。   The terminal device 402-i can also perform the matching process including the affine transformation of the reference image and transmit the affine transformation parameter to the image processing device 401 as the reference parameter. In this case, in the matching process, it is possible to handle general linear conversion (enlargement / reduction, shearing, rotation, etc.) of the reference image.

図9は、図4の画像処理システムにおける動作シーケンスの例を示している。まず、端末装置402−iは、画像を撮影し、その画像の撮影条件を画像処理装置401へ送信する(手順901)。   FIG. 9 shows an example of an operation sequence in the image processing system of FIG. First, the terminal device 402-i shoots an image and sends the shooting conditions of the image to the image processing device 401 (step 901).

画像処理装置401の制御部413は、記憶部411内の参照画像情報431を検索し、受信した撮影条件と類似する撮影条件に関連付けられた参照画像を特定する(手順902)。そして、制御部413は、特定した参照画像とその参照画像IDとを、通信部412を介して、端末装置402−iへ送信する(手順903)。   The control unit 413 of the image processing apparatus 401 searches the reference image information 431 in the storage unit 411 and identifies the reference image associated with the shooting condition similar to the received shooting condition (step 902). Then, the control unit 413 transmits the identified reference image and its reference image ID to the terminal device 402-i via the communication unit 412 (step 903).

特定した参照画像に端末IDが関連付けられている場合、制御部413は、手順903の動作の代わりに、その端末IDが示す端末装置402−jへ、通信部412を介して、送信指示を送信してもよい(手順904)。この送信指示には、特定した参照画像を示す参照画像IDと、端末装置402−iを示す端末IDとが含まれる。端末装置402−jは、送信指示に含まれる参照画像IDと、その参照画像IDが示す画像とを、送信指示に含まれる端末IDが示す端末装置402−iへ送信する(手順905)。   When the identified reference image is associated with the terminal ID, the control unit 413 transmits a transmission instruction to the terminal device 402-j indicated by the terminal ID via the communication unit 412 instead of the operation of step 903. (Step 904). The transmission instruction includes the reference image ID indicating the specified reference image and the terminal ID indicating the terminal device 402-i. The terminal device 402-j transmits the reference image ID included in the transmission instruction and the image indicated by the reference image ID to the terminal device 402-i indicated by the terminal ID included in the transmission instruction (step 905).

手順902において、制御部413は、上述した手順(P1)〜手順(P4)に従って参照画像を特定してもよく、別の選択基準に従って参照画像を特定してもよい。手順(P1)〜手順(P4)に従って参照画像を特定する場合、端末装置402−iの撮影時刻より少し前に、端末装置402−iに近い位置から撮影された、参照画像が特定される。この場合、手順904において、端末装置402−iに近い位置に存在する端末装置402−jへ送信指示が送信される。   In procedure 902, the control unit 413 may identify the reference image according to the procedure (P1) to procedure (P4) described above, or may identify the reference image according to another selection criterion. When the reference image is specified according to the procedure (P1) to the procedure (P4), the reference image captured from a position close to the terminal device 402-i is specified slightly before the image capturing time of the terminal device 402-i. In this case, in step 904, the transmission instruction is transmitted to the terminal device 402-j located near the terminal device 402-i.

端末装置402−iは、撮影された画像と、画像処理装置401又は端末装置402−jから受信した参照画像との差分を示す差分情報432を生成する。複数の参照画像を候補画像として受信した場合、端末装置402−iは、それらの参照画像の中から、撮影された画像との差分が最小となる参照画像を選択して、差分情報432を生成する。そして、端末装置402−iは、差分情報432と、差分情報432の生成に用いられた参照画像を示す参照画像IDと、差分情報432の生成に用いられた参照パラメータとを、画像処理装置401へ送信する(手順906)。   The terminal device 402-i generates difference information 432 indicating a difference between the captured image and the reference image received from the image processing device 401 or the terminal device 402-j. When the plurality of reference images are received as the candidate images, the terminal device 402-i selects the reference image having the smallest difference from the captured image from the reference images and generates the difference information 432. To do. Then, the terminal device 402-i sets the difference information 432, the reference image ID indicating the reference image used to generate the difference information 432, and the reference parameter used to generate the difference information 432 to the image processing device 401. (Step 906).

画像処理装置401の復元部414は、記憶部411内の参照画像情報431を検索し、受信した参照画像IDが示す参照画像を取得する(手順907)。次に、復元部414は、受信した参照パラメータに基づいて、その参照画像を変換し、端末装置402−iによって撮影された画像に対応する領域の画像を生成する。そして、復元部414は、変換後の参照画像と差分情報432とを用いて、撮影された画像を復元し、復元された画像(復元画像)に対して、新たな参照画像IDを付与する。   The restoration unit 414 of the image processing apparatus 401 searches the reference image information 431 in the storage unit 411 and acquires the reference image indicated by the received reference image ID (step 907). Next, the restoration unit 414 converts the reference image based on the received reference parameter, and generates the image of the area corresponding to the image captured by the terminal device 402-i. Then, the restoration unit 414 restores the captured image using the converted reference image and the difference information 432, and gives a new reference image ID to the restored image (restored image).

次に、復元部414は、通信部415を介して、その復元画像をサーバ403へ送信する(手順908)。次に、復元部414は、復元画像に付与された参照画像IDと、復元画像を表す参照画像データと、端末装置402−iから受信した撮影条件と、端末装置402−iを示す端末IDとを、参照画像情報431の新たなエントリとして登録する(手順909)。そして、復元部414は、復元画像に付与された参照画像IDを、通信部412を介して、端末装置402−iへ送信する(手順910)。   Next, the restoration unit 414 transmits the restored image to the server 403 via the communication unit 415 (step 908). Next, the restoration unit 414, the reference image ID given to the restored image, the reference image data representing the restored image, the shooting condition received from the terminal device 402-i, and the terminal ID indicating the terminal device 402-i. Is registered as a new entry of the reference image information 431 (step 909). Then, the restoration unit 414 transmits the reference image ID given to the restored image to the terminal device 402-i via the communication unit 412 (step 910).

図10は、図4の端末装置402−iが行うアップロード処理の例を示すフローチャートである。まず、通信部424は、撮影された画像の撮影条件を画像処理装置401へ送信し(ステップ1001)、画像処理装置401又は端末装置402−jから、参照画像及び参照画像IDを受信する(ステップ1002)。   FIG. 10 is a flowchart showing an example of upload processing performed by the terminal device 402-i of FIG. First, the communication unit 424 transmits the shooting conditions of the shot image to the image processing apparatus 401 (step 1001), and receives the reference image and the reference image ID from the image processing apparatus 401 or the terminal device 402-j (step). 1002).

次に、処理部423は、撮影された画像と受信した参照画像との差分を示す差分情報432を生成する(ステップ1003)。そして、通信部424は、差分情報432と、差分情報432の生成に用いられた参照画像を示す参照画像IDと、差分情報432の生成に用いられた参照パラメータとを、画像処理装置401へ送信する(ステップ1004)。   Next, the processing unit 423 generates difference information 432 indicating a difference between the captured image and the received reference image (step 1003). Then, the communication unit 424 transmits the difference information 432, the reference image ID indicating the reference image used to generate the difference information 432, and the reference parameter used to generate the difference information 432 to the image processing device 401. (Step 1004).

次に、通信部424は、画像処理装置401から、復元画像を示す参照画像IDを受信し、処理部423は、受信した参照画像IDを、撮影された画像と関連付けて記憶部421に格納する(ステップ1005)。   Next, the communication unit 424 receives the reference image ID indicating the restored image from the image processing device 401, and the processing unit 423 stores the received reference image ID in the storage unit 421 in association with the captured image. (Step 1005).

図11は、図4の画像処理装置401が行う画像処理の具体例を示すフローチャートである。まず、通信部412は、端末装置402−iから撮影条件を受信する(ステップ1101)。そして、制御部413は、記憶部411内の参照画像情報431を検索し、受信した撮影条件と類似する撮影条件に関連付けられた参照画像を特定する(ステップ1102)。   FIG. 11 is a flowchart showing a specific example of image processing performed by the image processing apparatus 401 of FIG. First, the communication unit 412 receives shooting conditions from the terminal device 402-i (step 1101). Then, the control unit 413 searches the reference image information 431 in the storage unit 411 and identifies the reference image associated with the shooting condition similar to the received shooting condition (step 1102).

次に、制御部413は、参照画像情報431において、特定した参照画像に端末IDが関連付けられているか否かをチェックする(ステップ1103)。参照画像に端末IDが関連付けられている場合(ステップ1103,YES)、制御部413は、その端末IDが示す端末装置402−jへ、通信部412を介して、送信指示を送信する(ステップ1104)。   Next, the control unit 413 checks whether or not the identified reference image is associated with the terminal ID in the reference image information 431 (step 1103). When the reference image is associated with the terminal ID (step 1103, YES), the control unit 413 transmits a transmission instruction to the terminal device 402-j indicated by the terminal ID via the communication unit 412 (step 1104). ).

一方、参照画像に端末IDが関連付けられていない場合(ステップ1103,NO)、制御部413は、特定した参照画像とその参照画像IDとを、通信部412を介して、端末装置402−iへ送信する(ステップ1105)。   On the other hand, when the reference image is not associated with the terminal ID (step 1103, NO), the control unit 413 sends the identified reference image and the reference image ID to the terminal device 402-i via the communication unit 412. It is transmitted (step 1105).

次に、通信部412は、端末装置402−iから、差分情報432、参照画像ID、及び参照パラメータを受信する(ステップ1106)。そして、復元部414は、記憶部411内の参照画像情報431を検索し、受信した参照画像IDが示す参照画像を取得する(ステップ1107)。   Next, the communication unit 412 receives the difference information 432, the reference image ID, and the reference parameter from the terminal device 402-i (step 1106). Then, the restoration unit 414 searches the reference image information 431 in the storage unit 411 and acquires the reference image indicated by the received reference image ID (step 1107).

次に、復元部414は、受信した参照パラメータに基づいて、その参照画像を変換し、変換後の参照画像と差分情報432とを用いて、撮影された画像を復元する(ステップ1108)。そして、復元部414は、復元画像に対して新たな参照画像IDを付与する。   Next, the restoration unit 414 transforms the reference image based on the received reference parameter, and restores the captured image using the transformed reference image and the difference information 432. (Step 1108). Then, the restoration unit 414 adds a new reference image ID to the restored image.

次に、通信部415は、復元画像をサーバ403へ送信する(ステップ1109)。次に、復元部414は、復元画像に付与された参照画像IDと、復元画像を表す参照画像データと、端末装置402−iから受信した撮影条件と、端末装置402−iを示す端末IDとを、参照画像情報431に登録する(ステップ1110)。そして、通信部412は、復元画像に付与された参照画像IDを、端末装置402−iへ送信する(ステップ1111)。   Next, the communication unit 415 transmits the restored image to the server 403 (step 1109). Next, the restoration unit 414, the reference image ID given to the restored image, the reference image data representing the restored image, the shooting condition received from the terminal device 402-i, and the terminal ID indicating the terminal device 402-i. Is registered in the reference image information 431 (step 1110). Then, the communication unit 412 transmits the reference image ID given to the restored image to the terminal device 402-i (step 1111).

図1の画像アップロードシステムの構成は一例に過ぎず、画像アップロードシステムの用途又は条件に応じて一部の構成要素を省略又は変更してもよい。   The configuration of the image upload system in FIG. 1 is merely an example, and some of the components may be omitted or changed depending on the use or conditions of the image upload system.

図2の画像処理装置201の構成は一例に過ぎず、画像処理装置201の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。   The configuration of the image processing apparatus 201 in FIG. 2 is merely an example, and some of the constituent elements may be omitted or changed depending on the application or condition of the image processing apparatus 201.

図4の画像処理システムの構成は一例に過ぎず、画像処理システムの用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、画像処理装置401が復元画像をサーバ403へ送信する必要がない場合は、通信部415を省略することができる。   The configuration of the image processing system in FIG. 4 is merely an example, and some of the constituent elements may be omitted or changed depending on the application or conditions of the image processing system. For example, if the image processing apparatus 401 does not need to send the restored image to the server 403, the communication unit 415 can be omitted.

図3、図10、及び図11のフローチャートは一例に過ぎず、画像処理システムの構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図11の画像処理において、別の端末装置402−jへ送信指示を送信しない場合は、ステップ1103、ステップ1104、及びステップ1111の処理を省略することができる。画像処理装置401が復元画像をサーバ403へ送信する必要がない場合は、ステップ1109の処理を省略することができる。   The flowcharts of FIGS. 3, 10, and 11 are merely examples, and some of the processing may be omitted or changed depending on the configuration or conditions of the image processing system. For example, in the image processing of FIG. 11, when the transmission instruction is not transmitted to another terminal device 402-j, the processing of step 1103, step 1104, and step 1111 can be omitted. If the image processing apparatus 401 does not need to send the restored image to the server 403, the process of step 1109 can be omitted.

ステップ1102において特定された参照画像を端末装置402−i自身が記憶している場合は、ステップ1105において、画像処理装置401は、参照画像の送信を省略することができる。   When the terminal device 402-i itself stores the reference image specified in step 1102, the image processing device 401 can omit the transmission of the reference image in step 1105.

図9の動作シーケンスは一例に過ぎず、画像処理システムの構成又は条件に応じて一部の動作を省略又は変更してもよい。例えば、別の端末装置402−jへ送信指示を送信しない場合は、手順904、手順905、及び手順910の動作を省略することができる。画像処理装置401が復元画像をサーバ403へ送信する必要がない場合は、手順908の動作を省略することができる。   The operation sequence in FIG. 9 is merely an example, and some operations may be omitted or changed according to the configuration or conditions of the image processing system. For example, when the transmission instruction is not transmitted to another terminal device 402-j, the operations of procedure 904, procedure 905, and procedure 910 can be omitted. If the image processing apparatus 401 does not need to send the restored image to the server 403, the operation of step 908 can be omitted.

手順902において特定された参照画像を端末装置402−i自身が記憶している場合は、手順903において、画像処理装置401は、参照画像の送信を省略することができる。   When the terminal device 402-i itself stores the reference image specified in step 902, the image processing apparatus 401 can omit the transmission of the reference image in step 903.

図12は、図2の画像処理装置201及び図4の画像処理装置401として用いられる情報処理装置(コンピュータ)の構成例を示している。図12の情報処理装置は、CPU(Central Processing Unit)1201、メモリ1202、入力装置1203、出力装置1204、補助記憶装置1205、媒体駆動装置1206、通信装置1207、及び通信装置1208を含む。これらの構成要素はバス1209により互いに接続されている。   FIG. 12 shows a configuration example of an information processing apparatus (computer) used as the image processing apparatus 201 of FIG. 2 and the image processing apparatus 401 of FIG. The information processing device of FIG. 12 includes a CPU (Central Processing Unit) 1201, a memory 1202, an input device 1203, an output device 1204, an auxiliary storage device 1205, a medium driving device 1206, a communication device 1207, and a communication device 1208. These components are connected to each other by a bus 1209.

メモリ1202は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを格納する。メモリ1202は、図2の記憶部211又は図4の記憶部411として用いることができる。   The memory 1202 is, for example, a semiconductor memory such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a flash memory, and stores programs and data used for processing. The memory 1202 can be used as the storage unit 211 of FIG. 2 or the storage unit 411 of FIG.

CPU1201(プロセッサ)は、例えば、メモリ1202を利用してプログラムを実行することにより、図2の制御部213及び復元部214として動作する。CPU1201は、メモリ1202を利用してプログラムを実行することにより、図4の制御部413及び復元部414としても動作する。   The CPU 1201 (processor) operates as the control unit 213 and the restoration unit 214 in FIG. 2 by executing the program using the memory 1202, for example. The CPU 1201 also operates as the control unit 413 and the restoration unit 414 of FIG. 4 by executing the program using the memory 1202.

入力装置1203は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置1204は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。処理結果は、復元画像であってもよい。   The input device 1203 is, for example, a keyboard, a pointing device, or the like, and is used for inputting an instruction or information from an operator or a user. The output device 1204 is, for example, a display device, a printer, a speaker, or the like, and is used to output an inquiry or instruction to an operator or a user and a processing result. The processing result may be a restored image.

補助記憶装置1205は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1205は、ハードディスクドライブ又はフラッシュメモリであってもよい。情報処理装置は、補助記憶装置1205にプログラム及びデータを格納しておき、それらをメモリ1202にロードして使用することができる。補助記憶装置1205は、図2の記憶部211又は図4の記憶部411として用いることができる。   The auxiliary storage device 1205 is, for example, a magnetic disk device, an optical disk device, a magneto-optical disk device, a tape device, or the like. The auxiliary storage device 1205 may be a hard disk drive or a flash memory. The information processing apparatus can store the program and data in the auxiliary storage device 1205 and load them into the memory 1202 for use. The auxiliary storage device 1205 can be used as the storage unit 211 of FIG. 2 or the storage unit 411 of FIG.

媒体駆動装置1206は、可搬型記録媒体1210を駆動し、その記録内容にアクセスする。可搬型記録媒体1210は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1210は、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体1210にプログラム及びデータを格納しておき、それらをメモリ1202にロードして使用することができる。   The medium driving device 1206 drives a portable recording medium 1210 to access the recorded contents. The portable recording medium 1210 is a memory device, a flexible disk, an optical disk, a magneto-optical disk, or the like. The portable recording medium 1210 may be a CD-ROM (Compact Disk Read Only Memory), a DVD (Digital Versatile Disk), a USB (Universal Serial Bus) memory, or the like. An operator or a user can store programs and data in this portable recording medium 1210 and load them into the memory 1202 for use.

このように、処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ1202、補助記憶装置1205、又は可搬型記録媒体1210のような、物理的な(非一時的な)記録媒体である。   As described above, a computer-readable recording medium that stores programs and data used for processing is a physical (non-transitory) recording medium such as the memory 1202, the auxiliary storage device 1205, or the portable recording medium 1210. It is a medium.

通信装置1207は、無線通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。通信装置1207は、図2の受信部212又は図4の通信部412として用いることができる。   The communication device 1207 is a communication interface circuit that is connected to a wireless communication network and performs data conversion associated with communication. The communication device 1207 can be used as the reception unit 212 in FIG. 2 or the communication unit 412 in FIG.

通信装置1208は、LAN、WAN等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置から通信装置1208を介して受信し、それらをメモリ1202にロードして使用することができる。通信装置1208は、図4の通信部415として用いることができる。   The communication device 1208 is a communication interface circuit that is connected to a communication network such as a LAN or WAN and performs data conversion associated with communication. The information processing device can receive a program and data from an external device via the communication device 1208, load them into the memory 1202, and use them. The communication device 1208 can be used as the communication unit 415 in FIG.

なお、情報処理装置が図12のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、オペレータ又はユーザと対話する必要がない場合は、入力装置1203及び出力装置1204を省略してもよい。可搬型記録媒体1210を使用しない場合は、媒体駆動装置1206を省略してもよい。   Note that the information processing device does not need to include all the constituent elements in FIG. 12, and it is possible to omit some of the constituent elements according to the use or the condition. For example, the input device 1203 and the output device 1204 may be omitted if there is no need to interact with the operator or the user. When the portable recording medium 1210 is not used, the medium driving device 1206 may be omitted.

図4の端末装置402−1〜端末装置402−Nとしては、図12と同様の情報処理装置を用いることができる。この場合、通信装置1208を省略することができ、CPU1201、メモリ1202、及び通信装置1207は、それぞれ、図4の処理部423、記憶部421、及び通信部424として用いることができる。図4の撮像装置422は、バス1209に接続されていてもよい。   As the terminal devices 402-1 to 402-N in FIG. 4, the same information processing device as that in FIG. 12 can be used. In this case, the communication device 1208 can be omitted, and the CPU 1201, the memory 1202, and the communication device 1207 can be used as the processing unit 423, the storage unit 421, and the communication unit 424 of FIG. 4, respectively. The imaging device 422 of FIG. 4 may be connected to the bus 1209.

図4のサーバ403としては、図12と同様の情報処理装置を用いることができる。この場合、通信装置1207を省略することができる。   As the server 403 in FIG. 4, an information processing device similar to that in FIG. 12 can be used. In this case, the communication device 1207 can be omitted.

開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。   While the disclosed embodiments and their advantages have been described in detail, those skilled in the art can make various changes, additions, and omissions without departing from the scope of the invention explicitly set forth in the claims. Let's

図2乃至図12を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
撮影条件に関連付けて記憶部に記憶されている複数の画像の中から、端末装置が撮影した第1画像の撮影条件と類似する撮影条件に関連付けられた第2画像を特定し、
前記第2画像を前記端末装置に取得させ、
前記第1画像と前記第2画像との差分を示す差分情報を、前記端末装置から受信し、
前記第2画像と前記差分情報とを用いて、前記第1画像を復元する、
処理をコンピュータに実行させるための画像処理プログラム。
(付記2)
前記撮影条件は、撮影時刻、端末装置の位置、撮像装置の方向、又は撮像装置の画角を示す情報であり、
前記コンピュータは、前記第1画像の撮影条件と、前記複数の画像それぞれの撮影条件とを比較し、前記第1画像の撮影条件と前記複数の画像のうち特定の画像の撮影条件との差分が所定範囲内である場合、前記特定の画像を前記第2画像として用いることを特徴とする付記1記載の画像処理プログラム。
(付記3)
前記コンピュータは、前記第1画像と前記第2画像との差分を最小化するマッチング処理のパラメータを、前記端末装置から受信し、受信したパラメータに基づいて前記第2画像を変換し、変換後の前記第2画像と前記差分情報とを用いて、前記第1画像を復元することを特徴とする付記1又は2記載の画像処理プログラム。
(付記4)
前記コンピュータは、前記記憶部に記憶されている複数の画像の中から、前記第1画像の撮影条件と類似する撮影条件に関連付けられた複数の候補画像を特定し、前記複数の候補画像を前記端末装置に取得させ、前記端末装置によって前記複数の候補画像の中から選択された前記第2画像を示す識別情報を、前記端末装置から受信し、前記記憶部に記憶されている複数の画像のうち、受信した識別情報が示す前記第2画像を用いて、前記第1画像を復元することを特徴とする付記1乃至3のいずれか1項に記載の画像処理プログラム。
(付記5)
前記コンピュータは、前記第2画像を記憶する別の端末装置に対して、前記第1画像を撮影した端末装置へ前記第2画像を送信するように指示することで、前記第2画像を前記端末装置に取得させることを特徴とする付記1乃至3のいずれか1項に記載の画像処理プログラム。
(付記6)
前記コンピュータは、前記第2画像を前記端末装置へ送信することで、前記第2画像を前記端末装置に取得させることを特徴とする付記1乃至3のいずれか1項に記載の画像処理プログラム。
(付記7)
複数の画像と前記複数の画像それぞれの撮影条件とを関連付けて記憶する記憶部と、
前記複数の画像の中から、端末装置が撮影した第1画像の撮影条件と類似する撮影条件に関連付けられた第2画像を特定し、前記第2画像を前記端末装置に取得させる制御部と、
前記第1画像と前記第2画像との差分を示す差分情報を、前記端末装置から受信する受信部と、
前記第2画像と前記差分情報とを用いて、前記第1画像を復元する復元部と、
を備えることを特徴とする画像処理装置。
(付記8)
前記撮影条件は、撮影時刻、端末装置の位置、撮像装置の方向、又は撮像装置の画角を示す情報であり、
前記制御部は、前記第1画像の撮影条件と、前記複数の画像それぞれの撮影条件とを比較し、前記第1画像の撮影条件と前記複数の画像のうち特定の画像の撮影条件との差分が所定範囲内である場合、前記特定の画像を前記第2画像として用いることを特徴とする付記7記載の画像処理装置。
(付記9)
前記受信部は、前記第1画像と前記第2画像との差分を最小化するマッチング処理のパラメータを、前記端末装置から受信し、前記復元部は、受信したパラメータに基づいて前記第2画像を変換し、変換後の前記第2画像と前記差分情報とを用いて、前記第1画像を復元することを特徴とする付記7又は8記載の画像処理装置。
(付記10)
前記制御部は、前記記憶部に記憶されている複数の画像の中から、前記第1画像の撮影条件と類似する撮影条件に関連付けられた複数の候補画像を特定し、前記複数の候補画像を前記端末装置に取得させ、前記受信部は、前記端末装置によって前記複数の候補画像の中から選択された前記第2画像を示す識別情報を、前記端末装置から受信し、前記復元部は、前記記憶部に記憶されている複数の画像のうち、受信した識別情報が示す前記第2画像を用いて、前記第1画像を復元することを特徴とする付記7乃至9のいずれか1項に記載の画像処理装置。
(付記11)
前記制御部は、前記第2画像を記憶する別の端末装置に対して、前記第1画像を撮影した端末装置へ前記第2画像を送信するように指示することで、前記第2画像を前記端末装置に取得させることを特徴とする付記7乃至9のいずれか1項に記載の画像処理装置。
(付記12)
前記制御部は、前記第2画像を前記端末装置へ送信することで、前記第2画像を前記端末装置に取得させることを特徴とする付記7乃至9のいずれか1項に記載の画像処理装置。
(付記13)
端末装置と画像処理装置とを備える画像処理システムであって、
前記端末装置は、第1画像を撮影して、前記第1画像の撮影条件を前記画像処理装置へ送信し、
前記画像処理装置は、
複数の画像と前記複数の画像それぞれの撮影条件とを関連付けて記憶する記憶部と、
前記複数の画像の中から、前記第1画像の撮影条件と類似する撮影条件に関連付けられた第2画像を特定し、前記第2画像を前記端末装置に取得させる制御部と、
前記第1画像と前記第2画像との差分を示す差分情報を、前記端末装置から受信する受信部と、
前記第2画像と前記差分情報とを用いて、前記第1画像を復元する復元部とを含む、
ことを特徴とする画像処理システム。
(付記14)
コンピュータにより実行される画像処理方法であって、
前記コンピュータが、
撮影条件に関連付けて記憶部に記憶されている複数の画像の中から、端末装置が撮影した第1画像の撮影条件と類似する撮影条件に関連付けられた第2画像を特定し、
前記第2画像を前記端末装置に取得させ、
前記第1画像と前記第2画像との差分を示す差分情報を、前記端末装置から受信し、
前記第2画像と前記差分情報とを用いて、前記第1画像を復元する、
ことを特徴とする画像処理方法。
Regarding the embodiment described with reference to FIGS. 2 to 12, the following supplementary notes are further disclosed.
(Appendix 1)
A second image associated with a shooting condition similar to the shooting condition of the first image shot by the terminal device is specified from among the plurality of images stored in the storage unit in association with the shooting condition,
Causing the terminal device to acquire the second image,
Receiving difference information indicating a difference between the first image and the second image from the terminal device,
Restore the first image using the second image and the difference information,
An image processing program that causes a computer to execute processing.
(Appendix 2)
The shooting condition is information indicating a shooting time, a position of the terminal device, a direction of the imaging device, or an angle of view of the imaging device,
The computer compares a shooting condition of the first image with a shooting condition of each of the plurality of images, and determines a difference between the shooting condition of the first image and a shooting condition of a specific image of the plurality of images. The image processing program according to note 1, wherein the specific image is used as the second image when the image is within a predetermined range.
(Appendix 3)
The computer receives a parameter of a matching process that minimizes a difference between the first image and the second image from the terminal device, converts the second image based on the received parameter, and converts the second image. 3. The image processing program according to supplementary note 1 or 2, wherein the first image is restored using the second image and the difference information.
(Appendix 4)
The computer specifies a plurality of candidate images associated with a shooting condition similar to the shooting condition of the first image from among the plurality of images stored in the storage unit, and selects the plurality of candidate images from the plurality of images. The identification information indicating the second image selected from the plurality of candidate images by the terminal device and received by the terminal device is received from the terminal device, and the identification information of the plurality of images stored in the storage unit is received. 4. The image processing program according to any one of appendices 1 to 3, wherein the first image is restored using the second image indicated by the received identification information.
(Appendix 5)
The computer instructs another terminal device, which stores the second image, to transmit the second image to the terminal device that has photographed the first image, so that the second image is transmitted to the terminal device. 4. The image processing program according to any one of appendices 1 to 3, which is acquired by a device.
(Appendix 6)
4. The image processing program according to any one of appendices 1 to 3, wherein the computer causes the terminal device to acquire the second image by transmitting the second image to the terminal device.
(Appendix 7)
A storage unit that stores a plurality of images and the shooting conditions of the plurality of images in association with each other;
A control unit that specifies, from the plurality of images, a second image associated with a shooting condition similar to the shooting condition of the first image shot by the terminal device, and causes the terminal device to acquire the second image.
A receiving unit that receives difference information indicating a difference between the first image and the second image from the terminal device;
A restoration unit that restores the first image using the second image and the difference information;
An image processing apparatus comprising:
(Appendix 8)
The shooting condition is information indicating a shooting time, a position of the terminal device, a direction of the imaging device, or an angle of view of the imaging device,
The control unit compares a shooting condition of the first image with a shooting condition of each of the plurality of images, and determines a difference between the shooting condition of the first image and a shooting condition of a specific image of the plurality of images. The image processing apparatus according to appendix 7, wherein the specific image is used as the second image when is within a predetermined range.
(Appendix 9)
The receiving unit receives a parameter of a matching process that minimizes a difference between the first image and the second image from the terminal device, and the restoring unit receives the second image based on the received parameter. 9. The image processing apparatus according to appendix 7 or 8, wherein the first image is restored by using the converted second image and the difference information after the conversion.
(Appendix 10)
The control unit specifies, from the plurality of images stored in the storage unit, a plurality of candidate images associated with a shooting condition similar to the shooting condition of the first image, and selects the plurality of candidate images. Causing the terminal device to acquire, the receiving unit receives from the terminal device identification information indicating the second image selected from the plurality of candidate images by the terminal device, and the restoring unit, 10. The first image is restored using the second image indicated by the received identification information among the plurality of images stored in the storage unit, according to any one of appendices 7 to 9. Image processing device.
(Appendix 11)
The control unit instructs another terminal device, which stores the second image, to transmit the second image to the terminal device that has captured the first image, thereby causing the second image to be transmitted. The image processing device according to any one of appendices 7 to 9, wherein the image processing device is acquired by a terminal device.
(Appendix 12)
10. The image processing apparatus according to any one of appendices 7 to 9, wherein the control unit causes the terminal device to acquire the second image by transmitting the second image to the terminal device. ..
(Appendix 13)
An image processing system comprising a terminal device and an image processing device,
The terminal device captures a first image, transmits the capturing condition of the first image to the image processing device,
The image processing device,
A storage unit that stores a plurality of images and the shooting conditions of the plurality of images in association with each other;
A control unit that specifies a second image associated with a shooting condition similar to the shooting condition of the first image from the plurality of images and causes the terminal device to acquire the second image;
A receiver for receiving difference information indicating a difference between the first image and the second image from the terminal device;
A restoring unit that restores the first image using the second image and the difference information,
An image processing system characterized by the above.
(Appendix 14)
An image processing method executed by a computer, comprising:
The computer is
A second image associated with a shooting condition similar to the shooting condition of the first image captured by the terminal device is specified from the plurality of images stored in the storage unit in association with the shooting condition,
Causing the terminal device to acquire the second image,
Receiving difference information indicating a difference between the first image and the second image from the terminal device,
Restore the first image using the second image and the difference information,
An image processing method characterized by the above.

101 携帯端末装置
102、403 サーバ
103 通信ネットワーク
111、701 画像
201、401 画像処理装置
211、411、421 記憶部
212 受信部
213、413 制御部
214、414 復元部
402−1〜402−N 端末装置
412、415、424 通信部
422 撮像装置
423 処理部
431 参照画像情報
432 差分情報
702 参照画像
1201 CPU
1202 メモリ
1203 入力装置
1204 出力装置
1205 補助記憶装置
1206 媒体駆動装置
1207、1208 通信装置
1209 バス
1210 可搬型記録媒体
101 mobile terminal device 102, 403 server 103 communication network 111, 701 image 201, 401 image processing device 211, 411, 421 storage unit 212 receiving unit 213, 413 control unit 214, 414 restoring unit 402-1 to 402-N terminal device 412, 415, 424 Communication unit 422 Imaging device 423 Processing unit 431 Reference image information 432 Difference information 702 Reference image 1201 CPU
1202 Memory 1203 Input Device 1204 Output Device 1205 Auxiliary Storage Device 1206 Medium Drive Device 1207, 1208 Communication Device 1209 Bus 1210 Portable Recording Medium

Claims (8)

撮影条件に関連付けて記憶部に記憶されている複数の画像の中から、端末装置が撮影した第1画像の撮影条件と類似する撮影条件に関連付けられた第2画像を特定し、
前記第2画像を前記端末装置に取得させ、
前記第1画像と前記第2画像との差分を示す差分情報を、前記端末装置から受信し、
前記第2画像と前記差分情報とを用いて、前記第1画像を復元する、
処理をコンピュータに実行させるための画像処理プログラム。
A second image associated with a shooting condition similar to the shooting condition of the first image shot by the terminal device is specified from among the plurality of images stored in the storage unit in association with the shooting condition,
Causing the terminal device to acquire the second image,
Receiving difference information indicating a difference between the first image and the second image from the terminal device,
Restore the first image using the second image and the difference information,
An image processing program that causes a computer to execute processing.
前記撮影条件は、撮影時刻、端末装置の位置、撮像装置の方向、又は撮像装置の画角を示す情報であり、
前記コンピュータは、前記第1画像の撮影条件と、前記複数の画像それぞれの撮影条件とを比較し、前記第1画像の撮影条件と前記複数の画像のうち特定の画像の撮影条件との差分が所定範囲内である場合、前記特定の画像を前記第2画像として用いることを特徴とする請求項1記載の画像処理プログラム。
The shooting condition is information indicating a shooting time, a position of the terminal device, a direction of the imaging device, or an angle of view of the imaging device,
The computer compares a shooting condition of the first image with a shooting condition of each of the plurality of images, and determines a difference between the shooting condition of the first image and a shooting condition of a specific image of the plurality of images. The image processing program according to claim 1, wherein the specific image is used as the second image when it is within a predetermined range.
前記コンピュータは、前記第1画像と前記第2画像との差分を最小化するマッチング処理のパラメータを、前記端末装置から受信し、受信したパラメータに基づいて前記第2画像を変換し、変換後の前記第2画像と前記差分情報とを用いて、前記第1画像を復元することを特徴とする請求項1又は2記載の画像処理プログラム。   The computer receives a parameter of a matching process that minimizes a difference between the first image and the second image from the terminal device, converts the second image based on the received parameter, and converts the second image. The image processing program according to claim 1 or 2, wherein the first image is restored using the second image and the difference information. 前記コンピュータは、前記記憶部に記憶されている複数の画像の中から、前記第1画像の撮影条件と類似する撮影条件に関連付けられた複数の候補画像を特定し、前記複数の候補画像を前記端末装置に取得させ、前記端末装置によって前記複数の候補画像の中から選択された前記第2画像を示す識別情報を、前記端末装置から受信し、前記記憶部に記憶されている複数の画像のうち、受信した識別情報が示す前記第2画像を用いて、前記第1画像を復元することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理プログラム。   The computer specifies a plurality of candidate images associated with a shooting condition similar to the shooting condition of the first image from among the plurality of images stored in the storage unit, and selects the plurality of candidate images from the plurality of images. The identification information indicating the second image selected from the plurality of candidate images by the terminal device and received by the terminal device is received from the terminal device, and the identification information of the plurality of images stored in the storage unit is received. The image processing program according to claim 1, wherein the first image is restored using the second image indicated by the received identification information. 前記コンピュータは、前記第2画像を記憶する別の端末装置に対して、前記第1画像を撮影した端末装置へ前記第2画像を送信するように指示することで、前記第2画像を前記端末装置に取得させることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理プログラム。   The computer instructs another terminal device, which stores the second image, to transmit the second image to the terminal device that has photographed the first image, so that the second image is transmitted to the terminal device. The image processing program according to claim 1, wherein the image processing program is acquired by a device. 複数の画像と前記複数の画像それぞれの撮影条件とを関連付けて記憶する記憶部と、
前記複数の画像の中から、端末装置が撮影した第1画像の撮影条件と類似する撮影条件に関連付けられた第2画像を特定し、前記第2画像を前記端末装置に取得させる制御部と、
前記第1画像と前記第2画像との差分を示す差分情報を、前記端末装置から受信する受信部と、
前記第2画像と前記差分情報とを用いて、前記第1画像を復元する復元部と、
を備えることを特徴とする画像処理装置。
A storage unit that stores a plurality of images and the shooting conditions of the plurality of images in association with each other;
A control unit that specifies, from the plurality of images, a second image associated with a shooting condition similar to the shooting condition of the first image shot by the terminal device, and causes the terminal device to acquire the second image.
A receiving unit that receives difference information indicating a difference between the first image and the second image from the terminal device;
A restoration unit that restores the first image using the second image and the difference information;
An image processing apparatus comprising:
端末装置と画像処理装置とを備える画像処理システムであって、
前記端末装置は、第1画像を撮影して、前記第1画像の撮影条件を前記画像処理装置へ送信し、
前記画像処理装置は、
複数の画像と前記複数の画像それぞれの撮影条件とを関連付けて記憶する記憶部と、
前記複数の画像の中から、前記第1画像の撮影条件と類似する撮影条件に関連付けられた第2画像を特定し、前記第2画像を前記端末装置に取得させる制御部と、
前記第1画像と前記第2画像との差分を示す差分情報を、前記端末装置から受信する受信部と、
前記第2画像と前記差分情報とを用いて、前記第1画像を復元する復元部とを含む、
ことを特徴とする画像処理システム。
An image processing system comprising a terminal device and an image processing device,
The terminal device captures a first image, transmits the capturing condition of the first image to the image processing device,
The image processing device,
A storage unit that stores a plurality of images and the shooting conditions of the plurality of images in association with each other;
A control unit that specifies a second image associated with a shooting condition similar to the shooting condition of the first image from the plurality of images, and causes the terminal device to acquire the second image,
A receiving unit that receives difference information indicating a difference between the first image and the second image from the terminal device;
A restoring unit that restores the first image using the second image and the difference information,
An image processing system characterized by the above.
コンピュータにより実行される画像処理方法であって、
前記コンピュータが、
撮影条件に関連付けて記憶部に記憶されている複数の画像の中から、端末装置が撮影した第1画像の撮影条件と類似する撮影条件に関連付けられた第2画像を特定し、
前記第2画像を前記端末装置に取得させ、
前記第1画像と前記第2画像との差分を示す差分情報を、前記端末装置から受信し、
前記第2画像と前記差分情報とを用いて、前記第1画像を復元する、
ことを特徴とする画像処理方法。
An image processing method executed by a computer, comprising:
The computer is
A second image associated with a shooting condition similar to the shooting condition of the first image shot by the terminal device is specified from among the plurality of images stored in the storage unit in association with the shooting condition,
Causing the terminal device to acquire the second image,
Receiving difference information indicating a difference between the first image and the second image from the terminal device,
Restore the first image using the second image and the difference information,
An image processing method characterized by the above.
JP2018209757A 2018-11-07 2018-11-07 Image processing program, image processing apparatus, image processing system, and image processing method Active JP7142543B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018209757A JP7142543B2 (en) 2018-11-07 2018-11-07 Image processing program, image processing apparatus, image processing system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018209757A JP7142543B2 (en) 2018-11-07 2018-11-07 Image processing program, image processing apparatus, image processing system, and image processing method

Publications (2)

Publication Number Publication Date
JP2020077965A true JP2020077965A (en) 2020-05-21
JP7142543B2 JP7142543B2 (en) 2022-09-27

Family

ID=70724474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018209757A Active JP7142543B2 (en) 2018-11-07 2018-11-07 Image processing program, image processing apparatus, image processing system, and image processing method

Country Status (1)

Country Link
JP (1) JP7142543B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004147298A (en) * 2002-09-30 2004-05-20 Fuji Photo Film Co Ltd Photography system
JP2011078056A (en) * 2009-10-02 2011-04-14 Nikon Corp Camera
WO2013031785A1 (en) * 2011-09-01 2013-03-07 日本電気株式会社 Captured image compression and transmission method and captured image compression and transmission system
WO2014002565A1 (en) * 2012-06-26 2014-01-03 ソニー株式会社 Imaging control device, storage system, and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004147298A (en) * 2002-09-30 2004-05-20 Fuji Photo Film Co Ltd Photography system
JP2011078056A (en) * 2009-10-02 2011-04-14 Nikon Corp Camera
WO2013031785A1 (en) * 2011-09-01 2013-03-07 日本電気株式会社 Captured image compression and transmission method and captured image compression and transmission system
WO2014002565A1 (en) * 2012-06-26 2014-01-03 ソニー株式会社 Imaging control device, storage system, and storage medium

Also Published As

Publication number Publication date
JP7142543B2 (en) 2022-09-27

Similar Documents

Publication Publication Date Title
CN107534789B (en) Image synchronization device and image synchronization method
JP6607433B2 (en) Video distribution method and server
JP5965708B2 (en) Wireless communication device, memory device, wireless communication system, wireless communication method, and program
US11089214B2 (en) Generating output video from video streams
US10582211B2 (en) Neural network to optimize video stabilization parameters
KR101335617B1 (en) Method and device for implementing augmented reality in mobile environment
KR102072014B1 (en) Method and Apparatus for Using Image Stabilization
WO2013070461A1 (en) Wireless camera with image sharing route prioritization
CN104918027B (en) For generating method, electronic device and the server of digital processing picture
WO2015159487A1 (en) Image delivery method, image reception method, server, terminal apparatus, and image delivery system
JP6650936B2 (en) Camera control and image streaming
KR20050094041A (en) Adding metadata to pictures
US20140111611A1 (en) Method and system for encoding multi-view video content
US8625933B2 (en) Image processing apparatus and method for the same
WO2011104698A2 (en) Method and apparatus providing for control of a content capturing device with a requesting device to thereby capture a desired content segment
JP7142543B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
WO2015194082A1 (en) Image processing method and image processing system
JP4307932B2 (en) Shooting system
CN108369730B (en) Method and apparatus for refocusing at least one panoramic video
WO2019026985A1 (en) Analyzer, analysis system, analysis method, and program storage medium
US11153507B2 (en) Image processing apparatus, image processing method, image providing system, and non-transitory computer-readable recording medium storing image processing program
JP6625341B2 (en) Video search device, video search method, and program
JP2013073309A (en) Method for extracting region of interest from image, and electronic apparatus, system and program for achieving the same method
JP2014165639A (en) Information terminal device, communication system, and method
KR102250873B1 (en) System and method for transmitting external image in security environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220913

R150 Certificate of patent or registration of utility model

Ref document number: 7142543

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150