JPWO2020044646A1 - Image processing equipment, image processing methods and programs - Google Patents

Image processing equipment, image processing methods and programs Download PDF

Info

Publication number
JPWO2020044646A1
JPWO2020044646A1 JP2020540045A JP2020540045A JPWO2020044646A1 JP WO2020044646 A1 JPWO2020044646 A1 JP WO2020044646A1 JP 2020540045 A JP2020540045 A JP 2020540045A JP 2020540045 A JP2020540045 A JP 2020540045A JP WO2020044646 A1 JPWO2020044646 A1 JP WO2020044646A1
Authority
JP
Japan
Prior art keywords
data
shooting
image processing
processing device
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020540045A
Other languages
Japanese (ja)
Inventor
靖 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020044646A1 publication Critical patent/JPWO2020044646A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Studio Devices (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本発明は、移動体に取り付けられ、移動体の外部を撮影する撮影部(11)と、撮影部(11)が生成した撮影データを解析し、撮影データに映った物体の属性データを生成する解析部(12)と、属性データで特定される物体を撮影データのインデックスデータとして登録する登録部(13)と、所定の条件に合った物体が映っている撮影データのリクエストを取得するリクエスト取得部(15)と、所定の条件に合った物体がインデックスデータに登録されているか判定する判定部(16)と、所定の条件に合った物体がインデックスデータに登録されていると判定された場合、撮影データの少なくとも一部を外部装置に送信する送信部(17)と、を有する画像処理装置(10)を提供する。The present invention analyzes the photographing unit (11) attached to the moving body and photographs the outside of the moving object and the photographing data generated by the photographing unit (11), and generates the attribute data of the object reflected in the photographing data. The analysis unit (12), the registration unit (13) that registers the object specified by the attribute data as the index data of the shooting data, and the request acquisition of the shooting data that shows the object that meets the predetermined conditions. Unit (15), a determination unit (16) for determining whether an object satisfying a predetermined condition is registered in the index data, and a case where it is determined that an object satisfying a predetermined condition is registered in the index data. Provided is an image processing device (10) including a transmission unit (17) for transmitting at least a part of shooting data to an external device.

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method and a program.

監視カメラを各所に設置することで、各所で発生した事件、事故等のイベントや、各所を通過する移動体、人、動物等を記録し、確認することができる。しかし、多数の監視カメラの設置や設置後のメンテナンスには膨大な費用が必要となる。当該課題を解決する手段が、特許文献1に開示されている。 By installing surveillance cameras in various places, it is possible to record and check events such as incidents and accidents that have occurred in various places, as well as moving objects, people, animals, etc. that pass through each place. However, installation of a large number of surveillance cameras and maintenance after installation requires enormous costs. A means for solving the problem is disclosed in Patent Document 1.

特許文献1には、車に取り付けられる画像記録装置であって、画像を取得する画像取得手段と、取得した画像を符号化する画像符号化手段と、画像取得時の位置及び時刻を算出して位置情報及び時刻情報を生成する生成手段と、符号化された画像を位置情報及び時刻情報と関連付けて記録媒体に記録する記録手段と、記録手段で記録された画像の中から、画像に関連付けされた位置情報や時刻情報に基づいて画像を抽出する抽出手段と、抽出された画像を外部へ出力する出力手段と、を有する画像記録装置が開示されている。 Patent Document 1 describes an image recording device attached to a car, which calculates an image acquisition means for acquiring an image, an image coding means for encoding the acquired image, and a position and time at the time of image acquisition. A generation means for generating position information and time information, a recording means for recording an encoded image on a recording medium in association with the position information and time information, and an image recorded by the recording means, which is associated with an image. An image recording device including an extraction means for extracting an image based on position information and time information and an output means for outputting the extracted image to the outside is disclosed.

特開2010−158038号公報JP-A-2010-158038

しかし、位置情報及び時刻情報のみに基づき画像を抽出する特許文献1に記載の装置の場合、抽出する画像の絞り込みが不十分となる。この場合、多数の画像が抽出され、多数の画像が外部へ送信されることとなり、通信負担が大きくなる。 However, in the case of the device described in Patent Document 1 that extracts an image based only on the position information and the time information, the narrowing down of the extracted image is insufficient. In this case, a large number of images are extracted and a large number of images are transmitted to the outside, which increases the communication load.

本発明は、移動体に取り付けられた撮影手段が生成した所定の画像を外部に送信するシステムにおいて、通信負担を軽減することを課題とする。 An object of the present invention is to reduce a communication load in a system for transmitting a predetermined image generated by a photographing means attached to a moving body to the outside.

本発明によれば、
移動体に取り付けられ、前記移動体の外部を撮影する撮影手段と、
前記撮影手段が生成した撮影データを解析し、前記撮影データに映った物体の属性データを生成する解析手段と、
前記属性データで特定される物体を前記撮影データのインデックスデータとして登録する登録手段と、
所定の条件に合った物体が映っている前記撮影データのリクエストを取得するリクエスト取得手段と、
前記所定の条件に合った物体が前記インデックスデータに登録されているか判定する判定手段と、
前記所定の条件に合った物体が前記インデックスデータに登録されていると判定された場合、前記撮影データの少なくとも一部を外部装置に送信する送信手段と、
を有する画像処理装置が提供される。
According to the present invention
A photographing means attached to a moving body and photographing the outside of the moving body, and
An analysis means that analyzes the shooting data generated by the shooting means and generates attribute data of an object reflected in the shooting data.
A registration means for registering an object specified by the attribute data as index data of the shooting data, and
A request acquisition means for acquiring a request for the shooting data showing an object that meets a predetermined condition, and
A determination means for determining whether an object satisfying the predetermined conditions is registered in the index data, and
When it is determined that an object satisfying the predetermined conditions is registered in the index data, a transmission means for transmitting at least a part of the shooting data to an external device and a transmission means.
An image processing apparatus having the above is provided.

また、本発明によれば、
コンピュータが、
移動体に取り付けられ、前記移動体の外部を撮影する撮影工程と、
前記撮影工程で生成した撮影データを解析し、前記撮影データに映った物体の属性データを生成する解析工程と、
前記属性データで特定される物体を前記撮影データのインデックスデータとして登録する登録工程と、
所定の条件に合った物体が映っている前記撮影データのリクエストを取得するリクエスト取得工程と、
前記所定の条件に合った物体が前記インデックスデータに登録されているか判定する判定工程と、
前記所定の条件に合った物体が前記インデックスデータに登録されていると判定された場合、前記撮影データの少なくとも一部を外部装置に送信する送信工程と、
を実行する画像処理方法が提供される。
Further, according to the present invention.
The computer
A shooting process that is attached to a moving body and photographs the outside of the moving body,
An analysis step of analyzing the shooting data generated in the shooting process and generating attribute data of the object reflected in the shooting data,
A registration process for registering an object specified by the attribute data as index data of the shooting data, and
A request acquisition process for acquiring a request for the shooting data showing an object that meets a predetermined condition, and
A determination step of determining whether an object that meets the predetermined conditions is registered in the index data, and
When it is determined that an object that meets the predetermined conditions is registered in the index data, a transmission step of transmitting at least a part of the shooting data to an external device and a transmission step.
An image processing method for executing is provided.

また、本発明によれば、
コンピュータを、
移動体に取り付けられ、前記移動体の外部を撮影する撮影手段、
前記撮影手段が生成した撮影データを解析し、前記撮影データに映った物体の属性データを生成する解析手段、
前記属性データで特定される物体を前記撮影データのインデックスデータとして登録する登録手段、
所定の条件に合った物体が映っている前記撮影データのリクエストを取得するリクエスト取得手段、
前記所定の条件に合った物体が前記インデックスデータに登録されているか判定する判定手段、
前記所定の条件に合った物体が前記インデックスデータに登録されていると判定された場合、前記撮影データの少なくとも一部を外部装置に送信する送信手段、
として機能させるプログラムが提供される。
Further, according to the present invention.
Computer,
A photographing means attached to a moving body and photographing the outside of the moving body,
An analysis means that analyzes the shooting data generated by the shooting means and generates attribute data of an object reflected in the shooting data.
A registration means for registering an object specified by the attribute data as index data of the shooting data,
A request acquisition means for acquiring a request for the shooting data showing an object that meets a predetermined condition,
A determination means for determining whether an object satisfying the predetermined conditions is registered in the index data,
A transmission means for transmitting at least a part of the shooting data to an external device when it is determined that an object satisfying the predetermined conditions is registered in the index data.
A program is provided that functions as.

本発明によれば、移動体に取り付けられた撮影手段が撮影した所定の画像を外部に送信するシステムにおいて、通信負担を軽減することができる。 According to the present invention, it is possible to reduce the communication load in a system for transmitting a predetermined image taken by a photographing means attached to a moving body to the outside.

上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。 The above-mentioned objectives and other objectives, features and advantages will be further clarified by the preferred embodiments described below and the accompanying drawings below.

本実施形態の画像処理システムの機能ブロック図の一例である。This is an example of a functional block diagram of the image processing system of the present embodiment. 本実施形態の画像処理装置10の実現例を示す図である。It is a figure which shows the realization example of the image processing apparatus 10 of this embodiment. 本実施形態の画像処理装置10の実現例を示す図である。It is a figure which shows the realization example of the image processing apparatus 10 of this embodiment. 本実施形態の画像処理装置10の実現例を示す図である。It is a figure which shows the realization example of the image processing apparatus 10 of this embodiment. 本実施形態の画像処理装置10のハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the image processing apparatus 10 of this embodiment. 本実施形態の画像処理装置10の機能ブロック図の一例である。This is an example of a functional block diagram of the image processing device 10 of the present embodiment. 本実施形態の画像処理装置10が処理する情報の一例を模式的に示す図である。It is a figure which shows typically an example of the information processed by the image processing apparatus 10 of this embodiment. 本実施形態の画像処理システムの処理の流れの一例を示すシーケンス図である。It is a sequence diagram which shows an example of the processing flow of the image processing system of this embodiment. 本実施形態の画像処理装置10の処理の流れの一例を示すフロー図である。It is a flow chart which shows an example of the processing flow of the image processing apparatus 10 of this embodiment. 本実施形態の撮影部11の機能ブロック図の一例である。This is an example of a functional block diagram of the photographing unit 11 of the present embodiment. 本実施形態の画像処理装置10が処理する情報の一例を模式的に示す図である。It is a figure which shows typically an example of the information processed by the image processing apparatus 10 of this embodiment. 本実施形態の画像処理装置10の処理の一例を説明するための図である。It is a figure for demonstrating an example of processing of the image processing apparatus 10 of this embodiment.

<第1の実施形態>
「画像処理システムの全体像及び概要」
まず、図1を用いて、本実施形態の画像処理システムの全体像を説明する。図1に示すように、画像処理システムは、複数の画像処理装置10と、リクエスト装置20とを有する。複数の画像処理装置10各々と、リクエスト装置20とは互いに通信可能に構成される。
<First Embodiment>
"Overview and overview of image processing system"
First, the overall picture of the image processing system of the present embodiment will be described with reference to FIG. As shown in FIG. 1, the image processing system includes a plurality of image processing devices 10 and a request device 20. Each of the plurality of image processing devices 10 and the request device 20 are configured to be communicable with each other.

複数の画像処理装置10は、各々異なる移動体に取り付けて利用される。移動体は、地上、地中、水上、水中又は空中を移動可能に構成される物体であり、例えば、自動車、自動二輪車、自転車、電車、船、飛行機、無人航空機等が例示されるが、これらに限定されない。 The plurality of image processing devices 10 are used by being attached to different moving bodies. A moving body is an object configured to be movable on the ground, in the ground, on the water, in the water, or in the air, and examples thereof include automobiles, motorcycles, bicycles, trains, ships, airplanes, and unmanned aerial vehicles. Not limited to.

例えば、画像処理装置10は、図2に示すように移動体搭載装置1であってもよい。移動体搭載装置1は、移動体に搭載され、基本的には移動体の所定位置に常時取り付けられる装置である。 For example, the image processing device 10 may be a moving body mounting device 1 as shown in FIG. The mobile body mounting device 1 is a device that is mounted on the moving body and is basically always mounted at a predetermined position of the moving body.

その他の例として、画像処理装置10は、図3に示すように可搬型装置2であってもよい。可搬型装置2の例として、スマートフォン、タブレット端末、携帯電話等が例示されるが、これらに限定されない。例えば可搬型装置2の所有者が移動体で移動する際に、可搬型装置2は移動体の内部に持ち込まれ、移動体の所定位置に取り付けられる。 As another example, the image processing device 10 may be a portable device 2 as shown in FIG. Examples of the portable device 2 include, but are not limited to, smartphones, tablet terminals, mobile phones, and the like. For example, when the owner of the portable device 2 moves with the moving body, the portable device 2 is brought into the moving body and attached to a predetermined position of the moving body.

その他の例として、画像処理装置10は、図4に示すように移動体搭載装置1と可搬型装置2とが連動することで実現されてもよい。移動体搭載装置1は、移動体に搭載され、基本的には移動体の所定位置に常時取り付けられる。可搬型装置2は、可搬型装置2の所有者が移動体で移動する際に移動体の内部に持ち込まれ、移動体の所定位置に取り付けられる。そして、移動体搭載装置1と可搬型装置2とは有線及び/又は無線で接続され、互いに連動して所定の処理を実行する。 As another example, the image processing device 10 may be realized by interlocking the moving body mounting device 1 and the portable device 2 as shown in FIG. The mobile body mounting device 1 is mounted on the moving body and is basically always mounted at a predetermined position of the moving body. The portable device 2 is brought into the moving body when the owner of the portable device 2 moves by the moving body, and is attached to a predetermined position of the moving body. Then, the mobile device 1 and the portable device 2 are connected by wire and / or wirelessly, and perform a predetermined process in conjunction with each other.

画像処理装置10は、移動体に取り付けられ、移動体の外部を撮影する手段と、撮影データを解析し、撮影データに映った物体の属性データを生成する手段と、属性データで特定される物体を撮影データのインデックスデータとして登録する手段とを有する。 The image processing device 10 is attached to a moving body, means for photographing the outside of the moving body, means for analyzing shooting data and generating attribute data of an object reflected in the shooting data, and an object specified by the attribute data. Has a means for registering as index data of shooting data.

また、画像処理装置10は、所定の条件に合った物体が映っている撮影データのリクエストを取得する手段と、所定の条件に合った物体がインデックスデータに登録されているか判定する手段と、所定の条件に合った物体がインデックスデータに登録されていると判定された場合、撮影データの少なくとも一部をリクエスト装置20(外部装置)に送信する手段とを有する。リクエスト端末20に撮影データを送信するタイミングは、例えば、ユーザが撮影データの送信を許諾するために画像処理装置10を操作したタイミング等が例示されるが、これに限定されない。 Further, the image processing device 10 is predetermined as a means for acquiring a request for shooting data in which an object satisfying a predetermined condition is shown, a means for determining whether or not an object satisfying the predetermined condition is registered in the index data, and a predetermined means. When it is determined that an object satisfying the above conditions is registered in the index data, it has a means for transmitting at least a part of the photographing data to the request device 20 (external device). The timing of transmitting the shooting data to the request terminal 20 is, for example, the timing when the user operates the image processing device 10 to permit the transmission of the shooting data, and the like, but the timing is not limited to this.

このような画像処理装置10によれば、移動体に取り付けられた撮影手段が生成した撮影データの中から、所定の物体が映っている撮影データを抽出し、リクエスト装置20に送信することができる。撮影データに所定の物体が映っているか否かで撮影データを十分に絞り込むことができるので、画像処理装置10は、リクエストに応じてリクエスト装置20に送信する撮影データを減らすことができる。結果、画像処理装置10とリクエスト装置20との間の通信負担を軽減することができる。 According to such an image processing device 10, it is possible to extract the shooting data showing a predetermined object from the shooting data generated by the shooting means attached to the moving body and transmit it to the request device 20. .. Since the shooting data can be sufficiently narrowed down depending on whether or not a predetermined object is reflected in the shooting data, the image processing device 10 can reduce the shooting data transmitted to the request device 20 in response to the request. As a result, the communication load between the image processing device 10 and the request device 20 can be reduced.

「画像処理装置10の構成」
次に、画像処理装置10の構成を詳細に説明する。まず、画像処理装置10のハードウエア構成の一例について説明する。本実施形態の画像処理装置10が備える各機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
"Configuration of image processing device 10"
Next, the configuration of the image processing device 10 will be described in detail. First, an example of the hardware configuration of the image processing device 10 will be described. Each functional unit included in the image processing device 10 of the present embodiment includes a CPU (Central Processing Unit) of an arbitrary computer, a memory, a program loaded into the memory, and a storage unit such as a hard disk for storing the program (the device is shipped in advance). In addition to programs stored from the stage of operation, programs downloaded from storage media such as CDs (Compact Discs) and servers on the Internet can also be stored), hardware and software centered on network connection interfaces. It is realized by any combination. And, it is understood by those skilled in the art that there are various modifications of the realization method and the device.

図5は、本実施形態の画像処理装置10のハードウエア構成を例示するブロック図である。図5に示すように、画像処理装置10は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。画像処理装置10は周辺回路4Aを有さなくてもよい。なお、画像処理装置10は物理的に分かれた複数の装置で構成されてもよい。この場合、複数の装置各々が上記ハードウエア構成を備えることができる。 FIG. 5 is a block diagram illustrating a hardware configuration of the image processing device 10 of the present embodiment. As shown in FIG. 5, the image processing device 10 includes a processor 1A, a memory 2A, an input / output interface 3A, a peripheral circuit 4A, and a bus 5A. The peripheral circuit 4A includes various modules. The image processing device 10 does not have to have the peripheral circuit 4A. The image processing device 10 may be composed of a plurality of physically separated devices. In this case, each of the plurality of devices can be provided with the above hardware configuration.

バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサ、カメラ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。入力装置は、例えばキーボード、マウス、マイク等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。 The bus 5A is a data transmission path for the processor 1A, the memory 2A, the peripheral circuit 4A, and the input / output interface 3A to transmit and receive data to and from each other. The processor 1A is, for example, an arithmetic processing unit such as a CPU or a GPU (Graphics Processing Unit). The memory 2A is, for example, a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory). The input / output interface 3A includes an interface for acquiring information from an input device, an external device, an external server, an external sensor, a camera, etc., an interface for outputting information to an output device, an external device, an external server, etc. .. The input device is, for example, a keyboard, a mouse, a microphone, or the like. The output device is, for example, a display, a speaker, a printer, a mailer, or the like. The processor 1A can issue commands to each module and perform calculations based on the calculation results thereof.

図6に、画像処理装置10の機能ブロック図の一例を示す。図示するように、画像処理装置10は、撮影部11と、解析部12と、登録部13と、データ記憶部14と、リクエスト取得部15と、判定部16と、送信部17とを有する。なお、画像処理装置10は、データ記憶部14を有さなくてもよい。この場合、画像処理装置10と通信可能に構成された外部装置がデータ記憶部14を有する。 FIG. 6 shows an example of a functional block diagram of the image processing device 10. As shown in the figure, the image processing device 10 includes a photographing unit 11, an analysis unit 12, a registration unit 13, a data storage unit 14, a request acquisition unit 15, a determination unit 16, and a transmission unit 17. The image processing device 10 does not have to have the data storage unit 14. In this case, an external device configured to be able to communicate with the image processing device 10 has a data storage unit 14.

撮影部11は、移動体に取り付けられ、移動体の外部を撮影する。移動体の定義は上述の通りであるので、ここでの説明は省略する。撮影部11は、動画データを生成してもよいし、定期的又は不定期に静止画データを撮影してもよい。 The photographing unit 11 is attached to the moving body and photographs the outside of the moving body. Since the definition of the moving body is as described above, the description here will be omitted. The photographing unit 11 may generate moving image data, or may photograph still image data periodically or irregularly.

解析部12は、撮影部11が生成した撮影データ(動画データ、静止画データ等)を解析し、撮影データに映った物体の属性データを生成する。 The analysis unit 12 analyzes the shooting data (moving image data, still image data, etc.) generated by the shooting unit 11 and generates the attribute data of the object reflected in the shooting data.

撮影部11が動画データを生成する場合、解析部12は、動画データに含まれる複数のフレームデータの全てを解析対象としてもよいし、一部のフレームデータ例えば所定フレーム数おきのフレームデータを解析対象としてもよい。撮影部11が静止画データを生成する場合、解析部12は、全ての静止画データを解析対象としてもよい。 When the shooting unit 11 generates moving image data, the analysis unit 12 may analyze all of a plurality of frame data included in the moving image data, or analyze some frame data, for example, frame data every predetermined number of frames. It may be a target. When the photographing unit 11 generates still image data, the analysis unit 12 may analyze all the still image data.

ここで、解析部12が解析対象のデータに対して行う処理の内容を説明する。まず、解析部12は、画像に映っている物体を抽出する。画像に複数の物体が映っている場合、解析部12は複数の物体を抽出することができる。物体抽出は、例えば、輪郭抽出処理、テンプレートマッチング処理等を利用して実現できるが、その実現手段は制限されない。画像から抽出する物体は、人物、その他の動物、移動体、発光物体等が例示されるが、これらに限定されない。 Here, the content of the processing performed by the analysis unit 12 on the data to be analyzed will be described. First, the analysis unit 12 extracts the object shown in the image. When a plurality of objects are shown in the image, the analysis unit 12 can extract the plurality of objects. Object extraction can be realized by using, for example, contour extraction processing, template matching processing, and the like, but the means for realizing the object extraction is not limited. Examples of the object extracted from the image include, but are not limited to, a person, other animals, a moving object, a luminescent object, and the like.

画像から物体を抽出した後、解析部12は、抽出した物体各々の外観の特徴を示す属性データを生成する。解析部12は、各種物体に応じて予め定められたルールに従い画像を解析し、抽出した物体の属性データを生成する。 After extracting the object from the image, the analysis unit 12 generates attribute data indicating the appearance characteristics of each of the extracted objects. The analysis unit 12 analyzes the image according to a predetermined rule according to various objects, and generates attribute data of the extracted object.

例えば、抽出した物体が人物である場合、解析部12は、人物の顔を検出し、顔の外観の特徴から性別や年齢等を示す属性データを生成してもよい。また、解析部12は顔への装着物(例:眼鏡、サングラス、マスク等)の有無を示す属性データを生成してもよい。その他、解析部12は、人物の衣服の特徴(例:上半身及び下半身の衣服の色、形状等)を示す属性データを生成してもよい。その他、解析部12は、人物の体型(例:普通、細め、太め)や身長等の属性データを生成してもよい。その他、解析部12は、予め保持している複数の人物各々の外観の特徴を示す参照データと、画像に映る人物の外観の特徴とを照合することで、画像に映る人物が誰であるかを特定し、その人物を識別する属性データを生成してもよい。 For example, when the extracted object is a person, the analysis unit 12 may detect the face of the person and generate attribute data indicating gender, age, or the like from the features of the appearance of the face. In addition, the analysis unit 12 may generate attribute data indicating the presence or absence of an object attached to the face (eg, glasses, sunglasses, mask, etc.). In addition, the analysis unit 12 may generate attribute data indicating the characteristics of the clothes of the person (eg, the color, shape, etc. of the clothes of the upper body and the lower body). In addition, the analysis unit 12 may generate attribute data such as a person's body shape (eg, normal, thin, thick) and height. In addition, the analysis unit 12 collates the reference data indicating the appearance characteristics of each of the plurality of persons held in advance with the appearance characteristics of the person appearing in the image to determine who is the person appearing in the image. May be specified and attribute data that identifies the person may be generated.

また、抽出した物体が移動体である場合、解析部12は、移動体の種類、車種、メーカ、移動体の色、ナンバープレートに記載された情報、乗員人数等を示す属性データを生成してもよい。 When the extracted object is a moving object, the analysis unit 12 generates attribute data indicating the type of the moving object, the vehicle type, the manufacturer, the color of the moving object, the information written on the license plate, the number of occupants, and the like. May be good.

また、抽出した物体が人以外の動物である場合、解析部12は、動物の種類や、身体の色等を示す属性データを生成してもよい。 When the extracted object is an animal other than a human, the analysis unit 12 may generate attribute data indicating the type of the animal, the color of the body, and the like.

また、抽出した物体が発光物体である場合、解析部12は、その物体の形状、色、大きさ、光を発していること等を示す属性データを生成してもよい。 When the extracted object is a light emitting object, the analysis unit 12 may generate attribute data indicating the shape, color, size, light emission, and the like of the object.

解析部12は、あらゆる画像解析技術を利用して画像を解析することで、上述のような属性データを生成することができる。 The analysis unit 12 can generate the attribute data as described above by analyzing the image using any image analysis technique.

登録部13は、解析部12が生成した属性データで特定される物体を、撮影データのインデックスデータとして登録する。 The registration unit 13 registers an object specified by the attribute data generated by the analysis unit 12 as index data of shooting data.

図7に、インデックスデータの一例を模式的に示す。図示する例では、画像ID(identifier)と、属性データで特定される物体とが互いに対応付けて登録されている。画像IDは、解析部12が解析対象とした画像各々を識別する情報である。 FIG. 7 schematically shows an example of index data. In the illustrated example, the image ID (identifier) and the object specified by the attribute data are registered in association with each other. The image ID is information for identifying each image analyzed by the analysis unit 12.

図6に示すデータ記憶部14が、インデックスデータを記憶する。また、データ記憶部14は、撮影部11が生成した撮影データを記憶する。なお、撮影部11が動画データを生成する場合、データ記憶部14は、撮影部11が生成した撮影データを複数のグループに分類して記憶してもよいし、分類せずに記憶してもよい。分類の例としては、撮影開始から撮影終了までを1つのグループにする例や、撮影日時に基づきグループ分けする例(例:撮影日毎にグループ分け)等が例示されるが、これらに限定されない。 The data storage unit 14 shown in FIG. 6 stores index data. In addition, the data storage unit 14 stores the shooting data generated by the shooting unit 11. When the shooting unit 11 generates moving image data, the data storage unit 14 may classify the shooting data generated by the shooting unit 11 into a plurality of groups and store them, or may store the data without classifying them. good. Examples of classification include, but are not limited to, an example of grouping from the start of shooting to the end of shooting into one group, an example of grouping based on the shooting date and time (example: grouping by shooting date), and the like.

リクエスト取得部15は、所定の条件に合った物体が映っている撮影データのリクエストを取得する。 The request acquisition unit 15 acquires a request for shooting data showing an object that meets a predetermined condition.

例えば、所定の物体が映っている撮影データを探しているオペレータは、リクエスト装置20が有する入力装置又はリクエスト装置20に接続された入力装置を介して、所定の条件を入力し、当該所定の条件に合った物体が映っている撮影データをリクエストする入力を行う。当該入力に応じて、リクエスト装置20は、所定の条件に合った物体が映っている撮影データのリクエストを、予め登録されている複数の画像処理装置10に送信する。リクエスト取得部15は、このようにしてリクエスト装置20から送信されてきたリクエストを取得する。 For example, an operator looking for shooting data showing a predetermined object inputs a predetermined condition via an input device included in the request device 20 or an input device connected to the request device 20, and the predetermined condition is input. Input to request shooting data that shows an object that matches. In response to the input, the request device 20 transmits a request for shooting data showing an object satisfying a predetermined condition to a plurality of image processing devices 10 registered in advance. The request acquisition unit 15 acquires the request transmitted from the request device 20 in this way.

所定の条件は、解析部12が生成する属性データと同種の情報で物体を特定する条件である。例えば、所定の条件は、属性データと同種の情報を論理演算子で結んだ論理式で示されてもよい。このような所定の条件の一例としては、「人」+「30代」+「男」+「眼鏡着用」等が例示される。 The predetermined condition is a condition for identifying the object with the same kind of information as the attribute data generated by the analysis unit 12. For example, a predetermined condition may be represented by a logical expression in which information of the same type as attribute data is connected by a logical operator. As an example of such a predetermined condition, "person" + "30's" + "man" + "wearing glasses" and the like are exemplified.

判定部16は、所定の条件に合った物体がインデックスデータに登録されているか判定する。「所定の条件に合った物体」は、所定の条件を100%満たす物体のほか、所定の条件を所定レベル以上満たす物体を含んでもよい。所定の条件を所定レベル以上満たす物体は、例えば、所定の条件が「人」+「30代」+「男」+「眼鏡着用」等のように複数の属性データを組み合わせて構成されている場合、複数の属性データの中の所定割合以上(例:60%、70%等)の属性データを満たす物体であってもよい。 The determination unit 16 determines whether or not an object satisfying a predetermined condition is registered in the index data. The "object that meets the predetermined conditions" may include an object that satisfies the predetermined conditions 100%, and an object that satisfies the predetermined conditions at a predetermined level or higher. An object that satisfies a predetermined condition at a predetermined level or higher is composed of a combination of a plurality of attribute data such as "person" + "30's" + "man" + "wearing glasses". , It may be an object that satisfies the attribute data of a predetermined ratio or more (eg, 60%, 70%, etc.) in the plurality of attribute data.

送信部17は、所定の条件に合った物体がインデックスデータに登録されていると判定された場合、撮影データの少なくとも一部をリクエスト装置20に送信する。 When it is determined that an object satisfying a predetermined condition is registered in the index data, the transmission unit 17 transmits at least a part of the shooting data to the request device 20.

撮影部11が動画データ(撮影データ)を生成する場合、送信部17は、撮影部11が生成し、データ記憶部14に記憶されている全ての動画データをリクエスト装置20に送信してもよい。しかし、このように構成した場合、送受信されるデータの量が膨大になり得る。 When the shooting unit 11 generates moving image data (shooting data), the transmitting unit 17 may transmit all the moving image data generated by the shooting unit 11 and stored in the data storage unit 14 to the request device 20. .. However, with such a configuration, the amount of data transmitted and received can be enormous.

そこで、送信部17は、撮影部11が生成し、データ記憶部14に記憶されている動画データの中の一部をリクエスト装置20に送信してもよい。例えば、データ記憶部14が、動画データを複数のグループに分類して記憶している場合、送信部17は、インデックスデータにおいて所定の条件に合った物体が対応付けられている画像ID(図7参照)を含むグループ(所定の条件に合った物体が映っているグループ)の動画データのみを、リクエスト装置20に送信してもよい。 Therefore, the transmission unit 17 may transmit a part of the moving image data generated by the photographing unit 11 and stored in the data storage unit 14 to the request device 20. For example, when the data storage unit 14 classifies and stores the moving image data into a plurality of groups, the transmission unit 17 has an image ID (FIG. 7) to which an object satisfying a predetermined condition is associated with the index data. Only the moving image data of the group including the group (the group in which the object satisfying the predetermined condition is shown) may be transmitted to the request device 20.

その他、送信部17は、インデックスデータにおいて所定の条件に合った物体が対応付けられている画像ID(図7参照)の前後所定時間分の動画データのみを、リクエスト装置20に送信してもよい。 In addition, the transmission unit 17 may transmit only the moving image data for a predetermined time before and after the image ID (see FIG. 7) to which the object satisfying the predetermined condition is associated with the index data to the request device 20. ..

「画像処理システムの処理の流れ」
次に、図8のシーケンス図を用いて、画像処理システムの処理の流れの一例を説明する。
"Processing flow of image processing system"
Next, an example of the processing flow of the image processing system will be described with reference to the sequence diagram of FIG.

まず、所定の物体が映っている撮影データを探しているオペレータは、リクエスト装置20が有する入力装置又はリクエスト装置20に接続された入力装置を介して、所定の条件を入力し、当該所定の条件に合った物体が映っている撮影データをリクエストする入力を行う。当該入力に応じて、リクエスト装置20は、所定の条件に合った物体が映っている撮影データのリクエストを、予め登録されている複数の画像処理装置10に送信する(S10)。 First, an operator looking for shooting data showing a predetermined object inputs a predetermined condition via an input device included in the request device 20 or an input device connected to the request device 20, and the predetermined condition is input. Input to request shooting data that shows an object that matches. In response to the input, the request device 20 transmits a request for shooting data showing an object satisfying a predetermined condition to a plurality of image processing devices 10 registered in advance (S10).

次いで、画像処理装置10は、所定の条件に合った物体が撮影データのインデックスデータ(図7参照)に登録されているか判定する(S11)。 Next, the image processing device 10 determines whether or not an object satisfying a predetermined condition is registered in the index data (see FIG. 7) of the shooting data (S11).

そして、画像処理装置10は、判定結果をリクエスト装置20に送信する(S12)。例えば、所定の条件に合った物体が撮影データのインデックスデータに登録されている場合、画像処理装置10は、撮影データの少なくとも一部をリクエスト装置20に送信することができる。一方、所定の条件に合った物体が撮影データのインデックスデータに登録されていない場合、画像処理装置10は、条件に合った撮影データが存在しないことをリクエスト装置20に通知することができる。 Then, the image processing device 10 transmits the determination result to the request device 20 (S12). For example, when an object satisfying a predetermined condition is registered in the index data of the shooting data, the image processing device 10 can transmit at least a part of the shooting data to the request device 20. On the other hand, when the object that meets the predetermined conditions is not registered in the index data of the shooting data, the image processing device 10 can notify the request device 20 that the shooting data that meets the conditions does not exist.

なお、画像処理装置10は、撮影データの少なくとも一部をリクエスト装置20に送信する前に、撮影データをリクエスト装置20に送信してよいか否かを問い合わせる情報を出力してもよい。そして、画像処理装置10は、当該問い合わせに対して「送信可」の回答を取得した後、撮影データの少なくとも一部をリクエスト装置20に送信してもよい。なお、画像処理装置10は、当該問い合わせに対して「送信不可」の回答を取得した場合、撮影データの少なくとも一部をリクエスト装置20に送信しない。画像処理装置10は、画像処理装置10を有するユーザに対して当該問い合わせを出力する。そして、画像処理装置10は、当該ユーザから当該問い合わせに対する回答を取得する。例えば、画像処理装置10は、画像処理装置10が有するディスプレイや画像処理装置10に接続されたディスプレイに、当該問い合わせを表示してもよい。そして、画像処理装置10は、画像処理装置10が有する入力装置又は画像処理装置10に接続された入力装置を介して、当該問い合わせに対する回答の入力を受付けてもよい。入力装置は、タッチパネルディスプレイ、物理ボタン、マイク等が例示されるが、これらに限定されない。 The image processing device 10 may output information asking whether or not the shooting data may be transmitted to the request device 20 before transmitting at least a part of the shooting data to the request device 20. Then, the image processing device 10 may transmit at least a part of the shooting data to the request device 20 after obtaining the answer of "transmission possible" to the inquiry. When the image processing device 10 obtains a response of "cannot be transmitted" to the inquiry, the image processing device 10 does not transmit at least a part of the shooting data to the request device 20. The image processing device 10 outputs the inquiry to the user who has the image processing device 10. Then, the image processing device 10 acquires a response to the inquiry from the user. For example, the image processing device 10 may display the inquiry on a display included in the image processing device 10 or a display connected to the image processing device 10. Then, the image processing device 10 may accept the input of the answer to the inquiry via the input device included in the image processing device 10 or the input device connected to the image processing device 10. Examples of the input device include, but are not limited to, a touch panel display, physical buttons, and a microphone.

また、画像処理装置10は、上記問い合わせる情報に加えて、撮影データをリクエスト装置20に送信した場合に取得できる報酬を示す情報を出力してもよい。画像処理装置10は、リクエスト装置20から報酬を示す情報を受信することができる。 Further, in addition to the above-mentioned inquired information, the image processing device 10 may output information indicating a reward that can be obtained when the shooting data is transmitted to the request device 20. The image processing device 10 can receive information indicating a reward from the request device 20.

問い合わせや報酬を示す情報の出力は、画像処理装置10が備えるディスプレイや、画像処理装置10に接続されたディスプレイへの表示であってもよいし、予め登録されたメールアドレスを宛先にした電子メールの送信であってもよい。 The output of information indicating an inquiry or reward may be a display on a display provided in the image processing device 10, a display connected to the image processing device 10, or an e-mail addressed to a pre-registered e-mail address. May be sent.

次に、図9のフローチャートを用いて、画像処理装置10がインデックスデータを生成する処理の一例を説明する。 Next, an example of processing in which the image processing apparatus 10 generates index data will be described with reference to the flowchart of FIG.

画像処理装置10は、インデックスデータ生成タイミングを検出すると(S20のYes)、撮影データを解析して属性データを生成し(S21)、インデックスデータとして登録する(S22)。 When the image processing device 10 detects the index data generation timing (Yes in S20), it analyzes the shooting data to generate attribute data (S21) and registers it as index data (S22).

インデックスデータ生成タイミングは、例えば、撮影部11が撮影を終了したタイミングであってもよい。この例の場合、撮影部11が撮影を終了すると、その都度、画像処理装置10は新たに生成された撮影データをバッチ処理で解析して属性データを生成し、インデックスデータとして登録する。このように、撮影部11の撮影処理と並行して解析処理を行うのでなく、撮影部11の撮影処理が終了したタイミングで解析処理を実行することで、画像処理装置10の処理負担を軽減できる。 The index data generation timing may be, for example, the timing when the photographing unit 11 finishes photographing. In the case of this example, each time the photographing unit 11 finishes photographing, the image processing device 10 analyzes the newly generated photographing data by batch processing to generate attribute data and registers it as index data. In this way, the processing load of the image processing device 10 can be reduced by executing the analysis process at the timing when the shooting process of the shooting unit 11 is completed, instead of performing the analysis processing in parallel with the shooting process of the shooting unit 11. ..

その他、インデックスデータ生成タイミングは、例えば、撮影部11が撮影を開始したタイミングであってもよい。この例の場合、撮影部11が撮影を開始すると、画像処理装置10は新たに生成された撮影データをリアルタイム処理で解析して属性データを生成し、インデックスデータとして登録する。このようなリアルタイム処理とすることで、事件や事故等の所定のイベントが発生した直後のリアルタイムな撮影データのリクエストに対しても応答可能となる。 In addition, the index data generation timing may be, for example, the timing when the photographing unit 11 starts photographing. In the case of this example, when the photographing unit 11 starts photographing, the image processing device 10 analyzes the newly generated photographing data by real-time processing to generate attribute data and registers it as index data. With such real-time processing, it is possible to respond to a request for real-time shooting data immediately after a predetermined event such as an incident or accident occurs.

「作用効果」
以上説明した本実施形態の画像処理装置10によれば、移動体に取り付けられた撮影手段が生成した撮影データの中から、所定の物体が映っている撮影データを抽出し、リクエスト装置20に送信することができる。撮影データに所定の物体が映っているか否かで撮影データを十分に絞り込むことができるので、画像処理装置10は、リクエストに応じてリクエスト装置20に送信する撮影データを減らすことができる。結果、画像処理装置10とリクエスト装置20との間の通信負担を軽減することができる。
"Action effect"
According to the image processing device 10 of the present embodiment described above, the shooting data showing a predetermined object is extracted from the shooting data generated by the shooting means attached to the moving body and transmitted to the request device 20. can do. Since the shooting data can be sufficiently narrowed down depending on whether or not a predetermined object is reflected in the shooting data, the image processing device 10 can reduce the shooting data transmitted to the request device 20 in response to the request. As a result, the communication load between the image processing device 10 and the request device 20 can be reduced.

また、本実施形態の画像処理装置10は、撮影データとして動画データを生成している場合、リクエストに応じて全ての動画データをリクエスト装置20に送信するのでなく、所定の物体が映っている部分を含む一部の動画データをリクエスト装置20に送信することができる。結果、画像処理装置10とリクエスト装置20との間の通信負担を軽減することができる。 Further, when the image processing device 10 of the present embodiment generates moving image data as shooting data, the image processing device 10 does not transmit all the moving image data to the request device 20 in response to the request, but a portion in which a predetermined object is reflected. A part of the moving image data including the above can be transmitted to the request device 20. As a result, the communication load between the image processing device 10 and the request device 20 can be reduced.

このような本実施形態の画像処理装置10とリクエスト装置20とを有する画像処理システムによれば、例えば、事件や事故の現場等を撮影した動画データを効率的に収集することが可能となる。また、例えば訪ね人(例:犯人、家出人、失踪者等)や迷子になった動物等をたまたま撮影した動画データを効率的に収集することが可能となる。また、隕石や未確認物体等をたまたま撮影した動画データを効率的に収集することが可能となる。 According to the image processing system having the image processing device 10 and the request device 20 of the present embodiment, for example, it is possible to efficiently collect moving image data obtained by photographing the scene of an incident or an accident. In addition, for example, it is possible to efficiently collect moving image data of a visitor (eg, a criminal, a runaway, a disappeared person, etc.) or a lost animal, etc. In addition, it becomes possible to efficiently collect moving image data obtained by accidentally photographing meteorites, unidentified objects, and the like.

また、本実施形態の画像処理システムでは、画像を生成し、記憶している画像処理装置10が該当データの有無を判定し、必要に応じて撮影データをリクエスト装置20に送信することができる。このため、画像処理装置10が記憶している撮影データの全てをリクエスト装置20に送信し、リクエスト装置20が該当データの有無を判定する場合に比べて、画像処理装置10とリクエスト装置20との間の通信負担を軽減することができる。 Further, in the image processing system of the present embodiment, the image processing device 10 that generates and stores the image can determine the presence or absence of the corresponding data, and can transmit the shooting data to the request device 20 as needed. Therefore, as compared with the case where all the shooting data stored in the image processing device 10 is transmitted to the request device 20 and the request device 20 determines the presence or absence of the corresponding data, the image processing device 10 and the request device 20 are used. The communication load between them can be reduced.

また、画像処理装置10がリクエストに応じて該当データの有無を判定するので、画像処理装置10の所有者は画像を目視で確認するという面倒な作業を行うことなく、該当データの有無を認識することができる。 Further, since the image processing device 10 determines the presence / absence of the corresponding data in response to the request, the owner of the image processing device 10 recognizes the presence / absence of the corresponding data without performing the troublesome work of visually checking the image. be able to.

また、画像処理装置10は、該当データを有すると判定した場合、画像処理装置10の所有者に撮影データを送信してよいか否かを問い合わせ、その回答に応じた処理を行うことができる。このため、画像処理装置10の所有者が希望しない撮影データが意図せず外部に送信される不都合を抑制できる。 Further, when the image processing device 10 determines that the image processing device 10 has the corresponding data, the image processing device 10 can inquire the owner of the image processing device 10 whether or not to transmit the shooting data, and can perform processing according to the answer. Therefore, it is possible to suppress the inconvenience that the photographed data undesired by the owner of the image processing apparatus 10 is unintentionally transmitted to the outside.

また、画像処理装置10は、上記問い合わせに加えて、撮影データを提供した場合に得られる報酬を出力することができる。適切なタイミングで報酬の情報を出力することで、画像処理装置10の所有者は迅速に提供可否の判断を行うことができる。 Further, in addition to the above inquiry, the image processing device 10 can output a reward obtained when the shooting data is provided. By outputting the reward information at an appropriate timing, the owner of the image processing device 10 can quickly determine whether or not to provide the image processing device 10.

<第2の実施形態>
「画像処理システムの全体像及び概要」
画像処理システムの全体像は、第1の実施形態と同様である。本実施形態の画像処理装置10は、移動体に取り付けられた撮影手段が生成した撮影データの中から、所定の位置で及び/又は所定の日時に撮影され、かつ、所定の物体が映っている撮影データを抽出し、リクエスト装置20に送信することができる。撮影データに所定の物体が映っているか否かに加えて、撮影位置及び/又は撮影日時を用いて撮影データを十分に絞り込むことができるので、画像処理装置10は、リクエストに応じてリクエスト装置20に送信する撮影データを減らすことができる。
<Second embodiment>
"Overview and overview of image processing system"
The overall picture of the image processing system is the same as that of the first embodiment. The image processing device 10 of the present embodiment is photographed at a predetermined position and / or at a predetermined date and time from the imaging data generated by the imaging means attached to the moving body, and a predetermined object is projected. The shooting data can be extracted and transmitted to the request device 20. Since the shooting data can be sufficiently narrowed down by using the shooting position and / or the shooting date and time in addition to whether or not a predetermined object is reflected in the shooting data, the image processing device 10 can request the request device 20 in response to a request. You can reduce the amount of shooting data sent to.

「画像処理装置10の構成」
画像処理装置10のハードウエア構成の一例は、第1の実施形態と同様である。
"Configuration of image processing device 10"
An example of the hardware configuration of the image processing device 10 is the same as that of the first embodiment.

画像処理装置10の機能ブロック図の一例は、第1の実施形態同様、図6で示される。 An example of the functional block diagram of the image processing device 10 is shown in FIG. 6, as in the first embodiment.

撮影部11は、図10に示すように、位置検出部111と、日時検出部112とを有する。位置検出部111は現在位置を検出する。現在位置の検出は、例えばGPS(global positioning system)の利用などが例示されるが、これに限定されない。日時検出部112は、現在日時を検出する。現在日時の検出は、例えば画像処理装置10内に組み込まれた内蔵時計の利用等が例示されるが、これに限定されない。 As shown in FIG. 10, the photographing unit 11 has a position detecting unit 111 and a date and time detecting unit 112. The position detection unit 111 detects the current position. The detection of the current position is exemplified by, for example, the use of GPS (global positioning system), but is not limited to this. The date and time detection unit 112 detects the current date and time. The detection of the current date and time is, for example, the use of a built-in clock incorporated in the image processing device 10, but is not limited to this.

撮影部11は、位置検出部111及び日時検出部112が検出した値を利用して、撮影データに撮影位置及び撮影日時を紐付けることができる。撮影部11のその他の構成は、第1の実施形態と同様である。 The shooting unit 11 can associate the shooting position and the shooting date and time with the shooting data by using the values detected by the position detection unit 111 and the date and time detection unit 112. Other configurations of the photographing unit 11 are the same as those of the first embodiment.

解析部12の構成は、第1の実施形態と同様である。 The configuration of the analysis unit 12 is the same as that of the first embodiment.

登録部13は、撮影部11が生成した撮影データの撮影位置及び撮影日時を、撮影データのインデックスデータとして登録する。 The registration unit 13 registers the shooting position and the shooting date and time of the shooting data generated by the shooting unit 11 as index data of the shooting data.

図11に、インデックスデータの一例を模式的に示す。図示する例では、撮影日時を示す日時情報と、撮影位置を示す位置情報と、画像IDと、属性データで特定される物体とが互いに対応付けて登録されている。 FIG. 11 schematically shows an example of index data. In the illustrated example, the date and time information indicating the shooting date and time, the position information indicating the shooting position, the image ID, and the object specified by the attribute data are registered in association with each other.

データ記憶部14の構成は、第1の実施形態と同様である。 The configuration of the data storage unit 14 is the same as that of the first embodiment.

リクエスト取得部15は、所定の条件に合った物体が映っており、かつ、撮影位置及び撮影日時の少なくとも一方をさらに指定した撮影データのリクエストを取得する。リクエスト取得部15のその他の構成は、第1の実施形態と同様である。 The request acquisition unit 15 acquires a request for shooting data in which an object satisfying a predetermined condition is displayed and at least one of a shooting position and a shooting date and time is further specified. Other configurations of the request acquisition unit 15 are the same as those of the first embodiment.

例えば、所定の物体が映っている撮影データを探しているオペレータは、リクエスト装置20が有する入力装置又はリクエスト装置20に接続された入力装置を介して、物体の条件、撮影位置、撮影日時等を入力し、撮影データをリクエストする入力を行う。 For example, an operator who is looking for shooting data showing a predetermined object can set the condition of the object, the shooting position, the shooting date and time, etc. via the input device of the request device 20 or the input device connected to the request device 20. Input and request shooting data.

当該入力において、撮影日時は、「2018年8月20日13時00分から14時00分」のように時間帯で指定されてもよいし、「2018年8月20日13時00分」のようにピンポイントで指定されてもよい。 In the input, the shooting date and time may be specified by a time zone such as "August 20, 2018 13:00 to 14:00", or "August 20, 2018 13:00". It may be specified pinpointly as follows.

また、当該入力において、撮影場所は、「○○市」、「○○町」のように地名で指定されてもよい。その他、リクエスト装置20は、地図を表示するとともに、当該地図上で所定のエリアを指定する入力を受付けるUI(user interface)画面を介して、撮影場所を指定する入力を受付けてもよい。例えば、地図上に、ユーザ入力に基づき、表示位置、大きさ、形状等が変更される枠が表示されてもよい。そして、この枠の内部の領域が撮影場所として指定されてもよい。 Further, in the input, the shooting place may be specified by a place name such as "○○ city" or "○○ town". In addition, the request device 20 may display a map and accept an input for designating a shooting location via a UI (user interface) screen that accepts an input for designating a predetermined area on the map. For example, a frame whose display position, size, shape, etc. may be changed may be displayed on the map based on user input. Then, the area inside this frame may be designated as a shooting location.

判定部16は、インデックスデータに基づき、所定の条件に合った物体が映っており、かつ、撮影位置及び/又は撮影日時が指定内容に合っている撮影データがデータ記憶部14に記憶されているか判定する。 Based on the index data, the determination unit 16 shows whether an object that meets a predetermined condition is displayed, and whether the data storage unit 14 stores shooting data in which the shooting position and / or the shooting date and time match the specified contents. judge.

例えば、判定部16は、所定の条件に合った物体がインデックスデータに登録されているか判定する。そして、登録されている場合、所定の条件に合った物体が対応付けられている画像ID(図11参照)の撮影位置及び/又は撮影日時が、リクエストで指定された撮影位置及び/または撮影日時と合っているか判定する。 For example, the determination unit 16 determines whether an object satisfying a predetermined condition is registered in the index data. Then, when registered, the shooting position and / or shooting date and time of the image ID (see FIG. 11) to which the object satisfying the predetermined condition is associated is the shooting position and / or shooting date and time specified in the request. Determine if it matches.

送信部17の構成は、第1の実施形態と同様である。 The configuration of the transmission unit 17 is the same as that of the first embodiment.

「画像処理システムの処理の流れ」
画像処理システムの処理の流れの一例は、第1の実施形態と同様である。
"Processing flow of image processing system"
An example of the processing flow of the image processing system is the same as that of the first embodiment.

なお、本実施形態のインデックスデータ生成タイミングは、第1の実施形態で説明した例と同じであってもよいし、他の例として、撮影データリクエスト(図8のS10)を受信したタイミングであってもよい。この場合、画像処理装置10は、撮影データのリクエストで指定された撮影日時に生成された撮影データのみを処理して属性データを生成し、インデックスデータとして登録する。このように、撮影データのリクエストに応じて処理を行う撮像データの量を最小限に留めることで、処理負荷を軽減する効果が得られる。 The index data generation timing of the present embodiment may be the same as the example described in the first embodiment, and as another example, it is the timing at which the shooting data request (S10 in FIG. 8) is received. You may. In this case, the image processing device 10 processes only the shooting data generated at the shooting date and time specified in the shooting data request to generate the attribute data and registers it as index data. In this way, by minimizing the amount of imaging data to be processed in response to the request for imaging data, the effect of reducing the processing load can be obtained.

「作用効果」
以上説明した本実施形態の画像処理装置10によれば、第1の実施形態と同様な作用効果を実現できる。
"Action effect"
According to the image processing apparatus 10 of the present embodiment described above, the same effects as those of the first embodiment can be realized.

また、本実施形態の画像処理装置10によれば、撮影データに所定の物体が映っているか否かに加えて、撮影位置及び/又は撮影日時を用いて所望の撮影データを十分に絞り込むことができるので、画像処理装置10は、リクエストに応じてリクエスト装置20に送信する撮影データを減らすことができる。結果、画像処理装置10とリクエスト装置20との間の通信負担を軽減することができる。 Further, according to the image processing device 10 of the present embodiment, it is possible to sufficiently narrow down the desired shooting data by using the shooting position and / or the shooting date and time in addition to whether or not a predetermined object is reflected in the shooting data. Therefore, the image processing device 10 can reduce the shooting data transmitted to the request device 20 in response to the request. As a result, the communication load between the image processing device 10 and the request device 20 can be reduced.

<第3の実施形態>
「画像処理システムの全体像及び概要」
画像処理システムの全体像は、第1及び第2の実施形態と同様である。本実施形態の画像処理装置10は、撮影データの撮影時の撮影環境や、撮影データに映った物体等に応じて、インデックスデータとして登録する属性データの種類や量を変えることができる。
<Third embodiment>
"Overview and overview of image processing system"
The overall picture of the image processing system is the same as in the first and second embodiments. The image processing device 10 of the present embodiment can change the type and amount of attribute data to be registered as index data according to the shooting environment at the time of shooting the shooting data, the object reflected in the shooting data, and the like.

「画像処理装置10の構成」
画像処理装置10のハードウエア構成の一例は、第1及び第2の実施形態と同様である。
"Configuration of image processing device 10"
An example of the hardware configuration of the image processing device 10 is the same as that of the first and second embodiments.

画像処理装置10の機能ブロック図の一例は、第1及び第2の実施形態同様、図6で示される。 An example of the functional block diagram of the image processing apparatus 10 is shown in FIG. 6, as in the first and second embodiments.

撮影部11、データ記憶部14、リクエスト取得部15、判定部16及び送信部17の構成は、第1及び第2の実施形態と同様である。 The configuration of the photographing unit 11, the data storage unit 14, the request acquisition unit 15, the determination unit 16, and the transmission unit 17 is the same as in the first and second embodiments.

解析部12は、撮影データの撮影時の撮影環境に応じて、生成する属性データの種類及び量の少なくとも一方を変える。 The analysis unit 12 changes at least one of the type and amount of attribute data to be generated according to the shooting environment at the time of shooting the shooting data.

例えば、解析部12は、撮影環境毎に生成する属性データの種類や量を予め定めた生成ルールに基づき、属性データを生成してもよい。属性データの量の増減は、生成する属性データの種類の数の増減で実現されてもよいし、動画データの中の処理対象とするフレームデータの数の増減で実現されてもよい。 For example, the analysis unit 12 may generate attribute data based on a predetermined generation rule for the type and amount of attribute data to be generated for each shooting environment. The amount of attribute data may be increased or decreased by increasing or decreasing the number of types of attribute data to be generated, or may be realized by increasing or decreasing the number of frame data to be processed in the moving image data.

そして、登録部13は、撮影データの撮影時の撮影環境に応じて、インデックスデータとして登録する属性データの種類及び量の少なくとも一方を変える。 Then, the registration unit 13 changes at least one of the type and amount of the attribute data to be registered as the index data according to the shooting environment at the time of shooting the shooting data.

撮影環境は、撮影位置、撮影時刻、撮影日、撮影曜日、撮影時の天気、撮影装置のスペック(画像の解像度等)等が例示される。解析部12は、任意の手段で、当該撮影環境を示す情報を取得することができる。 Examples of the shooting environment include the shooting position, shooting time, shooting date, shooting day of the week, weather at the time of shooting, specifications of the shooting device (image resolution, etc.), and the like. The analysis unit 12 can acquire information indicating the shooting environment by any means.

例えば、人や移動体の量が比較的多いエリア、時間帯、日、曜日においては、生成する属性データの量を相対的に少なくしてもよい。このような撮影環境で生成された撮影データには、多くの人や移動体が映っている。このような撮影データを解析して多数の種類の属性データを生成し、登録すると、画像処理装置10の処理負担が大きくなるほか、記憶容量を圧迫する恐れがある。このため、このような撮影環境で撮影データが生成された場合、生成する属性データの種類を少なくしたり、処理対象とするフレームデータの数を少なくしたりすることで、画像処理装置10の負担を軽減する。 For example, in an area, time zone, day of the week, or day of the week when the amount of people or moving objects is relatively large, the amount of attribute data to be generated may be relatively small. Many people and moving objects are reflected in the shooting data generated in such a shooting environment. If such shooting data is analyzed to generate and register a large number of types of attribute data, the processing load of the image processing device 10 becomes large, and the storage capacity may be compressed. Therefore, when shooting data is generated in such a shooting environment, the burden on the image processing device 10 is reduced by reducing the types of attribute data to be generated and the number of frame data to be processed. To reduce.

一方、人や移動体の量が比較的少ないエリア、時間帯、日、曜日においては、上述のような問題が生じにくいので、生成する属性データの量を相対的に多くしてもよい。 On the other hand, in areas where the amount of people and moving objects is relatively small, time zones, days of the week, and days of the week, the above-mentioned problems are unlikely to occur, so the amount of attribute data to be generated may be relatively large.

その他、物体が明確に映った画像を生成しにくい撮影環境、例えば夜の時間帯、雨の日、撮影装置のスペックが低い(例:画像の解像度が所定レベル以下)等においては、生成する属性データの量を相対的に少なくしてもよい。このような撮影環境で生成された撮影データは利用価値が低い。このため、このような撮影環境で撮影データが生成された場合、生成する属性データの種類を少なくしたり、処理対象とするフレームデータの数を少なくしたりすることで、画像処理装置10の負担を軽減する。 In addition, in a shooting environment where it is difficult to generate an image in which an object is clearly reflected, for example, in a night time zone, a rainy day, or when the specifications of the shooting device are low (example: the image resolution is below a predetermined level), the attribute to be generated The amount of data may be relatively small. The shooting data generated in such a shooting environment has low utility value. Therefore, when shooting data is generated in such a shooting environment, the burden on the image processing device 10 is reduced by reducing the types of attribute data to be generated and the number of frame data to be processed. To reduce.

一方、物体が明確に映った画像を生成しやすい撮影環境、例えば昼の時間帯、晴れの日、撮影装置のスペックが高い(例:画像の解像度が所定レベル以上)等においては、生成する属性データの量を相対的に多くしてもよい。このような撮影環境で生成された撮影データは利用価値が高いので、多種かつ多量の属性データを生成し、登録する。 On the other hand, in a shooting environment where it is easy to generate an image in which an object is clearly reflected, for example, in a daytime zone, a sunny day, or when the specifications of the shooting device are high (eg, the image resolution is at a predetermined level or higher), the attribute to be generated is used. The amount of data may be relatively large. Since the shooting data generated in such a shooting environment has high utility value, a large amount of various attribute data is generated and registered.

また、解析部12は、撮影データに映った物体に応じて、生成する属性データの種類及び量の少なくとも一方を変えることができる。 Further, the analysis unit 12 can change at least one of the type and amount of the attribute data to be generated according to the object reflected in the shooting data.

例えば、解析部12は、撮影データに映った物体毎に生成する属性データの種類や量を予め定めた生成ルールに基づき、属性データを生成してもよい。属性データの量の増減は、生成する属性データの種類の数の増減で実現されてもよいし、動画データの中の処理対象とするフレームデータの数の増減で実現されてもよい。 For example, the analysis unit 12 may generate attribute data based on a predetermined generation rule for the type and amount of attribute data to be generated for each object reflected in the shooting data. The amount of attribute data may be increased or decreased by increasing or decreasing the number of types of attribute data to be generated, or may be realized by increasing or decreasing the number of frame data to be processed in the moving image data.

そして、登録部13は、撮影データに映った物体に応じて、インデックスデータとして登録する属性データの種類及び量の少なくとも一方を変える。 Then, the registration unit 13 changes at least one of the type and amount of the attribute data to be registered as the index data according to the object reflected in the shooting data.

例えば、移動速度が比較的速い移動体が撮影データに映っている場合、処理対象とするフレームデータの数を多くすることで(例:全てのフレームデータを処理対象とする、比較的少ない数おきのフレームデータを処理対象とする)、生成する属性データの量を相対的に多くしてもよい。このようにすることで、撮影データに映っている物体を漏らさずインデックスデータに登録することができる。 For example, when a moving object with a relatively high moving speed is reflected in the shooting data, by increasing the number of frame data to be processed (example: all frame data are processed, every relatively small number). The amount of attribute data to be generated may be relatively large. By doing so, it is possible to register the object reflected in the shooting data in the index data without leaking it.

一方、移動速度が比較的速い移動体が撮影データに映っていない場合、処理対象とするフレームデータの数を少なくすることで(例:比較的多い数おきのフレームデータを処理対象とする)、生成する属性データの量を相対的に少なくしてもよい。移動速度が比較的速い移動体が撮影データに映っておらず、移動速度が比較的遅い物体が映っている場合、処理対象とするフレームデータの数を少なくしても、撮影データに映っている物体を漏らさず抽出し、インデックスデータに登録することができる。 On the other hand, if a moving object with a relatively high moving speed is not reflected in the shooting data, the number of frame data to be processed can be reduced (example: a relatively large number of frame data are processed). The amount of attribute data to be generated may be relatively small. If a moving object with a relatively high moving speed is not reflected in the shooting data and an object with a relatively slow moving speed is shown, it is reflected in the shooting data even if the number of frame data to be processed is reduced. Objects can be extracted without leakage and registered in index data.

ここで、撮影データの撮影時の撮影環境や、撮影データに映った物体等に応じて、インデックスデータとして登録する属性データの種類や量を変える処理の具体例を説明する。図12に示すように、撮影データに映った物体(人物、車両等)毎に、インデックスデータとして登録する属性データの種類が予め定義される。そして、生成する属性データの量を相対的に多くする場合には、解析部12は、図示する複数種類の属性データの中の全て又は大部分を生成する。一方、生成する属性データの量を相対的に少なくする場合には、解析部12は、図示する複数種類の属性データの一部分のみを生成する。複数の属性データの一部分のみを生成する場合、解析部12は、例えば、個人や個体をより特定し難くなる属性データ(図示する曖昧側に位置する属性データ)を生成するよう定められていてもよい。このようにした方が、データ量が少なくなるほか、コンピュータの処理負担が軽減される。なお、予め、撮影データの撮影時の撮影環境や撮影データに映った物体毎に、どの種類の属性データを生成するか定められており、解析部12は当該定めに基づき、生成する属性データの種類を決定することができる。 Here, a specific example of processing for changing the type and amount of attribute data registered as index data according to the shooting environment at the time of shooting the shooting data, the object reflected in the shooting data, and the like will be described. As shown in FIG. 12, the type of attribute data to be registered as index data is defined in advance for each object (person, vehicle, etc.) reflected in the shooting data. Then, when the amount of attribute data to be generated is relatively large, the analysis unit 12 generates all or most of the plurality of types of attribute data shown. On the other hand, when the amount of attribute data to be generated is relatively small, the analysis unit 12 generates only a part of the plurality of types of attribute data shown in the figure. When generating only a part of a plurality of attribute data, for example, even if the analysis unit 12 is defined to generate attribute data (attribute data located on the ambiguous side shown in the figure) that makes it more difficult to identify an individual or an individual. good. In this way, the amount of data is reduced and the processing load on the computer is reduced. In addition, it is determined in advance which type of attribute data is to be generated for each of the shooting environment at the time of shooting the shooting data and the object reflected in the shooting data, and the analysis unit 12 determines the type of attribute data to be generated based on the definition. The type can be determined.

「画像処理システムの処理の流れ」
画像処理システムの処理の流れの一例は、第1及び第2の実施形態と同様である。
"Processing flow of image processing system"
An example of the processing flow of the image processing system is the same as that of the first and second embodiments.

「作用効果」
以上説明した本実施形態の画像処理装置10によれば、第1及び第2の実施形態と同様な作用効果を実現できる。
"Action effect"
According to the image processing apparatus 10 of the present embodiment described above, the same effects as those of the first and second embodiments can be realized.

また、撮影データの撮影時の撮影環境及び撮影データに映った物体等に応じて、インデックスデータとして登録する属性データの種類や量を変えることで、必要な属性データをインデックスデータとして登録しつつ、画像処理装置10の処理負担を軽減できる。 In addition, by changing the type and amount of attribute data to be registered as index data according to the shooting environment at the time of shooting the shooting data and the object reflected in the shooting data, while registering the necessary attribute data as index data, The processing load of the image processing device 10 can be reduced.

以下、参考形態の例を付記する。
1. 移動体に取り付けられ、前記移動体の外部を撮影する撮影手段と、
前記撮影手段が生成した撮影データを解析し、前記撮影データに映った物体の属性データを生成する解析手段と、
前記属性データで特定される物体を前記撮影データのインデックスデータとして登録する登録手段と、
所定の条件に合った物体が映っている前記撮影データのリクエストを取得するリクエスト取得手段と、
前記所定の条件に合った物体が前記インデックスデータに登録されているか判定する判定手段と、
前記所定の条件に合った物体が前記インデックスデータに登録されていると判定された場合、前記撮影データの少なくとも一部を外部装置に送信する送信手段と、
を有する画像処理装置。
2. 1に記載の画像処理装置において、
前記撮影手段は、現在位置を検出する位置検出手段と、現在日時を検出する日時検出手段とを有し、
前記登録手段は、前記撮影データの撮影位置及び撮影日時を前記撮影データのインデックスデータとして登録する画像処理装置。
3. 2に記載の画像処理装置において、
前記リクエスト取得手段は、撮影位置及び撮影日時の少なくとも一方をさらに指定した前記撮影データのリクエストを取得する画像処理装置。
4. 1から3のいずれかに記載の画像処理装置において、
前記登録手段は、前記撮影データの撮影時の撮影環境に応じて、前記撮影データのインデックスデータとして登録する前記属性データの種類を変える画像処理装置。
5. 1から4のいずれかに記載の画像処理装置において、
前記登録手段は、前記撮影データの撮影時の撮影環境に応じて、前記撮影データのインデックスデータとして登録する前記属性データの量を変える画像処理装置。
6. 1から5のいずれかに記載の画像処理装置において、
前記登録手段は、前記撮影データに映った物体に応じて、前記撮影データのインデックスデータとして登録する前記属性データの種類を変える画像処理装置。
7. 1から6のいずれかに記載の画像処理装置において、
前記登録手段は、前記撮影データに映った物体に応じて、前記撮影データのインデックスデータとして登録する前記属性データの量を変える画像処理装置。
8. 1から7のいずれかに記載の画像処理装置において、
前記属性データは、人の体格、衣服の特徴、移動体の色、車種、及び、ナンバープレートに記載された情報の中の少なくとも1つを含む画像処理装置。
9. 1から8のいずれかに記載の画像処理装置において、
前記画像処理装置は、移動体搭載装置及び可搬型装置の一方又は両方で構成される画像処理装置。
10. コンピュータが、
移動体に取り付けられ、前記移動体の外部を撮影する撮影工程と、
前記撮影工程で生成した撮影データを解析し、前記撮影データに映った物体の属性データを生成する解析工程と、
前記属性データで特定される物体を前記撮影データのインデックスデータとして登録する登録工程と、
所定の条件に合った物体が映っている前記撮影データのリクエストを取得するリクエスト取得工程と、
前記所定の条件に合った物体が前記インデックスデータに登録されているか判定する判定工程と、
前記所定の条件に合った物体が前記インデックスデータに登録されていると判定された場合、前記撮影データの少なくとも一部を外部装置に送信する送信工程と、
を実行する画像処理方法。
11. コンピュータを、
移動体に取り付けられ、前記移動体の外部を撮影する撮影手段、
前記撮影手段が生成した撮影データを解析し、前記撮影データに映った物体の属性データを生成する解析手段、
前記属性データで特定される物体を前記撮影データのインデックスデータとして登録する登録手段、
所定の条件に合った物体が映っている前記撮影データのリクエストを取得するリクエスト取得手段、
前記所定の条件に合った物体が前記インデックスデータに登録されているか判定する判定手段、
前記所定の条件に合った物体が前記インデックスデータに登録されていると判定された場合、前記撮影データの少なくとも一部を外部装置に送信する送信手段、
として機能させるプログラム。
Hereinafter, an example of the reference form will be added.
1. 1. A photographing means attached to a moving body and photographing the outside of the moving body, and
An analysis means that analyzes the shooting data generated by the shooting means and generates attribute data of an object reflected in the shooting data.
A registration means for registering an object specified by the attribute data as index data of the shooting data, and
A request acquisition means for acquiring a request for the shooting data showing an object that meets a predetermined condition, and
A determination means for determining whether an object satisfying the predetermined conditions is registered in the index data, and
When it is determined that an object satisfying the predetermined conditions is registered in the index data, a transmission means for transmitting at least a part of the shooting data to an external device and a transmission means.
An image processing device having.
2. In the image processing apparatus according to 1.
The photographing means includes a position detecting means for detecting the current position and a date and time detecting means for detecting the current date and time.
The registration means is an image processing device that registers the shooting position and shooting date and time of the shooting data as index data of the shooting data.
3. 3. In the image processing apparatus according to 2.
The request acquisition means is an image processing device that acquires a request for the shooting data in which at least one of the shooting position and the shooting date and time is further specified.
4. In the image processing apparatus according to any one of 1 to 3,
The registration means is an image processing device that changes the type of attribute data to be registered as index data of the shooting data according to the shooting environment at the time of shooting the shooting data.
5. In the image processing apparatus according to any one of 1 to 4,
The registration means is an image processing device that changes the amount of the attribute data to be registered as index data of the shooting data according to the shooting environment at the time of shooting the shooting data.
6. In the image processing apparatus according to any one of 1 to 5,
The registration means is an image processing device that changes the type of the attribute data to be registered as index data of the shooting data according to the object reflected in the shooting data.
7. In the image processing apparatus according to any one of 1 to 6,
The registration means is an image processing device that changes the amount of the attribute data to be registered as index data of the shooting data according to the object reflected in the shooting data.
8. In the image processing apparatus according to any one of 1 to 7.
The attribute data is an image processing device including at least one of a person's physique, clothing characteristics, moving body color, vehicle type, and information written on a license plate.
9. In the image processing apparatus according to any one of 1 to 8.
The image processing device is an image processing device composed of one or both of a moving body mounting device and a portable device.
10. The computer
A shooting process that is attached to a moving body and photographs the outside of the moving body,
An analysis step of analyzing the shooting data generated in the shooting process and generating attribute data of the object reflected in the shooting data,
A registration process for registering an object specified by the attribute data as index data of the shooting data, and
A request acquisition process for acquiring a request for the shooting data showing an object that meets a predetermined condition, and
A determination step of determining whether an object that meets the predetermined conditions is registered in the index data, and
When it is determined that an object that meets the predetermined conditions is registered in the index data, a transmission step of transmitting at least a part of the shooting data to an external device and a transmission step.
Image processing method to execute.
11. Computer,
A photographing means attached to a moving body and photographing the outside of the moving body,
An analysis means that analyzes the shooting data generated by the shooting means and generates attribute data of an object reflected in the shooting data.
A registration means for registering an object specified by the attribute data as index data of the shooting data,
A request acquisition means for acquiring a request for the shooting data showing an object that meets a predetermined condition,
A determination means for determining whether an object satisfying the predetermined conditions is registered in the index data,
A transmission means for transmitting at least a part of the shooting data to an external device when it is determined that an object satisfying the predetermined conditions is registered in the index data.
A program that functions as.

この出願は、2018年8月30日に出願された日本出願特願2018−161893号を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority on the basis of Japanese application Japanese Patent Application No. 2018-161893 filed on August 30, 2018, and incorporates all of its disclosures herein.

Claims (11)

移動体に取り付けられ、前記移動体の外部を撮影する撮影手段と、
前記撮影手段が生成した撮影データを解析し、前記撮影データに映った物体の属性データを生成する解析手段と、
前記属性データで特定される物体を前記撮影データのインデックスデータとして登録する登録手段と、
所定の条件に合った物体が映っている前記撮影データのリクエストを取得するリクエスト取得手段と、
前記所定の条件に合った物体が前記インデックスデータに登録されているか判定する判定手段と、
前記所定の条件に合った物体が前記インデックスデータに登録されていると判定された場合、前記撮影データの少なくとも一部を外部装置に送信する送信手段と、
を有する画像処理装置。
A photographing means attached to a moving body and photographing the outside of the moving body, and
An analysis means that analyzes the shooting data generated by the shooting means and generates attribute data of an object reflected in the shooting data.
A registration means for registering an object specified by the attribute data as index data of the shooting data, and
A request acquisition means for acquiring a request for the shooting data showing an object that meets a predetermined condition, and
A determination means for determining whether an object satisfying the predetermined conditions is registered in the index data, and
When it is determined that an object satisfying the predetermined conditions is registered in the index data, a transmission means for transmitting at least a part of the shooting data to an external device and a transmission means.
An image processing device having.
請求項1に記載の画像処理装置において、
前記撮影手段は、現在位置を検出する位置検出手段と、現在日時を検出する日時検出手段とを有し、
前記登録手段は、前記撮影データの撮影位置及び撮影日時を前記撮影データのインデックスデータとして登録する画像処理装置。
In the image processing apparatus according to claim 1,
The photographing means includes a position detecting means for detecting the current position and a date and time detecting means for detecting the current date and time.
The registration means is an image processing device that registers the shooting position and shooting date and time of the shooting data as index data of the shooting data.
請求項2に記載の画像処理装置において、
前記リクエスト取得手段は、撮影位置及び撮影日時の少なくとも一方をさらに指定した前記撮影データのリクエストを取得する画像処理装置。
In the image processing apparatus according to claim 2,
The request acquisition means is an image processing device that acquires a request for the shooting data in which at least one of the shooting position and the shooting date and time is further specified.
請求項1から3のいずれか1項に記載の画像処理装置において、
前記登録手段は、前記撮影データの撮影時の撮影環境に応じて、前記撮影データのインデックスデータとして登録する前記属性データの種類を変える画像処理装置。
In the image processing apparatus according to any one of claims 1 to 3,
The registration means is an image processing device that changes the type of attribute data to be registered as index data of the shooting data according to the shooting environment at the time of shooting the shooting data.
請求項1から4のいずれか1項に記載の画像処理装置において、
前記登録手段は、前記撮影データの撮影時の撮影環境に応じて、前記撮影データのインデックスデータとして登録する前記属性データの量を変える画像処理装置。
In the image processing apparatus according to any one of claims 1 to 4.
The registration means is an image processing device that changes the amount of the attribute data to be registered as index data of the shooting data according to the shooting environment at the time of shooting the shooting data.
請求項1から5のいずれか1項に記載の画像処理装置において、
前記登録手段は、前記撮影データに映った物体に応じて、前記撮影データのインデックスデータとして登録する前記属性データの種類を変える画像処理装置。
In the image processing apparatus according to any one of claims 1 to 5,
The registration means is an image processing device that changes the type of the attribute data to be registered as index data of the shooting data according to the object reflected in the shooting data.
請求項1から6のいずれか1項に記載の画像処理装置において、
前記登録手段は、前記撮影データに映った物体に応じて、前記撮影データのインデックスデータとして登録する前記属性データの量を変える画像処理装置。
In the image processing apparatus according to any one of claims 1 to 6.
The registration means is an image processing device that changes the amount of the attribute data to be registered as index data of the shooting data according to the object reflected in the shooting data.
請求項1から7のいずれか1項に記載の画像処理装置において、
前記属性データは、人の体格、衣服の特徴、移動体の色、車種、及び、ナンバープレートに記載された情報の中の少なくとも1つを含む画像処理装置。
In the image processing apparatus according to any one of claims 1 to 7.
The attribute data is an image processing device including at least one of a person's physique, clothing characteristics, moving body color, vehicle type, and information written on a license plate.
請求項1から8のいずれか1項に記載の画像処理装置において、
前記画像処理装置は、移動体搭載装置及び可搬型装置の一方又は両方で構成される画像処理装置。
In the image processing apparatus according to any one of claims 1 to 8.
The image processing device is an image processing device composed of one or both of a moving body mounting device and a portable device.
コンピュータが、
移動体に取り付けられ、前記移動体の外部を撮影する撮影工程と、
前記撮影工程で生成した撮影データを解析し、前記撮影データに映った物体の属性データを生成する解析工程と、
前記属性データで特定される物体を前記撮影データのインデックスデータとして登録する登録工程と、
所定の条件に合った物体が映っている前記撮影データのリクエストを取得するリクエスト取得工程と、
前記所定の条件に合った物体が前記インデックスデータに登録されているか判定する判定工程と、
前記所定の条件に合った物体が前記インデックスデータに登録されていると判定された場合、前記撮影データの少なくとも一部を外部装置に送信する送信工程と、
を実行する画像処理方法。
The computer
A shooting process that is attached to a moving body and photographs the outside of the moving body,
An analysis step of analyzing the shooting data generated in the shooting process and generating attribute data of the object reflected in the shooting data,
A registration process for registering an object specified by the attribute data as index data of the shooting data, and
A request acquisition process for acquiring a request for the shooting data showing an object that meets a predetermined condition, and
A determination step of determining whether an object that meets the predetermined conditions is registered in the index data, and
When it is determined that an object that meets the predetermined conditions is registered in the index data, a transmission step of transmitting at least a part of the shooting data to an external device and a transmission step.
Image processing method to execute.
コンピュータを、
移動体に取り付けられ、前記移動体の外部を撮影する撮影手段、
前記撮影手段が生成した撮影データを解析し、前記撮影データに映った物体の属性データを生成する解析手段、
前記属性データで特定される物体を前記撮影データのインデックスデータとして登録する登録手段、
所定の条件に合った物体が映っている前記撮影データのリクエストを取得するリクエスト取得手段、
前記所定の条件に合った物体が前記インデックスデータに登録されているか判定する判定手段、
前記所定の条件に合った物体が前記インデックスデータに登録されていると判定された場合、前記撮影データの少なくとも一部を外部装置に送信する送信手段、
として機能させるプログラム。
Computer,
A photographing means attached to a moving body and photographing the outside of the moving body,
An analysis means that analyzes the shooting data generated by the shooting means and generates attribute data of an object reflected in the shooting data.
A registration means for registering an object specified by the attribute data as index data of the shooting data,
A request acquisition means for acquiring a request for the shooting data showing an object that meets a predetermined condition,
A determination means for determining whether an object satisfying the predetermined conditions is registered in the index data,
A transmission means for transmitting at least a part of the shooting data to an external device when it is determined that an object satisfying the predetermined conditions is registered in the index data.
A program that functions as.
JP2020540045A 2018-08-30 2019-04-05 Image processing equipment, image processing methods and programs Pending JPWO2020044646A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018161893 2018-08-30
JP2018161893 2018-08-30
PCT/JP2019/015214 WO2020044646A1 (en) 2018-08-30 2019-04-05 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JPWO2020044646A1 true JPWO2020044646A1 (en) 2021-11-11

Family

ID=69645146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020540045A Pending JPWO2020044646A1 (en) 2018-08-30 2019-04-05 Image processing equipment, image processing methods and programs

Country Status (2)

Country Link
JP (1) JPWO2020044646A1 (en)
WO (1) WO2020044646A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288174A (en) * 2001-03-28 2002-10-04 Nec Corp Information obtaining method and server
JP2013161390A (en) * 2012-02-08 2013-08-19 Sony Corp Server, client terminal, system and program
JP2014106617A (en) * 2012-11-26 2014-06-09 Mitsubishi Electric Corp On-vehicle information providing device
JP2016103248A (en) * 2014-11-28 2016-06-02 富士通株式会社 Image providing system and image providing method
CN105760533A (en) * 2016-03-08 2016-07-13 广东欧珀移动通信有限公司 Photo management method and photo management device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288174A (en) * 2001-03-28 2002-10-04 Nec Corp Information obtaining method and server
JP2013161390A (en) * 2012-02-08 2013-08-19 Sony Corp Server, client terminal, system and program
JP2014106617A (en) * 2012-11-26 2014-06-09 Mitsubishi Electric Corp On-vehicle information providing device
JP2016103248A (en) * 2014-11-28 2016-06-02 富士通株式会社 Image providing system and image providing method
CN105760533A (en) * 2016-03-08 2016-07-13 广东欧珀移动通信有限公司 Photo management method and photo management device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大網 亮磨、外3名: "車両・人物向けメタデータ解析技術とその応用", NEC技報, vol. 第63巻,第3号, JPN6019022420, 24 September 2010 (2010-09-24), JP, pages 44 - 51, ISSN: 0004854561 *

Also Published As

Publication number Publication date
WO2020044646A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
KR102418446B1 (en) Picture-based vehicle damage assessment method and apparatus, and electronic device
KR102151365B1 (en) Image-based vehicle loss evaluation method, apparatus and system, and electronic device
US10817956B2 (en) Image-based vehicle damage determining method and apparatus, and electronic device
CN106952303B (en) Vehicle distance detection method, device and system
WO2020024457A1 (en) Liability cognizance method and device of traffic accident and computer readable storage medium
CN104011734B (en) System, the method and apparatus of information are obtained from the object for being attached to vehicle
US10943135B2 (en) Information processing apparatus, image delivery system, information processing method, and computer-readable recording medium
WO2018081581A1 (en) Systems and methods for supplementing captured data
WO2020100922A1 (en) Data distribution system, sensor device, and server
US20230245462A1 (en) Systems and methods of legibly capturing vehicle markings
CN105279814A (en) Driving recording treatment method and driving recording treatment system
JP2017004527A (en) Vehicle number information recognition/correspondence system and correspondence method
Hakim et al. Implementation of an image processing based smart parking system using Haar-Cascade method
JP2020518165A (en) Platform for managing and validating content such as video images, pictures, etc. generated by different devices
CN113971821A (en) Driver information determination method and device, terminal device and storage medium
JP2023060081A (en) Processing device
JPWO2020044646A1 (en) Image processing equipment, image processing methods and programs
KR20120070888A (en) Method, electronic device and record medium for provoding information on wanted target
JP7371587B2 (en) Server devices, systems, in-vehicle devices, programs, vehicles, and system operating methods
WO2021075277A1 (en) Information processing device, method, and program
US10893388B2 (en) Map generation device, map generation system, map generation method, and non-transitory storage medium including instructions for map generation
CN114255321A (en) Method and device for collecting pet nose print, storage medium and electronic equipment
CN113496162A (en) Parking specification identification method and device, computer equipment and storage medium
CN111797659A (en) Driving assistance method and device, storage medium and electronic equipment
US20240054795A1 (en) Automatic Vehicle Verification

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220414

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220823