JP5768647B2 - Image recognition system and image recognition method - Google Patents

Image recognition system and image recognition method Download PDF

Info

Publication number
JP5768647B2
JP5768647B2 JP2011223744A JP2011223744A JP5768647B2 JP 5768647 B2 JP5768647 B2 JP 5768647B2 JP 2011223744 A JP2011223744 A JP 2011223744A JP 2011223744 A JP2011223744 A JP 2011223744A JP 5768647 B2 JP5768647 B2 JP 5768647B2
Authority
JP
Japan
Prior art keywords
image
recognition
terminal device
server
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011223744A
Other languages
Japanese (ja)
Other versions
JP2013084130A (en
Inventor
純 金武
純 金武
中山 收文
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011223744A priority Critical patent/JP5768647B2/en
Publication of JP2013084130A publication Critical patent/JP2013084130A/en
Application granted granted Critical
Publication of JP5768647B2 publication Critical patent/JP5768647B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像認識システムおよび画像認識方法に係わる。   The present invention relates to an image recognition system and an image recognition method.

画像認識の1つの応用例として、入力画像についてデータベースで照合を行い、その画像内に映っている物体を認識する画像認識システムが知られている。ところが、データベースが記憶するデータの量は膨大である。よって、ネットワーク型(クライアント/サーバ型)の画像認識システムのニーズが高まってきている。   As one application example of image recognition, an image recognition system is known in which an input image is collated with a database and an object shown in the image is recognized. However, the amount of data stored in the database is enormous. Therefore, there is an increasing need for a network type (client / server type) image recognition system.

ネットワーク型の画像認識システムにおいては、端末装置(クライアント)は、認識対象の画像をサーバへ送信する。そうすると、サーバは、端末装置から受信した画像について認識処理およびデータベース照合を行う。そして、サーバは、認識結果を端末装置へ返送する。   In a network type image recognition system, a terminal device (client) transmits an image to be recognized to a server. Then, the server performs recognition processing and database collation for the image received from the terminal device. Then, the server returns the recognition result to the terminal device.

上述の画像認識システムにおいては、端末装置は、大容量のデータベースを有することなく、認識結果を得ることができる。また、サーバが有するデータベースが適切に更新されていれば、端末装置は、最新のデータベースによる認識結果を得ることができる。   In the above-described image recognition system, the terminal device can obtain a recognition result without having a large-capacity database. Moreover, if the database which a server has is updated appropriately, the terminal device can obtain the recognition result by the newest database.

関連する技術として、下記の静止画検索伝送方法が提案されている。送信側記憶手段に静止画の画像データの他、各静止画の概略表示のための縮小画像データと、当該静止画の説明用文字情報とを格納しておく。受信側へ、上記縮小画像データ及び説明文字情報の送信を行う。受信側でこれを表示して所要画面を選択し、その結果を画像送信要求として送信側へ送信する。(例えば、特許文献1)   As a related technique, the following still image search transmission method has been proposed. In addition to still image data, the transmission-side storage means stores reduced image data for rough display of each still image and explanatory character information for the still image. The reduced image data and explanatory character information are transmitted to the receiving side. This is displayed on the receiving side, a required screen is selected, and the result is transmitted to the transmitting side as an image transmission request. (For example, Patent Document 1)

また、他の関連技術として、下記の画像データの通信方法が提案されている。取り込まれたデータを蓄積し、蓄積されたデータからINDEX画像を作成し、その画像を送信する。受信者は、そのINDEX画像から自分が必要なデータのみ選択し、送信者側ファクシミリ装置にINDEX画像と必要データを通知する。通知後、送信者側ファクシミリ装置は、受信者側ファクシミリ装置から指定されたINDEX画像と通知されたデータを蓄積されたデータから検索し、その後通知されたデータの加工前のデータ及び関連データのみ受信者側ファクシミリ装置に送信する。(例えば、特許文献2)   As another related technique, the following image data communication method has been proposed. The captured data is accumulated, an INDEX image is created from the accumulated data, and the image is transmitted. The receiver selects only necessary data from the INDEX image, and notifies the sender side facsimile apparatus of the INDEX image and the necessary data. After the notification, the sender-side facsimile device searches the stored INDEX image and the notified data specified by the recipient-side facsimile device, and then receives only the data before processing of the notified data and related data. To the facsimile machine on the customer side. (For example, Patent Document 2)

特開平7−219967号公報JP-A-7-219967 特開2004−104711号公報JP 2004-104711 A

ネットワーク型の画像認識システムにおいては、上述のように、端末装置からサーバへ認識対象の画像が伝送される。しかし、画像はデータ量が大きい。このため、ネットワーク型の画像認識システムは、認識レスポンスが遅くなる傾向にある。   In the network type image recognition system, as described above, the recognition target image is transmitted from the terminal device to the server. However, the image has a large amount of data. For this reason, network-type image recognition systems tend to have a slow recognition response.

特に、無線ネットワークにおいては、上り回線(端末装置からサーバへデータを伝送する回線)の通信容量が下り回線(サーバから端末装置へデータを伝送する回線)と比較して大幅に小さいことが多い。したがって、この場合、認識レスポンスがさらに遅くなるおそれがある。   In particular, in a wireless network, the communication capacity of an uplink (a line for transmitting data from a terminal device to a server) is often significantly smaller than that of a downlink (a line for transmitting data from a server to a terminal device). Therefore, in this case, the recognition response may be further delayed.

本発明の課題は、ネットワーク型画像認識システムのレスポンスを向上させることである。   An object of the present invention is to improve the response of a network type image recognition system.

本発明の1つの態様の画像認識システムは、端末装置が取得した画像をサーバにおいて認識する。前記端末装置は、入力画像から加工画像を生成する画像処理部と、前記画像処理部によって生成される加工画像を前記サーバへ送信する通信部と、を有する。前記サーバは、前記端末装置から受信する加工画像に対して認識処理を行う認識部と、前記認識部による認識処理において不足している情報を判断する不足情報判断部と、前記端末装置に対して、前記不足情報判断部による判断結果に対応する画像を要求する要求部と、を有する。前記画像処理部は、前記サーバからの要求に基づいて、前記入力画像から前記加工画像を生成する。   An image recognition system according to one aspect of the present invention recognizes an image acquired by a terminal device in a server. The terminal device includes an image processing unit that generates a processed image from an input image, and a communication unit that transmits the processed image generated by the image processing unit to the server. The server includes a recognition unit that performs recognition processing on the processed image received from the terminal device, a shortage information determination unit that determines information that is insufficient in the recognition processing by the recognition unit, and the terminal device. And a request unit for requesting an image corresponding to the determination result by the lack information determination unit. The image processing unit generates the processed image from the input image based on a request from the server.

上述の態様によれば、ネットワーク型画像認識システムのレスポンスが向上する。   According to the above aspect, the response of the network type image recognition system is improved.

実施形態の画像認識システムの構成および機能を示す図である。It is a figure which shows the structure and function of the image recognition system of embodiment. 画像認識処理の概略を示す図である。It is a figure which shows the outline of an image recognition process. 画像認識処理の実施例を示す図である。It is a figure which shows the Example of an image recognition process. 入力画像の一例を示す図である。It is a figure which shows an example of an input image. (a)は初期画像の一例、(b)(c)はサーバからの要求に応じて生成される画像の一例を示す図である。(A) is an example of an initial image, (b) (c) is a figure which shows an example of the image produced | generated according to the request | requirement from a server. 要求情報の実施例を示す図である。It is a figure which shows the Example of request information. 画像処理部の機能を説明する図である。It is a figure explaining the function of an image processing part. 端末装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a terminal device. サーバの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a server. 車両を認識する実施例においてサーバの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a server in the Example which recognizes a vehicle. 車名を特定する手順を示す図(その1)である。It is a figure (the 1) which shows the procedure which specifies a vehicle name. 車名を特定する手順を示す図(その2)である。It is FIG. (2) which shows the procedure which specifies a vehicle name. 車名を特定する手順を示す図(その3)である。It is FIG. (The 3) which shows the procedure which pinpoints a vehicle name. 車名を特定する手順を示す図(その4)である。It is FIG. (The 4) which shows the procedure which pinpoints a vehicle name. 車名を特定する手順を示す図(その5)である。It is FIG. (5) which shows the procedure which specifies a vehicle name. 車名を特定する手順を示す図(その6)である。It is FIG. (6) which shows the procedure which specifies a vehicle name. 車名を特定する手順を示す図(その7)である。It is FIG. (7) which shows the procedure which specifies a vehicle name. 端末装置およびサーバを実現するためのコンピュータシステムのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the computer system for implement | achieving a terminal device and a server.

図1は、実施形態の画像認識システムの構成および機能を示す図である。実施形態の画像認識システムは、端末装置1およびサーバ2を有する。端末装置1およびサーバ2は、ネットワーク3を介して接続されている。ネットワーク3は、無線ネットワークであってもよいし、有線ネットワークであってもよい。また、ネットワーク3は、無線ネットワークおよび有線ネットワークを含む構成であってもよい。   FIG. 1 is a diagram illustrating a configuration and functions of an image recognition system according to an embodiment. The image recognition system according to the embodiment includes a terminal device 1 and a server 2. The terminal device 1 and the server 2 are connected via a network 3. The network 3 may be a wireless network or a wired network. The network 3 may include a wireless network and a wired network.

なお、図1においては、サーバ2に対して1台の端末装置1が接続されているが、サーバ2は、複数の端末装置を収容してもよい。すなわち、サーバ2は、複数の端末装置と並列に通信を行うようにしてもよい。   In FIG. 1, one terminal apparatus 1 is connected to the server 2, but the server 2 may accommodate a plurality of terminal apparatuses. That is, the server 2 may communicate with a plurality of terminal devices in parallel.

端末装置1は、画像取得部11、記憶装置12、画像処理部13、通信部14、要求処理部15を有する。そして、端末装置1は、カメラ31によって撮影された画像を取得する。   The terminal device 1 includes an image acquisition unit 11, a storage device 12, an image processing unit 13, a communication unit 14, and a request processing unit 15. And the terminal device 1 acquires the image image | photographed with the camera 31. FIG.

カメラ31は、静止画像を取得するデジタルカメラまたは動画像を取得するデジタルビデオカメラである。また、カメラ31は、カラー画像データを生成してもよいし、白黒画像データを生成してもよい。   The camera 31 is a digital camera that acquires a still image or a digital video camera that acquires a moving image. The camera 31 may generate color image data or monochrome image data.

画像取得部11は、カメラ31により生成される画像を取得する。すなわち、画像取得部11は、カメラ31と端末装置1との間のインタフェースを提供する。そして、画像取得部11は、カメラ31から取得した画像を記憶装置12に保存する。ここで、カメラ31が静止画像を出力するときは、画像取得部11は、カメラ31から取得する画像を記憶装置12に保存する。また、カメラ31が動画像を出力するときは、画像取得部11は、動画像中の指定されたタイミングの画像を記憶装置12に保存してもよい。なお、以下の説明では、画像取得部11がカメラ31から取得する画像を「入力画像」と呼ぶことがある。   The image acquisition unit 11 acquires an image generated by the camera 31. That is, the image acquisition unit 11 provides an interface between the camera 31 and the terminal device 1. Then, the image acquisition unit 11 stores the image acquired from the camera 31 in the storage device 12. Here, when the camera 31 outputs a still image, the image acquisition unit 11 stores the image acquired from the camera 31 in the storage device 12. When the camera 31 outputs a moving image, the image acquisition unit 11 may store an image at a designated timing in the moving image in the storage device 12. In the following description, an image acquired by the image acquisition unit 11 from the camera 31 may be referred to as an “input image”.

記憶装置12は、画像取得部11により取得された画像を保存する。記憶装置12は、例えば、フラッシュメモリ等の半導体メモリにより実現される。また、記憶装置12は、ハードディスク、光ディスク等の他の記録媒体で実現してもよい。なお、記憶装置12の記録媒体は、端末装置1に対して着脱可能であってもよい。   The storage device 12 stores the image acquired by the image acquisition unit 11. The storage device 12 is realized by a semiconductor memory such as a flash memory, for example. The storage device 12 may be realized by other recording media such as a hard disk and an optical disk. Note that the recording medium of the storage device 12 may be detachable from the terminal device 1.

画像処理部13は、記憶装置12に保存されている入力画像から加工画像を生成する。ここで、画像処理部13は、予め指定されている規則に基づいて、入力画像から加工画像を生成することができる。また、端末装置1がサーバ2から要求情報を受信したときは、画像処理部13は、その要求情報に基づいて、入力画像から加工画像を生成する。   The image processing unit 13 generates a processed image from the input image stored in the storage device 12. Here, the image processing unit 13 can generate a processed image from the input image based on a rule specified in advance. When the terminal device 1 receives the request information from the server 2, the image processing unit 13 generates a processed image from the input image based on the request information.

通信部14は、画像処理部13によって生成される加工画像をサーバ2へ送信する。また、通信部14は、サーバ2から送信される要求情報を要求処理部15に導く。さらに、通信部14は、サーバ2により得られる画像認識の結果を受信する。   The communication unit 14 transmits the processed image generated by the image processing unit 13 to the server 2. In addition, the communication unit 14 guides request information transmitted from the server 2 to the request processing unit 15. Further, the communication unit 14 receives the result of image recognition obtained by the server 2.

要求処理部15は、サーバ2から送信される要求情報に基づいて、画像処理部13に対して指示を与える。これにより、画像処理部13は、サーバ2から送信される要求情報に基づいて、入力画像から加工画像を生成できる。すなわち、画像処理部13は、サーバ2から要求される画像を生成することができる。   The request processing unit 15 gives an instruction to the image processing unit 13 based on the request information transmitted from the server 2. Thereby, the image processing unit 13 can generate a processed image from the input image based on the request information transmitted from the server 2. That is, the image processing unit 13 can generate an image requested from the server 2.

サーバ2は、通信部21、認識部22、データベース23、不足情報判断部24、要求部25を有する。なお、サーバ2は、データベース23を含まなくてもよい。すなわち、データベース23は、サーバ2の外部に設けてもよい。この場合、サーバ2は、所定のインタフェースでデータベース23にアクセスするものとする。   The server 2 includes a communication unit 21, a recognition unit 22, a database 23, a shortage information determination unit 24, and a request unit 25. Note that the server 2 may not include the database 23. That is, the database 23 may be provided outside the server 2. In this case, it is assumed that the server 2 accesses the database 23 with a predetermined interface.

通信部21は、端末装置1から送信されてくる画像(すなわち、画像処理部13によって生成される加工画像)を認識部22に導く。また、通信部21は、要求部25により生成される要求情報を端末装置1へ送信する。さらに、通信部21は、認識部22による認識結果を端末装置1へ送信する。   The communication unit 21 guides the image transmitted from the terminal device 1 (that is, the processed image generated by the image processing unit 13) to the recognition unit 22. In addition, the communication unit 21 transmits the request information generated by the request unit 25 to the terminal device 1. Furthermore, the communication unit 21 transmits the recognition result obtained by the recognition unit 22 to the terminal device 1.

認識部22は、端末装置1から受信した画像に対して認識処理を行う。このとき、認識部22は、必要に応じて、受信画像とデータベース23に登録されている画像データとを照合する。データベース23には、用途に応じて様々な画像データが登録されている。データベース23に登録されている画像データは、必要に応じて更新される。そして、認識部22は、認識結果を出力する。   The recognition unit 22 performs a recognition process on the image received from the terminal device 1. At this time, the recognition unit 22 collates the received image with the image data registered in the database 23 as necessary. Various image data are registered in the database 23 according to the application. The image data registered in the database 23 is updated as necessary. And the recognition part 22 outputs a recognition result.

不足情報判断部24は、認識部22による認識処理において不足している情報を判断する。すなわち、不足情報判断部24は、認識部22が認識処理を成功させるために必要な情報を特定する。   The deficiency information determination unit 24 determines information that is insufficient in the recognition processing by the recognition unit 22. That is, the shortage information determination unit 24 specifies information necessary for the recognition unit 22 to make the recognition process successful.

要求部25は、不足情報判断部24による判断結果に対応する画像を表す要求情報を生成する。この要求情報は、上述のように、通信部21によって端末装置1へ送信される。すなわち、要求部25は、不足情報判断部24による判断結果に対応する画像を端末装置1に要求する。   The request unit 25 generates request information representing an image corresponding to the determination result by the shortage information determination unit 24. This request information is transmitted to the terminal device 1 by the communication unit 21 as described above. That is, the request unit 25 requests the terminal device 1 for an image corresponding to the determination result by the shortage information determination unit 24.

上述のように、実施形態の画像認識システムでは、端末装置1からサーバ2へ画像が送信され、サーバ2が認識処理を行う。すなわち、サーバ2は、画像認識装置として動作することができる。ここで、仮に、端末装置1がカメラ31からの入力画像をそのままサーバ2へ送信するものとすると、認識処理において必要な情報だけでなく、認識処理に無関係な情報も端末装置1からサーバ2へ伝送される可能性が高い。この場合、端末装置1からサーバ2へ伝送されるデータ量が多くなり、認識レスポンスが遅くなるおそれがある。このため、認識レスポンスを向上させるためには、認識処理に無関係な情報の伝送を抑制し、認識処理に必要な情報のみを伝送する方式が好ましい。しかし、端末装置1は、サーバ2による認識処理において、どのような情報が必要であり、どのような情報が不要であるのかを判断することは困難である。   As described above, in the image recognition system of the embodiment, an image is transmitted from the terminal device 1 to the server 2, and the server 2 performs a recognition process. That is, the server 2 can operate as an image recognition device. If the terminal device 1 transmits the input image from the camera 31 to the server 2 as it is, not only information necessary for the recognition process but also information unrelated to the recognition process is transmitted from the terminal device 1 to the server 2. It is likely to be transmitted. In this case, the amount of data transmitted from the terminal device 1 to the server 2 increases, and the recognition response may be delayed. For this reason, in order to improve the recognition response, a method of suppressing transmission of information unrelated to the recognition process and transmitting only information necessary for the recognition process is preferable. However, it is difficult for the terminal device 1 to determine what information is necessary and what information is unnecessary in the recognition process by the server 2.

そこで、実施形態の画像認識システムでは、下記の2つの処理を採用することにより、1回あたりの通信負荷を下げて認識完了までのレスポンスの向上を図る。ただし、画像認識システムは、下記(1)(2)の一方のみを行うようにしてもよい。   Therefore, in the image recognition system of the embodiment, by adopting the following two processes, the communication load per time is reduced to improve the response until the recognition is completed. However, the image recognition system may perform only one of the following (1) and (2).

(1)対話的なやり取りによる必要情報のみの伝送
サーバ2は、目標とする物体を認識または特定するために不足している情報(または、画像)を判断し、端末装置1にその情報(または、画像)の抽出および伝送を要求する。端末装置1は、サーバ2からの要求に基づいて不足情報(特徴量)を生成または抽出し、生成または抽出した情報のみをサーバ2へ送信する。この対話的なやり取りにより、認識処理に不要な情報の伝送が抑制される。
(1) The transmission server 2 only for necessary information through interactive exchange determines information (or an image) that is insufficient for recognizing or identifying a target object, and the terminal device 1 receives the information (or ), Image) extraction and transmission. The terminal device 1 generates or extracts insufficient information (features) based on a request from the server 2 and transmits only the generated or extracted information to the server 2. By this interactive exchange, transmission of information unnecessary for recognition processing is suppressed.

(2)高次特徴量への変換
端末装置1は、入力画像を高次特徴量へ変換してサーバ2へ送信する。これにより、1回あたりのデータ伝送の情報量が削減される。この結果、サーバ2からのレスポンスの高速化が実現され、帯域の狭い上り回線の通信負荷が軽減される。
(2) Conversion to higher-order feature quantity The terminal device 1 converts the input image into a higher-order feature quantity and transmits it to the server 2. Thereby, the information amount of data transmission per time is reduced. As a result, speeding up of the response from the server 2 is realized, and the communication load on the uplink having a narrow bandwidth is reduced.

図2は、実施形態の画像認識システムにおける画像認識処理の概略を示す。実施形態の画像認識システムにおいては、端末装置1からサーバ2へ画像が送信され、サーバ2において画像認識が行われる。なお、図2では、端末装置1の記憶装置12に入力画像が既に格納されているものとする。また、サーバ2は、端末装置1から受信する画像内に映っている物体を所定のレベルまで認識する画像認識処理を行うものとする。   FIG. 2 shows an outline of image recognition processing in the image recognition system of the embodiment. In the image recognition system of the embodiment, an image is transmitted from the terminal device 1 to the server 2, and the server 2 performs image recognition. In FIG. 2, it is assumed that the input image is already stored in the storage device 12 of the terminal device 1. The server 2 performs image recognition processing for recognizing an object shown in an image received from the terminal device 1 to a predetermined level.

最初(1回目)の認識処理において、端末装置1は、初期画像として、入力画像からその入力画像よりも情報量の少ない特徴画像を生成する。特徴画像は、例えば、入力画像のエッジ画像である。エッジ画像は、例えば、入力画像に対してSobelフィルタ演算を実行することにより生成される。また、特徴画像は、入力画像の縮小エッジ画像であってもよい。そして、端末装置1は、生成した特徴画像をサーバ2へ送信する。なお、端末装置1は、初期画像として、入力画像の縮小画像をサーバ2へ送信してもよい。   In the first (first) recognition process, the terminal device 1 generates a feature image having a smaller amount of information than the input image from the input image as an initial image. The feature image is, for example, an edge image of the input image. The edge image is generated, for example, by executing a Sobel filter operation on the input image. The feature image may be a reduced edge image of the input image. Then, the terminal device 1 transmits the generated feature image to the server 2. Note that the terminal device 1 may transmit a reduced image of the input image to the server 2 as the initial image.

サーバ2は、端末装置1から受信する画像に対して認識処理を行う。ただし、1回目の認識処理で端末装置1から受信する画像は、データ量を抑制するために入力画像よりも情報量が削減された特徴画像である。このため、この特徴画像に対して認識処理を実行した場合、所望の認識結果が得られない可能性がある。図2に示す例では、サーバ2は、上述の特徴画像に対する認識処理では、画像内に映っている物体を所定のレベルまで認識できなかったものとする。   The server 2 performs a recognition process on the image received from the terminal device 1. However, the image received from the terminal device 1 in the first recognition process is a feature image in which the information amount is reduced compared to the input image in order to suppress the data amount. For this reason, when a recognition process is performed on this feature image, a desired recognition result may not be obtained. In the example illustrated in FIG. 2, it is assumed that the server 2 cannot recognize an object shown in the image up to a predetermined level in the recognition process for the feature image.

この場合、サーバ2は、認識処理において不足している情報(すなわち、画像内に映っている物体を所定のレベルまで認識するために必要な情報)を特定し、認識処理に必要な画像の送信を端末装置1に要求する。以降、画像認識システムは、2回目の認識処理に移行する。   In this case, the server 2 identifies information that is insufficient in the recognition process (that is, information necessary for recognizing an object shown in the image up to a predetermined level), and transmits an image necessary for the recognition process. Is requested to the terminal device 1. Thereafter, the image recognition system proceeds to the second recognition process.

なお、サーバ2が上述の特徴画像から画像内に映っている物体を所定のレベルまで認識できたときは、サーバ2は認識処理を終了する。この場合、サーバ2は、認識結果を端末装置1へ送信する。   When the server 2 can recognize the object shown in the image from the above-described feature image to a predetermined level, the server 2 ends the recognition process. In this case, the server 2 transmits the recognition result to the terminal device 1.

2回目の認識処理において、端末装置1は、サーバ2からの要求に基づいて、サーバ2による認識処理において不足している情報を提供する。すなわち、端末装置1は、サーバ2から要求された画像を生成してサーバ2へ送信する。   In the second recognition process, the terminal device 1 provides information that is lacking in the recognition process by the server 2 based on a request from the server 2. That is, the terminal device 1 generates an image requested from the server 2 and transmits it to the server 2.

サーバ2は、上述の要求に応じて端末装置1が新たに生成した画像を受信すると、その画像に対して認識処理を行う。この例では、サーバ2は、2回目の認識処理によっても、画像内に映っている物体を所定のレベルまで認識できなかったものとする。この場合、サーバ2は、1回目の認識処理と同様に、認識処理において不足している情報を特定する。ただし、2回目の認識処理で特定される不足情報は、1回目の認識処理で特定される不足情報とは異なる。そして、サーバ2は、2回目の認識処理で特定された、認識処理に必要な画像の送信を端末装置1に要求する。以降、画像認識システムは、3回目の認識処理に移行する。   When the server 2 receives an image newly generated by the terminal device 1 in response to the above request, the server 2 performs recognition processing on the image. In this example, it is assumed that the server 2 cannot recognize the object shown in the image to a predetermined level even by the second recognition process. In this case, the server 2 specifies information that is insufficient in the recognition process, as in the first recognition process. However, the shortage information specified in the second recognition process is different from the shortage information specified in the first recognition process. Then, the server 2 requests the terminal device 1 to transmit an image specified in the second recognition process and necessary for the recognition process. Thereafter, the image recognition system proceeds to the third recognition process.

3回目以降の認識処理は、2回目の認識処理と実質的に同じである。ただし、各認識処理においてサーバ2が端末装置1に要求する画像は、互いに異なっている。よって、各認識処理において端末装置1がサーバ2へ送信する画像は、互いに異なっている。   The third and subsequent recognition processes are substantially the same as the second recognition process. However, the images requested by the server 2 to the terminal device 1 in each recognition process are different from each other. Therefore, images transmitted from the terminal device 1 to the server 2 in each recognition process are different from each other.

上述の認識処理は、画像内に映っている物体が所定のレベルまで認識されるまで、端末装置1およびサーバ2によって繰り返し実行される。すなわち、端末装置1およびサーバ2は、画像内に映っている物体が所定のレベルまで認識されるまで、サーバ2から端末装置1へ必要な画像を要求する手順、端末装置1がサーバ2からの要求に対応する画像を生成してサーバ2へ送信する手順、サーバ2が新たに受信した画像に対して認識処理を行う手順、を含む対話処理を繰り返し行う。   The above recognition process is repeatedly executed by the terminal device 1 and the server 2 until an object shown in the image is recognized to a predetermined level. That is, the terminal device 1 and the server 2 request the necessary image from the server 2 to the terminal device 1 until the object shown in the image is recognized to a predetermined level. An interactive process including a procedure of generating an image corresponding to the request and transmitting it to the server 2 and a procedure of performing a recognition process on the image newly received by the server 2 are repeatedly performed.

図2に示す例では、N回目の認識処理で、画像内に映っている物体が所定のレベルまで認識されている。そうすると、サーバ2は、認識結果を端末装置1へ送信する。これにより、端末装置1は、入力画像についての認識結果をサーバ2から受け取ることができる。   In the example shown in FIG. 2, the object shown in the image is recognized to a predetermined level in the Nth recognition process. Then, the server 2 transmits the recognition result to the terminal device 1. Accordingly, the terminal device 1 can receive the recognition result for the input image from the server 2.

このように、実施形態の画像認識方法では、端末装置1は、最初の認識処理において、入力画像よりも情報量の少ない特徴画像をサーバ2へ送信する。また、2回目以降の認識処理では、端末装置1は、先の認識処理で不足していると判断された最小限の情報量の画像をサーバ2へ送信する。したがって、入力画像をそのままサーバ2へ送信する方法と比較して、実施形態の画像認識方法は、端末装置1からサーバ2へ伝送されるデータ量が抑制される。   As described above, in the image recognition method of the embodiment, the terminal device 1 transmits a feature image having a smaller amount of information than the input image to the server 2 in the initial recognition process. In the second and subsequent recognition processes, the terminal device 1 transmits to the server 2 an image with the minimum amount of information determined to be insufficient in the previous recognition process. Therefore, compared with the method of transmitting the input image as it is to the server 2, the image recognition method of the embodiment suppresses the amount of data transmitted from the terminal device 1 to the server 2.

ここで、特に無線ネットワークでは、下り回線(サーバ2から端末装置1へデータを伝送する回線)と比較して、上り回線(端末装置1からサーバ2へデータを伝送する回線)の容量が大幅に小さいことが多い。そして、このようなネットワークでは、上り回線のデータ量が増大すると、画像認識システムのレスポンスが劣化するおそれがある。   Here, particularly in a wireless network, the capacity of an uplink (a line for transmitting data from the terminal apparatus 1 to the server 2) is significantly larger than that of a downlink (a line for transmitting data from the server 2 to the terminal apparatus 1). Often small. In such a network, when the amount of uplink data increases, the response of the image recognition system may deteriorate.

しかしながら、実施形態の画像認識方法によれば、上述のように、端末装置1からサーバ2へ伝送されるデータ量が抑制される。よって、実施形態の画像認識方法によれば、特に、下り回線と比較して上り回線の容量が小さいシステムにおいて、画像認識システムのレスポンスが改善される。   However, according to the image recognition method of the embodiment, the amount of data transmitted from the terminal device 1 to the server 2 is suppressed as described above. Therefore, according to the image recognition method of the embodiment, the response of the image recognition system is improved particularly in a system in which the uplink capacity is small compared to the downlink.

図3は、実施形態の画像認識システムにおける画像認識処理の実施例を示す。この実施例では、端末装置1は、自動車などの車両に搭載されている。また、図1に示すカメラ31も同じ車両に搭載されている。カメラ31は、その車両の周辺の画像を取得する。そして、端末装置1は、カメラ31から入力される画像の中に映っている物体(主に、他の車両)を認識する処理をサーバ2に依頼する。   FIG. 3 shows an example of image recognition processing in the image recognition system of the embodiment. In this embodiment, the terminal device 1 is mounted on a vehicle such as an automobile. A camera 31 shown in FIG. 1 is also mounted on the same vehicle. The camera 31 acquires an image around the vehicle. Then, the terminal device 1 requests the server 2 to perform processing for recognizing an object (mainly another vehicle) shown in the image input from the camera 31.

図4は、入力画像の一例を示す。この入力画像は、カメラ31が駐車場を撮影することにより得られたものである。また、この入力画像の中には、1台の車両が映っている。そして、この入力画像は、図1に示す記憶装置12に記憶されている。   FIG. 4 shows an example of the input image. This input image is obtained by the camera 31 photographing a parking lot. In addition, one vehicle is shown in this input image. The input image is stored in the storage device 12 shown in FIG.

端末装置1は、図4に示す入力画像から図5(a)に示す縮小エッジ画像を生成する。縮小エッジ画像は、画像処理部13により生成される。このとき、画像処理部13は、入力画像を縮小する処理を実行した後に、その縮小画像のエッジ画像を生成することができる。或いは、画像処理部13は、入力画像のエッジ画像を生成する処理を実行した後に、そのエッジ画像を縮小してもよい。なお、縮小率は、予め指定されているものとする。また、エッジ画像は、例えば、X方向SobelフィルタおよびY方向Sobelフィルタを利用して生成される。各Sobelフィルタのサイズおよび係数も、予め指定されているものとする。このようにして生成される縮小エッジ画像のデータ量は、入力画像と比較して大幅に少ない。そして、端末装置1の送信部14は、上述のようにして生成された縮小エッジ画像をサーバ2へ送信する。   The terminal device 1 generates a reduced edge image shown in FIG. 5A from the input image shown in FIG. The reduced edge image is generated by the image processing unit 13. At this time, the image processing unit 13 can generate an edge image of the reduced image after executing the process of reducing the input image. Alternatively, the image processing unit 13 may reduce the edge image after executing the process of generating the edge image of the input image. It is assumed that the reduction rate is designated in advance. The edge image is generated using, for example, an X-direction Sobel filter and a Y-direction Sobel filter. It is assumed that the size and coefficient of each Sobel filter are also specified in advance. The data amount of the reduced edge image generated in this way is significantly smaller than that of the input image. Then, the transmission unit 14 of the terminal device 1 transmits the reduced edge image generated as described above to the server 2.

サーバ2は、上述の縮小エッジ画像を端末装置1から受信する。そうすると、図1に示す認識部22は、受信した縮小エッジ画像に対して認識処理を行う。そして、この実施例では、認識部22は、図5(a)に示す縮小エッジ画像に対して認識処理を行うことにより、画像内に車両が存在している可能性が高いと判定する。なお、エッジ画像内に車両が存在するか否かを判定する方法は、特に限定されるものではなく、公知のアルゴリズムを利用してもよい。例えば、認識部22は、略水平方向に伸びる複数のエッジおよび略垂直方向に伸びる複数のエッジの組合せに基づいて、車両の存在を推定してもよい。   The server 2 receives the above-described reduced edge image from the terminal device 1. Then, the recognition unit 22 illustrated in FIG. 1 performs a recognition process on the received reduced edge image. In this embodiment, the recognition unit 22 performs a recognition process on the reduced edge image illustrated in FIG. 5A to determine that there is a high possibility that a vehicle is present in the image. The method for determining whether or not a vehicle is present in the edge image is not particularly limited, and a known algorithm may be used. For example, the recognition unit 22 may estimate the presence of the vehicle based on a combination of a plurality of edges extending in a substantially horizontal direction and a plurality of edges extending in a substantially vertical direction.

ただし、この実施例では、認識部22は、縮小エッジ画像から車両の車種および車名までは認識できないものとする。そうすると、図1に示す不足情報判断部24は、画像内に映っている車両の車種および車名を認識するために必要な情報を特定する。この実施例では、認識部22は、画像内に映っている車両の向き(正面、横、斜め、後ろ)を推定するために、車両の下端部の画像を使用するものとする。この場合、不足情報判断部24は、「車両の下端部の画像が不足している」と判断する。   However, in this embodiment, it is assumed that the recognition unit 22 cannot recognize the vehicle type and vehicle name from the reduced edge image. Then, the shortage information determination unit 24 shown in FIG. 1 specifies information necessary for recognizing the vehicle type and vehicle name of the vehicle shown in the image. In this embodiment, the recognizing unit 22 uses the image of the lower end of the vehicle in order to estimate the direction of the vehicle (front, side, diagonal, and rear) shown in the image. In this case, the shortage information determination unit 24 determines that “the image of the lower end portion of the vehicle is insufficient”.

そうすると、要求部25は、端末装置1に対して、画像内に映っている車両の下端部の画像を要求する。このとき、要求部25は、例えば、要求情報を利用して、車両の下端部を含む矩形領域を指定する。この矩形領域は、情報量を少なくするためには、例えば、車両の下端部を含む最小の矩形である。図4に示す例では、要求部25は、矩形R1を指定する。この場合、要求情報は、矩形領域の位置およびサイズを特定する座標情報を含む。そして、サーバ2は、この要求情報を端末装置1へ送信する。すなわち、サーバ2は、画像内に映っている車両の車種および車名を認識するために必要な画像を端末装置1に要求する。   Then, the request unit 25 requests the terminal device 1 for an image of the lower end portion of the vehicle shown in the image. At this time, the request unit 25 uses, for example, request information to specify a rectangular area including the lower end of the vehicle. In order to reduce the amount of information, this rectangular area is, for example, the smallest rectangle that includes the lower end of the vehicle. In the example shown in FIG. 4, the request unit 25 specifies a rectangle R1. In this case, the request information includes coordinate information that specifies the position and size of the rectangular area. Then, the server 2 transmits this request information to the terminal device 1. That is, the server 2 requests the terminal device 1 for an image necessary for recognizing the vehicle type and vehicle name of the vehicle shown in the image.

端末装置1は、サーバ2から上述の要求情報を受信すると、図4に示す入力画像から、その要求情報で指定されている画像を抽出する。すなわち、画像処理部13は、入力画像から矩形R1の内側の画像を抽出することにより、車両の下端部を含む図5(b)に示す部分画像を生成する。そして、端末装置1は、車両の下端部を含む部分画像をサーバ2へ送信する。   When receiving the above request information from the server 2, the terminal device 1 extracts the image specified by the request information from the input image shown in FIG. That is, the image processing unit 13 generates a partial image shown in FIG. 5B including the lower end portion of the vehicle by extracting an image inside the rectangle R1 from the input image. Then, the terminal device 1 transmits a partial image including the lower end portion of the vehicle to the server 2.

サーバ2は、車両の下端部を含む部分画像を端末装置1から受信する。そうすると、認識部22は、受信した部分画像に対して認識処理を行う。そして、この実施例では、認識部22は、車両の下端部を含む部分画像に対して認識処理を行うことにより、画像内に映っている車両の向きを推定する。   The server 2 receives a partial image including the lower end portion of the vehicle from the terminal device 1. Then, the recognition unit 22 performs a recognition process on the received partial image. In this embodiment, the recognition unit 22 estimates the direction of the vehicle shown in the image by performing recognition processing on the partial image including the lower end of the vehicle.

車両の下端部を含む画像を利用する場合、車両の向きに対応するパーツ(エンブレム、フロントグリル、ナンバープレート、ライト、タイヤ、ドアなど)を検出することで、車両の向きを推定することができる。例えば、ナンバープレートおよび/またはタイヤを検出することで車両の向きが推定される。ナンバープレートは、車両の前方および後方にのみ存在するので、横方向に長辺を有する略矩形(すなわち、ナンバープレート)を検出することで、車両の大まかな向き(前向き、後向き、斜め)を推定できる。また、車両を側方から見たときに、タイヤは略円または略楕円に見えるので、そのような形状(すなわち、タイヤ)を検出することで車両の大まかな向き(横向き、斜め)を推定できる。すなわち、タイヤが検出されずにナンバープレートが検出されたときは、車両の向きは前向きまたは後向きと推定される。また、ナンバープレートが検出されずにタイヤが検出されたときは、車両の向きは横向きと推定される。さらに、ナンバープレートおよびタイヤが検出されたときは、車両の向きは斜向きと推定される。   When using an image including the lower end of the vehicle, the vehicle orientation can be estimated by detecting parts (emblem, front grill, license plate, light, tire, door, etc.) corresponding to the vehicle orientation. . For example, the direction of the vehicle is estimated by detecting a license plate and / or a tire. Since the license plate exists only in the front and rear of the vehicle, the rough direction (forward, backward, diagonal) of the vehicle is estimated by detecting a substantially rectangular shape with a long side in the lateral direction (that is, the license plate). it can. In addition, when the vehicle is viewed from the side, the tires appear to be approximately circular or approximately oval. Therefore, by detecting such a shape (that is, the tire), it is possible to estimate the rough direction of the vehicle (sideways, oblique). . That is, when the license plate is detected without detecting the tire, the vehicle direction is estimated to be forward or backward. Further, when the tire is detected without detecting the license plate, it is estimated that the vehicle is oriented sideways. Further, when the license plate and the tire are detected, it is estimated that the vehicle is inclined.

このようにして、サーバ2は、車両の下端部を含む部分画像に基づいて、画像内に映っている車両の向きを推定する。しかし、この実施例では、認識部22は、未だ車両の車種および車名までは認識できないものとする。そうすると、不足情報判断部24は、画像内に映っている車両の車種および車名を認識するために必要な別の情報を特定する。この実施例では、認識部22は、画像内に映っている車両の車種および車名を認識するために、車両の中央部の画像を使用するものとする。この場合、不足情報判断部24は、「車両の中央部の画像が不足している」と判断する。   In this way, the server 2 estimates the orientation of the vehicle shown in the image based on the partial image including the lower end portion of the vehicle. However, in this embodiment, it is assumed that the recognition unit 22 cannot recognize the vehicle type and vehicle name of the vehicle. Then, the shortage information determination unit 24 specifies other information necessary for recognizing the vehicle type and vehicle name of the vehicle shown in the image. In this embodiment, it is assumed that the recognition unit 22 uses the image of the center of the vehicle in order to recognize the vehicle type and vehicle name of the vehicle shown in the image. In this case, the shortage information determination unit 24 determines that “the image at the center of the vehicle is insufficient”.

そうすると、要求部25は、端末装置1に対して、画像内に映っている車両の中央部の画像を要求する。このとき、要求部25は、例えば、要求情報を利用して、車両の中央部を含む矩形領域を指定する。この矩形領域は、情報量を少なくするためには、例えば、車両の中央部を含む最小の矩形である。図4に示す例では、要求部25は、矩形R2を指定する。この場合も、要求情報は、矩形領域の位置およびサイズを特定する座標情報を含む。そして、サーバ2は、この要求情報を端末装置1へ送信する。すなわち、サーバ2は、画像内に映っている車両の車種および車名を認識するために必要な別の画像を端末装置1に要求する。   If it does so, the request | requirement part 25 will request | require the image of the center part of the vehicle currently reflected in the image with respect to the terminal device 1. FIG. At this time, the request unit 25 uses, for example, request information to designate a rectangular area including the central part of the vehicle. In order to reduce the amount of information, this rectangular area is, for example, the smallest rectangle that includes the center of the vehicle. In the example illustrated in FIG. 4, the request unit 25 designates a rectangle R2. Also in this case, the request information includes coordinate information specifying the position and size of the rectangular area. Then, the server 2 transmits this request information to the terminal device 1. That is, the server 2 requests the terminal device 1 for another image necessary for recognizing the type and name of the vehicle shown in the image.

端末装置1は、サーバ2から上述の要求情報を受信すると、図4に示す入力画像から、その要求情報で指定されている画像を抽出する。すなわち、画像処理部13は、入力画像から矩形R2の内側の画像を抽出することにより、車両の中央部を含む図5(c)に示す部分画像を生成する。そして、端末装置1は、車両の下端部を含む部分画像をサーバ2へ送信する。   When receiving the above request information from the server 2, the terminal device 1 extracts the image specified by the request information from the input image shown in FIG. That is, the image processing unit 13 extracts the image inside the rectangle R2 from the input image, thereby generating a partial image shown in FIG. 5C including the central portion of the vehicle. Then, the terminal device 1 transmits a partial image including the lower end portion of the vehicle to the server 2.

サーバ2は、車両の中央部を含む部分画像を端末装置1から受信する。そうすると、認識部22は、受信した部分画像に対して認識処理を行う。そして、この実施例では、認識部22は、車両の中央部を含む部分画像に対して認識処理を行うことにより、画像内に映っている車両の車種、製造メーカー、車名を特定できるものとする。   The server 2 receives a partial image including the central portion of the vehicle from the terminal device 1. Then, the recognition unit 22 performs a recognition process on the received partial image. In this embodiment, the recognition unit 22 can identify the vehicle type, manufacturer, and vehicle name of the vehicle shown in the image by performing recognition processing on the partial image including the central portion of the vehicle. To do.

ここで、先の画像処理によって、画像内に映っている車両の車種および向きが特定されている場合について考える。例えば、車種が「セダン」であるものとする。この場合、車両の前面には、エンブレムが取り付けられていることが多い。よって、車両の向きが「前向き」であるときは、エンブレムに基づいて製造メーカーを特定できる可能性が高い。また、車両の後方部分には、車名(型名)が表示されていることが多い。よって、車両の向きが「後向き」であるときは、画像に対して文字認識を行うことで、車名(型名)を特定できる可能性が高い。   Here, consider the case where the vehicle type and direction of the vehicle shown in the image are specified by the previous image processing. For example, it is assumed that the vehicle type is “sedan”. In this case, an emblem is often attached to the front surface of the vehicle. Therefore, when the direction of the vehicle is “forward”, it is highly possible that the manufacturer can be specified based on the emblem. In many cases, a vehicle name (model name) is displayed at the rear of the vehicle. Therefore, when the direction of the vehicle is “backward”, it is highly possible that the vehicle name (model name) can be specified by performing character recognition on the image.

このようにして、サーバ2は、車両の中央部を含む部分画像に基づいて、画像内に映っている車両の車種、製造メーカー、車名を特定する。そうすると、サーバ2は、その認識結果を端末装置1へ送信する。   In this manner, the server 2 specifies the vehicle type, manufacturer, and vehicle name of the vehicle shown in the image based on the partial image including the central portion of the vehicle. Then, the server 2 transmits the recognition result to the terminal device 1.

図6は、サーバ2が端末装置1に対して画像を要求するために使用する要求情報の実施例を示す。要求情報は、「認識完了フラグ」「画像タイプ」「処理範囲」「縮小率」を含む。また、要求情報は、不足情報判断部24の判断結果に基づいて、要求部25により作成される。   FIG. 6 shows an example of request information used by the server 2 to request an image from the terminal device 1. The request information includes “recognition completion flag”, “image type”, “processing range”, and “reduction rate”. The request information is created by the request unit 25 based on the determination result of the shortage information determination unit 24.

認識完了フラグは、認識部22による認識処理が終了したか否かを表す。認識部22において所定の認識結果が得られたときは「認識完了フラグ=1」が生成され、所定の認識結果が得られていないときは「認識完了フラグ=0」が生成される。図3〜図5に示す例では、画像内に映っている車両の車名が特定されたときに、認識処理が終了したと判定される。   The recognition completion flag indicates whether or not the recognition process by the recognition unit 22 has been completed. When the recognition unit 22 obtains a predetermined recognition result, “recognition completion flag = 1” is generated, and when the predetermined recognition result is not obtained, “recognition completion flag = 0” is generated. In the example shown in FIGS. 3 to 5, it is determined that the recognition process has been completed when the name of the vehicle shown in the image is specified.

画像タイプ情報は、サーバ2が認識処理において必要とする画像のタイプを表す。この実施例では、サーバ2が原画像(カラー画像)を要求するときは「画像タイプ=0」が設定され、グレー画像を要求するときは「画像タイプ=1」が設定され、エッジ画像を要求するときは「画像タイプ=2」が設定される。   The image type information represents the type of image that the server 2 needs in the recognition process. In this embodiment, when the server 2 requests an original image (color image), “image type = 0” is set. When a gray image is requested, “image type = 1” is set, and an edge image is requested. To do so, “image type = 2” is set.

処理範囲情報は、サーバ2が認識処理において必要とする画像の範囲(すなわち、画像領域)を表す。この実施例では、処理範囲情報は、矩形領域のサイズおよび位置を指定できる。この場合、処理範囲情報は、例えば、要求する矩形画像領域の左上頂点および右下頂点の座標を指定する。或いは、処理範囲情報は、要求する矩形画像領域の4つの頂点の座標を指定してもよい。なお、サーバ2が端末装置1に要求できる画像領域の形状は、矩形に限定されるものではない。   The processing range information represents an image range (that is, an image region) that the server 2 needs in recognition processing. In this embodiment, the processing range information can specify the size and position of a rectangular area. In this case, the processing range information specifies, for example, the coordinates of the upper left vertex and the lower right vertex of the requested rectangular image area. Alternatively, the processing range information may specify the coordinates of the four vertices of the requested rectangular image area. Note that the shape of the image area that the server 2 can request from the terminal device 1 is not limited to a rectangle.

縮小率情報は、サーバ2が認識処理において必要とする画像のサイズを表す。指定可能な縮小率は、例えば、原画像の1/2、1/4等である。ただし、縮小率情報は、0〜100パーセントの範囲で任意の縮小率を指定できるようにしてもよい。   The reduction rate information represents the size of an image that the server 2 needs in the recognition process. The reduction ratio that can be specified is, for example, 1/2, 1/4, or the like of the original image. However, the reduction rate information may be set so that an arbitrary reduction rate can be specified in the range of 0 to 100 percent.

なお、要求情報は、他の情報を含んでもよい。例えば、要求情報は、エッジ画像を生成するためのフィルタの係数を指定する情報、エッジの種類(例えば、斜め方向のエッジが抽出されたエッジ画像)を指定する情報を含むようにしてもよい。
要求情報は、サーバ2から端末情報1へ送信される。そうすると、端末装置1の画像処理部13は、その要求情報に応じて加工画像を生成する。
The request information may include other information. For example, the request information may include information specifying a filter coefficient for generating an edge image and information specifying an edge type (for example, an edge image from which an edge in a diagonal direction is extracted).
The request information is transmitted from the server 2 to the terminal information 1. Then, the image processing unit 13 of the terminal device 1 generates a processed image according to the request information.

図7は、画像処理部13の機能を説明する図である。画像処理部13は、画像メモリ41、グレー画像生成部42、エッジ画像生成部43、領域抽出部44、画像縮小部45を有する。そして、画像処理部13は、記憶装置12から入力画像を取得する。この入力画像(すなわち、原画像)は、いったん画像メモリ41に格納される。   FIG. 7 is a diagram illustrating the function of the image processing unit 13. The image processing unit 13 includes an image memory 41, a gray image generation unit 42, an edge image generation unit 43, a region extraction unit 44, and an image reduction unit 45. Then, the image processing unit 13 acquires an input image from the storage device 12. This input image (that is, the original image) is temporarily stored in the image memory 41.

サーバ2からグレー画像が要求されたときは、グレー画像生成部42は、画像メモリ41に格納されているカラー画像からグレー画像を生成する。グレー画像生成部42により生成されたグレー画像は、画像メモリ41に格納される。   When a gray image is requested from the server 2, the gray image generation unit 42 generates a gray image from the color image stored in the image memory 41. The gray image generated by the gray image generation unit 42 is stored in the image memory 41.

サーバ2からエッジ画像が要求されたときは、エッジ画像生成部43は、画像メモリ41に格納されている画像からエッジ画像を生成する。ここで、エッジ画像生成部43は、X方向Sobelフィルタ43xおよびY方向Sobelフィルタ43yを有する。すなわち、エッジ画像生成部43は、水平方向エッジ画像および垂直方向エッジ画像を生成することができる。そして、エッジ画像生成部43により生成されたエッジ画像は、画像メモリ41に格納される。   When an edge image is requested from the server 2, the edge image generation unit 43 generates an edge image from the image stored in the image memory 41. Here, the edge image generation unit 43 includes an X-direction Sobel filter 43x and a Y-direction Sobel filter 43y. That is, the edge image generation unit 43 can generate a horizontal edge image and a vertical edge image. The edge image generated by the edge image generation unit 43 is stored in the image memory 41.

サーバ2から受信する要求情報において処理範囲情報が設定されているときは、領域抽出部44は、画像メモリ41に格納されている画像から、指定された処理範囲内の画像を抽出する。領域抽出部44により抽出された画像(すなわち、部分画像)は、画像メモリ41に格納される。   When the processing range information is set in the request information received from the server 2, the region extraction unit 44 extracts an image within the designated processing range from the image stored in the image memory 41. The image extracted by the region extraction unit 44 (that is, the partial image) is stored in the image memory 41.

サーバ2から受信する要求情報において縮小率情報が設定されているときは、画像縮小部45は、指定されている縮小率に応じて画像メモリ41に格納されている画像を縮小する。画像縮小部45により生成される縮小画像は、画像メモリ41に格納される。   When the reduction rate information is set in the request information received from the server 2, the image reduction unit 45 reduces the image stored in the image memory 41 according to the specified reduction rate. The reduced image generated by the image reduction unit 45 is stored in the image memory 41.

画像処理部13は、グレー画像生成部42、エッジ画像生成部43、領域抽出部44、または画像縮小部45によって生成された加工画像を出力する。ただし、画像処理部13は、グレー画像生成部42、エッジ画像生成部43、領域抽出部44、画像縮小部45のうちの2以上を利用して生成した加工画像を出力することもできる。例えば、サーバ2から縮小エッジ画像が要求されたときは、画像処理部13は、エッジ画像生成部43および画像縮小部45を利用して要求された画像を生成する。このとき、例えば、エッジ画像生成部43が入力画像からエッジ画像を生成し、その後、画像縮小部45がそのエッジ画像から縮小エッジ画像を生成する。あるいは、画像縮小部45が入力画像から縮小画像を生成し、その後、エッジ画像生成部43がその縮小画像から縮小エッジ画像を生成してもよい。   The image processing unit 13 outputs the processed image generated by the gray image generation unit 42, the edge image generation unit 43, the region extraction unit 44, or the image reduction unit 45. However, the image processing unit 13 can output a processed image generated using two or more of the gray image generation unit 42, the edge image generation unit 43, the region extraction unit 44, and the image reduction unit 45. For example, when a reduced edge image is requested from the server 2, the image processing unit 13 uses the edge image generation unit 43 and the image reduction unit 45 to generate the requested image. At this time, for example, the edge image generation unit 43 generates an edge image from the input image, and then the image reduction unit 45 generates a reduced edge image from the edge image. Alternatively, the image reduction unit 45 may generate a reduced image from the input image, and then the edge image generation unit 43 may generate a reduced edge image from the reduced image.

このように、画像処理部13は、サーバ2から受信する要求情報に従って、入力画像から加工画像を生成する。すなわち、画像処理部13は、サーバ2から要求された画像を生成する。そして、端末装置1は、画像処理部13により生成された加工画像(すなわち、サーバ2から要求された画像)をサーバ2へ送信する。   Thus, the image processing unit 13 generates a processed image from the input image in accordance with the request information received from the server 2. That is, the image processing unit 13 generates an image requested from the server 2. Then, the terminal device 1 transmits the processed image generated by the image processing unit 13 (that is, the image requested from the server 2) to the server 2.

図8は、実施形態の画像認識システムにおいて端末装置1の動作を示すフローチャートである。このフローチャートの処理は、例えば、画像認識を開始する旨の指示が端末装置1に与えられときに実行される。画像認識を開始する旨の指示は、例えば、ユーザにより与えられる。   FIG. 8 is a flowchart showing the operation of the terminal device 1 in the image recognition system of the embodiment. The process of this flowchart is executed when, for example, an instruction to start image recognition is given to the terminal device 1. An instruction to start image recognition is given by a user, for example.

ステップS1において、画像処理部13は、記憶装置12から入力画像を取得する。なお、記憶装置12には、この時点で、カメラ31によって生成された画像が格納されているものとする。   In step S <b> 1, the image processing unit 13 acquires an input image from the storage device 12. It is assumed that the storage device 12 stores an image generated by the camera 31 at this time.

ステップS2において、要求処理部15は、端末装置1がサーバ2から要求情報を受信しているか否かを判定する。端末装置1がサーバ2から要求情報を受信していなければ、端末装置1の処理はステップS3へ移行する。一方、端末装置1がサーバ2から要求情報を受信していれば、端末装置1の処理はステップS4へ移行する。なお、このフローチャートの処理が開始された直後の初期動作状態においては、端末装置1はサーバ2から要求情報を受信していないので、ステップS3の処理が実行される。   In step S <b> 2, the request processing unit 15 determines whether the terminal device 1 has received request information from the server 2. If the terminal device 1 has not received the request information from the server 2, the processing of the terminal device 1 proceeds to step S3. On the other hand, if the terminal device 1 has received the request information from the server 2, the processing of the terminal device 1 proceeds to step S4. Note that in the initial operation state immediately after the processing of this flowchart is started, the terminal device 1 has not received the request information from the server 2, and therefore the processing of step S3 is executed.

ステップS3において、画像処理部13は、予め指定されている規則に従って、入力画像から初期画像を生成する。この規則は、例えば、サーバ2から指定される。或いは、この規則は、端末装置1とサーバ2との間のネゴシエーションで決定してもよい。一例としては、「画像タイプ=2(エッジ画像)」および「縮小率=1/4」が指定されている。この場合、画像処理部13は、入力画像から1/4に縮小されたエッジ画像を生成する。   In step S3, the image processing unit 13 generates an initial image from the input image according to a rule specified in advance. This rule is specified from the server 2, for example. Alternatively, this rule may be determined by negotiation between the terminal device 1 and the server 2. As an example, “image type = 2 (edge image)” and “reduction ratio = 1/4” are designated. In this case, the image processing unit 13 generates an edge image reduced to ¼ from the input image.

端末装置1がサーバ2から要求情報を受信していれば、ステップS4の処理が実行される。ステップS4において、要求処理部15は、受信した要求情報に従って、画像処理部13に対して加工画像の生成方法の規則を与える。そして、画像処理部13は、要求処理部15から与えられる規則に従って、入力画像から加工画像を生成する。例えば、サーバ2からの要求情報において「処理範囲」が設定されていたときは、画像処理部13は、入力画像から、要求情報に設定されている処理範囲の内側の画像を抽出することにより、サーバ2から要求された画像を生成する。   If the terminal device 1 has received the request information from the server 2, the process of step S4 is executed. In step S <b> 4, the request processing unit 15 gives a rule for a processed image generation method to the image processing unit 13 in accordance with the received request information. Then, the image processing unit 13 generates a processed image from the input image according to the rules given from the request processing unit 15. For example, when the “processing range” is set in the request information from the server 2, the image processing unit 13 extracts an image inside the processing range set in the request information from the input image, The image requested from the server 2 is generated.

ステップS5において、通信部14は、ステップS3またはS4で画像処理部13によって生成された画像をサーバ2へ送信する。すなわち、最初の認識処理では、通信部14は、ステップS3で生成される初期画像をサーバ2へ送信する。また、2回目以降の認識処理では、通信部14は、サーバ2からの要求に応じてステップS4で生成された画像をサーバ2へ送信する。   In step S5, the communication unit 14 transmits the image generated by the image processing unit 13 in step S3 or S4 to the server 2. That is, in the first recognition process, the communication unit 14 transmits the initial image generated in step S3 to the server 2. In the second and subsequent recognition processes, the communication unit 14 transmits the image generated in step S <b> 4 to the server 2 in response to a request from the server 2.

サーバ2は、端末装置1から受信する画像に対して認識処理を実行する。そして、サーバ2は、認識処理の状況または結果に応じて要求情報を作成し、その要求情報を端末装置1へ送信する。   The server 2 executes a recognition process on the image received from the terminal device 1. Then, the server 2 creates request information according to the status or result of the recognition process, and transmits the request information to the terminal device 1.

ステップS6〜S7において、端末装置1は、サーバ2から要求情報を受信する。要求情報は、要求処理部15により解釈される。そして、認識完了フラグが「1:完了」であれば、端末装置1の処理は終了する。なお、図8においては省略されているが、認識完了フラグが「1:完了」であるときは、端末装置1は、サーバ2から認識結果も受信する。一方、認識完了フラグが「0:未完了」であれば、端末装置1の処理はステップS4に移行する。   In steps S <b> 6 to S <b> 7, the terminal device 1 receives request information from the server 2. The request information is interpreted by the request processing unit 15. If the recognition completion flag is “1: completion”, the processing of the terminal device 1 is terminated. Although omitted in FIG. 8, when the recognition completion flag is “1: completed”, the terminal device 1 also receives a recognition result from the server 2. On the other hand, if the recognition completion flag is “0: incomplete”, the processing of the terminal device 1 proceeds to step S4.

このように、端末装置1は、ステップS3、S5で初期画像を送信する。その後は、端末装置1は、サーバ2での認識処理が完了するまで、ステップS4〜S7の処理を繰り返し実行する。すなわち、端末装置1は、サーバ2から画像を要求される毎に、要求された画像を生成してサーバ2へ送信する。   Thus, the terminal device 1 transmits an initial image in steps S3 and S5. Thereafter, the terminal device 1 repeatedly executes the processes in steps S4 to S7 until the recognition process in the server 2 is completed. That is, every time an image is requested from the server 2, the terminal device 1 generates the requested image and transmits it to the server 2.

図9は、実施形態の画像認識システムにおいてサーバ2の動作を示すフローチャートである。このフローチャートの処理は、例えば、サーバ2が端末装置1から画像認識の依頼を受け取ったときに実行される。   FIG. 9 is a flowchart showing the operation of the server 2 in the image recognition system of the embodiment. The process of this flowchart is executed when the server 2 receives a request for image recognition from the terminal device 1, for example.

ステップS11において、通信部21は、端末装置1から画像を受信する。このとき、サーバ2は、図8のステップS3またはS4で生成された画像を受信する。
ステップS12〜S13において、認識部22は、端末装置1から受信する画像に対して認識処理を実行する。このとき、認識部22は、必要に応じてデータベース23との照合を行ってもよい。そして、認識処理が完了していなければ、サーバ2の処理はステップS14へ移行する。一方、認識処理が完了したときは、サーバ2の処理はステップS16へ移行する。例えば、図3に示す実施例では、画像認識処理は、画像内に映っている車両の車種および車名を特定することを目的としている。この場合、画像内に映っている車両の車種および車名が特定されたときに、認識処理が完了したと判定される。
In step S <b> 11, the communication unit 21 receives an image from the terminal device 1. At this time, the server 2 receives the image generated in step S3 or S4 in FIG.
In steps S <b> 12 to S <b> 13, the recognition unit 22 performs a recognition process on the image received from the terminal device 1. At this time, the recognition unit 22 may collate with the database 23 as necessary. If the recognition process has not been completed, the process of the server 2 proceeds to step S14. On the other hand, when the recognition process is completed, the process of the server 2 proceeds to step S16. For example, in the embodiment shown in FIG. 3, the image recognition process is intended to specify the vehicle type and vehicle name of the vehicle shown in the image. In this case, it is determined that the recognition process has been completed when the vehicle type and vehicle name of the vehicle shown in the image are specified.

ステップS14において、不足情報判断部24は、認識部22による認識処理で不足している情報を判断する。すなわち、不足情報判断部24は、認識処理を完了させるためにどのような画像が必要であるのかを判断する。例えば、図3に示す実施例では、「車両の下端部の画像が不足している」あるいは「車両の中央部の画像が不足している」と判断されている。   In step S <b> 14, the shortage information determination unit 24 determines information that is insufficient in the recognition process performed by the recognition unit 22. That is, the shortage information determination unit 24 determines what kind of image is necessary to complete the recognition process. For example, in the embodiment shown in FIG. 3, it is determined that “the image at the lower end of the vehicle is insufficient” or “the image at the center of the vehicle is insufficient”.

ステップS15において、要求部25は、不足情報判断部24による判断結果に基づいて、不足している情報を端末装置1に要求する。すなわち、サーバ2は、認識処理を完了させるために必要な画像を端末装置1に要求する。この要求は、図6に示す要求情報を端末装置1へ送信することにより実現される。   In step S <b> 15, the request unit 25 requests the terminal device 1 for missing information based on the determination result by the shortage information determination unit 24. That is, the server 2 requests the terminal device 1 for an image necessary for completing the recognition process. This request is realized by transmitting the request information shown in FIG.

端末装置1は、サーバ2から要求情報を受信すると、図8を参照しながら説明したように、要求された画像を生成してサーバ2へ送信する。そして、サーバ2は、その画像を受信する。すなわち、サーバ2の処理は、ステップS15を実行した後、ステップS11に戻ることになる。   When receiving the request information from the server 2, the terminal device 1 generates the requested image and transmits it to the server 2 as described with reference to FIG. 8. Then, the server 2 receives the image. That is, the process of the server 2 returns to step S11 after executing step S15.

認識部22による認識処理が完了したときは(ステップS13:YES)、ステップS16の処理が実行される。ステップS16において、サーバ2は、認識部22による認識結果を端末装置1へ送信する。このとき、サーバ2は、認識結果に加えて、「完了フラグ=1(完了)」が設定された要求情報を端末装置1へ送信する。   When the recognition process by the recognition unit 22 is completed (step S13: YES), the process of step S16 is executed. In step S <b> 16, the server 2 transmits the recognition result by the recognition unit 22 to the terminal device 1. At this time, in addition to the recognition result, the server 2 transmits request information in which “completion flag = 1 (completion)” is set to the terminal device 1.

このように、サーバ2は、端末装置1から画像を受信する毎に、その画像に対して認識処理を行う。そして、認識処理が完了しなかったときは、サーバ2は、認識処理を完了させるために必要な画像を端末装置1に要求する。すなわち、サーバ2は、認識処理が完了するまで、ステップS11〜S15を繰り返し実行することにより、端末装置1に対して必要な画像を要求する。   Thus, whenever the server 2 receives an image from the terminal device 1, the server 2 performs recognition processing on the image. When the recognition process has not been completed, the server 2 requests the terminal device 1 for an image necessary for completing the recognition process. That is, the server 2 requests the terminal device 1 for a necessary image by repeatedly executing steps S11 to S15 until the recognition process is completed.

このとき、サーバ2は、例えば、認識処理に必要な最小限の画像を要求する。そして、端末装置1は、実質的に、要求された画像のみをサーバ2へ送信する。したがって、端末装置1からサーバ2へ伝送されるデータ量は、入力画像をそのまま伝送する方式と比較して、大幅に削減される。この結果、画像認識システムのレスポンスが向上する。   At this time, the server 2 requests a minimum image necessary for the recognition process, for example. Then, the terminal device 1 substantially transmits only the requested image to the server 2. Therefore, the amount of data transmitted from the terminal device 1 to the server 2 is greatly reduced as compared with the method of transmitting the input image as it is. As a result, the response of the image recognition system is improved.

<実施例>
以下の実施例では、画像認識システムは、カメラで撮影した車両の車名を特定してCG画像に置き換えるアプリケーションにおいて使用される。具体的には、自車両の前後左右に広角カメラをそれぞれ取り付け、それら4台のカメラの画像を1枚の画像に合成して表示することで、360度の全周囲の状況を把握できる駐車支援システムを想定する。ここで、360度の全周囲の状況を提供するために、例えば、合成した画像は、自車両の真上から見た画像(俯瞰映像)に変換される。このとき、俯瞰映像は、4台のカメラの画像を2次元平面上に画像変換・合成することで作成されるため、自車両の周辺にある物体は引き伸ばされてしまう。このため、そのような画像をそのまま表示すると、他車両の存在が視覚的に分かりにくくなり、自車両に対する他車両の位置関係の把握が困難になる。そこで、この実施例の駐車支援システムにおいては、画像変換によって引き伸ばされた車両の画像が、CG画像に置き換えられる(または、重畳して表示される)。
<Example>
In the following embodiments, the image recognition system is used in an application in which the name of a vehicle photographed by a camera is specified and replaced with a CG image. Specifically, parking assistance that can grasp the 360-degree surrounding situation by attaching wide-angle cameras to the front, rear, left and right of the host vehicle, and combining and displaying the images of these four cameras in one image Assume a system. Here, in order to provide a 360-degree all-around situation, for example, the synthesized image is converted into an image (overhead video) viewed from directly above the host vehicle. At this time, since the bird's-eye view video is created by converting and synthesizing the images of the four cameras on a two-dimensional plane, an object around the host vehicle is stretched. For this reason, if such an image is displayed as it is, it becomes difficult to visually recognize the presence of the other vehicle, and it becomes difficult to grasp the positional relationship of the other vehicle with respect to the own vehicle. Therefore, in the parking support system of this embodiment, the image of the vehicle stretched by the image conversion is replaced with a CG image (or displayed in a superimposed manner).

原画像内に映っている車両の画像をCG画像に置き換えるためには、その車両の車名を特定する必要がある。ここで、画像内に映っている車両の車名を特定する場合、2つの方式が考えられる。第1の方式は、自車両に搭載されている端末装置がすべての画像認識処理を行う。第2の方式は、自車両に搭載されている端末装置がサーバに画像認識処理を依頼する。   In order to replace the image of the vehicle shown in the original image with the CG image, it is necessary to specify the vehicle name of the vehicle. Here, when specifying the vehicle name of the vehicle shown in the image, two methods are conceivable. In the first method, a terminal device mounted on the host vehicle performs all image recognition processing. In the second method, a terminal device mounted on the host vehicle requests an image recognition process from the server.

第1の方式によれば、通信処理が発生しないので、認識レスポンスは高速である。しかし、第1の方式においては、車種および車名を特定するために必要な膨大なデータを端末側に記憶する必要がある。また、車両のモデルチェンジ等に対応して端末側でデータを更新する必要があり、ユーザにとって煩雑である。   According to the first method, since the communication process does not occur, the recognition response is high speed. However, in the first method, it is necessary to store a huge amount of data necessary for specifying the vehicle type and the vehicle name on the terminal side. Moreover, it is necessary for the terminal side to update data in response to a vehicle model change or the like, which is cumbersome for the user.

第2の方式においては、画像照合のための膨大なデータの記憶、および車両のモデルチェンジ等への対応は容易である。しかし、第2の方式では、車両に搭載されている端末装置とサーバとの間で無線通信が行われる。ここで、画像はデータ容量が大きく、また、一般的に無線通信では上り回線の通信容量が小さい。このため、端末装置とサーバとの間での無線通信に要する時間が長くなり、認識レスポンスが低下するおそれがある。そこで、本発明の実施形態の方法を上述の駐車支援システムに適用することで、第2の方式の課題を解決または緩和して、認識レスポンスを向上させる。   In the second method, it is easy to store a huge amount of data for image collation and to deal with a vehicle model change. However, in the second method, wireless communication is performed between the terminal device mounted on the vehicle and the server. Here, the image has a large data capacity, and generally, the wireless communication has a small uplink communication capacity. For this reason, the time required for wireless communication between the terminal device and the server becomes long, and the recognition response may be reduced. Therefore, by applying the method of the embodiment of the present invention to the parking assistance system described above, the problem of the second method is solved or alleviated, and the recognition response is improved.

図10は、車両を認識する実施例においてサーバ2の動作を示すフローチャートである。このフローチャートの処理は、例えば、サーバ2が端末装置1から画像認識の依頼を受け取ったときに実行される。   FIG. 10 is a flowchart showing the operation of the server 2 in the embodiment for recognizing a vehicle. The process of this flowchart is executed when the server 2 receives a request for image recognition from the terminal device 1, for example.

ステップS21において、通信部21は、端末装置1から画像を受信する。このとき、サーバ2は、端末装置1において生成された加工画像を受信する。なお、サーバ2が端末装置1から最初に受信する初期画像は、例えば、カメラ31からの入力画像の縮小エッジ画像である。   In step S <b> 21, the communication unit 21 receives an image from the terminal device 1. At this time, the server 2 receives the processed image generated in the terminal device 1. The initial image that the server 2 first receives from the terminal device 1 is, for example, a reduced edge image of the input image from the camera 31.

ステップS22〜S23において、認識部22は、端末装置1から受信した画像内に車両が存在するか否かを判定する。このとき、認識部22は、例えば、図4を参照しながら説明したように、略水平方向に伸びる複数のエッジおよび略垂直方向に伸びる複数のエッジの組合せに基づいて、車両の存在を推定することができる。   In steps S <b> 22 to S <b> 23, the recognition unit 22 determines whether a vehicle is present in the image received from the terminal device 1. At this time, for example, as described with reference to FIG. 4, the recognition unit 22 estimates the presence of the vehicle based on a combination of a plurality of edges extending in a substantially horizontal direction and a plurality of edges extending in a substantially vertical direction. be able to.

画像内に車両が存在する可能性が高いと判定されたときは、サーバ2の処理はステップS24へ進む。一方、画像内に車両が存在する可能性が低いと判定されたときは、実際に車両が存在しないケースだけでなく、画像の情報量が足りないために車両を検出できないケースも考えられる。よって、サーバ2は、ステップS28において、端末装置1に対して不足情報を要求する。この場合、サーバ2は、検出可能性の度合いに応じて、縮小率および処理範囲などを変更した画像を要求してもよい。   When it is determined that there is a high possibility that a vehicle is present in the image, the process of the server 2 proceeds to step S24. On the other hand, when it is determined that the possibility that a vehicle is present in the image is low, not only a case where the vehicle does not actually exist but also a case where the vehicle cannot be detected because the amount of information in the image is insufficient. Therefore, the server 2 requests the shortage information from the terminal device 1 in step S28. In this case, the server 2 may request an image in which the reduction rate and the processing range are changed according to the degree of detectability.

ステップS24〜S25において、認識部22は、端末装置1から受信した画像内に映っている車両の向きを推定する。そして、車両の向きが特定されたときは、サーバ2の処理はステップS26へ進む。一方、車両の向きを特定できなかったときは、サーバ2は、ステップS28において、端末装置1に対して不足情報を要求する。ここで、認識部22は、例えば、図4を参照しながら説明したように、車両の向きに対応するパーツ(エンブレム、フロントグリル、ナンバープレート、ライト、タイヤ、ドアなど)を検出することで、車両の向きを推定できる。したがって、サーバ2は、先に受信している画像から車両の向きを特定できなかったときは、車両のエンブレム、フロントグリル、ナンバープレート、ライト、タイヤ、ドアなどを検出するために、端末装置1に対して車両の下端部の画像を要求する。   In steps S <b> 24 to S <b> 25, the recognition unit 22 estimates the direction of the vehicle shown in the image received from the terminal device 1. And when the direction of a vehicle is specified, the process of the server 2 progresses to step S26. On the other hand, when the direction of the vehicle cannot be specified, the server 2 requests the shortage information from the terminal device 1 in step S28. Here, for example, as described with reference to FIG. 4, the recognition unit 22 detects parts (emblem, front grill, license plate, light, tire, door, etc.) corresponding to the direction of the vehicle, The direction of the vehicle can be estimated. Therefore, when the server 2 cannot identify the orientation of the vehicle from the previously received image, the terminal device 1 detects the vehicle emblem, front grill, license plate, light, tire, door, and the like. For the image of the lower end of the vehicle.

ステップS26〜S27において、認識部22は、データベース23を利用して、端末装置1から受信した画像内に映っている車両の車名を特定する処理を行う。そして、車名を特定できたときは、サーバ2は、ステップS29において、認識結果として、特定した車名に対応するCG画像を端末装置1へ送信する。このとき、サーバ2は、認識処理が完了したことを表すメッセージも端末装置1へ送信する。このメッセージは、図6に示す認識完了フラグにより実現される。   In steps S <b> 26 to S <b> 27, the recognition unit 22 uses the database 23 to perform processing for specifying the vehicle name of the vehicle shown in the image received from the terminal device 1. When the vehicle name can be specified, the server 2 transmits a CG image corresponding to the specified vehicle name to the terminal device 1 as a recognition result in step S29. At this time, the server 2 also transmits a message indicating that the recognition process has been completed to the terminal device 1. This message is realized by the recognition completion flag shown in FIG.

一方、車両の車名を特定できなかったときは、サーバ2は、ステップS28において、端末装置1に対して不足情報を要求する。この場合、サーバ2は、例えば、縮小率が小さい画像(サイズが大きい画像)を端末装置1へ要求してもよい。   On the other hand, when the vehicle name of the vehicle cannot be specified, the server 2 requests the shortage information from the terminal device 1 in step S28. In this case, for example, the server 2 may request the terminal device 1 for an image with a small reduction rate (an image with a large size).

なお、車両を正面から映した画像を取得したときは、認識部22は、エンブレム、フロントグリル、ナンバープレート、ライトなどに基づいて、車種および車名を特定することができる。また、車両を後方から映した画像を取得したときは、認識部22は、エンブレム、ナンバープレート、ライト、車両型番表示などに基づいて、車種および車名を特定することができる。さらに、車両を側方から映した画像を取得したときは、認識部22は、ドアの数(2ドア/4ドア)、ドアの形状などに基づいて、車種および車名を特定することができる。このように、車両の向きと、その車両の車種および車名を特定するために使用されるパーツとの間には、対応関係がある。すなわち、車種および車名を特定するためのパーツを検出する前に、車両の向きが特定されていれば、車種および車名を特定するためのパーツの検出が容易になる。よって、この実施例では、車種および車名を特定する前に、車両の向きが特定される。そして、この手順を採用することにより、車種および車名を特定する処理のレスポンスが向上する。   In addition, when the image which reflected the vehicle from the front is acquired, the recognition part 22 can identify a vehicle type and a vehicle name based on an emblem, a front grille, a license plate, a light, etc. Moreover, when the image which reflected the vehicle from the back is acquired, the recognition part 22 can specify a vehicle type and a vehicle name based on an emblem, a license plate, a light, a vehicle model number display, etc. Furthermore, when the image which reflected the vehicle from the side is acquired, the recognition part 22 can specify a vehicle type and a vehicle name based on the number of doors (2 doors / 4 doors), the shape of a door, etc. . Thus, there is a correspondence between the direction of the vehicle and the parts used to specify the vehicle type and vehicle name of the vehicle. That is, if the direction of the vehicle is specified before the parts for specifying the vehicle type and the vehicle name are detected, the parts for specifying the vehicle type and the vehicle name can be easily detected. Therefore, in this embodiment, the direction of the vehicle is specified before specifying the vehicle type and the vehicle name. And the response of the process which specifies a vehicle type and a vehicle name improves by employ | adopting this procedure.

サーバ2は、画像内に映っている車両の車名を特定できるまで、ステップS21〜S28の処理を繰り返し実行する。ただし、車両の存在が確認された後は、ステップS23〜S24の処理はスキップされる。また、車両の向きが特定された後は、ステップS23〜S26の処理はスキップされる。   The server 2 repeatedly executes the processes of steps S21 to S28 until the vehicle name of the vehicle shown in the image can be specified. However, after the presence of the vehicle is confirmed, the processes in steps S23 to S24 are skipped. Moreover, after the direction of the vehicle is specified, the processes in steps S23 to S26 are skipped.

なお、画像認識処理の開始から所定時間内に車名を特定できなかったときは、サーバ2は、認識処理を終了して、その時点で得られている認識結果を端末装置1へ送信する。例えば、画像内に映っている車両の車種(例えば、セダン)まで特定されているときは、サーバ2は、データベース23から代表的なセダン型車両のCG画像を抽出して端末装置1へ送信する。また、端末装置1からカラー画像を受信したときは、サーバ2は、その画像内に映っている車両と同じ色をCG画像に付して、端末装置1へ送信してもよい。   When the vehicle name cannot be specified within a predetermined time from the start of the image recognition process, the server 2 ends the recognition process and transmits the recognition result obtained at that time to the terminal device 1. For example, when the model of the vehicle shown in the image (for example, a sedan) is specified, the server 2 extracts a CG image of a typical sedan-type vehicle from the database 23 and transmits it to the terminal device 1. . Further, when a color image is received from the terminal device 1, the server 2 may attach the same color as the vehicle shown in the image to the CG image and transmit it to the terminal device 1.

図11〜図17は、画像内に映っている車両の車名を特定する処理の一例を詳細に示す図である。この処理は、図10に示すステップS21〜S28に対応し、サーバ2により実行される。なお、車名を特定する処理の手順を記述した情報がデータベースに格納されており、サーバ2がその手順に従って車名を特定する場合には、図11〜図17は、そのデータベースの構造を示す。   FIGS. 11-17 is a figure which shows in detail an example of the process which specifies the vehicle name of the vehicle currently reflected in the image. This process corresponds to steps S21 to S28 shown in FIG. In addition, when the information describing the procedure of the process for specifying the vehicle name is stored in the database, and the server 2 specifies the vehicle name according to the procedure, FIGS. 11 to 17 show the structure of the database. .

図11〜図17に示す実施例では、サーバ2は、端末装置1から初期画像として縮小エッジ画像を受信し、その初期画像に基づいて、画像内に車両が存在する可能性が高いと判定しているものとする。しがたって、以下では、図11に示すステップS31から説明を始める。   In the example illustrated in FIGS. 11 to 17, the server 2 receives the reduced edge image as the initial image from the terminal device 1, and determines that there is a high possibility that a vehicle exists in the image based on the initial image. It shall be. Therefore, in the following, the description will be started from step S31 shown in FIG.

ステップS31において、サーバ2は、ナンバープレートおよびタイヤを検出するために、車両の下端部を含む縮小エッジ画像を端末装置1に要求する。なお、ステップS31では、サーバ2は、先に受信した初期画像よりも解像度の高い縮小エッジ画像を要求するものとする。   In step S31, the server 2 requests the terminal device 1 for a reduced edge image including the lower end portion of the vehicle in order to detect the license plate and the tire. In step S31, the server 2 requests a reduced edge image having a higher resolution than the initial image received earlier.

ステップS32において、サーバ2は、ステップS31の要求に対応する縮小エッジ画像を利用して車両の向きを推定する。ここで、タイヤが検出されずにナンバープレートが検出されたときは、サーバ2は、車両が「前向きまたは後向き」であると判定する。ナンバープレートが検出されずにタイヤが検出されたときは、サーバ2は、車両が「横向き」であると判定する。ナンバープレートおよびタイヤが検出されたときは、サーバ2は、車両が「斜め向き」であると判定する。   In step S32, the server 2 estimates the direction of the vehicle using the reduced edge image corresponding to the request in step S31. Here, when the license plate is detected without detecting the tire, the server 2 determines that the vehicle is “forward or backward”. When the tire is detected without detecting the license plate, the server 2 determines that the vehicle is “sideways”. When the license plate and the tire are detected, the server 2 determines that the vehicle is “oblique”.

ステップS32において車両の向きを特定できなかったときは、サーバ2は、ステップS33において、新たな画像を端末装置1に要求する。このとき、サーバ2は、ステップS31で要求した画像と同じ領域であり、且つ、縮小率の低い(すなわち、サイズの大きい)画像を端末装置1に対して要求する。そして、サーバ2は、ステップS33の要求に対応するエッジ画像を利用して、車両の向きを推定する。   When the direction of the vehicle cannot be specified in step S32, the server 2 requests the terminal device 1 for a new image in step S33. At this time, the server 2 requests the terminal device 1 for an image that is the same area as the image requested in step S31 and has a low reduction rate (that is, a large size). Then, the server 2 estimates the direction of the vehicle using the edge image corresponding to the request in step S33.

ステップS34においても車両の向きを特定できなかったときは、サーバ2は、ステップS35において、端末装置1に対して、異なる時刻に撮影された画像の縮小エッジ画像を要求する。すなわち、サーバ2は、異なる時刻に撮影された画像に対して認識処理を行う。   If the orientation of the vehicle cannot be specified in step S34, the server 2 requests the terminal device 1 for a reduced edge image of the images taken at different times in step S35. In other words, the server 2 performs recognition processing on images taken at different times.

ステップS32またはS34の処理で、車両が「前向きまたは後向き」であると判定されたときは、サーバ2の処理は、図12に示すステップS41へ進む。なお、車両が「横向き」または「斜め向き」と判定されたときの動作については、説明を省略する。   When it is determined in step S32 or S34 that the vehicle is “forward or backward”, the process of the server 2 proceeds to step S41 shown in FIG. The description of the operation when the vehicle is determined to be “laterally” or “oblique” will be omitted.

ステップS41において、サーバ2は、先に受信している初期画像に対して、画像内に映っている車両の車種および向きを識別する処理を実行する。ここで、車両の外観から車種を識別する方法としては、例えば、車両の外観画像とモデル画像との一致度によって判断する方法が考えられる。この場合、データベース23には、例えば、モデル画像としてセダン、ワゴン、バン、トラック、バス、軽車両などの画像が登録されている。また、認識部22は、車両の外観画像と各モデル画像との一致度を算出する。そして、車両の外観画像との一致度が最も高く、且つ、その一致度が所定の閾値(例えば、75%)よりも高いモデル画像に対応する車種が、画像内に映っている車両の車種と判定される。   In step S <b> 41, the server 2 executes a process for identifying the vehicle type and direction of the vehicle shown in the image with respect to the previously received initial image. Here, as a method of identifying the vehicle type from the appearance of the vehicle, for example, a method of determining based on the degree of coincidence between the appearance image of the vehicle and the model image is conceivable. In this case, for example, images of sedans, wagons, vans, trucks, buses, light vehicles, and the like are registered in the database 23 as model images. The recognizing unit 22 calculates the degree of coincidence between the appearance image of the vehicle and each model image. The vehicle type corresponding to the model image having the highest degree of coincidence with the appearance image of the vehicle and the degree of coincidence being higher than a predetermined threshold (for example, 75%) is the vehicle type of the vehicle shown in the image. Determined.

サーバ2は、車種を識別する処理において、車両が「前向き」であるか「後向き」であるかを合わせて判定してもよい。この場合、モデル画像として、セダン、ワゴン、バン、トラック、バス、軽車両について、それぞれ前方から見たときの画像および後方から見たときの画像をデータベース23に登録しておけばよい。   The server 2 may determine whether the vehicle is “forward” or “rearward” in the process of identifying the vehicle type. In this case, as a model image, a sedan, a wagon, a van, a truck, a bus, and a light vehicle may each be registered in the database 23 when viewed from the front and when viewed from the rear.

ステップS41において車種および車両の向きを識別できなかったときは、ステップS42において、サーバ2は、端末装置1に対して、初期画像よりも縮小率の低いエッジ画像を要求する。そして、ステップS43において、サーバ2は、ステップS42の要求に対応するエッジ画像を利用して、車種および車両の向きを推定する。   If the vehicle type and vehicle orientation cannot be identified in step S41, the server 2 requests the terminal device 1 for an edge image having a lower reduction rate than the initial image in step S42. In step S43, the server 2 estimates the vehicle type and the vehicle direction using the edge image corresponding to the request in step S42.

画像内に映っている車両がセダンであり、前向きであると判定されたときは、サーバ2の処理は図13に示すステップ51へ進む。画像内に映っている車両がセダンであり、後向きであると判定されたときは、サーバ2の処理は図15に示すステップ71へ進む。なお、画像内に映っている車両がセダンでなかったときの処理については、説明を省略する。また、ステップS41またはS43において車種および車両の向きを識別できなかったときは、サーバ2の処理は図16に示すステップS81へ進む。   When it is determined that the vehicle shown in the image is a sedan and is forward-facing, the processing of the server 2 proceeds to step 51 shown in FIG. When it is determined that the vehicle shown in the image is a sedan and is facing backward, the processing of the server 2 proceeds to step 71 shown in FIG. In addition, description is abbreviate | omitted about the process when the vehicle reflected in the image is not a sedan. If the vehicle type and the vehicle direction cannot be identified in step S41 or S43, the process of the server 2 proceeds to step S81 shown in FIG.

ステップS51において、サーバ2は、エンブレムを検出するために、端末装置1に対して、車両の中央部分のエッジ画像を要求する。ステップS52において、サーバ2は、ステップS51の要求に対応する画像からエンブレムを検出し、そのエンブレムから車両の製造メーカーを特定する。ここで、データベース23には、各製造メーカーのエンブレムのひな形画像が登録されているものとする。そして、認識部22は、受信画像から抽出したエンブレム画像と各ひな形画像とを対比することにより、画像内に映っている車両の製造メーカーを特定する。   In step S51, the server 2 requests the terminal device 1 for an edge image of the central portion of the vehicle in order to detect the emblem. In step S52, the server 2 detects an emblem from the image corresponding to the request in step S51, and identifies the manufacturer of the vehicle from the emblem. Here, it is assumed that a template image of an emblem of each manufacturer is registered in the database 23. And the recognition part 22 specifies the manufacturer of the vehicle reflected in the image by comparing the emblem image extracted from the received image with each template image.

ステップS52において製造メーカーを特定できなかったときは、サーバ2は、ステップS53において、端末装置1に対して新たな画像を要求する。この場合、サーバ2は、ステップS51で要求した画像と同じ範囲で、縮小率の低い画像を要求する。そして、ステップS54において、サーバ2は、ステップS53の要求に対応する画像を利用して、車両の製造メーカーを特定する。   If the manufacturer cannot be specified in step S52, the server 2 requests a new image from the terminal device 1 in step S53. In this case, the server 2 requests an image with a low reduction rate within the same range as the image requested in step S51. In step S54, the server 2 specifies the manufacturer of the vehicle using the image corresponding to the request in step S53.

ステップS54においても車両の製造メーカーを特定できなかったときは、ステップS55において、サーバ2は、端末装置1に対して、異なる時刻に撮影された画像の縮小エッジ画像を要求する。すなわち、サーバ2は、異なる時刻に撮影された画像に対して認識処理を行う。   If the manufacturer of the vehicle cannot be specified in step S54, the server 2 requests the terminal device 1 for a reduced edge image of the images taken at different times in step S55. In other words, the server 2 performs recognition processing on images taken at different times.

ステップS52またはS54で車種および製造メーカーを特定した後、サーバ2の処理は図14のステップS61へ進む。ステップS61において、サーバ2は、フロントグリルを検出するために、端末装置1に対して、車両の中央部から下端部にかけての縮小エッジ画像を要求する。そして、ステップS62において、認識部22は、ステップS61の要求に対応する画像から、フロントグリルに存在する文字列(アルファベット、数字など)を認識することにより車名を特定する。   After specifying the vehicle type and manufacturer in step S52 or S54, the processing of the server 2 proceeds to step S61 in FIG. In step S61, the server 2 requests the terminal device 1 for a reduced edge image from the center to the lower end of the vehicle in order to detect the front grill. In step S62, the recognizing unit 22 identifies the vehicle name by recognizing a character string (such as alphabets and numbers) existing on the front grille from the image corresponding to the request in step S61.

ステップS62において車名を特定できなかったときは、サーバ2は、ステップS63において、端末装置1に対して新たな画像を要求する。この場合、サーバ2は、ステップS61で要求した画像と同じ範囲で、縮小率の低い画像を要求する。そして、ステップS64において、サーバ2は、ステップS63の要求に対応する画像を利用して車名を特定する。   If the vehicle name cannot be specified in step S62, the server 2 requests a new image from the terminal device 1 in step S63. In this case, the server 2 requests an image with a low reduction rate within the same range as the image requested in step S61. In step S64, the server 2 specifies the vehicle name using the image corresponding to the request in step S63.

ステップS64においても車名を特定できなかったときは、サーバ2は、ステップS65において、端末装置1に対して、異なる時刻に撮影された画像のエッジ画像を要求する。すなわち、サーバ2は、異なる時刻に撮影された画像に対して認識処理を行う。   If the vehicle name cannot be specified in step S64, the server 2 requests the terminal device 1 for an edge image of an image taken at a different time in step S65. In other words, the server 2 performs recognition processing on images taken at different times.

画像内に映っている車両がセダンであり、後向きであると判定されたときは、サーバ2の処理は図15のステップ71へ進む。ステップS71において、サーバ2は、車両の型名の表示を検出するために、端末装置1に対して、型名の表示が存在すると見込まれる部分の縮小エッジ画像を要求する。なお、型名の表示が存在すると見込まれる位置は、例えば、ステップS41またはS43で特定された車種に基づいて推定される。そして、ステップS72において、認識部22は、ステップS71の要求に対応する画像に基づいて、車両の型名の表示を検出することにより車名を特定する。   When it is determined that the vehicle shown in the image is a sedan and is facing backward, the processing of the server 2 proceeds to step 71 in FIG. In step S71, in order to detect the display of the model name of the vehicle, the server 2 requests the terminal device 1 for a reduced edge image of a portion where the display of the model name is expected to exist. Note that the position where the model name display is expected to be present is estimated based on the vehicle type specified in step S41 or S43, for example. In step S72, the recognizing unit 22 identifies the vehicle name by detecting the display of the vehicle model name based on the image corresponding to the request in step S71.

ステップS72において車名を特定できなかったときは、サーバ2は、ステップS73において、端末装置1に対して新たな画像を要求する。この場合、サーバ2は、ステップS71で要求した画像と同じ範囲で、縮小率の低い画像を要求する。そして、ステップS74において、サーバ2は、ステップS73の要求に対応する画像を利用して車名を特定する。   If the vehicle name cannot be specified in step S72, the server 2 requests a new image from the terminal device 1 in step S73. In this case, the server 2 requests an image with a low reduction rate within the same range as the image requested in step S71. And in step S74, the server 2 specifies a vehicle name using the image corresponding to the request | requirement of step S73.

ステップS74においても車名を特定できなかったときは、サーバ2は、ステップS75において、エンブレムを検出するために、端末装置1に対して、車両の中央部分のエッジ画像を要求する。以降の処理は、図13および図14を参照しながら説明した手順と実質的に同じなので、説明を省略する。   If the vehicle name could not be specified in step S74, the server 2 requests the edge image of the central portion of the vehicle from the terminal device 1 to detect the emblem in step S75. Since the subsequent processing is substantially the same as the procedure described with reference to FIGS. 13 and 14, the description thereof will be omitted.

ステップS41、S43で車種を特定できなかったときは、サーバ2の処理は図16に示すステップS81へ進む。ステップS81において、サーバ2は、ナンバープレートを検出するために、ナンバープレートが存在すると見込まれる領域の縮小エッジ画像および色情報を端末装置1へ要求する。そして、ステップS82において、認識部22は、ステップS81の要求に対応する画像からナンバープレートを検出し、さらに色情報を利用して車種を検出する。ここで、ナンバープレートに基づいて車種を識別する方法として、以下の3つが考えられる。なお、認識部22は、以下の3つの方法のいずれか1つまたは2以上の組合せにより車種を認識する。   When the vehicle type cannot be specified in steps S41 and S43, the process of the server 2 proceeds to step S81 shown in FIG. In step S81, in order to detect the license plate, the server 2 requests the terminal device 1 for a reduced edge image and color information of an area where the license plate is expected to exist. In step S82, the recognition unit 22 detects the license plate from the image corresponding to the request in step S81, and further detects the vehicle type using the color information. Here, the following three methods can be considered as a method of identifying the vehicle type based on the license plate. Note that the recognition unit 22 recognizes the vehicle type by any one of the following three methods or a combination of two or more.

(a)ナンバープレートの分類番号
ナンバープレートの表示において、地名の右側に表記されている分類番号は、車両の用途(貨物、乗用、特種、大型特殊)および車両の大きさ(普通、小型)を意味する。たとえば、1シリーズは普通貨物車、3シリーズは普通乗用車、5シリーズは小型乗用車、8シリーズは特殊用途自動車を表す。よって、認識部22は、ナンバープレート上の数字を認識することで車種を特定できる。
(A) License plate classification number In the license plate display, the classification number on the right side of the place name indicates the purpose of the vehicle (cargo, passenger, special, large special) and the size of the vehicle (normal, small). means. For example, 1 series represents an ordinary freight car, 3 series represents an ordinary passenger car, 5 series represents a small passenger car, and 8 series represents a special purpose automobile. Therefore, the recognition part 22 can identify a vehicle model by recognizing the number on a license plate.

(b)ナンバープレートの色
ナンバープレートの下地、文字は、車種に応じて色が決められている。例えば、軽車両のナンバープレートは黄地に黒字、もしくは黒地に黄字と決められている。また、自動車のナンバープレートは白地に緑字、もしくは緑地、白字と決められている。よって、認識部22は、色情報(黄、黒、緑、白)に基づいて自動車と軽車両を識別できる。
(B) Color of license plate The color and color of the background and letters of the license plate are determined according to the vehicle type. For example, the license plate of a light vehicle is determined to be black on a yellow background or yellow on a black background. In addition, the number plate of a car is determined to be green on a white background, or green and white. Therefore, the recognition unit 22 can identify the automobile and the light vehicle based on the color information (yellow, black, green, white).

(c)ナンバープレートの大きさ
ナンバープレートの大きさは、大型標板、中型標板、小型標板に区別される。例えば、大型標板を有する車両は、大型トラック、大型バス、特殊車両などである。よって、ナンバープレートを検出し、その大きさを算出することで車種を推定することができる。
(C) The size of the license plate The size of the license plate is classified into a large scale plate, a medium scale plate, and a small scale plate. For example, a vehicle having a large signboard is a large truck, a large bus, a special vehicle, or the like. Therefore, the vehicle type can be estimated by detecting the license plate and calculating its size.

ステップS82で車種を特定できなかったときは、サーバ2は、ステップS83において、端末装置1に対して新たな画像を要求する。この場合、サーバ2は、ステップS81で要求した画像と範囲で、縮小率の低い画像を要求する。そして、サーバ2は、ステップS84において、ステップS83の要求に対応する画像を利用して車種を特定する。   If the vehicle type cannot be specified in step S82, the server 2 requests a new image from the terminal device 1 in step S83. In this case, the server 2 requests an image with a low reduction ratio in the image and range requested in step S81. In step S84, the server 2 specifies the vehicle type using the image corresponding to the request in step S83.

ステップS84においても車種を特定できなかったときは、サーバ2は、ステップS85において、端末装置1に対して、異なる時刻に撮影された画像の縮小エッジ画像を要求する。すなわち、サーバ2は、異なる時刻に撮影された画像に対して認識処理を行う。   If the vehicle type could not be specified in step S84, the server 2 requests the terminal device 1 for a reduced edge image taken at a different time in step S85. In other words, the server 2 performs recognition processing on images taken at different times.

ステップS82またはS84で車種を特定した後は、サーバ2は、ステップS91において、エンブレムを検出するために、端末装置1に対して、車両の中央部分のエッジ画像を要求する。以降の処理は、図13〜図14を参照しながら説明した手順と実質的に同じであり説明を省略する。さらに、サーバ2は、図15を参照しながら説明した手順を実行してもよい。   After specifying the vehicle type in step S82 or S84, the server 2 requests the terminal device 1 for an edge image of the central portion of the vehicle in order to detect the emblem in step S91. Subsequent processing is substantially the same as the procedure described with reference to FIGS. Further, the server 2 may execute the procedure described with reference to FIG.

このように、サーバ2は、図11〜図17に示す手順で、端末装置1から受信する画像に映っている車両の車名を特定する。このとき、サーバ2は、図11〜図17に示す手順を記述したプログラムを実行することにより、車名の特定を実現してもよい。あるいは、図11〜図17に示す手順を実現するための情報(すなわち、認識処理の状態および結果に応じた処理内容を指示する情報)をデータベース23に登録しておいてもよい。この構成においては、サーバ2は、データベース23を参照することで、車両のパーツの認識状態に応じた処理内容および端末側に要求する情報を知ることができるので、端末装置1とサーバ2との間で効率のよい対話的なやり取りが可能となる。この結果、サーバ2は、少ない情報量で車名を特定できるため、情報の伝送量の抑制および認識レスポンスの向上が可能となる。   Thus, the server 2 specifies the vehicle name of the vehicle shown in the image received from the terminal device 1 in the procedure shown in FIGS. At this time, the server 2 may realize identification of the vehicle name by executing a program describing the procedure shown in FIGS. Alternatively, information for realizing the procedure shown in FIG. 11 to FIG. 17 (that is, information for instructing the state of recognition processing and the processing content according to the result) may be registered in the database 23. In this configuration, the server 2 can know the processing content according to the recognition state of the parts of the vehicle and the information requested to the terminal side by referring to the database 23, so that the terminal device 1 and the server 2 Efficient interactive exchange is possible. As a result, since the server 2 can specify the vehicle name with a small amount of information, the transmission amount of information can be suppressed and the recognition response can be improved.

<画像認識装置のハードウェア構成>
図18は、端末装置1およびサーバ2を実現するためのコンピュータシステムのハードウェア構成を示す図である。端末装置1を実現するためのコンピュータシステムおよびサーバ2を実現するためのコンピュータシステムのハードウェア構成は、互いにほぼ同じである。よって、以下では、端末装置1を実現するためのコンピュータシステムおよびサーバ2を実現するためのコンピュータシステムを、コンピュータシステム100と呼ぶことにする。ただし、CPUの能力、メモリ/記憶装置の容量などは、端末装置1およびサーバ2において互いに異なっている。
<Hardware configuration of image recognition device>
FIG. 18 is a diagram illustrating a hardware configuration of a computer system for realizing the terminal device 1 and the server 2. The hardware configuration of the computer system for realizing the terminal device 1 and the computer system for realizing the server 2 are almost the same. Therefore, hereinafter, the computer system for realizing the terminal device 1 and the computer system for realizing the server 2 will be referred to as a computer system 100. However, the capacity of the CPU, the capacity of the memory / storage device, and the like are different from each other in the terminal device 1 and the server 2.

コンピュータシステム100は、図18に示すように、CPU101、メモリ102、記憶装置103、読み取り装置104、通信インタフェース106、および入出力装置107を備える。CPU101、メモリ102、記憶装置103、読み取り装置104、通信インタフェース106、入出力装置107は、例えば、バス108を介して互いに接続されている。   As shown in FIG. 18, the computer system 100 includes a CPU 101, a memory 102, a storage device 103, a reading device 104, a communication interface 106, and an input / output device 107. The CPU 101, the memory 102, the storage device 103, the reading device 104, the communication interface 106, and the input / output device 107 are connected to each other via a bus 108, for example.

端末装置1においては、CPU101は、メモリ102を利用して画像認識プログラムを実行することにより、画像処理部13および要求処理部15の一部または全部の機能を提供することができる。このとき、CPU101は、図8に示すフローチャートの処理を記述したプログラムを実行することができる。   In the terminal device 1, the CPU 101 can provide some or all of the functions of the image processing unit 13 and the request processing unit 15 by executing an image recognition program using the memory 102. At this time, the CPU 101 can execute a program describing the processing of the flowchart shown in FIG.

また、サーバ2においては、CPU101は、メモリ102を利用して画像認識プログラムを実行することにより、認識部22、不足情報判断部24、要求部25の一部または全部の機能を提供することができる。このとき、CPU101は、図9、図10、図11〜図17に示すフローチャートの処理を記述したプログラムを実行することができる。   In the server 2, the CPU 101 can provide a part or all of the functions of the recognition unit 22, the shortage information determination unit 24, and the request unit 25 by executing an image recognition program using the memory 102. it can. At this time, the CPU 101 can execute a program describing the processing of the flowcharts shown in FIGS. 9, 10, and 11 to 17.

メモリ102は、例えば半導体メモリであり、RAM領域およびROM領域を含んで構成される。記憶装置103は、例えばハードディスクであり、実施形態の画像認識に係わる画像認識プログラムを格納する。なお、記憶装置103は、フラッシュメモリ等の半導体メモリであってもよい。また、記憶装置103は、外部記録装置であってもよい。   The memory 102 is a semiconductor memory, for example, and includes a RAM area and a ROM area. The storage device 103 is, for example, a hard disk, and stores an image recognition program related to image recognition according to the embodiment. Note that the storage device 103 may be a semiconductor memory such as a flash memory. The storage device 103 may be an external recording device.

端末装置1においては、図1に示す記憶装置12は、メモリ102または記憶装置103により実現される。また、サーバ2においては、データベース23は、記憶装置103を利用して実現してもよい。   In the terminal device 1, the storage device 12 illustrated in FIG. 1 is realized by the memory 102 or the storage device 103. In the server 2, the database 23 may be realized using the storage device 103.

読み取り装置104は、CPU101の指示に従って着脱可能記録媒体105にアクセスする。着脱可能記録媒体105は、たとえば、半導体デバイス(USBメモリ等)、磁気的作用により情報が入出力される媒体(磁気ディスク等)、光学的作用により情報が入出力される媒体(CD−ROM、DVD等)などにより実現される。通信インタフェース106は、CPU101の指示に従ってネットワークを介してデータを送受信する。入出力装置107は、例えば、ユーザからの指示を受け付けるデバイス、デジタルカメラ等から画像データを受信するインタフェース、認識結果を出力するインタフェース等に相当する。   The reading device 104 accesses the removable recording medium 105 in accordance with an instruction from the CPU 101. The detachable recording medium 105 includes, for example, a semiconductor device (USB memory or the like), a medium to / from which information is input / output by a magnetic action (magnetic disk or the like), a medium to / from which information is input / output by an optical action (CD-ROM, For example, a DVD). The communication interface 106 transmits / receives data via a network according to instructions from the CPU 101. The input / output device 107 corresponds to, for example, a device that receives an instruction from a user, an interface that receives image data from a digital camera, an interface that outputs a recognition result, and the like.

実施形態の画像認識プログラムは、例えば、下記の形態でコンピュータシステム100に提供される。
(1)記憶装置103に予めインストールされている。
(2)着脱可能記録媒体105により提供される。
(3)プログラムサーバ110から提供される。
The image recognition program of the embodiment is provided to the computer system 100 in the following form, for example.
(1) Installed in advance in the storage device 103.
(2) Provided by the removable recording medium 105.
(3) Provided from the program server 110.

以上記載した各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
端末装置が取得した画像をサーバにおいて認識する画像認識システムであって、
前記端末装置は、
入力画像から加工画像を生成する画像処理部と、
前記画像処理部によって生成される加工画像を前記サーバへ送信する通信部と、を有し、
前記サーバは、
前記端末装置から受信する加工画像に対して認識処理を行う認識部と、
前記認識部による認識処理において不足している情報を判断する不足情報判断部と、
前記端末装置に対して、前記不足情報判断部による判断結果に対応する画像を要求する要求部と、を有し、
前記画像処理部は、前記サーバからの要求に基づいて、前記入力画像から前記加工画像を生成する
ことを特徴とする画像認識システム。
(付記2)
前記画像処理部は、前記端末装置が前記サーバからの要求を受け取る前に、前記入力画像から前記入力画像よりも情報量の少ない第1の加工画像を生成し、
前記認識部は、前記第1の加工画像に対して認識処理を行い、
前記不足情報判断部は、前記認識部による前記第1の加工画像に対する認識処理において不足している情報を判断し、
前記要求部は、前記第1の加工画像に対する認識処理において不足している情報に対応する画像を前記端末装置に要求する
ことを特徴とする付記1に記載の画像認識システム。
(付記3)
前記第1の加工画像は、前記入力画像のエッジ画像である
ことを特徴とする付記2に記載の画像認識システム。
(付記4)
前記第1の加工画像は、前記入力画像の縮小画像である
ことを特徴とする付記2に記載の画像認識システム。
(付記5)
前記要求部は、前記不足情報判断部による判断結果に対応する範囲の画像を前記端末装置に要求する
ことを特徴とする付記1に記載の画像認識システム。
(付記6)
前記要求部は、前記不足情報判断部による判断結果に対応する画像タイプの画像を前記端末装置に要求する
ことを特徴とする付記1に記載の画像認識システム。
(付記7)
前記要求部は、前記不足情報判断部による判断結果に対応する縮小率の画像を前記端末装置に要求する
ことを特徴とする付記1に記載の画像認識システム。
(付記8)
前記画像処理部は、前記サーバからの要求に基づいて、前記入力画像から第2の加工画像を生成し、
前記認識部は、前記第2の加工画像に対して認識処理を行い、
前記不足情報判断部は、前記認識部による前記第2の加工画像に対する認識処理において不足している情報を判断し、
前記要求部は、前記第2の加工画像に対する認識処理において不足している情報に対応する画像を前記端末装置に要求する
ことを特徴とする付記1〜付記7のいずれか1つに記載の画像認識システム。
(付記9)
前記端末装置および前記サーバは、前記認識部による認識処理が終了するまで、前記サーバから前記端末装置へ画像を要求する手順、前記端末装置が前記サーバからの要求に基づいて加工画像を生成して前記サーバへ送信する手順、前記サーバが前記端末装置から受信する加工画像に対して認識処理を行う手順を含む対話処理を行う
ことを特徴とする付記1〜付記8のいずれか1つに記載の画像認識システム。
(付記10)
前記サーバは、前記認識部による認識結果を前記端末装置へ送信する
ことを特徴とする付記1〜9のいずれか1つに記載の画像認識システム。
(付記11)
入力画像から加工画像を生成する端末装置から前記加工画像を受信して認識する画像認識装置であって、
前記端末装置から受信する加工画像に対して認識処理を行う認識部と、
前記認識部による認識処理において不足している情報を判断する不足情報判断部と、
前記端末装置に対して、前記不足情報判断部による判断結果に対応する画像を要求する要求部と、
を有することを特徴とする画像認識装置。
(付記12)
端末装置が取得した画像をサーバにおいて認識する画像認識方法であって、
前記端末装置において入力画像から生成された、前記入力画像よりも情報量の少ない初期画像を前記端末装置から受信し、
前記初期画像に対して認識処理を行い、
前記初期画像に対する認識処理において不足している情報に対応する画像を前記端末装置へ要求し、
前記端末装置において前記サーバからの要求に応じて生成された画像を前記端末装置から受信し、
前記端末装置が前記サーバからの要求に応じて生成した画像に対して認識処理を行う
ことを特徴とする画像認識方法。
The following additional notes are further disclosed with respect to the embodiments including the examples described above.
(Appendix 1)
An image recognition system for recognizing an image acquired by a terminal device at a server,
The terminal device
An image processing unit for generating a processed image from the input image;
A communication unit that transmits the processed image generated by the image processing unit to the server,
The server
A recognition unit that performs recognition processing on the processed image received from the terminal device;
A deficiency information determination unit for determining deficient information in the recognition processing by the recognition unit;
A request unit for requesting an image corresponding to a determination result by the shortage information determination unit to the terminal device,
The image processing unit generates the processed image from the input image based on a request from the server.
(Appendix 2)
The image processing unit generates a first processed image having a smaller amount of information than the input image from the input image before the terminal device receives a request from the server,
The recognition unit performs recognition processing on the first processed image,
The insufficient information determination unit determines information that is insufficient in the recognition processing for the first processed image by the recognition unit,
The image recognition system according to appendix 1, wherein the request unit requests the terminal device for an image corresponding to information that is insufficient in the recognition process for the first processed image.
(Appendix 3)
The image recognition system according to appendix 2, wherein the first processed image is an edge image of the input image.
(Appendix 4)
The image recognition system according to appendix 2, wherein the first processed image is a reduced image of the input image.
(Appendix 5)
The image recognition system according to claim 1, wherein the request unit requests the terminal device for an image in a range corresponding to a determination result by the lack information determination unit.
(Appendix 6)
The image recognition system according to appendix 1, wherein the request unit requests the terminal device for an image of an image type corresponding to a determination result by the shortage information determination unit.
(Appendix 7)
The image recognition system according to appendix 1, wherein the request unit requests the terminal device for an image with a reduction ratio corresponding to a determination result by the shortage information determination unit.
(Appendix 8)
The image processing unit generates a second processed image from the input image based on a request from the server,
The recognition unit performs a recognition process on the second processed image,
The insufficient information determination unit determines information that is insufficient in the recognition processing for the second processed image by the recognition unit,
The image according to any one of appendix 1 to appendix 7, wherein the request unit requests the terminal device for an image corresponding to information that is insufficient in the recognition process for the second processed image. Recognition system.
(Appendix 9)
The terminal device and the server generate a processed image based on a procedure for requesting an image from the server to the terminal device until the recognition process by the recognition unit is completed, and the terminal device generates a processed image based on a request from the server. The interactive process including a procedure of transmitting to the server and a procedure of performing a recognition process on the processed image received by the server from the terminal device is performed. Image recognition system.
(Appendix 10)
The said server transmits the recognition result by the said recognition part to the said terminal device. The image recognition system as described in any one of Additional remarks 1-9 characterized by the above-mentioned.
(Appendix 11)
An image recognition device that receives and recognizes the processed image from a terminal device that generates a processed image from an input image,
A recognition unit that performs recognition processing on the processed image received from the terminal device;
A deficiency information determination unit for determining deficient information in the recognition processing by the recognition unit;
A request unit that requests an image corresponding to a determination result by the shortage information determination unit to the terminal device,
An image recognition apparatus comprising:
(Appendix 12)
An image recognition method for recognizing an image acquired by a terminal device in a server,
Receiving from the terminal device an initial image generated from the input image in the terminal device and having a smaller amount of information than the input image;
A recognition process is performed on the initial image,
Requesting the terminal device for an image corresponding to information lacking in the recognition process for the initial image;
An image generated in response to a request from the server in the terminal device is received from the terminal device,
An image recognition method, wherein the terminal device performs recognition processing on an image generated in response to a request from the server.

1 端末装置
2 サーバ
13 画像処理部
14 通信部
15 要求処理部
22 認識部
25 不足情報判断部
26 要求部
31 カメラ
DESCRIPTION OF SYMBOLS 1 Terminal device 2 Server 13 Image processing part 14 Communication part 15 Request processing part 22 Recognition part 25 Insufficient information judgment part 26 Request part 31 Camera

Claims (6)

端末装置が取得した画像をサーバにおいて認識する画像認識システムであって、
前記端末装置は、
入力画像から加工画像を生成する画像処理部と、
前記画像処理部によって生成される加工画像を前記サーバへ送信する通信部と、を有し、
前記サーバは、
前記端末装置から受信する加工画像に対して認識処理を行う認識部と、
前記認識部による認識処理において不足している情報を判断する不足情報判断部と、
前記端末装置に対して、前記不足情報判断部による判断結果に対応する画像を要求する要求部と、を有し、
前記画像処理部は、前記サーバからの要求に基づいて、前記入力画像から前記加工画像を生成する
ことを特徴とする画像認識システム。
An image recognition system for recognizing an image acquired by a terminal device at a server,
The terminal device
An image processing unit for generating a processed image from the input image;
A communication unit that transmits the processed image generated by the image processing unit to the server,
The server
A recognition unit that performs recognition processing on the processed image received from the terminal device;
A deficiency information determination unit for determining deficient information in the recognition processing by the recognition unit;
A request unit for requesting an image corresponding to a determination result by the shortage information determination unit to the terminal device,
The image processing unit generates the processed image from the input image based on a request from the server.
前記画像処理部は、前記端末装置が前記サーバからの要求を受け取る前に、前記入力画像から前記入力画像よりも情報量の少ない第1の加工画像を生成し、
前記認識部は、前記第1の加工画像に対して認識処理を行い、
前記不足情報判断部は、前記認識部による前記第1の加工画像に対する認識処理において不足している情報を判断し、
前記要求部は、前記第1の加工画像に対する認識処理において不足している情報に対応する画像を前記端末装置に要求する
ことを特徴とする請求項1に記載の画像認識システム。
The image processing unit generates a first processed image having a smaller amount of information than the input image from the input image before the terminal device receives a request from the server,
The recognition unit performs recognition processing on the first processed image,
The insufficient information determination unit determines information that is insufficient in the recognition processing for the first processed image by the recognition unit,
The image recognition system according to claim 1, wherein the request unit requests the terminal device for an image corresponding to information that is insufficient in the recognition process for the first processed image.
前記画像処理部は、前記サーバからの要求に基づいて、前記入力画像から第2の加工画像を生成し、
前記認識部は、前記第2の加工画像に対して認識処理を行い、
前記不足情報判断部は、前記認識部による前記第2の加工画像に対する認識処理において不足している情報を判断し、
前記要求部は、前記第2の加工画像に対する認識処理において不足している情報に対応する画像を前記端末装置に要求する
ことを特徴とする請求項1または請求項2に記載の画像認識システム。
The image processing unit generates a second processed image from the input image based on a request from the server,
The recognition unit performs a recognition process on the second processed image,
The insufficient information determination unit determines information that is insufficient in the recognition processing for the second processed image by the recognition unit,
The image recognition system according to claim 1, wherein the request unit requests the terminal device for an image corresponding to information that is insufficient in the recognition process for the second processed image.
前記端末装置および前記サーバは、前記認識部による認識処理が終了するまで、前記サーバから前記端末装置へ画像を要求する手順、前記端末装置が前記サーバからの要求に基づいて加工画像を生成して前記サーバへ送信する手順、前記サーバが前記端末装置から受信する加工画像に対して認識処理を行う手順を含む対話処理を行う
ことを特徴とする請求項1乃至請求項3のいずれか一項に記載の画像認識システム。
The terminal device and the server generate a processed image based on a procedure for requesting an image from the server to the terminal device until the recognition process by the recognition unit is completed, and the terminal device generates a processed image based on a request from the server. The dialogue process including a procedure of transmitting to the server and a procedure of performing a recognition process on the processed image received by the server from the terminal device is performed. The image recognition system described.
入力画像から加工画像を生成する端末装置から前記加工画像を受信して認識する画像認識装置であって、
前記端末装置から受信する加工画像に対して認識処理を行う認識部と、
前記認識部による認識処理において不足している情報を判断する不足情報判断部と、
記不足情報判断部による判断結果に基づいて、画像タイプ、画像の範囲、または縮小率の少なくとも1つを指定する要求情報を生成して前記端末装置へ送信する要求部と、を有し、
前記認識部は、前記端末装置において前記要求情報に従って生成された加工画像を受信して認識処理を実行する、
ことを特徴とする画像認識装置。
An image recognition device that receives and recognizes the processed image from a terminal device that generates a processed image from an input image,
A recognition unit that performs recognition processing on the processed image received from the terminal device;
A deficiency information determination unit for determining deficient information in the recognition processing by the recognition unit;
Based on the determination result by prior Symbol insufficient information determining unit, the image type, the range of the image, or the requesting unit reduction ratio to generate a request information specifying at least one transmission to the terminal device, the possess,
The recognizing unit receives a processed image generated according to the request information in the terminal device and executes a recognition process.
An image recognition apparatus characterized by that.
端末装置が取得した画像をサーバにおいて認識する画像認識方法であって、
前記端末装置において入力画像から生成された、前記入力画像よりも情報量の少ない初期画像を前記端末装置から受信し、
前記初期画像に対して認識処理を行い、
前記初期画像に対する認識処理において不足している情報を判断し、
前記判断の結果に基づいて画像タイプ、画像の範囲、または縮小率の少なくとも1つを指定する要求情報を生成して前記端末装置へ送信し、
前記端末装置において前記要求情報に従って生成された加工画像を前記端末装置から受信し、
前記端末装置から受信した加工画像に対して認識処理を行う
ことを特徴とする画像認識方法。
An image recognition method for recognizing an image acquired by a terminal device in a server,
Receiving from the terminal device an initial image generated from the input image in the terminal device and having a smaller amount of information than the input image;
A recognition process is performed on the initial image,
Determining missing information in the recognition process for the initial image ;
Based on the determination result, request information specifying at least one of an image type, an image range, or a reduction ratio is generated and transmitted to the terminal device ,
A processed image generated according to the request information in the terminal device is received from the terminal device,
An image recognition method, comprising: performing recognition processing on the processed image received from the terminal device.
JP2011223744A 2011-10-11 2011-10-11 Image recognition system and image recognition method Expired - Fee Related JP5768647B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011223744A JP5768647B2 (en) 2011-10-11 2011-10-11 Image recognition system and image recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011223744A JP5768647B2 (en) 2011-10-11 2011-10-11 Image recognition system and image recognition method

Publications (2)

Publication Number Publication Date
JP2013084130A JP2013084130A (en) 2013-05-09
JP5768647B2 true JP5768647B2 (en) 2015-08-26

Family

ID=48529261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011223744A Expired - Fee Related JP5768647B2 (en) 2011-10-11 2011-10-11 Image recognition system and image recognition method

Country Status (1)

Country Link
JP (1) JP5768647B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6406900B2 (en) * 2014-07-09 2018-10-17 キヤノン株式会社 Image processing method, image processing apparatus, program, recording medium, production apparatus, and assembly part manufacturing method
JP6572535B2 (en) * 2014-12-10 2019-09-11 株式会社リコー Image recognition system, server device, and image recognition method
US9740951B2 (en) * 2015-09-11 2017-08-22 Intel Corporation Technologies for object recognition for internet-of-things edge devices
JP6631694B2 (en) * 2016-03-17 2020-01-15 日本電気株式会社 Search support device, search support system, search support method, and program
JP6808358B2 (en) * 2016-05-27 2021-01-06 キヤノン株式会社 Image processing equipment, image processing methods and programs
JP7113217B2 (en) * 2017-11-17 2022-08-05 パナソニックIpマネジメント株式会社 Verification device, verification method, and program
JP7119493B2 (en) * 2018-03-28 2022-08-17 沖電気工業株式会社 Recognition device, recognition method and program
WO2020138120A1 (en) * 2018-12-26 2020-07-02 日本電気株式会社 Information processing device, information processing method, and recording medium
JP7193355B2 (en) * 2019-01-16 2022-12-20 i-PRO株式会社 Imaging device, imaging method, identification device, identification method, and identification program
DE102019204656A1 (en) * 2019-04-02 2020-10-08 Conti Temic Microelectronic Gmbh Parking assistance system
US20220345590A1 (en) * 2019-10-07 2022-10-27 Nec Corporation Video analysis method, video analysis system, and information processing device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310446A (en) * 2007-06-12 2008-12-25 Panasonic Corp Image retrieval system
JP5355446B2 (en) * 2010-02-19 2013-11-27 株式会社東芝 Moving object tracking system and moving object tracking method

Also Published As

Publication number Publication date
JP2013084130A (en) 2013-05-09

Similar Documents

Publication Publication Date Title
JP5768647B2 (en) Image recognition system and image recognition method
US11606516B2 (en) Image processing device, image processing method, and image processing system
KR102407664B1 (en) Method, apparatus and apparatus for object detection
US10885398B2 (en) Joint 3D object detection and orientation estimation via multimodal fusion
CN107341454B (en) Method and device for detecting obstacles in scene and electronic equipment
CN107392103B (en) Method and device for detecting road lane line and electronic equipment
JP4967666B2 (en) Image processing apparatus and method, and program
US9514366B2 (en) Vehicle detection method and system including irrelevant window elimination and/or window score degradation
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
JP2019096072A (en) Object detection device, object detection method and program
CN112987759A (en) Image processing method, device and equipment based on automatic driving and storage medium
JP5223675B2 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
JP5959073B2 (en) Detection device, detection method, and program
JP2019500602A (en) System and method for image-based vehicle location
JP4416039B2 (en) Striped pattern detection system, striped pattern detection method, and striped pattern detection program
JP2015007953A (en) Apparatus, method, and computer readable medium for monitoring the number of passengers in automobile
JP2013061919A (en) External environment recognition method and device, and vehicle system
KR101239718B1 (en) System and method for detecting object of vehicle surroundings
KR101178508B1 (en) Vehicle Collision Alarm System and Method
KR101374653B1 (en) Apparatus and method for detecting movement of vehicle
US11860627B2 (en) Image processing apparatus, vehicle, control method for information processing apparatus, storage medium, information processing server, and information processing method for recognizing a target within a captured image
JP2019003343A (en) Driving support device and driving support method
JP6983334B2 (en) Image recognition device
KR100880919B1 (en) Method for recognizing a vehicle using the multiple pattern mask
CN110834582B (en) Automatic turn-off method and device for steering lamp, hydrogen energy automobile and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150608

R150 Certificate of patent or registration of utility model

Ref document number: 5768647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees