JP6699518B2 - Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device - Google Patents

Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device Download PDF

Info

Publication number
JP6699518B2
JP6699518B2 JP2016221355A JP2016221355A JP6699518B2 JP 6699518 B2 JP6699518 B2 JP 6699518B2 JP 2016221355 A JP2016221355 A JP 2016221355A JP 2016221355 A JP2016221355 A JP 2016221355A JP 6699518 B2 JP6699518 B2 JP 6699518B2
Authority
JP
Japan
Prior art keywords
image
data
computer
background
recognition processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016221355A
Other languages
Japanese (ja)
Other versions
JP2018082234A (en
JP2018082234A5 (en
Inventor
皓正 高塚
皓正 高塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2016221355A priority Critical patent/JP6699518B2/en
Priority to PCT/JP2017/033626 priority patent/WO2018088035A1/en
Publication of JP2018082234A publication Critical patent/JP2018082234A/en
Publication of JP2018082234A5 publication Critical patent/JP2018082234A5/ja
Application granted granted Critical
Publication of JP6699518B2 publication Critical patent/JP6699518B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/10Adaptations for transmission by electrical cable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器に関し、より詳細には、プライバシーに配慮した画像認識処理を行う画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供プログラム、記録媒体、プロセッサ、及び電子機器に関する。   The present invention relates to an image recognition processing method, an image recognition processing program, a data providing method, a data providing system, a data providing program, a recording medium, a processor, and an electronic device, and more specifically, an image for performing image recognition processing in consideration of privacy. The present invention relates to a recognition processing method, an image recognition processing program, a data providing method, a data providing program, a recording medium, a processor, and an electronic device.

近年、各種センサで検出されたデータを収集し、収集したデータを活用して新しい情報を抽出し、付加価値のあるサービスを新たに提供するセンサーデータ流通市場の開拓が検討されている。   In recent years, development of a sensor data distribution market is being considered in which data detected by various sensors is collected, new information is extracted by utilizing the collected data, and new value-added services are newly provided.

例えば、監視カメラを用いるカメラシステムでは、システム運用元(データ提供元)から画像データの提供を受ける第3者(データ利用先)が、提供された画像データを利用した新たなアプリケーションによるサービスを提供する検討も進められている。
監視カメラで撮像された画像には、人や車両などが映り込み、個人を特定可能なプライバシー情報が含まれている場合が多く、そのためこのような画像データの流通を促進させる場合、プライバシー情報の保護に配慮したデータ流通の仕組みを構築する必要がある。
For example, in a camera system using a surveillance camera, a third party (data use destination) who receives image data from a system operating source (data providing source) provides a service by a new application using the provided image data. Consideration is also being made.
Images captured by surveillance cameras often include people, vehicles, etc., and include privacy information that can identify an individual. Therefore, when promoting the distribution of such image data, the privacy information It is necessary to build a data distribution system that considers protection.

従来よりカメラで撮像された画像中における特定の対象物のプライバシーを保護する技術が種々提案されている。例えば、下記の特許文献1には、撮影された画像中におけるプライバシー保護の必要な保護領域(顔領域)を検出し、撮影された画像(実画像)上の前記保護領域にぼかし処理、モザイク処理又は塗りつぶし処理等の画像処理を施した保護画像を生成して出力するシステムが開示されている。   Conventionally, various techniques have been proposed for protecting the privacy of a specific object in an image captured by a camera. For example, in Patent Document 1 below, a protection area (face area) requiring privacy protection in a captured image is detected, and blurring processing and mosaic processing are performed on the protection area on the captured image (actual image). Alternatively, a system is disclosed that generates and outputs a protected image that has been subjected to image processing such as painting processing.

[発明が解決しようとする課題]
しかしながら、特許文献1記載の技術では、前記保護領域の検出に失敗した場合、例えば、鏡や窓ガラスなどに写された保護対象を検出できなかった場合、これらの検出に失敗した保護領域に対してぼかし処理等の画像処理は行われずに、撮影された画像がそのまま出力される。そのため、出力された画像は、本来保護するべき領域(検出に失敗した保護領域)が画像処理されていない状態となっており、このような保護領域が画像処理されていない画像データを第3者に提供した場合、保護対象のプライバシーを適切に保護することができないという課題があった。
また、このような課題を排除するために、撮影された画像全体にぼかし処理等を行う方法も考えられるが、画像全体にぼかし処理等を行った場合、背景に存在する物(構造物や展示・陳列物など)の情報も除去されるため、保護対象と背景に存在する物との関係が把握しにくくなり、第3者が画像データを活用する利点が少なくなるという課題があった。
[Problems to be Solved by the Invention]
However, in the technique described in Patent Document 1, when the detection of the protection area fails, for example, when the protection target imaged on the mirror or the window glass cannot be detected, the protection areas for which the detection fails are detected. The captured image is output as it is without performing image processing such as blurring processing. Therefore, the output image is in a state where the area to be originally protected (the protection area that has failed to be detected) is not image-processed, and the image data in which the protection area is not image-processed is processed by a third party. However, there is a problem in that the privacy of the protection target cannot be properly protected.
In order to eliminate such a problem, a method of performing blurring processing on the entire captured image may be considered. However, when blurring processing is performed on the entire image, objects existing in the background (structures or exhibitions -Display information) is also removed, which makes it difficult to understand the relationship between the object to be protected and the object existing in the background, and there is a problem that the advantage of utilizing image data by a third party decreases.

特開2006−217161号公報JP, 2006-217161, A

課題を解決するための手段及びその効果Means for Solving the Problems and Their Effects

本発明は上記課題に鑑みなされたものであって、取得した画像からプライバシーを保護すべき対象物の検出に失敗した場合であっても、該検出に失敗した対象物が開示されることのない画像を生成することができる画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器を提供することを目的としている。   The present invention has been made in view of the above problems, and even if the detection of an object whose privacy should be protected from the acquired image fails, the object that fails in the detection is not disclosed. An object of the present invention is to provide an image recognition processing method, an image recognition processing program, a data providing method, a data providing system, a data providing program, a recording medium, a processor, and an electronic device that can generate an image.

上記目的を達成するために本発明に係る画像認識処理方法(1)は、少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップを含んでいることを特徴としている。   In order to achieve the above object, an image recognition processing method (1) according to the present invention is an image recognition processing method in which an image captured by at least one imaging unit is processed by at least one computer. Using the position data of the target object including privacy information detected from the image captured by the image capturing unit and the background image read from the background image storage unit in which the background image not including the target object is stored, The method is characterized by including a step of generating a composite image in which the model of the target object in which the privacy information of the target object is removed is drawn on the background image.

上記画像認識処理方法(1)によれば、前記撮像された画像から検出された前記対象物の位置データと、前記背景画像とを用い、該背景画像に前記対象物の模型が描画された合成画像を生成する。したがって、前記撮像された画像から位置が検出された前記対象物は前記模型として前記背景画像に描画されるので、前記検出された対象物のプライバシー情報を含まない合成画像を生成することができる。また、前記背景画像に前記対象物の模型を描画するので、撮像された画像毎にモザイク処理等を行う方法と比較して、前記合成画像を連続的に生成する際の前記コンピュータにかかる処理負荷を削減することができる。また、前記撮像された画像から前記対象物の検出に失敗したとしても、前記背景画像を用いるため、前記合成画像には、前記検出に失敗した対象物が含まれることがなく、検出に失敗した対象物のプライバシーも適切に保護することができ、前記対象物のプライバシー情報が流出しないようにチェックするための複雑な処理が不要となり、簡素化された画像認識処理を実現できる。
なお、前記対象物の模型とは、前記撮像された画像に存在する前記対象物を、前記プライバシー情報を含まない形態で模した表示物であり、コンピュータによって前記背景画像上に前記対象物の代替物として描画される表示物である。
According to the image recognition processing method (1), the position data of the target object detected from the captured image and the background image are used to synthesize a model of the target object on the background image. Generate an image. Therefore, since the target object whose position is detected from the captured image is drawn as the model on the background image, it is possible to generate a composite image that does not include privacy information of the detected target object. Further, since the model of the target object is drawn on the background image, the processing load on the computer when continuously generating the composite image is greater than the method of performing mosaic processing or the like for each captured image. Can be reduced. Further, even if the detection of the target object from the captured image fails, the background image is used, so the composite image does not include the target object that failed in the detection, and the detection fails. The privacy of the target object can also be appropriately protected, a complicated process for checking the privacy information of the target object is not required, and a simplified image recognition process can be realized.
Note that the model of the object is a display object imitating the object existing in the captured image in a form that does not include the privacy information, and the computer substitutes the object on the background image. It is a display object drawn as an object.

また、本発明に係る画像認識処理方法(2)は、少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、検出された前記対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを含んでいることを特徴としている。   An image recognition processing method (2) according to the present invention is an image recognition processing method in which an image captured by at least one image capturing unit is processed by at least one computer, and the image is captured by the at least one image capturing unit. From the background image storage unit that stores the position data of the detected target object and the background image that does not include the target object. Using the read background image, and generating a composite image in which the model of the target object in which the privacy information of the target object is removed is drawn in the background image.

上記画像認識処理方法(2)によれば、上記画像認識処理方法(1)と同様の効果を得ることができるとともに、前記対象物の位置を検出する処理を行うステップと、前記合成画像を生成するステップとを連続的に実行することができ、前記コンピュータの処理効率を高めることができる。   According to the image recognition processing method (2), the same effect as that of the image recognition processing method (1) can be obtained, and the step of detecting the position of the object, and the composite image generation. And the step of performing can be continuously performed, and the processing efficiency of the computer can be improved.

また本発明に係る画像認識処理方法(3)は、上記画像認識処理方法(1)又は(2)において、前記背景画像が、前記撮像された画像の撮像範囲に対応したものであることを特徴としている。   An image recognition processing method (3) according to the present invention is characterized in that, in the image recognition processing method (1) or (2), the background image corresponds to an imaging range of the imaged image. I am trying.

上記画像認識処理方法(3)によれば、前記撮像された画像の撮像範囲に対応した画像を前記合成画像として生成することができ、背景の再現性を高めることができる。   According to the image recognition processing method (3), an image corresponding to the image capturing range of the captured image can be generated as the composite image, and the reproducibility of the background can be improved.

また本発明に係る画像認識処理方法(4)は、上記画像認識処理方法(1)〜(3)のいずれかにおいて、前記合成画像は、前記背景画像に前記対象物の模型が、前記撮像された画像における前記対象物の位置状態が再現されるように描画されたものであることを特徴としている。   Further, an image recognition processing method (4) according to the present invention is the image recognition processing method (1) to (3), wherein the synthetic image is the background image and the model of the object is imaged. It is characterized in that it is drawn so that the position state of the object in the image is reproduced.

上記画像認識処理方法(4)によれば、前記画像における前記対象物の位置状態を再現するように前記模型が描画された前記合成画像を生成することができ、前記対象物の位置や姿勢などの状態の再現性を高めることができる。   According to the image recognition processing method (4), the composite image in which the model is drawn so as to reproduce the position state of the target object in the image can be generated, and the position and orientation of the target object, etc. The reproducibility of the state of can be improved.

また本発明に係る画像認識処理方法(5)は、上記画像認識処理方法(1)〜(4)のいずれかにおいて、前記背景画像が、3次元背景データから生成されたものであることを特徴としている。   An image recognition processing method (5) according to the present invention is characterized in that, in any of the image recognition processing methods (1) to (4), the background image is generated from three-dimensional background data. I am trying.

上記画像認識処理方法(5)によれば、前記背景画像が、3次元背景データから生成されたものであるので、前記撮像された画像の背景部分の再現性を高めることができ、前記撮像された画像と比較しても違和感の少ない前記合成画像を生成することができる。   According to the image recognition processing method (5), since the background image is generated from the three-dimensional background data, the reproducibility of the background portion of the captured image can be improved and the background image can be captured. It is possible to generate the composite image with less discomfort even when compared with other images.

また本発明に係る画像認識処理方法(6)は、上記画像認識処理方法(1)〜(4)のいずれかにおいて、前記背景画像が、前記撮像された複数の画像を平均処理して得られた平均画像から生成されたものであることを特徴としている。   An image recognition processing method (6) according to the present invention is the image recognition processing method according to any one of the image recognition processing methods (1) to (4), wherein the background image is obtained by averaging the plurality of captured images. It is characterized by being generated from the average image.

上記画像認識処理方法(6)によれば、前記背景画像が、前記平均画像から生成されたものであるので、前記撮像された画像の背景が忠実に再現された背景画像を用いて前記合成画像を生成することができる。   According to the image recognition processing method (6), since the background image is generated from the average image, the background image of the captured image is faithfully reproduced, and the background image is faithfully reproduced. Can be generated.

また本発明に係る画像認識処理方法(7)は、上記画像認識処理方法(1)〜(6)のいずれかにおいて、前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データから復元された、前記撮像された画像上における2次元位置データであることを特徴としている。   The image recognition processing method (7) according to the present invention is the image recognition processing method according to any one of (1) to (6), wherein the position data of the object is the object detected from the captured image. It is characterized in that it is two-dimensional position data on the imaged image restored from the three-dimensional position data of the object.

上記画像認識処理方法(7)によれば、1つの前記対象物の位置検出を複数の前記撮像部で撮像された画像を用いて3次元的に行う場合であっても、前記3次元位置データから復元された前記2次元位置データを用いることで、前記背景画像上、すなわち2次元画像上で前記対象物の模型が描画される位置精度が高い合成画像を生成することができる。   According to the image recognition processing method (7), even when the position detection of one target object is performed three-dimensionally using the images captured by the plurality of imaging units, the three-dimensional position data is obtained. By using the two-dimensional position data restored from the above, it is possible to generate a composite image with high positional accuracy in which the model of the object is drawn on the background image, that is, the two-dimensional image.

また本発明に係る画像認識処理方法(8)は、上記画像認識処理方法(1)又は(2)において、前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データであり、前記背景画像が、3次元背景データであり、前記合成画像を生成するステップが、前記対象物の3次元位置データを用い、前記3次元背景データ上の前記対象物の3次元位置に前記模型を描画し、該模型が描画された前記3次元背景データから前記模型を含む前記撮像された画像領域を切り出した画像を前記合成画像として生成するものであることを特徴としている。   The image recognition processing method (8) according to the present invention is the image recognition processing method (1) or (2), wherein the position data of the object is 3 of the object detected from the captured image. Dimensional position data, the background image is three-dimensional background data, and the step of generating the composite image uses the three-dimensional position data of the target object, and the three-dimensional position data of the target object on the three-dimensional background data. It is characterized in that the model is drawn at a three-dimensional position, and an image obtained by cutting out the imaged image region including the model from the three-dimensional background data on which the model is drawn is generated as the composite image. ..

上記画像認識処理方法(8)によれば、前記対象物の3次元位置データを用い、前記3次元背景データ上の前記対象物の3次元位置に前記模型を描画し、該模型が描画された前記3次元背景データから前記模型を含む前記撮像された画像領域を切り出した画像を前記合成画像として生成するので、前記模型の描画状態に違和感の少ない俯瞰画像を前記合成画像として生成することができる。   According to the image recognition processing method (8), using the three-dimensional position data of the object, the model is drawn at the three-dimensional position of the object on the three-dimensional background data, and the model is drawn. Since the image obtained by cutting out the captured image region including the model from the three-dimensional background data is generated as the composite image, it is possible to generate, as the composite image, a bird's-eye view image with less discomfort in the drawing state of the model. ..

また本発明に係る画像認識処理プログラム(1)は、少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、前記少なくとも1つのコンピュータに、前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴としている。   An image recognition processing program (1) according to the present invention is an image recognition processing program for causing at least one computer to execute processing of an image captured by at least one imaging unit, and the at least one computer Reading the position data of the target object from a position data storage unit that stores position data of the target object including privacy information detected from an image captured by the at least one image capturing unit; The background image is read from a background image storage unit that stores a background image that is not stored, position data of the read target object, and the read background image are used, and the privacy of the target object is added to the background image. Generating a synthetic image in which the model of the object from which information has been drawn is drawn.

上記画像認識処理プログラム(1)によれば、前記少なくとも1つのコンピュータに実行させることにより、上記画像認識処理方法(1)と同様の効果を得ることができる。   According to the image recognition processing program (1), the same effect as that of the image recognition processing method (1) can be obtained by causing the at least one computer to execute the program.

また本発明に係る画像認識処理プログラム(2)は、少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、前記少なくとも1つのコンピュータに、前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、該検出した対象物の位置データを位置データ記憶部に記憶するステップと、前記位置データ記憶部から前記対象物の位置データを読み出すステップと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴としている。   An image recognition processing program (2) according to the present invention is an image recognition processing program for causing at least one computer to execute processing of an image captured by at least one image capturing unit. A step of detecting a position of an object including privacy information from an image captured by the at least one image capturing section, a step of storing position data of the detected object in a position data storage section, A step of reading the position data of the target object from a position data storage part; a step of reading the background image from a background image storage part storing a background image that does not include the target object; and a position of the read target object Using the data and the read background image, a step of generating a composite image in which a model of the object without the privacy information of the object is drawn on the background image is executed. ..

上記画像認識処理プログラム(2)によれば、前記少なくとも1つのコンピュータに実行させることにより、上記画像認識処理方法(2)と同様の効果を得ることができる。   According to the image recognition processing program (2), the same effect as that of the image recognition processing method (2) can be obtained by causing the at least one computer to execute the program.

また本発明に係る画像認識処理プログラム(3)は、少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、上記画像認識処理方法(3)〜(8)いずれかの方法を、前記少なくとも1つのコンピュータに実行させることを特徴としている。   An image recognition processing program (3) according to the present invention is an image recognition processing program for causing at least one computer to execute processing of an image captured by at least one imaging unit, and the image recognition processing method ( The method according to any one of 3) to (8) is executed by the at least one computer.

上記画像認識処理プログラム(3)によれば、前記少なくとも1つのコンピュータに実行させることにより、上記画像認識処理方法(3)〜(8)のいずれかと同様の効果を得ることができる。   According to the image recognition processing program (3), the same effect as any one of the image recognition processing methods (3) to (8) can be obtained by causing the at least one computer to execute the program.

また本発明に係るコンピュータ読み取り可能な記録媒体(1)は、上記画像認識処理プログラム(1)〜(3)のいずれかを記録したコンピュータ可読媒体であることを特徴としている。   A computer-readable recording medium (1) according to the present invention is characterized in that it is a computer-readable medium recording any one of the image recognition processing programs (1) to (3).

上記コンピュータ読み取り可能な記録媒体(1)によれば、該記録媒体に記録された上記画像認識処理プログラムをコンピュータに読み取らせて実行させることにより、上記画像認識処理プログラム(1)〜(3)のいずれかと同様の効果を実現させることができる。前記記録媒体は、有形の記録媒体であればよく、内蔵式や外付け式の各種ICメモリ、ハードディスク、光ディスクなどが含まれる。   According to the computer-readable recording medium (1), by causing the computer to read and execute the image recognition processing program recorded on the recording medium, the image recognition processing programs (1) to (3) The same effect as any of the above can be realized. The recording medium may be a tangible recording medium, and includes various built-in or externally attached IC memories, hard disks, optical disks, and the like.

また本発明に係るプロセッサ(1)は、上記画像認識処理プログラム(1)〜(3)のいずれかを読み込み実行するものであることを特徴としている。   A processor (1) according to the present invention is characterized by reading and executing any of the image recognition processing programs (1) to (3).

上記プロセッサ(1)によれば、上記画像認識処理プログラム(1)〜(3)のいずれかを読み込み実行することにより、当該プロセッサにより、上記画像認識処理プログラム(1)〜(3)のいずれかと同様の効果を実現させることができる。   According to the processor (1), by reading and executing any one of the image recognition processing programs (1) to (3), the processor recognizes any one of the image recognition processing programs (1) to (3). The same effect can be realized.

また本発明に係る電子機器(1)は、上記プロセッサ(1)が搭載されていることを特徴としている。   An electronic device (1) according to the present invention is characterized in that the processor (1) is mounted.

上記電子機器(1)によれば、上記プロセッサ(1)が搭載されているので、上記画像認識処理プログラム(1)〜(3)のいずれかと同様の効果を実現させることができる。   According to the electronic device (1), since the processor (1) is mounted, it is possible to achieve the same effect as that of any one of the image recognition processing programs (1) to (3).

また本発明に係るデータ提供方法(1)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)〜(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを含んでいることを特徴としている。   A data providing method (1) according to the present invention is a data providing method executed in a system including at least one computer capable of communicating via a network, wherein the at least one computer is the image recognition processing method. The method is characterized by including the step of transmitting the composite image generated in the step of generating the composite image in any one of (1) to (8) to another computer.

上記データ提供方法(1)によれば、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)〜(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するので、前記少なくとも1つのコンピュータが、前記合成画像を前記別のコンピュータに提供することができ、プライバシーが適切に保護された前記合成画像を第3者に提供することで、該合成画像を用いた新たなサービス提供の可能性を広げることができる。   According to the data providing method (1), the at least one computer separates the composite image generated in the step of generating the composite image in any of the image recognition processing methods (1) to (8). To the third computer so that the at least one computer can provide the composite image to the other computer, and by providing the third party with the privacy-protected composite image, It is possible to expand the possibility of providing new services using composite images.

また本発明に係るデータ提供方法(2)は、上記データ提供方法(1)において、前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに含んでいることを特徴としている。   In the data providing method (2) according to the present invention, in the data providing method (1), the captured image is stored in the another computer when a predetermined condition that requires the captured image is satisfied. It is characterized by further including a step of transmitting.

上記データ提供方法(2)によれば、前記所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信することができ、前記所定の条件下で前記撮像された画像も活用することができる。   According to the data providing method (2), the captured image can be transmitted to the another computer when the predetermined condition is satisfied, and the image captured under the predetermined condition is also utilized. can do.

また本発明に係るデータ提供方法(3)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)〜(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを含んでいることを特徴としている。   A data providing method (3) according to the present invention is a data providing method executed in a system including at least one computer communicable via a network, wherein the at least one computer is the image recognition processing method. The method is characterized by including a step of displaying the composite image generated in the step of generating the composite image in any one of (1) to (8) on a display unit.

上記データ提供方法(3)によれば、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)〜(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するので、プライバシーが適切に保護された前記合成画像を前記表示部に表示させて第3者に提示することができ、該合成画像を用いた新たなサービス提供の可能性を広げることができる。   According to the data providing method (3), the at least one computer displays the composite image generated in the step of generating the composite image in any of the image recognition processing methods (1) to (8). Since it is displayed on the display unit, it is possible to display the composite image in which the privacy is appropriately protected on the display unit and present it to a third party, thereby expanding the possibility of providing a new service using the composite image. You can

また本発明に係るデータ提供方法(4)は、上記データ提供方法(3)において、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに含んでいることを特徴としている。   Further, the data providing method (4) according to the present invention is characterized in that, in the data providing method (3), the method further includes a step of switching the composite image and the captured image and displaying the same on the display unit. I am trying.

上記データ提供方法(4)によれば、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示させることができ、状況に応じて前記合成画像と前記撮像された画像と切り替えることができるサービスを提供することができ、該サービスの付加価値を高めることができる。   According to the data providing method (4), the composite image and the captured image can be switched and displayed on the display unit, and the composite image and the captured image can be switched depending on the situation. It is possible to provide a service that can provide the service, and increase the added value of the service.

また本発明に係るデータ提供システム(1)は、少なくとも1つのコンピュータがネットワークを介して別のコンピュータにデータを提供するデータ提供システムであって、前記少なくとも1つのコンピュータが、少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データを前記別のコンピュータに送信する位置データ送信部と、前記対象物が含まれていない背景画像を前記別のコンピュータに送信する背景画像送信部とを備え、前記別のコンピュータに、前記対象物の位置データと前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成させることを特徴としている。   A data providing system (1) according to the present invention is a data providing system in which at least one computer provides data to another computer via a network, and the at least one computer is at least one imaging unit. A position data transmission unit that transmits position data of an object including privacy information detected from a captured image to the another computer, and a background that transmits a background image that does not include the object to the other computer. An image transmission unit is provided, and the model of the target object is drawn on the other computer by using the position data of the target object and the background image, and the privacy information of the target object is removed from the background image. The feature is that a synthetic image is generated.

上記データ提供システム(1)によれば、前記少なくとも1つのコンピュータから前記別のコンピュータに前記背景画像と、前記対象物の位置データとを送信し、前記別のコンピュータで前記合成画像を生成させるので、プライバシーが適切に保護された前記合成画像を前記別のコンピュータを使用する第3者に提供し、該合成画像を用いた新たなサービス提供の可能性を広げることができる。また、前記別のコンピュータに前記背景画像を送信した後、前記対象物の位置データのみを適宜送信することが可能となるので、前記撮像された画像をリアルタイムで前記別のコンピュータに送信するような構成と比較して、前記別のコンピュータに送信するデータ容量(データ転送量)を大幅に削減することができる。   According to the data providing system (1), the background image and the position data of the object are transmitted from the at least one computer to the other computer, and the another computer generates the composite image. It is possible to provide the third party who uses the other computer with the synthesized image whose privacy is appropriately protected, and expand the possibility of providing a new service using the synthesized image. In addition, since it is possible to appropriately transmit only the position data of the object after transmitting the background image to the other computer, it is possible to transmit the captured image to the other computer in real time. Compared with the configuration, the data capacity (data transfer amount) transmitted to the other computer can be significantly reduced.

また本発明に係るデータ提供プログラム(1)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、前記少なくとも1つのコンピュータに、上記画像認識処理プログラム(1)〜(3)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを実行させることを特徴としている。   A data providing program (1) according to the present invention is a data providing program to be executed by a system including at least one computer capable of communicating via a network, the at least one computer including the image recognition process. It is characterized in that the step of transmitting the composite image generated in the step of generating the composite image in any of programs (1) to (3) to another computer is executed.

上記データ提供プログラム(1)によれば、前記少なくとも1つのコンピュータに、前記合成画像を前記別のコンピュータに提供させることができ、プライバシーが適切に保護された前記合成画像を第3者に提供することで、該合成画像を用いた新たなサービス提供の可能性を広げることができる。   According to the data providing program (1), it is possible to cause the at least one computer to provide the composite image to the other computer, and provide the third party with the composite image in which privacy is appropriately protected. As a result, the possibility of providing a new service using the composite image can be expanded.

また本発明に係るデータ提供プログラム(2)は、上記データ提供プログラム(1)において、前記少なくとも1つのコンピュータに、前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに実行させることを特徴としている。   A data providing program (2) according to the present invention is imaged in the data providing program (1), when a predetermined condition that requires the imaged image is satisfied in the at least one computer. It is characterized in that the step of transmitting the image to the another computer is further executed.

上記データ提供プログラム(2)によれば、前記所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信させることができ、前記別のコンピュータにおいて前記所定の条件下で前記撮像された画像も活用させることができる。   According to the data providing program (2), the captured image can be transmitted to the another computer when the predetermined condition is satisfied, and the image is captured by the other computer under the predetermined condition. You can also make use of the captured images.

また本発明に係るデータ提供プログラム(3)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、前記少なくとも1つのコンピュータに、上記画像認識処理プログラム(1)〜(3)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを実行させることを特徴としている。   A data providing program (3) according to the present invention is a data providing program to be executed by a system including at least one computer capable of communicating via a network, wherein the at least one computer is provided with the image recognition processing. It is characterized in that the step of displaying the composite image generated in the step of generating the composite image in any of the programs (1) to (3) on the display unit is executed.

上記データ提供プログラム(3)によれば、前記少なくとも1つのコンピュータに、前記合成画像を生成するステップで生成された前記合成画像を表示部に表示させることにより、プライバシーが適切に保護された前記合成画像を前記表示部に表示させて第3者に提示することができ、新たなサービス提供の可能性を広げることができる。   According to the data providing program (3), by causing the at least one computer to display the composite image generated in the step of generating the composite image on a display unit, the combination in which privacy is appropriately protected An image can be displayed on the display unit and presented to a third party, and the possibility of new service provision can be expanded.

また本発明に係るデータ提供プログラム(4)は、上記データ提供プログラム(3)において、前記少なくとも1つのコンピュータに、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに実行させることを特徴としている。   The data providing program (4) according to the present invention, in the data providing program (3), a step of switching the composite image and the captured image to the at least one computer and displaying the combined image on the display unit. It is characterized by further executing.

上記データ提供プログラム(4)によれば、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示させることができ、状況に応じて前記合成画像と前記撮像された画像と切り替えることができるサービスを提供することができ、該サービスの付加価値を高めることができる。   According to the data providing program (4), the composite image and the captured image can be switched and displayed on the display unit, and the composite image and the captured image can be switched depending on the situation. It is possible to provide a service that can provide the service, and increase the added value of the service.

また本発明に係るコンピュータ読み取り可能な記録媒体(2)は、上記データ提供プログラム(1)〜(4)のいずれかを記録したコンピュータ可読媒体であることを特徴としている。   A computer-readable recording medium (2) according to the present invention is characterized in that it is a computer-readable medium recording any of the data providing programs (1) to (4).

上記コンピュータ読み取り可能な記録媒体(2)によれば、該記録媒体に記録された上記データ提供プログラムをコンピュータに読み取らせて実行させることにより、上記データ提供プログラム(1)〜(4)のいずれかと同様の効果を実現させることができる。前記記録媒体は、有形の記録媒体であればよく、内蔵式や外付け式の各種ICメモリやハードディスク、光ディスクなどが含まれる。   According to the computer-readable recording medium (2), by causing the computer to read and execute the data providing program recorded on the recording medium, any one of the data providing programs (1) to (4) is obtained. The same effect can be realized. The recording medium may be a tangible recording medium, and includes various built-in type or external type IC memories, hard disks, optical disks, and the like.

また本発明に係るプロセッサ(2)は、上記データ提供プログラム(1)〜(4)のいずれかを読み込み実行することを特徴としている。   A processor (2) according to the present invention is characterized by reading and executing any of the data providing programs (1) to (4).

上記プロセッサ(2)によれば、上記画データ提供プログラム(1)〜(4)のいずれかを読み込み実行することにより、当該プロセッサにより、データ提供プログラム(1)〜(4)のいずれかと同様の効果を実現させることができる。   According to the processor (2), by reading and executing any one of the image data providing programs (1) to (4), the same processor as any one of the data providing programs (1) to (4) is executed by the processor. The effect can be realized.

また本発明に係る電子機器(2)は、上記プロセッサ(2)が搭載されていることを特徴としている。   An electronic device (2) according to the present invention is characterized in that the processor (2) is mounted.

上記電子機器(2)によれば、上記プロセッサ(2)が搭載されているので、上記画データ提供プログラム(1)〜(4)のいずれかと同様の効果を実現させることができる。   According to the electronic device (2), since the processor (2) is mounted, it is possible to achieve the same effect as that of any one of the image data providing programs (1) to (4).

本発明の実施の形態(1)に係るデータ提供システムの構成を説明するための概念図である。It is a conceptual diagram for demonstrating the structure of the data provision system which concerns on Embodiment (1) of this invention. 画像センサ装置のハードウェア構成を概略的に示すブロック図である。It is a block diagram which shows schematically the hardware constitutions of an image sensor apparatus. 画像処理サーバ及び画像提供サーバのハードウェア構成を概略的に示すブロック図である。It is a block diagram which shows schematically the hardware constitutions of an image processing server and an image provision server. 画像センサ装置、画像処理サーバ及び画像提供サーバが実行する処理を説明するための機能ブロック図である。It is a functional block diagram for demonstrating the process which an image sensor apparatus, an image processing server, and an image provision server perform. 画像処理サーバが行う各種データの登録処理を説明するためのフローチャートである。6 is a flowchart illustrating a registration process of various data performed by the image processing server. 画像処理サーバが行う合成画像生成処理を説明するためのフローチャートである。7 is a flowchart illustrating a composite image generation process performed by the image processing server. 実施の形態(1)に係るデータ提供システムで実行される処理動作を説明するためのフローチャートである。6 is a flowchart for explaining a processing operation executed in the data providing system according to the embodiment (1). 合成画像を説明するための表示例であり、(a)は撮像された画像、(b)は3D地図データから生成した背景画像、(c)は対象物の検出に成功した場合の合成画像、(d)は対象物の検出に失敗した場合の画像である。It is a display example for explaining a composite image, (a) is a captured image, (b) is a background image generated from 3D map data, (c) is a composite image when the detection of the target object is successful, (D) is an image when the detection of the target object fails. 実施の形態(2)に係るデータ提供システムの構成を説明するための概念図である。It is a conceptual diagram for demonstrating the structure of the data provision system which concerns on Embodiment (2). 画像センサ装置及び画像提供サーバが実行する処理を説明するための機能ブロック図である。It is a functional block diagram for explaining processing performed by an image sensor device and an image providing server. 実施の形態(2)に係るデータ提供システムで実行される処理動作を説明するためのフローチャートである。9 is a flowchart for explaining a processing operation executed in the data providing system according to the embodiment (2). 実施の形態(3)に係るデータ提供システムの構成を説明するための概念図である。It is a conceptual diagram for demonstrating the structure of the data provision system which concerns on Embodiment (3). 画像センサ装置、画像処理サーバ及び利用者端末が実行する処理を説明するための機能ブロック図である。It is a functional block diagram for explaining the processing which an image sensor device, an image processing server, and a user terminal perform. 実施の形態(3)に係るデータ提供システムで実行される処理動作を説明するためのフローチャートである。9 is a flowchart for explaining a processing operation executed in the data providing system according to the embodiment (3). 利用者端末の表示部に表示された合成画像の表示例を示した図である。It is a figure showing the example of a display of the synthetic picture displayed on the indicator of a user terminal.

以下、本発明に係る画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器の実施の形態を図面に基づいて説明する。図1は、実施の形態(1)に係るデータ提供システムの構成を説明するための概念図である。   Embodiments of an image recognition processing method, an image recognition processing program, a data providing method, a data providing system, a data providing program, a recording medium, a processor, and an electronic device according to the present invention will be described below with reference to the drawings. FIG. 1 is a conceptual diagram for explaining the configuration of the data providing system according to the embodiment (1).

データ提供システム1は、画像センサ装置10、ルーター20、画像処理サーバ30及び画像提供サーバ40を含んで構成され、プライバシー情報を含む対象物2のプライバシーが保護された画像を利用者端末50に提供可能なシステムとなっている。実施の形態(1)では、画像処理サーバ30が、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた画像処理装置300(図4)として機能する。   The data providing system 1 is configured to include an image sensor device 10, a router 20, an image processing server 30, and an image providing server 40, and provides the user terminal 50 with an image in which the privacy of the object 2 including privacy information is protected. It is a possible system. In the embodiment (1), the image processing server 30 functions as an image processing device 300 (FIG. 4) including a computer that executes the image recognition processing method according to the present embodiment.

本実施の形態では、プライバシーを保護する対象物2が人間である場合について説明するが、対象物2は人間に限定されるものではない。例えば、個人を特定し得る情報を示すもの、車や自転車など人間が操作や所持しているものも対象物として設定することができる。なお、本明細書においてプライバシー情報とは対象物2が人間である場合は、その人間を特定し得る情報であり、対象物2が車や自転車の場合は所有者を特定し得る情報である。   In the present embodiment, the case where the object 2 for protecting privacy is a human will be described, but the object 2 is not limited to a human. For example, information indicating personally identifiable information and information such as cars and bicycles that are operated or possessed by humans can be set as the target. In the present specification, the privacy information is information that can identify the person when the object 2 is a human, and can identify the owner when the object 2 is a car or a bicycle.

画像センサ装置10は、画像を撮像するカメラ装置として機能するものである。画像センサ装置10で撮像される画像(実画像)は、動画像の他、静止画像でもよく、また、カラー画像の他、グレー画像等であってもよい。   The image sensor device 10 functions as a camera device that captures an image. The image (actual image) captured by the image sensor device 10 may be a moving image, a still image, a color image, a gray image, or the like.

ルーター20は、画像センサ装置10と画像処理サーバ30との間に設けられた通信接続機器である。ルーター20は、制御部、記憶部、ネットワーク用インターフェース、機器接続用インターフェース、電源部等(いずれも図示せず)を備え、IPアドレスに従ってデータを転送するネットワーク経路(送信先)を選択する機能を備えている。画像センサ装置10とルーター20との接続は、有線接続の他、無線接続であってもよい。なお、ルーター20は必須の構成ではなく、画像センサ装置10を直接ネットワーク60に接続する構成としてもよい。   The router 20 is a communication connection device provided between the image sensor device 10 and the image processing server 30. The router 20 includes a control unit, a storage unit, a network interface, a device connection interface, a power supply unit (not shown), and has a function of selecting a network path (destination) for transferring data according to an IP address. I have it. The connection between the image sensor device 10 and the router 20 may be a wired connection or a wireless connection. Note that the router 20 is not an indispensable configuration, and the image sensor device 10 may be directly connected to the network 60.

画像処理サーバ30は、コンピュータを備えた電子機器であり、画像提供サーバ40側から要求があった場合や一定時間毎などの所定のタイミングで、対象物2のプライバシーが保護された合成画像を生成し、ネットワーク(通信網)60を介して画像提供サーバ40にアップロード(転送)する機能を備えている。ネットワーク60には、インターネット、VPNネットワーク、専用回線、これらを組み合わせた通信回線などが適用され、有線系及び無線系のネットワークが含まれる。画像処理サーバ30及び画像提供サーバ40の設置個数は特に限定されない。データ提供システム1に少なくとも1つ以上装備されていればよい。   The image processing server 30 is an electronic device equipped with a computer, and generates a composite image in which the privacy of the target object 2 is protected at a predetermined timing such as when there is a request from the image providing server 40 side or at fixed time intervals. However, it has a function of uploading (transferring) to the image providing server 40 via the network (communication network) 60. The network 60 may be the Internet, a VPN network, a dedicated line, a communication line combining these, or the like, and includes wired and wireless networks. The number of installed image processing servers 30 and image providing servers 40 is not particularly limited. The data providing system 1 may be equipped with at least one or more.

画像センサ装置10の設置場所や設置個数は特に限定されない。画像センサ装置10は、例えば、店舗、商業施設、商店街、地下街、事業施設、屋外又は車両等の移動体など(以下、施設等と記す)に設置され、例えば、施設等の監視カメラとして機能する。また、画像処理サーバ30は、画像センサ装置10が設置された(画像センサ装置10を管理する)施設等毎に内部(施設内ネットワークの)サーバとして設けることができる。なお、別の実施の形態では、ルーター20内に画像処理サーバ30の機能を装備させたシステム構成とすることもできる。   The installation place and the number of the image sensor devices 10 are not particularly limited. The image sensor device 10 is installed in, for example, a store, a commercial facility, a shopping district, an underground mall, a business facility, a moving body such as an outdoor or a vehicle (hereinafter referred to as a facility), and functions as a surveillance camera of the facility, for example. To do. Further, the image processing server 30 can be provided as an internal (in-facility network) server for each facility or the like in which the image sensor device 10 is installed (which manages the image sensor device 10). It should be noted that in another embodiment, a system configuration in which the router 20 is equipped with the function of the image processing server 30 may be employed.

画像提供サーバ40は、コンピュータを備えた電子機器であり、例えば、利用者端末50からの要求に基づいて、画像処理サーバ30からアップロードされた画像データをネットワーク60を介して利用者端末50に提供する機能を備えている。画像センサ装置10、画像処理サーバ30、画像提供サーバ40、及び利用者端末50には、ネットワーク60を介して相互に連携して画像データを処理して提供するための画像認識処理やデータ提供用のプログラムが組み込まれている。相互に連携可能なサービスプラットフォームが構築されることによりシステムの運用が効率良く行われるようになっている。   The image providing server 40 is an electronic device including a computer, and, for example, provides image data uploaded from the image processing server 30 to the user terminal 50 via the network 60 based on a request from the user terminal 50. It has a function to do. The image sensor device 10, the image processing server 30, the image providing server 40, and the user terminal 50 are used for image recognition processing and data providing for processing and providing image data in cooperation with each other via the network 60. The program is built in. By constructing a service platform that can cooperate with each other, the system can be operated efficiently.

利用者端末50は、コンピュータを備えた電子機器であり、汎用のパーソナルコンピュータ(PC)、スマートフォン、タブレット端末などの情報端末装置で構成されている。利用者端末50は、画像センサ装置10を管理する施設等の運用者とは異なる第3者が使用するものである。画像提供サーバ40と利用者端末50には、相互に連携するアプリケーションソフトウェア(外部アプリ)51(図4参照)がダウンロード等により組み込まれている。外部アプリ51は、画像提供サーバ40から提供された画像データを第3者が利用可能なサービスを提供するためのソフトウェアである。   The user terminal 50 is an electronic device including a computer, and is configured by an information terminal device such as a general-purpose personal computer (PC), smart phone, or tablet terminal. The user terminal 50 is used by a third party who is different from the operator such as a facility that manages the image sensor device 10. In the image providing server 40 and the user terminal 50, application software (external application) 51 (see FIG. 4) that cooperates with each other is incorporated by downloading or the like. The external application 51 is software for providing a service in which the third party can use the image data provided from the image providing server 40.

外部アプリ51を通じて第3者に提供可能なサービスには、画像提供サーバ40から提供される合成画像等のデータから得られる情報、例えば、対象物2の位置や姿勢などの位置状態、背景にある物(構造物や配置物)との位置関係などの情報を利用するサービスが挙げられる。より具体的には、異常や異変を検知する各種警備サービス、電力予測や交通予測などの各種予測サービス、販売促進・顧客開拓・商品配置・人材配置などの各種マーケティングサービスなどが含まれる。また、画像提供サーバ40は、外部アプリ51の種類などに応じて複数設けることができる。   Services that can be provided to a third party through the external application 51 include information obtained from data such as a composite image provided from the image providing server 40, for example, a position state such as the position and orientation of the target object 2 and a background. There is a service that uses information such as a positional relationship with an object (structure or arrangement). More specifically, it includes various security services that detect abnormalities and abnormalities, various forecasting services such as power forecasting and traffic forecasting, and various marketing services such as sales promotion, customer acquisition, product placement, and personnel placement. Further, a plurality of image providing servers 40 can be provided according to the type of external application 51 and the like.

図2は、画像センサ装置10のハードウェア構成を概略的に示すブロック図である。画像センサ装置10は、撮像部11、画像処理部12、記憶部13、制御部14、入出力インターフェース(I/F)15、操作部16、時計部17、及び電源部18を含んで構成されている。画像センサ装置10には、これら各部が一つの筐体内に装備された一体式のものだけでなく、撮像部11を含むカメラ部分と、制御部14等を含むコントローラ部分が別体で構成されたものも含まれる。   FIG. 2 is a block diagram schematically showing the hardware configuration of the image sensor device 10. The image sensor device 10 includes an imaging unit 11, an image processing unit 12, a storage unit 13, a control unit 14, an input/output interface (I/F) 15, an operation unit 16, a clock unit 17, and a power supply unit 18. ing. The image sensor device 10 is not limited to an integrated type in which each of these parts is provided in one housing, but a camera part including the image pickup part 11 and a controller part including the control part 14 and the like are separately configured. Also includes things.

撮像部11は、レンズ系、CCDやCMOSなどの撮像素子、及び駆動回路を含んで構成されている。画像処理部12は、各種の画像処理回路や画像処理プロセッサを含んで構成され、各種の画像補正処理や画像認識処理などを行う。画像認識処理には、対象物2の特徴抽出処理、識別処理、統計計算処理、位置姿勢・属性などの推定判断処理などが含まれる。対象物2が人間である場合は、人間の識別、頭部等の身体的特徴点の抽出、姿勢、属性(男性又は女性、大人又は子供など)などを推定判断する処理機能が含まれていることが好ましい。   The image pickup unit 11 is configured to include a lens system, an image pickup device such as CCD or CMOS, and a drive circuit. The image processing unit 12 is configured to include various image processing circuits and image processing processors, and performs various image correction processes and image recognition processes. The image recognition process includes a feature extraction process of the target object 2, an identification process, a statistical calculation process, an estimation/judgment process of position/posture/attribute, and the like. When the target object 2 is a human, it includes a processing function of identifying a human, extracting a physical feature point such as a head, estimating a posture, an attribute (male or female, adult or child, etc.), and the like. Preferably.

制御部14は、CPU(プロセッサ)、RAM、ROMなどを含むマイクロコンピュータを含んで構成され、画像センサ装置10の各部の動作制御を行うためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体に格納してもよい。記憶部13は、撮像された画像データなどを一時記憶可能な半導体メモリなどで構成されている。   The control unit 14 includes a microcomputer including a CPU (processor), a RAM, a ROM, and the like, and stores a program for controlling the operation of each unit of the image sensor device 10. These programs may be stored in a computer-readable built-in recording medium or an external recording medium. The storage unit 13 is configured by a semiconductor memory or the like that can temporarily store captured image data and the like.

入出力I/F15は、ルーター20などの外部機器と接続するための各種インターフェースで構成されている。操作部16は、画像センサ装置10の各種機能を作動させるための操作ボタンや操作パネル等を含んで構成されている。時計部17は、画像が撮像された時間を記録する時計回路を含んで構成されている。電源部18は、画像センサ装置10の各部に電源を供給する電源回路やバッテリを含んで構成されている。   The input/output I/F 15 is composed of various interfaces for connecting to an external device such as the router 20. The operation unit 16 is configured to include operation buttons and an operation panel for operating various functions of the image sensor device 10. The clock unit 17 is configured to include a clock circuit that records the time when the image is captured. The power supply unit 18 is configured to include a power supply circuit that supplies power to each unit of the image sensor device 10 and a battery.

図3は、画像処理サーバ30と画像提供サーバ40のハードウェア構成を概略的に示すブロック図である。画像処理サーバ30は、画像処理部31、記憶部32、通信処理部33、制御部34、操作部35、表示部36、及び電源部37を含んで構成されているが、この構成に限定されるものではない。画像処理サーバ30は、表示部36を含んでいなくとも良い。   FIG. 3 is a block diagram schematically showing the hardware configurations of the image processing server 30 and the image providing server 40. The image processing server 30 includes an image processing unit 31, a storage unit 32, a communication processing unit 33, a control unit 34, an operation unit 35, a display unit 36, and a power supply unit 37, but is not limited to this configuration. Not something. The image processing server 30 may not include the display unit 36.

画像処理部31は、対象物2のプライバシーを保護した画像を合成する処理等を行う画像処理回路や画像処理プロセッサを含んで構成されている。記憶部32は、ハードディスクドライブなどの大容量の記憶装置を含んで構成されている。記憶部32には、対象物2を含んでいない背景画像を生成するために用いる3D地図データ(背景データ)、画像センサ装置10のパラメータ情報、画像センサ装置10で撮像された画像領域に対応させて生成された背景画像などの各種データがデータベース化されて記憶されるようになっている。   The image processing unit 31 is configured to include an image processing circuit and an image processing processor that perform processing for combining images in which the privacy of the object 2 is protected. The storage unit 32 is configured to include a large-capacity storage device such as a hard disk drive. The storage unit 32 is made to correspond to 3D map data (background data) used to generate a background image not including the object 2, parameter information of the image sensor device 10, and an image region imaged by the image sensor device 10. Various data such as the background image generated by the above are stored in a database.

通信処理部33は、ネットワーク60を介して画像センサ装置10や外部の画像提供サーバ40側と通信接続するための通信インターフェースや通信制御部を含んで構成されている。制御部34は、CPU(プロセッサ)、RAM、ROMなどを含むマイクロコンピュータを含んで構成され、画像処理サーバ30の各部の動作制御を行うためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体に格納してもよい。   The communication processing unit 33 is configured to include a communication interface and a communication control unit for making a communication connection with the image sensor device 10 and an external image providing server 40 side via the network 60. The control unit 34 includes a microcomputer including a CPU (processor), a RAM, a ROM, and the like, and stores a program for controlling the operation of each unit of the image processing server 30. These programs may be stored in a computer-readable built-in recording medium or an external recording medium.

操作部35は、画像処理サーバ30の各種機能の作動、データ入出力・更新指示等を行うためのキーボード等の入力機器を含んで構成されている。表示部36は、画像処理サーバ30で処理されたデータ等を表示可能な表示装置を含んで構成されている。電源部37は、画像処理サーバ30の各部に電源供給を行う電源回路やバックアップ電源などを含んで構成されている。   The operation unit 35 is configured to include an input device such as a keyboard for operating various functions of the image processing server 30 and performing data input/output/update instructions. The display unit 36 includes a display device capable of displaying data processed by the image processing server 30. The power supply unit 37 includes a power supply circuit that supplies power to each unit of the image processing server 30, a backup power supply, and the like.

画像提供サーバ40は、記憶部41、通信処理部42、制御部43、操作部44、表示部45、及び電源部46を含んで構成されているが、この構成に限定されるものではない。
記憶部41は、ハードディスクドライブなどの大容量の記憶装置を含んで構成され、画像処理サーバ30から送信されてきた合成画像や実画像のデータなどがデータベース化されて記憶されるようになっている。
The image providing server 40 includes a storage unit 41, a communication processing unit 42, a control unit 43, an operation unit 44, a display unit 45, and a power supply unit 46, but is not limited to this configuration.
The storage unit 41 is configured to include a large-capacity storage device such as a hard disk drive, and is configured to store the data of the composite image and the actual image transmitted from the image processing server 30 as a database. ..

通信処理部42は、ネットワーク60を介して利用者端末50側や画像処理サーバ30側と通信するための通信インターフェースや通信制御部を含んで構成されている。制御部43は、CPU(プロセッサ)、RAM、ROMなどを含むマイクロコンピュータを含んで構成され、画像提供サーバ40の各部の動作制御を行うためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体に格納してもよい。   The communication processing unit 42 includes a communication interface and a communication control unit for communicating with the user terminal 50 side and the image processing server 30 side via the network 60. The control unit 43 is configured to include a microcomputer including a CPU (processor), RAM, ROM, and the like, and stores a program for controlling the operation of each unit of the image providing server 40. These programs may be stored in a computer-readable built-in recording medium or an external recording medium.

操作部44は、画像提供サーバ40の各種機能の作動、データ入出力・更新指示等を行うためのキーボード等の入力機器を含んで構成されている。表示部45は、画像提供サーバ40で処理されたデータ等を表示可能な表示装置を含んで構成されている。電源部46は、画像提供サーバ40の各部に電源供給を行う電源回路やバックアップ電源などを含んで構成されている。   The operation unit 44 is configured to include an input device such as a keyboard for operating various functions of the image providing server 40 and performing data input/output/update instructions. The display unit 45 includes a display device capable of displaying data processed by the image providing server 40. The power supply unit 46 includes a power supply circuit that supplies power to each unit of the image providing server 40, a backup power supply, and the like.

図4は、画像センサ装置10、画像処理サーバ30及び画像提供サーバ40が実行する処理を説明するための機能ブロック図である。
[画像センサ装置10]
画像取得部12aが、撮像部11で撮像された画像を取得する処理を行い、対象検出部12bが、取得した画像(実画像)からプライバシー情報を含む対象物(人間)2を検出(認識)する処理を行う。取得した画像と対象物検出(画像認識)結果のデータが、例えば、画像センサ装置10のID(識別子)及び画像取得日時等のデータと関連付けた状態で画像処理サーバ30に送信される。
FIG. 4 is a functional block diagram for explaining processing executed by the image sensor device 10, the image processing server 30, and the image providing server 40.
[Image sensor device 10]
The image acquisition unit 12a performs a process of acquiring the image captured by the imaging unit 11, and the target detection unit 12b detects (recognizes) the target object (human) 2 including the privacy information from the acquired image (actual image). Perform processing to The acquired image and the data of the object detection (image recognition) result are transmitted to the image processing server 30 in a state of being associated with the data such as the ID (identifier) of the image sensor device 10 and the image acquisition date and time.

[画像処理サーバ30]
画像処理サーバ30に画像処理装置300が装備されている。画像処理装置300は、画像受信部33a、画像送信部33b、位置検出部31a、背景画像生成部31b、合成画像生成部31c、及び3D地図登録部32bを含んで構成され、これら各部は、画像処理サーバ30の画像処理部31、記憶部32、通信処理部33、及び制御部34の機能により実現される。
[Image processing server 30]
The image processing server 30 is equipped with the image processing device 300. The image processing device 300 is configured to include an image receiving unit 33a, an image transmitting unit 33b, a position detecting unit 31a, a background image generating unit 31b, a composite image generating unit 31c, and a 3D map registration unit 32b, and each of these units is an image. It is realized by the functions of the image processing unit 31, the storage unit 32, the communication processing unit 33, and the control unit 34 of the processing server 30.

画像受信部33aが、画像センサ装置10から送信されてきた画像データを受信して取得し(画像取得部として機能し)、実画像データベース32aに記憶する処理を行う一方、位置検出部31aが、対象物検出のデータに基づいて、撮像された画像上における対象物(人間)2の位置(座標又は領域)を算出する処理を行う。位置検出部31aで検出された対象物2の位置データは、例えば、画像センサ装置10のID(識別子)、画像取得日時等のデータと関連付けた状態で制御部34内のRAM又は記憶部32に記憶される。制御部34内のRAM又は記憶部32が、対象物2の位置データを記憶する位置データ記憶部として機能する。なお、対象検出部12bの機能を画像処理サーバ30に設ける構成としてもよい。   The image receiving unit 33a receives and acquires the image data transmitted from the image sensor device 10 (functions as an image acquiring unit), and stores the image data in the actual image database 32a, while the position detecting unit 31a A process of calculating the position (coordinates or area) of the target object (human) 2 on the captured image is performed based on the object detection data. The position data of the object 2 detected by the position detection unit 31a is stored in the RAM or the storage unit 32 in the control unit 34 in a state of being associated with data such as the ID (identifier) of the image sensor device 10 and the image acquisition date and time. Remembered. The RAM in the control unit 34 or the storage unit 32 functions as a position data storage unit that stores the position data of the object 2. The function of the target detection unit 12b may be provided in the image processing server 30.

位置検出部31aで実行される対象物2の位置算出方法には、2次元位置算出方法や3次元位置算出方法などが適用される。
2次元位置算出方法としては、
(1)撮像された画像上から対象物2である人間の頭部の特徴点(x、y座標)を抽出し、頭部位置(座標又は領域)を算出する方法、
(2)撮像された画像上から対象物2である人間の頭部、胴体部、腕部、脚部等の身体的特徴点(x、y座標)を抽出し、人位置(座標又は領域)を算出する方法、
(3)事前取得した画像(比較用背景画像)と撮像された画像とを比較して、対象物2である人間が存在する前景領域(x、y座標又は領域)を抽出する背景差分処理を行い、人位置を算出する方法などが適用され得る。
A two-dimensional position calculation method, a three-dimensional position calculation method, or the like is applied to the position calculation method of the object 2 executed by the position detection unit 31a.
As a two-dimensional position calculation method,
(1) A method of extracting feature points (x, y coordinates) of the human head, which is the object 2, from the captured image, and calculating the head position (coordinates or area),
(2) The physical position (x, y coordinates) of the human head, torso, arms, legs, etc., which is the object 2, is extracted from the captured image, and the human position (coordinates or area) is extracted. How to calculate,
(3) Background difference processing for comparing a pre-acquired image (comparative background image) with the captured image to extract a foreground region (x, y coordinates or region) in which the human being the target 2 exists. A method of performing and calculating a person position can be applied.

3次元位置算出方法としては、
(1)単眼の画像センサ装置10で取得した画像上で検出された対象物2の位置(座標又は領域)データ、画像センサ装置10の位置・姿勢(内部・外部パラメータ)情報、3次元地図データ、及び検出対象物(人間)の属性(男性又は女性、大人又は子供など)や姿勢状態(立った状態、座った状態、屈んだ状態、又は倒れている状態)等の画像認識データを利用して3次元位置座標を算出する方法、
(2)単眼の画像センサ装置10で取得した画像上で検出された対象物2の位置(座標又は領域)データと、画像以外のセンサ情報、例えば、対象物(人間)2が所持しているスマートフォンなどの携帯端末が発する電波強度(Bluetooth Low Energy(BLE)、Wi-Fi)データ(屋内外での位置測位データ)とを利用して3次元位置座標を算出する方法(この場合、画像センサ装置10にBLE受信機(ビーコン)やWi-Fi電波の受信機が接続されている。)、
(3)複数の画像センサ装置10で同じ領域を撮像している場合、複数の画像センサ装置10からの視線(エピポーラ線)が空間中の1点に交わるエピポーラ条件(カメラ姿勢に基づく基礎行列を用いて対応点の拘束ラインを決定する、2枚の画像間に存在する幾何学的関係を示す条件)、及び3次元地図データを用いて、エピポーラ線の交点を対象物2の3次元位置として算出する方法(特に対象物が複数存在する場合には、エピポーラ条件などの3次元幾何学上の制約と、時系列的な制約とを組み合わせることで、より正確な位置推定を行うことが可能となっている。)、
(4)画像センサ装置10、3次元地図データ、及び各種センサ(磁気センサ、電子コンパス、加速度センサ、ジャイロセンサ、位置測位センサなど)を組み合わせて、これらセンサ情報に基づいて対象物2の3次元位置座標を算出する方法などが適用される。
As a three-dimensional position calculation method,
(1) Position (coordinates or area) data of the object 2 detected on the image acquired by the monocular image sensor device 10, position/orientation (internal/external parameter) information of the image sensor device 10, three-dimensional map data , And the image recognition data such as the attributes (male or female, adult or child, etc.) of the detection target (human) and posture (standing, sitting, crouching, or falling) Method to calculate three-dimensional position coordinates by
(2) Position (coordinates or area) data of the object 2 detected on the image acquired by the monocular image sensor device 10 and sensor information other than the image, for example, the object (human) 2 possesses A method of calculating three-dimensional position coordinates using radio field intensity (Bluetooth Low Energy (BLE), Wi-Fi) data (positioning data indoors and outdoors) emitted from a mobile terminal such as a smartphone (in this case, an image sensor) A BLE receiver (beacon) or a Wi-Fi radio wave receiver is connected to the device 10.),
(3) When the same region is imaged by a plurality of image sensor devices 10, an epipolar condition (a basic matrix based on the camera posture based on camera postures) at which a line of sight (epipolar line) from the plurality of image sensor devices 10 intersects one point in space Using the constraint line of the corresponding points to determine the geometrical relationship existing between the two images) and the three-dimensional map data, the intersection point of the epipolar lines is used as the three-dimensional position of the object 2. Method of calculation (especially when there are multiple objects, it is possible to perform more accurate position estimation by combining three-dimensional geometric constraints such as epipolar conditions and time-series constraints. ,),
(4) The image sensor device 10, three-dimensional map data, and various sensors (magnetic sensor, electronic compass, acceleration sensor, gyro sensor, position-positioning sensor, etc.) are combined, and the three-dimensional image of the object 2 is obtained based on these sensor information. A method of calculating position coordinates or the like is applied.

また、3D地図登録部32bが、画像センサ装置10が設置されている施設等の3D(3次元)地図データを背景データベース(DB)32cに登録する処理を行う。3D地図データは、画像センサ装置10の撮像範囲に対応する領域の背景画像を生成するために用いられる。   Further, the 3D map registration unit 32b performs a process of registering 3D (3D) map data of a facility or the like where the image sensor device 10 is installed in the background database (DB) 32c. The 3D map data is used to generate a background image of an area corresponding to the imaging range of the image sensor device 10.

外部パラメータ登録部32dが、画像センサ装置10の外部パラメータをパラメータデータベース(DB)32fに登録し、内部パラメータ登録部32eが、画像センサ装置10の内部パラメータをパラメータDB32fに登録する処理を行う。内部パラメータは、画像センサ装置10の焦点距離、画像中心、画像(画素)サイズ、歪収差係数を含む。外部パラメータは、画像センサ装置10の位置や姿勢を示す回転、平行移動量を含み、ある座標系における3次元座標を別の座標系での座標に変換するために必要となるパラメータである。   The external parameter registration unit 32d registers the external parameter of the image sensor device 10 in the parameter database (DB) 32f, and the internal parameter registration unit 32e performs the process of registering the internal parameter of the image sensor device 10 in the parameter DB 32f. The internal parameters include the focal length of the image sensor device 10, the image center, the image (pixel) size, and the distortion aberration coefficient. The external parameters include rotation and parallel movement amounts indicating the position and orientation of the image sensor device 10, and are parameters necessary for converting three-dimensional coordinates in one coordinate system into coordinates in another coordinate system.

背景画像生成部31bが、背景DB32cに登録されている3D地図データ、パラメータDB32fに登録されている画像センサ装置10のパラメータ等を用いて、3D地図データから画像センサ装置10の撮像範囲に対応する背景画像を生成する処理を行う。生成された背景画像は、例えば、画像センサ装置10のIDと関連付けて背景画像データベース(DB)32gに登録される。   The background image generation unit 31b uses the 3D map data registered in the background DB 32c, the parameters of the image sensor device 10 registered in the parameter DB 32f, and the like to correspond to the imaging range of the image sensor device 10 from the 3D map data. Performs processing to generate a background image. The generated background image is registered in the background image database (DB) 32g in association with the ID of the image sensor device 10, for example.

合成画像生成部31cが、制御部34内のRAM又は記憶部32から読み出した対象物の位置(座標)データと、背景画像DB32gから読み出した、対応する背景画像とを用い、該背景画像上における対象物2の検出位置に、対象物2のプライバシー情報が除去された(含まれていない)模型、例えば対象物2のシルエットを表したCG画像(人形)を描画して合成画像を生成する処理を行う。なお、対象物2の模型とは、撮像された画像に含まれる対象物2を、プライバシー情報を含まない形態で模した表示物であり、コンピュータによって背景画像上に対象物2の代替物として描画される表示物である。
画像送信部33bが、画像センサ装置10のIDや画像取得日時等のデータと関連付けられた合成画像データを画像提供サーバ40に送信する処理を行う。
The composite image generation unit 31c uses the position (coordinates) data of the target object read from the RAM or the storage unit 32 in the control unit 34 and the corresponding background image read from the background image DB 32g, and uses the background image on the background image. A process of drawing a model in which the privacy information of the object 2 is removed (not included) at the detection position of the object 2, for example, a CG image (doll) representing the silhouette of the object 2 to generate a composite image. I do. Note that the model of the object 2 is a display object that imitates the object 2 included in the captured image in a form that does not include privacy information, and is drawn by a computer as a substitute for the object 2 on the background image. It is a displayed object.
The image transmission unit 33b performs a process of transmitting the composite image data associated with the ID of the image sensor device 10 and the data such as the image acquisition date and time to the image providing server 40.

なお、位置検出部31aが対象物2の画像上の2次元座標を算出する場合、合成画像生成部31cは、背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
また、位置検出部31aが対象物2の3D地図上の3次元座標を算出する場合、合成画像生成部31cは、3次元座標から画像上の2次元座標を復元し、復元した2次元座標に基づいて背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
When the position detection unit 31a calculates the two-dimensional coordinates on the image of the object 2, the synthetic image generation unit 31c performs a process of generating a synthetic image in which a model is two-dimensionally arranged on the background image.
Further, when the position detection unit 31a calculates the three-dimensional coordinates of the object 2 on the 3D map, the composite image generation unit 31c restores the two-dimensional coordinates on the image from the three-dimensional coordinates, and restores the restored two-dimensional coordinates. Based on this, processing for generating a composite image in which a model is two-dimensionally arranged on the background image is performed.

また、画像送信部33bは、所定の条件成立時に実画像DB32aに記憶されている実画像を画像提供サーバ40に送信する処理も行う。また、画像送信部33bは、画像提供サーバ40を管理するためのアプリケーションソフトウェア(内部アプリ)38が組み込まれた管理端末装置(図示せず)に、実画像DB32aに記憶されている実画像や合成画像生成部31cで生成された合成画像を送信する処理も行うようになっている。   The image transmitting unit 33b also performs a process of transmitting the actual image stored in the actual image DB 32a to the image providing server 40 when a predetermined condition is satisfied. Further, the image transmitting unit 33b causes the management terminal device (not shown) in which the application software (internal application) 38 for managing the image providing server 40 is incorporated into the real image stored in the real image DB 32a or the composite image. A process of transmitting the composite image generated by the image generation unit 31c is also performed.

[画像提供サーバ40]
画像提供サーバ40は、コンピュータを備えた電子機器であり、画像処理サーバ30で生成された合成画像や撮像された実画像を利用者端末50に送信する処理などを実行する。
画像受信部42aが、画像処理サーバ30から送信されてきた合成画像や実画像のデータを受信し、画像センサ装置10のIDや撮像日時等のデータと関連付けて合成画像データベース41a、実画像データベース41bにそれぞれ記憶する処理を行う。
[Image providing server 40]
The image providing server 40 is an electronic device including a computer, and executes a process of transmitting a composite image generated by the image processing server 30 or a captured real image to the user terminal 50.
The image receiving unit 42a receives the data of the composite image and the real image transmitted from the image processing server 30, and associates the data of the ID of the image sensor device 10 and the date and time of the image pickup with the composite image database 41a and the real image database 41b. The process of storing in each is performed.

画像送信部42bが、合成画像を要求してきた利用者端末50に、合成画像DB41aから読み出した合成画像(前記要求に対応した場所の合成画像)を送信する処理を行う。また、実画像を要求してきた利用者端末50に、所定の条件下で実画像DB41bから読み出した実画像(前記要求に対応した場所の実画像)を送信する処理を行う。なお、実画像には対象物2のプライバシー情報が含まれている場合があるため、実画像は、画像処理サーバ30又は画像提供サーバ40が、対象物2に関する異常事態や緊急事態などの特別な条件が成立したと判断した場合にのみ利用者端末50に送信可能となっている。   The image transmitting unit 42b performs a process of transmitting the composite image read from the composite image DB 41a (the composite image at the location corresponding to the request) to the user terminal 50 that has requested the composite image. In addition, a process of transmitting the real image read from the real image DB 41b (real image at the location corresponding to the request) to the user terminal 50 that has requested the real image under predetermined conditions is performed. Since the real image may include the privacy information of the target object 2, the real image is displayed by the image processing server 30 or the image providing server 40 in a special case such as an abnormal situation or an emergency situation regarding the target object 2. It is possible to transmit to the user terminal 50 only when it is determined that the condition is satisfied.

図5は、画像処理サーバ30が行う各種データの登録処理を説明するためのフローチャートである。本処理は、撮像された画像に対応する領域の背景画像を生成するために必要な処理であり、例えば、画像センサ装置10を設置する際に実行される。   FIG. 5 is a flowchart for explaining a registration process of various data performed by the image processing server 30. This process is a process required to generate a background image of a region corresponding to the captured image, and is executed when the image sensor device 10 is installed, for example.

ステップS1では、背景画像を生成する元となる背景データとしての3D地図データを背景DB32cに登録する処理を行う。3D地図データには、設置される画像センサ装置10の個数及び撮像範囲等に基づいて適切な背景領域が含まれる3次元背景データが採用される。3D地図データは、実写ベースの3D地図の他、CGベースの3D地図でもよい。3D地図データには、プライバシー情報を含む対象物2のデータ(少なくともプライバシーに関わる部分のデータ)が含まれていないデータが採用される。外部のデータベースサーバや記録媒体(いずれも図示せず)などから3D地図データを取得して登録する処理を行ってもよい。   In step S1, a process of registering the 3D map data as the background data from which the background image is generated in the background DB 32c is performed. As the 3D map data, three-dimensional background data including an appropriate background area based on the number of image sensor devices 10 installed and the imaging range is adopted. The 3D map data may be a CG-based 3D map as well as a live-action-based 3D map. As the 3D map data, data that does not include the data of the target object 2 including privacy information (at least the data relating to privacy) is adopted. You may perform the process which acquires and registers 3D map data from an external database server, a recording medium (all are not shown), etc.

ステップS2では、画像センサ装置10の内部パラメータを登録する処理を行う。内部パラメータには、画像センサ装置10の焦点距離、画像中心、歪収差係数画像、画素サイズが含まれる。内部パラメータの取得方法は、画像センサ装置10の出荷時のキャリブレーション情報を取得する方法、内部パラメータの取得用ツール(ソフトウェア)を使用して取得する方法、画像処理サーバ30に搭載されたキャリブレーションツール(ソフトウェア)を使用し、撮像した画像を用いて内部パラメータを取得する方法などが採用され得る。内部パラメータのキャリブレーション(校正)は、チェスボード等のキャリブレーション用マーカを写した画像を複数枚取得し、これら画像上のチェスボードの対応点を計算することにより行うこともできる。   In step S2, a process of registering internal parameters of the image sensor device 10 is performed. The internal parameters include the focal length of the image sensor device 10, the image center, the distortion aberration coefficient image, and the pixel size. The internal parameter acquisition method includes a method of acquiring the factory calibration information of the image sensor device 10, a method of acquiring the internal parameter using a tool (software) for acquiring internal parameters, and a calibration installed in the image processing server 30. A method of using a tool (software) to acquire an internal parameter using a captured image or the like can be adopted. The calibration of internal parameters can also be performed by acquiring a plurality of images including a calibration marker such as a chessboard and calculating the corresponding points of the chessboard on these images.

ステップS3では、画像センサ装置10の外部パラメータを登録する処理を行う。外部パラメータは、画像センサ装置10の位置姿勢に関する情報を含んでいる。外部パラメータの取得方法は、画像センサ装置10の設置後にキャリブレーションツールを使用して取得する方法がある。一般的なキャリブレーション方法は、3D地図上における3次元位置が既知の点aと、点aが画像上に投影された点a’との組み合わせを複数点対応付ける処理を行い、外部パラメータである回転パラメータR、平行移動量パラメータTを計算する。   In step S3, a process of registering external parameters of the image sensor device 10 is performed. The external parameter includes information regarding the position and orientation of the image sensor device 10. As a method of acquiring the external parameter, there is a method of acquiring the external parameter by using a calibration tool after the image sensor device 10 is installed. A general calibration method performs a process of associating a plurality of combinations of a point a whose three-dimensional position is known on a 3D map and a point a′ projected on the image, and a rotation that is an external parameter. The parameter R and the parallel displacement amount parameter T are calculated.

下記の数式1は、画像センサ装置10における実際の空間(実空間)と表示画像との関係式を表している。X、Y、Zは実空間における3次元座標、Rが回転パラメータ、Tが平行移動量パラメータ、Aが内部パラメータ、x、yが画像上における投影点を示している。

Figure 0006699518
Formula 1 below represents a relational expression between the actual space (real space) and the display image in the image sensor device 10. X, Y, and Z are three-dimensional coordinates in the real space, R is a rotation parameter, T is a translation amount parameter, A is an internal parameter, and x and y are projection points on the image.
Figure 0006699518

ステップS4では、内部パラメータと外部パラメータとを登録した後、これらパラメータの調整処理を行う。パラメータの調整は、例えば、3D地図データを用いて生成された背景画像と、画像センサ装置10で撮像された画像(実画像)とを表示部36に表示させて行うことができる。3D地図データの精度や外部パラメータのキャリブレーション精度によっては、背景画像と実画像とに位置ずれが生じている場合がある。このような場合、実画像と3D地図上の対応点を並べたほぼ同一視点上の画像上で対応付けを行う処理を実行するツールによりパラメータの微調整を行うようにしてもよい。   In step S4, after the internal parameter and the external parameter are registered, adjustment processing of these parameters is performed. The parameters can be adjusted, for example, by displaying a background image generated using the 3D map data and an image (actual image) captured by the image sensor device 10 on the display unit 36. Depending on the accuracy of the 3D map data and the calibration accuracy of the external parameters, the background image and the actual image may be misaligned. In such a case, the parameters may be finely adjusted by a tool that executes a process of associating the actual image and the corresponding points on the 3D map on the image on the substantially same viewpoint.

ステップS5では、事前登録された3D地図データ、内部パラメータ、外部パラメータを用いて、画像センサ装置10で撮像される画像に対応する撮像範囲の背景画像を生成する処理を行い、その後処理を終える。生成される背景画像は、背景に存在する構造物などを含む画像であり、プライバシー情報を含む対象物2は含まれていない。また、画像の撮像時間帯等に応じて光源を変更したり、木々を揺らす等の処理を背景画像に反映させて、実画像で得られる情景に合わせた数種類の画像を背景画像として生成するようにしてもよい。生成された背景画像は、例えば、画像センサ装置10のID、画像取得日時等のデータと関連付けて背景画像DB32gに登録される。   In step S5, the 3D map data, the internal parameters, and the external parameters that have been registered in advance are used to perform a process of generating a background image in the image capturing range corresponding to the image captured by the image sensor device 10, and then the process ends. The generated background image is an image including a structure existing in the background, and does not include the object 2 including privacy information. In addition, it is possible to generate several types of images as background images by changing the light source according to the image capturing time, reflecting the processing such as swaying the trees in the background image, and matching the scene obtained from the actual image. You can The generated background image is registered in the background image DB 32g in association with data such as the ID of the image sensor device 10 and the image acquisition date and time.

図6は、画像処理サーバ30が行う合成画像生成処理を説明するためのフローチャートである。本処理動作は、例えば、画像提供サーバ40側から合成画像の送信要求があった場合に実行される。または、該送信要求後の一定時間毎に実行するようにしてもよい。   FIG. 6 is a flowchart for explaining the composite image generation process performed by the image processing server 30. This processing operation is executed, for example, when there is a request to send a composite image from the image providing server 40 side. Alternatively, it may be executed at regular time intervals after the transmission request.

まずステップS11では、画像センサ装置10から画像を取得する処理を行う。画像センサ装置10から取得する画像は、リアルタイムで撮像された画像の他、画像センサ装置10の記憶部13に保存された撮像済みの画像(保存画像)であってもよい。   First, in step S11, a process of acquiring an image from the image sensor device 10 is performed. The image acquired from the image sensor device 10 may be an image captured in real time, or an imaged image (saved image) stored in the storage unit 13 of the image sensor device 10.

ステップS12では、ステップS11で取得した画像からプライバシーを保護(開示を制限)するべき対象物2を検出する処理を行う。本実施の形態では、対象物2が人間に設定されている場合について説明しているが、対象物2は人間に限定されるものではなく、プライバシーを保護すべきものを対象とすることができる。また、対象物2は1種類に限定されるものではなく、2種類以上のものを対象物として設定することもできる。   In step S12, a process of detecting the object 2 whose privacy is to be protected (disclosure is limited) is performed from the image acquired in step S11. In the present embodiment, the case where the target object 2 is set to a human has been described. However, the target object 2 is not limited to a human, and may be a target whose privacy should be protected. Further, the object 2 is not limited to one kind, and two or more kinds can be set as the object.

画像上の対象物(人間)2を検出する方法は、例えば、人間の体(頭部、胴体部、腕部、脚部など)の特徴部を抽出して検出する方法、取得した連続フレーム画像の差分に基づいて人間を検出する方法、事前取得した基準背景画像と取得画像との差分に基づいて人間を検出する方法など、各種の画像認識方法が採用され得る。   The method of detecting the object (human) 2 on the image is, for example, a method of extracting and detecting a characteristic part of a human body (head, body, arms, legs, etc.), acquired continuous frame images. Various image recognition methods can be adopted, such as a method of detecting a person based on the difference between the two and a method of detecting a person based on the difference between the previously acquired reference background image and the acquired image.

ステップS13では、ステップS12で検出された対象物2の位置を検出する処理を行う。対象物2の位置を検出する方法は、上記した画像上の2次元位置(x、y座標又は領域)を算出する方法、3D地図上の3次元位置(x、y、z座標又は領域)を算出する方法が採用され得る。   In step S13, a process of detecting the position of the target object 2 detected in step S12 is performed. The method of detecting the position of the target object 2 is to calculate the two-dimensional position (x, y coordinates or area) on the image described above, and calculate the three-dimensional position (x, y, z coordinates or area) on the 3D map. A method of calculating can be adopted.

ステップS14では、ステップS13で検出された対象物2の位置データを用いて、事前に生成された背景画像に対象物2のプライバシー情報が除かれた模型(人形)を投影して描画した合成画像を生成する処理を行い、生成した合成画像を記憶部32に記憶した後、処理を終える。
模型の合成方法としては、上記した方法、すなわち、事前に生成された背景画像上に模型を投影して合成する方法(2次元的な合成方法)の他、3D地図データ上に3次元位置データに基づいて模型を3次元的に配置し、画像センサ装置10の撮像領域に対応する領域を画像として切り出して合成画像を生成する方法(3次元的な合成方法)が採用され得る。3次元的な合成方法を採用した場合は、模型が描画された状態に違和感の少ない合成画像を生成することが可能となる。
In step S14, a composite image in which the model (doll) in which the privacy information of the object 2 is removed is projected and drawn on the background image generated in advance using the position data of the object 2 detected in step S13. Is performed, the generated combined image is stored in the storage unit 32, and then the process ends.
As a model synthesizing method, the above-described method, that is, a method of projecting and synthesizing a model on a background image generated in advance (two-dimensional synthesizing method), and three-dimensional position data on 3D map data are available. A method of arranging the models three-dimensionally based on the above, and cutting out an area corresponding to the imaging area of the image sensor device 10 as an image to generate a combined image (a three-dimensional combining method) can be adopted. When a three-dimensional synthesizing method is adopted, it is possible to generate a synthetic image with less discomfort in the state in which the model is drawn.

図7は、実施の形態(1)に係るデータ提供システム1で実行される処理動作を説明するためのフローチャートである。本処理動作は、例えば、利用者端末50で外部アプリ51が起動された場合に開始される。   FIG. 7 is a flowchart for explaining the processing operation executed in the data providing system 1 according to the embodiment (1). This processing operation is started, for example, when the external application 51 is activated on the user terminal 50.

利用者端末50が、ステップS21において、外部アプリ51を起動する処理を行う。ステップS22において、合成画像の要求操作があったと判断した場合に、合成画像の要求信号を画像提供サーバ40に送信する処理を行う。合成画像の要求信号には、利用者端末50のID(識別子)、要求する合成画像に関する情報などが含まれる。要求する合成画像に関する情報には、対象とする施設、場所、画像センサ装置10の情報、撮像日時・期間などの情報が含まれる。これら情報は、外部アプリ51上で適宜入力できる他、予め設定できるようにしてもよい。   The user terminal 50 performs a process of starting the external application 51 in step S21. In step S22, when it is determined that the composite image request operation is performed, a process of transmitting a composite image request signal to the image providing server 40 is performed. The request signal for the combined image includes the ID (identifier) of the user terminal 50, information regarding the requested combined image, and the like. The information regarding the requested composite image includes information such as the target facility, place, information of the image sensor device 10 and date and time of image capturing. These pieces of information can be appropriately input on the external application 51 or may be set in advance.

次に、画像提供サーバ40が、ステップS23において、利用者端末50から合成画像の要求信号を受信する処理を行う。次のステップS24では、受信した合成画像の要求信号に基づいて、画像処理サーバ30に合成画像の要求信号を送信する処理を行う。   Next, the image providing server 40 performs a process of receiving a request signal for a composite image from the user terminal 50 in step S23. In the next step S24, based on the received request signal for the composite image, processing for transmitting the request signal for the composite image to the image processing server 30 is performed.

次に、画像処理サーバ30が、ステップS25において、画像提供サーバ40から合成画像の要求信号を受信する処理を行う。次のステップS26では、受信した合成画像の要求信号に基づいて、画像取得対象として指定された画像センサ装置10から撮像画像(実画像)を含むデータを取得する処理を行う。取得したデータには、実画像データ、撮像日時データ、画像センサ装置10のIDなどが含まれ、これらデータが実画像DB32aに互いに関連付けた形式で記憶される。   Next, the image processing server 30 performs a process of receiving a request signal for a composite image from the image providing server 40 in step S25. In the next step S26, a process of acquiring data including a captured image (actual image) from the image sensor device 10 designated as the image acquisition target is performed based on the received request signal for the combined image. The acquired data includes actual image data, image capturing date/time data, the ID of the image sensor device 10, and the like, and these data are stored in the actual image DB 32a in a mutually associated format.

次にステップS27では、取得した実画像から対象物2を検出(認識)する処理を行う。本処理は、先に説明した、図6のステップS12に対応する処理である。次のステップS28では、実画像中で検出された対象物2の位置を検出する処理を行う。本処理は、先に説明した、図6のステップS13に対応する処理である。続くステップS29では、検出された対象物2の位置データを制御部34内のRAM又は記憶部32に記憶する。対象物2の位置データは、画像センサ装置10のIDや撮像日時データなどの実画像に関するデータと関連付けた形式で記憶される。   Next, in step S27, a process of detecting (recognizing) the target object 2 from the acquired real image is performed. This process is a process corresponding to step S12 of FIG. 6 described above. In the next step S28, a process of detecting the position of the object 2 detected in the actual image is performed. This process is a process corresponding to step S13 of FIG. 6 described above. In subsequent step S29, the detected position data of the object 2 is stored in the RAM or the storage unit 32 in the control unit 34. The position data of the target object 2 is stored in a format associated with data related to the actual image such as the ID of the image sensor device 10 and the image pickup date/time data.

次にステップS30では、背景画像DB32gから、実画像の撮像範囲に対応する背景画像を読み出す処理を行い、次のステップS31では、制御部34内のRAM又は記憶部32から、対応する実画像で検出された対象物2の位置データを読み出す処理を行い、ステップS32に進む。   Next, in step S30, the background image corresponding to the imaging range of the real image is read from the background image DB 32g, and in the next step S31, the corresponding real image is read from the RAM in the control unit 34 or the storage unit 32. A process of reading the detected position data of the object 2 is performed, and the process proceeds to step S32.

ステップS32では、ステップS31で読み出した対象物2の位置データと、ステップS30で読み出した背景画像とを用い、該背景画像に対象物2のプライバシー情報が除かれた対象物2の模型が描画された合成画像を生成する処理を行う。本処理は、先に説明した、図6のステップS14に対応する処理である。続くステップS33では、生成された合成画像を記憶部32に記憶する。生成された合成画像のデータは、画像センサ装置10のIDや撮像日時データなどと関連付けた形式で記憶される。次にステップS34では、記憶部32から読み出した合成画像のデータを画像提供サーバ40に送信する処理を行う。   In step S32, the position data of the object 2 read in step S31 and the background image read in step S30 are used to draw a model of the object 2 from which the privacy information of the object 2 is removed. Processing for generating the combined image. This process is a process corresponding to step S14 of FIG. 6 described above. In the subsequent step S33, the generated combined image is stored in the storage unit 32. The data of the generated composite image is stored in a format associated with the ID of the image sensor device 10, the image pickup date and time data, and the like. Next, in step S34, processing of transmitting the data of the composite image read from the storage unit 32 to the image providing server 40 is performed.

画像提供サーバ40では、ステップS35において、画像処理サーバ30から送信されてきた合成画像のデータを受信する処理を行い、次のステップS36で、受信した合成画像のデータを合成画像DB41aに記憶する処理を行う。合成画像は、画像センサ装置10のIDや撮像日時等のデータと関連付けた形式で記憶される。次のステップS37では、合成画像DB41aから合成画像のデータを読み出して利用者端末50に送信する処理を行う。   In the image providing server 40, in step S35, the process of receiving the data of the composite image transmitted from the image processing server 30 is performed, and in the next step S36, the process of storing the received data of the composite image in the composite image DB 41a. I do. The composite image is stored in a form associated with data such as the ID of the image sensor device 10 and the image pickup date and time. In the next step S37, a process of reading the data of the composite image from the composite image DB 41a and transmitting it to the user terminal 50 is performed.

利用者端末50では、ステップS38において、画像提供サーバ40から送信されてきた合成画像のデータを受信する処理を行い、次のステップS39において、受信した合成画像のデータを記憶部(図示せず)に記憶する処理を行い、続くステップS40において、合成画像を表示部に表示する処理を行う。その後、ステップS41において、外部アプリ51で合成画像を用いたデータ処理が実行され、その後、ステップS42において、外部アプリ51の終了操作を検出すると終了処理を行い、その後、処理を終える。   In step S38, the user terminal 50 performs a process of receiving the composite image data transmitted from the image providing server 40, and in the next step S39, the received composite image data is stored in a storage unit (not shown). Is stored in step S40, and in step S40, a process of displaying the combined image on the display unit is performed. After that, in step S41, data processing using the composite image is executed by the external application 51. Then, in step S42, if an end operation of the external application 51 is detected, the end processing is performed, and then the processing ends.

図8は、画像処理サーバ30で生成される合成画像を説明するための表示例であり、(a)は、画像センサ装置10で撮像された画像(実画像)、(b)は3D地図データを基に生成された背景画像、(c)は対象物が検出された場合の合成画像、(d)は対象物の検出に失敗した場合の画像である。   FIG. 8 is a display example for explaining a composite image generated by the image processing server 30, (a) is an image (actual image) captured by the image sensor device 10, and (b) is 3D map data. (C) is a composite image when an object is detected, and (d) is an image when the object fails to be detected.

図8(a)に示すように、実画像P1には対象物2が写されている。図8(b)に示すように、3D地図データを基に生成された背景画像P2には対象物2は含まれていない。図8(c)に示すように、対象物2が検出された場合、背景画像P2にプライバシー情報が除去された模型3が合成される。実画像P1上における対象物2の位置に対応する背景画像P2上の位置に、対象物2の模型3が表示されるので、対象物2のプライバシーを保護することが可能となっている。   As shown in FIG. 8A, the object 2 is shown in the real image P1. As shown in FIG. 8B, the background image P2 generated based on the 3D map data does not include the target object 2. As shown in FIG. 8C, when the target object 2 is detected, the model 3 from which the privacy information is removed is combined with the background image P2. Since the model 3 of the target object 2 is displayed at the position on the background image P2 corresponding to the position of the target object 2 on the actual image P1, it is possible to protect the privacy of the target object 2.

また、模型3が対象物2の位置や姿勢(この場合、立っている状態)などの状態を再現するように描画され、背景画像P2が実画像P1の撮像範囲に対応したものであるので、対象物2を除いた領域の再現性を高めることができ、背景に存在する物との位置関係等の情報も正確に把握することが可能となっている。
模型3の表示形態は、対象物2である個人が特定されないようにプライバシー情報が除去された形態であれば特に限定されない。例えば、画像センサ装置10による対象物2の画像認識結果に基づく属性(男性又は女性、大人又は子供など)や動作姿勢に対応させた、模型3のモデルや動作モデルを用いることで、より対象物2の位置状態の再現性を高めることができる。合成画像の再現性を高めることにより、合成画像の利用価値を高めることができ、第3者による合成画像を利用したサービスを広く展開させることが可能となる。
In addition, since the model 3 is drawn so as to reproduce the position and posture (in this case, the standing state) of the target object 2, and the background image P2 corresponds to the imaging range of the actual image P1, The reproducibility of the area excluding the object 2 can be improved, and information such as the positional relationship with the object existing in the background can be accurately grasped.
The display form of the model 3 is not particularly limited as long as the privacy information is removed so that the individual who is the object 2 is not specified. For example, by using a model of the model 3 or a motion model corresponding to an attribute (male or female, adult or child, etc.) or a motion posture based on the image recognition result of the target object 2 by the image sensor device 10, It is possible to improve the reproducibility of the second position state. By increasing the reproducibility of the composite image, it is possible to enhance the utility value of the composite image, and it is possible to widely deploy the service using the composite image by a third party.

また、図8(d)に示すように、対象物2の検出に失敗した場合、実画像P1ではなく背景画像P2が提示されるため、実画像P1に写っている対象物2が提示されることなく、対象物2のプライバシーが確実に保護されるようになっている。   Further, as shown in FIG. 8D, when the detection of the target object 2 fails, the background image P2 is presented instead of the actual image P1, so the target object 2 shown in the actual image P1 is presented. Without fail, the privacy of the object 2 is surely protected.

なお、上記合成画像の表示例では、背景画像P2が実画像P1の撮像範囲に対応したものとなっているが、この表示形態に限定されるものではなく、別の表示例では、実画像P1の撮像範囲よりも広い領域を示す背景画像を用いることができる。例えば、複数の実画像で表される領域を3D地図データから背景画像として切り出し、該背景画像に、前記複数の実画像で検出された対象物2の位置に模型3を描画した合成画像を生成することもできる。   Although the background image P2 corresponds to the imaging range of the real image P1 in the above-mentioned display example of the composite image, the present invention is not limited to this display form, and in another display example, the real image P1. It is possible to use a background image showing an area wider than the image pickup range of. For example, a region represented by a plurality of real images is cut out from the 3D map data as a background image, and a synthetic image in which the model 3 is drawn on the background image at the position of the object 2 detected in the plurality of real images is generated. You can also do it.

上記実施の形態(1)に係るデータ提供システム1によれば、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた電子機器として機能する画像処理サーバ30により対象物2のプライバシーが適切に保護された合成画像が生成され、画像提供サーバ40が、前記合成画像を利用者端末50に提供することが可能となり、対象物2のプライバシーが適切に保護された合成画像を第3者に提供することで、該合成画像を用いた新たなサービスを外部アプリ51を通じて提供することができる。   According to the data providing system 1 according to the above-described embodiment (1), the privacy of the target object 2 is protected by the image processing server 30 that functions as an electronic device including a computer that executes the image recognition processing method according to the present embodiment. An appropriately protected composite image is generated, the image providing server 40 can provide the composite image to the user terminal 50, and the third party creates the composite image in which the privacy of the object 2 is appropriately protected. To provide a new service using the composite image through the external application 51.

上記実施の形態(1)に係る画像認識処理方法を実行する画像処理サーバ30によれば、画像センサ装置10から取得した実画像から対象物2の位置が検出され、対象物2の位置データを用いて、背景画像上の対応する位置に模型3が描画された合成画像が生成される。したがって、実画像から位置が検出された対象物2は模型3として背景画像に描画されるので、対象物2のプライバシー情報を含まない合成画像を生成することができる。また、背景画像に対象物2の模型3を描画するので、撮像された画像毎にモザイク処理等を行う方法と比較して、前記合成画像を連続的に生成する際の画像処理サーバ30にかかる処理負荷を削減することができる。また、実画像から対象物2の検出に失敗したとしても、提供する画像に背景画像を用いるため、検出に失敗した対象物2が利用者端末50に提示されることなく、検出に失敗した対象物2のプライバシーも適切に保護することができ、対象物2のプライバシー情報が流出しないようにチェックするための複雑な処理が不要となり、簡素化された画像認識処理を実現できる。   According to the image processing server 30 that executes the image recognition processing method according to the above embodiment (1), the position of the target object 2 is detected from the actual image acquired from the image sensor device 10, and the position data of the target object 2 is acquired. By using this, a synthetic image in which the model 3 is drawn at the corresponding position on the background image is generated. Therefore, the target object 2 whose position is detected from the actual image is drawn as the model 3 on the background image, so that a composite image that does not include the privacy information of the target object 2 can be generated. Further, since the model 3 of the object 2 is drawn on the background image, the image processing server 30 is used when continuously generating the composite image, as compared with a method of performing mosaic processing or the like for each captured image. The processing load can be reduced. Further, even if the detection of the target object 2 from the actual image fails, the background image is used for the image to be provided, and therefore the target object 2 that has failed to be detected is not presented to the user terminal 50, and the target object that has failed to be detected. The privacy of the object 2 can also be appropriately protected, a complicated process for checking that the privacy information of the object 2 is not leaked is unnecessary, and a simplified image recognition process can be realized.

図9は、実施の形態(2)に係るデータ提供システムの構成を説明するための概念図である。但し、図1に示したデータ提供システム1と同様の構成要素については、同符号を付し、その説明を省略する。
実施の形態(1)に係るデータ提供システム1では、画像処理サーバ30が、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた画像処理装置300として機能するように構成されていたが、実施の形態(2)に係るデータ提供システム1Aでは、画像センサ装置10Aが、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた画像処理装置100(図10)として機能するように構成されている。
FIG. 9 is a conceptual diagram for explaining the configuration of the data providing system according to the embodiment (2). However, the same components as those of the data providing system 1 shown in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted.
In the data providing system 1 according to the embodiment (1), the image processing server 30 is configured to function as the image processing device 300 including a computer that executes the image recognition processing method according to the present embodiment. However, in the data providing system 1A according to the embodiment (2), the image sensor device 10A functions as the image processing device 100 (FIG. 10) including a computer that executes the image recognition processing method according to the present embodiment. Is configured.

データ提供システム1Aは、画像センサ装置10A及び画像提供サーバ40を含んで構成され、プライバシー情報を含む対象物2のプライバシーが適切に保護された画像を利用者端末50に提供可能なセンサシステムとなっている。画像センサ装置10Aがネットワーク60を介して画像提供サーバ40に接続されている。画像提供サーバ40は、ネットワーク60を介して利用者端末50と接続されるようになっている。画像センサ装置10A及び画像提供サーバ40の設置個数は特に限定されない。データ提供システム1Aに少なくとも1つ以上装備されていればよい。   The data providing system 1A is configured to include an image sensor device 10A and an image providing server 40, and is a sensor system capable of providing an image in which the privacy of the object 2 including privacy information is appropriately protected to the user terminal 50. ing. The image sensor device 10A is connected to the image providing server 40 via the network 60. The image providing server 40 is connected to the user terminal 50 via the network 60. The number of installed image sensor devices 10A and image providing servers 40 is not particularly limited. It is sufficient that at least one or more data providing system 1A is equipped.

画像センサ装置10Aのハードウェア構成は、図2に示した構成と略同様であるが、画像処理部12A、制御部14A、記憶部13Aが異なる機能を備えている。また、画像センサ装置10Aには、ネットワーク60に接続するためのルーター20(図1)の機能が装備されている。なお、ルーター20は必須の構成ではなく、画像センサ装置10Aを直接ネットワーク60に接続してもよい。画像提供サーバ40のハードウェア構成は、図3に示した構成と略同様である。   The hardware configuration of the image sensor device 10A is substantially the same as the configuration shown in FIG. 2, but the image processing unit 12A, the control unit 14A, and the storage unit 13A have different functions. Further, the image sensor device 10A is equipped with the function of the router 20 (FIG. 1) for connecting to the network 60. The router 20 is not an indispensable component, and the image sensor device 10A may be directly connected to the network 60. The hardware configuration of the image providing server 40 is substantially the same as the configuration shown in FIG.

図10は、画像センサ装置10A及び画像提供サーバ40が実行する処理を説明するための機能ブロック図である。
[画像センサ装置10A]
画像センサ装置10Aに画像処理装置100が装備されている。画像処理装置100は、画像取得部12c、位置検出部12d、合成画像生成部12e、背景画像生成部12f、背景画像登録部13b、画像切替部14a、及び画像送信部15aを含んで構成され、これら各部は、画像センサ装置10Aの画像処理部12A、記憶部13A、制御部14A、及び入出力I/F15の機能により実現される。
FIG. 10 is a functional block diagram for explaining processing executed by the image sensor device 10A and the image providing server 40.
[Image sensor device 10A]
The image processing apparatus 100 is installed in the image sensor device 10A. The image processing apparatus 100 includes an image acquisition unit 12c, a position detection unit 12d, a composite image generation unit 12e, a background image generation unit 12f, a background image registration unit 13b, an image switching unit 14a, and an image transmission unit 15a. These units are realized by the functions of the image processing unit 12A, the storage unit 13A, the control unit 14A, and the input/output I/F 15 of the image sensor device 10A.

画像取得部12cが、撮像部11で撮像された画像を取得する処理を行い、位置検出部12dが、取得した画像からプライバシー情報を含む対象物(人間)2を検出(認識)し、撮像された画像上における対象物(人間)2の位置(座標又は領域)を検出する処理を行う。対象物2の検出(画像認識)、位置検出方法には、上記した2次元位置算出方法や3次元位置算出方法が適用される。位置検出部12dで検出された対象物2の位置データは、例えば、画像センサ装置10AのID(識別子)、画像取得日時等のデータと関連付けた状態で制御部14A内のRAM又は記憶部13Aに記憶される。制御部14A内のRAM又は記憶部13Aが、対象物2の位置データが記憶される位置データ記憶部として機能する。
制御部14A内のRAM又は記憶部13Aから読み出された対象物2の位置(座標又は領域)データが、例えば、画像センサ装置10AのID(識別子)、画像取得日時等のデータと関連付けた状態で合成画像生成部12eに送られる。
また、画像取得部12cで取得した画像は、例えば、画像センサ装置10AのID(識別子)、画像取得日時等のデータと関連付けた状態で実画像DB13aに記憶される。
The image acquisition unit 12c performs a process of acquiring the image captured by the image capturing unit 11, and the position detection unit 12d detects (recognizes) the target object (human) 2 including the privacy information from the acquired image and is captured. A process of detecting the position (coordinates or area) of the object (human) 2 on the image is performed. The above-described two-dimensional position calculation method and three-dimensional position calculation method are applied to the detection (image recognition) and position detection method of the object 2. The position data of the object 2 detected by the position detection unit 12d is stored in the RAM or the storage unit 13A in the control unit 14A in a state of being associated with data such as the ID (identifier) of the image sensor device 10A and the image acquisition date and time, for example. Remembered. The RAM in the control unit 14A or the storage unit 13A functions as a position data storage unit that stores the position data of the object 2.
A state in which the position (coordinates or area) data of the object 2 read from the RAM in the control unit 14A or the storage unit 13A is associated with data such as the ID (identifier) of the image sensor device 10A and the image acquisition date and time. Is sent to the composite image generation unit 12e.
The image acquired by the image acquisition unit 12c is stored in the actual image DB 13a in a state of being associated with data such as the ID (identifier) of the image sensor device 10A and the image acquisition date and time.

背景画像生成部12fが、対象物2が含まれていない背景画像を生成する処理を行う。背景画像登録部13bが、生成された背景画像を背景画像DB13cに登録する処理を行う。
本実施の形態における背景画像の生成及び登録処理は、(1)撮像部11で撮像された複数の画像を平均処理して求めた平均画像を背景画像として登録する方法、(2)対象物2が存在しない条件下で撮像した画像を背景画像として登録する方法、(3)撮像した画像を画像処理により背景のみ表した絵画風画像やCG画像に変換した画像を背景画像として登録する方法などが適用される。
The background image generation unit 12f performs a process of generating a background image that does not include the target object 2. The background image registration unit 13b performs a process of registering the generated background image in the background image DB 13c.
Background image generation and registration processing according to the present embodiment includes (1) a method of registering an average image obtained by averaging a plurality of images captured by the image capturing unit 11 as a background image, and (2) an object 2 A method of registering an image captured under the condition that there is no image as a background image, and (3) a method of registering an image converted from a captured image into a painting-style image in which only the background is represented by image processing or an image converted into a CG image as a background image. Applied.

合成画像生成部12eが、制御部14A内のRAM又は記憶部13Aから読み出した対象物2の位置(座標)データと、背景画像DB13cから読み出した背景画像とを用い、該背景画像上における対象物2の検出位置に、対象物2のプライバシー情報が除去された模型、例えば対象物2のシルエットを表すCG画像(人形)を描画して合成画像を生成する処理を行う。生成された合成画像のデータは、例えば、画像センサ装置10AのIDや画像取得日時のデータと関連付けた状態で記憶部13Aに記憶され、その後、画像切替部14aに送られる。   The composite image generation unit 12e uses the position (coordinate) data of the target object 2 read from the RAM in the control unit 14A or the storage unit 13A and the background image read from the background image DB 13c, and the target object on the background image is displayed. At a detection position of 2, a model from which the privacy information of the object 2 is removed, for example, a CG image (doll) representing the silhouette of the object 2 is drawn to generate a composite image. The data of the generated composite image is stored in the storage unit 13A in a state of being associated with the ID of the image sensor device 10A and the data of the image acquisition date and time, and then sent to the image switching unit 14a.

位置検出部12dが対象物2の画像上の2次元座標を算出する場合、合成画像生成部12eは、背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
また、位置検出部12dが、1つの対象物2の位置検出を複数の画像センサ装置10Aを用いて3次元的に行う場合、合成画像生成部12eは、対象物2の3次元座標から画像上の2次元座標を復元し、復元した2次元座標に基づいて背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
When the position detection unit 12d calculates the two-dimensional coordinates on the image of the target object 2, the combined image generation unit 12e performs a process of generating a combined image in which a model is two-dimensionally arranged on the background image.
In addition, when the position detection unit 12d performs the position detection of one object 2 three-dimensionally using the plurality of image sensor devices 10A, the combined image generation unit 12e displays the image from the three-dimensional coordinates of the object 2. The two-dimensional coordinates are restored, and a process of generating a composite image in which the model is two-dimensionally arranged on the background image is performed based on the restored two-dimensional coordinates.

画像切替部14aが、画像提供サーバ40に送信する画像として、画像取得部12cで取得した画像(実画像)と、合成画像生成部12eで生成された合成画像とを切り替える処理を行う。   The image switching unit 14a performs a process of switching between the image (actual image) acquired by the image acquisition unit 12c and the composite image generated by the composite image generation unit 12e as the image to be transmitted to the image providing server 40.

画像送信部15aが、合成画像または実画像を画像提供サーバ40に送信する。また、画像送信部15aは、画像センサ装置10Aを管理するためのアプリケーションソフトウェア(内部アプリ)19が搭載された管理端末装置(図示せず)に、合成画像生成部12eで生成された合成画像や実画像DB13aに記憶されている画像を送信することも可能となっている。   The image transmitting unit 15a transmits the composite image or the actual image to the image providing server 40. Further, the image transmission unit 15a causes the management terminal device (not shown) in which the application software (internal application) 19 for managing the image sensor device 10A is installed to generate a composite image generated by the composite image generation unit 12e. It is also possible to send the image stored in the actual image DB 13a.

[画像提供サーバ40]
画像提供サーバ40は、コンピュータを備えた電子機器であり、画像センサ装置10Aで生成された合成画像や撮像された実画像を利用者端末50に送信する処理などを実行する。
画像受信部42aが、画像センサ装置10Aから送信されてきた合成画像や実画像のデータを受信する処理を行い、受信した合成画像や実画像のデータが、合成画像データベース41a、実画像データベース41bに記憶される。
[Image providing server 40]
The image providing server 40 is an electronic device including a computer, and executes a process of transmitting a composite image generated by the image sensor device 10A or a captured real image to the user terminal 50.
The image receiving unit 42a performs a process of receiving the data of the composite image or the real image transmitted from the image sensor device 10A, and the received composite image or the data of the real image is stored in the composite image database 41a or the real image database 41b. Remembered.

画像送信部42bが、合成画像を要求してきた利用者端末50に、合成画像DB41aから読み出した合成画像を送信する処理を行う。また、実画像を要求してきた利用者端末50に、所定の条件下で実画像DB41bから読み出した実画像を送信する処理を行う。
なお、実画像には対象物2のプライバシー情報が含まれている場合があるため、実画像は、画像センサ装置10A又は画像提供サーバ40が、対象物2に関する異常事態や緊急事態などの特別な条件が成立したと判断した場合にのみ利用者端末50に送信可能となっている。
The image transmitting unit 42b performs a process of transmitting the composite image read from the composite image DB 41a to the user terminal 50 that has requested the composite image. In addition, a process of transmitting the real image read from the real image DB 41b under a predetermined condition is performed to the user terminal 50 that has requested the real image.
Since the real image may include the privacy information of the target object 2, the real image may be displayed by the image sensor device 10A or the image providing server 40 in a special case such as an abnormal situation or an emergency situation regarding the target object 2. It is possible to transmit to the user terminal 50 only when it is determined that the condition is satisfied.

図11は、実施の形態(2)に係るデータ提供システム1Aで実行される処理動作を説明するためのフローチャートである。本処理動作は、例えば、利用者端末50で外部アプリ51が起動された場合に開始される。   FIG. 11 is a flowchart for explaining a processing operation executed in the data providing system 1A according to the embodiment (2). This processing operation is started, for example, when the external application 51 is activated on the user terminal 50.

利用者端末50が、ステップS51において、外部アプリ51を起動する処理を行う。ステップS52において、合成画像の要求操作があったと判断した場合に、合成画像の要求信号を画像提供サーバ40に送信する処理を行う。合成画像の要求信号には、利用者端末50のID(識別子)、要求する合成画像に関する情報が含まれる。要求する合成画像に関する情報には、対象とする施設、場所、画像センサ装置10Aの情報、撮像日時・期間などの情報が含まれる。これら情報は、外部アプリ51で適宜入力できる他、予め設定できるようにしてもよい。   The user terminal 50 performs the process of starting the external application 51 in step S51. In step S52, when it is determined that the composite image request operation has been performed, a process of transmitting a composite image request signal to the image providing server 40 is performed. The request signal for the combined image includes the ID (identifier) of the user terminal 50 and information about the requested combined image. The information about the requested composite image includes information such as a target facility, a place, the information of the image sensor device 10A, and an imaging date/time. These pieces of information can be appropriately input by the external application 51, or may be set in advance.

次に、画像提供サーバ40が、ステップS53において、利用者端末50から合成画像の要求信号を受信する処理を行う。次のステップS54では、受信した合成画像の要求信号に基づいて、画像センサ装置10Aに合成画像の要求信号を送信する処理を行う。   Next, the image providing server 40 performs the process of receiving the request signal of the composite image from the user terminal 50 in step S53. In the next step S54, processing for transmitting the request signal for the composite image to the image sensor device 10A is performed based on the received request signal for the composite image.

次に、画像センサ装置10Aが、ステップS55において、画像提供サーバ40から合成画像の要求信号を受信する処理を行う。次のステップS56では、受信した合成画像の要求信号に基づいて、取得対象として指定された撮像画像(実画像)を含むデータを取得する処理を行う。取得したデータには、実画像データ、撮像日時データ、画像センサ装置10AのIDなどが含まれ、これらデータが実画像DB13aに互いに関連付けた形式で記憶される。   Next, the image sensor device 10A performs a process of receiving a composite image request signal from the image providing server 40 in step S55. In the next step S56, a process of acquiring data including the captured image (actual image) specified as the acquisition target is performed based on the received request signal for the combined image. The acquired data includes actual image data, image capturing date/time data, the ID of the image sensor device 10A, and the like, and these data are stored in a form associated with each other in the actual image DB 13a.

次にステップS57では、取得した実画像から対象物2を検出(認識)する処理を行う。本処理は、先に説明した、図6のステップS12と同様の処理である。次のステップS58では、実画像中で検出された対象物2の位置を検出する処理を行う。本処理は、先に説明した、図6のステップS13と同様の処理である。続くステップS59では、検出された対象物2の位置データを制御部14A内のRAM又は記憶部13Aに記憶する。対象物2の位置データは、画像センサ装置10AのIDや撮像日時データなどの実画像に関するデータと関連付けた形式で記憶される。   Next, in step S57, a process of detecting (recognizing) the target object 2 from the acquired real image is performed. This process is the same process as step S12 of FIG. 6 described above. In the next step S58, a process of detecting the position of the object 2 detected in the actual image is performed. This processing is the same processing as step S13 of FIG. 6 described above. In the following step S59, the detected position data of the object 2 is stored in the RAM in the control unit 14A or the storage unit 13A. The position data of the target object 2 is stored in a format associated with data relating to the actual image such as the ID of the image sensor device 10A and the image pickup date/time data.

次にステップS60では、背景画像DB13cから、実画像の撮像範囲に対応する背景画像を読み出す処理を行い、次のステップS61では、制御部14A内のRAM又は記憶部13Aから、対応する実画像で検出された対象物2の位置データを読み出す処理を行い、ステップS62に進む。   Next, in step S60, the background image corresponding to the imaging range of the real image is read from the background image DB 13c, and in the next step S61, the corresponding real image is read from the RAM in the control unit 14A or the storage unit 13A. A process of reading the detected position data of the object 2 is performed, and the process proceeds to step S62.

ステップS62では、ステップS61で読み出した対象物2の位置データと、ステップS60で読み出した背景画像とを用い、該背景画像に対象物2のプライバシー情報が除かれた対象物2の模型が描画された合成画像を生成する処理を行う。本処理は、先に説明した、図6のステップS14と同様の処理である。続くステップS63では、生成された合成画像を記憶部13Aに記憶する。生成された合成画像のデータは、画像センサ装置10AのIDや撮像日時データなどと関連付けた形式で記憶される。次にステップS64では、記憶部13Aから読み出した合成画像のデータを画像提供サーバ40に送信する処理を行う。   In step S62, the position data of the object 2 read in step S61 and the background image read in step S60 are used to draw a model of the object 2 in which the privacy information of the object 2 is removed from the background image. A process for generating a combined image is performed. This processing is the same processing as step S14 of FIG. 6 described above. In a succeeding step S63, the generated combined image is stored in the storage unit 13A. The data of the generated composite image is stored in a format associated with the ID of the image sensor device 10A, the image capturing date and time data, and the like. Next, in step S64, a process of transmitting the data of the composite image read from the storage unit 13A to the image providing server 40 is performed.

画像提供サーバ40では、ステップS65において、画像センサ装置10Aから送信されてきた合成画像のデータを受信する処理を行い、次のステップS66で、受信した合成画像のデータを合成画像DB41aに記憶する処理を行う。合成画像は、画像センサ装置10AのIDや撮像日時等のデータと関連付けた形式で記憶される。次のステップS67では、合成画像DB41aから合成画像のデータを読み出して利用者端末50に送信する処理を行う。   In the image providing server 40, in step S65, the process of receiving the data of the composite image transmitted from the image sensor device 10A is performed, and in the next step S66, the process of storing the received data of the composite image in the composite image DB 41a. I do. The composite image is stored in a format associated with data such as the ID of the image sensor device 10A and the date and time of image capturing. In the next step S67, a process of reading the data of the composite image from the composite image DB 41a and transmitting it to the user terminal 50 is performed.

利用者端末50では、ステップS68において、画像提供サーバ40から送信されてきた合成画像のデータを受信する処理を行い、次のステップS69において、受信した合成画像のデータを記憶部(図示せず)に記憶する処理を行い、続くステップS70において、合成画像を表示部に表示する処理を行う。その後、ステップS71において、外部アプリ51で合成画像を用いたデータ処理が実行され、その後、ステップS72において、外部アプリ51の終了操作を検出すると終了処理を行い、その後、処理を終える。   In the user terminal 50, in step S68, the process of receiving the data of the composite image transmitted from the image providing server 40 is performed, and in the next step S69, the received data of the composite image is stored in a storage unit (not shown). Is stored in step S70, and in step S70, the combined image is displayed on the display unit. Then, in step S71, data processing using the composite image is executed by the external application 51. After that, in step S72, when the ending operation of the external application 51 is detected, the ending processing is performed, and then the processing ends.

上記実施の形態(2)に係るデータ提供システム1Aによれば、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた電子機器として機能する画像センサ装置10Aにより対象物2のプライバシーが適切に保護された合成画像が生成され、画像提供サーバ40が、合成画像を利用者端末50に提供することが可能となり、対象物2のプライバシーが適切に保護された合成画像を第3者に提供することで、該合成画像を用いた新たなサービスを外部アプリ51を通じて提供することができる。   According to the data providing system 1A according to the above-described embodiment (2), the privacy of the target object 2 is protected by the image sensor device 10A that functions as an electronic device including a computer that executes the image recognition processing method according to the present embodiment. An appropriately protected composite image is generated, the image providing server 40 can provide the composite image to the user terminal 50, and the privacy protection of the object 2 is appropriately protected to a third party. By providing, a new service using the composite image can be provided through the external application 51.

上記実施の形態(2)に係る画像認識処理方法を実行する画像センサ装置10Aによれば、画像取得部12cから取得した画像から対象物2の位置が検出され、対象物2の位置データを用いて、背景画像上の対応する位置に模型3が描画された合成画像が生成される。したがって、実画像から位置が検出された対象物2は模型3として背景画像に描画されるので、対象物2のプライバシー情報を含まない合成画像を生成することができる。また、背景画像に対象物2の模型3を描画するので、撮像された画像毎にモザイク処理等を行う方法と比較して、前記合成画像を連続的に生成する際の画像センサ装置10Aにかかる処理負荷を削減することができる。また、実画像から対象物2の検出に失敗したとしても、利用者端末50に提供する画像に背景画像を用いるため、検出に失敗した対象物2が利用者端末50に提示されることなく、検出に失敗した対象物2のプライバシーも適切に保護することができ、対象物2のプライバシー情報が流出しないようにチェックするための複雑な処理が不要となり、簡素化された画像認識処理を実現できる。   According to the image sensor device 10A that executes the image recognition processing method according to the above embodiment (2), the position of the object 2 is detected from the image acquired from the image acquisition unit 12c, and the position data of the object 2 is used. As a result, a synthetic image in which the model 3 is drawn at the corresponding position on the background image is generated. Therefore, the target object 2 whose position is detected from the actual image is drawn as the model 3 on the background image, so that a composite image that does not include the privacy information of the target object 2 can be generated. Further, since the model 3 of the object 2 is drawn on the background image, the image sensor device 10A when continuously generating the composite image is compared with a method of performing mosaic processing or the like for each captured image. The processing load can be reduced. Further, even if the detection of the target object 2 from the actual image fails, the background image is used for the image provided to the user terminal 50, so that the target object 2 that has failed in detection is not presented to the user terminal 50. The privacy of the target object 2 that has failed to be detected can also be appropriately protected, and complicated processing for checking that the privacy information of the target object 2 is not leaked is not required, and a simplified image recognition process can be realized. ..

図12は、実施の形態(3)に係るデータ提供システムの構成を説明するための概念図である。但し、図1に示したデータ提供システム1と同様の構成要素については、同符号を付し、その説明を省略する。
実施の形態(1)に係るデータ提供システム1では、画像提供サーバ40から利用者端末50に、画像処理サーバ30で生成された合成画像(背景画像に模型が合成された画像)を提供するように構成されていた。一方、実施の形態(3)に係るデータ提供システム1Bでは、画像処理サーバ30Aで生成された背景画像を事前に利用者端末50Aへ送信しておき、その後、利用者端末50Aからのデータ要求に応じて、対象物2の位置データを利用者端末50Aに送信し、利用者端末50Aが、受信した対象物2の位置データと背景画像とを用い、該背景画像上に模型が描画された合成画像を生成する構成となっている。すなわち、利用者端末50Aが、本実施の形態に係る画像認識処理方法を実行するコンピュータとして機能する。
FIG. 12 is a conceptual diagram for explaining the configuration of the data providing system according to the embodiment (3). However, the same components as those of the data providing system 1 shown in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted.
In the data providing system 1 according to the embodiment (1), the image providing server 40 provides the user terminal 50 with the composite image generated by the image processing server 30 (the image in which the model is combined with the background image). Was configured. On the other hand, in the data providing system 1B according to the embodiment (3), the background image generated by the image processing server 30A is transmitted to the user terminal 50A in advance, and then the data request from the user terminal 50A is made. Accordingly, the position data of the target object 2 is transmitted to the user terminal 50A, and the user terminal 50A uses the received position data of the target object 2 and the background image, and a model is drawn on the background image. It is configured to generate an image. That is, the user terminal 50A functions as a computer that executes the image recognition processing method according to the present embodiment.

データ提供システム1Bは、画像センサ装置10、ルーター20、画像処理サーバ30A、及び利用者端末50Aを含んで構成され、プライバシーが適切に保護された画像を利用者端末50Aに提供可能なセンサシステムとなっている。画像処理サーバ30Aに画像処理装置300A(図13)が装備されている。
画像センサ装置10がルーター20に接続され、ルーター20がネットワーク60を介して画像処理サーバ30Aに接続されている。画像処理サーバ30Aは、ネットワーク60を介して利用者端末50Aと接続可能となっている。なお、ルーター20は必須の構成ではなく、画像センサ装置10をネットワーク60に接続するようにしてもよい。
The data providing system 1B includes an image sensor device 10, a router 20, an image processing server 30A, and a user terminal 50A, and is a sensor system capable of providing an image with appropriately protected privacy to the user terminal 50A. Is becoming The image processing server 30A is equipped with the image processing device 300A (FIG. 13).
The image sensor device 10 is connected to the router 20, and the router 20 is connected to the image processing server 30A via the network 60. The image processing server 30A can be connected to the user terminal 50A via the network 60. Note that the router 20 is not an indispensable component, and the image sensor device 10 may be connected to the network 60.

画像センサ装置10のハードウェア構成は、図2に示した構成と略同様である。画像処理サーバ30Aのハードウェア構成は、図3に示した画像処理サーバ30の構成と略同様であるが、画像処理部31A、制御部34Aが異なる機能を備えている。   The hardware configuration of the image sensor device 10 is substantially the same as the configuration shown in FIG. The hardware configuration of the image processing server 30A is substantially the same as the configuration of the image processing server 30 shown in FIG. 3, but the image processing unit 31A and the control unit 34A have different functions.

図13は、画像センサ装置10、画像処理サーバ30A、及び利用者端末50Aが実行する処理を説明するための機能ブロック図である。図4に示した機能ブロック図と同一機能を有する構成部分には、同一符号を付しその説明を省略する。
[画像センサ装置10]
画像取得部12aが、撮像部11で撮像された画像を取得する処理を行い、対象検出部12bが、取得した画像からプライバシー情報を含む対象物(人間)2を検出(認識)する処理を行う。取得した画像や対象物検出(画像認識)結果のデータが、例えば、画像センサ装置10のID(識別子)及び画像取得日時等のデータと関連付けた状態で画像処理サーバ30Aに送信される。
FIG. 13 is a functional block diagram for explaining processing executed by the image sensor device 10, the image processing server 30A, and the user terminal 50A. Components having the same functions as those in the functional block diagram shown in FIG. 4 are designated by the same reference numerals, and the description thereof will be omitted.
[Image sensor device 10]
The image acquisition unit 12a performs a process of acquiring an image captured by the imaging unit 11, and the target detection unit 12b performs a process of detecting (recognizing) a target object (human) 2 including privacy information from the acquired image. .. The acquired image and the data of the object detection (image recognition) result are transmitted to the image processing server 30A in a state of being associated with the data such as the ID (identifier) of the image sensor device 10 and the image acquisition date and time.

[画像処理サーバ30A]
画像処理サーバ30Aに画像処理装置300Aが装備されている。画像処理装置300Aは、画像受信部33a、画像送信部33b、位置検出部31a、背景画像生成部31b、位置送信部31d、背景画像送信部31e、及び3D地図登録部32bを含んで構成され、これら各部は、画像処理サーバ30Aの画像処理部31A、記憶部32、通信処理部33、及び制御部34Aの機能により実現されている。
[Image processing server 30A]
The image processing server 30A is equipped with the image processing device 300A. The image processing device 300A includes an image receiving unit 33a, an image transmitting unit 33b, a position detecting unit 31a, a background image generating unit 31b, a position transmitting unit 31d, a background image transmitting unit 31e, and a 3D map registration unit 32b. These units are realized by the functions of the image processing unit 31A, the storage unit 32, the communication processing unit 33, and the control unit 34A of the image processing server 30A.

画像受信部33aが、画像センサ装置10から送信されてきた画像を受信する処理を行い、受信した画像(実画像)が実画像DB32aに記憶される。位置検出部31aが、撮像された画像上における検出対象物(人間)2の位置を検出する処理を行う。対象物2の位置検出方法には、上記した2次元位置算出方法や3次元位置算出方法が適用される。画像処理サーバ30Aが、利用者端末50Aからの要求信号を受信した場合に、位置送信部31dが、位置検出部31aで算出された対象物2の位置データを利用者端末50Aに送信する処理を行う。なお、対象検出部12bの機能を画像処理サーバ30Aに設ける構成としてもよい。   The image receiving unit 33a performs a process of receiving the image transmitted from the image sensor device 10, and the received image (real image) is stored in the real image DB 32a. The position detection unit 31a performs a process of detecting the position of the detection target (human) 2 on the captured image. The above-described two-dimensional position calculation method or three-dimensional position calculation method is applied to the position detection method of the object 2. When the image processing server 30A receives the request signal from the user terminal 50A, the position transmitting unit 31d transmits the position data of the object 2 calculated by the position detecting unit 31a to the user terminal 50A. To do. Note that the function of the target detection unit 12b may be provided in the image processing server 30A.

背景画像生成部31bが、背景DB32cに登録されている3D地図データ、パラメータDB32fに登録されている外部パラメータ及び内部パラメータ等を用いて、3D地図データから画像センサ装置10の撮像範囲に対応する背景画像を生成する処理を行う。生成された背景画像は、例えば、画像センサ装置10のIDと関連付けて背景画像DB32gに登録される。画像処理サーバ30Aが利用者端末50Aからサービス(外部アプリ)利用開始信号を受信した場合に、背景画像送信部31eが、背景画像生成部31bで生成された背景画像を背景画像DB32gから読み出し、背景画像に関連付けられた画像センサ装置10のID等とともに利用者端末50Aに送信する処理を行う。   The background image generation unit 31b uses the 3D map data registered in the background DB 32c, the external parameters and internal parameters registered in the parameter DB 32f, and the like to generate a background corresponding to the imaging range of the image sensor device 10 from the 3D map data. Performs processing to generate an image. The generated background image is registered in the background image DB 32g in association with the ID of the image sensor device 10, for example. When the image processing server 30A receives the service (external application) use start signal from the user terminal 50A, the background image transmission unit 31e reads the background image generated by the background image generation unit 31b from the background image DB 32g, The process of transmitting to the user terminal 50A together with the ID of the image sensor device 10 associated with the image is performed.

[利用者端末50A]
利用者端末50Aは、コンピュータを備えた電子機器であり、汎用のパーソナルコンピュータ(PC)、スマートフォン、タブレット端末などの情報端末装置で構成されている。利用者端末50Aは、通信処理部52、記憶部53、制御部54、表示部55、及び操作部56を含んで構成されている。
[User terminal 50A]
The user terminal 50A is an electronic device equipped with a computer, and is configured by an information terminal device such as a general-purpose personal computer (PC), smartphone, or tablet terminal. The user terminal 50A includes a communication processing unit 52, a storage unit 53, a control unit 54, a display unit 55, and an operation unit 56.

通信処理部52は、背景画像受信部52a、位置受信部52b、及び実画像受信部52cとしての機能を備え、ネットワーク60を介して各種データの送受信等を行う通信インターフェースや通信制御回路を含んで構成されている。記憶部53は、通信処理部52で受信した各種データ等を記憶可能な半導体メモリなどで構成されている。表示部55は、液晶パネルなどの各種表示パネルを含んで構成されている。操作部56は、タッチパネル、ボタンスイッチ、又はキーボード等の入力装置で構成されている。制御部54は、これら各部を制御する機能の他、合成画像生成部54aとしての機能を有し、マイクロコンピュータ(CPU(プロセッサ)、RAM、ROM)を含んで構成されている。制御部54には、これら各部の処理を実行するためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体、例えば、着脱可能な半導体メモリなどに格納してもよい。   The communication processing unit 52 has the functions of the background image receiving unit 52a, the position receiving unit 52b, and the actual image receiving unit 52c, and includes a communication interface and a communication control circuit for transmitting and receiving various data via the network 60. It is configured. The storage unit 53 is configured by a semiconductor memory or the like that can store various data and the like received by the communication processing unit 52. The display unit 55 is configured to include various display panels such as a liquid crystal panel. The operation unit 56 is configured by an input device such as a touch panel, button switch, or keyboard. The control unit 54 has a function as a composite image generation unit 54a in addition to the function of controlling these units, and is configured to include a microcomputer (CPU (processor), RAM, ROM). The control unit 54 stores programs for executing the processes of these units. These programs may be stored in a computer-readable built-in recording medium or an external recording medium, for example, a removable semiconductor memory.

背景画像受信部52aが、画像処理サーバ30Aから送信されてきた背景画像を受信する処理を行う。サービス利用開始時等に受信した背景画像は記憶部53に記憶される。
位置受信部52bが、画像処理サーバ30Aから送信されてきた対象物2の位置データを受信する処理を行う。受信した対象物2の位置データは、例えば、画像センサ装置10のID(識別子)、画像取得日時等のデータと関連付けた状態で制御部54内のRAM又は記憶部53などに記憶される。制御部54内のRAM又は記憶部53が位置データ記憶部として機能する。
合成画像生成部54aが、制御部54内のRAM又は記憶部53から読み出した対象物2の位置データと、記憶部53から読み出した、対応する背景画像とを用い、背景画像上における対象物2の検出位置に、対象物2のプライバシー情報が除去された模型を描画して合成画像を生成する処理を行い、生成された合成画像が表示部55に表示可能となっている。
The background image receiving unit 52a performs a process of receiving the background image transmitted from the image processing server 30A. The background image received at the start of service use or the like is stored in the storage unit 53.
The position receiving unit 52b performs a process of receiving the position data of the target object 2 transmitted from the image processing server 30A. The received position data of the object 2 is stored in the RAM in the control unit 54, the storage unit 53, or the like in a state of being associated with data such as the ID (identifier) of the image sensor device 10 and the image acquisition date and time. The RAM in the control unit 54 or the storage unit 53 functions as a position data storage unit.
The composite image generation unit 54a uses the position data of the target object 2 read from the RAM or the storage unit 53 in the control unit 54 and the corresponding background image read from the storage unit 53, and the target object 2 on the background image. The model in which the privacy information of the target object 2 is removed is drawn at the detection position of 1, and a process of generating a combined image is performed, and the generated combined image can be displayed on the display unit 55.

また、実画像受信部52cが、所定条件が成立した場合に、画像処理サーバ30Aから送信されてきた実画像を受信する処理を行い、受信した実画像が表示部55に表示可能となっている。なお、実画像には対象物2のプライバシー情報が含まれている場合があるため、実画像は、画像処理サーバ30Aが対象物2に関する異常事態や緊急事態などの特別な条件が成立したと判断した場合にのみ利用者端末50Aに提供可能となっている。   Further, the actual image receiving unit 52c performs a process of receiving the actual image transmitted from the image processing server 30A when the predetermined condition is satisfied, and the received actual image can be displayed on the display unit 55. .. Since the real image may include the privacy information of the object 2, the image processing server 30A determines that the special condition such as an abnormal situation or an emergency situation regarding the object 2 is satisfied in the real image. Only when it is done, it can be provided to the user terminal 50A.

図14は、実施の形態(3)に係るデータ提供システム1Bで実行される処理動作を説明するためのフローチャートである。本処理動作は、例えば、利用者端末50Aで外部アプリ51が起動された場合に開始される。   FIG. 14 is a flowchart for explaining the processing operation executed in the data providing system 1B according to the embodiment (3). This processing operation is started, for example, when the external application 51 is activated on the user terminal 50A.

利用者端末50Aが、ステップS81において、外部アプリ51を起動する処理を行う。ステップS82において、合成画像の要求操作があったと判断した場合に、合成画像の要求信号を画像処理サーバ30Aに送信する処理を行う。合成画像の要求信号には、利用者端末50AのID(識別子)、要求する合成画像に関する情報が含まれる。要求する合成画像に関する情報には、対象とする施設、場所、画像センサ装置10の情報、撮像日時・期間などの情報が含まれる。これら情報は、外部アプリ51で適宜入力できる他、予め設定できるようにしてもよい。   50 A of user terminals perform the process which starts the external application 51 in step S81. When it is determined in step S82 that the operation for requesting the composite image has been performed, processing for transmitting a request signal for the composite image to the image processing server 30A is performed. The request signal for the composite image includes the ID (identifier) of the user terminal 50A and the information about the requested composite image. The information regarding the requested composite image includes information such as the target facility, place, information of the image sensor device 10 and date and time of image capturing. These pieces of information can be appropriately input by the external application 51, or may be set in advance.

次に、画像処理サーバ30Aが、ステップS83において、利用者端末50Aから合成画像の要求信号を受信する処理を行う。次のステップS84では、受信した合成画像の要求信号に基づいて、画像センサ装置10に合成画像の要求信号を送信する処理を行い、ステップS85に進む。ステップS85では、背景画像DB32gから画像センサ装置10の撮像範囲に対応する背景画像のデータを読み出し、利用者端末50Aに送信する。   Next, the image processing server 30A performs a process of receiving a request signal for a composite image from the user terminal 50A in step S83. In the next step S84, a process of transmitting the request signal for the composite image to the image sensor device 10 is performed based on the received request signal for the composite image, and the process proceeds to step S85. In step S85, the background image data corresponding to the imaging range of the image sensor device 10 is read from the background image DB 32g and transmitted to the user terminal 50A.

利用者端末50Aでは、ステップS86において、画像処理サーバ30Aから送信されてきた背景画像のデータを受信する処理を行い、次のステップS87では、受信した背景画像のデータを記憶部53に記憶する処理を行う。   In step S86, the user terminal 50A performs the process of receiving the background image data transmitted from the image processing server 30A, and in the next step S87, the process of storing the received background image data in the storage unit 53. I do.

一方、画像センサ装置10では、ステップS88において、画像処理サーバ30Aから合成画像の要求信号を受信する処理を行う。次のステップS89では、受信した合成画像の要求信号に基づいて、取得対象として指定された撮像画像(実画像)を含むデータを取得する処理を行う。取得したデータには、実画像データ、撮像日時データ、画像センサ装置10のIDなどが含まれ、これらデータが記憶部13に互いに関連付けた形式で記憶される。   On the other hand, in the image sensor device 10, in step S88, the process of receiving the request signal for the composite image from the image processing server 30A is performed. In the next step S89, a process of acquiring data including the captured image (actual image) designated as the acquisition target is performed based on the received request signal for the combined image. The acquired data includes actual image data, image capturing date/time data, the ID of the image sensor device 10, and the like, and these data are stored in the storage unit 13 in a mutually associated format.

続くステップS90では、取得した実画像から対象物2を検出(認識)する処理を行い、検出した対象物2の認識データを記憶部13に記憶する。本処理は、先に説明した、図6のステップS12と同様の処理である。次のステップS91では、記憶部13から実画像を含むデータと、対象物2の検出(認識)データとを読み出し、画像処理サーバ30Aに送信する処理を行う。   In subsequent step S90, a process of detecting (recognizing) the target object 2 from the acquired real image is performed, and the recognition data of the detected target object 2 is stored in the storage unit 13. This process is the same process as step S12 of FIG. 6 described above. In the next step S91, the data including the actual image and the detection (recognition) data of the object 2 are read from the storage unit 13 and are transmitted to the image processing server 30A.

画像処理サーバ30Aでは、ステップS92において、画像センサ装置10から送信されてきたデータを受信する処理を行い、次のステップS93で、受信した実画像を含むデータを実画像DB32aに、対象物2の検出データを記憶部32に記憶する処理を行う。続くステップS94では、実画像中で検出(認識)された対象物2の位置を検出する処理を行う。本処理は、先に説明した、図6のステップS13と同様の処理である。   In step S92, the image processing server 30A performs a process of receiving the data transmitted from the image sensor device 10, and in the next step S93, the data including the received real image is stored in the real image DB 32a and the object 2 is stored. A process of storing the detection data in the storage unit 32 is performed. In a succeeding step S94, a process of detecting the position of the object 2 detected (recognized) in the actual image is performed. This processing is the same processing as step S13 of FIG. 6 described above.

続くステップS95では、検出された対象物2の位置データを制御部34A内のRAM又は記憶部32に記憶する。対象物2の位置データは、画像センサ装置10のIDや撮像日時データなどの実画像に関するデータと関連付けた形式で記憶される。次のステップS96では、制御部34A内のRAM又は記憶部32から、実画像に対応する対象物2の位置データを読み出し、利用者端末50Aに送信する処理を行う。   In the following step S95, the detected position data of the object 2 is stored in the RAM or the storage unit 32 in the control unit 34A. The position data of the target object 2 is stored in a format associated with data related to the actual image such as the ID of the image sensor device 10 and the image pickup date/time data. In the next step S96, the position data of the object 2 corresponding to the actual image is read from the RAM in the control unit 34A or the storage unit 32 and is transmitted to the user terminal 50A.

利用者端末50Aでは、ステップS97において、画像処理サーバ30Aから送信されてきた対象物2の位置データを受信し、制御部54内のRAM又は記憶部53に記憶する処理を行い、ステップS98に進む。ステップS98では、記憶部53から、対応する背景画像のデータを読み出し、次のステップS99で、制御部54内のRAM又は記憶部53から対象物2の位置データを読み出す処理を行う。   In step S97, the user terminal 50A receives the position data of the target object 2 transmitted from the image processing server 30A, stores the position data in the RAM in the control unit 54 or the storage unit 53, and proceeds to step S98. .. In step S98, the data of the corresponding background image is read from the storage unit 53, and in the next step S99, the process of reading the position data of the object 2 from the RAM in the control unit 54 or the storage unit 53 is performed.

続くステップS100では、読み出した対象物2の位置データと、読み出した背景画像とを用い、該背景画像に対象物2のプライバシー情報が除かれた対象物2の模型が描画された合成画像を生成する処理を行う。本処理は、先に説明した、図6のステップS14と同様の処理である。続くステップS101では、生成された合成画像を記憶部53に記憶する。生成された合成画像のデータは、画像センサ装置10のIDや撮像日時データなどと関連付けた形式で記憶される。   In the subsequent step S100, the position data of the read target 2 and the read background image are used to generate a composite image in which the model of the target 2 from which the privacy information of the target 2 is removed is drawn. Perform processing to This processing is the same processing as step S14 of FIG. 6 described above. In the subsequent step S101, the generated combined image is stored in the storage unit 53. The data of the generated composite image is stored in a format associated with the ID of the image sensor device 10, the image capturing date/time data, and the like.

続くステップS102において、記憶部53から読み出した合成画像を表示部に表示する処理を行う。その後、ステップS103において、外部アプリ51で合成画像を用いたデータ処理が実行され、その後、ステップS104において、外部アプリ51の終了操作を検出すると終了処理を行い、その後、処理を終える。   In a succeeding step S102, processing for displaying the combined image read from the storage unit 53 on the display unit is performed. Thereafter, in step S103, data processing using the composite image is executed by the external application 51. Then, in step S104, when an end operation of the external application 51 is detected, the end processing is performed, and then the processing ends.

図15は、利用者端末50Aの表示部55に表示された合成画像の表示例を示している。
表示部55に、背景画像P2に模型(人形)3が合成された合成画像が表示されている。合成画像はCG表示ボタン56aを操作すると表示されるようになっている。CG表示ボタン56aを操作すると、利用者端末50Aは、画像処理サーバ30Aに対象物2の位置データを要求し、該要求に応じて受信した対象物2の位置データと、事前取得した背景画像とを用いて合成画像を生成して表示部55に表示する処理を行う。
FIG. 15 shows a display example of the composite image displayed on the display unit 55 of the user terminal 50A.
The display unit 55 displays a composite image in which the model (doll) 3 is composited with the background image P2. The composite image is displayed when the CG display button 56a is operated. When the CG display button 56a is operated, the user terminal 50A requests the image processing server 30A for the position data of the object 2, and the position data of the object 2 received in response to the request and the background image acquired in advance. Is used to generate a composite image and display it on the display unit 55.

実画像表示ボタン56bは、通常時は機能しないが、例えば、模型3が倒れた状態で一定時間経過した場合など、画像処理サーバ30Aが対象物2に関する異常事態や緊急事態の発生を検出した場合に、実画像表示ボタン56bを点滅等させて利用者に警告するとともに、実画像表示ボタン56bの操作が受け付け可能になっている。実画像表示ボタン56bが操作されると、実画像受信部52cで受信した実画像が表示されるようになっている。   The actual image display button 56b does not function normally, but when the image processing server 30A detects an abnormal situation or an emergency situation relating to the object 2, for example, when the model 3 has fallen down for a certain period of time. In addition, the user can be warned by blinking the real image display button 56b, and the operation of the real image display button 56b can be accepted. When the actual image display button 56b is operated, the actual image received by the actual image receiving section 52c is displayed.

実施の形態(3)に係るデータ提供システム1Bによれば、画像処理サーバ30Aから利用者端末50Aに背景画像と、対象物2の位置データとを別々に送信して、利用者端末50Aで合成画像を生成させるので、プライバシーが適切に保護された前記合成画像を第3者に提供し、該合成画像を用いた新たなサービス提供の可能性を広げることができる。また、背景画像を利用者端末50Aに事前に送信して記憶させておき、検出された対象物2の位置データ等の模型3の描画に必要な情報のみをリアルタイムで利用者端末50Aに送信し、利用者端末50Aで背景画像と模型3とを合成した画像を生成するので、撮像された画像(実画像)をリアルタイムで利用者端末に送信するような構成と比較して、利用者端末50Aに転送するデータ量(データ転送量)を大幅に削減することができるシステムを構築することができる。   According to the data providing system 1B according to the embodiment (3), the background image and the position data of the object 2 are separately transmitted from the image processing server 30A to the user terminal 50A, and the user terminal 50A synthesizes them. Since the image is generated, it is possible to provide the third party with the synthesized image in which the privacy is appropriately protected and expand the possibility of providing a new service using the synthesized image. Further, the background image is transmitted to the user terminal 50A in advance and stored therein, and only the information necessary for drawing the model 3 such as the detected position data of the object 2 is transmitted to the user terminal 50A in real time. Since the user terminal 50A generates an image in which the background image and the model 3 are combined, the user terminal 50A is compared with a configuration in which the captured image (real image) is transmitted to the user terminal in real time. It is possible to construct a system capable of significantly reducing the amount of data transferred (data transfer amount).

本発明は、上記した実施の形態に限定されるものではなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   It is needless to say that the present invention is not limited to the above-described embodiments, and various modifications can be made, which are also included in the scope of the present invention.

(付記1)
少なくとも1つの撮像部で撮像された画像を少なくとも1つのプロセッサで処理する画像認識処理方法であって、
前記少なくとも1つのプロセッサによって、
前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップを含んでいる、画像認識処理方法。
(Appendix 1)
An image recognition processing method for processing an image captured by at least one imaging unit by at least one processor,
By said at least one processor,
The position data of the object including privacy information detected from the image captured by the at least one imaging unit, and the background image read from the background image storage unit that stores the background image that does not include the object. And the step of generating a composite image in which the model of the object in which the privacy information of the object is removed is drawn on the background image.

(付記2)
少なくとも1つの撮像部で撮像された画像を少なくとも1つのプロセッサで処理する画像認識処理方法であって、
前記少なくとも1つのプロセッサによって、
前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、
前記検出された対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを含んでいる、画像認識処理方法。
(Appendix 2)
An image recognition processing method for processing an image captured by at least one imaging unit by at least one processor,
By said at least one processor,
Performing a process of detecting a position of an object including privacy information from an image captured by the at least one image capturing unit,
Using the detected position data of the target object and the background image read from the background image storage unit that stores the background image that does not include the target object, the background image contains privacy information of the target object. And a step of generating a composite image in which the model of the removed object is drawn.

(付記3)
少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのプロセッサに実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記少なくとも1つのプロセッサに、
前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、
前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
(Appendix 3)
A computer-readable recording medium recording an image recognition processing program for causing at least one processor to execute processing of an image captured by at least one imaging unit,
The at least one processor,
Reading position data of the object from a position data storage unit that stores position data of the object including privacy information detected from an image captured by the at least one image capturing unit;
Reading the background image from a background image storage unit that stores a background image that does not include the object;
Using the read position data of the target object and the read background image, generating a composite image in which the model of the target object in which the privacy information of the target object is removed is drawn in the background image. A computer-readable recording medium recording an image recognition processing program to be executed.

(付記4)
少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのプロセッサに実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記少なくとも1つのプロセッサに、
前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、
前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
(Appendix 4)
A computer-readable recording medium recording an image recognition processing program for causing at least one processor to execute processing of an image captured by at least one imaging unit,
The at least one processor,
Reading position data of the object from a position data storage unit that stores position data of the object including privacy information detected from an image captured by the at least one image capturing unit;
Reading the background image from a background image storage unit that stores a background image that does not include the object;
Using the read position data of the target object and the read background image, generating a composite image in which the model of the target object in which the privacy information of the target object is removed is drawn in the background image. A computer-readable recording medium recording an image recognition processing program to be executed.

(付記5)
少なくとも1つのコンピュータがネットワークを介して別のコンピュータにデータを提供するデータ提供システムであって、
前記少なくとも1つのコンピュータが、記憶部と、該記憶部に接続された少なくとも1つのプロセッサとを有し、
前記記憶部は、
少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データを記憶する位置データ記憶部と、
前記対象物が含まれていない背景画像を記憶する背景画像記憶部とを有し、
前記少なくとも1つのプロセッサは、
前記位置データ記憶部から読み出した前記対象物の位置データを前記別のコンピュータに送信し、
前記背景画像記憶部から読み出した前記背景画像を前記別のコンピュータに送信するように構成され、
前記別のコンピュータは、少なくとも1つのプロセッサを有し、
該少なくとも1つのプロセッサは、
前記少なくとも1つのコンピュータから受信した前記対象物の位置データと前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するように構成されている、データ提供システム。
(Appendix 5)
A data providing system in which at least one computer provides data to another computer via a network,
The at least one computer has a storage unit and at least one processor connected to the storage unit,
The storage unit is
A position data storage unit that stores position data of an object including privacy information detected from an image captured by at least one image capturing unit;
A background image storage unit that stores a background image that does not include the object,
The at least one processor is
Sending the position data of the object read from the position data storage unit to the another computer,
The background image read from the background image storage unit is configured to be transmitted to the another computer,
The other computer has at least one processor,
The at least one processor is
Using the position data of the target object and the background image received from the at least one computer, a composite image is created in which the model of the target object without the privacy information of the target object is drawn on the background image. A data providing system configured as follows.

1、1A、1B データ提供システム
10、10A 画像センサ装置
100 画像処理装置
12a、12c 画像取得部
12b 対象検出部
12d 位置検出部
12e 合成画像生成部
13b 背景画像登録部
14a 画像切替部
15a 画像送信部
20 ルーター
30、30A 画像処理サーバ
300、300A 画像処理装置
31a 位置検出部
31b 背景画像生成部
31c 合成画像生成部
32b 3D地図登録部
40 画像提供サーバ
42a 画像受信部
42b 画像送信部
50、50A 利用者端末
60 ネットワーク
1, 1A, 1B Data providing system 10, 10A Image sensor device 100 Image processing device 12a, 12c Image acquisition unit 12b Target detection unit 12d Position detection unit 12e Composite image generation unit 13b Background image registration unit 14a Image switching unit 15a Image transmission unit 20 router 30, 30A image processing server 300, 300A image processing device 31a position detection unit 31b background image generation unit 31c composite image generation unit 32b 3D map registration unit 40 image provision server 42a image reception unit 42b image transmission unit 50, 50A user Terminal 60 network

Claims (24)

少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、
前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、前記対象物が含まれていない3次元背景データから生成された背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップを含んでいることを特徴とする画像認識処理方法。
An image recognition processing method for processing an image captured by at least one image capturing unit by at least one computer,
A background image in which position data of an object including privacy information detected from an image captured by the at least one image capturing unit and a background image generated from three-dimensional background data not including the object are stored. Using the background image read from the storage unit, and generating a composite image in which a model of the object without the privacy information of the object is drawn in the background image. Image recognition processing method.
少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、
前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、
検出された前記対象物の位置データと、前記対象物が含まれていない3次元背景データから生成された背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを含んでいることを特徴とする画像認識処理方法。
An image recognition processing method for processing an image captured by at least one image capturing unit by at least one computer,
Performing a process of detecting a position of an object including privacy information from an image captured by the at least one image capturing unit,
Using the detected position data of the target object and the background image read from the background image storage unit that stores the background image generated from the three-dimensional background data that does not include the target object, the background image And a step of generating a composite image in which the model of the object without the privacy information of the object is drawn.
前記背景画像が、前記撮像された画像の撮像範囲に対応したものであることを特徴とする請求項1又は請求項2記載の画像認識処理方法。   The image recognition processing method according to claim 1, wherein the background image corresponds to an image capturing range of the captured image. 前記合成画像は、前記背景画像に前記対象物の模型が、前記撮像された画像における前記対象物の位置状態が再現されるように描画されたものであることを特徴とする請求項1〜3のいずれかの項に記載の画像認識処理方法。   The synthetic image is a model in which the object model is drawn on the background image so that the position state of the object in the captured image is reproduced. The image recognition processing method according to any one of 1. 前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データから復元された、前記撮像された画像上における2次元位置データであることを特徴とする請求項1〜のいずれかの項に記載の画像認識処理方法。 The position data of the object is two-dimensional position data on the imaged image restored from the three-dimensional position data of the object detected from the imaged image. The image recognition processing method according to any one of 1 to 4 . 前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データであり、
前記背景画像が、前記3次元背景データであり、
前記合成画像を生成するステップが、
前記対象物の3次元位置データを用い、前記3次元背景データ上の前記対象物の3次元位置に前記模型を描画し、該模型が描画された前記3次元背景データから前記模型を含む前記撮像された画像領域を切り出した画像を前記合成画像として生成するものであることを特徴とする請求項1又は請求項2記載の画像認識処理方法。
The position data of the object is three-dimensional position data of the object detected from the captured image,
The background image is a the three-dimensional background data,
The step of generating the composite image comprises
The three-dimensional position data of the object is used to draw the model at the three-dimensional position of the object on the three-dimensional background data, and the imaging including the model from the three-dimensional background data on which the model is drawn. The image recognition processing method according to claim 1 or 2, wherein an image obtained by cutting out the generated image area is generated as the composite image.
少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、
前記少なくとも1つのコンピュータに、
前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、
前記対象物が含まれていない3次元背景データから生成された背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴とする画像認識処理プログラム。
An image recognition processing program for causing at least one computer to execute processing of an image captured by at least one imaging unit,
The at least one computer,
Reading position data of the object from a position data storage unit that stores position data of the object including privacy information detected from an image captured by the at least one image capturing unit;
Reading the background image from a background image storage unit that stores a background image generated from three-dimensional background data that does not include the object;
Using the read position data of the target object and the read background image, generating a composite image in which the model of the target object in which the privacy information of the target object is removed is drawn in the background image. An image recognition processing program characterized by being executed.
少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、
前記少なくとも1つのコンピュータに、
前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、
該検出した対象物の位置データを位置データ記憶部に記憶するステップと、
前記位置データ記憶部から前記対象物の位置データを読み出すステップと、
前記対象物が含まれていない3次元背景データから生成された背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴とする画像認識処理プログラム。
An image recognition processing program for causing at least one computer to execute processing of an image captured by at least one imaging unit,
The at least one computer,
Performing a process of detecting a position of an object including privacy information from an image captured by the at least one image capturing unit,
Storing the detected position data of the object in a position data storage unit;
Reading the position data of the object from the position data storage unit;
Reading the background image from a background image storage unit that stores a background image generated from three-dimensional background data that does not include the object;
Using the read position data of the target object and the read background image, generating a composite image in which the model of the target object in which the privacy information of the target object is removed is drawn in the background image. An image recognition processing program characterized by being executed.
少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、
請求項3〜のいずれかの項に記載の画像認識処理方法を、前記少なくとも1つのコンピュータに実行させることを特徴とする画像認識処理プログラム。
An image recognition processing program for causing at least one computer to execute processing of an image captured by at least one imaging unit,
The image recognition processing method according to any one of claims 3-6, the image recognition processing program characterized by executing at least one computer.
請求項7〜9のいずれかの項に記載の画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium in which the image recognition processing program according to any one of claims 7 to 9 is recorded. 請求項7〜9のいずれかの項に記載の画像認識処理プログラムを読み込み実行することを特徴とするプロセッサ。 A processor which reads and executes the image recognition processing program according to any one of claims 7 to 9 . 請求項11記載のプロセッサが搭載されていることを特徴とする電子機器。 An electronic device comprising the processor according to claim 11 . ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、
前記少なくとも1つのコンピュータが、
請求項1〜のいずれかの項に記載の画像認識処理方法における前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを含んでいることを特徴とするデータ提供方法。
A method for providing data executed in a system including at least one computer capable of communicating via a network, comprising:
The at least one computer is
Data, characterized in that it includes the step of transmitting the synthesized image generated by the step of generating the composite image in the image recognition processing method according to any one of claims 1 to 6 to another computer How to provide.
前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに含んでいることを特徴とする請求項13記載のデータ提供方法。 14. The data providing method according to claim 13 , further comprising the step of transmitting the captured image to the another computer when a predetermined condition that requires the captured image is satisfied. ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、
前記少なくとも1つのコンピュータが、
請求項1〜のいずれかの項に記載の画像認識処理方法における前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを含んでいることを特徴とするデータ提供方法。
A method for providing data executed in a system including at least one computer capable of communicating via a network, comprising:
The at least one computer is
Data provided which is characterized in that it includes the step of displaying the synthesized image generated in the step of generating the composite image in the image recognition processing method according to any one of claims 1 to 6 on the display unit Method.
前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに含んでいることを特徴とする請求項15記載のデータ提供方法。 16. The data providing method according to claim 15 , further comprising a step of switching the composite image and the captured image to display the image on the display unit. 少なくとも1つのコンピュータがネットワークを介して別のコンピュータにデータを提供するデータ提供システムであって、
前記少なくとも1つのコンピュータが、
少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データを前記別のコンピュータに送信する位置データ送信部と、
前記対象物が含まれていない3次元背景データから生成された背景画像を前記別のコンピュータに送信する背景画像送信部とを備え、
前記別のコンピュータに、
前記対象物の位置データと前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成させることを特徴とするデータ提供システム。
A data providing system in which at least one computer provides data to another computer via a network,
The at least one computer is
A position data transmission unit for transmitting position data of an object including privacy information detected from an image picked up by at least one image pickup unit to the another computer;
A background image transmission unit that transmits a background image generated from three-dimensional background data that does not include the object to the another computer,
To the other computer,
A data providing system characterized by using the position data of the object and the background image to generate a composite image in which the model of the object without the privacy information of the object is drawn on the background image. ..
ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、
前記少なくとも1つのコンピュータに、
請求項7〜9のいずれかの項に記載の画像認識処理プログラムにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを実行させることを特徴とするデータ提供プログラム。
A data providing program to be executed by a system including at least one computer capable of communicating via a network,
The at least one computer,
10. Data provision, characterized in that the step of transmitting the composite image generated in the step of generating the composite image in the image recognition processing program according to any one of claims 7 to 9 to another computer is executed. program.
前記少なくとも1つのコンピュータに、
前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに実行させることを特徴とする請求項18記載のデータ提供プログラム。
The at least one computer,
The data providing program according to claim 18 , further comprising transmitting the captured image to the another computer when a predetermined condition that requires the captured image is satisfied.
ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、
前記少なくとも1つのコンピュータに、
請求項7〜9のいずれかの項に記載の画像認識処理プログラムにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを実行させることを特徴とするデータ提供プログラム。
A data providing program to be executed by a system including at least one computer capable of communicating via a network,
The at least one computer,
A data providing program, characterized by causing a step of displaying the composite image generated in the step of generating the composite image in the image recognition processing program according to any one of claims 7 to 9 on a display unit. ..
前記少なくとも1つのコンピュータに、
前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに実行させることを特徴とする請求項20記載のデータ提供プログラム。
The at least one computer,
21. The data providing program according to claim 20 , further comprising: executing the step of switching the composite image and the captured image to display on the display unit.
請求項18〜21のいずれかの項に記載のデータ提供プログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium in which the data providing program according to any one of claims 18 to 21 is recorded. 請求項18〜21のいずれかの項に記載のデータ提供プログラムを読み込み実行することを特徴とするプロセッサ。 A processor for reading and executing the data providing program according to any one of claims 18 to 21 . 請求項23記載のプロセッサが搭載されていることを特徴とする電子機器。 An electronic device comprising the processor according to claim 23 .
JP2016221355A 2016-11-14 2016-11-14 Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device Active JP6699518B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016221355A JP6699518B2 (en) 2016-11-14 2016-11-14 Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device
PCT/JP2017/033626 WO2018088035A1 (en) 2016-11-14 2017-09-19 Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor, and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016221355A JP6699518B2 (en) 2016-11-14 2016-11-14 Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device

Publications (3)

Publication Number Publication Date
JP2018082234A JP2018082234A (en) 2018-05-24
JP2018082234A5 JP2018082234A5 (en) 2019-04-18
JP6699518B2 true JP6699518B2 (en) 2020-05-27

Family

ID=62110536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016221355A Active JP6699518B2 (en) 2016-11-14 2016-11-14 Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device

Country Status (2)

Country Link
JP (1) JP6699518B2 (en)
WO (1) WO2018088035A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020141212A (en) * 2019-02-27 2020-09-03 沖電気工業株式会社 Image processing system, image processing device, image processing program, image processing method, and display device
JP2020170467A (en) * 2019-04-05 2020-10-15 株式会社Preferred Networks Information processing system, robot, remote control device, information processing method, and program
CN112040145B (en) * 2020-08-28 2023-04-07 维沃移动通信有限公司 Image processing method and device and electronic equipment
CN115221547A (en) * 2021-04-21 2022-10-21 Oppo广东移动通信有限公司 Image processing method and device, electronic equipment and computer storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4512763B2 (en) * 2005-02-02 2010-07-28 株式会社国際電気通信基礎技術研究所 Image shooting system
JP5159381B2 (en) * 2008-03-19 2013-03-06 セコム株式会社 Image distribution system
WO2015136796A1 (en) * 2014-03-10 2015-09-17 ソニー株式会社 Information processing apparatus, storage medium and control method
JP6650677B2 (en) * 2015-02-26 2020-02-19 キヤノン株式会社 Video processing apparatus, video processing method, and program

Also Published As

Publication number Publication date
WO2018088035A1 (en) 2018-05-17
JP2018082234A (en) 2018-05-24

Similar Documents

Publication Publication Date Title
JP6699518B2 (en) Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device
CN106993181B (en) More VR/AR equipment collaboration systems and Synergistic method
US11475390B2 (en) Logistics system, package delivery method, and program
US10674135B2 (en) Handheld portable optical scanner and method of using
CN110249291A (en) System and method for the augmented reality content delivery in pre-capture environment
JP2017509939A (en) Method and system for generating a map including sparse and dense mapping information
KR101506610B1 (en) Apparatus for providing augmented reality and method thereof
JP5619140B2 (en) Reception display device, information transmission device, optical wireless communication system, reception display integrated circuit, information transmission integrated circuit, reception display program, information transmission program, and optical wireless communication method
KR20160136233A (en) Method and system for determining spatial characteristics of a camera
TW201229962A (en) Augmenting image data based on related 3D point cloud data
KR101181967B1 (en) 3D street view system using identification information.
JP6383439B2 (en) Method and system for calibrating a sensor using a recognized object
US20220264004A1 (en) Generation of an image that is devoid of a person from images that include the person
US20230306636A1 (en) Object three-dimensional localizations in images or videos
JP2016194784A (en) Image management system, communication terminal, communication system, image management method, and program
JP2016194783A (en) Image management system, communication terminal, communication system, image management method, and program
JP2018139052A (en) Communication terminal, image communication system, display method and program
CN110796706A (en) Visual positioning method and system
JP5801690B2 (en) Image processing apparatus and image processing method
WO2019127320A1 (en) Information processing method and apparatus, cloud processing device, and computer program product
TW201822034A (en) Collection system, program for terminal, and collection method
JP2003244488A (en) Image information adding apparatus and system
JP2017184025A (en) Communication terminal, image communication system, image transmission method, image display method, and program
JP2021184115A (en) Information processing device, information processing method and program
JP2020088571A (en) Management system, information processing system, information processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200413

R150 Certificate of patent or registration of utility model

Ref document number: 6699518

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250