JP6699518B2 - Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device - Google Patents
Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device Download PDFInfo
- Publication number
- JP6699518B2 JP6699518B2 JP2016221355A JP2016221355A JP6699518B2 JP 6699518 B2 JP6699518 B2 JP 6699518B2 JP 2016221355 A JP2016221355 A JP 2016221355A JP 2016221355 A JP2016221355 A JP 2016221355A JP 6699518 B2 JP6699518 B2 JP 6699518B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- computer
- background
- recognition processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 183
- 238000003672 processing method Methods 0.000 title claims description 59
- 238000012545 processing Methods 0.000 claims description 196
- 239000002131 composite material Substances 0.000 claims description 180
- 230000008569 process Effects 0.000 claims description 120
- 238000003384 imaging method Methods 0.000 claims description 29
- 238000013500 data storage Methods 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 description 45
- 230000006870 function Effects 0.000 description 32
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 11
- 230000036544 posture Effects 0.000 description 7
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000005357 flat glass Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/10—Adaptations for transmission by electrical cable
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Description
本発明は画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器に関し、より詳細には、プライバシーに配慮した画像認識処理を行う画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供プログラム、記録媒体、プロセッサ、及び電子機器に関する。 The present invention relates to an image recognition processing method, an image recognition processing program, a data providing method, a data providing system, a data providing program, a recording medium, a processor, and an electronic device, and more specifically, an image for performing image recognition processing in consideration of privacy. The present invention relates to a recognition processing method, an image recognition processing program, a data providing method, a data providing program, a recording medium, a processor, and an electronic device.
近年、各種センサで検出されたデータを収集し、収集したデータを活用して新しい情報を抽出し、付加価値のあるサービスを新たに提供するセンサーデータ流通市場の開拓が検討されている。 In recent years, development of a sensor data distribution market is being considered in which data detected by various sensors is collected, new information is extracted by utilizing the collected data, and new value-added services are newly provided.
例えば、監視カメラを用いるカメラシステムでは、システム運用元(データ提供元)から画像データの提供を受ける第3者(データ利用先)が、提供された画像データを利用した新たなアプリケーションによるサービスを提供する検討も進められている。
監視カメラで撮像された画像には、人や車両などが映り込み、個人を特定可能なプライバシー情報が含まれている場合が多く、そのためこのような画像データの流通を促進させる場合、プライバシー情報の保護に配慮したデータ流通の仕組みを構築する必要がある。
For example, in a camera system using a surveillance camera, a third party (data use destination) who receives image data from a system operating source (data providing source) provides a service by a new application using the provided image data. Consideration is also being made.
Images captured by surveillance cameras often include people, vehicles, etc., and include privacy information that can identify an individual. Therefore, when promoting the distribution of such image data, the privacy information It is necessary to build a data distribution system that considers protection.
従来よりカメラで撮像された画像中における特定の対象物のプライバシーを保護する技術が種々提案されている。例えば、下記の特許文献1には、撮影された画像中におけるプライバシー保護の必要な保護領域(顔領域)を検出し、撮影された画像(実画像)上の前記保護領域にぼかし処理、モザイク処理又は塗りつぶし処理等の画像処理を施した保護画像を生成して出力するシステムが開示されている。 Conventionally, various techniques have been proposed for protecting the privacy of a specific object in an image captured by a camera. For example, in Patent Document 1 below, a protection area (face area) requiring privacy protection in a captured image is detected, and blurring processing and mosaic processing are performed on the protection area on the captured image (actual image). Alternatively, a system is disclosed that generates and outputs a protected image that has been subjected to image processing such as painting processing.
[発明が解決しようとする課題]
しかしながら、特許文献1記載の技術では、前記保護領域の検出に失敗した場合、例えば、鏡や窓ガラスなどに写された保護対象を検出できなかった場合、これらの検出に失敗した保護領域に対してぼかし処理等の画像処理は行われずに、撮影された画像がそのまま出力される。そのため、出力された画像は、本来保護するべき領域(検出に失敗した保護領域)が画像処理されていない状態となっており、このような保護領域が画像処理されていない画像データを第3者に提供した場合、保護対象のプライバシーを適切に保護することができないという課題があった。
また、このような課題を排除するために、撮影された画像全体にぼかし処理等を行う方法も考えられるが、画像全体にぼかし処理等を行った場合、背景に存在する物(構造物や展示・陳列物など)の情報も除去されるため、保護対象と背景に存在する物との関係が把握しにくくなり、第3者が画像データを活用する利点が少なくなるという課題があった。
[Problems to be Solved by the Invention]
However, in the technique described in Patent Document 1, when the detection of the protection area fails, for example, when the protection target imaged on the mirror or the window glass cannot be detected, the protection areas for which the detection fails are detected. The captured image is output as it is without performing image processing such as blurring processing. Therefore, the output image is in a state where the area to be originally protected (the protection area that has failed to be detected) is not image-processed, and the image data in which the protection area is not image-processed is processed by a third party. However, there is a problem in that the privacy of the protection target cannot be properly protected.
In order to eliminate such a problem, a method of performing blurring processing on the entire captured image may be considered. However, when blurring processing is performed on the entire image, objects existing in the background (structures or exhibitions -Display information) is also removed, which makes it difficult to understand the relationship between the object to be protected and the object existing in the background, and there is a problem that the advantage of utilizing image data by a third party decreases.
本発明は上記課題に鑑みなされたものであって、取得した画像からプライバシーを保護すべき対象物の検出に失敗した場合であっても、該検出に失敗した対象物が開示されることのない画像を生成することができる画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器を提供することを目的としている。 The present invention has been made in view of the above problems, and even if the detection of an object whose privacy should be protected from the acquired image fails, the object that fails in the detection is not disclosed. An object of the present invention is to provide an image recognition processing method, an image recognition processing program, a data providing method, a data providing system, a data providing program, a recording medium, a processor, and an electronic device that can generate an image.
上記目的を達成するために本発明に係る画像認識処理方法(1)は、少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップを含んでいることを特徴としている。 In order to achieve the above object, an image recognition processing method (1) according to the present invention is an image recognition processing method in which an image captured by at least one imaging unit is processed by at least one computer. Using the position data of the target object including privacy information detected from the image captured by the image capturing unit and the background image read from the background image storage unit in which the background image not including the target object is stored, The method is characterized by including a step of generating a composite image in which the model of the target object in which the privacy information of the target object is removed is drawn on the background image.
上記画像認識処理方法(1)によれば、前記撮像された画像から検出された前記対象物の位置データと、前記背景画像とを用い、該背景画像に前記対象物の模型が描画された合成画像を生成する。したがって、前記撮像された画像から位置が検出された前記対象物は前記模型として前記背景画像に描画されるので、前記検出された対象物のプライバシー情報を含まない合成画像を生成することができる。また、前記背景画像に前記対象物の模型を描画するので、撮像された画像毎にモザイク処理等を行う方法と比較して、前記合成画像を連続的に生成する際の前記コンピュータにかかる処理負荷を削減することができる。また、前記撮像された画像から前記対象物の検出に失敗したとしても、前記背景画像を用いるため、前記合成画像には、前記検出に失敗した対象物が含まれることがなく、検出に失敗した対象物のプライバシーも適切に保護することができ、前記対象物のプライバシー情報が流出しないようにチェックするための複雑な処理が不要となり、簡素化された画像認識処理を実現できる。
なお、前記対象物の模型とは、前記撮像された画像に存在する前記対象物を、前記プライバシー情報を含まない形態で模した表示物であり、コンピュータによって前記背景画像上に前記対象物の代替物として描画される表示物である。
According to the image recognition processing method (1), the position data of the target object detected from the captured image and the background image are used to synthesize a model of the target object on the background image. Generate an image. Therefore, since the target object whose position is detected from the captured image is drawn as the model on the background image, it is possible to generate a composite image that does not include privacy information of the detected target object. Further, since the model of the target object is drawn on the background image, the processing load on the computer when continuously generating the composite image is greater than the method of performing mosaic processing or the like for each captured image. Can be reduced. Further, even if the detection of the target object from the captured image fails, the background image is used, so the composite image does not include the target object that failed in the detection, and the detection fails. The privacy of the target object can also be appropriately protected, a complicated process for checking the privacy information of the target object is not required, and a simplified image recognition process can be realized.
Note that the model of the object is a display object imitating the object existing in the captured image in a form that does not include the privacy information, and the computer substitutes the object on the background image. It is a display object drawn as an object.
また、本発明に係る画像認識処理方法(2)は、少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、検出された前記対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを含んでいることを特徴としている。 An image recognition processing method (2) according to the present invention is an image recognition processing method in which an image captured by at least one image capturing unit is processed by at least one computer, and the image is captured by the at least one image capturing unit. From the background image storage unit that stores the position data of the detected target object and the background image that does not include the target object. Using the read background image, and generating a composite image in which the model of the target object in which the privacy information of the target object is removed is drawn in the background image.
上記画像認識処理方法(2)によれば、上記画像認識処理方法(1)と同様の効果を得ることができるとともに、前記対象物の位置を検出する処理を行うステップと、前記合成画像を生成するステップとを連続的に実行することができ、前記コンピュータの処理効率を高めることができる。 According to the image recognition processing method (2), the same effect as that of the image recognition processing method (1) can be obtained, and the step of detecting the position of the object, and the composite image generation. And the step of performing can be continuously performed, and the processing efficiency of the computer can be improved.
また本発明に係る画像認識処理方法(3)は、上記画像認識処理方法(1)又は(2)において、前記背景画像が、前記撮像された画像の撮像範囲に対応したものであることを特徴としている。 An image recognition processing method (3) according to the present invention is characterized in that, in the image recognition processing method (1) or (2), the background image corresponds to an imaging range of the imaged image. I am trying.
上記画像認識処理方法(3)によれば、前記撮像された画像の撮像範囲に対応した画像を前記合成画像として生成することができ、背景の再現性を高めることができる。 According to the image recognition processing method (3), an image corresponding to the image capturing range of the captured image can be generated as the composite image, and the reproducibility of the background can be improved.
また本発明に係る画像認識処理方法(4)は、上記画像認識処理方法(1)〜(3)のいずれかにおいて、前記合成画像は、前記背景画像に前記対象物の模型が、前記撮像された画像における前記対象物の位置状態が再現されるように描画されたものであることを特徴としている。 Further, an image recognition processing method (4) according to the present invention is the image recognition processing method (1) to (3), wherein the synthetic image is the background image and the model of the object is imaged. It is characterized in that it is drawn so that the position state of the object in the image is reproduced.
上記画像認識処理方法(4)によれば、前記画像における前記対象物の位置状態を再現するように前記模型が描画された前記合成画像を生成することができ、前記対象物の位置や姿勢などの状態の再現性を高めることができる。 According to the image recognition processing method (4), the composite image in which the model is drawn so as to reproduce the position state of the target object in the image can be generated, and the position and orientation of the target object, etc. The reproducibility of the state of can be improved.
また本発明に係る画像認識処理方法(5)は、上記画像認識処理方法(1)〜(4)のいずれかにおいて、前記背景画像が、3次元背景データから生成されたものであることを特徴としている。 An image recognition processing method (5) according to the present invention is characterized in that, in any of the image recognition processing methods (1) to (4), the background image is generated from three-dimensional background data. I am trying.
上記画像認識処理方法(5)によれば、前記背景画像が、3次元背景データから生成されたものであるので、前記撮像された画像の背景部分の再現性を高めることができ、前記撮像された画像と比較しても違和感の少ない前記合成画像を生成することができる。 According to the image recognition processing method (5), since the background image is generated from the three-dimensional background data, the reproducibility of the background portion of the captured image can be improved and the background image can be captured. It is possible to generate the composite image with less discomfort even when compared with other images.
また本発明に係る画像認識処理方法(6)は、上記画像認識処理方法(1)〜(4)のいずれかにおいて、前記背景画像が、前記撮像された複数の画像を平均処理して得られた平均画像から生成されたものであることを特徴としている。 An image recognition processing method (6) according to the present invention is the image recognition processing method according to any one of the image recognition processing methods (1) to (4), wherein the background image is obtained by averaging the plurality of captured images. It is characterized by being generated from the average image.
上記画像認識処理方法(6)によれば、前記背景画像が、前記平均画像から生成されたものであるので、前記撮像された画像の背景が忠実に再現された背景画像を用いて前記合成画像を生成することができる。 According to the image recognition processing method (6), since the background image is generated from the average image, the background image of the captured image is faithfully reproduced, and the background image is faithfully reproduced. Can be generated.
また本発明に係る画像認識処理方法(7)は、上記画像認識処理方法(1)〜(6)のいずれかにおいて、前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データから復元された、前記撮像された画像上における2次元位置データであることを特徴としている。 The image recognition processing method (7) according to the present invention is the image recognition processing method according to any one of (1) to (6), wherein the position data of the object is the object detected from the captured image. It is characterized in that it is two-dimensional position data on the imaged image restored from the three-dimensional position data of the object.
上記画像認識処理方法(7)によれば、1つの前記対象物の位置検出を複数の前記撮像部で撮像された画像を用いて3次元的に行う場合であっても、前記3次元位置データから復元された前記2次元位置データを用いることで、前記背景画像上、すなわち2次元画像上で前記対象物の模型が描画される位置精度が高い合成画像を生成することができる。 According to the image recognition processing method (7), even when the position detection of one target object is performed three-dimensionally using the images captured by the plurality of imaging units, the three-dimensional position data is obtained. By using the two-dimensional position data restored from the above, it is possible to generate a composite image with high positional accuracy in which the model of the object is drawn on the background image, that is, the two-dimensional image.
また本発明に係る画像認識処理方法(8)は、上記画像認識処理方法(1)又は(2)において、前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データであり、前記背景画像が、3次元背景データであり、前記合成画像を生成するステップが、前記対象物の3次元位置データを用い、前記3次元背景データ上の前記対象物の3次元位置に前記模型を描画し、該模型が描画された前記3次元背景データから前記模型を含む前記撮像された画像領域を切り出した画像を前記合成画像として生成するものであることを特徴としている。 The image recognition processing method (8) according to the present invention is the image recognition processing method (1) or (2), wherein the position data of the object is 3 of the object detected from the captured image. Dimensional position data, the background image is three-dimensional background data, and the step of generating the composite image uses the three-dimensional position data of the target object, and the three-dimensional position data of the target object on the three-dimensional background data. It is characterized in that the model is drawn at a three-dimensional position, and an image obtained by cutting out the imaged image region including the model from the three-dimensional background data on which the model is drawn is generated as the composite image. ..
上記画像認識処理方法(8)によれば、前記対象物の3次元位置データを用い、前記3次元背景データ上の前記対象物の3次元位置に前記模型を描画し、該模型が描画された前記3次元背景データから前記模型を含む前記撮像された画像領域を切り出した画像を前記合成画像として生成するので、前記模型の描画状態に違和感の少ない俯瞰画像を前記合成画像として生成することができる。 According to the image recognition processing method (8), using the three-dimensional position data of the object, the model is drawn at the three-dimensional position of the object on the three-dimensional background data, and the model is drawn. Since the image obtained by cutting out the captured image region including the model from the three-dimensional background data is generated as the composite image, it is possible to generate, as the composite image, a bird's-eye view image with less discomfort in the drawing state of the model. ..
また本発明に係る画像認識処理プログラム(1)は、少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、前記少なくとも1つのコンピュータに、前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴としている。 An image recognition processing program (1) according to the present invention is an image recognition processing program for causing at least one computer to execute processing of an image captured by at least one imaging unit, and the at least one computer Reading the position data of the target object from a position data storage unit that stores position data of the target object including privacy information detected from an image captured by the at least one image capturing unit; The background image is read from a background image storage unit that stores a background image that is not stored, position data of the read target object, and the read background image are used, and the privacy of the target object is added to the background image. Generating a synthetic image in which the model of the object from which information has been drawn is drawn.
上記画像認識処理プログラム(1)によれば、前記少なくとも1つのコンピュータに実行させることにより、上記画像認識処理方法(1)と同様の効果を得ることができる。 According to the image recognition processing program (1), the same effect as that of the image recognition processing method (1) can be obtained by causing the at least one computer to execute the program.
また本発明に係る画像認識処理プログラム(2)は、少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、前記少なくとも1つのコンピュータに、前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、該検出した対象物の位置データを位置データ記憶部に記憶するステップと、前記位置データ記憶部から前記対象物の位置データを読み出すステップと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴としている。 An image recognition processing program (2) according to the present invention is an image recognition processing program for causing at least one computer to execute processing of an image captured by at least one image capturing unit. A step of detecting a position of an object including privacy information from an image captured by the at least one image capturing section, a step of storing position data of the detected object in a position data storage section, A step of reading the position data of the target object from a position data storage part; a step of reading the background image from a background image storage part storing a background image that does not include the target object; and a position of the read target object Using the data and the read background image, a step of generating a composite image in which a model of the object without the privacy information of the object is drawn on the background image is executed. ..
上記画像認識処理プログラム(2)によれば、前記少なくとも1つのコンピュータに実行させることにより、上記画像認識処理方法(2)と同様の効果を得ることができる。 According to the image recognition processing program (2), the same effect as that of the image recognition processing method (2) can be obtained by causing the at least one computer to execute the program.
また本発明に係る画像認識処理プログラム(3)は、少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、上記画像認識処理方法(3)〜(8)いずれかの方法を、前記少なくとも1つのコンピュータに実行させることを特徴としている。 An image recognition processing program (3) according to the present invention is an image recognition processing program for causing at least one computer to execute processing of an image captured by at least one imaging unit, and the image recognition processing method ( The method according to any one of 3) to (8) is executed by the at least one computer.
上記画像認識処理プログラム(3)によれば、前記少なくとも1つのコンピュータに実行させることにより、上記画像認識処理方法(3)〜(8)のいずれかと同様の効果を得ることができる。 According to the image recognition processing program (3), the same effect as any one of the image recognition processing methods (3) to (8) can be obtained by causing the at least one computer to execute the program.
また本発明に係るコンピュータ読み取り可能な記録媒体(1)は、上記画像認識処理プログラム(1)〜(3)のいずれかを記録したコンピュータ可読媒体であることを特徴としている。 A computer-readable recording medium (1) according to the present invention is characterized in that it is a computer-readable medium recording any one of the image recognition processing programs (1) to (3).
上記コンピュータ読み取り可能な記録媒体(1)によれば、該記録媒体に記録された上記画像認識処理プログラムをコンピュータに読み取らせて実行させることにより、上記画像認識処理プログラム(1)〜(3)のいずれかと同様の効果を実現させることができる。前記記録媒体は、有形の記録媒体であればよく、内蔵式や外付け式の各種ICメモリ、ハードディスク、光ディスクなどが含まれる。 According to the computer-readable recording medium (1), by causing the computer to read and execute the image recognition processing program recorded on the recording medium, the image recognition processing programs (1) to (3) The same effect as any of the above can be realized. The recording medium may be a tangible recording medium, and includes various built-in or externally attached IC memories, hard disks, optical disks, and the like.
また本発明に係るプロセッサ(1)は、上記画像認識処理プログラム(1)〜(3)のいずれかを読み込み実行するものであることを特徴としている。 A processor (1) according to the present invention is characterized by reading and executing any of the image recognition processing programs (1) to (3).
上記プロセッサ(1)によれば、上記画像認識処理プログラム(1)〜(3)のいずれかを読み込み実行することにより、当該プロセッサにより、上記画像認識処理プログラム(1)〜(3)のいずれかと同様の効果を実現させることができる。 According to the processor (1), by reading and executing any one of the image recognition processing programs (1) to (3), the processor recognizes any one of the image recognition processing programs (1) to (3). The same effect can be realized.
また本発明に係る電子機器(1)は、上記プロセッサ(1)が搭載されていることを特徴としている。 An electronic device (1) according to the present invention is characterized in that the processor (1) is mounted.
上記電子機器(1)によれば、上記プロセッサ(1)が搭載されているので、上記画像認識処理プログラム(1)〜(3)のいずれかと同様の効果を実現させることができる。 According to the electronic device (1), since the processor (1) is mounted, it is possible to achieve the same effect as that of any one of the image recognition processing programs (1) to (3).
また本発明に係るデータ提供方法(1)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)〜(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを含んでいることを特徴としている。 A data providing method (1) according to the present invention is a data providing method executed in a system including at least one computer capable of communicating via a network, wherein the at least one computer is the image recognition processing method. The method is characterized by including the step of transmitting the composite image generated in the step of generating the composite image in any one of (1) to (8) to another computer.
上記データ提供方法(1)によれば、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)〜(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するので、前記少なくとも1つのコンピュータが、前記合成画像を前記別のコンピュータに提供することができ、プライバシーが適切に保護された前記合成画像を第3者に提供することで、該合成画像を用いた新たなサービス提供の可能性を広げることができる。 According to the data providing method (1), the at least one computer separates the composite image generated in the step of generating the composite image in any of the image recognition processing methods (1) to (8). To the third computer so that the at least one computer can provide the composite image to the other computer, and by providing the third party with the privacy-protected composite image, It is possible to expand the possibility of providing new services using composite images.
また本発明に係るデータ提供方法(2)は、上記データ提供方法(1)において、前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに含んでいることを特徴としている。 In the data providing method (2) according to the present invention, in the data providing method (1), the captured image is stored in the another computer when a predetermined condition that requires the captured image is satisfied. It is characterized by further including a step of transmitting.
上記データ提供方法(2)によれば、前記所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信することができ、前記所定の条件下で前記撮像された画像も活用することができる。 According to the data providing method (2), the captured image can be transmitted to the another computer when the predetermined condition is satisfied, and the image captured under the predetermined condition is also utilized. can do.
また本発明に係るデータ提供方法(3)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)〜(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを含んでいることを特徴としている。 A data providing method (3) according to the present invention is a data providing method executed in a system including at least one computer communicable via a network, wherein the at least one computer is the image recognition processing method. The method is characterized by including a step of displaying the composite image generated in the step of generating the composite image in any one of (1) to (8) on a display unit.
上記データ提供方法(3)によれば、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)〜(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するので、プライバシーが適切に保護された前記合成画像を前記表示部に表示させて第3者に提示することができ、該合成画像を用いた新たなサービス提供の可能性を広げることができる。 According to the data providing method (3), the at least one computer displays the composite image generated in the step of generating the composite image in any of the image recognition processing methods (1) to (8). Since it is displayed on the display unit, it is possible to display the composite image in which the privacy is appropriately protected on the display unit and present it to a third party, thereby expanding the possibility of providing a new service using the composite image. You can
また本発明に係るデータ提供方法(4)は、上記データ提供方法(3)において、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに含んでいることを特徴としている。 Further, the data providing method (4) according to the present invention is characterized in that, in the data providing method (3), the method further includes a step of switching the composite image and the captured image and displaying the same on the display unit. I am trying.
上記データ提供方法(4)によれば、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示させることができ、状況に応じて前記合成画像と前記撮像された画像と切り替えることができるサービスを提供することができ、該サービスの付加価値を高めることができる。 According to the data providing method (4), the composite image and the captured image can be switched and displayed on the display unit, and the composite image and the captured image can be switched depending on the situation. It is possible to provide a service that can provide the service, and increase the added value of the service.
また本発明に係るデータ提供システム(1)は、少なくとも1つのコンピュータがネットワークを介して別のコンピュータにデータを提供するデータ提供システムであって、前記少なくとも1つのコンピュータが、少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データを前記別のコンピュータに送信する位置データ送信部と、前記対象物が含まれていない背景画像を前記別のコンピュータに送信する背景画像送信部とを備え、前記別のコンピュータに、前記対象物の位置データと前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成させることを特徴としている。 A data providing system (1) according to the present invention is a data providing system in which at least one computer provides data to another computer via a network, and the at least one computer is at least one imaging unit. A position data transmission unit that transmits position data of an object including privacy information detected from a captured image to the another computer, and a background that transmits a background image that does not include the object to the other computer. An image transmission unit is provided, and the model of the target object is drawn on the other computer by using the position data of the target object and the background image, and the privacy information of the target object is removed from the background image. The feature is that a synthetic image is generated.
上記データ提供システム(1)によれば、前記少なくとも1つのコンピュータから前記別のコンピュータに前記背景画像と、前記対象物の位置データとを送信し、前記別のコンピュータで前記合成画像を生成させるので、プライバシーが適切に保護された前記合成画像を前記別のコンピュータを使用する第3者に提供し、該合成画像を用いた新たなサービス提供の可能性を広げることができる。また、前記別のコンピュータに前記背景画像を送信した後、前記対象物の位置データのみを適宜送信することが可能となるので、前記撮像された画像をリアルタイムで前記別のコンピュータに送信するような構成と比較して、前記別のコンピュータに送信するデータ容量(データ転送量)を大幅に削減することができる。 According to the data providing system (1), the background image and the position data of the object are transmitted from the at least one computer to the other computer, and the another computer generates the composite image. It is possible to provide the third party who uses the other computer with the synthesized image whose privacy is appropriately protected, and expand the possibility of providing a new service using the synthesized image. In addition, since it is possible to appropriately transmit only the position data of the object after transmitting the background image to the other computer, it is possible to transmit the captured image to the other computer in real time. Compared with the configuration, the data capacity (data transfer amount) transmitted to the other computer can be significantly reduced.
また本発明に係るデータ提供プログラム(1)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、前記少なくとも1つのコンピュータに、上記画像認識処理プログラム(1)〜(3)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを実行させることを特徴としている。 A data providing program (1) according to the present invention is a data providing program to be executed by a system including at least one computer capable of communicating via a network, the at least one computer including the image recognition process. It is characterized in that the step of transmitting the composite image generated in the step of generating the composite image in any of programs (1) to (3) to another computer is executed.
上記データ提供プログラム(1)によれば、前記少なくとも1つのコンピュータに、前記合成画像を前記別のコンピュータに提供させることができ、プライバシーが適切に保護された前記合成画像を第3者に提供することで、該合成画像を用いた新たなサービス提供の可能性を広げることができる。 According to the data providing program (1), it is possible to cause the at least one computer to provide the composite image to the other computer, and provide the third party with the composite image in which privacy is appropriately protected. As a result, the possibility of providing a new service using the composite image can be expanded.
また本発明に係るデータ提供プログラム(2)は、上記データ提供プログラム(1)において、前記少なくとも1つのコンピュータに、前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに実行させることを特徴としている。 A data providing program (2) according to the present invention is imaged in the data providing program (1), when a predetermined condition that requires the imaged image is satisfied in the at least one computer. It is characterized in that the step of transmitting the image to the another computer is further executed.
上記データ提供プログラム(2)によれば、前記所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信させることができ、前記別のコンピュータにおいて前記所定の条件下で前記撮像された画像も活用させることができる。 According to the data providing program (2), the captured image can be transmitted to the another computer when the predetermined condition is satisfied, and the image is captured by the other computer under the predetermined condition. You can also make use of the captured images.
また本発明に係るデータ提供プログラム(3)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、前記少なくとも1つのコンピュータに、上記画像認識処理プログラム(1)〜(3)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを実行させることを特徴としている。 A data providing program (3) according to the present invention is a data providing program to be executed by a system including at least one computer capable of communicating via a network, wherein the at least one computer is provided with the image recognition processing. It is characterized in that the step of displaying the composite image generated in the step of generating the composite image in any of the programs (1) to (3) on the display unit is executed.
上記データ提供プログラム(3)によれば、前記少なくとも1つのコンピュータに、前記合成画像を生成するステップで生成された前記合成画像を表示部に表示させることにより、プライバシーが適切に保護された前記合成画像を前記表示部に表示させて第3者に提示することができ、新たなサービス提供の可能性を広げることができる。 According to the data providing program (3), by causing the at least one computer to display the composite image generated in the step of generating the composite image on a display unit, the combination in which privacy is appropriately protected An image can be displayed on the display unit and presented to a third party, and the possibility of new service provision can be expanded.
また本発明に係るデータ提供プログラム(4)は、上記データ提供プログラム(3)において、前記少なくとも1つのコンピュータに、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに実行させることを特徴としている。 The data providing program (4) according to the present invention, in the data providing program (3), a step of switching the composite image and the captured image to the at least one computer and displaying the combined image on the display unit. It is characterized by further executing.
上記データ提供プログラム(4)によれば、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示させることができ、状況に応じて前記合成画像と前記撮像された画像と切り替えることができるサービスを提供することができ、該サービスの付加価値を高めることができる。 According to the data providing program (4), the composite image and the captured image can be switched and displayed on the display unit, and the composite image and the captured image can be switched depending on the situation. It is possible to provide a service that can provide the service, and increase the added value of the service.
また本発明に係るコンピュータ読み取り可能な記録媒体(2)は、上記データ提供プログラム(1)〜(4)のいずれかを記録したコンピュータ可読媒体であることを特徴としている。 A computer-readable recording medium (2) according to the present invention is characterized in that it is a computer-readable medium recording any of the data providing programs (1) to (4).
上記コンピュータ読み取り可能な記録媒体(2)によれば、該記録媒体に記録された上記データ提供プログラムをコンピュータに読み取らせて実行させることにより、上記データ提供プログラム(1)〜(4)のいずれかと同様の効果を実現させることができる。前記記録媒体は、有形の記録媒体であればよく、内蔵式や外付け式の各種ICメモリやハードディスク、光ディスクなどが含まれる。 According to the computer-readable recording medium (2), by causing the computer to read and execute the data providing program recorded on the recording medium, any one of the data providing programs (1) to (4) is obtained. The same effect can be realized. The recording medium may be a tangible recording medium, and includes various built-in type or external type IC memories, hard disks, optical disks, and the like.
また本発明に係るプロセッサ(2)は、上記データ提供プログラム(1)〜(4)のいずれかを読み込み実行することを特徴としている。 A processor (2) according to the present invention is characterized by reading and executing any of the data providing programs (1) to (4).
上記プロセッサ(2)によれば、上記画データ提供プログラム(1)〜(4)のいずれかを読み込み実行することにより、当該プロセッサにより、データ提供プログラム(1)〜(4)のいずれかと同様の効果を実現させることができる。 According to the processor (2), by reading and executing any one of the image data providing programs (1) to (4), the same processor as any one of the data providing programs (1) to (4) is executed by the processor. The effect can be realized.
また本発明に係る電子機器(2)は、上記プロセッサ(2)が搭載されていることを特徴としている。 An electronic device (2) according to the present invention is characterized in that the processor (2) is mounted.
上記電子機器(2)によれば、上記プロセッサ(2)が搭載されているので、上記画データ提供プログラム(1)〜(4)のいずれかと同様の効果を実現させることができる。 According to the electronic device (2), since the processor (2) is mounted, it is possible to achieve the same effect as that of any one of the image data providing programs (1) to (4).
以下、本発明に係る画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器の実施の形態を図面に基づいて説明する。図1は、実施の形態(1)に係るデータ提供システムの構成を説明するための概念図である。 Embodiments of an image recognition processing method, an image recognition processing program, a data providing method, a data providing system, a data providing program, a recording medium, a processor, and an electronic device according to the present invention will be described below with reference to the drawings. FIG. 1 is a conceptual diagram for explaining the configuration of the data providing system according to the embodiment (1).
データ提供システム1は、画像センサ装置10、ルーター20、画像処理サーバ30及び画像提供サーバ40を含んで構成され、プライバシー情報を含む対象物2のプライバシーが保護された画像を利用者端末50に提供可能なシステムとなっている。実施の形態(1)では、画像処理サーバ30が、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた画像処理装置300(図4)として機能する。
The data providing system 1 is configured to include an
本実施の形態では、プライバシーを保護する対象物2が人間である場合について説明するが、対象物2は人間に限定されるものではない。例えば、個人を特定し得る情報を示すもの、車や自転車など人間が操作や所持しているものも対象物として設定することができる。なお、本明細書においてプライバシー情報とは対象物2が人間である場合は、その人間を特定し得る情報であり、対象物2が車や自転車の場合は所有者を特定し得る情報である。
In the present embodiment, the case where the
画像センサ装置10は、画像を撮像するカメラ装置として機能するものである。画像センサ装置10で撮像される画像(実画像)は、動画像の他、静止画像でもよく、また、カラー画像の他、グレー画像等であってもよい。
The
ルーター20は、画像センサ装置10と画像処理サーバ30との間に設けられた通信接続機器である。ルーター20は、制御部、記憶部、ネットワーク用インターフェース、機器接続用インターフェース、電源部等(いずれも図示せず)を備え、IPアドレスに従ってデータを転送するネットワーク経路(送信先)を選択する機能を備えている。画像センサ装置10とルーター20との接続は、有線接続の他、無線接続であってもよい。なお、ルーター20は必須の構成ではなく、画像センサ装置10を直接ネットワーク60に接続する構成としてもよい。
The
画像処理サーバ30は、コンピュータを備えた電子機器であり、画像提供サーバ40側から要求があった場合や一定時間毎などの所定のタイミングで、対象物2のプライバシーが保護された合成画像を生成し、ネットワーク(通信網)60を介して画像提供サーバ40にアップロード(転送)する機能を備えている。ネットワーク60には、インターネット、VPNネットワーク、専用回線、これらを組み合わせた通信回線などが適用され、有線系及び無線系のネットワークが含まれる。画像処理サーバ30及び画像提供サーバ40の設置個数は特に限定されない。データ提供システム1に少なくとも1つ以上装備されていればよい。
The
画像センサ装置10の設置場所や設置個数は特に限定されない。画像センサ装置10は、例えば、店舗、商業施設、商店街、地下街、事業施設、屋外又は車両等の移動体など(以下、施設等と記す)に設置され、例えば、施設等の監視カメラとして機能する。また、画像処理サーバ30は、画像センサ装置10が設置された(画像センサ装置10を管理する)施設等毎に内部(施設内ネットワークの)サーバとして設けることができる。なお、別の実施の形態では、ルーター20内に画像処理サーバ30の機能を装備させたシステム構成とすることもできる。
The installation place and the number of the
画像提供サーバ40は、コンピュータを備えた電子機器であり、例えば、利用者端末50からの要求に基づいて、画像処理サーバ30からアップロードされた画像データをネットワーク60を介して利用者端末50に提供する機能を備えている。画像センサ装置10、画像処理サーバ30、画像提供サーバ40、及び利用者端末50には、ネットワーク60を介して相互に連携して画像データを処理して提供するための画像認識処理やデータ提供用のプログラムが組み込まれている。相互に連携可能なサービスプラットフォームが構築されることによりシステムの運用が効率良く行われるようになっている。
The
利用者端末50は、コンピュータを備えた電子機器であり、汎用のパーソナルコンピュータ(PC)、スマートフォン、タブレット端末などの情報端末装置で構成されている。利用者端末50は、画像センサ装置10を管理する施設等の運用者とは異なる第3者が使用するものである。画像提供サーバ40と利用者端末50には、相互に連携するアプリケーションソフトウェア(外部アプリ)51(図4参照)がダウンロード等により組み込まれている。外部アプリ51は、画像提供サーバ40から提供された画像データを第3者が利用可能なサービスを提供するためのソフトウェアである。
The
外部アプリ51を通じて第3者に提供可能なサービスには、画像提供サーバ40から提供される合成画像等のデータから得られる情報、例えば、対象物2の位置や姿勢などの位置状態、背景にある物(構造物や配置物)との位置関係などの情報を利用するサービスが挙げられる。より具体的には、異常や異変を検知する各種警備サービス、電力予測や交通予測などの各種予測サービス、販売促進・顧客開拓・商品配置・人材配置などの各種マーケティングサービスなどが含まれる。また、画像提供サーバ40は、外部アプリ51の種類などに応じて複数設けることができる。
Services that can be provided to a third party through the
図2は、画像センサ装置10のハードウェア構成を概略的に示すブロック図である。画像センサ装置10は、撮像部11、画像処理部12、記憶部13、制御部14、入出力インターフェース(I/F)15、操作部16、時計部17、及び電源部18を含んで構成されている。画像センサ装置10には、これら各部が一つの筐体内に装備された一体式のものだけでなく、撮像部11を含むカメラ部分と、制御部14等を含むコントローラ部分が別体で構成されたものも含まれる。
FIG. 2 is a block diagram schematically showing the hardware configuration of the
撮像部11は、レンズ系、CCDやCMOSなどの撮像素子、及び駆動回路を含んで構成されている。画像処理部12は、各種の画像処理回路や画像処理プロセッサを含んで構成され、各種の画像補正処理や画像認識処理などを行う。画像認識処理には、対象物2の特徴抽出処理、識別処理、統計計算処理、位置姿勢・属性などの推定判断処理などが含まれる。対象物2が人間である場合は、人間の識別、頭部等の身体的特徴点の抽出、姿勢、属性(男性又は女性、大人又は子供など)などを推定判断する処理機能が含まれていることが好ましい。
The
制御部14は、CPU(プロセッサ)、RAM、ROMなどを含むマイクロコンピュータを含んで構成され、画像センサ装置10の各部の動作制御を行うためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体に格納してもよい。記憶部13は、撮像された画像データなどを一時記憶可能な半導体メモリなどで構成されている。
The
入出力I/F15は、ルーター20などの外部機器と接続するための各種インターフェースで構成されている。操作部16は、画像センサ装置10の各種機能を作動させるための操作ボタンや操作パネル等を含んで構成されている。時計部17は、画像が撮像された時間を記録する時計回路を含んで構成されている。電源部18は、画像センサ装置10の各部に電源を供給する電源回路やバッテリを含んで構成されている。
The input/output I/
図3は、画像処理サーバ30と画像提供サーバ40のハードウェア構成を概略的に示すブロック図である。画像処理サーバ30は、画像処理部31、記憶部32、通信処理部33、制御部34、操作部35、表示部36、及び電源部37を含んで構成されているが、この構成に限定されるものではない。画像処理サーバ30は、表示部36を含んでいなくとも良い。
FIG. 3 is a block diagram schematically showing the hardware configurations of the
画像処理部31は、対象物2のプライバシーを保護した画像を合成する処理等を行う画像処理回路や画像処理プロセッサを含んで構成されている。記憶部32は、ハードディスクドライブなどの大容量の記憶装置を含んで構成されている。記憶部32には、対象物2を含んでいない背景画像を生成するために用いる3D地図データ(背景データ)、画像センサ装置10のパラメータ情報、画像センサ装置10で撮像された画像領域に対応させて生成された背景画像などの各種データがデータベース化されて記憶されるようになっている。
The
通信処理部33は、ネットワーク60を介して画像センサ装置10や外部の画像提供サーバ40側と通信接続するための通信インターフェースや通信制御部を含んで構成されている。制御部34は、CPU(プロセッサ)、RAM、ROMなどを含むマイクロコンピュータを含んで構成され、画像処理サーバ30の各部の動作制御を行うためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体に格納してもよい。
The communication processing unit 33 is configured to include a communication interface and a communication control unit for making a communication connection with the
操作部35は、画像処理サーバ30の各種機能の作動、データ入出力・更新指示等を行うためのキーボード等の入力機器を含んで構成されている。表示部36は、画像処理サーバ30で処理されたデータ等を表示可能な表示装置を含んで構成されている。電源部37は、画像処理サーバ30の各部に電源供給を行う電源回路やバックアップ電源などを含んで構成されている。
The
画像提供サーバ40は、記憶部41、通信処理部42、制御部43、操作部44、表示部45、及び電源部46を含んで構成されているが、この構成に限定されるものではない。
記憶部41は、ハードディスクドライブなどの大容量の記憶装置を含んで構成され、画像処理サーバ30から送信されてきた合成画像や実画像のデータなどがデータベース化されて記憶されるようになっている。
The
The
通信処理部42は、ネットワーク60を介して利用者端末50側や画像処理サーバ30側と通信するための通信インターフェースや通信制御部を含んで構成されている。制御部43は、CPU(プロセッサ)、RAM、ROMなどを含むマイクロコンピュータを含んで構成され、画像提供サーバ40の各部の動作制御を行うためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体に格納してもよい。
The
操作部44は、画像提供サーバ40の各種機能の作動、データ入出力・更新指示等を行うためのキーボード等の入力機器を含んで構成されている。表示部45は、画像提供サーバ40で処理されたデータ等を表示可能な表示装置を含んで構成されている。電源部46は、画像提供サーバ40の各部に電源供給を行う電源回路やバックアップ電源などを含んで構成されている。
The
図4は、画像センサ装置10、画像処理サーバ30及び画像提供サーバ40が実行する処理を説明するための機能ブロック図である。
[画像センサ装置10]
画像取得部12aが、撮像部11で撮像された画像を取得する処理を行い、対象検出部12bが、取得した画像(実画像)からプライバシー情報を含む対象物(人間)2を検出(認識)する処理を行う。取得した画像と対象物検出(画像認識)結果のデータが、例えば、画像センサ装置10のID(識別子)及び画像取得日時等のデータと関連付けた状態で画像処理サーバ30に送信される。
FIG. 4 is a functional block diagram for explaining processing executed by the
[Image sensor device 10]
The
[画像処理サーバ30]
画像処理サーバ30に画像処理装置300が装備されている。画像処理装置300は、画像受信部33a、画像送信部33b、位置検出部31a、背景画像生成部31b、合成画像生成部31c、及び3D地図登録部32bを含んで構成され、これら各部は、画像処理サーバ30の画像処理部31、記憶部32、通信処理部33、及び制御部34の機能により実現される。
[Image processing server 30]
The
画像受信部33aが、画像センサ装置10から送信されてきた画像データを受信して取得し(画像取得部として機能し)、実画像データベース32aに記憶する処理を行う一方、位置検出部31aが、対象物検出のデータに基づいて、撮像された画像上における対象物(人間)2の位置(座標又は領域)を算出する処理を行う。位置検出部31aで検出された対象物2の位置データは、例えば、画像センサ装置10のID(識別子)、画像取得日時等のデータと関連付けた状態で制御部34内のRAM又は記憶部32に記憶される。制御部34内のRAM又は記憶部32が、対象物2の位置データを記憶する位置データ記憶部として機能する。なお、対象検出部12bの機能を画像処理サーバ30に設ける構成としてもよい。
The
位置検出部31aで実行される対象物2の位置算出方法には、2次元位置算出方法や3次元位置算出方法などが適用される。
2次元位置算出方法としては、
(1)撮像された画像上から対象物2である人間の頭部の特徴点(x、y座標)を抽出し、頭部位置(座標又は領域)を算出する方法、
(2)撮像された画像上から対象物2である人間の頭部、胴体部、腕部、脚部等の身体的特徴点(x、y座標)を抽出し、人位置(座標又は領域)を算出する方法、
(3)事前取得した画像(比較用背景画像)と撮像された画像とを比較して、対象物2である人間が存在する前景領域(x、y座標又は領域)を抽出する背景差分処理を行い、人位置を算出する方法などが適用され得る。
A two-dimensional position calculation method, a three-dimensional position calculation method, or the like is applied to the position calculation method of the
As a two-dimensional position calculation method,
(1) A method of extracting feature points (x, y coordinates) of the human head, which is the
(2) The physical position (x, y coordinates) of the human head, torso, arms, legs, etc., which is the
(3) Background difference processing for comparing a pre-acquired image (comparative background image) with the captured image to extract a foreground region (x, y coordinates or region) in which the human being the
3次元位置算出方法としては、
(1)単眼の画像センサ装置10で取得した画像上で検出された対象物2の位置(座標又は領域)データ、画像センサ装置10の位置・姿勢(内部・外部パラメータ)情報、3次元地図データ、及び検出対象物(人間)の属性(男性又は女性、大人又は子供など)や姿勢状態(立った状態、座った状態、屈んだ状態、又は倒れている状態)等の画像認識データを利用して3次元位置座標を算出する方法、
(2)単眼の画像センサ装置10で取得した画像上で検出された対象物2の位置(座標又は領域)データと、画像以外のセンサ情報、例えば、対象物(人間)2が所持しているスマートフォンなどの携帯端末が発する電波強度(Bluetooth Low Energy(BLE)、Wi-Fi)データ(屋内外での位置測位データ)とを利用して3次元位置座標を算出する方法(この場合、画像センサ装置10にBLE受信機(ビーコン)やWi-Fi電波の受信機が接続されている。)、
(3)複数の画像センサ装置10で同じ領域を撮像している場合、複数の画像センサ装置10からの視線(エピポーラ線)が空間中の1点に交わるエピポーラ条件(カメラ姿勢に基づく基礎行列を用いて対応点の拘束ラインを決定する、2枚の画像間に存在する幾何学的関係を示す条件)、及び3次元地図データを用いて、エピポーラ線の交点を対象物2の3次元位置として算出する方法(特に対象物が複数存在する場合には、エピポーラ条件などの3次元幾何学上の制約と、時系列的な制約とを組み合わせることで、より正確な位置推定を行うことが可能となっている。)、
(4)画像センサ装置10、3次元地図データ、及び各種センサ(磁気センサ、電子コンパス、加速度センサ、ジャイロセンサ、位置測位センサなど)を組み合わせて、これらセンサ情報に基づいて対象物2の3次元位置座標を算出する方法などが適用される。
As a three-dimensional position calculation method,
(1) Position (coordinates or area) data of the
(2) Position (coordinates or area) data of the
(3) When the same region is imaged by a plurality of
(4) The
また、3D地図登録部32bが、画像センサ装置10が設置されている施設等の3D(3次元)地図データを背景データベース(DB)32cに登録する処理を行う。3D地図データは、画像センサ装置10の撮像範囲に対応する領域の背景画像を生成するために用いられる。
Further, the 3D
外部パラメータ登録部32dが、画像センサ装置10の外部パラメータをパラメータデータベース(DB)32fに登録し、内部パラメータ登録部32eが、画像センサ装置10の内部パラメータをパラメータDB32fに登録する処理を行う。内部パラメータは、画像センサ装置10の焦点距離、画像中心、画像(画素)サイズ、歪収差係数を含む。外部パラメータは、画像センサ装置10の位置や姿勢を示す回転、平行移動量を含み、ある座標系における3次元座標を別の座標系での座標に変換するために必要となるパラメータである。
The external
背景画像生成部31bが、背景DB32cに登録されている3D地図データ、パラメータDB32fに登録されている画像センサ装置10のパラメータ等を用いて、3D地図データから画像センサ装置10の撮像範囲に対応する背景画像を生成する処理を行う。生成された背景画像は、例えば、画像センサ装置10のIDと関連付けて背景画像データベース(DB)32gに登録される。
The background
合成画像生成部31cが、制御部34内のRAM又は記憶部32から読み出した対象物の位置(座標)データと、背景画像DB32gから読み出した、対応する背景画像とを用い、該背景画像上における対象物2の検出位置に、対象物2のプライバシー情報が除去された(含まれていない)模型、例えば対象物2のシルエットを表したCG画像(人形)を描画して合成画像を生成する処理を行う。なお、対象物2の模型とは、撮像された画像に含まれる対象物2を、プライバシー情報を含まない形態で模した表示物であり、コンピュータによって背景画像上に対象物2の代替物として描画される表示物である。
画像送信部33bが、画像センサ装置10のIDや画像取得日時等のデータと関連付けられた合成画像データを画像提供サーバ40に送信する処理を行う。
The composite
The
なお、位置検出部31aが対象物2の画像上の2次元座標を算出する場合、合成画像生成部31cは、背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
また、位置検出部31aが対象物2の3D地図上の3次元座標を算出する場合、合成画像生成部31cは、3次元座標から画像上の2次元座標を復元し、復元した2次元座標に基づいて背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
When the
Further, when the
また、画像送信部33bは、所定の条件成立時に実画像DB32aに記憶されている実画像を画像提供サーバ40に送信する処理も行う。また、画像送信部33bは、画像提供サーバ40を管理するためのアプリケーションソフトウェア(内部アプリ)38が組み込まれた管理端末装置(図示せず)に、実画像DB32aに記憶されている実画像や合成画像生成部31cで生成された合成画像を送信する処理も行うようになっている。
The
[画像提供サーバ40]
画像提供サーバ40は、コンピュータを備えた電子機器であり、画像処理サーバ30で生成された合成画像や撮像された実画像を利用者端末50に送信する処理などを実行する。
画像受信部42aが、画像処理サーバ30から送信されてきた合成画像や実画像のデータを受信し、画像センサ装置10のIDや撮像日時等のデータと関連付けて合成画像データベース41a、実画像データベース41bにそれぞれ記憶する処理を行う。
[Image providing server 40]
The
The
画像送信部42bが、合成画像を要求してきた利用者端末50に、合成画像DB41aから読み出した合成画像(前記要求に対応した場所の合成画像)を送信する処理を行う。また、実画像を要求してきた利用者端末50に、所定の条件下で実画像DB41bから読み出した実画像(前記要求に対応した場所の実画像)を送信する処理を行う。なお、実画像には対象物2のプライバシー情報が含まれている場合があるため、実画像は、画像処理サーバ30又は画像提供サーバ40が、対象物2に関する異常事態や緊急事態などの特別な条件が成立したと判断した場合にのみ利用者端末50に送信可能となっている。
The
図5は、画像処理サーバ30が行う各種データの登録処理を説明するためのフローチャートである。本処理は、撮像された画像に対応する領域の背景画像を生成するために必要な処理であり、例えば、画像センサ装置10を設置する際に実行される。
FIG. 5 is a flowchart for explaining a registration process of various data performed by the
ステップS1では、背景画像を生成する元となる背景データとしての3D地図データを背景DB32cに登録する処理を行う。3D地図データには、設置される画像センサ装置10の個数及び撮像範囲等に基づいて適切な背景領域が含まれる3次元背景データが採用される。3D地図データは、実写ベースの3D地図の他、CGベースの3D地図でもよい。3D地図データには、プライバシー情報を含む対象物2のデータ(少なくともプライバシーに関わる部分のデータ)が含まれていないデータが採用される。外部のデータベースサーバや記録媒体(いずれも図示せず)などから3D地図データを取得して登録する処理を行ってもよい。
In step S1, a process of registering the 3D map data as the background data from which the background image is generated in the
ステップS2では、画像センサ装置10の内部パラメータを登録する処理を行う。内部パラメータには、画像センサ装置10の焦点距離、画像中心、歪収差係数画像、画素サイズが含まれる。内部パラメータの取得方法は、画像センサ装置10の出荷時のキャリブレーション情報を取得する方法、内部パラメータの取得用ツール(ソフトウェア)を使用して取得する方法、画像処理サーバ30に搭載されたキャリブレーションツール(ソフトウェア)を使用し、撮像した画像を用いて内部パラメータを取得する方法などが採用され得る。内部パラメータのキャリブレーション(校正)は、チェスボード等のキャリブレーション用マーカを写した画像を複数枚取得し、これら画像上のチェスボードの対応点を計算することにより行うこともできる。
In step S2, a process of registering internal parameters of the
ステップS3では、画像センサ装置10の外部パラメータを登録する処理を行う。外部パラメータは、画像センサ装置10の位置姿勢に関する情報を含んでいる。外部パラメータの取得方法は、画像センサ装置10の設置後にキャリブレーションツールを使用して取得する方法がある。一般的なキャリブレーション方法は、3D地図上における3次元位置が既知の点aと、点aが画像上に投影された点a’との組み合わせを複数点対応付ける処理を行い、外部パラメータである回転パラメータR、平行移動量パラメータTを計算する。
In step S3, a process of registering external parameters of the
下記の数式1は、画像センサ装置10における実際の空間(実空間)と表示画像との関係式を表している。X、Y、Zは実空間における3次元座標、Rが回転パラメータ、Tが平行移動量パラメータ、Aが内部パラメータ、x、yが画像上における投影点を示している。
ステップS4では、内部パラメータと外部パラメータとを登録した後、これらパラメータの調整処理を行う。パラメータの調整は、例えば、3D地図データを用いて生成された背景画像と、画像センサ装置10で撮像された画像(実画像)とを表示部36に表示させて行うことができる。3D地図データの精度や外部パラメータのキャリブレーション精度によっては、背景画像と実画像とに位置ずれが生じている場合がある。このような場合、実画像と3D地図上の対応点を並べたほぼ同一視点上の画像上で対応付けを行う処理を実行するツールによりパラメータの微調整を行うようにしてもよい。
In step S4, after the internal parameter and the external parameter are registered, adjustment processing of these parameters is performed. The parameters can be adjusted, for example, by displaying a background image generated using the 3D map data and an image (actual image) captured by the
ステップS5では、事前登録された3D地図データ、内部パラメータ、外部パラメータを用いて、画像センサ装置10で撮像される画像に対応する撮像範囲の背景画像を生成する処理を行い、その後処理を終える。生成される背景画像は、背景に存在する構造物などを含む画像であり、プライバシー情報を含む対象物2は含まれていない。また、画像の撮像時間帯等に応じて光源を変更したり、木々を揺らす等の処理を背景画像に反映させて、実画像で得られる情景に合わせた数種類の画像を背景画像として生成するようにしてもよい。生成された背景画像は、例えば、画像センサ装置10のID、画像取得日時等のデータと関連付けて背景画像DB32gに登録される。
In step S5, the 3D map data, the internal parameters, and the external parameters that have been registered in advance are used to perform a process of generating a background image in the image capturing range corresponding to the image captured by the
図6は、画像処理サーバ30が行う合成画像生成処理を説明するためのフローチャートである。本処理動作は、例えば、画像提供サーバ40側から合成画像の送信要求があった場合に実行される。または、該送信要求後の一定時間毎に実行するようにしてもよい。
FIG. 6 is a flowchart for explaining the composite image generation process performed by the
まずステップS11では、画像センサ装置10から画像を取得する処理を行う。画像センサ装置10から取得する画像は、リアルタイムで撮像された画像の他、画像センサ装置10の記憶部13に保存された撮像済みの画像(保存画像)であってもよい。
First, in step S11, a process of acquiring an image from the
ステップS12では、ステップS11で取得した画像からプライバシーを保護(開示を制限)するべき対象物2を検出する処理を行う。本実施の形態では、対象物2が人間に設定されている場合について説明しているが、対象物2は人間に限定されるものではなく、プライバシーを保護すべきものを対象とすることができる。また、対象物2は1種類に限定されるものではなく、2種類以上のものを対象物として設定することもできる。
In step S12, a process of detecting the
画像上の対象物(人間)2を検出する方法は、例えば、人間の体(頭部、胴体部、腕部、脚部など)の特徴部を抽出して検出する方法、取得した連続フレーム画像の差分に基づいて人間を検出する方法、事前取得した基準背景画像と取得画像との差分に基づいて人間を検出する方法など、各種の画像認識方法が採用され得る。 The method of detecting the object (human) 2 on the image is, for example, a method of extracting and detecting a characteristic part of a human body (head, body, arms, legs, etc.), acquired continuous frame images. Various image recognition methods can be adopted, such as a method of detecting a person based on the difference between the two and a method of detecting a person based on the difference between the previously acquired reference background image and the acquired image.
ステップS13では、ステップS12で検出された対象物2の位置を検出する処理を行う。対象物2の位置を検出する方法は、上記した画像上の2次元位置(x、y座標又は領域)を算出する方法、3D地図上の3次元位置(x、y、z座標又は領域)を算出する方法が採用され得る。
In step S13, a process of detecting the position of the
ステップS14では、ステップS13で検出された対象物2の位置データを用いて、事前に生成された背景画像に対象物2のプライバシー情報が除かれた模型(人形)を投影して描画した合成画像を生成する処理を行い、生成した合成画像を記憶部32に記憶した後、処理を終える。
模型の合成方法としては、上記した方法、すなわち、事前に生成された背景画像上に模型を投影して合成する方法(2次元的な合成方法)の他、3D地図データ上に3次元位置データに基づいて模型を3次元的に配置し、画像センサ装置10の撮像領域に対応する領域を画像として切り出して合成画像を生成する方法(3次元的な合成方法)が採用され得る。3次元的な合成方法を採用した場合は、模型が描画された状態に違和感の少ない合成画像を生成することが可能となる。
In step S14, a composite image in which the model (doll) in which the privacy information of the
As a model synthesizing method, the above-described method, that is, a method of projecting and synthesizing a model on a background image generated in advance (two-dimensional synthesizing method), and three-dimensional position data on 3D map data are available. A method of arranging the models three-dimensionally based on the above, and cutting out an area corresponding to the imaging area of the
図7は、実施の形態(1)に係るデータ提供システム1で実行される処理動作を説明するためのフローチャートである。本処理動作は、例えば、利用者端末50で外部アプリ51が起動された場合に開始される。
FIG. 7 is a flowchart for explaining the processing operation executed in the data providing system 1 according to the embodiment (1). This processing operation is started, for example, when the
利用者端末50が、ステップS21において、外部アプリ51を起動する処理を行う。ステップS22において、合成画像の要求操作があったと判断した場合に、合成画像の要求信号を画像提供サーバ40に送信する処理を行う。合成画像の要求信号には、利用者端末50のID(識別子)、要求する合成画像に関する情報などが含まれる。要求する合成画像に関する情報には、対象とする施設、場所、画像センサ装置10の情報、撮像日時・期間などの情報が含まれる。これら情報は、外部アプリ51上で適宜入力できる他、予め設定できるようにしてもよい。
The
次に、画像提供サーバ40が、ステップS23において、利用者端末50から合成画像の要求信号を受信する処理を行う。次のステップS24では、受信した合成画像の要求信号に基づいて、画像処理サーバ30に合成画像の要求信号を送信する処理を行う。
Next, the
次に、画像処理サーバ30が、ステップS25において、画像提供サーバ40から合成画像の要求信号を受信する処理を行う。次のステップS26では、受信した合成画像の要求信号に基づいて、画像取得対象として指定された画像センサ装置10から撮像画像(実画像)を含むデータを取得する処理を行う。取得したデータには、実画像データ、撮像日時データ、画像センサ装置10のIDなどが含まれ、これらデータが実画像DB32aに互いに関連付けた形式で記憶される。
Next, the
次にステップS27では、取得した実画像から対象物2を検出(認識)する処理を行う。本処理は、先に説明した、図6のステップS12に対応する処理である。次のステップS28では、実画像中で検出された対象物2の位置を検出する処理を行う。本処理は、先に説明した、図6のステップS13に対応する処理である。続くステップS29では、検出された対象物2の位置データを制御部34内のRAM又は記憶部32に記憶する。対象物2の位置データは、画像センサ装置10のIDや撮像日時データなどの実画像に関するデータと関連付けた形式で記憶される。
Next, in step S27, a process of detecting (recognizing) the
次にステップS30では、背景画像DB32gから、実画像の撮像範囲に対応する背景画像を読み出す処理を行い、次のステップS31では、制御部34内のRAM又は記憶部32から、対応する実画像で検出された対象物2の位置データを読み出す処理を行い、ステップS32に進む。
Next, in step S30, the background image corresponding to the imaging range of the real image is read from the
ステップS32では、ステップS31で読み出した対象物2の位置データと、ステップS30で読み出した背景画像とを用い、該背景画像に対象物2のプライバシー情報が除かれた対象物2の模型が描画された合成画像を生成する処理を行う。本処理は、先に説明した、図6のステップS14に対応する処理である。続くステップS33では、生成された合成画像を記憶部32に記憶する。生成された合成画像のデータは、画像センサ装置10のIDや撮像日時データなどと関連付けた形式で記憶される。次にステップS34では、記憶部32から読み出した合成画像のデータを画像提供サーバ40に送信する処理を行う。
In step S32, the position data of the
画像提供サーバ40では、ステップS35において、画像処理サーバ30から送信されてきた合成画像のデータを受信する処理を行い、次のステップS36で、受信した合成画像のデータを合成画像DB41aに記憶する処理を行う。合成画像は、画像センサ装置10のIDや撮像日時等のデータと関連付けた形式で記憶される。次のステップS37では、合成画像DB41aから合成画像のデータを読み出して利用者端末50に送信する処理を行う。
In the
利用者端末50では、ステップS38において、画像提供サーバ40から送信されてきた合成画像のデータを受信する処理を行い、次のステップS39において、受信した合成画像のデータを記憶部(図示せず)に記憶する処理を行い、続くステップS40において、合成画像を表示部に表示する処理を行う。その後、ステップS41において、外部アプリ51で合成画像を用いたデータ処理が実行され、その後、ステップS42において、外部アプリ51の終了操作を検出すると終了処理を行い、その後、処理を終える。
In step S38, the
図8は、画像処理サーバ30で生成される合成画像を説明するための表示例であり、(a)は、画像センサ装置10で撮像された画像(実画像)、(b)は3D地図データを基に生成された背景画像、(c)は対象物が検出された場合の合成画像、(d)は対象物の検出に失敗した場合の画像である。
FIG. 8 is a display example for explaining a composite image generated by the
図8(a)に示すように、実画像P1には対象物2が写されている。図8(b)に示すように、3D地図データを基に生成された背景画像P2には対象物2は含まれていない。図8(c)に示すように、対象物2が検出された場合、背景画像P2にプライバシー情報が除去された模型3が合成される。実画像P1上における対象物2の位置に対応する背景画像P2上の位置に、対象物2の模型3が表示されるので、対象物2のプライバシーを保護することが可能となっている。
As shown in FIG. 8A, the
また、模型3が対象物2の位置や姿勢(この場合、立っている状態)などの状態を再現するように描画され、背景画像P2が実画像P1の撮像範囲に対応したものであるので、対象物2を除いた領域の再現性を高めることができ、背景に存在する物との位置関係等の情報も正確に把握することが可能となっている。
模型3の表示形態は、対象物2である個人が特定されないようにプライバシー情報が除去された形態であれば特に限定されない。例えば、画像センサ装置10による対象物2の画像認識結果に基づく属性(男性又は女性、大人又は子供など)や動作姿勢に対応させた、模型3のモデルや動作モデルを用いることで、より対象物2の位置状態の再現性を高めることができる。合成画像の再現性を高めることにより、合成画像の利用価値を高めることができ、第3者による合成画像を利用したサービスを広く展開させることが可能となる。
In addition, since the
The display form of the
また、図8(d)に示すように、対象物2の検出に失敗した場合、実画像P1ではなく背景画像P2が提示されるため、実画像P1に写っている対象物2が提示されることなく、対象物2のプライバシーが確実に保護されるようになっている。
Further, as shown in FIG. 8D, when the detection of the
なお、上記合成画像の表示例では、背景画像P2が実画像P1の撮像範囲に対応したものとなっているが、この表示形態に限定されるものではなく、別の表示例では、実画像P1の撮像範囲よりも広い領域を示す背景画像を用いることができる。例えば、複数の実画像で表される領域を3D地図データから背景画像として切り出し、該背景画像に、前記複数の実画像で検出された対象物2の位置に模型3を描画した合成画像を生成することもできる。
Although the background image P2 corresponds to the imaging range of the real image P1 in the above-mentioned display example of the composite image, the present invention is not limited to this display form, and in another display example, the real image P1. It is possible to use a background image showing an area wider than the image pickup range of. For example, a region represented by a plurality of real images is cut out from the 3D map data as a background image, and a synthetic image in which the
上記実施の形態(1)に係るデータ提供システム1によれば、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた電子機器として機能する画像処理サーバ30により対象物2のプライバシーが適切に保護された合成画像が生成され、画像提供サーバ40が、前記合成画像を利用者端末50に提供することが可能となり、対象物2のプライバシーが適切に保護された合成画像を第3者に提供することで、該合成画像を用いた新たなサービスを外部アプリ51を通じて提供することができる。
According to the data providing system 1 according to the above-described embodiment (1), the privacy of the
上記実施の形態(1)に係る画像認識処理方法を実行する画像処理サーバ30によれば、画像センサ装置10から取得した実画像から対象物2の位置が検出され、対象物2の位置データを用いて、背景画像上の対応する位置に模型3が描画された合成画像が生成される。したがって、実画像から位置が検出された対象物2は模型3として背景画像に描画されるので、対象物2のプライバシー情報を含まない合成画像を生成することができる。また、背景画像に対象物2の模型3を描画するので、撮像された画像毎にモザイク処理等を行う方法と比較して、前記合成画像を連続的に生成する際の画像処理サーバ30にかかる処理負荷を削減することができる。また、実画像から対象物2の検出に失敗したとしても、提供する画像に背景画像を用いるため、検出に失敗した対象物2が利用者端末50に提示されることなく、検出に失敗した対象物2のプライバシーも適切に保護することができ、対象物2のプライバシー情報が流出しないようにチェックするための複雑な処理が不要となり、簡素化された画像認識処理を実現できる。
According to the
図9は、実施の形態(2)に係るデータ提供システムの構成を説明するための概念図である。但し、図1に示したデータ提供システム1と同様の構成要素については、同符号を付し、その説明を省略する。
実施の形態(1)に係るデータ提供システム1では、画像処理サーバ30が、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた画像処理装置300として機能するように構成されていたが、実施の形態(2)に係るデータ提供システム1Aでは、画像センサ装置10Aが、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた画像処理装置100(図10)として機能するように構成されている。
FIG. 9 is a conceptual diagram for explaining the configuration of the data providing system according to the embodiment (2). However, the same components as those of the data providing system 1 shown in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted.
In the data providing system 1 according to the embodiment (1), the
データ提供システム1Aは、画像センサ装置10A及び画像提供サーバ40を含んで構成され、プライバシー情報を含む対象物2のプライバシーが適切に保護された画像を利用者端末50に提供可能なセンサシステムとなっている。画像センサ装置10Aがネットワーク60を介して画像提供サーバ40に接続されている。画像提供サーバ40は、ネットワーク60を介して利用者端末50と接続されるようになっている。画像センサ装置10A及び画像提供サーバ40の設置個数は特に限定されない。データ提供システム1Aに少なくとも1つ以上装備されていればよい。
The
画像センサ装置10Aのハードウェア構成は、図2に示した構成と略同様であるが、画像処理部12A、制御部14A、記憶部13Aが異なる機能を備えている。また、画像センサ装置10Aには、ネットワーク60に接続するためのルーター20(図1)の機能が装備されている。なお、ルーター20は必須の構成ではなく、画像センサ装置10Aを直接ネットワーク60に接続してもよい。画像提供サーバ40のハードウェア構成は、図3に示した構成と略同様である。
The hardware configuration of the
図10は、画像センサ装置10A及び画像提供サーバ40が実行する処理を説明するための機能ブロック図である。
[画像センサ装置10A]
画像センサ装置10Aに画像処理装置100が装備されている。画像処理装置100は、画像取得部12c、位置検出部12d、合成画像生成部12e、背景画像生成部12f、背景画像登録部13b、画像切替部14a、及び画像送信部15aを含んで構成され、これら各部は、画像センサ装置10Aの画像処理部12A、記憶部13A、制御部14A、及び入出力I/F15の機能により実現される。
FIG. 10 is a functional block diagram for explaining processing executed by the
[
The
画像取得部12cが、撮像部11で撮像された画像を取得する処理を行い、位置検出部12dが、取得した画像からプライバシー情報を含む対象物(人間)2を検出(認識)し、撮像された画像上における対象物(人間)2の位置(座標又は領域)を検出する処理を行う。対象物2の検出(画像認識)、位置検出方法には、上記した2次元位置算出方法や3次元位置算出方法が適用される。位置検出部12dで検出された対象物2の位置データは、例えば、画像センサ装置10AのID(識別子)、画像取得日時等のデータと関連付けた状態で制御部14A内のRAM又は記憶部13Aに記憶される。制御部14A内のRAM又は記憶部13Aが、対象物2の位置データが記憶される位置データ記憶部として機能する。
制御部14A内のRAM又は記憶部13Aから読み出された対象物2の位置(座標又は領域)データが、例えば、画像センサ装置10AのID(識別子)、画像取得日時等のデータと関連付けた状態で合成画像生成部12eに送られる。
また、画像取得部12cで取得した画像は、例えば、画像センサ装置10AのID(識別子)、画像取得日時等のデータと関連付けた状態で実画像DB13aに記憶される。
The
A state in which the position (coordinates or area) data of the
The image acquired by the
背景画像生成部12fが、対象物2が含まれていない背景画像を生成する処理を行う。背景画像登録部13bが、生成された背景画像を背景画像DB13cに登録する処理を行う。
本実施の形態における背景画像の生成及び登録処理は、(1)撮像部11で撮像された複数の画像を平均処理して求めた平均画像を背景画像として登録する方法、(2)対象物2が存在しない条件下で撮像した画像を背景画像として登録する方法、(3)撮像した画像を画像処理により背景のみ表した絵画風画像やCG画像に変換した画像を背景画像として登録する方法などが適用される。
The background
Background image generation and registration processing according to the present embodiment includes (1) a method of registering an average image obtained by averaging a plurality of images captured by the
合成画像生成部12eが、制御部14A内のRAM又は記憶部13Aから読み出した対象物2の位置(座標)データと、背景画像DB13cから読み出した背景画像とを用い、該背景画像上における対象物2の検出位置に、対象物2のプライバシー情報が除去された模型、例えば対象物2のシルエットを表すCG画像(人形)を描画して合成画像を生成する処理を行う。生成された合成画像のデータは、例えば、画像センサ装置10AのIDや画像取得日時のデータと関連付けた状態で記憶部13Aに記憶され、その後、画像切替部14aに送られる。
The composite
位置検出部12dが対象物2の画像上の2次元座標を算出する場合、合成画像生成部12eは、背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
また、位置検出部12dが、1つの対象物2の位置検出を複数の画像センサ装置10Aを用いて3次元的に行う場合、合成画像生成部12eは、対象物2の3次元座標から画像上の2次元座標を復元し、復元した2次元座標に基づいて背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
When the
In addition, when the
画像切替部14aが、画像提供サーバ40に送信する画像として、画像取得部12cで取得した画像(実画像)と、合成画像生成部12eで生成された合成画像とを切り替える処理を行う。
The
画像送信部15aが、合成画像または実画像を画像提供サーバ40に送信する。また、画像送信部15aは、画像センサ装置10Aを管理するためのアプリケーションソフトウェア(内部アプリ)19が搭載された管理端末装置(図示せず)に、合成画像生成部12eで生成された合成画像や実画像DB13aに記憶されている画像を送信することも可能となっている。
The
[画像提供サーバ40]
画像提供サーバ40は、コンピュータを備えた電子機器であり、画像センサ装置10Aで生成された合成画像や撮像された実画像を利用者端末50に送信する処理などを実行する。
画像受信部42aが、画像センサ装置10Aから送信されてきた合成画像や実画像のデータを受信する処理を行い、受信した合成画像や実画像のデータが、合成画像データベース41a、実画像データベース41bに記憶される。
[Image providing server 40]
The
The
画像送信部42bが、合成画像を要求してきた利用者端末50に、合成画像DB41aから読み出した合成画像を送信する処理を行う。また、実画像を要求してきた利用者端末50に、所定の条件下で実画像DB41bから読み出した実画像を送信する処理を行う。
なお、実画像には対象物2のプライバシー情報が含まれている場合があるため、実画像は、画像センサ装置10A又は画像提供サーバ40が、対象物2に関する異常事態や緊急事態などの特別な条件が成立したと判断した場合にのみ利用者端末50に送信可能となっている。
The
Since the real image may include the privacy information of the
図11は、実施の形態(2)に係るデータ提供システム1Aで実行される処理動作を説明するためのフローチャートである。本処理動作は、例えば、利用者端末50で外部アプリ51が起動された場合に開始される。
FIG. 11 is a flowchart for explaining a processing operation executed in the
利用者端末50が、ステップS51において、外部アプリ51を起動する処理を行う。ステップS52において、合成画像の要求操作があったと判断した場合に、合成画像の要求信号を画像提供サーバ40に送信する処理を行う。合成画像の要求信号には、利用者端末50のID(識別子)、要求する合成画像に関する情報が含まれる。要求する合成画像に関する情報には、対象とする施設、場所、画像センサ装置10Aの情報、撮像日時・期間などの情報が含まれる。これら情報は、外部アプリ51で適宜入力できる他、予め設定できるようにしてもよい。
The
次に、画像提供サーバ40が、ステップS53において、利用者端末50から合成画像の要求信号を受信する処理を行う。次のステップS54では、受信した合成画像の要求信号に基づいて、画像センサ装置10Aに合成画像の要求信号を送信する処理を行う。
Next, the
次に、画像センサ装置10Aが、ステップS55において、画像提供サーバ40から合成画像の要求信号を受信する処理を行う。次のステップS56では、受信した合成画像の要求信号に基づいて、取得対象として指定された撮像画像(実画像)を含むデータを取得する処理を行う。取得したデータには、実画像データ、撮像日時データ、画像センサ装置10AのIDなどが含まれ、これらデータが実画像DB13aに互いに関連付けた形式で記憶される。
Next, the
次にステップS57では、取得した実画像から対象物2を検出(認識)する処理を行う。本処理は、先に説明した、図6のステップS12と同様の処理である。次のステップS58では、実画像中で検出された対象物2の位置を検出する処理を行う。本処理は、先に説明した、図6のステップS13と同様の処理である。続くステップS59では、検出された対象物2の位置データを制御部14A内のRAM又は記憶部13Aに記憶する。対象物2の位置データは、画像センサ装置10AのIDや撮像日時データなどの実画像に関するデータと関連付けた形式で記憶される。
Next, in step S57, a process of detecting (recognizing) the
次にステップS60では、背景画像DB13cから、実画像の撮像範囲に対応する背景画像を読み出す処理を行い、次のステップS61では、制御部14A内のRAM又は記憶部13Aから、対応する実画像で検出された対象物2の位置データを読み出す処理を行い、ステップS62に進む。
Next, in step S60, the background image corresponding to the imaging range of the real image is read from the
ステップS62では、ステップS61で読み出した対象物2の位置データと、ステップS60で読み出した背景画像とを用い、該背景画像に対象物2のプライバシー情報が除かれた対象物2の模型が描画された合成画像を生成する処理を行う。本処理は、先に説明した、図6のステップS14と同様の処理である。続くステップS63では、生成された合成画像を記憶部13Aに記憶する。生成された合成画像のデータは、画像センサ装置10AのIDや撮像日時データなどと関連付けた形式で記憶される。次にステップS64では、記憶部13Aから読み出した合成画像のデータを画像提供サーバ40に送信する処理を行う。
In step S62, the position data of the
画像提供サーバ40では、ステップS65において、画像センサ装置10Aから送信されてきた合成画像のデータを受信する処理を行い、次のステップS66で、受信した合成画像のデータを合成画像DB41aに記憶する処理を行う。合成画像は、画像センサ装置10AのIDや撮像日時等のデータと関連付けた形式で記憶される。次のステップS67では、合成画像DB41aから合成画像のデータを読み出して利用者端末50に送信する処理を行う。
In the
利用者端末50では、ステップS68において、画像提供サーバ40から送信されてきた合成画像のデータを受信する処理を行い、次のステップS69において、受信した合成画像のデータを記憶部(図示せず)に記憶する処理を行い、続くステップS70において、合成画像を表示部に表示する処理を行う。その後、ステップS71において、外部アプリ51で合成画像を用いたデータ処理が実行され、その後、ステップS72において、外部アプリ51の終了操作を検出すると終了処理を行い、その後、処理を終える。
In the
上記実施の形態(2)に係るデータ提供システム1Aによれば、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた電子機器として機能する画像センサ装置10Aにより対象物2のプライバシーが適切に保護された合成画像が生成され、画像提供サーバ40が、合成画像を利用者端末50に提供することが可能となり、対象物2のプライバシーが適切に保護された合成画像を第3者に提供することで、該合成画像を用いた新たなサービスを外部アプリ51を通じて提供することができる。
According to the
上記実施の形態(2)に係る画像認識処理方法を実行する画像センサ装置10Aによれば、画像取得部12cから取得した画像から対象物2の位置が検出され、対象物2の位置データを用いて、背景画像上の対応する位置に模型3が描画された合成画像が生成される。したがって、実画像から位置が検出された対象物2は模型3として背景画像に描画されるので、対象物2のプライバシー情報を含まない合成画像を生成することができる。また、背景画像に対象物2の模型3を描画するので、撮像された画像毎にモザイク処理等を行う方法と比較して、前記合成画像を連続的に生成する際の画像センサ装置10Aにかかる処理負荷を削減することができる。また、実画像から対象物2の検出に失敗したとしても、利用者端末50に提供する画像に背景画像を用いるため、検出に失敗した対象物2が利用者端末50に提示されることなく、検出に失敗した対象物2のプライバシーも適切に保護することができ、対象物2のプライバシー情報が流出しないようにチェックするための複雑な処理が不要となり、簡素化された画像認識処理を実現できる。
According to the
図12は、実施の形態(3)に係るデータ提供システムの構成を説明するための概念図である。但し、図1に示したデータ提供システム1と同様の構成要素については、同符号を付し、その説明を省略する。
実施の形態(1)に係るデータ提供システム1では、画像提供サーバ40から利用者端末50に、画像処理サーバ30で生成された合成画像(背景画像に模型が合成された画像)を提供するように構成されていた。一方、実施の形態(3)に係るデータ提供システム1Bでは、画像処理サーバ30Aで生成された背景画像を事前に利用者端末50Aへ送信しておき、その後、利用者端末50Aからのデータ要求に応じて、対象物2の位置データを利用者端末50Aに送信し、利用者端末50Aが、受信した対象物2の位置データと背景画像とを用い、該背景画像上に模型が描画された合成画像を生成する構成となっている。すなわち、利用者端末50Aが、本実施の形態に係る画像認識処理方法を実行するコンピュータとして機能する。
FIG. 12 is a conceptual diagram for explaining the configuration of the data providing system according to the embodiment (3). However, the same components as those of the data providing system 1 shown in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted.
In the data providing system 1 according to the embodiment (1), the
データ提供システム1Bは、画像センサ装置10、ルーター20、画像処理サーバ30A、及び利用者端末50Aを含んで構成され、プライバシーが適切に保護された画像を利用者端末50Aに提供可能なセンサシステムとなっている。画像処理サーバ30Aに画像処理装置300A(図13)が装備されている。
画像センサ装置10がルーター20に接続され、ルーター20がネットワーク60を介して画像処理サーバ30Aに接続されている。画像処理サーバ30Aは、ネットワーク60を介して利用者端末50Aと接続可能となっている。なお、ルーター20は必須の構成ではなく、画像センサ装置10をネットワーク60に接続するようにしてもよい。
The
The
画像センサ装置10のハードウェア構成は、図2に示した構成と略同様である。画像処理サーバ30Aのハードウェア構成は、図3に示した画像処理サーバ30の構成と略同様であるが、画像処理部31A、制御部34Aが異なる機能を備えている。
The hardware configuration of the
図13は、画像センサ装置10、画像処理サーバ30A、及び利用者端末50Aが実行する処理を説明するための機能ブロック図である。図4に示した機能ブロック図と同一機能を有する構成部分には、同一符号を付しその説明を省略する。
[画像センサ装置10]
画像取得部12aが、撮像部11で撮像された画像を取得する処理を行い、対象検出部12bが、取得した画像からプライバシー情報を含む対象物(人間)2を検出(認識)する処理を行う。取得した画像や対象物検出(画像認識)結果のデータが、例えば、画像センサ装置10のID(識別子)及び画像取得日時等のデータと関連付けた状態で画像処理サーバ30Aに送信される。
FIG. 13 is a functional block diagram for explaining processing executed by the
[Image sensor device 10]
The
[画像処理サーバ30A]
画像処理サーバ30Aに画像処理装置300Aが装備されている。画像処理装置300Aは、画像受信部33a、画像送信部33b、位置検出部31a、背景画像生成部31b、位置送信部31d、背景画像送信部31e、及び3D地図登録部32bを含んで構成され、これら各部は、画像処理サーバ30Aの画像処理部31A、記憶部32、通信処理部33、及び制御部34Aの機能により実現されている。
[
The
画像受信部33aが、画像センサ装置10から送信されてきた画像を受信する処理を行い、受信した画像(実画像)が実画像DB32aに記憶される。位置検出部31aが、撮像された画像上における検出対象物(人間)2の位置を検出する処理を行う。対象物2の位置検出方法には、上記した2次元位置算出方法や3次元位置算出方法が適用される。画像処理サーバ30Aが、利用者端末50Aからの要求信号を受信した場合に、位置送信部31dが、位置検出部31aで算出された対象物2の位置データを利用者端末50Aに送信する処理を行う。なお、対象検出部12bの機能を画像処理サーバ30Aに設ける構成としてもよい。
The
背景画像生成部31bが、背景DB32cに登録されている3D地図データ、パラメータDB32fに登録されている外部パラメータ及び内部パラメータ等を用いて、3D地図データから画像センサ装置10の撮像範囲に対応する背景画像を生成する処理を行う。生成された背景画像は、例えば、画像センサ装置10のIDと関連付けて背景画像DB32gに登録される。画像処理サーバ30Aが利用者端末50Aからサービス(外部アプリ)利用開始信号を受信した場合に、背景画像送信部31eが、背景画像生成部31bで生成された背景画像を背景画像DB32gから読み出し、背景画像に関連付けられた画像センサ装置10のID等とともに利用者端末50Aに送信する処理を行う。
The background
[利用者端末50A]
利用者端末50Aは、コンピュータを備えた電子機器であり、汎用のパーソナルコンピュータ(PC)、スマートフォン、タブレット端末などの情報端末装置で構成されている。利用者端末50Aは、通信処理部52、記憶部53、制御部54、表示部55、及び操作部56を含んで構成されている。
[
The
通信処理部52は、背景画像受信部52a、位置受信部52b、及び実画像受信部52cとしての機能を備え、ネットワーク60を介して各種データの送受信等を行う通信インターフェースや通信制御回路を含んで構成されている。記憶部53は、通信処理部52で受信した各種データ等を記憶可能な半導体メモリなどで構成されている。表示部55は、液晶パネルなどの各種表示パネルを含んで構成されている。操作部56は、タッチパネル、ボタンスイッチ、又はキーボード等の入力装置で構成されている。制御部54は、これら各部を制御する機能の他、合成画像生成部54aとしての機能を有し、マイクロコンピュータ(CPU(プロセッサ)、RAM、ROM)を含んで構成されている。制御部54には、これら各部の処理を実行するためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体、例えば、着脱可能な半導体メモリなどに格納してもよい。
The
背景画像受信部52aが、画像処理サーバ30Aから送信されてきた背景画像を受信する処理を行う。サービス利用開始時等に受信した背景画像は記憶部53に記憶される。
位置受信部52bが、画像処理サーバ30Aから送信されてきた対象物2の位置データを受信する処理を行う。受信した対象物2の位置データは、例えば、画像センサ装置10のID(識別子)、画像取得日時等のデータと関連付けた状態で制御部54内のRAM又は記憶部53などに記憶される。制御部54内のRAM又は記憶部53が位置データ記憶部として機能する。
合成画像生成部54aが、制御部54内のRAM又は記憶部53から読み出した対象物2の位置データと、記憶部53から読み出した、対応する背景画像とを用い、背景画像上における対象物2の検出位置に、対象物2のプライバシー情報が除去された模型を描画して合成画像を生成する処理を行い、生成された合成画像が表示部55に表示可能となっている。
The background
The
The composite
また、実画像受信部52cが、所定条件が成立した場合に、画像処理サーバ30Aから送信されてきた実画像を受信する処理を行い、受信した実画像が表示部55に表示可能となっている。なお、実画像には対象物2のプライバシー情報が含まれている場合があるため、実画像は、画像処理サーバ30Aが対象物2に関する異常事態や緊急事態などの特別な条件が成立したと判断した場合にのみ利用者端末50Aに提供可能となっている。
Further, the actual
図14は、実施の形態(3)に係るデータ提供システム1Bで実行される処理動作を説明するためのフローチャートである。本処理動作は、例えば、利用者端末50Aで外部アプリ51が起動された場合に開始される。
FIG. 14 is a flowchart for explaining the processing operation executed in the
利用者端末50Aが、ステップS81において、外部アプリ51を起動する処理を行う。ステップS82において、合成画像の要求操作があったと判断した場合に、合成画像の要求信号を画像処理サーバ30Aに送信する処理を行う。合成画像の要求信号には、利用者端末50AのID(識別子)、要求する合成画像に関する情報が含まれる。要求する合成画像に関する情報には、対象とする施設、場所、画像センサ装置10の情報、撮像日時・期間などの情報が含まれる。これら情報は、外部アプリ51で適宜入力できる他、予め設定できるようにしてもよい。
50 A of user terminals perform the process which starts the
次に、画像処理サーバ30Aが、ステップS83において、利用者端末50Aから合成画像の要求信号を受信する処理を行う。次のステップS84では、受信した合成画像の要求信号に基づいて、画像センサ装置10に合成画像の要求信号を送信する処理を行い、ステップS85に進む。ステップS85では、背景画像DB32gから画像センサ装置10の撮像範囲に対応する背景画像のデータを読み出し、利用者端末50Aに送信する。
Next, the
利用者端末50Aでは、ステップS86において、画像処理サーバ30Aから送信されてきた背景画像のデータを受信する処理を行い、次のステップS87では、受信した背景画像のデータを記憶部53に記憶する処理を行う。
In step S86, the
一方、画像センサ装置10では、ステップS88において、画像処理サーバ30Aから合成画像の要求信号を受信する処理を行う。次のステップS89では、受信した合成画像の要求信号に基づいて、取得対象として指定された撮像画像(実画像)を含むデータを取得する処理を行う。取得したデータには、実画像データ、撮像日時データ、画像センサ装置10のIDなどが含まれ、これらデータが記憶部13に互いに関連付けた形式で記憶される。
On the other hand, in the
続くステップS90では、取得した実画像から対象物2を検出(認識)する処理を行い、検出した対象物2の認識データを記憶部13に記憶する。本処理は、先に説明した、図6のステップS12と同様の処理である。次のステップS91では、記憶部13から実画像を含むデータと、対象物2の検出(認識)データとを読み出し、画像処理サーバ30Aに送信する処理を行う。
In subsequent step S90, a process of detecting (recognizing) the
画像処理サーバ30Aでは、ステップS92において、画像センサ装置10から送信されてきたデータを受信する処理を行い、次のステップS93で、受信した実画像を含むデータを実画像DB32aに、対象物2の検出データを記憶部32に記憶する処理を行う。続くステップS94では、実画像中で検出(認識)された対象物2の位置を検出する処理を行う。本処理は、先に説明した、図6のステップS13と同様の処理である。
In step S92, the
続くステップS95では、検出された対象物2の位置データを制御部34A内のRAM又は記憶部32に記憶する。対象物2の位置データは、画像センサ装置10のIDや撮像日時データなどの実画像に関するデータと関連付けた形式で記憶される。次のステップS96では、制御部34A内のRAM又は記憶部32から、実画像に対応する対象物2の位置データを読み出し、利用者端末50Aに送信する処理を行う。
In the following step S95, the detected position data of the
利用者端末50Aでは、ステップS97において、画像処理サーバ30Aから送信されてきた対象物2の位置データを受信し、制御部54内のRAM又は記憶部53に記憶する処理を行い、ステップS98に進む。ステップS98では、記憶部53から、対応する背景画像のデータを読み出し、次のステップS99で、制御部54内のRAM又は記憶部53から対象物2の位置データを読み出す処理を行う。
In step S97, the
続くステップS100では、読み出した対象物2の位置データと、読み出した背景画像とを用い、該背景画像に対象物2のプライバシー情報が除かれた対象物2の模型が描画された合成画像を生成する処理を行う。本処理は、先に説明した、図6のステップS14と同様の処理である。続くステップS101では、生成された合成画像を記憶部53に記憶する。生成された合成画像のデータは、画像センサ装置10のIDや撮像日時データなどと関連付けた形式で記憶される。
In the subsequent step S100, the position data of the read
続くステップS102において、記憶部53から読み出した合成画像を表示部に表示する処理を行う。その後、ステップS103において、外部アプリ51で合成画像を用いたデータ処理が実行され、その後、ステップS104において、外部アプリ51の終了操作を検出すると終了処理を行い、その後、処理を終える。
In a succeeding step S102, processing for displaying the combined image read from the
図15は、利用者端末50Aの表示部55に表示された合成画像の表示例を示している。
表示部55に、背景画像P2に模型(人形)3が合成された合成画像が表示されている。合成画像はCG表示ボタン56aを操作すると表示されるようになっている。CG表示ボタン56aを操作すると、利用者端末50Aは、画像処理サーバ30Aに対象物2の位置データを要求し、該要求に応じて受信した対象物2の位置データと、事前取得した背景画像とを用いて合成画像を生成して表示部55に表示する処理を行う。
FIG. 15 shows a display example of the composite image displayed on the
The
実画像表示ボタン56bは、通常時は機能しないが、例えば、模型3が倒れた状態で一定時間経過した場合など、画像処理サーバ30Aが対象物2に関する異常事態や緊急事態の発生を検出した場合に、実画像表示ボタン56bを点滅等させて利用者に警告するとともに、実画像表示ボタン56bの操作が受け付け可能になっている。実画像表示ボタン56bが操作されると、実画像受信部52cで受信した実画像が表示されるようになっている。
The actual
実施の形態(3)に係るデータ提供システム1Bによれば、画像処理サーバ30Aから利用者端末50Aに背景画像と、対象物2の位置データとを別々に送信して、利用者端末50Aで合成画像を生成させるので、プライバシーが適切に保護された前記合成画像を第3者に提供し、該合成画像を用いた新たなサービス提供の可能性を広げることができる。また、背景画像を利用者端末50Aに事前に送信して記憶させておき、検出された対象物2の位置データ等の模型3の描画に必要な情報のみをリアルタイムで利用者端末50Aに送信し、利用者端末50Aで背景画像と模型3とを合成した画像を生成するので、撮像された画像(実画像)をリアルタイムで利用者端末に送信するような構成と比較して、利用者端末50Aに転送するデータ量(データ転送量)を大幅に削減することができるシステムを構築することができる。
According to the
本発明は、上記した実施の形態に限定されるものではなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 It is needless to say that the present invention is not limited to the above-described embodiments, and various modifications can be made, which are also included in the scope of the present invention.
(付記1)
少なくとも1つの撮像部で撮像された画像を少なくとも1つのプロセッサで処理する画像認識処理方法であって、
前記少なくとも1つのプロセッサによって、
前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップを含んでいる、画像認識処理方法。
(Appendix 1)
An image recognition processing method for processing an image captured by at least one imaging unit by at least one processor,
By said at least one processor,
The position data of the object including privacy information detected from the image captured by the at least one imaging unit, and the background image read from the background image storage unit that stores the background image that does not include the object. And the step of generating a composite image in which the model of the object in which the privacy information of the object is removed is drawn on the background image.
(付記2)
少なくとも1つの撮像部で撮像された画像を少なくとも1つのプロセッサで処理する画像認識処理方法であって、
前記少なくとも1つのプロセッサによって、
前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、
前記検出された対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを含んでいる、画像認識処理方法。
(Appendix 2)
An image recognition processing method for processing an image captured by at least one imaging unit by at least one processor,
By said at least one processor,
Performing a process of detecting a position of an object including privacy information from an image captured by the at least one image capturing unit,
Using the detected position data of the target object and the background image read from the background image storage unit that stores the background image that does not include the target object, the background image contains privacy information of the target object. And a step of generating a composite image in which the model of the removed object is drawn.
(付記3)
少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのプロセッサに実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記少なくとも1つのプロセッサに、
前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、
前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
(Appendix 3)
A computer-readable recording medium recording an image recognition processing program for causing at least one processor to execute processing of an image captured by at least one imaging unit,
The at least one processor,
Reading position data of the object from a position data storage unit that stores position data of the object including privacy information detected from an image captured by the at least one image capturing unit;
Reading the background image from a background image storage unit that stores a background image that does not include the object;
Using the read position data of the target object and the read background image, generating a composite image in which the model of the target object in which the privacy information of the target object is removed is drawn in the background image. A computer-readable recording medium recording an image recognition processing program to be executed.
(付記4)
少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのプロセッサに実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記少なくとも1つのプロセッサに、
前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、
前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
(Appendix 4)
A computer-readable recording medium recording an image recognition processing program for causing at least one processor to execute processing of an image captured by at least one imaging unit,
The at least one processor,
Reading position data of the object from a position data storage unit that stores position data of the object including privacy information detected from an image captured by the at least one image capturing unit;
Reading the background image from a background image storage unit that stores a background image that does not include the object;
Using the read position data of the target object and the read background image, generating a composite image in which the model of the target object in which the privacy information of the target object is removed is drawn in the background image. A computer-readable recording medium recording an image recognition processing program to be executed.
(付記5)
少なくとも1つのコンピュータがネットワークを介して別のコンピュータにデータを提供するデータ提供システムであって、
前記少なくとも1つのコンピュータが、記憶部と、該記憶部に接続された少なくとも1つのプロセッサとを有し、
前記記憶部は、
少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データを記憶する位置データ記憶部と、
前記対象物が含まれていない背景画像を記憶する背景画像記憶部とを有し、
前記少なくとも1つのプロセッサは、
前記位置データ記憶部から読み出した前記対象物の位置データを前記別のコンピュータに送信し、
前記背景画像記憶部から読み出した前記背景画像を前記別のコンピュータに送信するように構成され、
前記別のコンピュータは、少なくとも1つのプロセッサを有し、
該少なくとも1つのプロセッサは、
前記少なくとも1つのコンピュータから受信した前記対象物の位置データと前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するように構成されている、データ提供システム。
(Appendix 5)
A data providing system in which at least one computer provides data to another computer via a network,
The at least one computer has a storage unit and at least one processor connected to the storage unit,
The storage unit is
A position data storage unit that stores position data of an object including privacy information detected from an image captured by at least one image capturing unit;
A background image storage unit that stores a background image that does not include the object,
The at least one processor is
Sending the position data of the object read from the position data storage unit to the another computer,
The background image read from the background image storage unit is configured to be transmitted to the another computer,
The other computer has at least one processor,
The at least one processor is
Using the position data of the target object and the background image received from the at least one computer, a composite image is created in which the model of the target object without the privacy information of the target object is drawn on the background image. A data providing system configured as follows.
1、1A、1B データ提供システム
10、10A 画像センサ装置
100 画像処理装置
12a、12c 画像取得部
12b 対象検出部
12d 位置検出部
12e 合成画像生成部
13b 背景画像登録部
14a 画像切替部
15a 画像送信部
20 ルーター
30、30A 画像処理サーバ
300、300A 画像処理装置
31a 位置検出部
31b 背景画像生成部
31c 合成画像生成部
32b 3D地図登録部
40 画像提供サーバ
42a 画像受信部
42b 画像送信部
50、50A 利用者端末
60 ネットワーク
1, 1A, 1B
Claims (24)
前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、前記対象物が含まれていない3次元背景データから生成された背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップを含んでいることを特徴とする画像認識処理方法。 An image recognition processing method for processing an image captured by at least one image capturing unit by at least one computer,
A background image in which position data of an object including privacy information detected from an image captured by the at least one image capturing unit and a background image generated from three-dimensional background data not including the object are stored. Using the background image read from the storage unit, and generating a composite image in which a model of the object without the privacy information of the object is drawn in the background image. Image recognition processing method.
前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、
検出された前記対象物の位置データと、前記対象物が含まれていない3次元背景データから生成された背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを含んでいることを特徴とする画像認識処理方法。 An image recognition processing method for processing an image captured by at least one image capturing unit by at least one computer,
Performing a process of detecting a position of an object including privacy information from an image captured by the at least one image capturing unit,
Using the detected position data of the target object and the background image read from the background image storage unit that stores the background image generated from the three-dimensional background data that does not include the target object, the background image And a step of generating a composite image in which the model of the object without the privacy information of the object is drawn.
前記背景画像が、前記3次元背景データであり、
前記合成画像を生成するステップが、
前記対象物の3次元位置データを用い、前記3次元背景データ上の前記対象物の3次元位置に前記模型を描画し、該模型が描画された前記3次元背景データから前記模型を含む前記撮像された画像領域を切り出した画像を前記合成画像として生成するものであることを特徴とする請求項1又は請求項2記載の画像認識処理方法。 The position data of the object is three-dimensional position data of the object detected from the captured image,
The background image is a the three-dimensional background data,
The step of generating the composite image comprises
The three-dimensional position data of the object is used to draw the model at the three-dimensional position of the object on the three-dimensional background data, and the imaging including the model from the three-dimensional background data on which the model is drawn. The image recognition processing method according to claim 1 or 2, wherein an image obtained by cutting out the generated image area is generated as the composite image.
前記少なくとも1つのコンピュータに、
前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、
前記対象物が含まれていない3次元背景データから生成された背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴とする画像認識処理プログラム。 An image recognition processing program for causing at least one computer to execute processing of an image captured by at least one imaging unit,
The at least one computer,
Reading position data of the object from a position data storage unit that stores position data of the object including privacy information detected from an image captured by the at least one image capturing unit;
Reading the background image from a background image storage unit that stores a background image generated from three-dimensional background data that does not include the object;
Using the read position data of the target object and the read background image, generating a composite image in which the model of the target object in which the privacy information of the target object is removed is drawn in the background image. An image recognition processing program characterized by being executed.
前記少なくとも1つのコンピュータに、
前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、
該検出した対象物の位置データを位置データ記憶部に記憶するステップと、
前記位置データ記憶部から前記対象物の位置データを読み出すステップと、
前記対象物が含まれていない3次元背景データから生成された背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴とする画像認識処理プログラム。 An image recognition processing program for causing at least one computer to execute processing of an image captured by at least one imaging unit,
The at least one computer,
Performing a process of detecting a position of an object including privacy information from an image captured by the at least one image capturing unit,
Storing the detected position data of the object in a position data storage unit;
Reading the position data of the object from the position data storage unit;
Reading the background image from a background image storage unit that stores a background image generated from three-dimensional background data that does not include the object;
Using the read position data of the target object and the read background image, generating a composite image in which the model of the target object in which the privacy information of the target object is removed is drawn in the background image. An image recognition processing program characterized by being executed.
請求項3〜6のいずれかの項に記載の画像認識処理方法を、前記少なくとも1つのコンピュータに実行させることを特徴とする画像認識処理プログラム。 An image recognition processing program for causing at least one computer to execute processing of an image captured by at least one imaging unit,
The image recognition processing method according to any one of claims 3-6, the image recognition processing program characterized by executing at least one computer.
前記少なくとも1つのコンピュータが、
請求項1〜6のいずれかの項に記載の画像認識処理方法における前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを含んでいることを特徴とするデータ提供方法。 A method for providing data executed in a system including at least one computer capable of communicating via a network, comprising:
The at least one computer is
Data, characterized in that it includes the step of transmitting the synthesized image generated by the step of generating the composite image in the image recognition processing method according to any one of claims 1 to 6 to another computer How to provide.
前記少なくとも1つのコンピュータが、
請求項1〜6のいずれかの項に記載の画像認識処理方法における前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを含んでいることを特徴とするデータ提供方法。 A method for providing data executed in a system including at least one computer capable of communicating via a network, comprising:
The at least one computer is
Data provided which is characterized in that it includes the step of displaying the synthesized image generated in the step of generating the composite image in the image recognition processing method according to any one of claims 1 to 6 on the display unit Method.
前記少なくとも1つのコンピュータが、
少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データを前記別のコンピュータに送信する位置データ送信部と、
前記対象物が含まれていない3次元背景データから生成された背景画像を前記別のコンピュータに送信する背景画像送信部とを備え、
前記別のコンピュータに、
前記対象物の位置データと前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成させることを特徴とするデータ提供システム。 A data providing system in which at least one computer provides data to another computer via a network,
The at least one computer is
A position data transmission unit for transmitting position data of an object including privacy information detected from an image picked up by at least one image pickup unit to the another computer;
A background image transmission unit that transmits a background image generated from three-dimensional background data that does not include the object to the another computer,
To the other computer,
A data providing system characterized by using the position data of the object and the background image to generate a composite image in which the model of the object without the privacy information of the object is drawn on the background image. ..
前記少なくとも1つのコンピュータに、
請求項7〜9のいずれかの項に記載の画像認識処理プログラムにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを実行させることを特徴とするデータ提供プログラム。 A data providing program to be executed by a system including at least one computer capable of communicating via a network,
The at least one computer,
10. Data provision, characterized in that the step of transmitting the composite image generated in the step of generating the composite image in the image recognition processing program according to any one of claims 7 to 9 to another computer is executed. program.
前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに実行させることを特徴とする請求項18記載のデータ提供プログラム。 The at least one computer,
The data providing program according to claim 18 , further comprising transmitting the captured image to the another computer when a predetermined condition that requires the captured image is satisfied.
前記少なくとも1つのコンピュータに、
請求項7〜9のいずれかの項に記載の画像認識処理プログラムにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを実行させることを特徴とするデータ提供プログラム。 A data providing program to be executed by a system including at least one computer capable of communicating via a network,
The at least one computer,
A data providing program, characterized by causing a step of displaying the composite image generated in the step of generating the composite image in the image recognition processing program according to any one of claims 7 to 9 on a display unit. ..
前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに実行させることを特徴とする請求項20記載のデータ提供プログラム。 The at least one computer,
21. The data providing program according to claim 20 , further comprising: executing the step of switching the composite image and the captured image to display on the display unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016221355A JP6699518B2 (en) | 2016-11-14 | 2016-11-14 | Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device |
PCT/JP2017/033626 WO2018088035A1 (en) | 2016-11-14 | 2017-09-19 | Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor, and electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016221355A JP6699518B2 (en) | 2016-11-14 | 2016-11-14 | Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018082234A JP2018082234A (en) | 2018-05-24 |
JP2018082234A5 JP2018082234A5 (en) | 2019-04-18 |
JP6699518B2 true JP6699518B2 (en) | 2020-05-27 |
Family
ID=62110536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016221355A Active JP6699518B2 (en) | 2016-11-14 | 2016-11-14 | Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6699518B2 (en) |
WO (1) | WO2018088035A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020141212A (en) * | 2019-02-27 | 2020-09-03 | 沖電気工業株式会社 | Image processing system, image processing device, image processing program, image processing method, and display device |
JP2020170467A (en) * | 2019-04-05 | 2020-10-15 | 株式会社Preferred Networks | Information processing system, robot, remote control device, information processing method, and program |
CN112040145B (en) * | 2020-08-28 | 2023-04-07 | 维沃移动通信有限公司 | Image processing method and device and electronic equipment |
CN115221547A (en) * | 2021-04-21 | 2022-10-21 | Oppo广东移动通信有限公司 | Image processing method and device, electronic equipment and computer storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4512763B2 (en) * | 2005-02-02 | 2010-07-28 | 株式会社国際電気通信基礎技術研究所 | Image shooting system |
JP5159381B2 (en) * | 2008-03-19 | 2013-03-06 | セコム株式会社 | Image distribution system |
WO2015136796A1 (en) * | 2014-03-10 | 2015-09-17 | ソニー株式会社 | Information processing apparatus, storage medium and control method |
JP6650677B2 (en) * | 2015-02-26 | 2020-02-19 | キヤノン株式会社 | Video processing apparatus, video processing method, and program |
-
2016
- 2016-11-14 JP JP2016221355A patent/JP6699518B2/en active Active
-
2017
- 2017-09-19 WO PCT/JP2017/033626 patent/WO2018088035A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2018088035A1 (en) | 2018-05-17 |
JP2018082234A (en) | 2018-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6699518B2 (en) | Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor and electronic device | |
CN106993181B (en) | More VR/AR equipment collaboration systems and Synergistic method | |
US11475390B2 (en) | Logistics system, package delivery method, and program | |
US10674135B2 (en) | Handheld portable optical scanner and method of using | |
CN110249291A (en) | System and method for the augmented reality content delivery in pre-capture environment | |
JP2017509939A (en) | Method and system for generating a map including sparse and dense mapping information | |
KR101506610B1 (en) | Apparatus for providing augmented reality and method thereof | |
JP5619140B2 (en) | Reception display device, information transmission device, optical wireless communication system, reception display integrated circuit, information transmission integrated circuit, reception display program, information transmission program, and optical wireless communication method | |
KR20160136233A (en) | Method and system for determining spatial characteristics of a camera | |
TW201229962A (en) | Augmenting image data based on related 3D point cloud data | |
KR101181967B1 (en) | 3D street view system using identification information. | |
JP6383439B2 (en) | Method and system for calibrating a sensor using a recognized object | |
US20220264004A1 (en) | Generation of an image that is devoid of a person from images that include the person | |
US20230306636A1 (en) | Object three-dimensional localizations in images or videos | |
JP2016194784A (en) | Image management system, communication terminal, communication system, image management method, and program | |
JP2016194783A (en) | Image management system, communication terminal, communication system, image management method, and program | |
JP2018139052A (en) | Communication terminal, image communication system, display method and program | |
CN110796706A (en) | Visual positioning method and system | |
JP5801690B2 (en) | Image processing apparatus and image processing method | |
WO2019127320A1 (en) | Information processing method and apparatus, cloud processing device, and computer program product | |
TW201822034A (en) | Collection system, program for terminal, and collection method | |
JP2003244488A (en) | Image information adding apparatus and system | |
JP2017184025A (en) | Communication terminal, image communication system, image transmission method, image display method, and program | |
JP2021184115A (en) | Information processing device, information processing method and program | |
JP2020088571A (en) | Management system, information processing system, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190311 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200331 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6699518 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |