WO2018088035A1 - 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器 - Google Patents

画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器 Download PDF

Info

Publication number
WO2018088035A1
WO2018088035A1 PCT/JP2017/033626 JP2017033626W WO2018088035A1 WO 2018088035 A1 WO2018088035 A1 WO 2018088035A1 JP 2017033626 W JP2017033626 W JP 2017033626W WO 2018088035 A1 WO2018088035 A1 WO 2018088035A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
data
computer
background
captured
Prior art date
Application number
PCT/JP2017/033626
Other languages
English (en)
French (fr)
Inventor
皓正 高塚
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Publication of WO2018088035A1 publication Critical patent/WO2018088035A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/10Adaptations for transmission by electrical cable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an image recognition processing method, an image recognition processing program, a data providing method, a data providing system, a data providing program, a recording medium, a processor, and an electronic device, and more particularly, an image that performs image recognition processing in consideration of privacy.
  • the present invention relates to a recognition processing method, an image recognition processing program, a data providing method, a data providing system, a data providing program, a recording medium, a processor, and an electronic device.
  • a third party receiving image data from a system operating source (data providing source) provides a service by a new application using the provided image data.
  • a system operating source data providing source
  • Patent Document 1 a protection area (face area) that needs privacy protection in a photographed image is detected, and blur processing and mosaic processing are performed on the protection area on the photographed image (real image).
  • a system that generates and outputs a protected image subjected to image processing such as painting processing is disclosed.
  • a method of performing blur processing etc. on the entire captured image can be considered, but when blur processing etc. is performed on the entire image, objects existing in the background (structures and exhibits) Since information on display objects and the like is also removed, there is a problem that it becomes difficult to grasp the relationship between the object to be protected and the object existing in the background, and the advantage that a third party uses image data is reduced.
  • An object of the present invention is to provide an image recognition processing method, an image recognition processing program, a data providing method, a data providing system, a data providing program, a recording medium, a processor, and an electronic device that can generate an image.
  • an image recognition processing method (1) is an image recognition processing method in which an image captured by at least one imaging unit is processed by at least one computer. Using the position data of the object including privacy information detected from the image captured by the imaging unit and the background image read from the background image storage unit in which the background image not including the object is stored, The method includes a step of generating a composite image in which the model of the target object from which the privacy information of the target object is removed is drawn on the background image.
  • a composition in which a model of the object is drawn on the background image using the position data of the object detected from the captured image and the background image Generate an image. Therefore, the object whose position is detected from the captured image is drawn on the background image as the model, so that a composite image that does not include privacy information of the detected object can be generated.
  • the processing load on the computer when the composite image is continuously generated as compared with a method of performing mosaic processing or the like for each captured image Can be reduced.
  • the composite image does not include the target object that failed in the detection because the background image is used.
  • the privacy of the object can be appropriately protected, and a complicated process for checking the privacy information of the object so as not to leak out is unnecessary, and a simplified image recognition process can be realized.
  • the model of the object is a display object that imitates the object present in the captured image in a form that does not include the privacy information, and replaces the object on the background image by a computer. This is a display object drawn as an object.
  • An image recognition processing method (2) is an image recognition processing method for processing an image captured by at least one imaging unit with at least one computer, and is captured by the at least one imaging unit.
  • the same effect as the image recognition processing method (1) can be obtained, the step of performing the process of detecting the position of the object, and the generation of the composite image Step can be executed continuously, and the processing efficiency of the computer can be increased.
  • the image recognition processing method (3) according to the present invention is characterized in that, in the image recognition processing method (1) or (2), the background image corresponds to an imaging range of the captured image. It is said.
  • an image corresponding to the imaging range of the captured image can be generated as the composite image, and the reproducibility of the background can be improved.
  • the image recognition processing method (4) according to the present invention is the image recognition processing method (1) to (3) according to any one of the image recognition processing methods (1) to (3), wherein the composite image is obtained by capturing the model of the object on the background image. The image is drawn so that the position state of the object in the image is reproduced.
  • the image recognition processing method (4) it is possible to generate the composite image in which the model is drawn so as to reproduce the position state of the object in the image, and the position and orientation of the object. The reproducibility of the state of can be improved.
  • An image recognition processing method (5) according to the present invention is characterized in that, in any of the image recognition processing methods (1) to (4), the background image is generated from three-dimensional background data. It is said.
  • the image recognition processing method (5) since the background image is generated from three-dimensional background data, the reproducibility of the background portion of the captured image can be improved, and the captured image is captured. It is possible to generate the composite image with less sense of discomfort than the image.
  • the image recognition processing method (6) according to the present invention is obtained by averaging the plurality of captured images as the background image in any of the image recognition processing methods (1) to (4). It is generated from the average image.
  • the composite image is obtained using a background image in which the background of the captured image is faithfully reproduced. Can be generated.
  • the image recognition processing method (7) is the object in which the position data of the object is detected from the captured image in any of the image recognition processing methods (1) to (6). It is the two-dimensional position data on the captured image restored from the three-dimensional position data of the object.
  • the image recognition processing method (7) even when the position of one target is detected three-dimensionally using images captured by a plurality of the imaging units, the three-dimensional position data By using the two-dimensional position data restored from the above, it is possible to generate a composite image with high position accuracy in which the model of the object is drawn on the background image, that is, the two-dimensional image.
  • the image recognition processing method (8) according to the present invention is the image recognition processing method (1) or (2) according to the present invention, wherein the position data of the object is 3 of the object detected from the captured image. 3D position data, the background image is 3D background data, and the step of generating the composite image uses the 3D position data of the object, and the 3D of the object on the 3D background data.
  • the model is drawn at a three-dimensional position, and an image obtained by cutting out the imaged image area including the model from the three-dimensional background data on which the model is drawn is generated as the composite image. .
  • the model is drawn at the three-dimensional position of the object on the three-dimensional background data, and the model is drawn Since the image obtained by cutting out the imaged image region including the model from the three-dimensional background data is generated as the composite image, it is possible to generate an overhead image with a little uncomfortable feeling in the drawing state of the model as the composite image. .
  • An image recognition processing program (1) is an image recognition processing program for causing at least one computer to execute processing of an image captured by at least one imaging unit. Reading the position data of the object from a position data storage unit storing position data of the object including privacy information detected from an image captured by the at least one image capturing unit, and the object includes A step of reading the background image from a background image storage unit in which a background image that has not been stored is stored, position data of the read object, and the read background image, and the privacy of the object is used as the background image Generating a composite image in which the model of the object from which information is removed is drawn. It is characterized by a door.
  • the same effect as the image recognition processing method (1) can be obtained by causing the at least one computer to execute the program.
  • An image recognition processing program (2) is an image recognition processing program for causing at least one computer to process an image picked up by at least one image pickup unit. Performing a process of detecting a position of an object including privacy information from an image captured by the at least one imaging unit; storing position data of the detected object in a position data storage unit; A step of reading position data of the object from a position data storage unit; a step of reading the background image from a background image storage unit in which a background image not containing the object is stored; and a position of the read object Using the data and the read background image, privacy information of the object is stored in the background image. It is characterized in that and a step of generating a composite image model is drawn of the object that he.
  • the same effect as the image recognition processing method (2) can be obtained by causing the at least one computer to execute the program.
  • An image recognition processing program (3) is an image recognition processing program for causing at least one computer to process an image captured by at least one imaging unit, the image recognition processing method ( The method according to any one of 3) to (8) is caused to cause the at least one computer to execute the method.
  • an effect similar to any of the image recognition processing methods (3) to (8) can be obtained by causing the at least one computer to execute the program.
  • the computer-readable recording medium (1) is a computer-readable medium recording any of the image recognition processing programs (1) to (3).
  • the image recognition processing program (1) to (3) can be obtained by causing the computer to read and execute the image recognition processing program recorded on the recording medium.
  • the effect similar to either can be realized.
  • the recording medium may be a tangible recording medium, and includes various types of built-in and external IC memories, hard disks, optical disks, and the like.
  • the processor (1) is characterized in that it reads and executes any one of the image recognition processing programs (1) to (3).
  • any one of the image recognition processing programs (1) to (3) is read and executed by the processor (1). Similar effects can be realized.
  • the electronic device (1) is characterized in that the processor (1) is mounted.
  • the processor (1) since the processor (1) is installed, the same effect as any of the image recognition processing programs (1) to (3) can be realized.
  • the data providing method (1) is a data providing method executed in a system including at least one computer capable of communicating via a network, wherein the at least one computer includes the image recognition processing method.
  • the method includes a step of transmitting the composite image generated in the step of generating the composite image in any one of (1) to (8) to another computer.
  • the at least one computer separates the composite image generated in the step of generating the composite image in any of the image recognition processing methods (1) to (8).
  • the at least one computer can provide the composite image to the other computer, and provide the composite image with privacy appropriately protected to a third party.
  • the possibility of providing new services using composite images can be expanded.
  • the data providing method (2) is the data providing method (1) in which the captured image is transferred to the other computer when a predetermined condition requiring the captured image is satisfied.
  • the method further includes the step of transmitting.
  • the captured image can be transmitted to the other computer when the predetermined condition is satisfied, and the captured image is also used under the predetermined condition. can do.
  • a data providing method (3) is a data providing method executed in a system including at least one computer capable of communicating via a network, wherein the at least one computer includes the image recognition processing method.
  • (1) to (8) including a step of displaying the composite image generated in the step of generating the composite image on a display unit.
  • the at least one computer displays the composite image generated in the step of generating the composite image in any of the image recognition processing methods (1) to (8).
  • Display on the display unit the composite image in which privacy is appropriately protected can be displayed on the display unit and presented to a third party, and the possibility of providing a new service using the composite image is expanded. Can do.
  • the data providing method (4) according to the present invention further includes a step of switching the composite image and the captured image to display on the display unit in the data providing method (3). It is said.
  • the composite image and the captured image can be switched and displayed on the display unit, and the composite image and the captured image are switched according to the situation. Can be provided, and the added value of the service can be increased.
  • a data providing system (1) is a data providing system in which at least one computer provides data to another computer via a network, and the at least one computer is at least one imaging unit.
  • a position data transmitting unit that transmits position data of an object including privacy information detected from the captured image to the other computer, and a background that transmits a background image not including the object to the other computer.
  • An image transmission unit, and the model of the object is drawn on the background image using the position data of the object and the background image, and the privacy information of the object is removed from the background image. It is characterized by generating a composite image.
  • the background image and the position data of the object are transmitted from the at least one computer to the other computer, and the synthesized image is generated by the other computer.
  • the composite image in which privacy is appropriately protected can be provided to a third party who uses the other computer, and the possibility of providing a new service using the composite image can be expanded.
  • after transmitting the background image to the another computer it is possible to appropriately transmit only the position data of the object, so that the captured image is transmitted to the other computer in real time. Compared to the configuration, the data capacity (data transfer amount) to be transmitted to the other computer can be greatly reduced.
  • a data providing program (1) is a data providing program to be executed by a system including at least one computer capable of communicating via a network, wherein the at least one computer performs the image recognition process.
  • a step of transmitting the composite image generated in the step of generating the composite image in any one of the programs (1) to (3) to another computer is executed.
  • the composite image can be provided to the other computer by the at least one computer, and the composite image with appropriately protected privacy is provided to a third party.
  • the possibility of providing a new service using the composite image can be expanded.
  • the data providing program (1) is imaged when a predetermined condition requiring the captured image is satisfied in the at least one computer.
  • the step of transmitting the image to the another computer is further executed.
  • the captured image when the predetermined condition is satisfied, the captured image can be transmitted to the another computer, and the imaging is performed under the predetermined condition in the another computer. It is also possible to make use of the processed images.
  • a data providing program (3) is a data providing program to be executed by a system including at least one computer capable of communicating via a network, wherein the at least one computer performs the image recognition process.
  • a step of displaying the composite image generated in the step of generating the composite image in any one of the programs (1) to (3) on a display unit is executed.
  • the composite image in which privacy is appropriately protected by causing the at least one computer to display the composite image generated in the step of generating the composite image on a display unit.
  • An image can be displayed on the display unit and presented to a third party, and the possibility of providing a new service can be expanded.
  • the data providing program (4) includes the step of switching the composite image and the captured image to the at least one computer and displaying the data on the display unit in the data providing program (3). It is further characterized by being executed.
  • the composite image and the captured image can be switched and displayed on the display unit, and the composite image and the captured image are switched according to the situation. Can be provided, and the added value of the service can be increased.
  • the computer-readable recording medium (2) is characterized in that it is a computer-readable medium recording any one of the data providing programs (1) to (4).
  • the recording medium may be a tangible recording medium, and includes various types of built-in and external IC memories, hard disks, optical disks, and the like.
  • the processor (2) according to the present invention is characterized by reading and executing any one of the data providing programs (1) to (4).
  • the processor (2) by reading and executing any of the data providing programs (1) to (4), the processor provides the same effect as any of the data providing programs (1) to (4). Can be realized.
  • the electronic device (2) according to the present invention is characterized in that the processor (2) is mounted.
  • the processor (2) since the processor (2) is installed, the same effect as any of the data providing programs (1) to (4) can be realized.
  • FIG. 1 is a conceptual diagram for explaining a configuration of a data providing system according to the embodiment (1).
  • the data providing system 1 includes the image sensor device 10, the router 20, the image processing server 30, and the image providing server 40, and provides the user terminal 50 with an image in which the privacy of the target object 2 including privacy information is protected. It is a possible system.
  • the image processing server 30 functions as an image processing apparatus 300 (FIG. 4) including a computer that executes the image recognition processing method according to the present embodiment.
  • the object 2 that protects privacy is a human being
  • the object 2 is not limited to a human being.
  • information indicating information that can identify an individual, or information that is operated or possessed by a human such as a car or a bicycle can be set as an object.
  • privacy information is information that can specify a person when the object 2 is a person, and information that can specify an owner when the object 2 is a car or a bicycle.
  • the image sensor device 10 functions as a camera device that captures an image.
  • An image (actual image) captured by the image sensor device 10 may be a moving image, a still image, a color image, a gray image, or the like.
  • the router 20 is a communication connection device provided between the image sensor device 10 and the image processing server 30.
  • the router 20 includes a control unit, a storage unit, a network interface, a device connection interface, a power supply unit, and the like (all not shown), and has a function of selecting a network path (destination) for transferring data according to an IP address. I have.
  • the connection between the image sensor device 10 and the router 20 may be a wireless connection in addition to a wired connection. Note that the router 20 is not an essential configuration, and the image sensor device 10 may be directly connected to the network 60.
  • the image processing server 30 is an electronic device equipped with a computer, and generates a composite image in which the privacy of the target object 2 is protected at a predetermined timing such as when there is a request from the image providing server 40 side or at regular intervals. And a function of uploading (transferring) to the image providing server 40 via the network (communication network) 60.
  • the network 60 includes the Internet, a VPN network, a dedicated line, a communication line combining these, and includes wired and wireless networks.
  • the number of installed image processing servers 30 and image providing servers 40 is not particularly limited. It is sufficient that at least one data providing system 1 is equipped.
  • the installation location and the number of installation of the image sensor device 10 are not particularly limited.
  • the image sensor device 10 is installed, for example, in a store, a commercial facility, a shopping street, an underground mall, a business facility, the outdoors, or a moving body such as a vehicle (hereinafter referred to as a facility), and functions as a monitoring camera for the facility, for example.
  • the image processing server 30 can be provided as an internal (in-facility network) server for each facility or the like where the image sensor device 10 is installed (managing the image sensor device 10).
  • a system configuration in which the function of the image processing server 30 is installed in the router 20 may be adopted.
  • the image providing server 40 is an electronic device including a computer, and provides image data uploaded from the image processing server 30 to the user terminal 50 via the network 60 based on a request from the user terminal 50, for example. It has a function to do.
  • the image processing server 30, the image providing server 40, and the user terminal 50 For image recognition processing and data provision for processing and providing image data in cooperation with each other via the network 60 to the image sensor device 10, the image processing server 30, the image providing server 40, and the user terminal 50.
  • the program is incorporated. By building a service platform that can cooperate with each other, the system can be operated efficiently.
  • the user terminal 50 is an electronic device provided with a computer, and is configured by an information terminal device such as a general-purpose personal computer (PC), a smartphone, or a tablet terminal.
  • the user terminal 50 is used by a third party who is different from an operator of a facility or the like that manages the image sensor device 10.
  • application software (external application) 51 (see FIG. 4) that cooperates with each other is incorporated by downloading or the like.
  • the external application 51 is software for providing a service that allows a third party to use the image data provided from the image providing server 40.
  • the services that can be provided to a third party through the external application 51 include information obtained from data such as a composite image provided from the image providing server 40, for example, a position state such as a position and a posture of the target object 2 and a background.
  • a service that uses information such as a positional relationship with an object (structure or arrangement) can be cited. More specifically, it includes various security services that detect abnormalities and abnormalities, various prediction services such as power prediction and traffic prediction, and various marketing services such as sales promotion, customer development, product allocation, and personnel allocation.
  • a plurality of image providing servers 40 can be provided according to the type of external application 51 and the like.
  • FIG. 2 is a block diagram schematically showing a hardware configuration of the image sensor device 10.
  • the image sensor device 10 includes an imaging unit 11, an image processing unit 12, a storage unit 13, a control unit 14, an input / output interface (I / F) 15, an operation unit 16, a clock unit 17, and a power supply unit 18. ing.
  • the image sensor device 10 includes not only a single unit in which these units are mounted in a single housing, but also a camera unit including the imaging unit 11 and a controller unit including the control unit 14 and the like. Also included.
  • the imaging unit 11 includes a lens system, an imaging element such as a CCD or a CMOS, and a drive circuit.
  • the image processing unit 12 includes various image processing circuits and an image processing processor, and performs various image correction processes and image recognition processes.
  • the image recognition process includes a feature extraction process, an identification process, a statistical calculation process, an estimation / judgment process such as a position / orientation / attribute, and the like.
  • a processing function for estimating and determining human identification extraction of physical feature points such as the head, posture, and attributes (male or female, adult or child, etc.) is included. It is preferable.
  • the control unit 14 includes a microcomputer including a CPU (processor), a RAM, a ROM, and the like, and stores a program for controlling the operation of each unit of the image sensor device 10. These programs may be stored in an external recording medium in addition to a computer-readable internal recording medium.
  • the storage unit 13 includes a semiconductor memory that can temporarily store captured image data.
  • the input / output I / F 15 includes various interfaces for connecting to an external device such as the router 20.
  • the operation unit 16 includes operation buttons and operation panels for operating various functions of the image sensor device 10.
  • the clock unit 17 includes a clock circuit that records the time when an image is captured.
  • the power supply unit 18 includes a power supply circuit that supplies power to each unit of the image sensor device 10 and a battery.
  • FIG. 3 is a block diagram schematically showing the hardware configuration of the image processing server 30 and the image providing server 40.
  • the image processing server 30 includes an image processing unit 31, a storage unit 32, a communication processing unit 33, a control unit 34, an operation unit 35, a display unit 36, and a power supply unit 37, but is limited to this configuration. It is not something.
  • the image processing server 30 may not include the display unit 36.
  • the image processing unit 31 is configured to include an image processing circuit and an image processing processor that perform processing for synthesizing an image in which the privacy of the object 2 is protected.
  • the storage unit 32 includes a large-capacity storage device such as a hard disk drive.
  • the storage unit 32 corresponds to 3D map data (background data) used to generate a background image that does not include the object 2, parameter information of the image sensor device 10, and an image area captured by the image sensor device 10.
  • Various data such as background images generated in this way are stored in a database.
  • the communication processing unit 33 includes a communication interface and a communication control unit for communication connection with the image sensor device 10 and the external image providing server 40 side via the network 60.
  • the control unit 34 includes a microcomputer including a CPU (processor), a RAM, a ROM, and the like, and stores a program for controlling the operation of each unit of the image processing server 30. These programs may be stored in an external recording medium in addition to a computer-readable internal recording medium.
  • the operation unit 35 includes input devices such as a keyboard for performing various functions of the image processing server 30, data input / output / update instructions, and the like.
  • the display unit 36 includes a display device that can display data processed by the image processing server 30.
  • the power supply unit 37 includes a power supply circuit that supplies power to each unit of the image processing server 30, a backup power supply, and the like.
  • the image providing server 40 includes a storage unit 41, a communication processing unit 42, a control unit 43, an operation unit 44, a display unit 45, and a power supply unit 46, but is not limited to this configuration.
  • the storage unit 41 is configured to include a large-capacity storage device such as a hard disk drive, and the composite image and actual image data transmitted from the image processing server 30 are stored in a database. .
  • the communication processing unit 42 includes a communication interface and a communication control unit for communicating with the user terminal 50 side and the image processing server 30 side via the network 60.
  • the control unit 43 includes a microcomputer including a CPU (processor), a RAM, a ROM, and the like, and stores a program for controlling the operation of each unit of the image providing server 40. These programs may be stored in an external recording medium in addition to a computer-readable internal recording medium.
  • the operation unit 44 includes input devices such as a keyboard for operating various functions of the image providing server 40 and performing data input / output / update instructions.
  • the display unit 45 includes a display device that can display data processed by the image providing server 40.
  • the power supply unit 46 includes a power supply circuit that supplies power to each unit of the image providing server 40, a backup power supply, and the like.
  • FIG. 4 is a functional block diagram for explaining processing executed by the image sensor device 10, the image processing server 30, and the image providing server 40.
  • the image acquisition unit 12a performs processing for acquiring an image captured by the imaging unit 11, and the target detection unit 12b detects (recognizes) the target (human) 2 including privacy information from the acquired image (real image). Perform the process.
  • the acquired image and the data of the object detection (image recognition) result are transmitted to the image processing server 30 in a state of being associated with data such as the ID (identifier) of the image sensor device 10 and the image acquisition date / time.
  • the image processing server 30 is equipped with an image processing apparatus 300.
  • the image processing apparatus 300 includes an image reception unit 33a, an image transmission unit 33b, a position detection unit 31a, a background image generation unit 31b, a composite image generation unit 31c, and a 3D map registration unit 32b. This is realized by the functions of the image processing unit 31, the storage unit 32, the communication processing unit 33, and the control unit 34 of the processing server 30.
  • the image reception unit 33a receives and acquires the image data transmitted from the image sensor device 10 (functions as an image acquisition unit), and stores it in the real image database 32a.
  • the position detection unit 31a Based on the object detection data, a process of calculating the position (coordinates or area) of the object (human) 2 on the captured image is performed.
  • the position data of the object 2 detected by the position detection unit 31a is stored in the RAM or the storage unit 32 in the control unit 34 in a state associated with data such as the ID (identifier) of the image sensor device 10 and the image acquisition date / time, for example.
  • the RAM or the storage unit 32 in the control unit 34 functions as a position data storage unit that stores the position data of the object 2.
  • the function of the target detection unit 12b may be provided in the image processing server 30.
  • a two-dimensional position calculation method, a three-dimensional position calculation method, or the like is applied to the position calculation method of the target object 2 executed by the position detection unit 31a.
  • a two-dimensional position calculation method (1) A method of extracting feature points (x, y coordinates) of a human head, which is the object 2, from a captured image, and calculating a head position (coordinates or region).
  • Position (coordinate or region) data of the object 2 detected on the image acquired by the monocular image sensor device 10 position / posture (internal / external parameter) information of the image sensor device 10, and three-dimensional map data And image recognition data such as the attributes of the detection target (human) (male or female, adult or child, etc.) and posture status (standing, sitting, bent, or lying down)
  • Position (coordinates or region) data of the object 2 detected on the image acquired by the monocular image sensor device 10 and sensor information other than the image, for example, the object (human) 2 is possessed.
  • BLE Bluetooth Low Energy
  • Wi-Fi Wireless Fidelity
  • a BLE receiver (beacon) or a Wi-Fi radio receiver is connected to the device 10).
  • the 3D map registration unit 32b performs processing for registering 3D (three-dimensional) map data of a facility or the like where the image sensor device 10 is installed in the background database (DB) 32c.
  • the 3D map data is used to generate a background image of an area corresponding to the imaging range of the image sensor device 10.
  • the external parameter registration unit 32d registers the external parameters of the image sensor device 10 in the parameter database (DB) 32f, and the internal parameter registration unit 32e performs a process of registering the internal parameters of the image sensor device 10 in the parameter DB 32f.
  • the internal parameters include the focal length, the image center, the image (pixel) size, and the distortion aberration coefficient of the image sensor device 10.
  • the external parameter includes a rotation and a translation amount indicating the position and orientation of the image sensor device 10, and is a parameter necessary for converting a three-dimensional coordinate in a certain coordinate system into a coordinate in another coordinate system.
  • the background image generation unit 31b uses the 3D map data registered in the background DB 32c, the parameters of the image sensor device 10 registered in the parameter DB 32f, and the like to correspond to the imaging range of the image sensor device 10 from the 3D map data.
  • a process for generating a background image is performed.
  • the generated background image is registered in the background image database (DB) 32g in association with the ID of the image sensor device 10, for example.
  • the composite image generation unit 31c uses the position (coordinates) data of the object read from the RAM or the storage unit 32 in the control unit 34 and the corresponding background image read from the background image DB 32g. Processing for generating a composite image by drawing a model from which the privacy information of the target object 2 is removed (not included), for example, a CG image (doll) representing the silhouette of the target object 2 at the detection position of the target object 2 I do.
  • the model of the object 2 is a display object that imitates the object 2 included in the captured image in a form that does not include privacy information, and is drawn as an alternative to the object 2 on the background image by the computer. Display object.
  • the image transmission unit 33b performs a process of transmitting the composite image data associated with data such as the ID of the image sensor device 10 and the image acquisition date and time to the image providing server 40.
  • the composite image generation unit 31c When the position detection unit 31a calculates the two-dimensional coordinates on the image of the target object 2, the composite image generation unit 31c performs a process of generating a composite image in which a model is two-dimensionally arranged on the background image.
  • the composite image generation unit 31c restores the two-dimensional coordinates on the image from the three-dimensional coordinates, and converts the two-dimensional coordinates to the restored two-dimensional coordinates. Based on this, a process for generating a composite image in which the model is two-dimensionally arranged on the background image is performed.
  • the image transmission unit 33b also performs a process of transmitting the real image stored in the real image DB 32a to the image providing server 40 when a predetermined condition is satisfied.
  • the image transmission unit 33b is connected to a management terminal device (not shown) in which application software (internal application) 38 for managing the image providing server 40 is installed. Processing for transmitting the composite image generated by the image generation unit 31c is also performed.
  • the image providing server 40 is an electronic device including a computer, and executes processing for transmitting the composite image generated by the image processing server 30 or the captured real image to the user terminal 50.
  • the image receiving unit 42a receives the composite image and real image data transmitted from the image processing server 30, and associates the data such as the ID of the image sensor device 10 and the imaging date and time with the composite image database 41a and the real image database 41b. The process of storing each is performed.
  • the image transmission unit 42b performs a process of transmitting the composite image read from the composite image DB 41a (the composite image at the location corresponding to the request) to the user terminal 50 that has requested the composite image.
  • a process of transmitting the real image read from the real image DB 41b under a predetermined condition (the real image at the location corresponding to the request) to the user terminal 50 that has requested the real image is performed.
  • the image processing server 30 or the image providing server 40 has a special image such as an abnormal situation or an emergency situation related to the target object 2. Only when it is determined that the condition is satisfied, transmission to the user terminal 50 is possible.
  • FIG. 5 is a flowchart for explaining various data registration processing performed by the image processing server 30. This process is a process necessary for generating a background image of an area corresponding to a captured image, and is executed when the image sensor device 10 is installed, for example.
  • step S1 a process of registering 3D map data as background data to generate a background image in the background DB 32c is performed.
  • 3D map data 3D background data including an appropriate background area based on the number of image sensor devices 10 installed, an imaging range, and the like is employed.
  • the 3D map data may be a CG-based 3D map as well as a live-action based 3D map.
  • data that does not include the data of the object 2 including privacy information (at least data related to privacy) is employed. You may perform the process which acquires and registers 3D map data from an external database server or a recording medium (all are not shown).
  • step S2 processing for registering internal parameters of the image sensor device 10 is performed.
  • the internal parameters include the focal length of the image sensor device 10, the image center, the distortion coefficient image, and the pixel size.
  • the internal parameter acquisition method includes a method of acquiring calibration information at the time of shipment of the image sensor device 10, a method of acquiring using an internal parameter acquisition tool (software), and a calibration mounted on the image processing server 30. A method of using a tool (software) and acquiring internal parameters using a captured image may be employed.
  • Internal parameter calibration can also be performed by obtaining a plurality of images in which calibration markers such as a chess board are copied and calculating corresponding points of the chess board on these images.
  • step S3 processing for registering external parameters of the image sensor device 10 is performed.
  • the external parameter includes information related to the position and orientation of the image sensor device 10.
  • a method of acquiring the external parameter there is a method of acquiring using an calibration tool after the image sensor device 10 is installed.
  • a general calibration method performs a process of associating a plurality of combinations of a point a whose three-dimensional position is known on a 3D map and a point a ′ where the point a is projected on an image, and is a rotation that is an external parameter.
  • the parameter R and the parallel movement amount parameter T are calculated.
  • Equation 1 represents a relational expression between an actual space (real space) and a display image in the image sensor device 10.
  • X, Y, and Z are three-dimensional coordinates in real space
  • R is a rotation parameter
  • T is a parallel displacement parameter
  • A is an internal parameter
  • x and y are projection points on the image.
  • step S4 the internal parameters and the external parameters are registered, and then these parameters are adjusted.
  • the parameter adjustment can be performed by, for example, displaying the background image generated using the 3D map data and the image (actual image) captured by the image sensor device 10 on the display unit 36.
  • fine adjustment of the parameters may be performed by a tool that executes processing for performing association on images on substantially the same viewpoint in which the corresponding points on the 3D map are aligned with the real image.
  • step S5 using the pre-registered 3D map data, internal parameters, and external parameters, a process of generating a background image in the imaging range corresponding to the image captured by the image sensor device 10 is performed, and then the process ends.
  • the generated background image is an image including a structure existing in the background and does not include the object 2 including privacy information.
  • processes such as changing the light source according to the image capture time zone, shaking the trees, etc.
  • several types of images are generated as background images that match the scene obtained in the actual image. You may make it do.
  • the generated background image is registered in the background image DB 32g in association with data such as the ID of the image sensor device 10 and image acquisition date / time, for example.
  • FIG. 6 is a flowchart for explaining a composite image generation process performed by the image processing server 30. This processing operation is executed, for example, when there is a composite image transmission request from the image providing server 40 side. Alternatively, it may be executed at regular intervals after the transmission request.
  • step S11 processing for acquiring an image from the image sensor device 10 is performed.
  • the image acquired from the image sensor device 10 may be a captured image (stored image) stored in the storage unit 13 of the image sensor device 10 in addition to an image captured in real time.
  • step S12 processing is performed to detect the target object 2 whose privacy is to be protected (disclosure is restricted) from the image acquired in step S11.
  • the target object 2 is set to a human being.
  • the target object 2 is not limited to a human being and can be a target whose privacy is to be protected.
  • the object 2 is not limited to one type, and two or more types can be set as the object.
  • the method for detecting the object (human) 2 on the image includes, for example, a method for extracting and detecting a characteristic part of a human body (head, torso, arm, leg, etc.), and an acquired continuous frame image.
  • Various image recognition methods such as a method for detecting a person based on the difference between them and a method for detecting a person based on a difference between a reference background image acquired in advance and an acquired image, may be employed.
  • step S13 a process for detecting the position of the object 2 detected in step S12 is performed.
  • the method for detecting the position of the object 2 is a method for calculating the two-dimensional position (x, y coordinate or area) on the above-described image, and the three-dimensional position (x, y, z coordinate or area) on the 3D map.
  • a calculation method may be employed.
  • step S14 using the position data of the target object 2 detected in step S13, a composite image drawn by projecting a model (doll) from which the privacy information of the target object 2 has been removed onto the background image generated in advance is drawn. Is generated, the generated composite image is stored in the storage unit 32, and then the process ends.
  • a model synthesis method in addition to the above-described method, that is, a method of projecting a model on a previously generated background image (two-dimensional synthesis method), three-dimensional position data on 3D map data.
  • a method (three-dimensional synthesis method) of arranging a model three-dimensionally based on the image and cutting out an area corresponding to the imaging area of the image sensor device 10 as an image and generating a synthesized image may be employed.
  • a three-dimensional synthesis method it is possible to generate a synthesized image that is less uncomfortable in the state in which the model is drawn.
  • FIG. 7 is a flowchart for explaining the processing operation executed in the data providing system 1 according to the embodiment (1). This processing operation is started, for example, when the external application 51 is activated on the user terminal 50.
  • the user terminal 50 performs processing for starting the external application 51 in step S21. If it is determined in step S22 that a composite image request operation has been performed, processing for transmitting a composite image request signal to the image providing server 40 is performed.
  • the composite image request signal includes an ID (identifier) of the user terminal 50, information on the requested composite image, and the like.
  • the information related to the composite image to be requested includes information such as the target facility, place, information on the image sensor device 10, imaging date / time, and the like. Such information can be appropriately input on the external application 51 or can be set in advance.
  • step S23 the image providing server 40 performs a process of receiving a composite image request signal from the user terminal 50.
  • processing for transmitting a composite image request signal to the image processing server 30 is performed based on the received composite image request signal.
  • the image processing server 30 performs a process of receiving a composite image request signal from the image providing server 40 in step S25.
  • a process of acquiring data including a captured image (actual image) from the image sensor device 10 designated as an image acquisition target is performed.
  • the acquired data includes actual image data, imaging date and time data, ID of the image sensor device 10, and the like, and these data are stored in a format associated with each other in the actual image DB 32a.
  • step S27 a process for detecting (recognizing) the object 2 from the acquired actual image is performed.
  • This process is a process corresponding to step S12 of FIG.
  • step S28 a process for detecting the position of the object 2 detected in the actual image is performed.
  • step S ⁇ b> 29 the detected position data of the object 2 is stored in the RAM or the storage unit 32 in the control unit 34.
  • the position data of the target object 2 is stored in a format associated with data related to the actual image such as the ID of the image sensor device 10 and imaging date / time data.
  • step S30 a background image corresponding to the imaging range of the actual image is read from the background image DB 32g.
  • the corresponding actual image is read from the RAM in the control unit 34 or the storage unit 32.
  • a process of reading the position data of the detected object 2 is performed, and the process proceeds to step S32.
  • step S32 using the position data of the object 2 read in step S31 and the background image read in step S30, a model of the object 2 from which the privacy information of the object 2 is removed is drawn on the background image.
  • a process for generating the synthesized image is performed. This process is a process corresponding to step S14 of FIG.
  • the generated composite image is stored in the storage unit 32.
  • the generated composite image data is stored in a format associated with the ID of the image sensor device 10 and imaging date / time data.
  • step S ⁇ b> 34 a process of transmitting the composite image data read from the storage unit 32 to the image providing server 40 is performed.
  • step S35 the image providing server 40 performs a process of receiving the composite image data transmitted from the image processing server 30, and in the next step S36, stores the received composite image data in the composite image DB 41a. I do.
  • the composite image is stored in a format associated with data such as the ID of the image sensor device 10 and the imaging date and time.
  • step S ⁇ b> 37 a process of reading the composite image data from the composite image DB 41 a and transmitting it to the user terminal 50 is performed.
  • step S38 the user terminal 50 performs processing for receiving the composite image data transmitted from the image providing server 40, and in the next step S39, the received composite image data is stored in a storage unit (not shown).
  • step S40 the composite image is displayed on the display unit.
  • step S41 data processing using the composite image is executed by the external application 51. After that, when an end operation of the external application 51 is detected in step S42, the end process is performed, and then the process ends.
  • FIG. 8 is a display example for explaining a composite image generated by the image processing server 30.
  • (a) is an image (actual image) captured by the image sensor device 10, and
  • (b) is 3D map data.
  • (C) is a composite image when an object is detected, and (d) is an image when detection of the object fails.
  • the object 2 is shown in the real image P1.
  • the object 2 is not included in the background image P2 generated based on the 3D map data.
  • the model 3 from which the privacy information is removed is synthesized with the background image P2. Since the model 3 of the target object 2 is displayed at a position on the background image P2 corresponding to the position of the target object 2 on the actual image P1, it is possible to protect the privacy of the target object 2.
  • the model 3 is drawn so as to reproduce the state of the object 2 such as the position and posture (in this case, standing), and the background image P2 corresponds to the imaging range of the actual image P1.
  • the reproducibility of the area excluding the object 2 can be improved, and information such as the positional relationship with the object existing in the background can be accurately grasped.
  • the display form of the model 3 is not particularly limited as long as the privacy information is removed so that the individual who is the object 2 is not specified.
  • the target object is more
  • the reproducibility of the position state of 2 can be improved.
  • the utility value of the composite image can be increased, and a service using the composite image by a third party can be widely developed.
  • the background image P2 corresponds to the imaging range of the real image P1, but the present invention is not limited to this display form, and in another display example, the real image P1.
  • a background image showing an area wider than the imaging range can be used. For example, a region represented by a plurality of real images is cut out from 3D map data as a background image, and a composite image in which the model 3 is drawn on the background image at the position of the object 2 detected in the plurality of real images is generated. You can also
  • the privacy of the object 2 is provided by the image processing server 30 that functions as an electronic device including a computer that executes the image recognition processing method according to this embodiment.
  • An appropriately protected composite image is generated, and the image providing server 40 can provide the composite image to the user terminal 50, and a composite image in which the privacy of the object 2 is appropriately protected can be obtained by a third party.
  • the new service using the composite image can be provided through the external application 51.
  • the position of the target object 2 is detected from the actual image acquired from the image sensor device 10, and the position data of the target object 2 is obtained.
  • the combined image in which the model 3 is drawn at the corresponding position on the background image is generated. Therefore, the target object 2 whose position is detected from the actual image is drawn on the background image as the model 3, so that a composite image not including the privacy information of the target object 2 can be generated.
  • the image processing server 30 is used when the composite image is continuously generated as compared with the method of performing mosaic processing or the like for each captured image. Processing load can be reduced.
  • the background image is used for the image to be provided, so the object 2 that has failed to be detected is not presented to the user terminal 50 and the object that has failed to be detected.
  • the privacy of the object 2 can be appropriately protected, and a complicated process for checking the privacy information of the object 2 so as not to leak out becomes unnecessary, and a simplified image recognition process can be realized.
  • FIG. 9 is a conceptual diagram for explaining the configuration of the data providing system according to the embodiment (2).
  • the image processing server 30 is configured to function as an image processing apparatus 300 including a computer that executes the image recognition processing method according to the present embodiment.
  • the image sensor device 10A functions as the image processing device 100 (FIG. 10) including the computer that executes the image recognition processing method according to the present embodiment. It is configured as follows.
  • the data providing system 1A includes the image sensor device 10A and the image providing server 40, and is a sensor system that can provide the user terminal 50 with an image in which the privacy of the object 2 including privacy information is appropriately protected. ing.
  • the image sensor device 10 ⁇ / b> A is connected to the image providing server 40 via the network 60.
  • the image providing server 40 is connected to the user terminal 50 via the network 60.
  • the number of installed image sensor devices 10A and image providing servers 40 is not particularly limited. It is sufficient that at least one data providing system 1A is equipped.
  • the hardware configuration of the image sensor device 10A is substantially the same as the configuration shown in FIG. 2, but the image processing unit 12A, the control unit 14A, and the storage unit 13A have different functions. Further, the image sensor device 10A is equipped with a function of the router 20 (FIG. 1) for connecting to the network 60. Note that the router 20 is not an essential configuration, and the image sensor device 10 ⁇ / b> A may be directly connected to the network 60.
  • the hardware configuration of the image providing server 40 is substantially the same as the configuration shown in FIG.
  • FIG. 10 is a functional block diagram for explaining processing executed by the image sensor device 10 ⁇ / b> A and the image providing server 40.
  • the image processing apparatus 100 is equipped with the image sensor apparatus 10A.
  • the image processing apparatus 100 includes an image acquisition unit 12c, a position detection unit 12d, a composite image generation unit 12e, a background image generation unit 12f, a background image registration unit 13b, an image switching unit 14a, and an image transmission unit 15a. These units are realized by the functions of the image processing unit 12A, the storage unit 13A, the control unit 14A, and the input / output I / F 15 of the image sensor device 10A.
  • the image acquisition unit 12c performs a process of acquiring an image captured by the imaging unit 11, and the position detection unit 12d detects (recognizes) the target (human) 2 including privacy information from the acquired image and is captured.
  • the process of detecting the position (coordinates or area) of the object (human) 2 on the obtained image is performed.
  • the above-described two-dimensional position calculation method and three-dimensional position calculation method are applied to the detection (image recognition) and position detection method of the object 2.
  • the position data of the object 2 detected by the position detection unit 12d is stored in the RAM or the storage unit 13A in the control unit 14A in a state associated with data such as the ID (identifier) of the image sensor device 10A and the image acquisition date and time, for example.
  • the RAM in the control unit 14A or the storage unit 13A functions as a position data storage unit in which the position data of the object 2 is stored.
  • a state in which the position (coordinates or region) data of the object 2 read from the RAM in the control unit 14A or the storage unit 13A is associated with data such as the ID (identifier) of the image sensor device 10A, the image acquisition date and time, for example. Is sent to the composite image generation unit 12e.
  • the image acquired by the image acquisition unit 12c is stored in the real image DB 13a in a state associated with data such as the ID (identifier) of the image sensor device 10A and the image acquisition date and time, for example.
  • the background image generation unit 12f performs a process of generating a background image that does not include the target object 2.
  • the background image registration unit 13b performs processing for registering the generated background image in the background image DB 13c.
  • Background image generation and registration processing includes (1) a method of registering an average image obtained by averaging a plurality of images captured by the imaging unit 11 as a background image, and (2) an object 2. A method of registering an image captured under the condition where no image exists as a background image, and (3) a method of registering a captured image as a background image or a picture-like image representing only the background by image processing or a CG image. Applied.
  • the composite image generation unit 12e uses the position (coordinates) data of the object 2 read from the RAM or the storage unit 13A in the control unit 14A and the background image read from the background image DB 13c, and uses the object on the background image.
  • the generated composite image data is stored in the storage unit 13A in a state associated with, for example, the ID of the image sensor device 10A and image acquisition date and time, and then sent to the image switching unit 14a.
  • the composite image generation unit 12e When the position detection unit 12d calculates two-dimensional coordinates on the image of the object 2, the composite image generation unit 12e performs a process of generating a composite image in which a model is two-dimensionally arranged on the background image. Further, when the position detection unit 12d detects the position of one object 2 three-dimensionally using a plurality of image sensor devices 10A, the composite image generation unit 12e displays the image on the image from the three-dimensional coordinates of the object 2. The two-dimensional coordinates are restored, and a composite image in which the model is two-dimensionally arranged on the background image is generated based on the restored two-dimensional coordinates.
  • the image switching unit 14a performs a process of switching between an image (actual image) acquired by the image acquisition unit 12c and a composite image generated by the composite image generation unit 12e as an image to be transmitted to the image providing server 40.
  • the image transmission unit 15a transmits the composite image or the actual image to the image providing server 40.
  • the image transmission unit 15a is connected to a management terminal device (not shown) in which application software (internal application) 19 for managing the image sensor device 10A is installed, and the composite image generated by the composite image generation unit 12e It is also possible to transmit images stored in the real image DB 13a.
  • the image providing server 40 is an electronic device including a computer, and executes processing for transmitting a composite image generated by the image sensor device 10 ⁇ / b> A and a captured real image to the user terminal 50.
  • the image receiving unit 42a performs processing for receiving the composite image and the real image data transmitted from the image sensor device 10A, and the received composite image and the real image data are stored in the composite image database 41a and the real image database 41b.
  • the image transmission unit 42b performs a process of transmitting the composite image read from the composite image DB 41a to the user terminal 50 that has requested the composite image. Moreover, the process which transmits the real image read from real image DB41b on the predetermined conditions to the user terminal 50 which requested
  • the real image is a special image such as an abnormal situation or an emergency situation related to the target object 2 by the image sensor device 10A or the image providing server 40. Only when it is determined that the condition is satisfied, transmission to the user terminal 50 is possible.
  • FIG. 11 is a flowchart for explaining the processing operation executed in the data providing system 1A according to the embodiment (2). This processing operation is started, for example, when the external application 51 is activated on the user terminal 50.
  • the user terminal 50 performs processing for starting the external application 51 in step S51. If it is determined in step S52 that a composite image request operation has been performed, a process of transmitting a composite image request signal to the image providing server 40 is performed.
  • the composite image request signal includes the ID (identifier) of the user terminal 50 and information about the requested composite image.
  • the information related to the requested composite image includes information on the target facility, location, information on the image sensor device 10A, imaging date / time, and the like. These pieces of information can be appropriately input by the external application 51, or may be set in advance.
  • the image providing server 40 performs processing for receiving a composite image request signal from the user terminal 50 in step S53.
  • step S54 based on the received composite image request signal, a process of transmitting the composite image request signal to the image sensor device 10A is performed.
  • step S55 the image sensor device 10A performs a process of receiving a composite image request signal from the image providing server 40.
  • processing for acquiring data including a captured image (actual image) designated as an acquisition target is performed based on the received composite image request signal.
  • the acquired data includes actual image data, imaging date / time data, ID of the image sensor device 10A, and the like, and these data are stored in a format associated with each other in the actual image DB 13a.
  • step S57 processing for detecting (recognizing) the object 2 from the acquired actual image is performed.
  • step S12 of FIG. a process for detecting the position of the object 2 detected in the actual image is performed.
  • step S13 of FIG. the detected position data of the object 2 is stored in the RAM in the control unit 14A or the storage unit 13A.
  • the position data of the target object 2 is stored in a format associated with data related to the actual image such as the ID of the image sensor device 10A and imaging date / time data.
  • step S60 the background image corresponding to the imaging range of the actual image is read from the background image DB 13c.
  • the corresponding actual image is read from the RAM in the control unit 14A or the storage unit 13A.
  • a process of reading the position data of the detected object 2 is performed, and the process proceeds to step S62.
  • step S62 using the position data of the object 2 read in step S61 and the background image read in step S60, a model of the object 2 from which the privacy information of the object 2 is removed is drawn on the background image.
  • a process for generating the synthesized image is performed. This process is the same process as step S14 of FIG.
  • the generated composite image is stored in the storage unit 13A.
  • the generated composite image data is stored in a format associated with the ID of the image sensor device 10A, imaging date / time data, and the like.
  • step S64 a process of transmitting the composite image data read from the storage unit 13A to the image providing server 40 is performed.
  • step S65 the image providing server 40 performs a process of receiving the composite image data transmitted from the image sensor device 10A, and in the next step S66, stores the received composite image data in the composite image DB 41a. I do.
  • the composite image is stored in a format associated with data such as the ID of the image sensor device 10A and the imaging date and time.
  • step S ⁇ b> 67 a process of reading the composite image data from the composite image DB 41 a and transmitting it to the user terminal 50 is performed.
  • step S68 the user terminal 50 performs processing for receiving the composite image data transmitted from the image providing server 40.
  • step S69 the received composite image data is stored in a storage unit (not shown).
  • step S70 the composite image is displayed on the display unit.
  • step S71 data processing using the composite image is executed by the external application 51. After that, when an end operation of the external application 51 is detected in step S72, the end process is performed, and then the process ends.
  • the privacy of the object 2 is provided by the image sensor device 10A functioning as an electronic device including a computer that executes the image recognition processing method according to this embodiment.
  • An appropriately protected composite image is generated, the image providing server 40 can provide the composite image to the user terminal 50, and a composite image in which the privacy of the object 2 is appropriately protected is given to a third party.
  • a new service using the composite image can be provided through the external application 51.
  • the position of the object 2 is detected from the image acquired from the image acquisition unit 12c, and the position data of the object 2 is used.
  • a composite image in which the model 3 is drawn at a corresponding position on the background image is generated. Therefore, the target object 2 whose position is detected from the actual image is drawn on the background image as the model 3, so that a composite image not including the privacy information of the target object 2 can be generated.
  • the image sensor device 10 ⁇ / b> A for continuously generating the composite image is compared with a method of performing mosaic processing or the like for each captured image. Processing load can be reduced.
  • the background image is used for the image provided to the user terminal 50, so that the target object 2 that has failed to be detected is not presented to the user terminal 50.
  • the privacy of the target object 2 that has failed to be detected can be appropriately protected, and a complicated process for checking the privacy information of the target object 2 so as not to leak out becomes unnecessary, and a simplified image recognition process can be realized. .
  • FIG. 12 is a conceptual diagram for explaining the configuration of the data providing system according to the embodiment (3).
  • the composite image generated by the image processing server 30 (the image in which the model is combined with the background image) is provided from the image providing server 40 to the user terminal 50.
  • the background image generated by the image processing server 30A is transmitted to the user terminal 50A in advance, and then the data request from the user terminal 50A is made.
  • the position data of the target object 2 is transmitted to the user terminal 50A, and the user terminal 50A uses the received position data of the target object 2 and the background image, and the model is drawn on the background image. An image is generated. That is, the user terminal 50A functions as a computer that executes the image recognition processing method according to the present embodiment.
  • the data providing system 1B includes an image sensor device 10, a router 20, an image processing server 30A, and a user terminal 50A, and is a sensor system capable of providing an image with privacy appropriately protected to the user terminal 50A. It has become.
  • the image processing server 30A is equipped with an image processing apparatus 300A (FIG. 13).
  • the image sensor device 10 is connected to the router 20, and the router 20 is connected to the image processing server 30 ⁇ / b> A via the network 60.
  • the image processing server 30A can be connected to the user terminal 50A via the network 60.
  • the router 20 is not an essential configuration, and the image sensor device 10 may be connected to the network 60.
  • the hardware configuration of the image sensor device 10 is substantially the same as the configuration shown in FIG.
  • the hardware configuration of the image processing server 30A is substantially the same as the configuration of the image processing server 30 shown in FIG. 3, but the image processing unit 31A and the control unit 34A have different functions.
  • FIG. 13 is a functional block diagram for explaining processing executed by the image sensor device 10, the image processing server 30A, and the user terminal 50A. Constituent parts having the same functions as those in the functional block diagram shown in FIG. [Image sensor device 10]
  • the image acquisition unit 12a performs a process of acquiring an image captured by the imaging unit 11, and the target detection unit 12b performs a process of detecting (recognizing) an object (human) 2 including privacy information from the acquired image. .
  • the acquired image and the data of the object detection (image recognition) result are transmitted to the image processing server 30 ⁇ / b> A in a state associated with data such as the ID (identifier) of the image sensor device 10 and the image acquisition date and time, for example.
  • the image processing server 30A is equipped with an image processing apparatus 300A.
  • the image processing apparatus 300A includes an image reception unit 33a, an image transmission unit 33b, a position detection unit 31a, a background image generation unit 31b, a position transmission unit 31d, a background image transmission unit 31e, and a 3D map registration unit 32b. These units are realized by the functions of the image processing unit 31A, the storage unit 32, the communication processing unit 33, and the control unit 34A of the image processing server 30A.
  • the image receiving unit 33a performs a process of receiving the image transmitted from the image sensor device 10, and the received image (real image) is stored in the real image DB 32a.
  • the position detection unit 31a performs processing for detecting the position of the detection target (human) 2 on the captured image.
  • the above-described two-dimensional position calculation method and three-dimensional position calculation method are applied to the position detection method of the object 2.
  • the position transmission unit 31d transmits the position data of the target object 2 calculated by the position detection unit 31a to the user terminal 50A.
  • the function of the target detection unit 12b may be provided in the image processing server 30A.
  • the background image generation unit 31b uses the 3D map data registered in the background DB 32c, the external parameters and the internal parameters registered in the parameter DB 32f, and the like corresponding to the imaging range of the image sensor device 10 from the 3D map data. Performs processing to generate an image.
  • the generated background image is registered in the background image DB 32g in association with the ID of the image sensor device 10, for example.
  • the background image transmission unit 31e reads the background image generated by the background image generation unit 31b from the background image DB 32g, A process of transmitting to the user terminal 50A together with the ID of the image sensor device 10 associated with the image is performed.
  • the user terminal 50A is an electronic device including a computer, and is configured by an information terminal device such as a general-purpose personal computer (PC), a smartphone, or a tablet terminal.
  • the user terminal 50 ⁇ / b> A includes a communication processing unit 52, a storage unit 53, a control unit 54, a display unit 55, and an operation unit 56.
  • the communication processing unit 52 has functions as a background image receiving unit 52a, a position receiving unit 52b, and an actual image receiving unit 52c, and includes a communication interface and a communication control circuit that perform transmission and reception of various data via the network 60. It is configured.
  • the storage unit 53 includes a semiconductor memory that can store various data received by the communication processing unit 52.
  • the display unit 55 includes various display panels such as a liquid crystal panel.
  • the operation unit 56 includes an input device such as a touch panel, a button switch, or a keyboard.
  • the control unit 54 has a function as a composite image generation unit 54a in addition to the function of controlling these units, and includes a microcomputer (CPU (processor), RAM, ROM).
  • the control unit 54 stores a program for executing the processing of each unit. These programs may be stored in an external recording medium such as a detachable semiconductor memory in addition to a computer-readable internal recording medium.
  • the background image receiving unit 52a performs a process of receiving the background image transmitted from the image processing server 30A.
  • the background image received when the service use is started is stored in the storage unit 53.
  • the position receiving unit 52b performs processing for receiving the position data of the object 2 transmitted from the image processing server 30A.
  • the received position data of the object 2 is stored in, for example, the RAM in the control unit 54 or the storage unit 53 in a state associated with data such as the ID (identifier) of the image sensor device 10 and the image acquisition date and time.
  • the RAM in the control unit 54 or the storage unit 53 functions as a position data storage unit.
  • the composite image generation unit 54a uses the position data of the object 2 read from the RAM or the storage unit 53 in the control unit 54 and the corresponding background image read from the storage unit 53, and uses the object 2 on the background image.
  • the model from which the privacy information of the object 2 is removed is drawn at the detection position, and a composite image is generated.
  • the generated composite image can be displayed on the display unit 55.
  • the real image receiving unit 52c performs a process of receiving the real image transmitted from the image processing server 30A, and the received real image can be displayed on the display unit 55.
  • the image processing server 30A determines that a special condition such as an abnormal situation or an emergency situation regarding the target object 2 has been established. It can be provided to the user terminal 50A only in the case where
  • FIG. 14 is a flowchart for explaining the processing operation executed in the data providing system 1B according to the embodiment (3). This processing operation is started, for example, when the external application 51 is activated on the user terminal 50A.
  • User terminal 50A performs a process of starting external application 51 in step S81. If it is determined in step S82 that a composite image request operation has been performed, a process of transmitting a composite image request signal to the image processing server 30A is performed.
  • the request signal for the composite image includes the ID (identifier) of the user terminal 50A and information regarding the requested composite image.
  • the information related to the composite image to be requested includes information such as the target facility, place, information on the image sensor device 10, imaging date / time, and the like. These pieces of information can be appropriately input by the external application 51, or may be set in advance.
  • step S83 the image processing server 30A performs a process of receiving a composite image request signal from the user terminal 50A.
  • a process of transmitting the composite image request signal to the image sensor device 10 is performed, and the process proceeds to step S85.
  • step S85 the background image data corresponding to the imaging range of the image sensor device 10 is read from the background image DB 32g and transmitted to the user terminal 50A.
  • step S86 the user terminal 50A performs a process of receiving the background image data transmitted from the image processing server 30A.
  • the received background image data is stored in the storage unit 53. I do.
  • step S88 the image sensor device 10 performs a process of receiving a composite image request signal from the image processing server 30A.
  • a process of acquiring data including a captured image (actual image) designated as an acquisition target is performed.
  • the acquired data includes actual image data, imaging date / time data, ID of the image sensor device 10, and the like, and these data are stored in the storage unit 13 in a format associated with each other.
  • step S90 processing for detecting (recognizing) the object 2 from the acquired actual image is performed, and the recognition data of the detected object 2 is stored in the storage unit 13. This process is the same process as step S12 of FIG.
  • step S91 the data including the real image and the detection (recognition) data of the target object 2 are read from the storage unit 13 and transmitted to the image processing server 30A.
  • step S92 the image processing server 30A performs processing for receiving data transmitted from the image sensor device 10, and in the next step S93, the data including the received actual image is stored in the actual image DB 32a.
  • a process of storing the detection data in the storage unit 32 is performed.
  • step S94 a process for detecting the position of the object 2 detected (recognized) in the actual image is performed. This process is the same process as step S13 of FIG.
  • step S95 the detected position data of the object 2 is stored in the RAM or the storage unit 32 in the control unit 34A.
  • the position data of the target object 2 is stored in a format associated with data related to the actual image such as the ID of the image sensor device 10 and imaging date / time data.
  • step S96 the position data of the object 2 corresponding to the actual image is read from the RAM in the control unit 34A or the storage unit 32, and transmitted to the user terminal 50A.
  • step S97 the position data of the object 2 transmitted from the image processing server 30A is received and stored in the RAM or the storage unit 53 in the control unit 54, and the process proceeds to step S98.
  • step S98 the corresponding background image data is read from the storage unit 53, and in the next step S99, the position data of the object 2 is read from the RAM in the control unit 54 or the storage unit 53.
  • a composite image in which a model of the target object 2 from which the privacy information of the target object 2 is removed is drawn on the background image is generated. Perform the process. This process is the same process as step S14 of FIG.
  • the generated composite image is stored in the storage unit 53.
  • the generated composite image data is stored in a format associated with the ID of the image sensor device 10 and imaging date / time data.
  • step S102 a process of displaying the composite image read from the storage unit 53 on the display unit is performed.
  • step S103 data processing using the composite image is executed by the external application 51.
  • step S104 the end process is performed, and then the process ends.
  • FIG. 15 shows a display example of a composite image displayed on the display unit 55 of the user terminal 50A.
  • the display unit 55 displays a composite image in which the model (doll) 3 is combined with the background image P2.
  • the composite image is displayed when the CG display button 56a is operated.
  • the user terminal 50A requests the position data of the object 2 from the image processing server 30A, the position data of the object 2 received in response to the request, the background image acquired in advance, Is used to generate a composite image and display it on the display unit 55.
  • the real image display button 56b does not function normally, but when the image processing server 30A detects the occurrence of an abnormal situation or an emergency situation related to the object 2, for example, when a certain period of time has passed while the model 3 is in a collapsed state.
  • the real image display button 56b is blinked or the like to warn the user, and the operation of the real image display button 56b can be accepted.
  • the real image display button 56b is operated, the real image received by the real image receiving unit 52c is displayed.
  • the background image and the position data of the target object 2 are separately transmitted from the image processing server 30A to the user terminal 50A and synthesized by the user terminal 50A. Since the image is generated, the composite image in which privacy is appropriately protected is provided to a third party, and the possibility of providing a new service using the composite image can be expanded. Further, the background image is transmitted and stored in advance in the user terminal 50A, and only the information necessary for drawing the model 3 such as the detected position data of the object 2 is transmitted to the user terminal 50A in real time.
  • the user terminal 50A Since the user terminal 50A generates an image obtained by combining the background image and the model 3, the user terminal 50A is compared with a configuration in which the captured image (actual image) is transmitted to the user terminal in real time. Thus, it is possible to construct a system that can greatly reduce the amount of data transferred (data transfer amount).
  • Appendix 1 An image recognition processing method for processing an image captured by at least one imaging unit with at least one processor, By the at least one processor; The background image read from the background image storage unit in which the position data of the object including the privacy information detected from the image captured by the at least one image capturing unit and the background image not including the object are stored. And a step of generating a composite image in which the model of the target object from which the privacy information of the target object is removed is drawn on the background image.
  • Appendix 2 An image recognition processing method for processing an image captured by at least one imaging unit with at least one processor, By the at least one processor; Performing a process of detecting a position of an object including privacy information from an image captured by the at least one imaging unit; Using the detected position data of the target object and the background image read from the background image storage unit in which the background image not including the target object is stored, privacy information of the target object is included in the background image. And a step of generating a composite image in which the removed model of the object is drawn.
  • a computer-readable recording medium storing an image recognition processing program for causing at least one processor to execute processing of an image captured by at least one imaging unit, The at least one processor; Reading the position data of the object from a position data storage unit in which position data of the object including privacy information detected from an image captured by the at least one image capturing unit is stored; Reading the background image from a background image storage unit in which a background image not including the object is stored; Using the read position data of the target object and the read background image to generate a composite image in which the model of the target object from which the privacy information of the target object is removed is drawn on the background image; A computer-readable recording medium on which an image recognition processing program for execution is recorded.
  • a computer-readable recording medium storing an image recognition processing program for causing at least one processor to execute processing of an image captured by at least one imaging unit, The at least one processor; Reading the position data of the object from a position data storage unit in which position data of the object including privacy information detected from an image captured by the at least one image capturing unit is stored; Reading the background image from a background image storage unit in which a background image not including the object is stored; Using the read position data of the target object and the read background image to generate a composite image in which the model of the target object from which the privacy information of the target object is removed is drawn on the background image; A computer-readable recording medium on which an image recognition processing program for execution is recorded.
  • the at least one computer includes a storage unit and at least one processor connected to the storage unit;
  • the storage unit A position data storage unit that stores position data of an object including privacy information detected from an image captured by at least one imaging unit;
  • a background image storage unit that stores a background image that does not include the object,
  • the at least one processor comprises: Transmitting the position data of the object read from the position data storage unit to the another computer; Configured to transmit the background image read from the background image storage unit to the other computer;
  • Said another computer has at least one processor;
  • the at least one processor is Using the position data of the object received from the at least one computer and the background image, a composite image is generated in which the model of the object from which the privacy information of the object is removed is drawn on the background image
  • a data provision system configured as described above.
  • the present invention can be widely used in various fields such as various electronic devices that perform processing for generating an image in consideration of privacy and a system that provides an image in consideration of privacy via a network.
  • 1, 1A, 1B Data providing system 10 10A Image sensor device 100 Image processing device 12a, 12c Image acquisition unit 12b Object detection unit 12d Position detection unit 12e Composite image generation unit 13b Background image registration unit 14a Image switching unit 15a Image transmission unit 20 Router 30, 30A Image processing server 300, 300A Image processing device 31a Position detection unit 31b Background image generation unit 31c Composite image generation unit 32b 3D map registration unit 40 Image provision server 42a Image reception unit 42b Image transmission unit 50, 50A User Terminal 60 network

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

撮像された画像から、プライバシーを保護すべき対象物の検出に失敗した場合であっても、検出に失敗した対象物が開示されることのない画像を生成することができる画像認識処理方法を提供することを目的としており、少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した背景画像とを用い、背景画像に対象物のプライバシー情報が除かれた対象物の模型が描画された合成画像を生成するステップを含む。

Description

画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器
 本発明は画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器に関し、より詳細には、プライバシーに配慮した画像認識処理を行う画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器に関する。
 近年、各種センサで検出されたデータを収集し、収集したデータを活用して新しい情報を抽出し、付加価値のあるサービスを新たに提供するセンサーデータ流通市場の開拓が検討されている。
 例えば、監視カメラを用いるカメラシステムでは、システム運用元(データ提供元)から画像データの提供を受ける第3者(データ利用先)が、提供された画像データを利用した新たなアプリケーションによるサービスを提供する検討も進められている。
 監視カメラで撮像された画像には、人や車両などが映り込み、個人を特定可能なプライバシー情報が含まれている場合が多く、そのためこのような画像データの流通を促進させる場合、プライバシー情報の保護に配慮したデータ流通の仕組みを構築する必要がある。
 従来よりカメラで撮像された画像中における特定の対象物のプライバシーを保護する技術が種々提案されている。例えば、下記の特許文献1には、撮影された画像中におけるプライバシー保護の必要な保護領域(顔領域)を検出し、撮影された画像(実画像)上の前記保護領域にぼかし処理、モザイク処理又は塗りつぶし処理等の画像処理を施した保護画像を生成して出力するシステムが開示されている。
 [発明が解決しようとする課題]
 しかしながら、特許文献1記載の技術では、前記保護領域の検出に失敗した場合、例えば、鏡や窓ガラスなどに写された保護対象を検出できなかった場合、これらの検出に失敗した保護領域に対してぼかし処理等の画像処理は行われずに、撮影された画像がそのまま出力される。そのため、出力された画像は、本来保護するべき領域(検出に失敗した保護領域)が画像処理されていない状態となっており、このような保護領域が画像処理されていない画像データを第3者に提供した場合、保護対象のプライバシーを適切に保護することができないという課題があった。
 また、このような課題を排除するために、撮影された画像全体にぼかし処理等を行う方法も考えられるが、画像全体にぼかし処理等を行った場合、背景に存在する物(構造物や展示・陳列物など)の情報も除去されるため、保護対象と背景に存在する物との関係が把握しにくくなり、第3者が画像データを活用する利点が少なくなるという課題があった。
特開2006-217161号公報
課題を解決するための手段及びその効果
 本発明は上記課題に鑑みなされたものであって、取得した画像からプライバシーを保護すべき対象物の検出に失敗した場合であっても、該検出に失敗した対象物が開示されることのない画像を生成することができる画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器を提供することを目的としている。
 上記目的を達成するために本発明に係る画像認識処理方法(1)は、少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップを含んでいることを特徴としている。
 上記画像認識処理方法(1)によれば、前記撮像された画像から検出された前記対象物の位置データと、前記背景画像とを用い、該背景画像に前記対象物の模型が描画された合成画像を生成する。したがって、前記撮像された画像から位置が検出された前記対象物は前記模型として前記背景画像に描画されるので、前記検出された対象物のプライバシー情報を含まない合成画像を生成することができる。また、前記背景画像に前記対象物の模型を描画するので、撮像された画像毎にモザイク処理等を行う方法と比較して、前記合成画像を連続的に生成する際の前記コンピュータにかかる処理負荷を削減することができる。また、前記撮像された画像から前記対象物の検出に失敗したとしても、前記背景画像を用いるため、前記合成画像には、前記検出に失敗した対象物が含まれることがなく、検出に失敗した対象物のプライバシーも適切に保護することができ、前記対象物のプライバシー情報が流出しないようにチェックするための複雑な処理が不要となり、簡素化された画像認識処理を実現できる。
 なお、前記対象物の模型とは、前記撮像された画像に存在する前記対象物を、前記プライバシー情報を含まない形態で模した表示物であり、コンピュータによって前記背景画像上に前記対象物の代替物として描画される表示物である。
 また、本発明に係る画像認識処理方法(2)は、少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、検出された前記対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを含んでいることを特徴としている。
 上記画像認識処理方法(2)によれば、上記画像認識処理方法(1)と同様の効果を得ることができるとともに、前記対象物の位置を検出する処理を行うステップと、前記合成画像を生成するステップとを連続的に実行することができ、前記コンピュータの処理効率を高めることができる。
 また本発明に係る画像認識処理方法(3)は、上記画像認識処理方法(1)又は(2)において、前記背景画像が、前記撮像された画像の撮像範囲に対応したものであることを特徴としている。
 上記画像認識処理方法(3)によれば、前記撮像された画像の撮像範囲に対応した画像を前記合成画像として生成することができ、背景の再現性を高めることができる。
 また本発明に係る画像認識処理方法(4)は、上記画像認識処理方法(1)~(3)のいずれかにおいて、前記合成画像は、前記背景画像に前記対象物の模型が、前記撮像された画像における前記対象物の位置状態が再現されるように描画されたものであることを特徴としている。
 上記画像認識処理方法(4)によれば、前記画像における前記対象物の位置状態を再現するように前記模型が描画された前記合成画像を生成することができ、前記対象物の位置や姿勢などの状態の再現性を高めることができる。
 また本発明に係る画像認識処理方法(5)は、上記画像認識処理方法(1)~(4)のいずれかにおいて、前記背景画像が、3次元背景データから生成されたものであることを特徴としている。
 上記画像認識処理方法(5)によれば、前記背景画像が、3次元背景データから生成されたものであるので、前記撮像された画像の背景部分の再現性を高めることができ、前記撮像された画像と比較しても違和感の少ない前記合成画像を生成することができる。
 また本発明に係る画像認識処理方法(6)は、上記画像認識処理方法(1)~(4)のいずれかにおいて、前記背景画像が、前記撮像された複数の画像を平均処理して得られた平均画像から生成されたものであることを特徴としている。
 上記画像認識処理方法(6)によれば、前記背景画像が、前記平均画像から生成されたものであるので、前記撮像された画像の背景が忠実に再現された背景画像を用いて前記合成画像を生成することができる。
 また本発明に係る画像認識処理方法(7)は、上記画像認識処理方法(1)~(6)のいずれかにおいて、前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データから復元された、前記撮像された画像上における2次元位置データであることを特徴としている。
 上記画像認識処理方法(7)によれば、1つの前記対象物の位置検出を複数の前記撮像部で撮像された画像を用いて3次元的に行う場合であっても、前記3次元位置データから復元された前記2次元位置データを用いることで、前記背景画像上、すなわち2次元画像上で前記対象物の模型が描画される位置精度が高い合成画像を生成することができる。
 また本発明に係る画像認識処理方法(8)は、上記画像認識処理方法(1)又は(2)において、前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データであり、前記背景画像が、3次元背景データであり、前記合成画像を生成するステップが、前記対象物の3次元位置データを用い、前記3次元背景データ上の前記対象物の3次元位置に前記模型を描画し、該模型が描画された前記3次元背景データから前記模型を含む前記撮像された画像領域を切り出した画像を前記合成画像として生成するものであることを特徴としている。
 上記画像認識処理方法(8)によれば、前記対象物の3次元位置データを用い、前記3次元背景データ上の前記対象物の3次元位置に前記模型を描画し、該模型が描画された前記3次元背景データから前記模型を含む前記撮像された画像領域を切り出した画像を前記合成画像として生成するので、前記模型の描画状態に違和感の少ない俯瞰画像を前記合成画像として生成することができる。
 また本発明に係る画像認識処理プログラム(1)は、少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、前記少なくとも1つのコンピュータに、前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴としている。
 上記画像認識処理プログラム(1)によれば、前記少なくとも1つのコンピュータに実行させることにより、上記画像認識処理方法(1)と同様の効果を得ることができる。
 また本発明に係る画像認識処理プログラム(2)は、少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、前記少なくとも1つのコンピュータに、前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、該検出した対象物の位置データを位置データ記憶部に記憶するステップと、前記位置データ記憶部から前記対象物の位置データを読み出すステップと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴としている。
 上記画像認識処理プログラム(2)によれば、前記少なくとも1つのコンピュータに実行させることにより、上記画像認識処理方法(2)と同様の効果を得ることができる。
 また本発明に係る画像認識処理プログラム(3)は、少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、上記画像認識処理方法(3)~(8)のいずれかの方法を、前記少なくとも1つのコンピュータに実行させることを特徴としている。
 上記画像認識処理プログラム(3)によれば、前記少なくとも1つのコンピュータに実行させることにより、上記画像認識処理方法(3)~(8)のいずれかと同様の効果を得ることができる。
 また本発明に係るコンピュータ読み取り可能な記録媒体(1)は、上記画像認識処理プログラム(1)~(3)のいずれかを記録したコンピュータ可読媒体であることを特徴としている。
 上記コンピュータ読み取り可能な記録媒体(1)によれば、該記録媒体に記録された上記画像認識処理プログラムをコンピュータに読み取らせて実行させることにより、上記画像認識処理プログラム(1)~(3)のいずれかと同様の効果を実現させることができる。前記記録媒体は、有形の記録媒体であればよく、内蔵式や外付け式の各種ICメモリ、ハードディスク、光ディスクなどが含まれる。
 また本発明に係るプロセッサ(1)は、上記画像認識処理プログラム(1)~(3)のいずれかを読み込み実行するものであることを特徴としている。
 上記プロセッサ(1)によれば、上記画像認識処理プログラム(1)~(3)のいずれかを読み込み実行することにより、当該プロセッサにより、上記画像認識処理プログラム(1)~(3)のいずれかと同様の効果を実現させることができる。
 また本発明に係る電子機器(1)は、上記プロセッサ(1)が搭載されていることを特徴としている。
 上記電子機器(1)によれば、上記プロセッサ(1)が搭載されているので、上記画像認識処理プログラム(1)~(3)のいずれかと同様の効果を実現させることができる。
 また本発明に係るデータ提供方法(1)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)~(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを含んでいることを特徴としている。
 上記データ提供方法(1)によれば、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)~(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するので、前記少なくとも1つのコンピュータが、前記合成画像を前記別のコンピュータに提供することができ、プライバシーが適切に保護された前記合成画像を第3者に提供することで、該合成画像を用いた新たなサービス提供の可能性を広げることができる。
 また本発明に係るデータ提供方法(2)は、上記データ提供方法(1)において、前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに含んでいることを特徴としている。
 上記データ提供方法(2)によれば、前記所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信することができ、前記所定の条件下で前記撮像された画像も活用することができる。
 また本発明に係るデータ提供方法(3)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)~(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを含んでいることを特徴としている。
 上記データ提供方法(3)によれば、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)~(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するので、プライバシーが適切に保護された前記合成画像を前記表示部に表示させて第3者に提示することができ、該合成画像を用いた新たなサービス提供の可能性を広げることができる。
 また本発明に係るデータ提供方法(4)は、上記データ提供方法(3)において、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに含んでいることを特徴としている。
 上記データ提供方法(4)によれば、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示させることができ、状況に応じて前記合成画像と前記撮像された画像と切り替えることができるサービスを提供することができ、該サービスの付加価値を高めることができる。
 また本発明に係るデータ提供システム(1)は、少なくとも1つのコンピュータがネットワークを介して別のコンピュータにデータを提供するデータ提供システムであって、前記少なくとも1つのコンピュータが、少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データを前記別のコンピュータに送信する位置データ送信部と、前記対象物が含まれていない背景画像を前記別のコンピュータに送信する背景画像送信部とを備え、前記別のコンピュータに、前記対象物の位置データと前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成させることを特徴としている。
 上記データ提供システム(1)によれば、前記少なくとも1つのコンピュータから前記別のコンピュータに前記背景画像と、前記対象物の位置データとを送信し、前記別のコンピュータで前記合成画像を生成させるので、プライバシーが適切に保護された前記合成画像を前記別のコンピュータを使用する第3者に提供し、該合成画像を用いた新たなサービス提供の可能性を広げることができる。また、前記別のコンピュータに前記背景画像を送信した後、前記対象物の位置データのみを適宜送信することが可能となるので、前記撮像された画像をリアルタイムで前記別のコンピュータに送信するような構成と比較して、前記別のコンピュータに送信するデータ容量(データ転送量)を大幅に削減することができる。
 また本発明に係るデータ提供プログラム(1)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、前記少なくとも1つのコンピュータに、上記画像認識処理プログラム(1)~(3)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを実行させることを特徴としている。
 上記データ提供プログラム(1)によれば、前記少なくとも1つのコンピュータに、前記合成画像を前記別のコンピュータに提供させることができ、プライバシーが適切に保護された前記合成画像を第3者に提供することで、該合成画像を用いた新たなサービス提供の可能性を広げることができる。
 また本発明に係るデータ提供プログラム(2)は、上記データ提供プログラム(1)において、前記少なくとも1つのコンピュータに、前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに実行させることを特徴としている。
 上記データ提供プログラム(2)によれば、前記所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信させることができ、前記別のコンピュータにおいて前記所定の条件下で前記撮像された画像も活用させることができる。
 また本発明に係るデータ提供プログラム(3)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、前記少なくとも1つのコンピュータに、上記画像認識処理プログラム(1)~(3)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを実行させることを特徴としている。
 上記データ提供プログラム(3)によれば、前記少なくとも1つのコンピュータに、前記合成画像を生成するステップで生成された前記合成画像を表示部に表示させることにより、プライバシーが適切に保護された前記合成画像を前記表示部に表示させて第3者に提示することができ、新たなサービス提供の可能性を広げることができる。
 また本発明に係るデータ提供プログラム(4)は、上記データ提供プログラム(3)において、前記少なくとも1つのコンピュータに、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに実行させることを特徴としている。
 上記データ提供プログラム(4)によれば、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示させることができ、状況に応じて前記合成画像と前記撮像された画像と切り替えることができるサービスを提供することができ、該サービスの付加価値を高めることができる。
 また本発明に係るコンピュータ読み取り可能な記録媒体(2)は、上記データ提供プログラム(1)~(4)のいずれかを記録したコンピュータ可読媒体であることを特徴としている。
 上記コンピュータ読み取り可能な記録媒体(2)によれば、該記録媒体に記録された上記データ提供プログラムをコンピュータに読み取らせて実行させることにより、上記データ提供プログラム(1)~(4)のいずれかと同様の効果を実現させることができる。前記記録媒体は、有形の記録媒体であればよく、内蔵式や外付け式の各種ICメモリやハードディスク、光ディスクなどが含まれる。
 また本発明に係るプロセッサ(2)は、上記データ提供プログラム(1)~(4)のいずれかを読み込み実行することを特徴としている。
 上記プロセッサ(2)によれば、上記データ提供プログラム(1)~(4)のいずれかを読み込み実行することにより、当該プロセッサにより、データ提供プログラム(1)~(4)のいずれかと同様の効果を実現させることができる。
 また本発明に係る電子機器(2)は、上記プロセッサ(2)が搭載されていることを特徴としている。
 上記電子機器(2)によれば、上記プロセッサ(2)が搭載されているので、上記データ提供プログラム(1)~(4)のいずれかと同様の効果を実現させることができる。
本発明の実施の形態(1)に係るデータ提供システムの構成を説明するための概念図である。 画像センサ装置のハードウェア構成を概略的に示すブロック図である。 画像処理サーバ及び画像提供サーバのハードウェア構成を概略的に示すブロック図である。 画像センサ装置、画像処理サーバ及び画像提供サーバが実行する処理を説明するための機能ブロック図である。 画像処理サーバが行う各種データの登録処理を説明するためのフローチャートである。 画像処理サーバが行う合成画像生成処理を説明するためのフローチャートである。 実施の形態(1)に係るデータ提供システムで実行される処理動作を説明するためのフローチャートである。 合成画像を説明するための表示例であり、(a)は撮像された画像、(b)は3D地図データから生成した背景画像、(c)は対象物の検出に成功した場合の合成画像、(d)は対象物の検出に失敗した場合の画像である。 実施の形態(2)に係るデータ提供システムの構成を説明するための概念図である。 画像センサ装置及び画像提供サーバが実行する処理を説明するための機能ブロック図である。 実施の形態(2)に係るデータ提供システムで実行される処理動作を説明するためのフローチャートである。 実施の形態(3)に係るデータ提供システムの構成を説明するための概念図である。 画像センサ装置、画像処理サーバ及び利用者端末が実行する処理を説明するための機能ブロック図である。 実施の形態(3)に係るデータ提供システムで実行される処理動作を説明するためのフローチャートである。 利用者端末の表示部に表示された合成画像の表示例を示した図である。
 以下、本発明に係る画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器の実施の形態を図面に基づいて説明する。図1は、実施の形態(1)に係るデータ提供システムの構成を説明するための概念図である。
 データ提供システム1は、画像センサ装置10、ルーター20、画像処理サーバ30及び画像提供サーバ40を含んで構成され、プライバシー情報を含む対象物2のプライバシーが保護された画像を利用者端末50に提供可能なシステムとなっている。実施の形態(1)では、画像処理サーバ30が、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた画像処理装置300(図4)として機能する。
 本実施の形態では、プライバシーを保護する対象物2が人間である場合について説明するが、対象物2は人間に限定されるものではない。例えば、個人を特定し得る情報を示すもの、車や自転車など人間が操作や所持しているものも対象物として設定することができる。なお、本明細書においてプライバシー情報とは対象物2が人間である場合は、その人間を特定し得る情報であり、対象物2が車や自転車の場合は所有者を特定し得る情報である。
 画像センサ装置10は、画像を撮像するカメラ装置として機能するものである。画像センサ装置10で撮像される画像(実画像)は、動画像の他、静止画像でもよく、また、カラー画像の他、グレー画像等であってもよい。
 ルーター20は、画像センサ装置10と画像処理サーバ30との間に設けられた通信接続機器である。ルーター20は、制御部、記憶部、ネットワーク用インターフェース、機器接続用インターフェース、電源部等(いずれも図示せず)を備え、IPアドレスに従ってデータを転送するネットワーク経路(送信先)を選択する機能を備えている。画像センサ装置10とルーター20との接続は、有線接続の他、無線接続であってもよい。なお、ルーター20は必須の構成ではなく、画像センサ装置10を直接ネットワーク60に接続する構成としてもよい。
 画像処理サーバ30は、コンピュータを備えた電子機器であり、画像提供サーバ40側から要求があった場合や一定時間毎などの所定のタイミングで、対象物2のプライバシーが保護された合成画像を生成し、ネットワーク(通信網)60を介して画像提供サーバ40にアップロード(転送)する機能を備えている。ネットワーク60には、インターネット、VPNネットワーク、専用回線、これらを組み合わせた通信回線などが適用され、有線系及び無線系のネットワークが含まれる。画像処理サーバ30及び画像提供サーバ40の設置個数は特に限定されない。データ提供システム1に少なくとも1つ以上装備されていればよい。
 画像センサ装置10の設置場所や設置個数は特に限定されない。画像センサ装置10は、例えば、店舗、商業施設、商店街、地下街、事業施設、屋外又は車両等の移動体など(以下、施設等と記す)に設置され、例えば、施設等の監視カメラとして機能する。また、画像処理サーバ30は、画像センサ装置10が設置された(画像センサ装置10を管理する)施設等毎に内部(施設内ネットワークの)サーバとして設けることができる。なお、別の実施の形態では、ルーター20内に画像処理サーバ30の機能を装備させたシステム構成とすることもできる。
 画像提供サーバ40は、コンピュータを備えた電子機器であり、例えば、利用者端末50からの要求に基づいて、画像処理サーバ30からアップロードされた画像データをネットワーク60を介して利用者端末50に提供する機能を備えている。画像センサ装置10、画像処理サーバ30、画像提供サーバ40、及び利用者端末50には、ネットワーク60を介して相互に連携して画像データを処理して提供するための画像認識処理やデータ提供用のプログラムが組み込まれている。相互に連携可能なサービスプラットフォームが構築されることによりシステムの運用が効率良く行われるようになっている。
 利用者端末50は、コンピュータを備えた電子機器であり、汎用のパーソナルコンピュータ(PC)、スマートフォン、タブレット端末などの情報端末装置で構成されている。利用者端末50は、画像センサ装置10を管理する施設等の運用者とは異なる第3者が使用するものである。画像提供サーバ40と利用者端末50には、相互に連携するアプリケーションソフトウェア(外部アプリ)51(図4参照)がダウンロード等により組み込まれている。外部アプリ51は、画像提供サーバ40から提供された画像データを第3者が利用可能なサービスを提供するためのソフトウェアである。
 外部アプリ51を通じて第3者に提供可能なサービスには、画像提供サーバ40から提供される合成画像等のデータから得られる情報、例えば、対象物2の位置や姿勢などの位置状態、背景にある物(構造物や配置物)との位置関係などの情報を利用するサービスが挙げられる。より具体的には、異常や異変を検知する各種警備サービス、電力予測や交通予測などの各種予測サービス、販売促進・顧客開拓・商品配置・人材配置などの各種マーケティングサービスなどが含まれる。また、画像提供サーバ40は、外部アプリ51の種類などに応じて複数設けることができる。
 図2は、画像センサ装置10のハードウェア構成を概略的に示すブロック図である。画像センサ装置10は、撮像部11、画像処理部12、記憶部13、制御部14、入出力インターフェース(I/F)15、操作部16、時計部17、及び電源部18を含んで構成されている。画像センサ装置10には、これら各部が一つの筐体内に装備された一体式のものだけでなく、撮像部11を含むカメラ部分と、制御部14等を含むコントローラ部分が別体で構成されたものも含まれる。
 撮像部11は、レンズ系、CCDやCMOSなどの撮像素子、及び駆動回路を含んで構成されている。画像処理部12は、各種の画像処理回路や画像処理プロセッサを含んで構成され、各種の画像補正処理や画像認識処理などを行う。画像認識処理には、対象物2の特徴抽出処理、識別処理、統計計算処理、位置姿勢・属性などの推定判断処理などが含まれる。対象物2が人間である場合は、人間の識別、頭部等の身体的特徴点の抽出、姿勢、属性(男性又は女性、大人又は子供など)などを推定判断する処理機能が含まれていることが好ましい。
 制御部14は、CPU(プロセッサ)、RAM、ROMなどを含むマイクロコンピュータを含んで構成され、画像センサ装置10の各部の動作制御を行うためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体に格納してもよい。記憶部13は、撮像された画像データなどを一時記憶可能な半導体メモリなどで構成されている。
 入出力I/F15は、ルーター20などの外部機器と接続するための各種インターフェースで構成されている。操作部16は、画像センサ装置10の各種機能を作動させるための操作ボタンや操作パネル等を含んで構成されている。時計部17は、画像が撮像された時間を記録する時計回路を含んで構成されている。電源部18は、画像センサ装置10の各部に電源を供給する電源回路やバッテリを含んで構成されている。
 図3は、画像処理サーバ30と画像提供サーバ40のハードウェア構成を概略的に示すブロック図である。画像処理サーバ30は、画像処理部31、記憶部32、通信処理部33、制御部34、操作部35、表示部36、及び電源部37を含んで構成されているが、この構成に限定されるものではない。画像処理サーバ30は、表示部36を含んでいなくても良い。
 画像処理部31は、対象物2のプライバシーを保護した画像を合成する処理等を行う画像処理回路や画像処理プロセッサを含んで構成されている。記憶部32は、ハードディスクドライブなどの大容量の記憶装置を含んで構成されている。記憶部32には、対象物2を含んでいない背景画像を生成するために用いる3D地図データ(背景データ)、画像センサ装置10のパラメータ情報、画像センサ装置10で撮像された画像領域に対応させて生成された背景画像などの各種データがデータベース化されて記憶されるようになっている。
 通信処理部33は、ネットワーク60を介して画像センサ装置10や外部の画像提供サーバ40側と通信接続するための通信インターフェースや通信制御部を含んで構成されている。制御部34は、CPU(プロセッサ)、RAM、ROMなどを含むマイクロコンピュータを含んで構成され、画像処理サーバ30の各部の動作制御を行うためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体に格納してもよい。
 操作部35は、画像処理サーバ30の各種機能の作動、データ入出力・更新指示等を行うためのキーボード等の入力機器を含んで構成されている。表示部36は、画像処理サーバ30で処理されたデータ等を表示可能な表示装置を含んで構成されている。電源部37は、画像処理サーバ30の各部に電源供給を行う電源回路やバックアップ電源などを含んで構成されている。
 画像提供サーバ40は、記憶部41、通信処理部42、制御部43、操作部44、表示部45、及び電源部46を含んで構成されているが、この構成に限定されるものではない。
 記憶部41は、ハードディスクドライブなどの大容量の記憶装置を含んで構成され、画像処理サーバ30から送信されてきた合成画像や実画像のデータなどがデータベース化されて記憶されるようになっている。
 通信処理部42は、ネットワーク60を介して利用者端末50側や画像処理サーバ30側と通信するための通信インターフェースや通信制御部を含んで構成されている。制御部43は、CPU(プロセッサ)、RAM、ROMなどを含むマイクロコンピュータを含んで構成され、画像提供サーバ40の各部の動作制御を行うためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体に格納してもよい。
 操作部44は、画像提供サーバ40の各種機能の作動、データ入出力・更新指示等を行うためのキーボード等の入力機器を含んで構成されている。表示部45は、画像提供サーバ40で処理されたデータ等を表示可能な表示装置を含んで構成されている。電源部46は、画像提供サーバ40の各部に電源供給を行う電源回路やバックアップ電源などを含んで構成されている。
 図4は、画像センサ装置10、画像処理サーバ30及び画像提供サーバ40が実行する処理を説明するための機能ブロック図である。
 [画像センサ装置10]
 画像取得部12aが、撮像部11で撮像された画像を取得する処理を行い、対象検出部12bが、取得した画像(実画像)からプライバシー情報を含む対象物(人間)2を検出(認識)する処理を行う。取得した画像と対象物検出(画像認識)結果のデータが、例えば、画像センサ装置10のID(識別子)及び画像取得日時等のデータと関連付けた状態で画像処理サーバ30に送信される。
 [画像処理サーバ30]
 画像処理サーバ30に画像処理装置300が装備されている。画像処理装置300は、画像受信部33a、画像送信部33b、位置検出部31a、背景画像生成部31b、合成画像生成部31c、及び3D地図登録部32bを含んで構成され、これら各部は、画像処理サーバ30の画像処理部31、記憶部32、通信処理部33、及び制御部34の機能により実現される。
 画像受信部33aが、画像センサ装置10から送信されてきた画像データを受信して取得し(画像取得部として機能し)、実画像データベース32aに記憶する処理を行う一方、位置検出部31aが、対象物検出のデータに基づいて、撮像された画像上における対象物(人間)2の位置(座標又は領域)を算出する処理を行う。位置検出部31aで検出された対象物2の位置データは、例えば、画像センサ装置10のID(識別子)、画像取得日時等のデータと関連付けた状態で制御部34内のRAM又は記憶部32に記憶される。制御部34内のRAM又は記憶部32が、対象物2の位置データを記憶する位置データ記憶部として機能する。なお、対象検出部12bの機能を画像処理サーバ30に設ける構成としてもよい。
 位置検出部31aで実行される対象物2の位置算出方法には、2次元位置算出方法や3次元位置算出方法などが適用される。
 2次元位置算出方法としては、
(1)撮像された画像上から対象物2である人間の頭部の特徴点(x、y座標)を抽出し、頭部位置(座標又は領域)を算出する方法、
(2)撮像された画像上から対象物2である人間の頭部、胴体部、腕部、脚部等の身体的特徴点(x、y座標)を抽出し、人位置(座標又は領域)を算出する方法、
(3)事前取得した画像(比較用背景画像)と撮像された画像とを比較して、対象物2である人間が存在する前景領域(x、y座標又は領域)を抽出する背景差分処理を行い、人位置を算出する方法などが適用され得る。
 3次元位置算出方法としては、
 (1)単眼の画像センサ装置10で取得した画像上で検出された対象物2の位置(座標又は領域)データ、画像センサ装置10の位置・姿勢(内部・外部パラメータ)情報、3次元地図データ、及び検出対象物(人間)の属性(男性又は女性、大人又は子供など)や姿勢状態(立った状態、座った状態、屈んだ状態、又は倒れている状態)等の画像認識データを利用して3次元位置座標を算出する方法、
 (2)単眼の画像センサ装置10で取得した画像上で検出された対象物2の位置(座標又は領域)データと、画像以外のセンサ情報、例えば、対象物(人間)2が所持しているスマートフォンなどの携帯端末が発する電波強度(Bluetooth Low Energy(BLE)、Wi-Fi)データ(屋内外での位置測位データ)とを利用して3次元位置座標を算出する方法(この場合、画像センサ装置10にBLE受信機(ビーコン)やWi-Fi電波の受信機が接続されている。)、
 (3)複数の画像センサ装置10で同じ領域を撮像している場合、複数の画像センサ装置10からの視線(エピポーラ線)が空間中の1点に交わるエピポーラ条件(カメラ姿勢に基づく基礎行列を用いて対応点の拘束ラインを決定する、2枚の画像間に存在する幾何学的関係を示す条件)、及び3次元地図データを用いて、エピポーラ線の交点を対象物2の3次元位置として算出する方法(特に対象物が複数存在する場合には、エピポーラ条件などの3次元幾何学上の制約と、時系列的な制約とを組み合わせることで、より正確な位置推定を行うことが可能となっている。)、
 (4)画像センサ装置10、3次元地図データ、及び各種センサ(磁気センサ、電子コンパス、加速度センサ、ジャイロセンサ、位置測位センサなど)を組み合わせて、これらセンサ情報に基づいて対象物2の3次元位置座標を算出する方法などが適用される。
 また、3D地図登録部32bが、画像センサ装置10が設置されている施設等の3D(3次元)地図データを背景データベース(DB)32cに登録する処理を行う。3D地図データは、画像センサ装置10の撮像範囲に対応する領域の背景画像を生成するために用いられる。
 外部パラメータ登録部32dが、画像センサ装置10の外部パラメータをパラメータデータベース(DB)32fに登録し、内部パラメータ登録部32eが、画像センサ装置10の内部パラメータをパラメータDB32fに登録する処理を行う。内部パラメータは、画像センサ装置10の焦点距離、画像中心、画像(画素)サイズ、歪収差係数を含む。外部パラメータは、画像センサ装置10の位置や姿勢を示す回転、平行移動量を含み、ある座標系における3次元座標を別の座標系での座標に変換するために必要となるパラメータである。
 背景画像生成部31bが、背景DB32cに登録されている3D地図データ、パラメータDB32fに登録されている画像センサ装置10のパラメータ等を用いて、3D地図データから画像センサ装置10の撮像範囲に対応する背景画像を生成する処理を行う。生成された背景画像は、例えば、画像センサ装置10のIDと関連付けて背景画像データベース(DB)32gに登録される。
 合成画像生成部31cが、制御部34内のRAM又は記憶部32から読み出した対象物の位置(座標)データと、背景画像DB32gから読み出した、対応する背景画像とを用い、該背景画像上における対象物2の検出位置に、対象物2のプライバシー情報が除去された(含まれていない)模型、例えば対象物2のシルエットを表したCG画像(人形)を描画して合成画像を生成する処理を行う。なお、対象物2の模型とは、撮像された画像に含まれる対象物2を、プライバシー情報を含まない形態で模した表示物であり、コンピュータによって背景画像上に対象物2の代替物として描画される表示物である。
 画像送信部33bが、画像センサ装置10のIDや画像取得日時等のデータと関連付けられた合成画像データを画像提供サーバ40に送信する処理を行う。
 なお、位置検出部31aが対象物2の画像上の2次元座標を算出する場合、合成画像生成部31cは、背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
 また、位置検出部31aが対象物2の3D地図上の3次元座標を算出する場合、合成画像生成部31cは、3次元座標から画像上の2次元座標を復元し、復元した2次元座標に基づいて背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
 また、画像送信部33bは、所定の条件成立時に実画像DB32aに記憶されている実画像を画像提供サーバ40に送信する処理も行う。また、画像送信部33bは、画像提供サーバ40を管理するためのアプリケーションソフトウェア(内部アプリ)38が組み込まれた管理端末装置(図示せず)に、実画像DB32aに記憶されている実画像や合成画像生成部31cで生成された合成画像を送信する処理も行うようになっている。
 [画像提供サーバ40]
 画像提供サーバ40は、コンピュータを備えた電子機器であり、画像処理サーバ30で生成された合成画像や撮像された実画像を利用者端末50に送信する処理などを実行する。
 画像受信部42aが、画像処理サーバ30から送信されてきた合成画像や実画像のデータを受信し、画像センサ装置10のIDや撮像日時等のデータと関連付けて合成画像データベース41a、実画像データベース41bにそれぞれ記憶する処理を行う。
 画像送信部42bが、合成画像を要求してきた利用者端末50に、合成画像DB41aから読み出した合成画像(前記要求に対応した場所の合成画像)を送信する処理を行う。また、実画像を要求してきた利用者端末50に、所定の条件下で実画像DB41bから読み出した実画像(前記要求に対応した場所の実画像)を送信する処理を行う。なお、実画像には対象物2のプライバシー情報が含まれている場合があるため、実画像は、画像処理サーバ30又は画像提供サーバ40が、対象物2に関する異常事態や緊急事態などの特別な条件が成立したと判断した場合にのみ利用者端末50に送信可能となっている。
 図5は、画像処理サーバ30が行う各種データの登録処理を説明するためのフローチャートである。本処理は、撮像された画像に対応する領域の背景画像を生成するために必要な処理であり、例えば、画像センサ装置10を設置する際に実行される。
 ステップS1では、背景画像を生成する元となる背景データとしての3D地図データを背景DB32cに登録する処理を行う。3D地図データには、設置される画像センサ装置10の個数及び撮像範囲等に基づいて適切な背景領域が含まれる3次元背景データが採用される。3D地図データは、実写ベースの3D地図の他、CGベースの3D地図でもよい。3D地図データには、プライバシー情報を含む対象物2のデータ(少なくともプライバシーに関わる部分のデータ)が含まれていないデータが採用される。外部のデータベースサーバや記録媒体(いずれも図示せず)などから3D地図データを取得して登録する処理を行ってもよい。
 ステップS2では、画像センサ装置10の内部パラメータを登録する処理を行う。内部パラメータには、画像センサ装置10の焦点距離、画像中心、歪収差係数画像、画素サイズが含まれる。内部パラメータの取得方法は、画像センサ装置10の出荷時のキャリブレーション情報を取得する方法、内部パラメータの取得用ツール(ソフトウェア)を使用して取得する方法、画像処理サーバ30に搭載されたキャリブレーションツール(ソフトウェア)を使用し、撮像した画像を用いて内部パラメータを取得する方法などが採用され得る。内部パラメータのキャリブレーション(校正)は、チェスボード等のキャリブレーション用マーカを写した画像を複数枚取得し、これら画像上のチェスボードの対応点を計算することにより行うこともできる。
 ステップS3では、画像センサ装置10の外部パラメータを登録する処理を行う。外部パラメータは、画像センサ装置10の位置姿勢に関する情報を含んでいる。外部パラメータの取得方法は、画像センサ装置10の設置後にキャリブレーションツールを使用して取得する方法がある。一般的なキャリブレーション方法は、3D地図上における3次元位置が既知の点aと、点aが画像上に投影された点a’との組み合わせを複数点対応付ける処理を行い、外部パラメータである回転パラメータR、平行移動量パラメータTを計算する。
 下記の数式1は、画像センサ装置10における実際の空間(実空間)と表示画像との関係式を表している。X、Y、Zは実空間における3次元座標、Rが回転パラメータ、Tが平行移動量パラメータ、Aが内部パラメータ、x、yが画像上における投影点を示している。
Figure JPOXMLDOC01-appb-M000001
 
 ステップS4では、内部パラメータと外部パラメータとを登録した後、これらパラメータの調整処理を行う。パラメータの調整は、例えば、3D地図データを用いて生成された背景画像と、画像センサ装置10で撮像された画像(実画像)とを表示部36に表示させて行うことができる。3D地図データの精度や外部パラメータのキャリブレーション精度によっては、背景画像と実画像とに位置ずれが生じている場合がある。このような場合、実画像と3D地図上の対応点を並べたほぼ同一視点上の画像上で対応付けを行う処理を実行するツールによりパラメータの微調整を行うようにしてもよい。
 ステップS5では、事前登録された3D地図データ、内部パラメータ、外部パラメータを用いて、画像センサ装置10で撮像される画像に対応する撮像範囲の背景画像を生成する処理を行い、その後処理を終える。生成される背景画像は、背景に存在する構造物などを含む画像であり、プライバシー情報を含む対象物2は含まれていない。また、画像の撮像時間帯等に応じて光源を変更したり、木々を揺らしたりする等の処理を背景画像に反映させて、実画像で得られる情景に合わせた数種類の画像を背景画像として生成するようにしてもよい。生成された背景画像は、例えば、画像センサ装置10のID、画像取得日時等のデータと関連付けて背景画像DB32gに登録される。
 図6は、画像処理サーバ30が行う合成画像生成処理を説明するためのフローチャートである。本処理動作は、例えば、画像提供サーバ40側から合成画像の送信要求があった場合に実行される。または、該送信要求後の一定時間毎に実行するようにしてもよい。
 まずステップS11では、画像センサ装置10から画像を取得する処理を行う。画像センサ装置10から取得する画像は、リアルタイムで撮像された画像の他、画像センサ装置10の記憶部13に保存された撮像済みの画像(保存画像)であってもよい。
 ステップS12では、ステップS11で取得した画像からプライバシーを保護(開示を制限)するべき対象物2を検出する処理を行う。本実施の形態では、対象物2が人間に設定されている場合について説明しているが、対象物2は人間に限定されるものではなく、プライバシーを保護すべきものを対象とすることができる。また、対象物2は1種類に限定されるものではなく、2種類以上のものを対象物として設定することもできる。
 画像上の対象物(人間)2を検出する方法は、例えば、人間の体(頭部、胴体部、腕部、脚部など)の特徴部を抽出して検出する方法、取得した連続フレーム画像の差分に基づいて人間を検出する方法、事前取得した基準背景画像と取得画像との差分に基づいて人間を検出する方法など、各種の画像認識方法が採用され得る。
 ステップS13では、ステップS12で検出された対象物2の位置を検出する処理を行う。対象物2の位置を検出する方法は、上記した画像上の2次元位置(x、y座標又は領域)を算出する方法、3D地図上の3次元位置(x、y、z座標又は領域)を算出する方法が採用され得る。
 ステップS14では、ステップS13で検出された対象物2の位置データを用いて、事前に生成された背景画像に対象物2のプライバシー情報が除かれた模型(人形)を投影して描画した合成画像を生成する処理を行い、生成した合成画像を記憶部32に記憶した後、処理を終える。
 模型の合成方法としては、上記した方法、すなわち、事前に生成された背景画像上に模型を投影して合成する方法(2次元的な合成方法)の他、3D地図データ上に3次元位置データに基づいて模型を3次元的に配置し、画像センサ装置10の撮像領域に対応する領域を画像として切り出して合成画像を生成する方法(3次元的な合成方法)が採用され得る。3次元的な合成方法を採用した場合は、模型が描画された状態に違和感の少ない合成画像を生成することが可能となる。
 図7は、実施の形態(1)に係るデータ提供システム1で実行される処理動作を説明するためのフローチャートである。本処理動作は、例えば、利用者端末50で外部アプリ51が起動された場合に開始される。
 利用者端末50が、ステップS21において、外部アプリ51を起動する処理を行う。ステップS22において、合成画像の要求操作があったと判断した場合に、合成画像の要求信号を画像提供サーバ40に送信する処理を行う。合成画像の要求信号には、利用者端末50のID(識別子)、要求する合成画像に関する情報などが含まれる。要求する合成画像に関する情報には、対象とする施設、場所、画像センサ装置10の情報、撮像日時・期間などの情報が含まれる。これら情報は、外部アプリ51上で適宜入力できる他、予め設定できるようにしてもよい。
 次に、画像提供サーバ40が、ステップS23において、利用者端末50から合成画像の要求信号を受信する処理を行う。次のステップS24では、受信した合成画像の要求信号に基づいて、画像処理サーバ30に合成画像の要求信号を送信する処理を行う。
 次に、画像処理サーバ30が、ステップS25において、画像提供サーバ40から合成画像の要求信号を受信する処理を行う。次のステップS26では、受信した合成画像の要求信号に基づいて、画像取得対象として指定された画像センサ装置10から撮像画像(実画像)を含むデータを取得する処理を行う。取得したデータには、実画像データ、撮像日時データ、画像センサ装置10のIDなどが含まれ、これらデータが実画像DB32aに互いに関連付けた形式で記憶される。
 次にステップS27では、取得した実画像から対象物2を検出(認識)する処理を行う。本処理は、先に説明した、図6のステップS12に対応する処理である。次のステップS28では、実画像中で検出された対象物2の位置を検出する処理を行う。本処理は、先に説明した、図6のステップS13に対応する処理である。続くステップS29では、検出された対象物2の位置データを制御部34内のRAM又は記憶部32に記憶する。対象物2の位置データは、画像センサ装置10のIDや撮像日時データなどの実画像に関するデータと関連付けた形式で記憶される。
 次にステップS30では、背景画像DB32gから、実画像の撮像範囲に対応する背景画像を読み出す処理を行い、次のステップS31では、制御部34内のRAM又は記憶部32から、対応する実画像で検出された対象物2の位置データを読み出す処理を行い、ステップS32に進む。
 ステップS32では、ステップS31で読み出した対象物2の位置データと、ステップS30で読み出した背景画像とを用い、該背景画像に対象物2のプライバシー情報が除かれた対象物2の模型が描画された合成画像を生成する処理を行う。本処理は、先に説明した、図6のステップS14に対応する処理である。続くステップS33では、生成された合成画像を記憶部32に記憶する。生成された合成画像のデータは、画像センサ装置10のIDや撮像日時データなどと関連付けた形式で記憶される。次にステップS34では、記憶部32から読み出した合成画像のデータを画像提供サーバ40に送信する処理を行う。
 画像提供サーバ40では、ステップS35において、画像処理サーバ30から送信されてきた合成画像のデータを受信する処理を行い、次のステップS36で、受信した合成画像のデータを合成画像DB41aに記憶する処理を行う。合成画像は、画像センサ装置10のIDや撮像日時等のデータと関連付けた形式で記憶される。次のステップS37では、合成画像DB41aから合成画像のデータを読み出して利用者端末50に送信する処理を行う。
 利用者端末50では、ステップS38において、画像提供サーバ40から送信されてきた合成画像のデータを受信する処理を行い、次のステップS39において、受信した合成画像のデータを記憶部(図示せず)に記憶する処理を行い、続くステップS40において、合成画像を表示部に表示する処理を行う。その後、ステップS41において、外部アプリ51で合成画像を用いたデータ処理が実行され、その後、ステップS42において、外部アプリ51の終了操作を検出すると終了処理を行い、その後、処理を終える。
 図8は、画像処理サーバ30で生成される合成画像を説明するための表示例であり、(a)は、画像センサ装置10で撮像された画像(実画像)、(b)は3D地図データを基に生成された背景画像、(c)は対象物が検出された場合の合成画像、(d)は対象物の検出に失敗した場合の画像である。
 図8(a)に示すように、実画像P1には対象物2が写されている。図8(b)に示すように、3D地図データを基に生成された背景画像P2には対象物2は含まれていない。図8(c)に示すように、対象物2が検出された場合、背景画像P2にプライバシー情報が除去された模型3が合成される。実画像P1上における対象物2の位置に対応する背景画像P2上の位置に、対象物2の模型3が表示されるので、対象物2のプライバシーを保護することが可能となっている。
 また、模型3が対象物2の位置や姿勢(この場合、立っている状態)などの状態を再現するように描画され、背景画像P2が実画像P1の撮像範囲に対応したものであるので、対象物2を除いた領域の再現性を高めることができ、背景に存在する物との位置関係等の情報も正確に把握することが可能となっている。
 模型3の表示形態は、対象物2である個人が特定されないようにプライバシー情報が除去された形態であれば特に限定されない。例えば、画像センサ装置10による対象物2の画像認識結果に基づく属性(男性又は女性、大人又は子供など)や動作姿勢に対応させた、模型3のモデルや動作モデルを用いることで、より対象物2の位置状態の再現性を高めることができる。合成画像の再現性を高めることにより、合成画像の利用価値を高めることができ、第3者による合成画像を利用したサービスを広く展開させることが可能となる。
 また、図8(d)に示すように、対象物2の検出に失敗した場合、実画像P1ではなく背景画像P2が提示されるため、実画像P1に写っている対象物2が提示されることなく、対象物2のプライバシーが確実に保護されるようになっている。
 なお、上記合成画像の表示例では、背景画像P2が実画像P1の撮像範囲に対応したものとなっているが、この表示形態に限定されるものではなく、別の表示例では、実画像P1の撮像範囲よりも広い領域を示す背景画像を用いることができる。例えば、複数の実画像で表される領域を3D地図データから背景画像として切り出し、該背景画像に、前記複数の実画像で検出された対象物2の位置に模型3を描画した合成画像を生成することもできる。
 上記実施の形態(1)に係るデータ提供システム1によれば、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた電子機器として機能する画像処理サーバ30により対象物2のプライバシーが適切に保護された合成画像が生成され、画像提供サーバ40が、前記合成画像を利用者端末50に提供することが可能となり、対象物2のプライバシーが適切に保護された合成画像を第3者に提供することで、該合成画像を用いた新たなサービスを外部アプリ51を通じて提供することができる。
 上記実施の形態(1)に係る画像認識処理方法を実行する画像処理サーバ30によれば、画像センサ装置10から取得した実画像から対象物2の位置が検出され、対象物2の位置データを用いて、背景画像上の対応する位置に模型3が描画された合成画像が生成される。したがって、実画像から位置が検出された対象物2は模型3として背景画像に描画されるので、対象物2のプライバシー情報を含まない合成画像を生成することができる。また、背景画像に対象物2の模型3を描画するので、撮像された画像毎にモザイク処理等を行う方法と比較して、前記合成画像を連続的に生成する際の画像処理サーバ30にかかる処理負荷を削減することができる。また、実画像から対象物2の検出に失敗したとしても、提供する画像に背景画像を用いるため、検出に失敗した対象物2が利用者端末50に提示されることなく、検出に失敗した対象物2のプライバシーも適切に保護することができ、対象物2のプライバシー情報が流出しないようにチェックするための複雑な処理が不要となり、簡素化された画像認識処理を実現できる。
 図9は、実施の形態(2)に係るデータ提供システムの構成を説明するための概念図である。但し、図1に示したデータ提供システム1と同様の構成要素については、同符号を付し、その説明を省略する。
 実施の形態(1)に係るデータ提供システム1では、画像処理サーバ30が、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた画像処理装置300として機能するように構成されていたが、実施の形態(2)に係るデータ提供システム1Aでは、画像センサ装置10Aが、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた画像処理装置100(図10)として機能するように構成されている。
 データ提供システム1Aは、画像センサ装置10A及び画像提供サーバ40を含んで構成され、プライバシー情報を含む対象物2のプライバシーが適切に保護された画像を利用者端末50に提供可能なセンサシステムとなっている。画像センサ装置10Aがネットワーク60を介して画像提供サーバ40に接続されている。画像提供サーバ40は、ネットワーク60を介して利用者端末50と接続されるようになっている。画像センサ装置10A及び画像提供サーバ40の設置個数は特に限定されない。データ提供システム1Aに少なくとも1つ以上装備されていればよい。
 画像センサ装置10Aのハードウェア構成は、図2に示した構成と略同様であるが、画像処理部12A、制御部14A、記憶部13Aが異なる機能を備えている。また、画像センサ装置10Aには、ネットワーク60に接続するためのルーター20(図1)の機能が装備されている。なお、ルーター20は必須の構成ではなく、画像センサ装置10Aを直接ネットワーク60に接続してもよい。画像提供サーバ40のハードウェア構成は、図3に示した構成と略同様である。
 図10は、画像センサ装置10A及び画像提供サーバ40が実行する処理を説明するための機能ブロック図である。
 [画像センサ装置10A]
 画像センサ装置10Aに画像処理装置100が装備されている。画像処理装置100は、画像取得部12c、位置検出部12d、合成画像生成部12e、背景画像生成部12f、背景画像登録部13b、画像切替部14a、及び画像送信部15aを含んで構成され、これら各部は、画像センサ装置10Aの画像処理部12A、記憶部13A、制御部14A、及び入出力I/F15の機能により実現される。
 画像取得部12cが、撮像部11で撮像された画像を取得する処理を行い、位置検出部12dが、取得した画像からプライバシー情報を含む対象物(人間)2を検出(認識)し、撮像された画像上における対象物(人間)2の位置(座標又は領域)を検出する処理を行う。対象物2の検出(画像認識)、位置検出方法には、上記した2次元位置算出方法や3次元位置算出方法が適用される。位置検出部12dで検出された対象物2の位置データは、例えば、画像センサ装置10AのID(識別子)、画像取得日時等のデータと関連付けた状態で制御部14A内のRAM又は記憶部13Aに記憶される。制御部14A内のRAM又は記憶部13Aが、対象物2の位置データが記憶される位置データ記憶部として機能する。
 制御部14A内のRAM又は記憶部13Aから読み出された対象物2の位置(座標又は領域)データが、例えば、画像センサ装置10AのID(識別子)、画像取得日時等のデータと関連付けた状態で合成画像生成部12eに送られる。
 また、画像取得部12cで取得した画像は、例えば、画像センサ装置10AのID(識別子)、画像取得日時等のデータと関連付けた状態で実画像DB13aに記憶される。
 背景画像生成部12fが、対象物2が含まれていない背景画像を生成する処理を行う。背景画像登録部13bが、生成された背景画像を背景画像DB13cに登録する処理を行う。
 本実施の形態における背景画像の生成及び登録処理は、(1)撮像部11で撮像された複数の画像を平均処理して求めた平均画像を背景画像として登録する方法、(2)対象物2が存在しない条件下で撮像した画像を背景画像として登録する方法、(3)撮像した画像を画像処理により背景のみ表した絵画風画像やCG画像に変換した画像を背景画像として登録する方法などが適用される。
 合成画像生成部12eが、制御部14A内のRAM又は記憶部13Aから読み出した対象物2の位置(座標)データと、背景画像DB13cから読み出した背景画像とを用い、該背景画像上における対象物2の検出位置に、対象物2のプライバシー情報が除去された模型、例えば対象物2のシルエットを表すCG画像(人形)を描画して合成画像を生成する処理を行う。生成された合成画像のデータは、例えば、画像センサ装置10AのIDや画像取得日時のデータと関連付けた状態で記憶部13Aに記憶され、その後、画像切替部14aに送られる。
 位置検出部12dが対象物2の画像上の2次元座標を算出する場合、合成画像生成部12eは、背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
 また、位置検出部12dが、1つの対象物2の位置検出を複数の画像センサ装置10Aを用いて3次元的に行う場合、合成画像生成部12eは、対象物2の3次元座標から画像上の2次元座標を復元し、復元した2次元座標に基づいて背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
 画像切替部14aが、画像提供サーバ40に送信する画像として、画像取得部12cで取得した画像(実画像)と、合成画像生成部12eで生成された合成画像とを切り替える処理を行う。
 画像送信部15aが、合成画像または実画像を画像提供サーバ40に送信する。また、画像送信部15aは、画像センサ装置10Aを管理するためのアプリケーションソフトウェア(内部アプリ)19が搭載された管理端末装置(図示せず)に、合成画像生成部12eで生成された合成画像や実画像DB13aに記憶されている画像を送信することも可能となっている。
 [画像提供サーバ40]
 画像提供サーバ40は、コンピュータを備えた電子機器であり、画像センサ装置10Aで生成された合成画像や撮像された実画像を利用者端末50に送信する処理などを実行する。
 画像受信部42aが、画像センサ装置10Aから送信されてきた合成画像や実画像のデータを受信する処理を行い、受信した合成画像や実画像のデータが、合成画像データベース41a、実画像データベース41bに記憶される。
 画像送信部42bが、合成画像を要求してきた利用者端末50に、合成画像DB41aから読み出した合成画像を送信する処理を行う。また、実画像を要求してきた利用者端末50に、所定の条件下で実画像DB41bから読み出した実画像を送信する処理を行う。
なお、実画像には対象物2のプライバシー情報が含まれている場合があるため、実画像は、画像センサ装置10A又は画像提供サーバ40が、対象物2に関する異常事態や緊急事態などの特別な条件が成立したと判断した場合にのみ利用者端末50に送信可能となっている。
 図11は、実施の形態(2)に係るデータ提供システム1Aで実行される処理動作を説明するためのフローチャートである。本処理動作は、例えば、利用者端末50で外部アプリ51が起動された場合に開始される。
 利用者端末50が、ステップS51において、外部アプリ51を起動する処理を行う。ステップS52において、合成画像の要求操作があったと判断した場合に、合成画像の要求信号を画像提供サーバ40に送信する処理を行う。合成画像の要求信号には、利用者端末50のID(識別子)、要求する合成画像に関する情報が含まれる。要求する合成画像に関する情報には、対象とする施設、場所、画像センサ装置10Aの情報、撮像日時・期間などの情報が含まれる。これら情報は、外部アプリ51で適宜入力できる他、予め設定できるようにしてもよい。
 次に、画像提供サーバ40が、ステップS53において、利用者端末50から合成画像の要求信号を受信する処理を行う。次のステップS54では、受信した合成画像の要求信号に基づいて、画像センサ装置10Aに合成画像の要求信号を送信する処理を行う。
 次に、画像センサ装置10Aが、ステップS55において、画像提供サーバ40から合成画像の要求信号を受信する処理を行う。次のステップS56では、受信した合成画像の要求信号に基づいて、取得対象として指定された撮像画像(実画像)を含むデータを取得する処理を行う。取得したデータには、実画像データ、撮像日時データ、画像センサ装置10AのIDなどが含まれ、これらデータが実画像DB13aに互いに関連付けた形式で記憶される。
 次にステップS57では、取得した実画像から対象物2を検出(認識)する処理を行う。本処理は、先に説明した、図6のステップS12と同様の処理である。次のステップS58では、実画像中で検出された対象物2の位置を検出する処理を行う。本処理は、先に説明した、図6のステップS13と同様の処理である。続くステップS59では、検出された対象物2の位置データを制御部14A内のRAM又は記憶部13Aに記憶する。対象物2の位置データは、画像センサ装置10AのIDや撮像日時データなどの実画像に関するデータと関連付けた形式で記憶される。
 次にステップS60では、背景画像DB13cから、実画像の撮像範囲に対応する背景画像を読み出す処理を行い、次のステップS61では、制御部14A内のRAM又は記憶部13Aから、対応する実画像で検出された対象物2の位置データを読み出す処理を行い、ステップS62に進む。
 ステップS62では、ステップS61で読み出した対象物2の位置データと、ステップS60で読み出した背景画像とを用い、該背景画像に対象物2のプライバシー情報が除かれた対象物2の模型が描画された合成画像を生成する処理を行う。本処理は、先に説明した、図6のステップS14と同様の処理である。続くステップS63では、生成された合成画像を記憶部13Aに記憶する。生成された合成画像のデータは、画像センサ装置10AのIDや撮像日時データなどと関連付けた形式で記憶される。次にステップS64では、記憶部13Aから読み出した合成画像のデータを画像提供サーバ40に送信する処理を行う。
 画像提供サーバ40では、ステップS65において、画像センサ装置10Aから送信されてきた合成画像のデータを受信する処理を行い、次のステップS66で、受信した合成画像のデータを合成画像DB41aに記憶する処理を行う。合成画像は、画像センサ装置10AのIDや撮像日時等のデータと関連付けた形式で記憶される。次のステップS67では、合成画像DB41aから合成画像のデータを読み出して利用者端末50に送信する処理を行う。
 利用者端末50では、ステップS68において、画像提供サーバ40から送信されてきた合成画像のデータを受信する処理を行い、次のステップS69において、受信した合成画像のデータを記憶部(図示せず)に記憶する処理を行い、続くステップS70において、合成画像を表示部に表示する処理を行う。その後、ステップS71において、外部アプリ51で合成画像を用いたデータ処理が実行され、その後、ステップS72において、外部アプリ51の終了操作を検出すると終了処理を行い、その後、処理を終える。
 上記実施の形態(2)に係るデータ提供システム1Aによれば、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた電子機器として機能する画像センサ装置10Aにより対象物2のプライバシーが適切に保護された合成画像が生成され、画像提供サーバ40が、合成画像を利用者端末50に提供することが可能となり、対象物2のプライバシーが適切に保護された合成画像を第3者に提供することで、該合成画像を用いた新たなサービスを外部アプリ51を通じて提供することができる。
 上記実施の形態(2)に係る画像認識処理方法を実行する画像センサ装置10Aによれば、画像取得部12cから取得した画像から対象物2の位置が検出され、対象物2の位置データを用いて、背景画像上の対応する位置に模型3が描画された合成画像が生成される。したがって、実画像から位置が検出された対象物2は模型3として背景画像に描画されるので、対象物2のプライバシー情報を含まない合成画像を生成することができる。また、背景画像に対象物2の模型3を描画するので、撮像された画像毎にモザイク処理等を行う方法と比較して、前記合成画像を連続的に生成する際の画像センサ装置10Aにかかる処理負荷を削減することができる。また、実画像から対象物2の検出に失敗したとしても、利用者端末50に提供する画像に背景画像を用いるため、検出に失敗した対象物2が利用者端末50に提示されることなく、検出に失敗した対象物2のプライバシーも適切に保護することができ、対象物2のプライバシー情報が流出しないようにチェックするための複雑な処理が不要となり、簡素化された画像認識処理を実現できる。
 図12は、実施の形態(3)に係るデータ提供システムの構成を説明するための概念図である。但し、図1に示したデータ提供システム1と同様の構成要素については、同符号を付し、その説明を省略する。
 実施の形態(1)に係るデータ提供システム1では、画像提供サーバ40から利用者端末50に、画像処理サーバ30で生成された合成画像(背景画像に模型が合成された画像)を提供するように構成されていた。一方、実施の形態(3)に係るデータ提供システム1Bでは、画像処理サーバ30Aで生成された背景画像を事前に利用者端末50Aへ送信しておき、その後、利用者端末50Aからのデータ要求に応じて、対象物2の位置データを利用者端末50Aに送信し、利用者端末50Aが、受信した対象物2の位置データと背景画像とを用い、該背景画像上に模型が描画された合成画像を生成する構成となっている。すなわち、利用者端末50Aが、本実施の形態に係る画像認識処理方法を実行するコンピュータとして機能する。
 データ提供システム1Bは、画像センサ装置10、ルーター20、画像処理サーバ30A、及び利用者端末50Aを含んで構成され、プライバシーが適切に保護された画像を利用者端末50Aに提供可能なセンサシステムとなっている。画像処理サーバ30Aに画像処理装置300A(図13)が装備されている。
 画像センサ装置10がルーター20に接続され、ルーター20がネットワーク60を介して画像処理サーバ30Aに接続されている。画像処理サーバ30Aは、ネットワーク60を介して利用者端末50Aと接続可能となっている。なお、ルーター20は必須の構成ではなく、画像センサ装置10をネットワーク60に接続するようにしてもよい。
 画像センサ装置10のハードウェア構成は、図2に示した構成と略同様である。画像処理サーバ30Aのハードウェア構成は、図3に示した画像処理サーバ30の構成と略同様であるが、画像処理部31A、制御部34Aが異なる機能を備えている。
 図13は、画像センサ装置10、画像処理サーバ30A、及び利用者端末50Aが実行する処理を説明するための機能ブロック図である。図4に示した機能ブロック図と同一機能を有する構成部分には、同一符号を付しその説明を省略する。
 [画像センサ装置10]
 画像取得部12aが、撮像部11で撮像された画像を取得する処理を行い、対象検出部12bが、取得した画像からプライバシー情報を含む対象物(人間)2を検出(認識)する処理を行う。取得した画像や対象物検出(画像認識)結果のデータが、例えば、画像センサ装置10のID(識別子)及び画像取得日時等のデータと関連付けた状態で画像処理サーバ30Aに送信される。
 [画像処理サーバ30A]
 画像処理サーバ30Aに画像処理装置300Aが装備されている。画像処理装置300Aは、画像受信部33a、画像送信部33b、位置検出部31a、背景画像生成部31b、位置送信部31d、背景画像送信部31e、及び3D地図登録部32bを含んで構成され、これら各部は、画像処理サーバ30Aの画像処理部31A、記憶部32、通信処理部33、及び制御部34Aの機能により実現されている。
 画像受信部33aが、画像センサ装置10から送信されてきた画像を受信する処理を行い、受信した画像(実画像)が実画像DB32aに記憶される。位置検出部31aが、撮像された画像上における検出対象物(人間)2の位置を検出する処理を行う。対象物2の位置検出方法には、上記した2次元位置算出方法や3次元位置算出方法が適用される。画像処理サーバ30Aが、利用者端末50Aからの要求信号を受信した場合に、位置送信部31dが、位置検出部31aで算出された対象物2の位置データを利用者端末50Aに送信する処理を行う。なお、対象検出部12bの機能を画像処理サーバ30Aに設ける構成としてもよい。
 背景画像生成部31bが、背景DB32cに登録されている3D地図データ、パラメータDB32fに登録されている外部パラメータ及び内部パラメータ等を用いて、3D地図データから画像センサ装置10の撮像範囲に対応する背景画像を生成する処理を行う。生成された背景画像は、例えば、画像センサ装置10のIDと関連付けて背景画像DB32gに登録される。画像処理サーバ30Aが利用者端末50Aからサービス(外部アプリ)利用開始信号を受信した場合に、背景画像送信部31eが、背景画像生成部31bで生成された背景画像を背景画像DB32gから読み出し、背景画像に関連付けられた画像センサ装置10のID等とともに利用者端末50Aに送信する処理を行う。
 [利用者端末50A]
 利用者端末50Aは、コンピュータを備えた電子機器であり、汎用のパーソナルコンピュータ(PC)、スマートフォン、タブレット端末などの情報端末装置で構成されている。利用者端末50Aは、通信処理部52、記憶部53、制御部54、表示部55、及び操作部56を含んで構成されている。
 通信処理部52は、背景画像受信部52a、位置受信部52b、及び実画像受信部52cとしての機能を備え、ネットワーク60を介して各種データの送受信等を行う通信インターフェースや通信制御回路を含んで構成されている。記憶部53は、通信処理部52で受信した各種データ等を記憶可能な半導体メモリなどで構成されている。表示部55は、液晶パネルなどの各種表示パネルを含んで構成されている。操作部56は、タッチパネル、ボタンスイッチ、又はキーボード等の入力装置で構成されている。制御部54は、これら各部を制御する機能の他、合成画像生成部54aとしての機能を有し、マイクロコンピュータ(CPU(プロセッサ)、RAM、ROM)を含んで構成されている。制御部54には、これら各部の処理を実行するためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体、例えば、着脱可能な半導体メモリなどに格納してもよい。
 背景画像受信部52aが、画像処理サーバ30Aから送信されてきた背景画像を受信する処理を行う。サービス利用開始時等に受信した背景画像は記憶部53に記憶される。
 位置受信部52bが、画像処理サーバ30Aから送信されてきた対象物2の位置データを受信する処理を行う。受信した対象物2の位置データは、例えば、画像センサ装置10のID(識別子)、画像取得日時等のデータと関連付けた状態で制御部54内のRAM又は記憶部53などに記憶される。制御部54内のRAM又は記憶部53が位置データ記憶部として機能する。
 合成画像生成部54aが、制御部54内のRAM又は記憶部53から読み出した対象物2の位置データと、記憶部53から読み出した、対応する背景画像とを用い、背景画像上における対象物2の検出位置に、対象物2のプライバシー情報が除去された模型を描画して合成画像を生成する処理を行い、生成された合成画像が表示部55に表示可能となっている。
 また、実画像受信部52cが、所定条件が成立した場合に、画像処理サーバ30Aから送信されてきた実画像を受信する処理を行い、受信した実画像が表示部55に表示可能となっている。なお、実画像には対象物2のプライバシー情報が含まれている場合があるため、実画像は、画像処理サーバ30Aが対象物2に関する異常事態や緊急事態などの特別な条件が成立したと判断した場合にのみ利用者端末50Aに提供可能となっている。
 図14は、実施の形態(3)に係るデータ提供システム1Bで実行される処理動作を説明するためのフローチャートである。本処理動作は、例えば、利用者端末50Aで外部アプリ51が起動された場合に開始される。
 利用者端末50Aが、ステップS81において、外部アプリ51を起動する処理を行う。ステップS82において、合成画像の要求操作があったと判断した場合に、合成画像の要求信号を画像処理サーバ30Aに送信する処理を行う。合成画像の要求信号には、利用者端末50AのID(識別子)、要求する合成画像に関する情報が含まれる。要求する合成画像に関する情報には、対象とする施設、場所、画像センサ装置10の情報、撮像日時・期間などの情報が含まれる。これら情報は、外部アプリ51で適宜入力できる他、予め設定できるようにしてもよい。
 次に、画像処理サーバ30Aが、ステップS83において、利用者端末50Aから合成画像の要求信号を受信する処理を行う。次のステップS84では、受信した合成画像の要求信号に基づいて、画像センサ装置10に合成画像の要求信号を送信する処理を行い、ステップS85に進む。ステップS85では、背景画像DB32gから画像センサ装置10の撮像範囲に対応する背景画像のデータを読み出し、利用者端末50Aに送信する。
 利用者端末50Aでは、ステップS86において、画像処理サーバ30Aから送信されてきた背景画像のデータを受信する処理を行い、次のステップS87では、受信した背景画像のデータを記憶部53に記憶する処理を行う。
 一方、画像センサ装置10では、ステップS88において、画像処理サーバ30Aから合成画像の要求信号を受信する処理を行う。次のステップS89では、受信した合成画像の要求信号に基づいて、取得対象として指定された撮像画像(実画像)を含むデータを取得する処理を行う。取得したデータには、実画像データ、撮像日時データ、画像センサ装置10のIDなどが含まれ、これらデータが記憶部13に互いに関連付けた形式で記憶される。
 続くステップS90では、取得した実画像から対象物2を検出(認識)する処理を行い、検出した対象物2の認識データを記憶部13に記憶する。本処理は、先に説明した、図6のステップS12と同様の処理である。次のステップS91では、記憶部13から実画像を含むデータと、対象物2の検出(認識)データとを読み出し、画像処理サーバ30Aに送信する処理を行う。
 画像処理サーバ30Aでは、ステップS92において、画像センサ装置10から送信されてきたデータを受信する処理を行い、次のステップS93で、受信した実画像を含むデータを実画像DB32aに、対象物2の検出データを記憶部32に記憶する処理を行う。続くステップS94では、実画像中で検出(認識)された対象物2の位置を検出する処理を行う。本処理は、先に説明した、図6のステップS13と同様の処理である。
 続くステップS95では、検出された対象物2の位置データを制御部34A内のRAM又は記憶部32に記憶する。対象物2の位置データは、画像センサ装置10のIDや撮像日時データなどの実画像に関するデータと関連付けた形式で記憶される。次のステップS96では、制御部34A内のRAM又は記憶部32から、実画像に対応する対象物2の位置データを読み出し、利用者端末50Aに送信する処理を行う。
 利用者端末50Aでは、ステップS97において、画像処理サーバ30Aから送信されてきた対象物2の位置データを受信し、制御部54内のRAM又は記憶部53に記憶する処理を行い、ステップS98に進む。ステップS98では、記憶部53から、対応する背景画像のデータを読み出し、次のステップS99で、制御部54内のRAM又は記憶部53から対象物2の位置データを読み出す処理を行う。
 続くステップS100では、読み出した対象物2の位置データと、読み出した背景画像とを用い、該背景画像に対象物2のプライバシー情報が除かれた対象物2の模型が描画された合成画像を生成する処理を行う。本処理は、先に説明した、図6のステップS14と同様の処理である。続くステップS101では、生成された合成画像を記憶部53に記憶する。生成された合成画像のデータは、画像センサ装置10のIDや撮像日時データなどと関連付けた形式で記憶される。
 続くステップS102において、記憶部53から読み出した合成画像を表示部に表示する処理を行う。その後、ステップS103において、外部アプリ51で合成画像を用いたデータ処理が実行され、その後、ステップS104において、外部アプリ51の終了操作を検出すると終了処理を行い、その後、処理を終える。
 図15は、利用者端末50Aの表示部55に表示された合成画像の表示例を示している。
表示部55に、背景画像P2に模型(人形)3が合成された合成画像が表示されている。合成画像はCG表示ボタン56aを操作すると表示されるようになっている。CG表示ボタン56aを操作すると、利用者端末50Aは、画像処理サーバ30Aに対象物2の位置データを要求し、該要求に応じて受信した対象物2の位置データと、事前取得した背景画像とを用いて合成画像を生成して表示部55に表示する処理を行う。
 実画像表示ボタン56bは、通常時は機能しないが、例えば、模型3が倒れた状態で一定時間経過した場合など、画像処理サーバ30Aが対象物2に関する異常事態や緊急事態の発生を検出した場合に、実画像表示ボタン56bを点滅等させて利用者に警告するとともに、実画像表示ボタン56bの操作が受け付け可能になっている。実画像表示ボタン56bが操作されると、実画像受信部52cで受信した実画像が表示されるようになっている。
 実施の形態(3)に係るデータ提供システム1Bによれば、画像処理サーバ30Aから利用者端末50Aに背景画像と、対象物2の位置データとを別々に送信して、利用者端末50Aで合成画像を生成させるので、プライバシーが適切に保護された前記合成画像を第3者に提供し、該合成画像を用いた新たなサービス提供の可能性を広げることができる。また、背景画像を利用者端末50Aに事前に送信して記憶させておき、検出された対象物2の位置データ等の模型3の描画に必要な情報のみをリアルタイムで利用者端末50Aに送信し、利用者端末50Aで背景画像と模型3とを合成した画像を生成するので、撮像された画像(実画像)をリアルタイムで利用者端末に送信するような構成と比較して、利用者端末50Aに転送するデータ量(データ転送量)を大幅に削減することができるシステムを構築することができる。
 本発明は、上記した実施の形態に限定されるものではなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
(付記1)
 少なくとも1つの撮像部で撮像された画像を少なくとも1つのプロセッサで処理する画像認識処理方法であって、
 前記少なくとも1つのプロセッサによって、
 前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップを含んでいる、画像認識処理方法。
(付記2)
 少なくとも1つの撮像部で撮像された画像を少なくとも1つのプロセッサで処理する画像認識処理方法であって、
 前記少なくとも1つのプロセッサによって、
 前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、
 前記検出された対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを含んでいる、画像認識処理方法。
(付記3)
 少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのプロセッサに実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体であって、
 前記少なくとも1つのプロセッサに、
 前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、
 前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
 前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
(付記4)
 少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのプロセッサに実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体であって、
 前記少なくとも1つのプロセッサに、
 前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、
 前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
 前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
(付記5)
 少なくとも1つのコンピュータがネットワークを介して別のコンピュータにデータを提供するデータ提供システムであって、
 前記少なくとも1つのコンピュータが、記憶部と、該記憶部に接続された少なくとも1つのプロセッサとを有し、
 前記記憶部は、
 少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データを記憶する位置データ記憶部と、
 前記対象物が含まれていない背景画像を記憶する背景画像記憶部とを有し、
 前記少なくとも1つのプロセッサは、
 前記位置データ記憶部から読み出した前記対象物の位置データを前記別のコンピュータに送信し、
 前記背景画像記憶部から読み出した前記背景画像を前記別のコンピュータに送信するように構成され、
 前記別のコンピュータは、少なくとも1つのプロセッサを有し、
 該少なくとも1つのプロセッサは、
 前記少なくとも1つのコンピュータから受信した前記対象物の位置データと前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するように構成されている、データ提供システム。
 本発明は、プライバシーに配慮した画像を生成する処理を行う各種電子機器やネットワークを介してプライバシーに配慮した画像を提供するシステムなどの分野において広く利用することができる。
1、1A、1B データ提供システム
10、10A 画像センサ装置
100 画像処理装置
12a、12c 画像取得部
12b 対象検出部
12d 位置検出部
12e 合成画像生成部
13b 背景画像登録部
14a 画像切替部
15a 画像送信部
20 ルーター
30、30A 画像処理サーバ
300、300A 画像処理装置
31a 位置検出部
31b 背景画像生成部
31c 合成画像生成部
32b 3D地図登録部
40 画像提供サーバ
42a 画像受信部
42b 画像送信部
50、50A 利用者端末
60 ネットワーク

Claims (26)

  1.  少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、
     前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップを含んでいることを特徴とする画像認識処理方法。
  2.  少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、
     前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、
     検出された前記対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを含んでいることを特徴とする画像認識処理方法。
  3.  前記背景画像が、前記撮像された画像の撮像範囲に対応したものであることを特徴とする請求項1又は請求項2記載の画像認識処理方法。
  4.  前記合成画像は、前記背景画像に前記対象物の模型が、前記撮像された画像における前記対象物の位置状態が再現されるように描画されたものであることを特徴とする請求項1~3のいずれかの項に記載の画像認識処理方法。
  5.  前記背景画像が、3次元背景データから生成されたものであることを特徴とする請求項1~4のいずれかの項に記載の画像認識処理方法。
  6.  前記背景画像が、前記撮像された複数の画像を平均処理して得られた平均画像から生成されたものであることを特徴とする請求項1~4のいずれかの項に記載の画像認識処理方法。
  7.  前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データから復元された、前記撮像された画像上における2次元位置データであることを特徴とする請求項1~6のいずれかの項に記載の画像認識処理方法。
  8.  前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データであり、
     前記背景画像が、3次元背景データであり、
     前記合成画像を生成するステップが、
     前記対象物の3次元位置データを用い、前記3次元背景データ上の前記対象物の3次元位置に前記模型を描画し、該模型が描画された前記3次元背景データから前記模型を含む前記撮像された画像領域を切り出した画像を前記合成画像として生成するものであることを特徴とする請求項1又は請求項2記載の画像認識処理方法。
  9.  少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、
     前記少なくとも1つのコンピュータに、
     前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、
     前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
     前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴とする画像認識処理プログラム。
  10.  少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、
     前記少なくとも1つのコンピュータに、
     前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、
     該検出した対象物の位置データを位置データ記憶部に記憶するステップと、
     前記位置データ記憶部から前記対象物の位置データを読み出すステップと、
     前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
     前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴とする画像認識処理プログラム。
  11.  少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、
     請求項3~8のいずれかの項に記載の画像認識処理方法を、前記少なくとも1つのコンピュータに実行させることを特徴とする画像認識処理プログラム。
  12.  請求項9~11のいずれかの項に記載の画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
  13.  請求項9~11のいずれかの項に記載の画像認識処理プログラムを読み込み実行することを特徴とするプロセッサ。
  14.  請求項13記載のプロセッサが搭載されていることを特徴とする電子機器。
  15.  ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、
     前記少なくとも1つのコンピュータが、
     請求項1~8のいずれかの項に記載の画像認識処理方法における前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを含んでいることを特徴とするデータ提供方法。
  16.  前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに含んでいることを特徴とする請求項15記載のデータ提供方法。
  17.  ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、
     前記少なくとも1つのコンピュータが、
     請求項1~8のいずれかの項に記載の画像認識処理方法における前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを含んでいることを特徴とするデータ提供方法。
  18.  前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに含んでいることを特徴とする請求項17記載のデータ提供方法。
  19.  少なくとも1つのコンピュータがネットワークを介して別のコンピュータにデータを提供するデータ提供システムであって、
     前記少なくとも1つのコンピュータが、
     少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データを前記別のコンピュータに送信する位置データ送信部と、
     前記対象物が含まれていない背景画像を前記別のコンピュータに送信する背景画像送信部とを備え、
     前記別のコンピュータに、
     前記対象物の位置データと前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成させることを特徴とするデータ提供システム。
  20.  ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、
     前記少なくとも1つのコンピュータに、
     請求項9~11のいずれかの項に記載の画像認識処理プログラムにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを実行させることを特徴とするデータ提供プログラム。
  21.  前記少なくとも1つのコンピュータに、
     前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに実行させることを特徴とする請求項20記載のデータ提供プログラム。
  22.  ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、
     前記少なくとも1つのコンピュータに、
     請求項9~11のいずれかの項に記載の画像認識処理プログラムにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを実行させることを特徴とするデータ提供プログラム。
  23.  前記少なくとも1つのコンピュータに、
     前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに実行させることを特徴とする請求項22記載のデータ提供プログラム。
  24.  請求項20~23のいずれかの項に記載のデータ提供プログラムを記録したコンピュータ読み取り可能な記録媒体。
  25.  請求項20~23のいずれかの項に記載のデータ提供プログラムを読み込み実行することを特徴とするプロセッサ。
  26.  請求項25記載のプロセッサが搭載されていることを特徴とする電子機器。
PCT/JP2017/033626 2016-11-14 2017-09-19 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器 WO2018088035A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-221355 2016-11-14
JP2016221355A JP6699518B2 (ja) 2016-11-14 2016-11-14 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ及び電子機器

Publications (1)

Publication Number Publication Date
WO2018088035A1 true WO2018088035A1 (ja) 2018-05-17

Family

ID=62110536

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/033626 WO2018088035A1 (ja) 2016-11-14 2017-09-19 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器

Country Status (2)

Country Link
JP (1) JP6699518B2 (ja)
WO (1) WO2018088035A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020141212A (ja) * 2019-02-27 2020-09-03 沖電気工業株式会社 画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置
WO2022222655A1 (zh) * 2021-04-21 2022-10-27 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备、芯片、存储介质、程序、及程序产品

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020170467A (ja) * 2019-04-05 2020-10-15 株式会社Preferred Networks 情報処理システム、ロボット、遠隔操作装置、情報処理方法及びプログラム
CN112040145B (zh) * 2020-08-28 2023-04-07 维沃移动通信有限公司 图像处理方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006217161A (ja) * 2005-02-02 2006-08-17 Advanced Telecommunication Research Institute International 画像撮影システム
JP2009225398A (ja) * 2008-03-19 2009-10-01 Secom Co Ltd 画像配信システム
WO2015136796A1 (ja) * 2014-03-10 2015-09-17 ソニー株式会社 情報処理装置、記憶媒体、および制御方法
JP2016163075A (ja) * 2015-02-26 2016-09-05 キヤノン株式会社 映像処理装置、映像処理方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006217161A (ja) * 2005-02-02 2006-08-17 Advanced Telecommunication Research Institute International 画像撮影システム
JP2009225398A (ja) * 2008-03-19 2009-10-01 Secom Co Ltd 画像配信システム
WO2015136796A1 (ja) * 2014-03-10 2015-09-17 ソニー株式会社 情報処理装置、記憶媒体、および制御方法
JP2016163075A (ja) * 2015-02-26 2016-09-05 キヤノン株式会社 映像処理装置、映像処理方法、およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020141212A (ja) * 2019-02-27 2020-09-03 沖電気工業株式会社 画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置
WO2022222655A1 (zh) * 2021-04-21 2022-10-27 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备、芯片、存储介质、程序、及程序产品

Also Published As

Publication number Publication date
JP2018082234A (ja) 2018-05-24
JP6699518B2 (ja) 2020-05-27

Similar Documents

Publication Publication Date Title
WO2018088035A1 (ja) 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器
US9898829B2 (en) Monitoring apparatus and system using 3D information of images and monitoring method using the same
EP3396590A1 (en) Synchronization of image data from multiple three-dimensional cameras for image recognition
JP2017509939A (ja) 疎及び密マッピング情報を含むマップを生成するための方法及びシステム
JPWO2018181248A1 (ja) 撮像システムおよび校正方法
JP6383439B2 (ja) 認識されたオブジェクトを用いてセンサのキャリブレーションを行うための方法およびシステム
KR101181967B1 (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
US20140152772A1 (en) Methods to combine radiation-based temperature sensor and inertial sensor and/or camera output in a handheld/mobile device
US20220264004A1 (en) Generation of an image that is devoid of a person from images that include the person
US20160205355A1 (en) Monitoring installation and method for presenting a monitored area
CN107330974B (zh) 商品展示方法、装置及移动设备
US20230306636A1 (en) Object three-dimensional localizations in images or videos
WO2018146959A1 (ja) システム、情報処理装置、情報処理方法、プログラム及び記録媒体
JP2008026999A (ja) 障害物検出システム、及び障害物検出方法
JP2016194784A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
JP2018139052A (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP5801690B2 (ja) 画像処理装置、画像処理方法
US9911237B1 (en) Image processing techniques for self-captured images
TW201822034A (zh) 收集系統、終端用程式以及收集方法
CN117356089A (zh) 视觉跟踪系统中的固有参数估计
JP2017184025A (ja) 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム
KR20210112551A (ko) 휴대용 단말기를 이용한 건설 분야 시공 관리 시스템 및 방법
JP6650998B2 (ja) 鏡、画像表示方法及びプログラム
US20180241916A1 (en) 3d space rendering system with multi-camera image depth
JP2021184115A (ja) 情報処理装置、情報処理方法、及び、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17870579

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17870579

Country of ref document: EP

Kind code of ref document: A1