WO2018078862A1 - 画像解析システム、画像解析方法、およびプログラム - Google Patents

画像解析システム、画像解析方法、およびプログラム Download PDF

Info

Publication number
WO2018078862A1
WO2018078862A1 PCT/JP2016/082297 JP2016082297W WO2018078862A1 WO 2018078862 A1 WO2018078862 A1 WO 2018078862A1 JP 2016082297 W JP2016082297 W JP 2016082297W WO 2018078862 A1 WO2018078862 A1 WO 2018078862A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
past
image analysis
camera
images
Prior art date
Application number
PCT/JP2016/082297
Other languages
English (en)
French (fr)
Inventor
俊二 菅谷
Original Assignee
株式会社オプティム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オプティム filed Critical 株式会社オプティム
Priority to US15/553,612 priority Critical patent/US10535154B2/en
Priority to PCT/JP2016/082297 priority patent/WO2018078862A1/ja
Priority to JP2017545425A priority patent/JP6246441B1/ja
Publication of WO2018078862A1 publication Critical patent/WO2018078862A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements

Definitions

  • the present invention relates to an image analysis system, an image analysis method, and a program for improving subject detection and identification accuracy in image analysis in an image analysis system that analyzes an image captured by a camera.
  • Patent Document 1 There is an image photographing device that enables the current image photographing using photographing setting information having the same content as a recorded image photographed in the past (Patent Document 1).
  • Patent Document 1 it is necessary to apply shooting setting information having the same contents as the recorded image before the current shooting, and appropriate image processing cannot be performed on an already captured image.
  • image analysis of a large number of images taken with unmanned aerial vehicles, wearable device cameras, security cameras, etc.
  • the method of Patent Document 1 that requires the previous setting is not suitable.
  • it is expected that the accuracy of subject detection and identification can be improved by using the environment during imaging.
  • the present invention provides an image analysis system, an image analysis method, and a program for improving subject detection and identification accuracy in image analysis in an image analysis system that analyzes an image captured by a camera. Objective.
  • the present invention provides the following solutions.
  • the invention according to the first feature is Past image storage means for storing a plurality of past images that have been subjected to image analysis in the past, and a plurality of imaging environment data sets composed of camera setting data and subject data at the time of capturing the past images; Acquisition means for acquiring a captured image; Similar image extraction means for extracting a past image similar to the acquired image from the stored past images; An image analysis system comprising: image analysis means for performing image analysis by applying an imaging environment data set obtained when image analysis of the extracted past image is performed when performing image analysis of the acquired image I will provide a.
  • a past image that has been subjected to image analysis in the past an imaging environment data set that includes camera setting data and data related to the subject at the time of capturing the past image, and Past image storage means for storing a plurality of associated images, acquisition means for acquiring captured images, and similar image extraction means for extracting past images similar to the acquired images from the stored past images;
  • Image analysis means for performing image analysis by applying an imaging environment data set obtained when image analysis of the extracted past image is performed when performing image analysis of the acquired image.
  • the invention according to the first feature is a category of the image analysis system, but the image analysis method and the program exhibit the same actions and effects.
  • the invention according to the second feature is an image analysis system which is the invention according to the first feature
  • the past image storage means provides an image analysis system that newly stores the acquired image and the imaging environment data set applied by the image analysis means in association with each other.
  • the past image storage means includes the acquired image and an imaging environment data set applied by the image analysis means. Are newly stored in association with each other.
  • the invention according to the third feature is an image analysis system which is the invention according to the first feature or the second feature, A plurality of past images stored in the past image storage means are images captured by 360-degree imaging, and an image analysis system is provided.
  • the plurality of past images stored in the past image storage means are picked up by 360-degree imaging. It is an image that was made.
  • the invention according to the fourth feature is as follows: A step of storing a plurality of past images that have been subjected to image analysis in the past, and a plurality of imaging environment data sets composed of camera setting data and subject data at the time of capturing the past images; Obtaining a captured image; and Extracting a past image similar to the acquired image from the stored past images; An image analysis method comprising: performing image analysis by applying an imaging environment data set obtained when image analysis of the extracted past image is performed when performing image analysis of the acquired image. To do.
  • the invention according to the fifth feature provides a computer system comprising: A step of storing a plurality of past images that have been subjected to image analysis in the past, and a plurality of imaging environment data sets composed of camera setting data and subject data at the time of imaging the past images; Obtaining a captured image; Extracting a past image similar to the acquired image from the stored past images; When performing image analysis of the acquired image, there is provided a program for executing an image analysis step by applying an imaging environment data set when the extracted past image is image-analyzed.
  • an image analysis system that analyzes an image captured by a camera
  • an image analysis method that improve subject detection and identification accuracy in image analysis.
  • FIG. 1 is a schematic diagram of a preferred embodiment of the present invention.
  • FIG. 2 is a diagram illustrating the functional blocks of the camera 100 and the computer 200 and the relationship between the functions.
  • FIG. 3 is a flowchart when the computer 200 performs image analysis processing on an image captured by the camera 100.
  • FIG. 4 is a flowchart in the case of newly storing the captured image and environment data set used for the image analysis processing.
  • FIG. 5 is a diagram illustrating an example when the subject 400 is imaged by the camera 100.
  • FIG. 6 is a table showing an example of the data structure of the imaging environment data set.
  • FIG. 7 is a table showing an example of the data structure of the imaging environment data set when the captured image and environment data set used for the image analysis processing are newly stored.
  • FIG. 8 is a diagram for schematically explaining a method of acquiring the imaging angle of the camera 100.
  • FIG. 1 is a schematic diagram of a preferred embodiment of the present invention. The outline of the present invention will be described with reference to FIG.
  • the image analysis system includes a camera 100, a computer 200, and a communication network 300.
  • the number of cameras 100 is not limited to one and may be plural.
  • the computer 200 is not limited to a real device, and may be a virtual device.
  • the camera 100 includes an imaging unit 10, a control unit 110, and a communication unit 120 as shown in FIG.
  • the computer 200 includes a control unit 210, a communication unit 220, a storage unit 230, and an input / output unit 240.
  • the control unit 210 implements the acquisition module 211 in cooperation with the communication unit 220. Further, the control unit 210 implements a similar image extraction module 212 and an image analysis module 213 in cooperation with the storage unit 230. Further, the storage unit 230 realizes the past image storage module 231 in cooperation with the control unit 210.
  • the communication network 300 may be a public communication network such as the Internet or a dedicated communication network, and enables communication between the camera 100 and the computer 200.
  • the camera 100 is an imaging device that includes an imaging device such as an imaging element and a lens that can perform data communication with the computer 200, can measure the distance to the subject, or can simultaneously image the subject from a plurality of different directions.
  • a WEB camera is illustrated as an example, but a digital camera, a digital video camera, a camera mounted on an unmanned aerial vehicle, a wearable device camera, a security camera, an in-vehicle camera, a 360-degree camera, and the like are provided with necessary functions. It may be a device.
  • the computer 200 is a computing device capable of data communication with the camera 100.
  • a desktop computer is illustrated as an example, but in addition to a mobile phone, a portable information terminal, a tablet terminal, a personal computer, electrical appliances such as a netbook terminal, a slate terminal, an electronic book terminal, and a portable music player Or a wearable terminal such as a smart glass or a head-mounted display.
  • the computer 200 includes a past image storage database.
  • the past image storage database stores a past image that has been subjected to image analysis in the past, and an imaging environment data set that includes camera setting data and subject-related data when the past image is captured.
  • the imaging environment data set is a set of environment data at the time of imaging such as the angle from the horizontal direction of the camera at the time of imaging, the type of the subject, the distance to the subject, illuminance, location, weather, and the like.
  • the past image storage module 231 of the computer 200 stores a plurality of past images and their imaging environment data sets in a past image storage database in advance.
  • the imaging unit 10 of the camera 100 captures an image such as a moving image or a still image of the subject that is the object (step S01).
  • the camera 100 images humans, animals, landscapes, articles, agricultural products, trees, and the like as subjects.
  • the acquisition module 211 of the computer 200 acquires an image captured by the camera 100 (step S02).
  • FIG. 5 is a diagram illustrating an example when the subject 400 is imaged by the camera 100.
  • the acquisition module 211 of the computer 200 connected to the camera 100 via the communication network 300 has acquired a captured image called ImageX captured at 09:10:11 on August 8, 2016.
  • the similar image extraction module 212 of the computer 200 compares the captured image acquired in step S02 with the past image registered in the past image storage database, and extracts a similar image (step S03).
  • FIG. 6 is a table showing an example of the data structure of the imaging environment data set.
  • the captured image of “Set1” is “ImageA”
  • the captured image of “Set2” is “ImageB”
  • the captured image of “Set3” is “ImageC”
  • the captured image of “Set4” is “ImageD”.
  • An outline of the captured images from “Image A” to “Image D” is shown in FIG.
  • the captured image acquired in step S02 is the subject 400 of FIG. 5 described above, the past image similar to this is “ImageD” of “Set4”, and therefore “ImageD” is extracted as a similar image in step S03. To do.
  • the image analysis module 213 of the computer 200 performs image analysis (step S04).
  • the imaging environment data set of “Set4” is “the angle from the horizontal direction of the camera at the time of imaging is 30 degrees, the type of subject is a plant, and the distance to the subject is 8 meters, illuminance is 240 lux, location is outdoor, weather is fine.
  • the angle of “Set1” from the horizontal direction of the camera is 10 degrees.
  • the subject type is human, the distance to the subject is 3 meters, the illuminance is 100 lux, the location is outdoors, the weather is cloudy, and the image analysis is performed in a shorter time than the case of performing image analysis. It is possible to obtain a result.
  • the image analysis here is appropriate for each purpose, such as face recognition for individual determination, discrimination of pest damage status of crops, inventory check in warehouse, affected area image recognition for medical diagnosis, etc.
  • the image analysis parameters are also appropriate according to the above-described purpose, for example, the range for performing the filter process, the intensity of the filter process, the threshold for binarization, the order of the image process, and the like.
  • an image analysis system that analyzes an image captured by a camera
  • an image analysis system an image analysis method, and a program that improve the accuracy of object detection and identification in image analysis are provided. Is possible.
  • FIG. 2 is a diagram illustrating the functional blocks of the camera 100 and the computer 200 and the relationship between the functions.
  • the camera 100 includes an imaging unit 10, a control unit 110, and a communication unit 120.
  • the computer 200 includes a control unit 210, a communication unit 220, a storage unit 230, and an input / output unit 240.
  • the control unit 210 implements the acquisition module 211 in cooperation with the communication unit 220. Further, the control unit 210 implements a similar image extraction module 212 and an image analysis module 213 in cooperation with the storage unit 230. Further, the storage unit 230 realizes the past image storage module 231 in cooperation with the control unit 210.
  • the communication network 300 may be a public communication network such as the Internet or a dedicated communication network, and enables communication between the camera 100 and the computer 200.
  • the camera 100 is an imaging device that includes an imaging device such as an imaging element and a lens that can perform data communication with the computer 200, can measure the distance to the subject, or can simultaneously image the subject from a plurality of different directions.
  • a WEB camera is illustrated as an example, but a digital camera, a digital video camera, a camera mounted on an unmanned aerial vehicle, a wearable device camera, a security camera, an in-vehicle camera, a 360-degree camera, and the like are provided with necessary functions. It may be a device.
  • the camera 100 includes, as the imaging unit 10, an imaging device such as a lens, an imaging device, various buttons, and a flash, and captures images as captured images such as moving images and still images.
  • An image obtained by imaging is a precise image having an amount of information necessary for image analysis, and the number of pixels and the image quality can be designated.
  • the control unit 110 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like.
  • a CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read Only Memory
  • a device for enabling communication with other devices for example, a WiFi (Wireless Fidelity) compatible device compliant with IEEE 802.11 or an IMT-2000 standard such as a third generation or fourth generation mobile communication system. Compliant wireless device etc. It may be a wired LAN connection.
  • WiFi Wireless Fidelity
  • the computer 200 is a computing device capable of data communication with the camera 100.
  • a desktop computer is illustrated as an example, but in addition to a mobile phone, a portable information terminal, a tablet terminal, a personal computer, electrical appliances such as a netbook terminal, a slate terminal, an electronic book terminal, and a portable music player Or a wearable terminal such as a smart glass or a head-mounted display.
  • the control unit 210 includes a CPU, RAM, ROM, and the like.
  • the control unit 210 implements the acquisition module 211 in cooperation with the communication unit 220. Further, the control unit 210 implements a similar image extraction module 212 and an image analysis module 213 in cooperation with the storage unit 230.
  • a device for enabling communication with other devices as the communication unit 220 for example, a WiFi compatible device compliant with IEEE802.11 or a wireless device compliant with the IMT-2000 standard such as a third generation or fourth generation mobile communication system Etc. It may be a wired LAN connection.
  • the storage unit 230 includes a data storage unit such as a hard disk or a semiconductor memory, and stores captured images, similar image extraction results, extracted similar images and imaging environment data sets, data necessary for processing such as image analysis results, and the like. To do. Further, the storage unit 230 realizes the past image storage module 231 in cooperation with the control unit 210.
  • the storage unit 230 may include a past image storage database.
  • the input / output unit 240 has functions necessary for using the image analysis system.
  • a liquid crystal display that realizes a touch panel function, a keyboard, a mouse, a pen tablet, a hardware button on the apparatus, a microphone for performing voice recognition, and the like can be provided.
  • forms such as a liquid crystal display, a PC display, a projection on a projector, and an audio output can be considered.
  • the function of the present invention is not particularly limited by the input / output method.
  • FIG. 3 is a flowchart when the computer 200 performs image analysis processing on an image captured by the camera 100. Processing executed by each module described above will be described in accordance with this processing.
  • the past image storage module 231 of the computer 200 stores in the storage unit 230 a past image that has been subjected to image analysis in the past, and an imaging environment data set that includes camera setting data and subject-related data when the past image is captured. A plurality of them are stored in association with each other (step S301).
  • the storage unit 230 may be provided with a past image storage database and stored in the database.
  • the imaging environment data set is a set of environment data at the time of imaging, such as the angle from the horizontal direction of the camera at the time of imaging, the type of subject, the distance to the subject, illuminance, location, weather, etc.
  • a plurality of past images and their imaging environment data sets are stored in advance in a past image storage database.
  • the results of image analysis and image analysis parameters may be stored. Note that if a plurality of past images and their imaging environment data sets are already stored, this process may be skipped.
  • the imaging unit 10 of the camera 100 captures an image such as a moving image or a still image of the subject that is the target (step S302).
  • the camera 100 images humans, animals, landscapes, articles, agricultural products, trees, and the like as subjects.
  • the imaging instruction may be issued from the computer 200.
  • the acquisition module 211 of the computer 200 acquires an image captured by the camera 100 (step S303).
  • FIG. 5 is a diagram illustrating an example when the subject 400 is imaged by the camera 100.
  • the acquisition module 211 of the computer 200 connected to the camera 100 via the communication network 300 has acquired a captured image called ImageX captured at 09:10:11 on August 8, 2016.
  • the similar image extraction module 212 of the computer 200 compares the captured image acquired in step S303 with the past image registered in the past image storage database, and extracts a similar image (step S304).
  • FIG. 6 is a table showing an example of the data structure of the imaging environment data set.
  • the captured image of “Set1” is “ImageA”
  • the captured image of “Set2” is “ImageB”
  • the captured image of “Set3” is “ImageC”
  • the captured image of “Set4” is “ImageD”.
  • An outline of the captured images from “Image A” to “Image D” is shown in FIG.
  • the captured image acquired in step S303 is the subject 400 of FIG. 5 described above, the past image similar to this is “ImageD” of “Set4”, and therefore “ImageD” is extracted as a similar image in step S304. To do.
  • the image analysis module 213 of the computer 200 performs image analysis (step S305).
  • the imaging environment data set of “Set4” is “the angle from the horizontal direction of the camera at the time of imaging is 30 degrees, the type of subject is a plant, and the distance to the subject is 8 meters, illuminance is 240 lux, location is outdoor, weather is fine.
  • the angle of “Set1” from the horizontal direction of the camera is 10 degrees.
  • the subject type is human, the distance to the subject is 3 meters, the illuminance is 100 lux, the location is outdoors, the weather is cloudy, and the image analysis is performed in a shorter time than the case of performing image analysis. It is possible to obtain a result.
  • the image analysis here is appropriate for each purpose, such as face recognition for individual determination, discrimination of pest damage status of crops, inventory check in warehouse, affected area image recognition for medical diagnosis, etc.
  • the image analysis parameters are also appropriate according to the above-described purpose, for example, the range for performing the filter process, the intensity of the filter process, the threshold for binarization, the order of the image process, and the like.
  • an image analysis system that analyzes an image captured by a camera
  • an image analysis system an image analysis method, and a program that improve the accuracy of object detection and identification in image analysis are provided. Is possible.
  • FIG. 4 is a flowchart in the case of newly storing the captured image and environment data set used for the image analysis processing. Processing executed by each module described above will be described together with this processing. Since the processing from step S401 to step S405 in FIG. 4 corresponds to the processing from step S301 to step S305 in FIG. 3, only step S406 and subsequent steps will be described.
  • the past image storage module 231 confirms whether the image analysis result using the imaging environment data set “Set4” is satisfactory after the image analysis in step S405 (step S406).
  • the past image storage module 231 uses the captured image acquired in step S403 together with the imaging environment data set of “Set4” as a new captured image and imaging environment data set. (Step S407).
  • FIG. 7 is a table showing an example of the data structure of the imaging environment data set when the captured image and environment data set used for the image analysis processing are newly stored.
  • a new “Set5” is combined with “ImageX” which is a captured image, “the angle from the horizontal direction of the camera at the time of imaging is 30 degrees, the type of subject is a plant, and the distance to the subject is 8
  • An environmental data set of “meter, illuminance is 240 lux, location is outdoor, weather is fine” is additionally stored. Thereby, the imaging environment data set of “Set5” can be used from the next imaging.
  • step S405 If the image analysis result in step S405 is not good, the past image storage module 231 does nothing and ends the process.
  • step S405 whether or not the image analysis result is good is determined by individual image analysis such as face recognition for individual determination, determination of the state of pest damage on crops, inventory check in a warehouse, and affected part image recognition for medical diagnosis. Depending on the purpose, it may be determined automatically using a threshold or the like, or may be determined by a human.
  • individual image analysis such as face recognition for individual determination, determination of the state of pest damage on crops, inventory check in a warehouse, and affected part image recognition for medical diagnosis.
  • it may be determined automatically using a threshold or the like, or may be determined by a human.
  • an image analysis system for analyzing an image captured by a camera, by newly registering a captured image and an imaging environment data set that have obtained good image analysis results, It is possible to provide an image analysis system, an image analysis method, and a program that can further improve the accuracy of object detection and identification.
  • the camera 100 is an imaging device that can measure a distance to a subject or can simultaneously image a subject from a plurality of different directions.
  • the method of measuring the distance to the subject in addition to obtaining from the sensor of the camera 100 or the like, if the subject can be imaged simultaneously from a plurality of different directions, the difference between the images captured by each of the plurality of cameras is determined. It is also possible to measure the distance by learning the length and the actual distance. Also, it is possible to calculate the imaging angle using the measured distance. Since a method for measuring distances from a plurality of cameras is known as an existing technology, here, a method for acquiring an imaging angle will be described based on FIG.
  • FIG. 8 is a diagram for schematically explaining a method of acquiring the imaging angle of the camera 100.
  • the camera 100 is in a state where the subject 400, the wall 810, and the floor 820 are imaged.
  • the camera 100 or the computer 200 analyzes the captured image and acquires the imaging angle, the area having the same pattern (pattern) area existing in the captured image is recognized as a plane such as a floor or the ground.
  • the image capturing angle of itself is acquired from the inclination of.
  • the floor 820 corresponds to a plane.
  • the method for obtaining the imaging angle of the camera 100 may be performed by either the camera 100 or the computer 200, but for the sake of simplicity, it will be described as being performed by the computer 200 below.
  • the computer 200 extracts two predetermined positions 830 and 831 from the imaging position to the floor 820 as samples.
  • a triangle 833 is formed connecting the predetermined positions 830 and 831 and the center position 832 of the imaging point.
  • the triangle 833 is formed by three sides: a side 840, a side 841, and a side 842.
  • the computer 200 forms a perpendicular 850 from the center position 832 to the floor 820 and forms an intersection 834 of the side 842 and the perpendicular 850.
  • the computer 200 learns the shift length and actual distance of images captured by a plurality of cameras, and calculates the lengths of the sides 840 and 841 and the perpendicular 850 by estimating the distance.
  • the computer 200 calculates the length of the line segment 860 connecting the predetermined position 830 and the intersection point 834 and the line segment 861 connecting the predetermined position 831 and the intersection point 834 on the side 842.
  • the computer 200 calculates an angle 870 by using a trigonometric function, and acquires the calculated angle 870 as its own three-dimensional imaging angle.
  • the distance to the subject is calculated by using the function of simultaneously imaging the subject from a plurality of different directions.
  • the angle from the horizontal direction at the time of imaging can be calculated.
  • the means and functions described above are realized by a computer (including a CPU, an information processing apparatus, and various terminals) reading and executing a predetermined program.
  • the program may be, for example, in a form (SaaS: Software as a Service) provided from a computer via a network, or a flexible disk, CD (CD-ROM, etc.), DVD (DVD-ROM, DVD). -RAM, etc.) and a computer-readable recording medium such as a compact memory.
  • the computer reads the program from the recording medium, transfers it to the internal storage device or the external storage device, stores it, and executes it.
  • the program may be recorded in advance in a storage device (recording medium) such as a magnetic disk, an optical disk, or a magneto-optical disk, and provided from the storage device to a computer via a communication line.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】 カメラで撮像した画像を解析する画像解析システムにおいて、画像解析における被写体の検出および識別精度を向上させる。 【解決手段】 過去に画像解析を行った過去画像と、過去画像撮像時のカメラの設定データおよび被写体に関するデータからなる撮像環境データセットを複数記憶しておき、撮像した画像を取得する取得モジュール211と、撮像画像と類似する過去画像を抽出する類似画像抽出モジュール212とを備え、抽出された過去画像の撮像環境データセットを取得した撮像画像に適用して画像解析を行う。

Description

画像解析システム、画像解析方法、およびプログラム
 本発明は、カメラで撮像した画像を解析する画像解析システムにおいて、画像解析における被写体の検出および識別精度を向上させる画像解析システム、画像解析方法、およびプログラムに関する。
 画像撮影装置には、過去に撮影された記録画像と同じ内容の撮影設定情報を使用して今回の画像撮影をできるようにするものがある(特許文献1)。
特開2009-225097号公報
 しかしながら、特許文献1の装置では、今回の撮影前に記録画像と同じ内容の撮影設定情報を適用する必要があり、既に撮像された画像に対して、適切な画像処理を行うことはできない。近年では、無人航空機に搭載したカメラ、ウェアラブルデバイスのカメラ、防犯カメラ等で撮像した、様々なものが映っている大量の画像を画像解析するニーズが生じており、そのような場合には、撮像前の設定が必要な特許文献1の手法は適さない。また、画像解析を行う際には、撮像時の環境を使用することで、より被写体の検出や識別の精度を向上できると期待される。
 本発明では、これらの課題に鑑み、カメラで撮像した画像を解析する画像解析システムにおいて、画像解析における被写体の検出および識別精度を向上させる画像解析システム、画像解析方法、およびプログラムを提供することを目的とする。
 本発明では、以下のような解決手段を提供する。
 第1の特徴に係る発明は、
 過去に画像解析を行った過去画像と、当該過去画像の撮像時のカメラの設定データおよび被写体に関するデータからなる撮像環境データセットと、を対応付けて複数記憶する過去画像記憶手段と、
 撮像した画像を取得する取得手段と、
 記憶した前記過去画像の中から、前記取得した画像と類似する過去画像を抽出する類似画像抽出手段と、
 前記取得した画像の画像解析を行う際に、前記抽出した過去画像を画像解析した際の撮像環境データセットを適用して画像解析を行う画像解析手段と、を備えることを特徴とする画像解析システムを提供する。
 第1の特徴に係る発明によれば、画像解析システムにおいて、過去に画像解析を行った過去画像と、当該過去画像の撮像時のカメラの設定データおよび被写体に関するデータからなる撮像環境データセットと、を対応付けて複数記憶する過去画像記憶手段と、撮像した画像を取得する取得手段と、記憶した前記過去画像の中から、前記取得した画像と類似する過去画像を抽出する類似画像抽出手段と、前記取得した画像の画像解析を行う際に、前記抽出した過去画像を画像解析した際の撮像環境データセットを適用して画像解析を行う画像解析手段と、を備える。
 第1の特徴に係る発明は、画像解析システムのカテゴリであるが、画像解析方法、およびプログラムであっても同様の作用、効果を奏する。
 第2の特徴に係る発明は、第1の特徴に係る発明である画像解析システムであって、
 前記過去画像記憶手段は、前記取得した画像と、前記画像解析手段で適用された撮像環境データセットと、を対応付けて新たに記憶することを特徴とする画像解析システムを提供する。
 第2の特徴に係る発明によれば、第1の特徴に係る発明である画像解析システムにおいて、前記過去画像記憶手段は、前記取得した画像と、前記画像解析手段で適用された撮像環境データセットと、を対応付けて新たに記憶する。
 第3の特徴に係る発明は、第1の特徴または第2の特徴に係る発明である画像解析システムであって、
 前記過去画像記憶手段で記憶された複数の過去画像は、360度撮像によって撮像された画像であることを特徴とする画像解析システムを提供する。
 第3の特徴に係る発明によれば、第1の特徴または第2の特徴に係る発明である画像解析システムにおいて、前記過去画像記憶手段で記憶された複数の過去画像は、360度撮像によって撮像された画像である。
 第4の特徴に係る発明は、
 過去に画像解析を行った過去画像と、当該過去画像の撮像時のカメラの設定データおよび被写体に関するデータからなる撮像環境データセットと、を対応付けて複数記憶するステップと、
 撮像した画像を取得するステップと、
 記憶した前記過去画像の中から、前記取得した画像と類似する過去画像を抽出するステップと、
 前記取得した画像の画像解析を行う際に、前記抽出した過去画像を画像解析した際の撮像環境データセットを適用して画像解析を行うステップと、を備えることを特徴とする画像解析方法を提供する。
 第5の特徴に係る発明は、コンピュータシステムに、
 過去に画像解析を行った過去画像と、当該過去画像の撮像時のカメラの設定データおよび被写体に関するデータからなる撮像環境データセットと、を対応付けて複数記憶するステップ、
 撮像した画像を取得するステップ、
 記憶した前記過去画像の中から、前記取得した画像と類似する過去画像を抽出するステップ、
 前記取得した画像の画像解析を行う際に、前記抽出した過去画像を画像解析した際の撮像環境データセットを適用して画像解析を行うステップ、を実行させるためのプログラムを提供する。
 本発明によれば、カメラで撮像した画像を解析する画像解析システムにおいて、画像解析における被写体の検出および識別精度を向上させる画像解析システム、画像解析方法、およびプログラムを提供することが可能となる。
図1は、本発明の好適な実施形態の概要図である。 図2は、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。 図3は、カメラ100での撮像画像をコンピュータ200で画像解析処理を行う場合のフローチャート図である。 図4は、画像解析処理に使用した撮像画像と環境データセットを新たに記憶させる場合のフローチャート図である。 図5は、カメラ100で被写体400を撮像した場合の一例を示す図である。 図6は、撮像環境データセットのデータ構造の一例を示す表である。 図7は、画像解析処理に使用した撮像画像と環境データセットを新たに記憶させた場合の撮像環境データセットのデータ構造の一例を示す表である。 図8は、カメラ100の撮像角度を取得する方法を模式的に説明するための図である。
 以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
 [画像解析システムの概要]
 図1は、本発明の好適な実施形態の概要図である。この図1に基づいて、本発明の概要を説明する。画像解析システムは、カメラ100、コンピュータ200、通信網300から構成される。
 なお、図1において、カメラ100の数は1つに限らず複数であってもよい。また、コンピュータ200は、実在する装置に限らず、仮想的な装置であってもよい。
 カメラ100は、図2に示すように、撮像部10、制御部110、通信部120から構成される。また、コンピュータ200は、同じく図2に示すように、制御部210、通信部220、記憶部230、入出力部240、から構成される。制御部210は通信部220と協働して取得モジュール211を実現する。また、制御部210は記憶部230と協働して類似画像抽出モジュール212、画像解析モジュール213を実現する。また、記憶部230は、制御部210と協働して過去画像記憶モジュール231を実現する。通信網300は、インターネット等の公衆通信網でも専用通信網でも良く、カメラ100とコンピュータ200間の通信を可能とする。
 カメラ100は、コンピュータ200とデータ通信可能な、撮像素子やレンズ等の撮像デバイスを備え、被写体までの距離を測定可能な、または、被写体を複数の異なる方向から同時に撮像可能な撮像装置である。ここでは、例としてWEBカメラを図示しているが、デジタルカメラ、デジタルビデオカメラ、無人航空機に搭載したカメラ、ウェアラブルデバイスのカメラ、防犯カメラ、車載カメラ、360度カメラ等の必要な機能を備える撮像装置であってよい。
 コンピュータ200は、カメラ100とデータ通信可能な計算装置である。ここでは、例としてデスクトップ型のコンピュータを図示しているが、携帯電話、携帯情報端末、タブレット端末、パーソナルコンピュータに加え、ネットブック端末、スレート端末、電子書籍端末、携帯型音楽プレーヤ等の電化製品や、スマートグラス、ヘッドマウントディスプレイ等のウェアラブル端末等であってよい。
 図1の画像解析システムにおいて、コンピュータ200は、過去画像記憶データベースを備える。過去画像記憶データベースには、過去に画像解析を行った過去画像と、その過去画像の撮像時のカメラの設定データおよび被写体に関するデータからなる撮像環境データセットとを対応付けて記憶する。ここで撮像環境データセットとは、撮像時のカメラの水平方向からの角度、被写体の種類、被写体までの距離、照度、場所、天候、等の撮像時の環境データをセットとしたものである。コンピュータ200の過去画像記憶モジュール231は、あらかじめ複数の過去画像とその撮像環境データセットを、過去画像記憶データベースに記憶しておくものとする。
 カメラ100の撮像部10は、対象物である被写体の動画又は静止画等の画像を撮像する(ステップS01)。カメラ100は、被写体として、人間、動物、風景、物品、農作物、樹木等を撮像する。
 コンピュータ200の取得モジュール211は、カメラ100が撮像した画像を取得する(ステップS02)。
 図5は、カメラ100で被写体400を撮像した場合の一例を示す図である。ここでは、カメラ100と通信網300で接続されたコンピュータ200の取得モジュール211が、2016年8月8日の09:10:11に撮像したImageXという撮像画像を取得したことを示している。
 コンピュータ200の類似画像抽出モジュール212は、ステップS02で取得した撮像画像と、過去画像記憶データベースに登録済の過去画像とを比較して、類似画像を抽出する(ステップS03)。
 図6は、撮像環境データセットのデータ構造の一例を示す表である。ここでは、撮像環境データセットとあわせて、撮像画像を記憶済みであるとする。「Set1」の撮像画像が「ImageA」、「Set2」の撮像画像が「ImageB」、「Set3」の撮像画像が「ImageC」、「Set4」の撮像画像が「ImageD」である。「ImageA」から「ImageD」の撮像画像がどんなものであるか、図6にあわせて概要を示す。ステップS02で取得した撮像画像が、前述の図5の被写体400である場合、これと類似した過去画像は、「Set4」の「ImageD」であるため、ステップS03では「ImageD」を類似画像として抽出する。
 最後に、コンピュータ200の画像解析モジュール213は画像解析を行う(ステップS04)。ここで、「ImageX」の画像解析を行う際に、「Set4」の撮像環境データセットである「撮像時のカメラの水平方向からの角度が30度、被写体の種類が植物、被写体までの距離が8メートル、照度が240ルクス、場所が屋外、天候が晴れ」を利用する。「ImageX」と類似の「ImageD」の撮像環境データセットである「Set4」を使用して画像解析を行うことで、例えば、「Set1」の「撮像時のカメラの水平方向からの角度が10度、被写体の種類が人間、被写体までの距離が3メートル、照度が100ルクス、場所が屋外、天候が曇り」の環境データセットを使用して画像解析を行う場合より、短時間で識別精度の良い結果を得ることが可能である。
 ここでの画像解析は、例えば、個人判定用の顔認識、農作物の害虫被害状況の判別、倉庫内の在庫確認、医療診断用の患部画像認識、等、個々の目的に応じた適切なものであるとする。また、画像解析パラメータも、前述の目的に応じて、例えば、フィルタ処理を行う範囲、フィルタ処理の強度、二値化の閾値、画像処理の順番、等、適切なものであるとする。
 以上のように、本発明によれば、カメラで撮像した画像を解析する画像解析システムにおいて、画像解析における被写体の検出および識別精度を向上させる画像解析システム、画像解析方法、およびプログラムを提供することが可能となる。
 [各機能の説明]
 図2は、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。カメラ100は、撮像部10、制御部110、通信部120から構成される。また、コンピュータ200は、制御部210、通信部220、記憶部230、入出力部240、から構成される。制御部210は通信部220と協働して取得モジュール211を実現する。また、制御部210は記憶部230と協働して類似画像抽出モジュール212、画像解析モジュール213を実現する。また、記憶部230は、制御部210と協働して過去画像記憶モジュール231を実現する。通信網300は、インターネット等の公衆通信網でも専用通信網でも良く、カメラ100とコンピュータ200間の通信を可能とする。
 カメラ100は、コンピュータ200とデータ通信可能な、撮像素子やレンズ等の撮像デバイスを備え、被写体までの距離を測定可能な、または、被写体を複数の異なる方向から同時に撮像可能な撮像装置である。ここでは、例としてWEBカメラを図示しているが、デジタルカメラ、デジタルビデオカメラ、無人航空機に搭載したカメラ、ウェアラブルデバイスのカメラ、防犯カメラ、車載カメラ、360度カメラ等の必要な機能を備える撮像装置であってよい。
 カメラ100は、撮像部10として、レンズ、撮像素子、各種ボタン、フラッシュ等の撮像デバイス等を備え、動画や静止画等の撮像画像として撮像する。また、撮像して得られる画像は、画像解析に必要なだけの情報量を持った精密な画像であるものとし、画素数や画質を指定可能であるものとする。
 制御部110として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。
 通信部120として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi(Wireless Fidelity)対応デバイス又は第3世代、第4世代移動通信システム等のIMT-2000規格に準拠した無線デバイス等を備える。有線によるLAN接続であってもよい。
 コンピュータ200は、カメラ100とデータ通信可能な計算装置である。ここでは、例としてデスクトップ型のコンピュータを図示しているが、携帯電話、携帯情報端末、タブレット端末、パーソナルコンピュータに加え、ネットブック端末、スレート端末、電子書籍端末、携帯型音楽プレーヤ等の電化製品や、スマートグラス、ヘッドマウントディスプレイ等のウェアラブル端末等であってよい。
 制御部210として、CPU、RAM、ROM等を備える。制御部210は通信部220と協働して取得モジュール211を実現する。また、制御部210は記憶部230と協働して類似画像抽出モジュール212、画像解析モジュール213を実現する。
 通信部220として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi対応デバイス又は第3世代、第4世代移動通信システム等のIMT-2000規格に準拠した無線デバイス等を備える。有線によるLAN接続であってもよい。
 記憶部230として、ハードディスクや半導体メモリによる、データのストレージ部を備え、撮像画像や、類似画像抽出結果、抽出した類似画像と撮像環境データセット、画像解析結果等の処理に必要なデータ等を記憶する。また、記憶部230は、制御部210と協働して過去画像記憶モジュール231を実現する。記憶部230に、過去画像記憶データベースを備えても良い。
 入出力部240は、画像解析システムを利用するために必要な機能を備えるものとする。入力を実現するための例として、タッチパネル機能を実現する液晶ディスプレイ、キーボード、マウス、ペンタブレット、装置上のハードウェアボタン、音声認識を行うためのマイク等を備えることが可能である。また、出力を実現するための例として、液晶ディスプレイ、PCのディスプレイ、プロジェクターへの投影等の表示と音声出力等の形態が考えられる。入出力方法により、本発明は特に機能を限定されるものではない。
 [画像解析処理]
 図3は、カメラ100での撮像画像をコンピュータ200で画像解析処理を行う場合のフローチャート図である。上述した各モジュールが実行する処理について、本処理にあわせて説明する。
 はじめに、コンピュータ200の過去画像記憶モジュール231は、記憶部230に過去に画像解析を行った過去画像と、その過去画像の撮像時のカメラの設定データおよび被写体に関するデータからなる撮像環境データセットとを対応付けて複数記憶する(ステップS301)。記憶部230に過去画像記憶データベースを備え、データベースに記憶することとしてもよい。ここで、撮像環境データセットとは、撮像時のカメラの水平方向からの角度、被写体の種類、被写体までの距離、照度、場所、天候、等の撮像時の環境データをセットとしたものである。ここであらかじめ、複数の過去画像とその撮像環境データセットを、過去画像記憶データベースに記憶しておくものとする。過去画像とあわせて、画像解析を行った際の結果や、画像解析のパラメータを記憶させても良い。なお、既に複数の過去画像とその撮像環境データセットが記憶されている場合には、この処理はスキップしてよいものとする。
 次に、カメラ100の撮像部10は、対象物である被写体の動画又は静止画等の画像を撮像する(ステップS302)。カメラ100は、被写体として、人間、動物、風景、物品、農作物、樹木等を撮像する。撮像の指示は、コンピュータ200から行っても良い。
 コンピュータ200の取得モジュール211は、カメラ100が撮像した画像を取得する(ステップS303)。
 図5は、カメラ100で被写体400を撮像した場合の一例を示す図である。ここでは、カメラ100と通信網300で接続されたコンピュータ200の取得モジュール211が、2016年8月8日の09:10:11に撮像したImageXという撮像画像を取得したことを示している。
 コンピュータ200の類似画像抽出モジュール212は、ステップS303で取得した撮像画像と、過去画像記憶データベースに登録済の過去画像とを比較して、類似画像を抽出する(ステップS304)。
 図6は、撮像環境データセットのデータ構造の一例を示す表である。ここでは、撮像環境データセットとあわせて、撮像画像を記憶済みであるとする。「Set1」の撮像画像が「ImageA」、「Set2」の撮像画像が「ImageB」、「Set3」の撮像画像が「ImageC」、「Set4」の撮像画像が「ImageD」である。「ImageA」から「ImageD」の撮像画像がどんなものであるか、図6にあわせて概要を示す。ステップS303で取得した撮像画像が、前述の図5の被写体400である場合、これと類似した過去画像は、「Set4」の「ImageD」であるため、ステップS304では「ImageD」を類似画像として抽出する。
 最後に、コンピュータ200の画像解析モジュール213は画像解析を行う(ステップS305)。ここで、「ImageX」の画像解析を行う際に、「Set4」の撮像環境データセットである「撮像時のカメラの水平方向からの角度が30度、被写体の種類が植物、被写体までの距離が8メートル、照度が240ルクス、場所が屋外、天候が晴れ」を利用する。「ImageX」と類似の「ImageD」の撮像環境データセットである「Set4」を使用して画像解析を行うことで、例えば、「Set1」の「撮像時のカメラの水平方向からの角度が10度、被写体の種類が人間、被写体までの距離が3メートル、照度が100ルクス、場所が屋外、天候が曇り」の環境データセットを使用して画像解析を行う場合より、短時間で識別精度の良い結果を得ることが可能である。
 ここでの画像解析は、例えば、個人判定用の顔認識、農作物の害虫被害状況の判別、倉庫内の在庫確認、医療診断用の患部画像認識、等、個々の目的に応じた適切なものであるとする。また、画像解析パラメータも、前述の目的に応じて、例えば、フィルタ処理を行う範囲、フィルタ処理の強度、二値化の閾値、画像処理の順番、等、適切なものであるとする。
 以上のように、本発明によれば、カメラで撮像した画像を解析する画像解析システムにおいて、画像解析における被写体の検出および識別精度を向上させる画像解析システム、画像解析方法、およびプログラムを提供することが可能となる。
 [撮像環境データセット追加記憶処理]
 図4は、画像解析処理に使用した撮像画像と環境データセットを新たに記憶させる場合のフローチャート図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。図4のステップS401からステップS405の処理は、図3のステップS301からステップS305の処理に相当するため、ステップS406以降について説明する。
 過去画像記憶モジュール231は、ステップS405での画像解析後、「Set4」の撮像環境データセットを使用した画像解析結果が、良好であったかどうかを確認する(ステップS406)。
 ステップS405の画像解析結果が良好であった場合には、過去画像記憶モジュール231は、ステップS403で取得した撮像画像を「Set4」の撮像環境データセットと併せて新たな撮像画像と撮像環境データセットとして記憶する(ステップS407)。
 図7は、画像解析処理に使用した撮像画像と環境データセットを新たに記憶させた場合の撮像環境データセットのデータ構造の一例を示す表である。図6の状態から、新たに「Set5」として、撮像画像である「ImageX」と併せて「撮像時のカメラの水平方向からの角度が30度、被写体の種類が植物、被写体までの距離が8メートル、照度が240ルクス、場所が屋外、天候が晴れ」の環境データセットを追加して記憶させている。これにより、次回撮像時から「Set5」の撮像環境データセットも利用可能となる。
 ステップS405の画像解析結果が良好でなかった場合には、過去画像記憶モジュール231はなにも行わず処理を終了する。
 ステップS405において、画像解析結果が良好であったかどうかとは、個人判定用の顔認識、農作物の害虫被害状況の判別、倉庫内の在庫確認、医療診断用の患部画像認識、等、個々の画像解析の目的に応じて閾値等を用いて自動で判断しても良いし、人間が判断してもよい。
 以上のように、本発明によれば、カメラで撮像した画像を解析する画像解析システムにおいて、良好な画像解析結果を得た撮像画像と撮像環境データセットを新たに登録することで、画像解析における被写体の検出および識別精度をより一層向上させる画像解析システム、画像解析方法、およびプログラムを提供することが可能となる。
 [撮像角度取得処理]
 本発明でのカメラ100は、被写体までの距離を測定可能、または、被写体を複数の異なる方向から同時に撮像可能な撮像装置である。被写体までの距離を測定する方法については、カメラ100のセンサ等から取得する他に、被写体を複数の異なる方向から同時に撮像可能である場合には、その複数のカメラそれぞれで撮像した画像のズレの長さと、実際の距離を学習させて、距離を測定することも可能である。また、その測定した距離を用いて、撮像角度を算出することも可能である。複数のカメラから距離を測定する方法については、既存技術として知られているため、ここでは、図8に基づいて、撮像角度を取得する方法について説明する。
 図8は、カメラ100の撮像角度を取得する方法を模式的に説明するための図である。図8において、カメラ100は、被写体400と、壁810と、床820を撮像した状態である。カメラ100またはコンピュータ200が、撮像画像を画像解析し、撮像角度を取得する場合、撮像画像中に存在する同じパターン(模様)面積が、最大の領域を床又は地面等の平面と認識し、平面の傾きから自身の撮像角度を取得する。ここでは、床820が平面に該当する。
 カメラ100の撮像角度を取得する方法は、カメラ100またはコンピュータ200のいずれで行っても良いが、以下では簡略化のために、コンピュータ200で行うものとして記載する。コンピュータ200は、撮像位置から床820までの2か所の所定位置830,831をサンプルとして抽出する。この所定位置830,831と、撮像地点の中心位置832とを結んだ三角形833を形成する。三角形833は、辺840、辺841、辺842の3辺により形成される。コンピュータ200は、中心位置832から床820へ垂線850を形成し、辺842と垂線850の交点834を形成する。コンピュータ200は、複数のカメラで撮像した画像のずれの長さと実際の距離を学習させ、距離を推定することにより辺840,841及び垂線850の長さを算出する。コンピュータ200は、辺842において、所定位置830と交点834とを結ぶ線分860と、所定位置831と交点834とを結ぶ線分861との長さを算出する。コンピュータ200は、三角関数により、角度870を算出し、この算出した角度870を自身の3次元の撮像角度として取得する。
 以上のように、本発明によれば、カメラに被写体までの距離を測定する機能が無い場合にも、被写体を複数の異なる方向から同時に撮像する機能を利用することにより、被写体までの距離を算出するとともに、撮像時の水平方向からの角度を算出することが可能である。
 上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータからネットワーク経由で提供される(SaaS:ソフトウェア・アズ・ア・サービス)形態であってもよいし、フレキシブルディスク、CD(CD-ROMなど)、DVD(DVD-ROM、DVD-RAMなど)、コンパクトメモリ等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置又は外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
 以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
 100 カメラ、200 コンピュータ、300 通信網、400 被写体

Claims (5)

  1.  過去に画像解析を行った過去画像と、当該過去画像の撮像時のカメラの設定データおよび被写体に関するデータからなる撮像環境データセットと、を対応付けて複数記憶する過去画像記憶手段と、
     撮像した画像を取得する取得手段と、
     記憶した前記過去画像の中から、前記取得した画像と類似する過去画像を抽出する類似画像抽出手段と、
     前記取得した画像の画像解析を行う際に、前記抽出した過去画像を画像解析した際の撮像環境データセットを適用して画像解析を行う画像解析手段と、を備えることを特徴とする画像解析システム。
  2.  前記過去画像記憶手段は、前記取得した画像と、前記画像解析手段で適用された撮像環境データセットと、を対応付けて新たに記憶することを特徴とする請求項1に記載の画像解析システム。
  3.  前記過去画像記憶手段で記憶された複数の過去画像は、360度撮像によって撮像された画像であることを特徴とする請求項1または請求項2に記載の画像解析システム。
  4.  過去に画像解析を行った過去画像と、当該過去画像の撮像時のカメラの設定データおよび被写体に関するデータからなる撮像環境データセットと、を対応付けて複数記憶するステップと、
     撮像した画像を取得するステップと、
     記憶した前記過去画像の中から、前記取得した画像と類似する過去画像を抽出するステップと、
     前記取得した画像の画像解析を行う際に、前記抽出した過去画像を画像解析した際の撮像環境データセットを適用して画像解析を行うステップと、を備えることを特徴とする画像解析方法。
  5.  コンピュータシステムに、
     過去に画像解析を行った過去画像と、当該過去画像の撮像時のカメラの設定データおよび被写体に関するデータからなる撮像環境データセットと、を対応付けて複数記憶するステップ、
     撮像した画像を取得するステップ、
     記憶した前記過去画像の中から、前記取得した画像と類似する過去画像を抽出するステップ、
     前記取得した画像の画像解析を行う際に、前記抽出した過去画像を画像解析した際の撮像環境データセットを適用して画像解析を行うステップ、を実行させるためのプログラム。
PCT/JP2016/082297 2016-10-31 2016-10-31 画像解析システム、画像解析方法、およびプログラム WO2018078862A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/553,612 US10535154B2 (en) 2016-10-31 2016-10-31 System, method, and program for image analysis
PCT/JP2016/082297 WO2018078862A1 (ja) 2016-10-31 2016-10-31 画像解析システム、画像解析方法、およびプログラム
JP2017545425A JP6246441B1 (ja) 2016-10-31 2016-10-31 画像解析システム、画像解析方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/082297 WO2018078862A1 (ja) 2016-10-31 2016-10-31 画像解析システム、画像解析方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2018078862A1 true WO2018078862A1 (ja) 2018-05-03

Family

ID=60659052

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/082297 WO2018078862A1 (ja) 2016-10-31 2016-10-31 画像解析システム、画像解析方法、およびプログラム

Country Status (3)

Country Link
US (1) US10535154B2 (ja)
JP (1) JP6246441B1 (ja)
WO (1) WO2018078862A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019229789A1 (ja) * 2018-05-28 2019-12-05 株式会社オプティム 学習済モデル提案システム、学習済モデル提案方法、およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7205332B2 (ja) * 2019-03-20 2023-01-17 株式会社リコー 診断処理装置、診断システム、診断処理方法、及びプログラム
CN114520861A (zh) * 2022-01-21 2022-05-20 中冶赛迪重庆信息技术有限公司 一种图像采集分析系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306095A (ja) * 1999-04-16 2000-11-02 Fujitsu Ltd 画像照合・検索システム
JP2011192093A (ja) * 2010-03-15 2011-09-29 Omron Corp 照合装置、デジタル画像処理システム、照合装置制御プログラム、コンピュータ読み取り可能な記録媒体、および照合装置の制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5019228B2 (ja) 2008-03-17 2012-09-05 Necカシオモバイルコミュニケーションズ株式会社 画像撮影装置及びプログラム
KR101977703B1 (ko) * 2012-08-17 2019-05-13 삼성전자 주식회사 단말의 촬영 제어 방법 및 그 단말
US9407815B2 (en) * 2014-11-17 2016-08-02 International Business Machines Corporation Location aware photograph recommendation notification
EP3113523B1 (en) * 2015-07-02 2018-10-31 Nokia Technologies Oy A video region indicator that indicates that video content is available
US10230866B1 (en) * 2015-09-30 2019-03-12 Amazon Technologies, Inc. Video ingestion and clip creation
US10296525B2 (en) * 2016-04-15 2019-05-21 Google Llc Providing geographic locations related to user interests

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306095A (ja) * 1999-04-16 2000-11-02 Fujitsu Ltd 画像照合・検索システム
JP2011192093A (ja) * 2010-03-15 2011-09-29 Omron Corp 照合装置、デジタル画像処理システム、照合装置制御プログラム、コンピュータ読み取り可能な記録媒体、および照合装置の制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019229789A1 (ja) * 2018-05-28 2019-12-05 株式会社オプティム 学習済モデル提案システム、学習済モデル提案方法、およびプログラム
JPWO2019229789A1 (ja) * 2018-05-28 2021-06-24 株式会社オプティム 学習済モデル提案システム、学習済モデル提案方法、およびプログラム
JP7068745B2 (ja) 2018-05-28 2022-05-17 株式会社オプティム 学習済モデル提案システム、学習済モデル提案方法、およびプログラム

Also Published As

Publication number Publication date
JP6246441B1 (ja) 2017-12-13
JPWO2018078862A1 (ja) 2018-11-01
US20180350092A1 (en) 2018-12-06
US10535154B2 (en) 2020-01-14

Similar Documents

Publication Publication Date Title
WO2018107910A1 (zh) 一种全景视频融合方法及装置
TW201911130A (zh) 一種翻拍影像識別方法及裝置
JP6404527B1 (ja) カメラ制御システム、カメラ制御方法、およびプログラム
JP6474946B1 (ja) 画像解析結果提供システム、画像解析結果提供方法、およびプログラム
CN112927363B (zh) 体素地图构建方法及装置、计算机可读介质和电子设备
WO2021136386A1 (zh) 数据处理方法、终端和服务器
US20140218291A1 (en) Aligning virtual camera with real camera
EP3093822B1 (en) Displaying a target object imaged in a moving picture
CN110189269B (zh) 用于广角镜头3d畸变的矫正方法、装置、终端及存储介质
KR20200101741A (ko) 영상에 보케 효과를 적용하는 전자 장치 및 그 제어 방법
CN108985263B (zh) 一种数据采集方法、装置、电子设备和计算机可读介质
JP6246441B1 (ja) 画像解析システム、画像解析方法、およびプログラム
WO2017092432A1 (zh) 一种虚拟现实交互方法、装置和系统
US10645297B2 (en) System, method, and program for adjusting angle of camera
CN111833457A (zh) 图像处理方法、设备及存储介质
KR101176743B1 (ko) 객체 인식 장치 및 방법과 이를 이용한 정보 컨텐츠 제공 장치 및 정보 컨텐츠 관리 서버
CN113920540A (zh) 基于知识蒸馏的行人重识别方法、装置、设备及存储介质
CN109816628A (zh) 人脸评价方法及相关产品
CN110222576B (zh) 拳击动作识别方法、装置和电子设备
CN117201931A (zh) 摄像机参数采集方法、装置、计算机设备和存储介质
US20170193668A1 (en) Intelligent Equipment-Based Motion Sensing Control Method, Electronic Device and Intelligent Equipment
CN109345560B (zh) 增强现实设备的运动跟踪精度测试方法及装置
JP2008276613A (ja) 移動体判定装置、コンピュータプログラム及び移動体判定方法
JP2018066687A (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP6246440B1 (ja) 画像解析システム、画像解析方法、およびプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2017545425

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16920289

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16920289

Country of ref document: EP

Kind code of ref document: A1