WO2014147917A1 - 処理装置、処理装置のデータ処理方法、およびプログラム - Google Patents

処理装置、処理装置のデータ処理方法、およびプログラム Download PDF

Info

Publication number
WO2014147917A1
WO2014147917A1 PCT/JP2013/084876 JP2013084876W WO2014147917A1 WO 2014147917 A1 WO2014147917 A1 WO 2014147917A1 JP 2013084876 W JP2013084876 W JP 2013084876W WO 2014147917 A1 WO2014147917 A1 WO 2014147917A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
processing
video
control
image recognition
Prior art date
Application number
PCT/JP2013/084876
Other languages
English (en)
French (fr)
Inventor
原田 大生
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2015506560A priority Critical patent/JP6115630B2/ja
Publication of WO2014147917A1 publication Critical patent/WO2014147917A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction

Definitions

  • the present invention relates to a processing device, a data processing method for the processing device, and a program, and more particularly, to a processing device that controls image recognition processing, a data processing method for the processing device, and a program.
  • the present inventor has found the following problems. For example, in a system that performs image recognition processing of video captured using an imaging unit provided in a terminal such as a smartphone, the video captured on the terminal side is transmitted in real time to an image recognition processing device (server), and the server With the configuration in which the image recognition processing is continuously performed, the load on both the server and the terminal becomes large. For example, when image recognition requests are transmitted from a large number of terminals to the server, the load on the server increases. Even when all image recognition processing is performed on the terminal side, or when part of the processing for recognition processing on the server side is performed on the terminal side, if the image recognition processing is performed continuously, the CPU ( Central processing units) and memory resources are consumed, resulting in heavy operation and increased power consumption. As a method for designating the recognition processing timing on the terminal side, it may be configured to accept pressing of a predetermined operation button, for example, a shooting button, etc., but it is necessary to operate each time for recognition. Is damaged.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to provide a processing device, a data processing method for the processing device, and a program for reducing the load of image recognition processing without impairing convenience. There is to do.
  • the processing apparatus of the present invention Acquisition means for sequentially acquiring video captured by the imaging unit, and acquiring control determination data indicating a shooting state in the imaging unit when the video is generated; Control means for controlling image recognition processing of the video based on the acquired control determination data.
  • the data processing method of the processing apparatus of the present invention is: The processing device Sequentially acquiring images captured by the imaging unit, acquiring control determination data indicating a shooting state in the imaging unit when the image is generated; Based on the acquired control determination data, image recognition processing of the video is controlled.
  • the computer program of the present invention is: A procedure for sequentially acquiring video captured by the imaging unit and acquiring control determination data indicating a shooting state in the imaging unit when the video is generated, A program for causing a computer to execute a procedure for controlling the image recognition processing of the video based on the acquired control determination data.
  • a plurality of components are formed as a single member, and a single component is formed of a plurality of members. It may be that a certain component is a part of another component, a part of a certain component overlaps with a part of another component, or the like.
  • the data processing method and the computer program of the present invention describe a plurality of procedures in order, the described order does not limit the order in which the plurality of procedures are executed. For this reason, when implementing the data processing method and computer program of this invention, the order of the several procedure can be changed in the range which does not have trouble in content.
  • the data processing method and the plurality of procedures of the computer program of the present invention are not limited to being executed at different timings. For this reason, another procedure may occur during the execution of a certain procedure, or some or all of the execution timing of a certain procedure and the execution timing of another procedure may overlap.
  • a processing device a data processing method for the processing device, and a program for reducing the load of image recognition processing without impairing convenience.
  • FIG. 1 is a functional block diagram showing a logical configuration of a processing apparatus 100 according to an embodiment of the present invention.
  • the processing apparatus 100 obtains control determination data indicating a shooting state in the imaging unit when an image is generated, which is sequentially acquired by being captured by an imaging unit (not shown).
  • a control unit 104 that controls video image recognition processing based on the acquired control determination data.
  • the processing apparatus 100 can be included in a mobile terminal such as a smartphone 10 or a tablet terminal as shown in FIG.
  • the processing apparatus 100 captures images of the catalog 7 and the like using an imaging unit (not shown) provided in the smartphone 10 and displays images sequentially acquired on the display unit (not shown) of the smartphone 10.
  • Image recognition in which video is recognized in real time by transmitting the video to the server device 60 that performs the recognition processing, and information obtained from the server device 60 is also displayed superimposed on the video as a result of the image recognition processing. Applicable to system 1.
  • both the image recognition processing device and the terminal side have a heavy load.
  • the load on the image recognition processing apparatus increases.
  • resources such as a CPU (Central Processing Unit) and a memory are consumed, the operation becomes heavy, and the power consumption increases.
  • the present invention does not transmit all the captured images, but transmits only the minimum necessary image information, thereby reducing the load on the image recognition processing apparatus and the terminal side. .
  • FIG. 3 is a block diagram illustrating a configuration example of the smartphone 10 including the processing device 100 according to the embodiment of the present invention.
  • the smartphone 10 includes a CPU 12, a memory 14, a mobile phone network communication unit 18, a wireless LAN (Local Area Network) communication unit 20, an operation unit 22, and an operation reception unit. 24, a display unit 26, a display control unit 28, an imaging unit 30, a speaker 32, a microphone 34, and an audio control unit 36.
  • the CPU 12 is connected to each element of the smartphone 10 via the bus 40 and controls the entire smartphone 10 together with each element.
  • the memory 14 temporarily stores data such as a program for operating the smartphone 10 and various application programs, an area for storing various setting data used when the programs operate, and a work area for operating the programs. And an area for storing. Further, the memory 14 can include an area for storing user data including address data and various content data.
  • the memory 14 described above stores application programs and setting data for operating the programs, temporary storage data, user data, etc., such as ROM (Read Only Memory), RAM (Random Access Memory), flash memory, and disk drive.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • flash memory and disk drive.
  • Various kinds of memory devices having a function for the purpose may be used.
  • the operation unit 22 includes operation keys, operation buttons, switches, a jog dial, a touch pad, a touch panel integrated with the display unit 26, and the like.
  • the operation reception unit 24 receives an operation of the operation unit 22 by the user and notifies the CPU 12 of the operation.
  • the display unit 26 includes an LED (Light Emitting Diode) display, a liquid crystal display, an organic EL (ElectroLuminescence) display, and the like.
  • the display control unit 28 displays various screens on the display unit 26 in accordance with instructions from the CPU 12.
  • the voice control unit 36 performs voice output from the speaker 32 and voice input from the microphone 34 in accordance with instructions from the CPU 12.
  • the mobile phone network communication unit 18 is connected to a mobile communication network (not shown) via a base station (not shown) in a 3G (3rd generation mobile phone) system, for example, via a mobile phone network antenna 19. Connect and communicate.
  • the smartphone 10 is connected to the network 3 (FIG. 2) such as the Internet from the mobile communication network, and can communicate with the server device 60 (FIG. 2).
  • the wireless LAN communication unit 20 performs wireless LAN communication with a relay device (not shown) via a wireless LAN antenna 21 by a method compliant with, for example, IEEE 802.11 standard.
  • the smartphone 10 performs wireless LAN communication with a relay device (not shown) installed indoors by the wireless LAN communication unit 20 and connects to a home network (not shown), and the like via the home network. It connects to the network 3 (FIG. 2) and can communicate with the server device 60 (FIG. 2).
  • the smartphone 10 includes the mobile phone network communication unit 18 and the wireless LAN communication unit 20 and communicates with the server device 60, but is not limited thereto.
  • the terminal including the processing device 100 of the present invention may be configured to include one of the mobile phone network communication unit 18 and the wireless LAN communication unit 20, or may include other communication means and use other communication means. It may be configured to communicate with the server device 60.
  • an application program for realizing the processing device 100 according to the embodiment of the present invention is installed in the memory 14 in advance and executed by the CPU 12, thereby realizing at least a part of the functions of the processing device 100.
  • a web page is provided on a web server (not shown) that realizes at least a part of the functions of the processing device 100, and the user accesses the web page using the smartphone 10, so that the function of the processing device 100 is changed to the smartphone 10. It is good also as a structure which can utilize.
  • the processing apparatus 100 may be included in any portable terminal such as a mobile phone, a PHS (Personal Handyphone System), a PDA (Personal Digital Assistants), a game machine, and a tablet terminal.
  • the portable terminal sequentially displays a camera (image pickup unit 30 in FIG. 3) for photographing the object by holding the portable terminal including the processing device 100 over the object and an image obtained by photographing using the camera.
  • Display unit 26 (FIG. 3). Note that the imaging unit 30 and the display unit 26 may not be integrated with the mobile terminal.
  • a configuration in which the imaging unit 30 is connected to a terminal device such as a notebook personal computer including the processing device 100 and the user holds the imaging unit 30 over an object and looks at the monitor (display unit) of the terminal device may be included.
  • a terminal device such as a notebook personal computer including the processing device 100 and the user holds the imaging unit 30 over an object and looks at the monitor (display unit) of the terminal device.
  • each component of FIG. 1 of the processing apparatus 100 which takes the smart phone 10 as an example is a program for realizing the components of FIG. 1 loaded in the CPU 12, the memory 14, and the memory 14 shown in FIG. Arbitrary combination of hardware and software of any computer having a storage unit for storing the program 42 and a network (for example, the network 3 in FIG. 2) connection interface (such as the cellular phone network communication unit 18 or the wireless LAN communication unit 20) It is realized by. It will be understood by those skilled in the art that there are various modifications to the implementation method and apparatus. Each functional block diagram described below shows a block of logical functional units, not a configuration of hardware units.
  • the CPU 12 can implement each function of each unit by reading and executing the program 42 stored in the memory 14.
  • the program 42 that implements the processing device 100 according to the embodiment of the present invention is installed in advance in the memory 14 of the smartphone 10 as an application program.
  • the computer program 42 sequentially obtains videos taken by the imaging unit 30 in a computer for realizing the processing device 100, and shows the shooting state in the imaging unit 30 when the video is generated. It is described that a procedure for acquiring determination data and a procedure for controlling image recognition processing of a video based on the acquired control determination data are executed.
  • the computer program 42 of the present embodiment may be recorded on a computer-readable recording medium.
  • the recording medium is not particularly limited, and various forms can be considered.
  • the program may be loaded from a recording medium into a computer memory, or downloaded to a computer through a network and loaded into the memory.
  • the acquisition unit 102 acquires control determination data indicating a shooting state in the imaging unit 30 (FIG. 3).
  • the control determination data indicating the shooting state may take various forms and will be described in detail in the embodiments described later. For example, as the shooting state, i) whether or not the subject is aimed, ii) the shot is taken. It indicates the status of at least one of whether there is a change in the image in the recorded video and iii) the level of the image quality of the captured video.
  • the object to be photographed is not particularly limited.
  • a logo or the like presented on various objects paper, cloth, display
  • images captured by the imaging unit 30 are sequentially acquired and sequentially displayed on the display unit 26 (FIG. 3).
  • a usage scene of the processing apparatus 100 of the present embodiment for example, a scene where the user shoots while holding the processing apparatus 100 or the imaging unit 30 toward an object is considered.
  • the user may move the processing device 100 or the imaging unit 30 to follow the target object while capturing and following the moving target object while holding the processing device 100 or the imaging unit 30, and shoot the target object. It is possible to think of a special scene.
  • the control unit 104 controls the image recognition process based on the acquired control determination data.
  • the image recognition processing is performed by the server device 60 of FIG. 2, but the configuration performed by the terminal device including the processing device 100 or the combination of the server device 60 and the terminal device performs the image recognition processing. It may be configured to share.
  • the server device 60 may be a system using cloud computing.
  • control of the image recognition process is, for example, switching whether to perform the image recognition process, changing the frequency of the image recognition process, changing the image recognition target range, or a combination of these controls. Can be included.
  • control of image recognition processing may be control of transmission of video data to the image recognition processing apparatus, switching whether to stop transmission of video data, changing transmission frequency, transmitting It can include changing the data size (image quality, resolution), selecting transmission means, or a combination of these controls.
  • the control of the image recognition process may be combined with the transmission control of video data to the image recognition processing apparatus.
  • control determination data is based on an output signal from the acceleration sensor or gyro sensor of the smartphone 10 and whether or not the change in the movement of the imaging unit 30 is within a predetermined range. Can be shown. For example, when the change in the movement of the imaging unit 30 is not within a predetermined range, that is, when the movement of the imaging unit 30 does not change at all, or when the change in the movement is large, it can be determined that the subject is not aimed.
  • FIG. 4 is a flowchart illustrating an example of the operation of the processing apparatus 100 according to the present embodiment.
  • the processing apparatus 100 sequentially acquires the images captured by the imaging unit 30, and is used for control determination indicating the shooting state in the imaging unit 30 when the images are generated. Data is acquired (step S103), and video image recognition processing is controlled based on the acquired control determination data (step S105).
  • the user holds the smartphone 10 over the object and images the object by the imaging unit 30 (step S101).
  • the acquisition part 102 acquires the data for control determination which show the imaging
  • the acquisition unit 102 acquires an output signal from an acceleration sensor or gyro sensor of the smartphone 10 as control determination data.
  • control part 104 controls the image recognition process of an image
  • the control unit 104 can perform control so as to perform image recognition processing when the change in the movement of the imaging unit 30 is within a predetermined range.
  • the processing device 100 since the image recognition process is controlled based on the control determination data indicating the shooting state of the imaging unit 30, a video is obtained.
  • control can be performed to suppress the image recognition processing, and an increase in load due to unnecessary processing can be suppressed, and recognition accuracy can be improved. It can also be improved.
  • the load on the server device 60 side, the consumption of machine resources on the terminal side, and the consumption of the battery of the terminal can be suppressed.
  • the processing apparatus 200 particularly has a configuration for controlling the image recognition processing of video based on whether or not the subject is aimed.
  • the processing apparatus 200 of the present embodiment includes the same configuration (acquisition unit 102 and control unit 104) as the processing apparatus 100 of FIG. 1 of the above embodiment.
  • the acquisition unit 102 acquires status data indicating the detection result of the shooting state of the imaging unit as control determination data
  • the control unit 104 aims at the subject based on the status data. It is determined whether or not the image is present, and video image recognition processing is controlled according to the determination result.
  • FIG. 5 is a functional block diagram showing an example of a main configuration of the processing apparatus 200 according to the embodiment of the present invention.
  • the control unit 104 is omitted and not shown.
  • the acquisition unit 102 uses, as status data indicating the detection result of the imaging state of the imaging unit 30, from the acceleration sensor 202, the gyro sensor 204, or a combination thereof. Get the output signal.
  • the control unit 104 checks whether the change in the movement of the imaging unit 30 is within a predetermined range.
  • the control unit 104 determines that the subject is aimed when the change in the movement of the imaging unit 30 is within a predetermined range, and aims at the subject when the change in the movement of the imaging unit 30 is not within the predetermined range. It is determined that it is not in a state.
  • acceleration sensor 202 and the gyro sensor 204 may be those already provided in a terminal such as the smartphone 10, or may be provided in the processing device 200.
  • the camera orientation is fixed even when the terminal is fixed or moved to some extent. And move slowly. Therefore, the acceleration detected by the acceleration sensor 202 is a small value equal to or less than a certain value when the influence of gravity is subtracted. Further, the change in the orientation of the terminal detected by the gyro sensor 204 is also a small value equal to or less than a certain value. Therefore, when an output value of the acceleration sensor or gyro sensor exceeding these fixed small values is detected, it can be determined that the subject is not aimed.
  • the shooting state is determined based on outputs from the acceleration sensor 202, the gyro sensor 204, and the like.
  • the acquisition unit 102 acquires an output signal from the acceleration sensor 202 as status data. And it passes to the control part 104 (FIG. 1), and the control part 104 investigates whether the change of the motion of the imaging part 30 is in a predetermined range based on the status data acquired by the acquisition part 102. FIG. Then, when the change in the movement of the imaging unit 30 is within a predetermined range, the control unit 104 determines that the subject is aimed. When the change in the movement of the imaging unit 30 is not within the predetermined range, the control unit 104 aims at the subject. It is determined that it is not in a state. And the control part 104 controls the image recognition process of an image
  • control of the image recognition processing by the control unit 104 includes, for example, whether or not to perform the image recognition processing, control for changing the accuracy of the image recognition processing, and transmission control of video data to the image recognition processing device. Etc. can be included.
  • the acquisition unit 102 acquires an output signal from the acceleration sensor 202.
  • the control part 104 discriminate
  • the control unit 104 determines that the imaging unit 30 is aiming at the subject, and performs control so as to perform image recognition processing or increase the processing frequency.
  • the control unit 104 determines that the imaging unit 30 is not aiming at the subject, and controls to stop the image recognition process or reduce the processing frequency. To do.
  • control unit 104 may determine whether the direction of gravity is constant based on an output signal from the acceleration sensor 202. When the direction of gravity is constant, the control unit 104 determines that the imaging unit 30 is aiming at the subject, and performs control to perform image recognition processing or increase the processing frequency. On the other hand, when the direction of gravity is not constant, the control unit 104 determines that the imaging unit 30 is not aiming at the subject, and performs control to stop the image recognition process or reduce the processing frequency.
  • the acquisition unit 102 acquires an output signal from the gyro sensor 204. Then, the control unit 104 determines whether or not the detection value of the gyro sensor 204 indicated by the output signal from the gyro sensor 204 is equal to or less than a certain value. When the detection value of the gyro sensor 204 is below a certain value, that is, when the angular velocity is below a certain value (substantially zero), the orientation of the imaging unit 30 is considered to be stable without changing.
  • the control unit 104 determines that the imaging unit 30 is aiming at the subject, and performs control so as to perform image recognition processing or increase the processing frequency.
  • the control unit 104 determines that the imaging unit 30 is not aiming at the subject, and controls the image recognition process to be stopped or the processing frequency to be lowered.
  • the acquisition unit 102 acquires output signals from the acceleration sensor 202 and the gyro sensor 204. Then, the control unit 104 determines whether or not the imaging unit 30 is moving in parallel based on output signals from the acceleration sensor 202 and the gyro sensor 204. For example, when the orientation of the terminal calculated by the output value from the gyro sensor 204 is constant and the value from the acceleration sensor 202 changes, or is estimated from the output value of the triaxial acceleration sensor 202. When the gravitational direction is constant, it is determined that the imaging unit 30 is moving in parallel.
  • the control unit 104 controls the image recognition process according to the determination result based on the output signals from the acceleration sensor 202 and the gyro sensor 204. That is, when it is determined that the imaging unit 30 is moving in parallel, the control unit 104 performs control so as to perform image recognition processing or increase the processing frequency. On the other hand, when it is determined that the imaging unit 30 has not moved in parallel, the control unit 104 controls to stop the image recognition process or reduce the processing frequency.
  • FIG. 6 is a functional block diagram showing another example of the main configuration of the processing apparatus 200 according to the embodiment of the present invention.
  • the processing apparatus 200 of the present embodiment includes the same configuration (acquisition unit 102 and control unit 104) as the processing apparatus 100 of FIG. 1 of the above embodiment. Furthermore, as described with reference to FIG. 5, the determination result in the control unit 104 based on the status data acquired from the acceleration sensor 202 and the gyro sensor 204 may be combined.
  • the acquisition unit 102 uses the autofocus (AF) function unit in the imaging unit 30 as status data indicating the detection result of the imaging state of the imaging unit 30. 212 and at least one status obtained from the camera shake detection function unit 214 are acquired. Then, the control unit 104 can determine whether or not the subject is aimed, based on the acquired status data.
  • AF autofocus
  • the AF function unit 212 and the camera shake detection function unit 214 have status data indicating whether the imaging unit 30 is aimed at the subject, whether the subject is in focus, or the like.
  • the control unit 104 can determine whether or not the subject is aimed at using the data. Then, the control unit 104 performs control so as to perform image recognition processing when it is determined that the subject is aimed.
  • the acquisition unit 102 acquires status data related to focus adjustment from the AF function unit 212.
  • the control unit 104 determines that the imaging unit 30 is not aiming at the subject and performs control so as to stop the image recognition processing. To do.
  • the control unit 104 determines that the imaging unit 30 is aiming at the subject, Control to perform image recognition processing.
  • the acquisition unit 102 acquires status data regarding the operation of the camera shake correction function from the camera shake detection function unit 214.
  • the control unit 104 determines that the imaging unit 30 does not aim at the subject, and stops the image recognition process. To control.
  • the control unit 104 determines that the imaging unit 30 is aiming at the subject and performs image recognition processing. To control.
  • the acquisition unit 102 acquires information on the processing result of the video image analysis processing as status data indicating the detection result of the imaging state of the imaging unit 30, and the control unit 104 Based on the acquired status data, it can be determined whether or not the subject is aimed.
  • the image analysis process is a process of analyzing a captured image on the terminal (local) side before causing the server device 60 to perform image recognition processing on the video. Information obtained by the image analysis process and a determination method based on the information Is exemplified below, but is not limited thereto.
  • the processing apparatus 200 may further include an image analysis processing unit 222.
  • the acquisition unit 102 acquires information on the image analysis processing result from the image analysis processing unit 222 that performs image analysis processing of video.
  • the image analysis processing unit 222 may be included in the processing device 200 or may be configured as a function provided in the terminal.
  • the image processing performed by the image analysis processing unit 222 can include image processing performed on the terminal side in advance before performing the image recognition processing of the server device 60.
  • the status data acquired by the acquisition unit 102 from the image analysis processing unit 222, the determination of status data in the control unit 104, and the control method will be specifically exemplified below, but the present invention is not limited to these.
  • the acquisition unit 102 acquires at least one piece of information such as the position of a point.
  • the control unit 104 obtains a change amount of the captured image information during ⁇ t from the acquired image information, and determines whether or not the change amount of the captured image information during ⁇ t is equal to or less than a predetermined value. If the amount of change is less than or equal to a certain value, the control unit 104 determines that the imaging unit 30 is aiming at the subject, and performs control to perform image recognition processing or increase the processing frequency. If the amount of change is greater than a certain value, the control unit 104 determines that the imaging unit 30 is not aiming at the subject, and controls to stop the image recognition process or reduce the processing frequency.
  • the setting range of the value of ⁇ t is different in the following two situations.
  • the processing device 200 realizes a configuration for detecting a state in which the imaging unit 30 is left unattended in the first place
  • the value of ⁇ t is several minutes or more.
  • the setting can be made within a range in which the state where the unit 30 is left unattended can be detected.
  • the control unit 104 can determine the state in which the imaging unit 30 is left from the amount of change in information of the captured image during ⁇ t.
  • the value of ⁇ t decreases to the level between the previous and next image frames.
  • difference detection or object recognition processing is performed between the image frames to determine the amount of change.
  • the control unit 104 may determine whether or not the imaging unit 30 is aiming at the subject by further considering the change amount change.
  • control unit 104 may consider the change of the change amount. For example, when the change width of the change amount falls within a predetermined range, the control unit 104 may determine that the imaging unit 30 is aiming at the subject.
  • the image analysis processing unit 222 performs image processing used by at least one of the AF function, the camera shake detection function, the blur detection function, the smile detection function, and the like in the imaging unit 30. Assumed to be performed. Then, the acquisition unit 102 acquires status data indicating the state of image processing used for these functions from the image analysis processing unit 222. Then, the control unit 104 determines whether or not the status data indicates a state where the subject is aimed, and controls image recognition processing based on the determination result.
  • the image analysis processing unit 222 performs image processing used for scene classification (smile detection) or the like in the imaging unit 30. Based on the status data acquired from the image analysis processing unit 222 by the acquisition unit 102, the control unit 104 determines whether or not a specific scene is selected, and the specific scene is focused or a smile is detected. It is determined whether or not. Based on these determination results, the control unit 104 determines whether or not the imaging unit 30 is aiming at the subject, and controls the image recognition process.
  • scene classification facsmile detection
  • the control unit 104 determines that the imaging unit 30 is aiming at the subject. Image recognition processing can be performed or the processing frequency can be increased.
  • the control unit 104 causes the imaging unit 30 to target the subject. The image recognition process can be stopped or the processing frequency can be reduced.
  • the processing device 200 according to the embodiment of the present invention is configured to determine the state of aiming at the subject and perform image recognition processing only when the subject is aimed. Since the image captured when the object is not aimed is not processed, unnecessary processing can be omitted, load increase can be suppressed, and recognition accuracy can be improved. Furthermore, the load on the server device 60 side, the consumption of machine resources on the terminal side, and the consumption of the battery of the terminal can be suppressed.
  • the processing apparatus 300 according to the embodiment of the present invention is different from the above-described embodiment in that the image recognition processing of video is controlled based on the presence or absence of image change.
  • the processing apparatus 300 of the present embodiment includes the same configuration (acquisition unit 102 and control unit 104) as the processing apparatus 100 of FIG. 1 of the above embodiment.
  • the acquisition unit 102 acquires image feature data indicating video features as control determination data
  • the control unit 104 compares features based on the acquired image feature data.
  • the image recognition processing of the video is controlled according to the comparison result.
  • control unit 104 checks the feature against the comparison target, and detects the presence or absence of a change in the image in the video from the comparison result. And when there is no change in an image, control which stops or suppresses image recognition processing is performed.
  • the fact that there is no change in the captured image means that the same image is being captured, and that the image has already undergone image recognition processing. Can be reduced.
  • the “comparison target” can be variously considered as will be described later, and is, for example, a feature amount of an image that can be recognized recently.
  • Control that suppresses image recognition processing includes, for example, reducing the frequency of image recognition processing, narrowing the image recognition target range, reducing the frequency of video data transmission processing to the image recognition processing device, and reducing the transmission data size,
  • the transmission image quality or image resolution can be reduced, or a combination of these can be included.
  • the processing device 300 can omit unnecessary processing by performing control to stop or suppress the image recognition processing when there is no change in the image, and the server device 60 can be omitted.
  • the load of image recognition processing or communication processing with the server device 60 can be reduced.
  • FIG. 8 is a functional block diagram showing a main configuration of the processing apparatus 300 according to the embodiment of the present invention. Furthermore, the structure similar to either of FIG. 5 thru
  • the control unit 104 is omitted and not shown.
  • the acquisition unit 102 recognizes the feature amount of each image sequentially obtained from the video as image feature data indicating the video features (local recognition). The recognition result of each image is acquired from the image recognition unit 302), and the control unit 104 determines whether there is a change in the image in the video from the acquired recognition result of each image.
  • the latest recognition result is compared with the latest recognition result to determine whether there is a change in the image.
  • the acquisition unit 102 acquires the recognition result or feature amount of each image from the local image recognition unit 302 that recognizes the feature amount of each image sequentially obtained from the video as image feature data indicating the feature of the video.
  • control unit 104 compares the feature amount of the recently recognized image with the feature amount of the latest image based on the acquired recognition result or feature amount. Then, the control unit 104 determines whether the similarity of the feature amount is equal to or greater than the threshold value or the difference value of the feature amount is equal to or less than the threshold value. If the condition is satisfied, the control unit 104 determines that there is no change in the image and satisfies the condition. If not, it is determined that there is a change in the image. When it is determined that there is no change in the image, the control unit 104 performs control to stop or suppress the image recognition process.
  • control unit 104 compares the feature quantity of the image that could not be recognized recently with the feature quantity of the latest image based on the acquired recognition result or feature quantity. Then, the control unit 104 determines whether the similarity of the feature amount is equal to or greater than the threshold value or the difference value of the feature amount is equal to or less than the threshold value. If the condition is satisfied, the image is not changed, that is, the latest image is recognized. It is determined that it cannot be performed, and control for stopping the image recognition process is performed. On the other hand, when the condition is not satisfied, the image recognition process does not stop because there is a change in the image and there is a possibility that the image can be recognized.
  • information on the feature amount possessed by the server device 60 is acquired from the recent recognition result, and the feature amount possessed by the server device 60 is acquired for the target object that can be partially recognized.
  • the amount is compared to determine whether the image has changed. For example, when a part of the object is recently recognized, the feature quantity of the whole object or a part of the object is received from the server device 60, and the feature quantity is compared with the feature quantity of the latest image. For example, even if lighting or other objects are reflected so that they overlap at least partly with the object, and part of the object is hidden on the video, some features of the object.
  • the feature amount of the recognized object can be received and used as the feature amount of the recently recognized image. Thereby, it is possible to control so that unnecessary image recognition processing is not performed even when there is a large change in the image due to the illumination or other objects reflected in the object.
  • the acquisition unit 102 acquires the recognition result and the feature amount of each image from the local image recognition unit 302 as in the first example. Furthermore, the acquisition unit 102 receives from the server device 60 the entire object including a part of the image that has recently been recognized, or a part of the feature amount. When it is determined that a part of the object has recently been recognized based on the recognition result, the control unit 104 compares the feature quantity of the object received from the server device 60 with the feature quantity of the latest image.
  • the control unit 104 determines whether the feature amount of the latest image is at least a part of the feature amount of the object, whether the similarity is equal to or greater than a threshold value, or the difference value of the feature amount is equal to or less than the threshold value, and satisfies the condition In this case, it is determined that there is no change in the image, that is, the latest image cannot be recognized, and control for stopping the image recognition process is performed. On the other hand, if the condition is not satisfied, there is a change in the image and there is a possibility that it can be recognized. Therefore, the control unit 104 does not perform control to stop the image recognition processing.
  • control unit 104 compares the feature amount of the target object with the feature amount of the latest image, and determines the feature amount of the target object in the image frame. Based on the relative position of the feature amount of the latest image, control may be performed so as to perform the image recognition process by excluding the range of the entire object that has been recently recognized from the image recognition process target.
  • the acquisition unit 102 acquires frame information of each image from the local image recognition unit 302 that recognizes the feature amount of each image sequentially obtained from the video as image feature data indicating the feature of the video. Then, the control unit 104 determines whether the difference in the frame position of each image in the video is equal to or less than a threshold value from the acquired frame information of each image. If the difference is equal to or less than the threshold value, the control unit 104 determines that there is no change in the image. If the difference is greater than the threshold, it is determined that the image has changed.
  • the acquisition unit 102 further acquires difference information between frame images as image feature data.
  • the control unit 104 determines whether the difference between the frame images is equal to or less than a threshold based on the acquired difference information.
  • the control unit 104 performs control to stop the image recognition process. As a result, even when the hand is shaken and the captured image is changed, the image recognition process is not performed one by one, so the load can be reduced.
  • the processing device 300 according to the embodiment of the present invention is configured to determine whether or not there is a change in the image and perform the image recognition process when there is a change in the image. If there is no video, the video is not processed. Therefore, unnecessary processing can be omitted, load increase can be suppressed, and recognition accuracy can be improved. Furthermore, the load on the server device 60 side, the consumption of machine resources on the terminal side, and the consumption of the battery of the terminal can be suppressed.
  • the processing device is different from the above-described embodiment in that the image recognition processing of video is controlled according to the image quality level.
  • the processing apparatus of the present embodiment can include a configuration similar to at least one of the processing apparatus 100, the processing apparatus 200, and the processing apparatus 300 of the above-described embodiment.
  • the acquisition unit 102 acquires image quality data indicating the image quality of the video as the control determination data
  • the control unit 104 determines whether the image quality of the video is above a reference based on the image quality data, Based on the determination result, video image recognition processing is controlled.
  • the control unit 104 determines the image quality level of the image. If the image quality is poor, the accuracy of the image recognition process is lowered, and the recognition may take time. Control to stop or suppress the image recognition process is performed.
  • Various criteria for determining the image quality level are conceivable, and the following specific examples will be described, but are not limited thereto. With this configuration, when the image quality is poor, unnecessary processing can be omitted by stopping or suppressing the image recognition processing, such as image recognition processing in the server device 60 or communication processing with the server device 60. The load can be reduced.
  • the control unit 104 determines the image quality based on image feature information obtained from the image recognition processing result in at least one of the local (smartphone 10) and the server device 60.
  • the acquisition unit 102 may acquire from the local image recognition unit 302 of the above embodiment.
  • the acquisition unit 102 acquires image feature information obtained from the image recognition processing result as image quality data indicating the image quality of the video. Then, the control unit 104 determines whether or not the acquired amount of feature information is greater than or equal to a threshold value.
  • the amount of feature information includes, for example, the number of feature points having recognizable feature amounts extracted from image frames, the distribution range of feature points, the value of feature amounts possessed by each feature point, vector amounts, and the like. Various indicators can be included.
  • threshold value a fixed threshold value (threshold value) whether or not an information amount necessary for obtaining a desired recognition accuracy is obtained.
  • the control unit 104 does not stop the image recognition process because desired recognition accuracy is obtained.
  • the control unit 104 stops or suppresses the image recognition processing.
  • Whether or not a desired recognition accuracy can be obtained is determined by the feature information to be recognized, which is held by the server device 60 as a feature amount database (for example, the image database 50 in FIG. 2) or the like. It can be changed. Therefore, the threshold value of the amount of feature information can be determined from information related to the feature distribution of feature information to be recognized.
  • a feature amount database for example, the image database 50 in FIG. 2 or the like. It can be changed. Therefore, the threshold value of the amount of feature information can be determined from information related to the feature distribution of feature information to be recognized.
  • Information relating to the feature distribution of the feature information to be recognized is, for example, the number of feature amounts registered in the feature amount database used by the server device 60 for image recognition processing, the similarity between feature amounts, or requested. Recognition accuracy and the like are included. That is, in the present embodiment, the acquisition unit 102 further acquires a threshold value of the amount of feature information corresponding to the recognition target. The control unit 104 can perform the determination process as described above using the threshold value of the amount of feature information acquired by the acquisition unit 102.
  • the second example performs image quality check processing without performing feature extraction processing for image recognition, and determines the image quality level based on the result.
  • the acquisition unit 102 may use at least one of image color distribution, brightness (stops below a certain level), luminance distribution (stops above a certain level, stops below a certain level), and target edge detection (stops above a threshold value) as image quality data. Get one piece of information.
  • Pieces of information may be acquired by providing an image quality check processing unit (not shown), or may be acquired from a function that the imaging unit 30 already has.
  • the acquisition unit 102 acquires image quality information obtained in the process of image recognition, for example, a camera shake or a blur detection signal, as the image quality data.
  • the control unit 104 stops the image recognition process when a camera shake or a blur detection signal is detected.
  • the acquisition unit 102 acquires the operation status of the AF mechanism or the exposure adjustment mechanism of the imaging unit 30 as image quality data. Then, if the control unit 104 determines that the operation status is being adjusted, the control unit 104 stops the image recognition process.
  • the same effects as those of the above embodiment can be obtained. That is, according to the processing device according to the embodiment of the present invention, the image recognition level is determined, and the image recognition process is performed when the image quality is good. Since the video is not processed, unnecessary processing can be omitted, load increase can be suppressed, and recognition accuracy can be improved. Furthermore, the load on the server device 60 side, the consumption of machine resources on the terminal side, and the consumption of the battery of the terminal can be suppressed.
  • a processing apparatus combines the above-described embodiments, and performs image recognition processing of a video according to whether or not the subject is aimed, whether there is an image change, and at least one of the image quality level To control.
  • the processing apparatus of the present embodiment can include a configuration similar to the configuration of at least one of the processing apparatuses of all the embodiments described above.
  • FIG. 9 is a flowchart showing an example of the operation of the processing apparatus according to the embodiment of the present invention.
  • the data processing method of the processing apparatus according to the present embodiment determines whether or not the subject is aimed based on the shooting state acquired by the acquisition unit 102 of the processing apparatus (step S501), and acquires the acquired image feature data. On the basis of this, it is determined whether or not there is a change in the image in the video (step S503). Based on the image quality data, it is determined whether the image quality of the video is above the reference (step S505). YES, YES in step S503, and YES in step S505), the control unit 104 performs image recognition processing of the video (step S507). If even one of the conditions is not met (NO in step S501, NO in step S503, or NO in step S505), the control unit 104 stops the video image recognition process (step S509).
  • control of the image recognition processing of the video in step S507 or step S509 can include not only operation or stop control but also control such as suppression control or transmission control. Appropriate control can be performed.
  • the video image recognition process is performed when all the conditions are met.
  • the present invention is not limited to this.
  • a video image recognition process may be performed.
  • the order of determination in each step is not limited to this.
  • it is not necessary to determine all the conditions, and the conditions to be used may be selected and determined according to the performance of the system, the accuracy required, or the cost.
  • step S501 determines whether or not the subject is aimed
  • step S503 whether there is a change in the image in the video It is desirable to determine by combining the above.
  • the determination in step S505 is effective in the case of a configuration that emphasizes accuracy.
  • image analysis processing is more effective when status data acquired from the AF function, camera shake correction function, or the like, or status data acquired from the acceleration sensor 202 or the gyro sensor 204 is used.
  • the load is lower than the method using the result. Therefore, from the viewpoint of reducing the load, it is preferable that the determination in step S501 does not include a method of using the image analysis processing result in determining whether or not the subject is aimed.
  • the acquisition unit 102 may acquire control determination data indicating a predetermined shooting state for each application or operation that performs video image recognition processing.
  • the control part 104 can control the image recognition process of an image
  • the same effects as those of the above embodiment can be obtained, and furthermore, based on the result determined by the appropriate control determination data according to the system.
  • the image recognition process can be controlled.
  • the acquisition unit 102 detects a change due to a distance sensor or light irradiation, acquires a distance using an AF focal length, and the control unit 104 Then, it is determined whether or not the acquired data is equal to or greater than a certain value. If the obtained data is equal to or greater than the certain value, the image recognition processing can be controlled to be stopped.
  • the acquisition unit 102 acquires a signal for detecting the direction in which the imaging unit 30 is capturing, and the control unit 104 is facing the imaging unit 30 upward, that is, Only when it is detected that the direction detection signal is equal to or greater than the predetermined value degree, it is possible to control to perform the image recognition process.
  • the acquisition unit 102 acquires a signal for detecting the moving direction and the shooting direction of the imaging unit 30, and the control unit 104 advances the imaging unit 30 in a substantially horizontal direction.
  • the control unit 104 advances the imaging unit 30 in a substantially horizontal direction.
  • Acquisition means for sequentially acquiring video captured by the imaging unit, and acquiring control determination data indicating a shooting state in the imaging unit when the video is generated; And a control unit that controls image recognition processing of the video based on the acquired control determination data.
  • the acquisition means acquires image feature data indicating the characteristics of the video as the control determination data, The processing device, wherein the control means determines the presence or absence of an image change in the video based on the acquired image feature data, and controls the image recognition processing of the video based on the determination result. 3.
  • the acquisition unit acquires a recognition result of each image from the image recognition processing unit that recognizes a feature amount of each image sequentially obtained from the video as the image feature data indicating the feature of the video;
  • the processing means for determining whether or not there is a change in an image in the video from the recognition result of each acquired image. 4). 2. Or 3.
  • the control means determines whether or not the difference between the frame positions of the images in the video is equal to or less than a threshold value from the acquired frame information of the images.
  • the acquisition unit acquires status data indicating a detection result of a shooting state of the imaging unit as the control determination data, The control unit determines whether or not the subject is in a state of aiming based on the status data, and controls the image recognition processing of the video according to the determination result. 6). 5.
  • the acquisition unit acquires an output signal from an acceleration sensor, a gyro sensor, or a combination thereof as status data indicating a detection result of a shooting state of the imaging unit, Based on the status data, the control unit checks whether or not the change in the movement of the imaging unit is within a predetermined range. If the change in the movement of the imaging unit is within a predetermined range, the control unit aims at the subject.
  • a processing apparatus that determines that the subject is not in a state of being aimed when the change in movement of the imaging unit is not within a predetermined range. 7). 5. Or 6.
  • the acquisition unit acquires at least one status obtained from an autofocus function or a camera shake detection function in the imaging unit as status data indicating a detection result of a shooting state of the imaging unit, The processing device that determines whether the control means is in a state of aiming at the subject based on the acquired status data. 8). 5. To 7. In any one of the processing apparatuses, The acquisition unit acquires information on a processing result of an image analysis process of the video as status data indicating a detection result of a shooting state of the imaging unit, The processing device that determines whether the control means is in a state of aiming at the subject based on the acquired status data. 9. 5. To 8.
  • the acquisition means acquires the control determination data indicating a predetermined shooting state for each application or operation for performing image recognition processing of the video, The processing device, wherein the control means controls image recognition processing of the video on the basis of the acquired control determination data under a condition corresponding to the application or operation. 10. 1. To 9. In any one of the processing apparatuses, The acquisition means acquires image quality data indicating the image quality of the video as the control determination data, The control means determines whether the image quality of the video is higher than a standard based on the image quality data, and controls an image recognition process of the video based on the determination result. 11. 1. To 10.
  • the control device is configured to control whether the image recognition processing in the image processing device is controlled based on the control determination data or whether the video is transmitted to the image processing device that performs the image recognition processing. 12 1. To 11. In any one of the processing apparatuses, The image recognition processing is performed by a terminal device including the processing device, or a server device connected to the processing device via a network, or by a processing device shared by the terminal device and the server device. .
  • Acquisition means for sequentially acquiring video captured by the imaging unit, and acquiring control determination data indicating a shooting state in the imaging unit when the video is generated; And a control unit that controls image recognition processing of the video based on the acquired control determination data.
  • acquisition means acquires image quality data indicating the image quality of the video as the control determination data, The control means determines whether the image quality of the video is higher than a standard based on the image quality data, and controls an image recognition process of the video based on the determination result. 15. 13. Or 14.
  • the acquisition unit acquires status data indicating a detection result of a shooting state of the imaging unit as the control determination data, The control unit determines whether or not the subject is in a state of aiming based on the status data, and controls the image recognition processing of the video according to the determination result. 16. 15.
  • the control unit acquires an output signal from an acceleration sensor, a gyro sensor, or a combination thereof as status data indicating a detection result of a shooting state of the imaging unit, Based on the status data, the control unit checks whether or not the change in the movement of the imaging unit is within a predetermined range. If the change in the movement of the imaging unit is within a predetermined range, the control unit aims at the subject.
  • a processing apparatus that determines that the subject is not in a state of being aimed when the change in movement of the imaging unit is not within a predetermined range. 17. 15. Or 16. In the processing apparatus described in The acquisition unit acquires at least one status obtained from an autofocus function or a camera shake detection function in the imaging unit as status data indicating a detection result of a shooting state of the imaging unit, The processing device that determines whether the control means is in a state of aiming at the subject based on the acquired status data. 18. 15. To 17.
  • the acquisition unit acquires information on a processing result of an image analysis process of the video as status data indicating a detection result of a shooting state of the imaging unit, The processing device that determines whether the control means is in a state of aiming at the subject based on the acquired status data. 19. 15. To 18. In any one of the processing apparatuses, The acquisition means acquires the control determination data indicating a predetermined shooting state for each application or operation for performing image recognition processing of the video, The processing device, wherein the control means controls image recognition processing of the video on the basis of the acquired control determination data under a condition corresponding to the application or operation. 20. 13. Thru 19.
  • the acquisition means acquires image feature data indicating the characteristics of the video as the control determination data
  • the processing device wherein the control means determines the presence or absence of an image change in the video based on the acquired image feature data, and controls the image recognition processing of the video based on the determination result.
  • 21. 20. In the processing apparatus described in The acquisition unit acquires a recognition result of each image from the image recognition processing unit that recognizes a feature amount of each image sequentially obtained from the video as the image feature data indicating the feature of the video; The processing means for determining whether or not there is a change in an image in the video from the recognition result of each acquired image. 22. 20. Or 21.
  • the control means determines whether or not the difference between the frame positions of the images in the video is equal to or less than a threshold value from the acquired frame information of the images. If the difference is equal to or less than the threshold value, the image does not change. And when the difference is greater than a threshold, the processing apparatus determines that the image has changed. 23. 13. Thru 22.
  • the control device is configured to control whether the image recognition processing in the image processing device is controlled based on the control determination data or whether the video is transmitted to the image processing device that performs the image recognition processing. 24. 13. Thru 23.
  • the image recognition processing is performed by a terminal device including the processing device, or a server device connected to the processing device via a network, or by a processing device shared by the terminal device and the server device. .
  • the processing device Sequentially acquiring images captured by the imaging unit, acquiring control determination data indicating a shooting state in the imaging unit when the image is generated; A data processing method of a processing apparatus for controlling an image recognition process of the video based on the acquired control determination data.
  • the processing device is As the control determination data, obtain status data indicating the detection result of the imaging state of the imaging unit, A data processing method of a processing device for determining whether or not a subject is aimed based on the status data and controlling the image recognition processing of the video according to the determination result. 27. 26.
  • the processing device is As the status data indicating the detection result of the imaging state of the imaging unit, an output signal from an acceleration sensor, a gyro sensor, or a combination thereof is acquired, Based on the status data, it is determined whether or not the change in the movement of the imaging unit is within a predetermined range. If the change in the movement of the imaging unit is within the predetermined range, it is determined that the subject is aimed. A data processing method of a processing device that determines that the subject is not aimed when the change in motion of the imaging unit is not within a predetermined range. 28. 26. Or 27.
  • the processing device is As status data indicating the detection result of the imaging state of the imaging unit, obtain at least one status obtained from an autofocus function or a camera shake detection function in the imaging unit, A data processing method of a processing apparatus for determining whether or not the subject is aimed based on the acquired status data. 29. 26. Thru 28.
  • the processing device is As status data indicating the detection result of the imaging state of the imaging unit, obtain information on the processing result of the image analysis processing of the video, A data processing method of a processing apparatus for determining whether or not the subject is aimed based on the acquired status data. 30. 26. Thru 29.
  • the processing device is For each application or operation that performs image recognition processing of the video, obtain the control determination data indicating a predetermined shooting state, A data processing method of a processing apparatus for controlling an image recognition process of the video under a condition according to the application or operation based on the acquired control determination data. 31. 25. Thru 30.
  • the processing device is As the control determination data, obtain image feature data indicating the feature of the video, A data processing method of a processing apparatus that determines whether or not there is a change in an image in the video based on the acquired image feature data, and controls image recognition processing of the video based on the determination result. 32. 31.
  • the processing device is As the image feature data indicating the feature of the video, from the image recognition processing unit that recognizes the feature amount of each image sequentially obtained from the video, obtain the recognition result of each image, A data processing method of a processing device for determining whether or not there is a change in an image in the video from a recognition result of each acquired image. 33. 31. Or 32.
  • the processing device is As the image feature data indicating the feature of the video, from the image recognition processing unit that recognizes the feature amount of each image sequentially obtained from the video, obtain frame information of each image, From the acquired frame information of each image, it is determined whether or not the difference in the frame position of each image in the video is less than or equal to a threshold, and if the difference is less than or equal to the threshold, it is determined that there is no change in the image, A data processing method of a processing device that determines that the image has changed when the difference is larger than a threshold value. 34. 25. Thru 33.
  • the processing device is Obtaining image quality data indicating the image quality of the video as the control determination data; A data processing method of a processing apparatus for determining whether the image quality of the video is higher than a reference based on the image quality data and controlling an image recognition process of the video based on the determination result. 35. 25. Thru 34.
  • the processing device is A data processing method of a processing device for controlling whether to control the image recognition processing in an image processing device or to transmit the video to an image processing device that performs the image recognition processing based on the control determination data. 36. 25. Thru 35.
  • the processing device is The image recognition processing is performed by a terminal device including the processing device, or a server device connected to the processing device via a network, or by a processing device shared by the terminal device and the server device. Data processing method.
  • a procedure for acquiring an output signal from an acceleration sensor, a gyro sensor, or a combination thereof as status data indicating the detection result of the imaging state of the imaging unit Based on the status data, it is determined whether or not the change in the movement of the imaging unit is within a predetermined range. If the change in the movement of the imaging unit is within the predetermined range, it is determined that the subject is aimed.
  • a procedure for acquiring the control determination data indicating a predetermined shooting state for each application or operation for performing image recognition processing of the video A program for causing a computer to execute a procedure for controlling image recognition processing of the video on the basis of the acquired control determination data under a condition corresponding to the application or operation. 43. 37. Thru 42.
  • a procedure for acquiring image feature data indicating the feature of the video as the control determination data A program for determining whether or not there is a change in an image in the video based on the acquired image feature data, and causing a computer to execute a procedure for controlling the image recognition processing of the video based on the determination result. 44. 43.
  • the image recognition process is a program executed by a terminal device including the processing device, or a server device connected to the processing device via a network, or shared by the terminal device and the server device.

Abstract

 処理装置(100)は、撮像部により撮影されて逐次取得される、映像が生成されたときの撮像部における撮影状態を示す制御判定用データを取得する取得部(102)と、取得した制御判定用データに基づき、映像の画像認識処理を制御する制御部(104)と、を備える。

Description

処理装置、処理装置のデータ処理方法、およびプログラム
 本発明は、処理装置、処理装置のデータ処理方法、およびプログラムに関し、特に、画像認識処理を制御する処理装置、処理装置のデータ処理方法、およびプログラムに関する。
 近年、スマートフォン等の携帯端末は、市場ニーズに対応して、高機能化、高速化、大容量化が進み、各機能の性能が向上し、様々なアプリケーションと組み合わせることで、さらに多種多様な機能を実現できるようになってきている。
 たとえば、スマートフォンの撮像部を用いて、対象物を撮影し、連続的に画像認識を行い、認識結果から得られる情報を、映像に重ねて表示するような機能も様々な場面で活用できる可能性がある。
 画像認識処理を制御する装置において、本発明者は、以下のような課題を見出した。
 たとえば、スマートフォン等の端末に設けられる撮像部を用いて撮影した映像の画像認識処理を行うようなシステムにおいて、端末側で撮像した映像を、画像認識処理装置(サーバ)にリアルタイムに送信し、サーバで連続的に画像認識処理させる構成とすると、サーバおよび端末側でともに負荷が多大になる。たとえば、多数の端末から画像認識のリクエストがサーバに送信されると、サーバの負荷が多大になる。また、端末側で全ての画像認識処理を行う場合や、サーバ側で認識処理させる場合の処理の一部を端末側で行う場合にも、連続的に画像認識処理を行うと、端末のCPU(Central Processing Unit)やメモリなどのリソースを消費して動作が重くなったり、電力の消費量が増大する。
 認識処理タイミングを端末側で指定する方法として、所定の操作ボタン、たとえば、撮影ボタン等の押下を受け付ける構成とすることも考えられるが、認識させるために、いちいち操作する必要が生じるため、利便性が損なわれる。
 本発明は上記事情に鑑みてなされたものであり、その目的とするところは、利便性を損なわずに、画像認識処理の負荷を低減する処理装置、処理装置のデータ処理方法、およびプログラムを提供することにある。
 本発明の処理装置は、
 撮像部により撮影される映像を逐次取得して、前記映像が生成されたときの前記撮像部における撮影状態を示す制御判定用データを取得する取得手段と、
 取得した前記制御判定用データに基づき、前記映像の画像認識処理を制御する制御手段と、を備える。
 本発明の処理装置のデータ処理方法は、
 処理装置が、
  撮像部により撮影される映像を逐次取得して、前記映像が生成されたときの前記撮像部における撮影状態を示す制御判定用データを取得し、
  取得した前記制御判定用データに基づき、前記映像の画像認識処理を制御する。
 本発明のコンピュータプログラムは、
 撮像部により撮影される映像を逐次取得して、前記映像が生成されたときの前記撮像部における撮影状態を示す制御判定用データを取得する手順、
 取得した前記制御判定用データに基づき、前記映像の画像認識処理を制御する手順をコンピュータに実行させるためのプログラムである。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
 また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。
 また、本発明のデータ処理方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明のデータ処理方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障のない範囲で変更することができる。
 さらに、本発明のデータ処理方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。
 本発明によれば、利便性を損なわずに、画像認識処理の負荷を低減する処理装置、処理装置のデータ処理方法、およびプログラムが提供される。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
本発明の実施の形態に係る処理装置の論理的な構成を示す機能ブロック図である。 本発明の実施の形態に係る処理装置を利用する画像認識システムの構成を示すブロック図である。 本発明の実施の形態に係る処理装置の一例であるスマートフォンの構成を示すブロック図である。 本発明の実施の形態に係る処理装置の動作の一例を示すフローチャートである。 本発明の実施の形態に係る処理装置の要部構成を示す機能ブロック図である。 本発明の実施の形態に係る処理装置の要部構成を示す機能ブロック図である。 本発明の実施の形態に係る処理装置の要部構成を示す機能ブロック図である。 本発明の実施の形態に係る処理装置の要部構成を示す機能ブロック図である。 本発明の実施の形態に係る処理装置の動作の一例を示すフローチャートである。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
(第1の実施の形態)
 図1は、本発明の実施の形態に係る処理装置100の論理的な構成を示す機能ブロック図である。
 本発明の実施の形態に係る処理装置100は、撮像部(不図示)により撮影されて逐次取得される、映像が生成されたときの撮像部における撮影状態を示す制御判定用データを取得する取得部102と、取得した制御判定用データに基づき、映像の画像認識処理を制御する制御部104と、を備える。
 本発明の実施の形態に係る処理装置100は、たとえば、図2に示すように、スマートフォン10やタブレット端末等の携帯端末に含むことができる。たとえば、処理装置100は、スマートフォン10に設けられる撮像部(不図示)を用いて、カタログ7等を撮影し、逐次取得される映像をスマートフォン10の表示部(不図示)に表示しながら、画像認識処理を行うサーバ装置60に映像を送信することで、映像の画像認識処理をリアルタイムに行い、画像認識処理の結果、サーバ装置60から得られる情報も映像に重畳して表示するような画像認識システム1に適用できる。
 そのようなシステムにおいて、端末側で撮像した映像を、画像認識処理装置にリアルタイムに送信し、連続的に画像認識処理させる構成とすると、画像認識処理装置および端末側でともに負荷が多大になる。たとえば、多数の端末から画像認識のリクエストが画像認識処理装置に送信されると、画像認識処理装置の負荷が多大になる。また、端末側でも、常時照合を行うと、CPU(Central Processing Unit)やメモリなどのリソースを消費して動作が重くなったり、電力の消費量が増大する。
 認識処理タイミングを端末側で指定する方法として、所定の操作ボタン、たとえば、撮影ボタン等の押下を受け付ける構成とすることも考えられるが、認識させるために、いちいち操作する必要が生じるため、利便性が損なわれる。
 そこで、本発明は、撮影された映像を全て送信するのではなく、最低限必要となる画像の情報のみを送信するように構成することで、画像認識処理装置と端末側の負荷の削減を図る。
 図3は、本発明の実施の形態に係る処理装置100を含むスマートフォン10の構成例を示すブロック図である。
 図3に示すように、本実施形態のスマートフォン10は、CPU12と、メモリ14と、携帯電話網通信部18と、無線LAN(Local Area Network)通信部20と、操作部22と、操作受付部24と、表示部26と、表示制御部28と、撮像部30と、スピーカ32と、マイク34と、音声制御部36と、を備える。
 CPU12は、スマートフォン10の各要素とバス40を介して接続され、各要素とともにスマートフォン10全体を制御する。メモリ14は、スマートフォン10を動作させるためのプログラムや各種アプリケーションプログラム、それらのプログラムが動作する際に使用する各種設定データなどを記憶する領域と、プログラムが動作するための作業領域など一時的にデータを記憶する領域とを含む。さらに、メモリ14は、アドレスデータ、各種コンテンツデータを含むユーザデータを記憶する領域を含むことができる。
 なお、前述のメモリ14は、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ、ディスクドライブなど、アプリケーションプログラムおよびプログラムが動作するための設定データや一時保存データ、ユーザデータなどを記憶するための機能を有する各種のメモリデバイスであってもよい。
 操作部22は、操作キー、操作ボタン、スイッチ、ジョグダイヤル、タッチパッド、表示部26と一体になったタッチパネルなどを含む。操作受付部24は、ユーザによる操作部22の操作を受け付け、CPU12に通知する。表示部26は、LED(Light Emitting Diode)表示器や、液晶ディスプレイ、有機EL(ElectroLuminescence)ディスプレイなどを含む。表示制御部28は、CPU12からの指示に従い、表示部26に各種画面表示を行う。音声制御部36は、CPU12からの指示に従い、スピーカ32から音声出力、およびマイク34から音声入力を行う。
 携帯電話網通信部18は、携帯電話網用アンテナ19を介して、たとえば、3G(3rd Generation:第3世代携帯電話)方式で、携帯通信網(不図示)に基地局(不図示)を介して接続して通信する。スマートフォン10は、携帯通信網からインターネット等のネットワーク3(図2)に接続し、サーバ装置60(図2)と通信できる。
 無線LAN通信部20は、無線LAN用アンテナ21を介して、たとえば、IEEE 802.11規格に準拠した方式で、中継装置(不図示)と無線LAN通信を行う。本実施形態では、スマートフォン10は、無線LAN通信部20で室内に設置された中継装置(不図示)と無線LAN通信を行い宅内ネットワーク(不図示)に接続し、宅内ネットワークを介してインターネット等のネットワーク3(図2)に接続し、サーバ装置60(図2)と通信できる。また、図3では、スマートフォン10が携帯電話網通信部18と無線LAN通信部20とを備え、サーバ装置60と通信する構成としているが、これに限定されるものではない。本発明の処理装置100を含む端末は、携帯電話網通信部18および無線LAN通信部20のいずれか一方を含む構成でもよいし、あるいは、他の通信手段を備え、他の通信手段を用いてサーバ装置60と通信する構成としてもよい。
 スマートフォン10において、本発明の実施の形態に係る処理装置100を実現するためのアプリケーションプログラムをメモリ14に予めインストールし、CPU12に実行させることで、処理装置100の少なくとも一部の機能を実現させることができる。あるいは、処理装置100の少なくとも一部の機能を実現するウェブサーバ(不図示)上にウェブページを設け、ユーザがスマートフォン10を用いてウェブページにアクセスすることで、処理装置100の機能をスマートフォン10が利用できる構成としてもよい。
 なお、本実施形態では、処理装置100がスマートフォン10に含まれる例を用いて説明したが、これに限定されるものではない。
 たとえば、処理装置100は、携帯電話機、PHS(Personal Handyphone System)、PDA(Personal Digital Assistants)、ゲーム機、およびタブレット端末等のいずれかの携帯端末に含まれてもよい。携帯端末は、処理装置100が含まれる携帯端末を対象物にかざして対象物を撮影するためのカメラ(図3の撮像部30)と、カメラを用いて撮影して得られる映像を逐次表示する表示部26(図3)と、を少なくとも含むことができる。なお、撮像部30および表示部26は、携帯端末と一体ではなくてもよい。処理装置100を含むノートパソコン等の端末装置に撮像部30が接続され、ユーザが撮像部30を対象物にかざし、端末装置のモニタ(表示部)を見ながら撮影する構成も含むことができる。
 なお、各図において、本発明の本質に関わらない部分の構成については省略してあり、図示されていない。
 また、スマートフォン10を例とする、処理装置100の図1の各構成要素は、図3に示される、CPU12、メモリ14、メモリ14にロードされた図1の構成要素を実現するプログラム42、そのプログラム42を格納する記憶ユニット、ネットワーク(たとえば、図2のネットワーク3)接続用インタフェース(携帯電話網通信部18または無線LAN通信部20等)を備える任意のコンピュータのハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。以下説明する各機能ブロック図は、ハードウェア単位の構成ではなく、論理的な機能単位のブロックを示している。
 そして、CPU12が、メモリ14に記憶されるプログラム42を読み出して実行することにより、上記各ユニットの各機能を実現することができる。本実施形態のスマートフォン10の例では、本発明の実施の形態に係る処理装置100を実現するプログラム42は、予めスマートフォン10のメモリ14にアプリケーションプログラムとしてインストールされているものとする。
 本実施形態のコンピュータプログラム42は、処理装置100を実現させるためのコンピュータに、撮像部30により撮影される映像を逐次取得して、映像が生成されたときの撮像部30における撮影状態を示す制御判定用データを取得する手順、取得した制御判定用データに基づき、映像の画像認識処理を制御する手順、を実行させるように記述されている。
 本実施形態のコンピュータプログラム42は、コンピュータで読み取り可能な記録媒体に記録されてもよい。記録媒体は特に限定されず、様々な形態のものが考えられる。また、プログラムは、記録媒体からコンピュータのメモリにロードされてもよいし、ネットワークを通じてコンピュータにダウンロードされ、メモリにロードされてもよい。
 図1に戻り、処理装置100において、取得部102は、撮像部30(図3)における撮影状態を示す制御判定用データを取得する。
 撮影状態を示す制御判定用データは、様々な態様が考えられ、後述する実施形態で詳細に説明するが、たとえば、撮影状態として、i)被写体を狙っている状態か否か、ii)撮影された映像において画像に変化があるか否か、およびiii)撮影された映像の画質のレベル、のうちの少なくともいずれか1つの状態を示す。
 本発明の実施の形態において、撮影される対象物は、特に限定されないが、たとえば、カタログ、ちらし、雑誌、新聞、ディスプレイ、デジタルサイネージ、看板、商品、商品棚、ショーウィンドウ、オブジェや建造物などの物体、または各種媒体(紙、布、ディスプレイ)に提示されるロゴ等を例として挙げることができる。
 処理装置100において、撮像部30により撮影される映像は、逐次取得されて、表示部26(図3)に逐次表示される。本実施形態の処理装置100の利用シーンとして、たとえば、利用者は、処理装置100、または撮像部30を対象物に向けてかざして撮影する場面等が考えられる。あるいは、利用者が、処理装置100または撮像部30を保持した状態で、動く対象物を捉えて追いながら、処理装置100または撮像部30を対象物に追従させて動かし、対象物を撮影するような場面も考えられる。
 制御部104は、取得した制御判定用データに基づいて、画像認識処理を制御する。本実施形態では、画像認識処理は、図2のサーバ装置60で行う構成とするが、処理装置100が含まれる端末装置で行う構成、あるいは、サーバ装置60および端末装置を組み合わせ、画像認識処理を分担する構成としてもよい。サーバ装置60は、クラウドコンピューティングを利用したシステムであってもよい。
 画像認識処理の制御とは、たとえば、画像認識処理を行うか否かを切り替えること、画像認識処理の頻度を変更すること、または画像認識対象範囲を変更すること、あるいは、これらの制御の組み合わせを含むことができる。あるいは、「画像認識処理の制御」は、画像認識処理装置への映像データの送信を制御することであってもよく、映像データの送信を停止するか否かの切替、送信頻度の変更、送信データサイズ(画質、解像度)の変更、または送信手段の選択、またはこれらの制御の組み合わせを含むことができる。また、上記画像認識処理の制御と、画像認識処理装置への映像データの送信制御を組み合わせてもよい。
 詳細は後述する実施形態で説明するが、一例として、制御判定用データは、スマートフォン10の加速度センサやジャイロセンサからの出力信号を元に、撮像部30の動きの変化が、所定範囲内か否かを示すことができる。たとえば、撮像部30の動きの変化が所定範囲内でない場合、すなわち、撮像部30の動きが全く変化しない場合、または動きの変化が大きい場合は、被写体を狙っていないと判定できる。
 上述のような構成において、本実施の形態の処理装置100によるデータ処理方法を以下に説明する。図4は、本実施形態の処理装置100の動作の一例を示すフローチャートである。
 本実施形態の処理装置100のデータ処理方法は、処理装置100が、撮像部30により撮影される映像を逐次取得して、映像が生成されたときの撮像部30における撮影状態を示す制御判定用データを取得し(ステップS103)、取得した制御判定用データに基づき、映像の画像認識処理を制御する(ステップS105)。
 より詳細には、利用者が、スマートフォン10を対象物にかざして、撮像部30により対象物を撮影する(ステップS101)。そして、取得部102が、映像が生成されたときの撮像部30における撮影状態を示す制御判定用データを取得する(ステップS103)。たとえば、取得部102は、上述した例のように、スマートフォン10の加速度センサやジャイロセンサからの出力信号を制御判定用データとして取得する。
 そして、制御部104が、制御判定用データに基づき、映像の画像認識処理を制御する(ステップS105)。たとえば、制御部104は、上述した例では、加速度センサやジャイロセンサからの出力信号を元に、撮像部30の動きの変化が、所定範囲内か否かを判別し、判別結果に基づき、画像認識処理を制御する。たとえば、撮像部30の動きの変化が所定範囲内でない場合は、映像が得られていたとしても、まだカタログ7内のどの商品に撮像部30をかざすか迷っている状態であったり、スマートフォン10を放置している状態であることが考えられる。したがって、制御部104は、撮像部30の動きの変化が所定範囲内でない場合は、画像認識処理を停止するように制御することができる。
 一方、撮像部30の動きの変化が所定範囲内の場合は、スマートフォン10をカタログ7にかざしている状態で、カタログ7内にお目当ての商品を見つけて狙っている撮影状態であると考えられる。したがって、制御部104は、撮像部30の動きの変化が所定範囲内の場合は、画像認識処理を行うように制御することができる。
 以上説明したように、本発明の実施の形態に係る処理装置100によれば、撮像部30の撮影状態を示す制御判定用データに基づき、画像認識処理を制御するので、映像が得られていてもまだ被写体を狙っていない場合や、撮影状態が悪く画像認識精度が低くなるような場合等には画像認識処理を抑制する制御ができ、無用な処理による負荷増大を抑制できるとともに、認識精度を向上させることもできる。
 さらに、サーバ装置60側の負荷、端末側のマシンリソースの消費、および端末のバッテリの消耗を抑えることができる。
(第2の実施の形態)
 本発明の実施の形態に係る処理装置200は、特に、被写体を狙っている状態か否かに基づき映像の画像認識処理を制御する構成を有する。
 本実施形態の処理装置200は、上記実施形態の図1の処理装置100と同様な構成(取得部102と制御部104)を含むものとする。
 本実施形態の処理装置200において、取得部102は、制御判定用データとして、撮像部の撮影状態の検出結果を示すステータスデータを取得し、制御部104は、ステータスデータに基づき、被写体を狙っている状態か否かを判定し、判別結果に応じて、映像の画像認識処理を制御する。
 図5は、本発明の実施の形態に係る処理装置200の要部構成の一例を示す機能ブロック図である。なお、図5では制御部104は省略してあり図示されていない。
 図5に示すように、本実施形態の処理装置200において、取得部102は、撮像部30の撮影状態の検出結果を示すステータスデータとして、加速度センサ202、ジャイロセンサ204、または、これらの組み合わせからの出力信号を取得する。制御部104は、ステータスデータに基づき、撮像部30の動きの変化が所定の範囲内か否かを調べる。制御部104は、撮像部30の動きの変化が所定の範囲内の場合、被写体を狙っている状態と判別し、撮像部30の動きの変化が所定の範囲内でない場合、被写体を狙っている状態ではないと判別する。
 なお、加速度センサ202やジャイロセンサ204は、スマートフォン10等の端末が、既に備えているものを用いることもできるし、処理装置200が備えてもよい。
 通常、人間が端末(スマートフォン10)の撮像部30(カメラ)を用いて、認識させようとする対象の撮影を試みる場合には、ある程度端末を固定するか、動かす場合にもカメラの向きは固定してゆっくり移動させる。従って、加速度センサ202で検出される加速度は重力の影響を差し引くと、ある一定の値以下の小さな値となる。また、ジャイロセンサ204で検出される端末の向きの変化も、ある一定の値以下の小さな値となる。したがって、これらの一定の小さな値を超えた加速度センサやジャイロセンサの出力値を検出した場合は、被写体を狙っていない状態であると判定できる。
 一方で、人間の体の特性上、完全に端末を静止させて固定することは困難であるため、端末に加えられる重力以外の加速度や端末の方向の変化はゼロにはならないし、瞬間的に偶然ゼロになる場合があっても、それが継続することはない。そのため、ジャイロセンサ204や加速度センサ202の検出精度が十分に大きければ、人間の体のゆれに起因する加速度や端末の方向の変化がごくわずかな値だが検出される。これらのごくわずかな加速度や方向の変化が検出されない場合は、たとえば机の上に端末を置いている場合であると考えられるため、やはり被写体を狙っていない状態であると判定できる。
 本実施形態では、このような仮定に基づき、加速度センサ202やジャイロセンサ204等の出力を元に撮影状態の判定を行う。
 より詳細には、取得部102は、加速度センサ202からの出力信号をステータスデータとして取得する。そして、制御部104(図1)に渡し、制御部104が、取得部102により取得されたステータスデータに基づいて、撮像部30の動きの変化が所定の範囲内か否かを調べる。そして、制御部104が、撮像部30の動きの変化が所定の範囲内の場合、被写体を狙っている状態と判別し、撮像部30の動きの変化が所定の範囲内でない場合、被写体を狙っている状態ではないと判別する。そして、制御部104が、判別結果に応じて、映像の画像認識処理を制御する。
 本実施形態において、制御部104による画像認識処理の制御は、たとえば、画像認識処理を行うか否かの制御、画像認識処理の精度を変更する制御、画像認識処理装置への映像データの送信制御等を含むことができる。
 以下、具体的に判別および制御方法について例示するが、本発明はこれらに限定されない。
 まず、第1の例では、取得部102が、加速度センサ202からの出力信号を取得する。
 そして、制御部104が、加速度センサ202からの出力信号が一定の閾値以下か否かを判別する。加速度センサ202からの出力信号が一定の閾値以下の場合、制御部104は、撮像部30が被写体を狙っている状態と判別し、画像認識処理を行う、または処理頻度を上げるように制御する。一方、加速度センサ202からの出力信号が一定の閾値以下でない場合、制御部104は、撮像部30が被写体を狙っていない状態と判別し、画像認識処理を停止、または処理頻度を下げるように制御する。
 あるいは、制御部104が、加速度センサ202からの出力信号に基づき、重力方向が一定か否かを判別してもよい。重力方向が一定の場合、制御部104は、撮像部30が被写体を狙っている状態と判別し、画像認識処理を行う、または処理頻度を上げるように制御する。一方、重力方向が一定でない場合、制御部104は、撮像部30が被写体を狙っていない状態と判別し、画像認識処理を停止、または処理頻度を下げるように制御する。
 次に、第2の例では、取得部102が、ジャイロセンサ204からの出力信号を取得する。
 そして、制御部104が、ジャイロセンサ204からの出力信号が示す、ジャイロセンサ204の検出値が一定以下か否かを判別する。ジャイロセンサ204の検出値が一定以下の場合、すなわち、角速度が一定以下(ほぼゼロ)の場合、撮像部30の向きが変わらずに安定していると考えられる。したがって、制御部104は、ジャイロセンサ204の検出値が一定以下の場合、撮像部30が被写体を狙っている状態と判別し、画像認識処理を行う、または処理頻度を上げるように制御する。一方、ジャイロセンサ204の検出値が一定以下でない場合、制御部104は、撮像部30が被写体を狙っていない状態と判別し、画像認識処理を停止、または処理頻度を下げるように制御する。
 次に、第3の例では、取得部102が、加速度センサ202およびジャイロセンサ204からの出力信号を取得する。
 そして、制御部104が、加速度センサ202およびジャイロセンサ204からの出力信号に基づいて、撮像部30が平行移動しているか否かを判別する。たとえば、ジャイロセンサ204からの出力値により算出された端末の向きが一定であり、加速度センサ202からの値が変化しているような場合、あるいは、3軸の加速度センサ202の出力値から推定された重力方向が一定である場合等が、撮像部30が平行移動していると判別される。
 制御部104は、加速度センサ202およびジャイロセンサ204からの出力信号に基づく判別結果に応じて、画像認識処理を制御する。すなわち、撮像部30が平行移動していると判別された場合、制御部104が、画像認識処理を行う、または処理頻度を上げるように制御する。一方、撮像部30が平行移動していないと判別された場合、制御部104が、画像認識処理を停止、または処理頻度を下げるように制御する。
 図6は、本発明の実施の形態に係る処理装置200の要部構成の他の例を示す機能ブロック図である。本実施形態の処理装置200は、上記実施形態の図1の処理装置100と同様な構成(取得部102と制御部104)を含むものとする。さらに、図5を用いて説明したように、加速度センサ202とジャイロセンサ204から取得したステータスデータによる制御部104における判別結果を組み合わせた構成としてもよい。
 図6に示すように、本実施形態の処理装置200において、取得部102は、撮像部30の撮影状態の検出結果を示すステータスデータとして、撮像部30におけるオートフォーカス(AF:Auto Focus)機能部212、および手振れ検出機能部214から得られる少なくとも1つのステータスを取得する。そして、制御部104は、取得したステータスデータに基づき、被写体を狙っている状態か否かを判定することができる。
 たとえば、AF機能部212や手振れ検出機能部214では、撮像部30が被写体に狙いが定まったか否か、ピントがあったか否か、等を示すステータスデータを持っている。たとえば、取得部102がこれらのデータを読み取って取得することで、制御部104は、これらのデータを用いて被写体を狙っている状態か否かを判定することができる。
 そして、制御部104は、被写体を狙っている状態と判別されたとき、画像認識処理を行うよう制御する。
 以下、具体的に判別および制御方法について、例示するが、本発明は、これらに限定されない。
 まず、第1の例では、取得部102が、AF機能部212から、ピント調整に関するステータスデータを取得する。
 そして、取得部102により取得されたステータスデータが、ピント未調整であることを示すとき、制御部104は、撮像部30が被写体を狙っていないと判別し、画像認識処理を停止するように制御する。一方、取得部102により取得されたステータスデータが、ピント調整に入ったこと、またはピント調整済みであることを示すとき、制御部104は、撮像部30が被写体を狙っている状態と判別し、画像認識処理を行うように制御する。
 次に、第2の例では、取得部102が、手振れ検出機能部214から、手振れ補正機能の稼働に関するステータスデータを取得する。
 そして、取得部102により取得されたステータスデータが、手振れ補正機能が稼働していないことを示すとき、制御部104は、撮像部30が被写体を狙っていないと判別し、画像認識処理を停止するように制御する。一方、取得部102により取得されたステータスデータが、手振れ補正機能が稼働していることを示すとき、制御部104は、撮像部30が被写体を狙っている状態と判別し、画像認識処理を行うように制御する。
 さらに、本実施形態の処理装置200において、取得部102は、撮像部30の撮影状態の検出結果を示すステータスデータとして、映像の画像解析処理の処理結果の情報を取得し、制御部104は、取得したステータスデータに基づき、被写体を狙っている状態か否かを判定することができる。
 上記画像解析処理とは、映像をサーバ装置60に画像認識処理させる前に、端末(ローカル)側で撮影画像を解析する処理であり、画像解析処理により得られる情報と、その情報に基づく判別方法は、以下に例示されるが、これらに限定されない。
 なお、図7に示すように、本実施形態の処理装置200は、画像解析処理部222をさらに備えてもよい。本実施形態の処理装置200において、取得部102は、映像の画像解析処理を行う画像解析処理部222から、画像解析処理結果の情報を取得する。画像解析処理部222は、処理装置200に含まれる構成としてもよいし、端末が備えている機能として構成されてもよい。画像解析処理部222による画像処理とは、サーバ装置60の画像認識処理を行う前に、事前に端末側で行う画像処理を含むことができる。
 画像解析処理部222から取得部102が取得するステータスデータと、制御部104におけるステータスデータの判定、および制御方法について以下に具体的に例示するが、本発明はこれらに限定されない。
 まず、第1の例では、たとえば、画像解析処理部222から、所定の時間間隔のΔt間の撮影画像の情報の変化量を求めるために、各画像の色、オブジェクト位置、オブジェクト形状、および特徴点の位置等の情報の中から少なくとも1つの情報を取得部102が取得する。
 そして、制御部104が、取得した画像の情報から、Δt間の撮影画像の情報の変化量を求め、△t間の撮影画像の情報の変化量が一定値以下か否かを判定する。変化量が一定値以下の場合、制御部104は、撮像部30が被写体を狙っていると判別し、画像認識処理を行う、または処理頻度を上げるように制御する。変化量が一定値より大きい場合、制御部104は、撮像部30が被写体を狙っていないと判別し、画像認識処理を停止、または処理頻度を下げるように制御する。
 この第1の例では、以下の2つのシチュエーションでそれぞれ△tの値の設定範囲が異なる。
 たとえば、そもそも被写体を狙ってもいない状態で、撮像部30が放置されているような状態を検知するための構成を処理装置200で実現させる場合、△tの値は、数分以上等、撮像部30を放置している状態を検知できる範囲で設定可能である。
 撮像部30が放置されているような状態を、制御部104は、△t間の撮影画像の情報の変化量から判定することができる。
 また、たとえば、カタログ7等に撮像部30をかざして移動させながら、対象物を探している状態のときに、対象物を見つけて認識させようと移動速度を緩めたことを検知するための構成を処理装置200で実現させる場合、△tの値は、前後の画像フレーム間レベルまで小さくなる。そして、各画像フレーム間で差分検知またはオブジェクト認識処理を行い、変化量を求める。この場合、制御部104は、たとえば、変化量の推移をさらに考慮して、撮像部30が被写体を狙っている状態か否かを判定してもよい。
 あるいは、被写体自体が移動している場合、たとえば、移動中のトラックの荷台を撮影する場合等にも、制御部104は、変化量の推移を考慮してもよい。たとえば、変化量の変化の幅が、所定の範囲内に入る場合には、制御部104は、撮像部30が被写体を狙っている状態であると判定してもよい。
 次に、第2の例では、画像解析処理部222が、撮像部30におけるAF機能、手振れ検出機能、ピンぼけ検知機能、および笑顔検出機能等の中から少なくとも1つの機能で利用される画像処理を行うものとする。
 そして、取得部102が、画像解析処理部222から、これらの機能で利用される画像処理の状態を示すステータスデータを取得する。そして、制御部104が、これらのステータスデータが被写体を狙っている状態を示しているか否かを判定し、判定結果に基づいて、画像認識処理を制御する。
 あるいは、画像解析処理部222が、撮像部30におけるシーン分類(笑顔検出)等のために利用される画像処理を行うものとする。そして、取得部102により画像解析処理部222から取得したステータスデータに基づいて、制御部104が、特定シーンが選択されているか否か、かつ、特定シーンで焦点が合ったり、笑顔検出されたりしたか否かを判定する。そして、制御部104は、これらの判定結果に基づき、撮像部30が被写体を狙っている状態か否かを判別し、画像認識処理を制御する。
 たとえば、笑顔検出シーンが選択されていて、かつ、笑顔が検出された状態を示すステータスデータを取得部102が取得したとき、制御部104が、撮像部30が被写体を狙っている状態と判別し、画像認識処理を行う、または処理頻度を上げることができる。一方、笑顔検出シーンが選択されていて、かつ、笑顔検出結果が変化している最中であること示すステータスデータを取得部102が取得したとき、制御部104が、撮像部30が被写体を狙っていない状態と判別し、画像認識処理を停止、または処理頻度を下げることができる。
 以上説明したように、本発明の実施の形態に係る処理装置200によれば、上記実施形態と同様な効果を奏する。すなわち、本発明の実施の形態に係る処理装置200によれば、被写体を狙っている状態を判別して、被写体を狙っている状態のときのみ画像認識処理を行うように構成されているため、被写体を狙っていない場合に写されている映像を処理しないので、不必要な処理を省くことができ、負荷増大を抑制できるとともに、認識精度を向上させることもできる。
 さらに、サーバ装置60側の負荷、端末側のマシンリソースの消費、および端末のバッテリの消耗を抑えることができる。
(第3の実施の形態)
 本発明の実施の形態に係る処理装置300は、上記実施の形態とは、画像の変化の有無に基づき映像の画像認識処理を制御する点で相違する。
 本実施形態の処理装置300は、上記実施形態の図1の処理装置100と同様な構成(取得部102と制御部104)を含むものとする。
 本実施形態の処理装置300において、取得部102は、制御判定用データとして、映像の特徴を示す画像特徴データを取得し、制御部104は、取得した画像特徴データに基づいて、特徴を比較対象と照合し、その照合結果に応じて、映像の画像認識処理を制御する。
 本実施形態の処理装置300において、制御部104は、特徴を比較対象と照合し、その照合結果から、映像内の画像の変化の有無を検出する。そして、画像に変化がなかった場合、画像認識処理を停止または抑制する制御を行う。撮影された画像に変化がないということは、同じものを撮影している状態であり、その画像については既に画像認識処理されているものとして、処理を停止または抑制することで、不必要なリクエストを削減できる。なお、「比較対象」は、後述するように様々考えられ、たとえば、最近認識できた画像の特徴量等である。
 画像認識処理を抑制する制御とは、たとえば、画像認識処理の頻度を下げる、画像認識対象範囲を狭める、画像認識処理装置への映像データの送信処理の頻度を下げる、送信データサイズを小さくする、送信データの画質または画像の解像度を下げる、あるいは、これらの組み合わせを含むことができる。
 画像の変化の有無の判断基準は、様々考えられ、以下に具体例を説明するが、これらに限定されるものではない。このようにして、本実施形態の処理装置300は、画像に変化がなかった場合に、画像認識処理を停止または抑制する制御を行うことで、不必要な処理を省くことができ、サーバ装置60における画像認識処理またはサーバ装置60との間の通信処理等の負荷を低減することができる。
 図8は、本発明の実施の形態に係る処理装置300の要部構成を示す機能ブロック図である。さらに、上記実施形態の図5乃至7のいずれかと同様な構成、またはそれらと組み合わせた構成を含むこともできる。なお、図8では制御部104は省略してあり図示されていない。
 図8に示すように、本実施形態の処理装置300において、取得部102は、映像の特徴を示す画像特徴データとして、映像から逐次得られる各画像の特徴量を認識する画像認識処理部(ローカル画像認識部302)から、各画像の認識結果を取得し、制御部104は、取得した各画像の認識結果から、映像内の画像の変化の有無を判定する。
 以下、具体的に判別および制御方法について例示するが、本発明はこれらに限定されない。
 まず、第1の例では、最近の認識結果と、最新の認識結果を比較して、画像の変化の有無を判定する。
 取得部102が、映像の特徴を示す画像特徴データとして、映像から逐次得られる各画像の特徴量を認識するローカル画像認識部302から、各画像の認識結果、または特徴量を取得する。
 そして、制御部104が、取得した認識結果、または特徴量に基づき、最近認識できた画像の特徴量と、最新の画像の特徴量を比較する。そして、制御部104が、特徴量の類似度が閾値以上、または、特徴量の差分値が閾値以下かを判定し、条件を満たしている場合、画像に変化がないと判別し、条件を満たしていない場合、画像に変化があると判別する。そして、制御部104は、画像に変化がないと判別された場合、画像認識処理を停止または抑制する制御を行う。
 あるいは、制御部104は、取得した認識結果、または特徴量に基づき、最近認識できなかった画像の特徴量と、最新の画像の特徴量を比較する。そして、制御部104は、特徴量の類似度が閾値以上、または特徴量の差分値が閾値以下かを判定し、条件を満たしている場合、画像に変化がなく、つまり、最新の画像も認識できないと判断し、画像認識処理を停止する制御を行う。一方、条件を満たしていない場合、画像に変化があるため、認識できる可能性があるので、画像認識処理は停止しない。
 次に、第2の例では、最近の認識結果から、一部でも認識できた対象物について、サーバ装置60が保有している特徴量の情報を取得し、その特徴量と最新の画像の特徴量とを比較し、画像の変化の有無を判定する。
 たとえば、対象物の一部が最近認識された場合、サーバ装置60から対象物全体、または一部の特徴量を受信し、その特徴量と最新画像の特徴量とを比較する。たとえば、対象物に対して少なくとも一部重なるように照明や他の物体が写り込み、対象物の一部が映像上、隠れてしまっているような場合にも、対象物の一部の特徴量から、サーバ装置60側で対象物を特定できた場合には、その認識された対象物の特徴量を受信することで、最近認識できた画像の特徴量として使用することができる。
 これにより、対象物に照明や他の物体が写り込んだことで、画像に大きな変化があった場合にも、不必要な画像認識処理を行わないように制御できる。
 すなわち、取得部102は、第1の例と同様に、ローカル画像認識部302から、各画像の認識結果と特徴量を取得する。さらに、取得部102は、最近認識できた画像の一部を含む対象物全体、または一部の特徴量をサーバ装置60から受信する。
 制御部104は、認識結果に基づき、対象物の一部が最近認識されたと判定された場合、サーバ装置60から受信した対象物の特徴量と、最新の画像の特徴量を比較する。そして、制御部104は、最新画像の特徴量が、対象物の特徴量の少なくとも一部と、類似度が閾値以上、または特徴量の差分値が閾値以下かを判定し、条件を満たしている場合、画像に変化がなく、つまり、最新の画像も認識できないと判断し、画像認識処理を停止する制御を行う。一方、条件を満たしていない場合、画像に変化があるので、認識できる可能性があるので、制御部104は、画像認識処理を停止する制御を行わない。
 さらに、対象物の一部が最近認識されたと判定された場合、制御部104は、その対象物の特徴量と、最新画像の特徴量を比較し、画像フレーム内での対象物の特徴量と最新画像の特徴量の相対位置に基づき、画像認識処理対象から最近認識された対象物全体の範囲を排除して、画像認識処理を行うように制御してもよい。
 次に、第3の例では、画像の変化が検知された場合でも、フレーム位置のズレが微小の場合は、変化と検知せず、画像認識処理を行わないようにする。
 取得部102は、映像の特徴を示す画像特徴データとして、映像から逐次得られる各画像の特徴量を認識するローカル画像認識部302から、各画像のフレーム情報を取得する。そして、制御部104は、取得した各画像のフレーム情報から、映像内の各画像のフレーム位置の差分が閾値以下か否かを判定し、差分が閾値以下の場合、画像に変化がないと判別し、差分が閾値より大きい場合、画像が変化したと判別する。
 すなわち、取得部102が、画像特徴データとして、さらに、フレーム画像間の差分情報を取得する。そして、制御部104が、画像に変化があると判定した場合に、さらに、取得した差分情報に基づいて、フレーム画像間の差分が、閾値以下か否かを判別する。閾値以下の場合、制御部104は、画像認識処理を停止する制御を行う。
 これにより、手元がぶれて撮影画像に変化が生じたような場合でも、画像認識処理をいちいち行わないので、負荷を低減できる。
 以上説明したように、本発明の実施の形態に係る処理装置300によれば、上記実施形態と同様な効果を奏する。すなわち、本発明の実施の形態に係る処理装置300によれば、画像の変化の有無を判別して、画像に変化があるときに画像認識処理を行うように構成されているので、画像に変化がない場合に写されている映像は処理しない。そのため、不必要な処理を省くことができ、負荷増大を抑制できるとともに、認識精度を向上させることもできる。
 さらに、サーバ装置60側の負荷、端末側のマシンリソースの消費、および端末のバッテリの消耗を抑えることができる。
(第4の実施の形態)
 本発明の実施の形態に係る処理装置は、上記実施の形態とは、画質レベルに応じて映像の画像認識処理を制御する点で相違する。本実施形態の処理装置は、上記実施形態の処理装置100、処理装置200、および処理装置300の少なくともいずれか1つの構成と同様な構成を含むことができる。
 本実施形態の処理装置において、取得部102は、制御判定用データとして映像の画質を示す画質データを取得し、制御部104は、画質データに基づき、映像の画質が基準以上かを判定し、判定結果に基づき、映像の画像認識処理を制御する。
 本実施形態の処理装置において、制御部104は、画像の画質レベルを判別し、画像の画質が悪い場合は、画像認識処理の精度が下がり、また、認識に時間がかかる可能性があるため、画像認識処理を停止または抑制する制御を行う。なお、画質レベルの判別基準は、様々考えられ、以下の具体例を説明するが、これらに限定されるものではない。
 この構成により、画質が悪い場合は、画像認識処理を停止または抑制することで、不必要な処理を省くことができ、サーバ装置60における画像認識処理またはサーバ装置60との間の通信処理等の負荷を低減することができる。
 以下、具体的に判別および制御方法について例示するが、本発明はこれらに限定されない。
 まず、第1の例では、ローカル(スマートフォン10)、およびサーバ装置60の少なくとも1つにおける画像認識処理結果から得られる画像の特徴情報に基づき、制御部104が画質を判別する。たとえば、取得部102は、上記実施の形態のローカル画像認識部302から取得してもよい。
 取得部102が、映像の画質を示す画質データとして、画像認識処理結果から得られる画像の特徴情報を取得する。そして、制御部104が、取得した特徴情報の量が閾値以上か否かを判定する。ここで、特徴情報の量とは、たとえば、画像フレームから抽出される認識可能な特徴量を有する特徴点の数、特徴点の分布範囲、各特徴点が有する特徴量の値、ベクトル量等様々な指標を含むことができる。
 そして、所望の認識精度を得るために必要な情報量が得られるか否かを、固定しきい値(閾値)を基準として判定する。
 制御部104は、特徴情報の量が閾値以上と判定された場合、所望の認識精度が得られるので、画像認識処理を停止しない。一方、特徴情報の量が閾値未満と判定された場合、所望の認識精度が得られない可能性があるので、制御部104は、画像認識処理を停止または抑制する。
 また、所望の認識精度が得られるか否かは、サーバ装置60が特徴量データベース(たとえば、図2の画像データベース50)等として保有している、認識対象となる特徴情報によって、その判定基準が変わることが考えられる。したがって、認識対象となる特徴情報の特徴分布に関する情報から、上記特徴情報の量の閾値を決定することができる。
 認識対象となる特徴情報の特徴分布に関する情報は、たとえば、サーバ装置60が画像認識処理に使用する特徴量データベースに登録されている特徴量のデータ数、特徴量同士の類似性、または要求される認識精度等が含まれる。
 すなわち、本実施形態において、取得部102は、さらに、上記認識対象に対応した特徴情報の量の閾値を取得する。
 制御部104は、取得部102が取得した特徴情報の量の閾値を用いて、上述したような判定処理を行うことができる。
 次に、第2の例では、第1の例とは異なり、画像認識のための特徴抽出処理は行わずに、画質チェック処理を行い、その結果に基づいて、画質レベルを判別する。
 たとえば、取得部102は、画質データとして、画像の色分布、明るさ(一定以下で停止)、輝度分布(一定以上、一定以下で停止)、対象のエッジ検出(閾値以上で停止)の少なくともいずれか一つの情報を取得する。
 これらの情報は、画質チェック処理部(不図示)を設けて取得してもよいし、あるいは、撮像部30が既に備えている機能から取得することもできる。
 あるいは、取得部102は、画質データとして、画像認識の過程で得られる画質情報、たとえば、手ぶれ、またはピンぼけ検出信号を取得する。制御部104は、手振れ、またはピンぼけ検出信号が検出された場合、画像認識処理を停止する。
 あるいは、取得部102は、画質データとして、撮像部30のAF機構、または露出調整機構の動作ステータスを取得する。そして、制御部104は、動作ステータスが、調整中であると判別した場合、画像認識処理を停止する。
 以上説明したように、本発明の実施の形態に係る処理装置によれば、上記実施形態と同様な効果を奏する。すなわち、本発明の実施の形態に係る処理装置によれば、画質レベルを判別して、画質がよいときに画像認識処理を行うように構成されているため、画質が悪い場合に写されている映像は処理しないので、不必要な処理を省くことができ、負荷増大を抑制できるとともに、認識精度を向上させることもできる。
 さらに、サーバ装置60側の負荷、端末側のマシンリソースの消費、および端末のバッテリの消耗を抑えることができる。
(第5の実施の形態)
 本発明の実施の形態に係る処理装置は、上記実施の形態を組み合わせ、被写体を狙っている状態か否か、画像の変化の有無、および画質レベルの少なくともいずれかに応じて映像の画像認識処理を制御する。本実施形態の処理装置は、上述した全ての実施形態の処理装置の少なくともいずれか1つの構成と同様な構成を含むことができる。
 図9は、本発明の実施の形態に係る処理装置の動作の一例を示すフローチャートである。
 本実施形態の処理装置のデータ処理方法は、処理装置の取得部102が取得した撮影状態に基づいて、被写体を狙っている状態か否かを判定し(ステップS501)、取得した画像特徴データに基づいて、映像内の画像の変化の有無を判定し(ステップS503)、画質データに基づき、映像の画質が基準以上かを判定し(ステップS505)、全ての条件が揃った場合(ステップS501のYES、かつ、ステップS503のYES、かつ、ステップS505のYES)、制御部104が、映像の画像認識処理を行う(ステップS507)。そして、一つでも条件が揃わなかった場合(ステップS501のNO、または、ステップS503のNO、またはステップS505のNO)、制御部104は、映像の画像認識処理を停止する(ステップS509)。
 なお、上述したように、ステップS507またはステップS509の映像の画像認識処理の制御は、動作または停止制御だけでなく、抑制制御、または送信制御などの制御を含むことができ、条件に応じて、適切な制御を行うことができる。
 また、図9の例では、全ての条件が揃ったときに、映像の画像認識処理を行う構成としているが、これに限定されるものではない。たとえば、ステップS501、ステップS503、およびステップS505のうちの少なくとも一つの条件が揃ったら、映像の画像認識処理を行う構成とすることもできる。また、各ステップの判定の順序もこれに限定されるものではない。あるいは、全ての条件を判定する必要はなく、システムの性能や、必要とする精度、またはコストなどに応じて、使用する条件を選択して判別してもよい。
 たとえば、画像認識処理を行うサーバ装置および端末の負荷を軽減するためには、少なくとも、ステップS501(被写体を狙っている状態か否かを判定)、およびステップS503(映像内の画像の変化の有無を判定)を組み合わせて判定するのが望ましい。ステップS505(画質レベル)の判定は、精度を重視した構成の場合に、有効である。
 また、上記実施形態でも説明したように、AF機能、または手振れ補正機能等から取得されるステータスデータ、または加速度センサ202やジャイロセンサ204等から取得されるステータスデータを利用する方が、画像解析処理結果を利用する方法よりも、負荷が低い。したがって、負荷を低減する観点から考えると、ステップS501での被写体を狙っているか否かの判定では、画像解析処理結果を利用する方法を含まない構成が好ましい。
 たとえば、他の実施形態の処理装置において、取得部102は、映像の画像認識処理を行うアプリケーションまたは動作毎に、所定の撮影状態を示す制御判定用データを取得してもよい。そして、制御部104は、取得した制御判定用データに基づき、アプリケーションまたは動作に応じた条件で、映像の画像認識処理を制御することができる。
 すなわち、活用形態毎の条件で画像認識処理を制御する。アプリケーションまたは動作毎に、適したデータに基づき、適切な条件で判定を行うものとする。
 以上説明したように、本発明の実施の形態に係る処理装置によれば、上記実施形態と同様な効果を奏するとともに、さらに、システムに応じた適切な制御判定用データで判定された結果に基づいて、画像認識処理の制御を行うことができる。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
 以下、この実施形態の活用例を示すが、これらに限定されるものではない。
 たとえば、カタログやメニューを撮影して画像認識するアプリケーションの場合、取得部102が、距離センサまたはライト照射による変化を検知したり、AFの焦点距離などを用いて距離を取得し、制御部104が、取得したデータが一定値以上か否かを判定し、一定値以上なら、画像認識処理を停止するように制御することができる。
 あるいは、天井画を検出するアプリケーションの場合、取得部102が、撮像部30が撮影している方向を検知する信号を取得し、制御部104が、撮像部30を上に向けている状態、すなわち、方向を検知する信号が所定値度以上であることを検知したときのみ、画像認識処理を行うように制御することができる。
 あるいは、ドライブ風景を検出するアプリケーションの場合、取得部102が、撮像部30の移動方向と撮影方向を検知する信号を取得し、制御部104が、撮像部30がほぼ水平方向で前進している、たとえば、撮像部30が、所定の方向から左折または右折の所定範囲で移動していることを検知したときのみ、画像認識処理を行うように制御することができる。
 このような形態によれば、映像を用いたアプリケーションまたは動作毎に、適した条件で画像認識処理の要否を判別して制御することができるので、効率よく、利便性を損なうことなく、負荷を低減することができる。
 以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 以下、参考形態の例を付記する。
1. 撮像部により撮影される映像を逐次取得して、前記映像が生成されたときの前記撮像部における撮影状態を示す制御判定用データを取得する取得手段と、
 取得した前記制御判定用データに基づき、前記映像の画像認識処理を制御する制御手段と、を備える処理装置。
2. 1.に記載の処理装置において、
 前記取得手段は、前記制御判定用データとして、前記映像の特徴を示す画像特徴データを取得し、
 前記制御手段は、取得した前記画像特徴データに基づいて、前記映像内の画像の変化の有無を判定し、判定結果に基づき、前記映像の画像認識処理を制御する処理装置。
3. 2.に記載の処理装置において、
 前記取得手段は、前記映像の特徴を示す前記画像特徴データとして、前記映像から逐次得られる各画像の特徴量を認識する画像認識処理部から、各画像の認識結果を取得し、
 前記制御手段は、取得した前記各画像の認識結果から、前記映像内の画像の変化の有無を判定する処理装置。
4. 2.または3.に記載の処理装置において、
 前記取得手段は、前記映像の特徴を示す前記画像特徴データとして、前記映像から逐次得られる各画像の特徴量を認識する画像認識処理部から、各画像のフレーム情報を取得し、
 前記制御手段は、取得した前記各画像のフレーム情報から、前記映像内の各画像のフレーム位置の差分が閾値以下か否かを判定し、前記差分が閾値以下の場合、前記画像に変化がないと判別し、前記差分が閾値より大きい場合、前記画像が変化したと判別する処理装置。
5. 1.乃至4.いずれかに記載の処理装置において、
 前記取得手段は、前記制御判定用データとして、前記撮像部の撮影状態の検出結果を示すステータスデータを取得し、
 前記制御手段は、前記ステータスデータに基づき、被写体を狙っている状態か否かを判定し、判別結果に応じて、前記映像の画像認識処理を制御する処理装置。
6. 5.に記載の処理装置において、
 前記取得手段は、前記撮像部の撮影状態の検出結果を示すステータスデータとして、加速度センサ、ジャイロセンサ、または、これらの組み合わせからの出力信号を取得し、
 前記制御手段は、前記ステータスデータに基づき、前記撮像部の動きの変化が所定の範囲内か否かを調べ、前記撮像部の動きの変化が所定の範囲内の場合、前記被写体を狙っている状態と判別し、前記撮像部の動きの変化が所定の範囲内でない場合、前記被写体を狙っている状態ではないと判別する処理装置。
7. 5.または6.に記載の処理装置において、
 前記取得手段は、前記撮像部の撮影状態の検出結果を示すステータスデータとして、前記撮像部におけるオートフォーカス機能、または手振れ検出機能から得られる少なくとも1つのステータスを取得し、
 前記制御手段は、取得した前記ステータスデータに基づき、前記被写体を狙っている状態か否かを判定する処理装置。
8. 5.乃至7.いずれかに記載の処理装置において、
 前記取得手段は、前記撮像部の撮影状態の検出結果を示すステータスデータとして、前記映像の画像解析処理の処理結果の情報を取得し、
 前記制御手段は、取得した前記ステータスデータに基づき、前記被写体を狙っている状態か否かを判定する処理装置。
9. 5.乃至8.いずれかに記載の処理装置において、
 前記取得手段は、前記映像の画像認識処理を行うアプリケーションまたは動作毎に、所定の撮影状態を示す前記制御判定用データを取得し、
 前記制御手段は、取得した前記制御判定用データに基づき、前記アプリケーションまたは動作に応じた条件で、前記映像の画像認識処理を制御する処理装置。
10. 1.乃至9.いずれかに記載の処理装置において、
 前記取得手段は、前記制御判定用データとして前記映像の画質を示す画質データを取得し、
 前記制御手段は、前記画質データに基づき、前記映像の画質が基準以上かを判定し、判定結果に基づき、前記映像の画像認識処理を制御する処理装置。
11. 1.乃至10.いずれかに記載の処理装置において、
 前記制御手段は、前記制御判定データに基づき、画像処理装置における前記画像認識処理を制御する、または、前記画像認識処理を行う画像処理装置に前記映像を送信するか否かを制御する処理装置。
12. 1.乃至11.いずれかに記載の処理装置において、
 前記画像認識処理は、前記処理装置を含む端末装置、または、前記処理装置とネットワークを介して接続されるサーバ装置で行われる、あるいは、前記端末装置および前記サーバ装置で分担して行われる処理装置。
13. 撮像部により撮影される映像を逐次取得して、前記映像が生成されたときの前記撮像部における撮影状態を示す制御判定用データを取得する取得手段と、
 取得した前記制御判定用データに基づき、前記映像の画像認識処理を制御する制御手段と、を備える処理装置。
14. 13.に記載の処理装置において、
 前記取得手段は、前記制御判定用データとして前記映像の画質を示す画質データを取得し、
 前記制御手段は、前記画質データに基づき、前記映像の画質が基準以上かを判定し、判定結果に基づき、前記映像の画像認識処理を制御する処理装置。
15. 13.または14.に記載の処理装置において、
 前記取得手段は、前記制御判定用データとして、前記撮像部の撮影状態の検出結果を示すステータスデータを取得し、
 前記制御手段は、前記ステータスデータに基づき、被写体を狙っている状態か否かを判定し、判別結果に応じて、前記映像の画像認識処理を制御する処理装置。
16. 15.に記載の処理装置において、
 前記取得手段は、前記撮像部の撮影状態の検出結果を示すステータスデータとして、加速度センサ、ジャイロセンサ、または、これらの組み合わせからの出力信号を取得し、
 前記制御手段は、前記ステータスデータに基づき、前記撮像部の動きの変化が所定の範囲内か否かを調べ、前記撮像部の動きの変化が所定の範囲内の場合、前記被写体を狙っている状態と判別し、前記撮像部の動きの変化が所定の範囲内でない場合、前記被写体を狙っている状態ではないと判別する処理装置。
17. 15.または16.に記載の処理装置において、
 前記取得手段は、前記撮像部の撮影状態の検出結果を示すステータスデータとして、前記撮像部におけるオートフォーカス機能、または手振れ検出機能から得られる少なくとも1つのステータスを取得し、
 前記制御手段は、取得した前記ステータスデータに基づき、前記被写体を狙っている状態か否かを判定する処理装置。
18. 15.乃至17.いずれかに記載の処理装置において、
 前記取得手段は、前記撮像部の撮影状態の検出結果を示すステータスデータとして、前記映像の画像解析処理の処理結果の情報を取得し、
 前記制御手段は、取得した前記ステータスデータに基づき、前記被写体を狙っている状態か否かを判定する処理装置。
19. 15.乃至18.いずれかに記載の処理装置において、
 前記取得手段は、前記映像の画像認識処理を行うアプリケーションまたは動作毎に、所定の撮影状態を示す前記制御判定用データを取得し、
 前記制御手段は、取得した前記制御判定用データに基づき、前記アプリケーションまたは動作に応じた条件で、前記映像の画像認識処理を制御する処理装置。
20. 13.乃至19.いずれかに記載の処理装置において、
 前記取得手段は、前記制御判定用データとして、前記映像の特徴を示す画像特徴データを取得し、
 前記制御手段は、取得した前記画像特徴データに基づいて、前記映像内の画像の変化の有無を判定し、判定結果に基づき、前記映像の画像認識処理を制御する処理装置。
21. 20.に記載の処理装置において、
 前記取得手段は、前記映像の特徴を示す前記画像特徴データとして、前記映像から逐次得られる各画像の特徴量を認識する画像認識処理部から、各画像の認識結果を取得し、
 前記制御手段は、取得した前記各画像の認識結果から、前記映像内の画像の変化の有無を判定する処理装置。
22. 20.または21.に記載の処理装置において、
 前記取得手段は、前記映像の特徴を示す前記画像特徴データとして、前記映像から逐次得られる各画像の特徴量を認識する画像認識処理部から、各画像のフレーム情報を取得し、
 前記制御手段は、取得した前記各画像のフレーム情報から、前記映像内の各画像のフレーム位置の差分が閾値以下か否かを判定し、前記差分が閾値以下の場合、前記画像に変化がないと判別し、前記差分が閾値より大きい場合、前記画像が変化したと判別する処理装置。
23. 13.乃至22.いずれかに記載の処理装置において、
 前記制御手段は、前記制御判定データに基づき、画像処理装置における前記画像認識処理を制御する、または、前記画像認識処理を行う画像処理装置に前記映像を送信するか否かを制御する処理装置。
24. 13.乃至23.いずれかに記載の処理装置において、
 前記画像認識処理は、前記処理装置を含む端末装置、または、前記処理装置とネットワークを介して接続されるサーバ装置で行われる、あるいは、前記端末装置および前記サーバ装置で分担して行われる処理装置。
25. 処理装置が、
  撮像部により撮影される映像を逐次取得して、前記映像が生成されたときの前記撮像部における撮影状態を示す制御判定用データを取得し、
  取得した前記制御判定用データに基づき、前記映像の画像認識処理を制御する処理装置のデータ処理方法。
26. 25.に記載の処理装置のデータ処理方法において、
 前記処理装置が、
  前記制御判定用データとして、前記撮像部の撮影状態の検出結果を示すステータスデータを取得し、
  前記ステータスデータに基づき、被写体を狙っている状態か否かを判定し、判別結果に応じて、前記映像の画像認識処理を制御する処理装置のデータ処理方法。
27. 26.に記載の処理装置のデータ処理方法において、
 前記処理装置が、
  前記撮像部の撮影状態の検出結果を示すステータスデータとして、加速度センサ、ジャイロセンサ、または、これらの組み合わせからの出力信号を取得し、
  前記ステータスデータに基づき、前記撮像部の動きの変化が所定の範囲内か否かを調べ、前記撮像部の動きの変化が所定の範囲内の場合、前記被写体を狙っている状態と判別し、前記撮像部の動きの変化が所定の範囲内でない場合、前記被写体を狙っている状態ではないと判別する処理装置のデータ処理方法。
28. 26.または27.に記載の処理装置のデータ処理方法において、
 前記処理装置が、
  前記撮像部の撮影状態の検出結果を示すステータスデータとして、前記撮像部におけるオートフォーカス機能、または手振れ検出機能から得られる少なくとも1つのステータスを取得し、
  取得した前記ステータスデータに基づき、前記被写体を狙っている状態か否かを判定する処理装置のデータ処理方法。
29. 26.乃至28.いずれかに記載の処理装置のデータ処理方法において、
 前記処理装置が、
  前記撮像部の撮影状態の検出結果を示すステータスデータとして、前記映像の画像解析処理の処理結果の情報を取得し、
  取得した前記ステータスデータに基づき、前記被写体を狙っている状態か否かを判定する処理装置のデータ処理方法。
30. 26.乃至29.いずれかに記載の処理装置のデータ処理方法において、
 前記処理装置が、
  前記映像の画像認識処理を行うアプリケーションまたは動作毎に、所定の撮影状態を示す前記制御判定用データを取得し、
  取得した前記制御判定用データに基づき、前記アプリケーションまたは動作に応じた条件で、前記映像の画像認識処理を制御する処理装置のデータ処理方法。
31. 25.乃至30.いずれかに記載の処理装置のデータ処理方法において、
 前記処理装置が、
  前記制御判定用データとして、前記映像の特徴を示す画像特徴データを取得し、
  取得した前記画像特徴データに基づいて、前記映像内の画像の変化の有無を判定し、判定結果に基づき、前記映像の画像認識処理を制御する処理装置のデータ処理方法。
32. 31.に記載の処理装置のデータ処理方法において、
 前記処理装置が、
  前記映像の特徴を示す前記画像特徴データとして、前記映像から逐次得られる各画像の特徴量を認識する画像認識処理部から、各画像の認識結果を取得し、
  取得した前記各画像の認識結果から、前記映像内の画像の変化の有無を判定する処理装置のデータ処理方法。
33. 31.または32.に記載の処理装置のデータ処理方法において、
 前記処理装置が、
  前記映像の特徴を示す前記画像特徴データとして、前記映像から逐次得られる各画像の特徴量を認識する画像認識処理部から、各画像のフレーム情報を取得し、
  取得した前記各画像のフレーム情報から、前記映像内の各画像のフレーム位置の差分が閾値以下か否かを判定し、前記差分が閾値以下の場合、前記画像に変化がないと判別し、前記差分が閾値より大きい場合、前記画像が変化したと判別する処理装置のデータ処理方法。
34. 25.乃至33.いずれかに記載の処理装置のデータ処理方法において、
 前記処理装置が、
  前記制御判定用データとして前記映像の画質を示す画質データを取得し、
  前記画質データに基づき、前記映像の画質が基準以上かを判定し、判定結果に基づき、前記映像の画像認識処理を制御する処理装置のデータ処理方法。
35. 25.乃至34.いずれかに記載の処理装置のデータ処理方法において、
 前記処理装置が、
  前記制御判定データに基づき、画像処理装置における前記画像認識処理を制御する、または、前記画像認識処理を行う画像処理装置に前記映像を送信するか否かを制御する処理装置のデータ処理方法。
36. 25.乃至35.いずれかに記載の処理装置のデータ処理方法において、
 前記処理装置が、
 前記画像認識処理は、前記処理装置を含む端末装置、または、前記処理装置とネットワークを介して接続されるサーバ装置で行われる、あるいは、前記端末装置および前記サーバ装置で分担して行われる処理装置のデータ処理方法。
37. 撮像部により撮影される映像を逐次取得して、前記映像が生成されたときの前記撮像部における撮影状態を示す制御判定用データを取得する手順、
 取得した前記制御判定用データに基づき、前記映像の画像認識処理を制御する手順をコンピュータに実行させるためのプログラム。
38. 37.に記載のプログラムにおいて、
 前記制御判定用データとして、前記撮像部の撮影状態の検出結果を示すステータスデータを取得する手順、
 前記ステータスデータに基づき、被写体を狙っている状態か否かを判定し、判別結果に応じて、前記映像の画像認識処理を制御する手順をコンピュータに実行させるためのプログラム。
39. 38.に記載のプログラムにおいて、
 前記撮像部の撮影状態の検出結果を示すステータスデータとして、加速度センサ、ジャイロセンサ、または、これらの組み合わせからの出力信号を取得する手順、
 前記ステータスデータに基づき、前記撮像部の動きの変化が所定の範囲内か否かを調べ、前記撮像部の動きの変化が所定の範囲内の場合、前記被写体を狙っている状態と判別し、前記撮像部の動きの変化が所定の範囲内でない場合、前記被写体を狙っている状態ではないと判別する手順をコンピュータに実行させるためのプログラム。
40. 38.または39.に記載のプログラムにおいて、
 前記撮像部の撮影状態の検出結果を示すステータスデータとして、前記撮像部におけるオートフォーカス機能、または手振れ検出機能から得られる少なくとも1つのステータスを取得する手順、
 取得した前記ステータスデータに基づき、前記被写体を狙っている状態か否かを判定する手順をコンピュータに実行させるためのプログラム。
41. 38.乃至40.いずれかに記載のプログラムにおいて、
 前記撮像部の撮影状態の検出結果を示すステータスデータとして、前記映像の画像解析処理の処理結果の情報を取得する手順、
 取得した前記ステータスデータに基づき、前記被写体を狙っている状態か否かを判定する手順をコンピュータに実行させるためのプログラム。
42. 38.乃至41.いずれかに記載のプログラムにおいて、
 前記映像の画像認識処理を行うアプリケーションまたは動作毎に、所定の撮影状態を示す前記制御判定用データを取得する手順、
 取得した前記制御判定用データに基づき、前記アプリケーションまたは動作に応じた条件で、前記映像の画像認識処理を制御する手順をコンピュータに実行させるためのプログラム。
43. 37.乃至42.いずれかに記載のプログラムにおいて、
 前記制御判定用データとして、前記映像の特徴を示す画像特徴データを取得する手順、
 取得した前記画像特徴データに基づいて、前記映像内の画像の変化の有無を判定し、判定結果に基づき、前記映像の画像認識処理を制御する手順をコンピュータに実行させるためのプログラム。
44. 43.に記載のプログラムにおいて、
 前記映像の特徴を示す前記画像特徴データとして、前記映像から逐次得られる各画像の特徴量を認識する画像認識処理部から、各画像の認識結果を取得する手順、
 取得した前記各画像の認識結果から、前記映像内の画像の変化の有無を判定する手順をコンピュータに実行させるためのプログラム。
45. 43.または44.に記載のプログラムにおいて、
 前記映像の特徴を示す前記画像特徴データとして、前記映像から逐次得られる各画像の特徴量を認識する画像認識処理部から、各画像のフレーム情報を取得する手順、
 取得した前記各画像のフレーム情報から、前記映像内の各画像のフレーム位置の差分が閾値以下か否かを判定し、前記差分が閾値以下の場合、前記画像に変化がないと判別し、前記差分が閾値より大きい場合、前記画像が変化したと判別する手順をコンピュータに実行させるためのプログラム。
46. 37.乃至45.いずれかに記載のプログラムにおいて、
 前記制御判定用データとして前記映像の画質を示す画質データを取得する手順、
 前記画質データに基づき、前記映像の画質が基準以上かを判定し、判定結果に基づき、前記映像の画像認識処理を制御する手順をコンピュータに実行させるためのプログラム。
47. 37.乃至46.いずれかに記載のプログラムにおいて、
 前記制御判定データに基づき、画像処理装置における前記画像認識処理を制御する手順、または、前記画像認識処理を行う画像処理装置に前記映像を送信するか否かを制御する手順をコンピュータに実行させるためのプログラム。
48. 37.乃至47.いずれかに記載のプログラムにおいて、
 前記画像認識処理は、前記処理装置を含む端末装置、または、前記処理装置とネットワークを介して接続されるサーバ装置で行われる、あるいは、前記端末装置および前記サーバ装置で分担して行われるプログラム。
 この出願は、2013年3月19日に出願された日本出願特願2013-057202号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (14)

  1.  撮像部により撮影される映像を逐次取得して、前記映像が生成されたときの前記撮像部における撮影状態を示す制御判定用データを取得する取得手段と、
     取得した前記制御判定用データに基づき、前記映像の画像認識処理を制御する制御手段と、を備える処理装置。
  2.  請求項1に記載の処理装置において、
     前記取得手段は、前記制御判定用データとして、前記撮像部の撮影状態の検出結果を示すステータスデータを取得し、
     前記制御手段は、前記ステータスデータに基づき、被写体を狙っている状態か否かを判定し、判別結果に応じて、前記映像の画像認識処理を制御する処理装置。
  3.  請求項2に記載の処理装置において、
     前記取得手段は、前記撮像部の撮影状態の検出結果を示すステータスデータとして、加速度センサ、ジャイロセンサ、または、これらの組み合わせからの出力信号を取得し、
     前記制御手段は、前記ステータスデータに基づき、前記撮像部の動きの変化が所定の範囲内か否かを調べ、前記撮像部の動きの変化が所定の範囲内の場合、前記被写体を狙っている状態と判別し、前記撮像部の動きの変化が所定の範囲内でない場合、前記被写体を狙っている状態ではないと判別する処理装置。
  4.  請求項2または3に記載の処理装置において、
     前記取得手段は、前記撮像部の撮影状態の検出結果を示すステータスデータとして、前記撮像部におけるオートフォーカス機能、または手振れ検出機能から得られる少なくとも1つのステータスを取得し、
     前記制御手段は、取得した前記ステータスデータに基づき、前記被写体を狙っている状態か否かを判定する処理装置。
  5.  請求項2乃至4いずれかに記載の処理装置において、
     前記取得手段は、前記撮像部の撮影状態の検出結果を示すステータスデータとして、前記映像の画像解析処理の処理結果の情報を取得し、
     前記制御手段は、取得した前記ステータスデータに基づき、前記被写体を狙っている状態か否かを判定する処理装置。
  6.  請求項2乃至5いずれかに記載の処理装置において、
     前記取得手段は、前記映像の画像認識処理を行うアプリケーションまたは動作毎に、所定の撮影状態を示す前記制御判定用データを取得し、
     前記制御手段は、取得した前記制御判定用データに基づき、前記アプリケーションまたは動作に応じた条件で、前記映像の画像認識処理を制御する処理装置。
  7.  請求項1乃至6いずれかに記載の処理装置において、
     前記取得手段は、前記制御判定用データとして、前記映像の特徴を示す画像特徴データを取得し、
     前記制御手段は、取得した前記画像特徴データに基づいて、前記映像内の画像の変化の有無を判定し、判定結果に基づき、前記映像の画像認識処理を制御する処理装置。
  8.  請求項7に記載の処理装置において、
     前記取得手段は、前記映像の特徴を示す前記画像特徴データとして、前記映像から逐次得られる各画像の特徴量を認識する画像認識処理部から、各画像の認識結果を取得し、
     前記制御手段は、取得した前記各画像の認識結果から、前記映像内の画像の変化の有無を判定する処理装置。
  9.  請求項7または8に記載の処理装置において、
     前記取得手段は、前記映像の特徴を示す前記画像特徴データとして、前記映像から逐次得られる各画像の特徴量を認識する画像認識処理部から、各画像のフレーム情報を取得し、
     前記制御手段は、取得した前記各画像のフレーム情報から、前記映像内の各画像のフレーム位置の差分が閾値以下か否かを判定し、前記差分が閾値以下の場合、前記画像に変化がないと判別し、前記差分が閾値より大きい場合、前記画像が変化したと判別する処理装置。
  10.  請求項1乃至9いずれかに記載の処理装置において、
     前記取得手段は、前記制御判定用データとして前記映像の画質を示す画質データを取得し、
     前記制御手段は、前記画質データに基づき、前記映像の画質が基準以上かを判定し、判定結果に基づき、前記映像の画像認識処理を制御する処理装置。
  11.  請求項1乃至10いずれかに記載の処理装置において、
     前記制御手段は、前記制御判定データに基づき、画像処理装置における前記画像認識処理を制御する、または、前記画像認識処理を行う画像処理装置に前記映像を送信するか否かを制御する処理装置。
  12.  請求項1乃至11いずれかに記載の処理装置において、
     前記画像認識処理は、前記処理装置を含む端末装置、または、前記処理装置とネットワークを介して接続されるサーバ装置で行われる、あるいは、前記端末装置および前記サーバ装置で分担して行われる処理装置。
  13.  処理装置が、
      撮像部により撮影される映像を逐次取得して、前記映像が生成されたときの前記撮像部における撮影状態を示す制御判定用データを取得し、
      取得した前記制御判定用データに基づき、前記映像の画像認識処理を制御する処理装置のデータ処理方法。
  14.  撮像部により撮影される映像を逐次取得して、前記映像が生成されたときの前記撮像部における撮影状態を示す制御判定用データを取得する手順、
     取得した前記制御判定用データに基づき、前記映像の画像認識処理を制御する手順をコンピュータに実行させるためのプログラム。
PCT/JP2013/084876 2013-03-19 2013-12-26 処理装置、処理装置のデータ処理方法、およびプログラム WO2014147917A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015506560A JP6115630B2 (ja) 2013-03-19 2013-12-26 処理装置、処理装置のデータ処理方法、およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013057202 2013-03-19
JP2013-057202 2013-03-19

Publications (1)

Publication Number Publication Date
WO2014147917A1 true WO2014147917A1 (ja) 2014-09-25

Family

ID=51579627

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/084876 WO2014147917A1 (ja) 2013-03-19 2013-12-26 処理装置、処理装置のデータ処理方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP6115630B2 (ja)
WO (1) WO2014147917A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017204750A (ja) * 2016-05-11 2017-11-16 富士通株式会社 画像送信制御プログラム、画像送信制御方法および画像送信制御装置
CN108073890A (zh) * 2016-11-14 2018-05-25 安讯士有限公司 视频序列中的动作识别
WO2019188443A1 (ja) * 2018-03-30 2019-10-03 日本電気株式会社 情報処理装置、情報処理システム、制御方法、及びプログラム
JP2019197595A (ja) * 2018-03-30 2019-11-14 日本電気株式会社 情報処理装置、情報処理システム、制御方法、及びプログラム
CN110781714A (zh) * 2018-07-30 2020-02-11 丰田自动车株式会社 图像处理装置、图像处理方法
CN112969963A (zh) * 2018-10-30 2021-06-15 佳能株式会社 信息处理设备及其控制方法、程序和存储介质
JP2021192275A (ja) * 2019-08-22 2021-12-16 日本電気株式会社 情報処理装置、情報処理システム、制御方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006255A (ja) * 2003-06-16 2005-01-06 Sharp Corp 画像撮像装置
JP2008015860A (ja) * 2006-07-07 2008-01-24 Matsushita Electric Ind Co Ltd 画像認識カメラ
JP2013026694A (ja) * 2011-07-15 2013-02-04 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010136221A (ja) * 2008-12-05 2010-06-17 Bankutekku Japan Kk イメージ処理システム及びイメージ処理方法
KR101778135B1 (ko) * 2009-08-24 2017-09-14 삼성전자주식회사 오브젝트 정보 제공방법 및 이를 적용한 촬영장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006255A (ja) * 2003-06-16 2005-01-06 Sharp Corp 画像撮像装置
JP2008015860A (ja) * 2006-07-07 2008-01-24 Matsushita Electric Ind Co Ltd 画像認識カメラ
JP2013026694A (ja) * 2011-07-15 2013-02-04 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017204750A (ja) * 2016-05-11 2017-11-16 富士通株式会社 画像送信制御プログラム、画像送信制御方法および画像送信制御装置
US10630942B2 (en) 2016-05-11 2020-04-21 Fujitsu Limited Control method and information processing device
CN108073890A (zh) * 2016-11-14 2018-05-25 安讯士有限公司 视频序列中的动作识别
JP2018125841A (ja) * 2016-11-14 2018-08-09 アクシス アーベー ビデオシーケンスにおける動作認識
US20210034908A1 (en) * 2018-03-30 2021-02-04 Nec Corporation Information processing device, information processing system, and control method
WO2019188443A1 (ja) * 2018-03-30 2019-10-03 日本電気株式会社 情報処理装置、情報処理システム、制御方法、及びプログラム
JP2019179488A (ja) * 2018-03-30 2019-10-17 日本電気株式会社 情報処理装置、情報処理システム、制御方法、及びプログラム
JP2019197595A (ja) * 2018-03-30 2019-11-14 日本電気株式会社 情報処理装置、情報処理システム、制御方法、及びプログラム
CN110781714A (zh) * 2018-07-30 2020-02-11 丰田自动车株式会社 图像处理装置、图像处理方法
CN110781714B (zh) * 2018-07-30 2023-08-18 丰田自动车株式会社 图像处理装置、图像处理方法
CN112969963A (zh) * 2018-10-30 2021-06-15 佳能株式会社 信息处理设备及其控制方法、程序和存储介质
CN112969963B (zh) * 2018-10-30 2022-08-30 佳能株式会社 信息处理设备及其控制方法和存储介质
US11729494B2 (en) 2018-10-30 2023-08-15 Canon Kabushiki Kaisha Information processing apparatus, control method therefor, and storage medium
JP2021192275A (ja) * 2019-08-22 2021-12-16 日本電気株式会社 情報処理装置、情報処理システム、制御方法、及びプログラム
JP7279755B2 (ja) 2019-08-22 2023-05-23 日本電気株式会社 情報処理装置、情報処理システム、制御方法、及びプログラム

Also Published As

Publication number Publication date
JP6115630B2 (ja) 2017-04-19
JPWO2014147917A1 (ja) 2017-02-16

Similar Documents

Publication Publication Date Title
JP6115630B2 (ja) 処理装置、処理装置のデータ処理方法、およびプログラム
EP3633975B1 (en) Photographic method, photographic apparatus, and mobile terminal
US10924677B2 (en) Electronic device and method for providing notification related to image displayed through display and image stored in memory based on image analysis
US11558553B2 (en) Electronic device for stabilizing image and method for operating same
US9838622B2 (en) Flicker detection using semiconductor light source
US20150172531A1 (en) Image capturing apparatus, communication apparatus, and control method therefor
US11128795B2 (en) Electronic device for recommending composition and operating method thereof
CN111670573B (zh) 一种电子装置及用于操作被配置为录制视频的电子装置的方法
EP3609175B1 (en) Apparatus and method for generating moving image data including multiple section images in electronic device
WO2017173585A1 (zh) 一种拍照方法及终端
WO2024045670A1 (zh) 生成高动态范围视频的方法和电子设备
EP3062513A1 (en) Video apparatus and photography method thereof
US11223761B2 (en) Electronic device for obtaining images by controlling frame rate for external moving object through point of interest, and operating method thereof
CN112840634A (zh) 用于获得图像的电子装置及方法
US20160373648A1 (en) Methods and systems for capturing frames based on device information
JP5660306B2 (ja) 撮像装置、プログラム、及び撮像方法
CN110830721A (zh) 一种图像处理方法、电子设备及介质
KR102661185B1 (ko) 전자 장치 및 그의 이미지 촬영 방법
CN116347224B (zh) 拍摄帧率控制方法、电子设备、芯片系统及可读存储介质
WO2023160169A9 (zh) 一种拍摄方法及电子设备
JP2016219899A (ja) 撮像装置、撮像方法、及びプログラム
CN105450930A (zh) 一种自拍方法及装置
JPWO2019193889A1 (ja) 画像位置合わせ補助装置、方法及びプログラム並びに撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13879232

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015506560

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13879232

Country of ref document: EP

Kind code of ref document: A1