WO2013042766A1 - 画像処理装置、画像処理システム、及び画像読出し装置 - Google Patents

画像処理装置、画像処理システム、及び画像読出し装置 Download PDF

Info

Publication number
WO2013042766A1
WO2013042766A1 PCT/JP2012/074227 JP2012074227W WO2013042766A1 WO 2013042766 A1 WO2013042766 A1 WO 2013042766A1 JP 2012074227 W JP2012074227 W JP 2012074227W WO 2013042766 A1 WO2013042766 A1 WO 2013042766A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving image
data
unit
necessity determination
image frame
Prior art date
Application number
PCT/JP2012/074227
Other languages
English (en)
French (fr)
Inventor
三由 貴史
小坂 明生
岩城 秀和
新 篠崎
久保 允則
高之 中富
渡辺 伸之
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2011207818A external-priority patent/JP5809905B2/ja
Priority claimed from JP2011207819A external-priority patent/JP5809906B2/ja
Priority claimed from JP2012002581A external-priority patent/JP6027745B2/ja
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2013042766A1 publication Critical patent/WO2013042766A1/ja
Priority to US14/213,714 priority Critical patent/US9300904B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4335Housekeeping operations, e.g. prioritizing content for deletion because of storage space restrictions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure

Definitions

  • the present invention relates to a technology for automatically determining whether or not each moving image frame of a moving image is necessary.
  • a moving image frame with a small gradation change is determined to be an unnecessary moving image frame, and the moving image frame is automatically selected.
  • the technology that automatically deletes video frames can reduce the load on the user when determining whether or not a video frame is necessary, the video can be added to an editing program or playback program that includes the video frame automatic deletion function. Since there is still a need to load the image file, if there are many unnecessary moving image frames in the moving image file, the efficiency of the editing operation and the reproduction operation is lowered.
  • An object of the present invention is to improve the efficiency of editing and playback of moving images.
  • the image processing apparatus of the present invention generates necessity / unnecessity determination that generates necessity / unnecessity determination data used to determine whether or not an unnecessary moving image frame corresponds to each moving image frame of the input moving image.
  • a data generation means and a recording means for encoding the input moving image and dividing each moving image frame of the encoded moving image into a plurality of pieces of data and adding identification information to the respective data;
  • the identification information recorded in the recording means and the information in the recording means associated with the information indicating the data state at the recording position of the recording means corresponding to the identification information.
  • the recording unit includes a restoration table having the same contents as the table in the recording unit, and the moving image file management unit uses the restoration table to restore a restoration target.
  • Information indicating the data state at the recording position of the recording means corresponding to the data identification information may be returned to the original information.
  • the image encoding means encodes the input moving image in the MPEG2 format, and converts each moving image frame of the encoded moving image into a plurality of TS packets. It is also possible to configure such that the TS packet is recorded with the PID as identification information while being divided.
  • the necessity determination means data may be assigned in the unit GOP for encoding in the Mpeg2 format.
  • the necessity determination data generation unit generates the position and size of a subject in the moving image frame as the necessity determination data
  • the necessity determination unit includes the recording unit.
  • the subject size indicated by the necessity determination data in the metadata read from is smaller than a predetermined size
  • the subject position indicated by the necessity determination data in the metadata read from the recording unit is a predetermined value.
  • the moving image frame corresponding to the identification information in the metadata may be determined not to be a necessary moving image frame.
  • the necessity determination data generation unit generates the necessity determination data based on the image feature amount in the moving image frame
  • the necessity determination unit includes the recording An image feature amount indicated by the necessity determination data in the metadata read from the means, and an image feature amount indicated by the necessity determination data in the metadata of the moving image frame adjacent to the moving image frame corresponding to the metadata.
  • the difference is equal to or smaller than a predetermined value, the moving image frame corresponding to the identification information in the metadata may be determined not to be a necessary moving image frame.
  • the image feature amount may be a composition index indicating the composition of the subject.
  • the image feature amount may be a statistic of an image brightness value.
  • the necessity determination data generation unit generates focus information at the time of shooting the moving image frame as the necessity determination data
  • the necessity determination unit includes the recording unit. If it is determined from the focus information indicated by the necessity determination data in the read metadata that the moving image frame corresponding to the metadata is out of focus or the focus is not stable, You may comprise so that it may determine with the moving image frame corresponding to identification information not being a required moving image frame.
  • the necessity determination data generation unit generates zoom information at the time of shooting the moving image frame as the necessity determination data
  • the necessity determination unit includes the recording unit. Zoom from the zoom information indicated by the necessity determination data in the read metadata and the zoom information indicated by the necessity determination data in the metadata of the moving image frame immediately before the moving image frame corresponding to the metadata.
  • the lens position of the lens is not stable, it may be determined that the moving image frame corresponding to the identification information in the metadata is not a necessary moving image frame.
  • the image processing apparatus of the present invention further includes a wireless antenna that receives a signal from the subject side, and the necessity determination data generation unit determines the received signal strength of the signal received by the wireless antenna as the necessity determination data. And when the received signal strength indicated by the necessity determination data in the metadata read from the recording means is lower than a predetermined value, the moving image corresponding to the identification information in the metadata is generated as You may comprise so that it may determine with a frame not being a required moving image frame.
  • the necessity determination unit may be configured to describe a flag indicating that the unnecessary moving image frame is at the beginning or end of the unnecessary moving image frame in the identification information.
  • the moving image file management means includes both a flag indicating the beginning of the unnecessary moving image frame and a flag indicating the end of the unnecessary moving image frame.
  • Information indicating the state of data at the recording position of the recording means corresponding to the identification information of the moving image frame between the beginning of the unnecessary moving image frame and the end of the unnecessary moving image frame May be rewritten with information indicating that there is no data.
  • reduced image generating means for generating a reduced image of each input moving image frame, and identification given to each data after division of the encoded moving image frame
  • Metadata generation means for generating metadata by integrating one identification information of the information and the reduced image of the encoded moving image frame
  • the necessity determination data generation means includes: Based on the reduced image in the metadata, the necessity determination data used to determine whether or not the moving image frame corresponding to the identification information in the metadata is an unnecessary moving image frame is generated. May be.
  • the recording unit includes a restoration table having the same contents as the table in the recording unit, and the moving image file management unit uses the restoration table to restore a restoration target.
  • Information indicating the data state at the recording position of the recording means corresponding to the data identification information may be returned to the original information.
  • the image encoding means encodes the input moving image in the MPEG2 format, and converts each moving image frame of the encoded moving image into a plurality of TS packets. It is also possible to configure such that the TS packet is recorded with the PID as identification information while being divided.
  • the image processing system of the present invention is an image processing system in which an image processing apparatus and a server transmit and receive data via a network, and the image processing apparatus encodes the input moving image.
  • An image encoding unit that divides each moving image frame of the encoded moving image into a plurality of pieces of data, adds identification information to each piece of data and records the data in a recording unit, and a determination transmitted from the server.
  • the first receiving means for receiving the result and the identification information, the identification information recorded in the recording means, and the information indicating the data state at the recording position of the recording means corresponding to the identification information are associated with each other In the table in the recording means, the recording position of the recording means corresponding to the identification information received together with the determination result that it is an unnecessary moving image frame
  • Moving image file management means for rewriting information indicating the data state in the information indicating that there is no data
  • the server has a moving image frame corresponding to the necessity determination data based on the necessity determination data.
  • a necessity determination unit that determines whether the frame is an unnecessary moving image frame, and a second transmission unit that transmits the determination result of the necessity determination unit together with identification information corresponding to the determination result to the image processing apparatus. And either one of the image processing device and the server determines whether the moving image frame is an unnecessary moving image frame corresponding to each moving image frame of the input moving image.
  • a necessity determination data generation means for generating necessity determination data to be used is provided.
  • the necessity determination data generation means is provided in the image processing device, and the image processing device is assigned to each data after division of the encoded moving image frame.
  • Metadata generating means for generating metadata by integrating one of the identification information and the necessity determination data corresponding to the encoded moving image frame, and sending the metadata to the server First transmission means for transmitting, the server further includes second reception means for receiving metadata transmitted from the image processing apparatus, and the necessity determination means includes the received Based on the necessity determination data in the metadata, it is determined whether or not the moving image frame corresponding to the identification information in the metadata is an unnecessary moving image frame. Configuration may be.
  • the image processing apparatus when the necessity determination unit included in the server is defined as a second necessity determination unit, the image processing apparatus is based on the necessity determination data in the generated metadata.
  • the first necessity determination unit for determining whether or not the moving image frame corresponding to the identification information in the metadata is an unnecessary moving image frame, and the image processing apparatus may be loaded.
  • Detection means for detecting information for determining whether or not, and when it is determined from the information detected by the detection means that a load can be applied to the image processing apparatus, the metadata generation means The destination of the metadata generated by the above is switched to the first necessity determination unit, and the load on the image processing apparatus is determined based on the information detected by the detection unit.
  • And switching means for switching the destination of metadata generated by the metadata generation means to the first transmission means when it is determined that the second transmission means
  • the determination result of the second necessity determination means is transmitted to the image processing apparatus together with the identification information corresponding to the determination result, and the moving image file management means identifies the identification information recorded in the recording means and the identification Identification information received together with the determination result that it is an unnecessary moving image frame in the table in the recording means associated with the information indicating the data state at the recording position of the recording means corresponding to the information, or , At the recording position of the recording unit corresponding to the identification information of the moving image frame determined as an unnecessary moving image frame by the first necessity determination unit. It may be configured to rewrite the information indicating the state of over data to information that the data is not.
  • the detection unit is a load state measurement unit that measures a load applied to a resource of the image processing apparatus, and the switching unit is based on a measurement result of the load state measurement unit.
  • the destination of the metadata generated by the metadata generation unit is determined as the first necessity determination unit.
  • the meta data generated by the metadata generation means You may comprise so that the transmission destination of data may be switched to the said 1st transmission means.
  • the detection unit is a power mode detection unit that detects whether a power mode of the image processing apparatus is a mode related to power saving, and the switching unit is the power mode.
  • the detection unit detects that the mode is not related to power saving, the destination of the metadata generated by the metadata generation unit is switched to the first necessity determination unit, and the power mode detection unit saves power.
  • the transmission destination of the metadata generated by the metadata generation unit may be switched to the first transmission unit.
  • the necessity determination data generation means is in the server, and the image processing apparatus generates a reduced image for generating a reduced image of each moving image frame of the input moving image.
  • Metadata generation means for generating data; and first transmission means for transmitting the metadata to the server, wherein the server receives second metadata transmitted from the image processing apparatus.
  • the moving image corresponding to the identification information in the metadata is further provided based on the reduced image in the received metadata.
  • Necessary / unnecessary determination data used for determining whether or not the frame is an unnecessary moving image frame is generated, and the necessary / unnecessary determination means generates the necessary / unnecessary determination data based on the generated unnecessary / unnecessary determination data. It may be configured to determine whether or not the moving image frame of the identification information corresponding to is an unnecessary moving image frame.
  • the image reading apparatus of the present invention also includes necessity determination data used for determining whether or not a necessary moving image frame corresponds to each moving image frame of the moving image, and identification information for each.
  • necessity determination data used for determining whether or not a necessary moving image frame corresponds to each moving image frame of the moving image, and identification information for each.
  • the metadata is read from the recorded recording means, and based on the necessity determination data in the metadata, it is determined whether or not the moving image frame corresponding to the identification information in the metadata is a necessary moving image frame.
  • the necessity determination means, the identification information recorded in the recording means, and information indicating the recording position of the recording means corresponding to the identification information are associated with each other. Read out from the recording means only the moving image frame recorded at the recording position of the recording means corresponding to the identification information of the moving image frame determined as the necessary moving image frame by the
  • the recording unit records the moving image encoded in the MPEG2 format, and each moving image frame of the encoded moving image includes a plurality of TSs.
  • the TS packet is divided and recorded with PID as identification information, and the read control means determines the PID of the moving picture frame determined as the necessary moving picture frame by the necessity determination means. Only the data recorded at the recording position of the recording means corresponding to the above may be read out from the recording means.
  • the necessity determination data generating means for generating the necessity determination data corresponding to each moving image frame of the input moving image and the input moving image are encoded.
  • image encoding means for assigning identification information to each moving image frame of the encoded moving image and recording it in the recording means, identification information given to the moving image frame, and the moving image It may be configured to further include metadata generation means for generating metadata by integrating the necessity determination data corresponding to the frame and recording the metadata in the recording means.
  • the image processing system of the present invention is an image processing system including an image processing device that records a moving image in a recording unit, and an image reading device that reads out the moving image from the recording unit, and the image processing device includes: Necessary / unnecessary determination data generating means for generating necessary / unnecessary determination data used for determining whether or not the frame is a necessary moving image frame corresponding to each moving image frame of the input moving image; A video encoding unit that encodes each video frame of the encoded video, adds identification information to each video frame of the encoded video, and records the video in the recording unit; and an identification assigned to the video frame Metadata generating means for integrating the information and necessity determination data corresponding to the moving image frame to generate metadata and recording it in the recording means, The image reading device reads the metadata from the recording means, and determines whether or not the moving image frame corresponding to the identification information in the metadata is a necessary moving image frame based on the necessity determination data in the metadata.
  • the necessity / unnecessity determination means using a table in which determination necessity / unnecessity determination means, identification information recorded on the recording means, and information indicating the recording position of the recording means corresponding to the identification information are associated with each other.
  • a reading control means for reading out only the moving image frame recorded at the recording position of the recording means corresponding to the identification information of the moving image frame determined as the necessary moving image frame from the recording means.
  • the image encoding means encodes the input moving image in the MPEG2 format, and converts each moving image frame of the encoded moving image into a plurality of TS packets. It is also possible to configure such that the TS packet is recorded with the PID as identification information while being divided.
  • the necessity determination data generation unit generates the position and size of a subject in the moving image frame as the necessity determination data
  • the necessity determination unit includes the recording unit.
  • the subject size indicated by the necessity determination data in the metadata read from is smaller than a predetermined size
  • the subject position indicated by the necessity determination data in the metadata read from the recording unit is out of the predetermined range. If it is located at the position, the moving image frame corresponding to the identification information in the metadata may be determined not to be a necessary moving image frame.
  • the necessity determination data generation unit generates the necessity determination data based on an image feature amount in the moving image frame
  • the necessity determination unit includes the recording The difference between the image feature amount indicated by the necessity determination data in the metadata read from the means and the image feature amount indicated by the necessity determination data in the metadata of the moving image frame adjacent to the moving image frame corresponding to the metadata If is less than or equal to a predetermined value, the moving image frame corresponding to the identification information in the metadata may be determined not to be a necessary moving image frame.
  • the image feature amount may be a composition index indicating the composition of the subject.
  • the image feature amount may be a statistic of an image brightness value.
  • the necessity determination data generation unit generates focus information at the time of shooting the moving image frame as the necessity determination data
  • the necessity determination unit includes the recording unit.
  • the necessity determination data generation unit generates zoom information at the time of shooting the moving image frame as the necessity determination data
  • the necessity determination unit includes the recording unit. From the zoom information indicated by the necessity determination data in the read metadata and the zoom information indicated by the necessity determination data in the metadata of the moving image frame immediately before the moving image frame corresponding to the metadata, the zoom lens If it is determined that the lens position is not stable, it may be determined that the moving image frame corresponding to the identification information in the metadata is not a necessary moving image frame.
  • the image processing system of the present invention further includes a wireless antenna that receives a signal from the subject side, and the necessity determination data generation unit determines the received signal strength of the signal received by the wireless antenna as the necessity determination data. And when the received signal strength indicated by the necessity determination data in the metadata read from the recording means is lower than a predetermined value, the moving image frame corresponding to the identification information in the metadata May be determined not to be a necessary moving image frame.
  • the image processing apparatus of the present invention includes a feature data acquisition unit that acquires feature data corresponding to image data, a reference feature data acquisition unit that acquires reference feature data, and the feature data based on the reference feature data.
  • a feature data evaluation unit that performs evaluation
  • a necessity determination unit that determines whether image data corresponding to the feature data is necessary based on the evaluation performed by the feature data evaluation unit
  • a control processing unit that performs control based on the control unit.
  • the image processing apparatus may further include an evaluation policy generation unit that generates an evaluation policy and a reference feature data generation unit that generates the reference feature data based on the evaluation policy. .
  • the image processing apparatus of the present invention further includes a state detection unit, and the reference feature data generation unit is configured to generate the reference feature data based on the evaluation policy and the detection result of the state detection unit. May be.
  • the image processing apparatus of the present invention may further include a state detection unit, and the evaluation policy generation unit may be configured to generate an evaluation policy based on the detection result of the state detection unit.
  • the state detection unit may be a power state detection unit that detects at least one of a power type and a power state of the image processing apparatus.
  • the reference feature data generation unit may be generated based on the evaluation policy so that the amount of data of an acquired image is smaller than that in a non-low energy state.
  • the state detection unit may be a connection state determination unit that determines a connection state with a network.
  • the feature data evaluation unit may be configured to evaluate by combining a plurality of types of the reference feature data.
  • the reference feature data generation unit may be generated from the detection result and the evaluation policy such that the total data amount of the acquired image is smaller than that in the non-low speed state.
  • the image processing apparatus further includes a display unit for inputting an evaluation policy indicating a policy for preferentially evaluating at least one of the display speed, resolution, and data amount of the image data, and the reference feature data
  • the generation unit may be configured to generate the reference feature data based on the evaluation policy input to the display unit.
  • the image processing apparatus of the present invention may further include a feature data extraction unit that extracts the feature data from the image data.
  • the feature data extraction unit extracts at least one of a position and a size of a subject in the image data as the feature data
  • the necessity determination unit includes the feature data extraction unit. It is determined whether at least one of the position and the size of the subject in the image data extracted by the step is less than or equal to a threshold value as the reference feature data, and the necessity of the image data is determined based on the determination result
  • the necessity determination unit may determine that the image data includes at least one of a position and a size of a subject in the image data extracted by the feature data extraction unit that is equal to or less than the threshold value. Alternatively, it may be configured to make an unnecessary determination.
  • the feature data extraction unit extracts a composition of a plurality of the image data continuous as the feature data, and the necessity determination unit is extracted by the feature data extraction unit. It may be configured to determine whether or not the amount of change in composition of a plurality of image data is less than or equal to a threshold value as the reference feature data, and determine whether the image data is necessary or not based on the determination result.
  • the necessity determination unit may determine that the plurality of image data is unnecessary if the composition change amount of the plurality of image data is equal to or less than the threshold. It may be configured.
  • the necessity determination unit may be configured to perform the evaluation of the feature data by classifying into multiple stages or digitizing.
  • the necessity determination unit includes a blur condition, blur condition, brightness / darkness, hue, sharpness, field angle deviation, asymmetry, and subject fogging of the image data corresponding to the feature data. You may comprise so that evaluation may be performed about at least one of these.
  • the feature data extraction unit extracts feature data from the reduced image of the image data, an image having a lower resolution than the image data, or the feature data that is a part of the image data. You may comprise so that it may extract.
  • the image processing apparatus of the present invention may further include a feature data storage unit that stores the feature data, and the necessity determination unit may store feature data stored by the feature data storage unit based on the reference feature data. You may comprise so that evaluation may be performed.
  • the image processing apparatus of the present invention further includes a communication unit that communicates the feature data or the image data with an external device, and the necessity determination unit requests the external device for the image data that has been determined to be necessary.
  • the image data may be requested from the external device to the external device.
  • the image processing apparatus of the present invention may be configured to include an imaging unit and an input unit that acquires from the imaging unit the image data determined to be necessary by the necessity determination unit.
  • the image processing apparatus of the present invention may further include a processing unit that processes image data, and the processing unit may be configured to perform processing on the image data determined to be necessary by the necessity determination unit. Good.
  • the program according to the present invention includes a feature data that evaluates the feature data based on reference feature data acquired by a feature data acquisition unit that acquires feature data corresponding to image data and a reference feature data acquisition unit.
  • An evaluation unit a necessity determination unit for determining whether image data corresponding to the feature data is necessary based on the evaluation performed by the feature data evaluation unit, and a control process for performing control based on the necessity determination Function as a part.
  • the feature data acquisition unit acquires feature data corresponding to the image data
  • the feature data evaluation unit acquires the feature based on the reference feature data acquired by the reference feature data acquisition unit.
  • the data is evaluated, the necessity determination unit determines whether the image data corresponding to the feature data is necessary based on the evaluation, and the control processing unit performs control based on the necessity determination.
  • FIG. 1 is a diagram illustrating an imaging apparatus according to a first embodiment.
  • FIG. 6 is a diagram illustrating a modification (No. 1) of the imaging device according to the first embodiment.
  • FIG. 1 is a diagram illustrating an imaging apparatus according to a first embodiment.
  • FIG. 6 is a diagram illustrating a modification (No. 1) of the imaging device according to the first embodiment.
  • FIG. 6 is a diagram illustrating a second modification of the imaging device according to the first embodiment.
  • 3 is a flowchart illustrating an operation of a necessity determination unit according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of a moving image frame for determination necessary and a moving image frame for unnecessary determination according to the first embodiment.
  • FIG. 10 is a diagram illustrating another example of a moving image frame for which determination is required and a moving image frame for which determination is not required in the first embodiment.
  • FIG. 6 is a diagram illustrating an imaging apparatus according to a second embodiment. It is a flowchart which shows operation
  • FIG. FIG. 6 is a diagram illustrating an imaging apparatus according to a third embodiment.
  • FIG. 12 is a flowchart illustrating an operation of a necessity determination unit according to the third embodiment.
  • FIG. 6 is a diagram illustrating an imaging apparatus according to a fourth embodiment. It is a flowchart which shows operation
  • FIG. 10 is a diagram illustrating an example of a moving image frame for which determination is required and a moving image frame for which determination is not required in the fourth embodiment.
  • FIG. 10 is a diagram illustrating an imaging apparatus according to a fifth embodiment. It is a figure which shows the image processing system of embodiment of this invention. It is a figure which shows the image processing system of other embodiment of this invention. It is a figure which shows the image processing system of other embodiment of this invention. It is a figure which shows the image processing system of other embodiment of this invention.
  • FIG. 1 It is a figure which shows the image processing system of other embodiment of this invention. It is a figure which shows an example of metadata, a moving image frame, the sector in a recording part, and the cluster in a recording part. It is a figure which shows an example of a directory. It is a figure which shows an example of FAT. It is a flowchart which shows an example of operation
  • FIG. 43 is a flowchart illustrating an example of an operation of a reference feature data generation unit illustrated in FIG. It is a figure which shows an example of the data acquired by the reference
  • FIG. 1 is a diagram showing an image processing apparatus according to an embodiment of the present invention.
  • the image processing apparatus 100 in FIG. 1 includes a necessity determination data generation unit 103, an image encoding unit 104, a metadata generation unit 105, a recording unit 106, a necessity determination unit 107, and a moving image file management unit 108. And a control processing unit 109. Note that the control processing unit 109 controls the operation of each unit in the image processing apparatus 100.
  • the necessity determination data generation unit 103 is an unnecessary moving image frame corresponding to each moving image frame of the moving image file input to the image processing apparatus 100 from the outside (for example, an imaging device or an external recording unit). Necessary / unnecessary determination data used to determine whether or not is generated.
  • the image encoding unit 104 encodes a moving image input to the image processing apparatus 100 from the outside, and divides each moving image frame of the encoded moving image into a plurality of pieces of data, respectively. Identification information is added and recorded in the recording unit 106.
  • the image encoding unit 104 performs encoding in the MPEG2 (Moving Picture Experts Group phases2) format on the input moving image, and each moving image of the encoded moving image.
  • Each of the image frames is divided into a plurality of TS (Transport Stream) packets, and each TS packet is assigned “identification information PID (Packet IDentification)” (K, K + 1,...) And recorded in the recording unit 106. .
  • a CD-R an external recording unit
  • a recording unit for example, a hard disk or a RAM (Random Access Memory)
  • a recording unit for example, a hard disk or a RAM (Random Access Memory)
  • a recording unit for example, a hard disk or a RAM (Random Access Memory)
  • a recording unit for example, a hard disk or a RAM (Random Access Memory)
  • a recording unit for example, a hard disk or a RAM (Random Access Memory)
  • the non-volatile memory or the flash memory may be used.
  • the recording unit 106 includes an identification information / recording position table that indicates the correspondence between the identification information assigned to each data in the image encoding unit 104 and the information indicating the recording position in the recording unit 106.
  • the recording unit 106 includes a directory as an identification information / recording position table indicating the correspondence between the identification information PID and the cluster number indicating the cluster position in the recording unit 106.
  • the recording unit 106 also includes information indicating the recording position in the recording unit 106 and information indicating the state of data at each recording position (for example, information and data indicating the recording position when data continues to other recording positions) Includes a recording position / data state information table indicating a correspondence relationship with information indicating that the recording ends at the recording position or information indicating that there is no data at the recording position.
  • the recording unit 106 includes a cluster number indicating the position of the cluster in the recording unit 106 and information indicating the data state in each cluster number (for example, when data continues to other clusters).
  • a FAT Fe Allocation Table
  • the necessity determination unit 107 determines whether the moving image frame corresponding to the identification information in the metadata is an unnecessary moving image frame based on the necessity determination data in the metadata.
  • the moving image file management unit 108 uses the identification information / recording position table in the recording unit 106 to record the recording unit 106 corresponding to the identification information of the moving image frame determined as an unnecessary moving image frame by the necessity determination unit 107.
  • the recording position in is specified.
  • the moving image file management unit 108 uses the recording position / data state information table in the recording unit 106 to identify information indicating the state of the data corresponding to the identified recording position, and displays the state of the identified data.
  • the information shown is rewritten with information indicating that there is no data.
  • the moving image file management unit 108 rewrites the information “0004” indicating the data state in the identified cluster number “0003” to “0000”, and further changes to another cluster.
  • the information “FFFF” indicating the data state in the cluster number “0004” indicating the position of the cluster when the moving image frame f2 is recorded is rewritten to “0000”.
  • the recording unit 106 includes a table in which all pieces of identification information recorded in the recording unit 106 are associated with information indicating data states at the recording positions of the recording unit 106 corresponding to the identification information. May be. Also, in this case, the moving image file management unit 108 uses this table at the recording position of the recording unit 106 corresponding to the identification information of the moving image frame determined as an unnecessary moving image frame by the necessity determination unit 107. The information indicating the data state may be rewritten to information indicating that there is no data.
  • the image processing apparatus 100 includes a recording unit 106 that corresponds to a moving image frame determined as an unnecessary moving image frame among moving image frames of the moving image before the editing work or the reproduction work. Since the information indicating the data state at the recording position is rewritten with information indicating that there is no data, an unnecessary moving image frame is used when the moving image is read from the recording unit 106 during editing or reproduction of the moving image. Is read out. In this way, unnecessary moving image frames can be substantially deleted from the moving image file at the previous stage of editing and playback work, so that the moving image file can be used for editing during editing work and playback work. The time for loading the program and the playback program can be shortened, and a reduction in the efficiency of editing and playback can be suppressed.
  • the image processing apparatus 100 only rewrites information indicating the data state at the recording position of the recording unit 106 in order to read out other than the unnecessary moving image frame from the recording unit 106.
  • the amount of processing can be reduced, and the load on the image processing apparatus 100 can be suppressed.
  • the image processing apparatus 100 assigns each piece of encoded video frame data to each piece of data in order to specify a recording position in the recording unit 106 corresponding to an unnecessary video frame. Since the identification information to be used is used, the amount of data processing can be reduced, and the load on the image processing apparatus 100 can be suppressed.
  • the necessity determination unit 107 includes head information Ki indicating that it is the first moving image frame among a plurality of consecutive unnecessary moving image frames, and tail information Kj indicating that it is the last moving image frame. May be sent to the moving image file management unit 108. That is, a flag indicating that it is the head of a moving image determined to be unnecessary and a flag indicating that it is at the end may be described on the identification information PID. In this case, the moving image file management unit 108 rewrites the information indicating the data state at the recording position of the recording unit 106 corresponding to the head information Ki and the tail information Kj, respectively, to information indicating that there is no data, and the head information Ki.
  • the information indicating the data state at the recording position of the recording unit 106 corresponding to the moving image frame between the moving image frames respectively corresponding to the end information Kj is rewritten to information indicating that there is no data.
  • the moving image file management unit 108 sets the unnecessary moving image frame when both the flag indicating the beginning of the unnecessary moving image frame and the flag indicating the end of the unnecessary moving image frame are provided.
  • the information indicating the data state at the recording position of the recording unit 106 corresponding to the identification information of the moving image frame between the head of the moving image frame and the end of the unnecessary moving image frame may be rewritten with information indicating that there is no data. good.
  • the data may be rewritten when a pair of a flag indicating the start of unnecessary determination and a flag indicating the end is received. .
  • the moving image file management unit 108 stores the data at the recording position of the recording unit 106 corresponding to the range from the GOP including the first unnecessary moving image frame to the GOP including the last unnecessary moving image frame. All the information indicating the state is rewritten with information indicating that there is no data.
  • SH Sequence Header
  • GOP Group Of Picture
  • the recording unit 106 may include a return table having the same contents as the FAT.
  • the moving image file management unit 108 uses the restoration table to return the information indicating the data state at the recording position of the recording unit 106 corresponding to the identification information of the data to be restored to the original information. be able to.
  • the frame is an unnecessary moving image frame, and the information indicating the data state at the recording position in the recording unit 106 corresponding to the identification information of the moving image frame is rewritten to information indicating that there is no data. Even after this, the moving image frame can be returned to a readable state.
  • FIG. 5A is a diagram illustrating an imaging apparatus 500 that is Embodiment 1 of the image processing apparatus 100 illustrated in FIG.
  • symbol is attached
  • An imaging apparatus 500 illustrated in FIG. 5A includes an imaging unit 101, an image processing unit 102, a necessity determination data generation unit 103, an image encoding unit 104, a metadata generation unit 105, and a recording unit 106.
  • the determination unit 107 includes a moving image file management unit 108 and a control processing unit 109.
  • the imaging unit 101 converts, for example, a subject image formed on an imaging element such as a CCD (Charge Coupled Device) by a lens into an electrical signal in the imaging element, and converts a moving image including a still image frame or a plurality of moving image frames. obtain.
  • an imaging element such as a CCD (Charge Coupled Device)
  • CCD Charge Coupled Device
  • the image processing unit 102 performs various image processing such as sharpness correction, contrast correction, luminance / color difference signal generation, and white balance correction on each moving image frame of the still image or moving image obtained by the imaging unit 101.
  • the image encoding unit 104 encodes a still image frame after image processing in a JPEG (Joint Photographic Experts Group) format or the like.
  • the image encoding unit 104 encodes the moving image after the image processing in the MPEG format or the like.
  • a feature of the imaging apparatus 500 shown in FIG. 5A is that a subject detection processing unit 501 is provided as the necessity determination data generation unit 103, and the subject detection processing unit 501 uses each subject image processing image 501 in each moving image frame of a moving image.
  • the “subject position” and the “subject size” as the necessity determination data are detected, respectively, and the metadata generation unit 105 detects the detected “subject position” and “subject size” and the identification information PID. are integrated and output to the necessity determination unit 107 as metadata.
  • FIG. 6 is a flowchart illustrating an example of the operation of the necessity determination unit 107 in the imaging apparatus 500 illustrated in FIG. 5A.
  • the necessity / unnecessity determination unit 107 starts to output “subject position” and “subject position” indicated in the metadata.
  • "Size” is input (S11).
  • the subject detection processing unit 501 detects a subject in a moving image frame after image processing, and then sets a rectangular range surrounding the detected subject as a subject area, and a pixel position (x0, y0) at the upper left of the subject area Is the “subject position”.
  • the subject detection processing unit 501 sets the number of pixels in the horizontal direction of the subject area as W and the number of pixels in the vertical direction of the subject area as “subject size”.
  • the subject detection processing unit 501 sets x0 to a value smaller than 0 when no subject is detected from the moving image frame. Further, the pixel position at the upper left of the moving image frame is assumed to be (1, 1).
  • the necessity determination unit 107 determines whether or not x0 is smaller than 0, that is, whether or not a subject is detected (S12).
  • the necessity determination unit 107 determines whether W is smaller than the threshold Thr_W or whether H is smaller than the threshold Thr_H, that is, the subject is predetermined. It is determined whether it is smaller than the size (S13). Note that the threshold Thr_W and the threshold Thr_H may be set in advance by a user or the like.
  • the necessity determination unit 107 determines whether x0 + W / 2 is smaller than the threshold Thr_L_x, that is, the subject area is outside the left end of the moving image frame. It is determined whether or not it is off (S14). Note that the threshold Thr_L_x may be set in advance by a user or the like.
  • the necessity determination unit 107 determines whether x0 + W / 2 is larger than the threshold value Thr_R_x, that is, the right edge of the subject area. Is determined to be outside the right end of the moving image frame (S15). Note that the threshold Thr_R_x may be set in advance by a user or the like.
  • the necessity determination unit 107 determines whether y0 + H / 2 is larger than the threshold Thr_U_y, that is, the subject area It is determined whether or not the upper end of the image is outside the upper end of the moving image frame (S16).
  • the threshold Thr_U_y may be set in advance by a user or the like.
  • the necessity determination unit 107 determines whether y0 + H / 2 is smaller than the threshold value Thr_D_y, that is, the subject area It is determined whether or not the lower end of the image is outside the lower end of the moving image frame (S17).
  • the threshold Thr_D_y may be set in advance by a user or the like.
  • the necessity determination unit 107 is a moving image frame necessary for editing or playing the moving image frame.
  • the necessity determination unit 107 reads the necessity / unnecessity determination flag FLG_n of the moving image frame acquired this time and the necessity / unnecessity determination flag FLG_n ⁇ 1 of the previously acquired moving image frame from the storage unit (S20). Whether or not the multiplication result of the unnecessary determination flag FLG_n and the unnecessary determination flag FLG_n ⁇ 1 is smaller than zero, that is, of the one or more moving image frames that are unnecessary at the time of editing or reproduction of the previously acquired moving image frame It is determined whether it is the last moving image frame (S21).
  • the necessity determination unit 107 determines that the unnecessary 1 Of the above moving image frames, the end information Kj indicating that it is the last moving image frame and the identification information PID corresponding to the previously acquired moving image frame are integrated (S22), and the moving image file management unit 108 is informed. Output (S23). For example, as shown in FIG.
  • the necessity determination unit 107 receives a moving image shooting end instruction from the user and determines that the moving image shooting has ended (Yes in S24), the unnecessary moving image frame determination process ends, and the moving image shooting is still ended. If it is determined that it is not (No in S24), the process returns to S11, and metadata corresponding to the moving image frame to be acquired next is input.
  • the necessity determination unit 107 does not perform S22 and S23 and does not perform moving image shooting. It is determined whether or not the processing has been completed (S24).
  • the necessity determination unit 107 determines that “the subject is not detected (S12 is Yes)”, “the subject is smaller than a predetermined size (S13 is Yes)”, “the subject area is outside the left end of the moving image frame. “Excluded (Yes in S14)”, “Subject area is out of the right edge of the moving image frame (Yes in S15)”, “Subject area is out of the upper end of the moving image frame (S16 is Yes ”and“ Subject area is outside the lower end of the moving image frame (Yes in S17) ”, the moving image frame is determined as an unnecessary moving image frame during editing or playback.
  • the necessity determination unit 107 reads out the necessity determination flag FLG_n of the moving image frame acquired this time and the necessity determination flag FLG_n ⁇ 1 of the moving image frame acquired the previous time from the storage unit (S27). Whether or not the multiplication result of the unnecessary determination flag FLG_n and the unnecessary determination flag FLG_n ⁇ 1 is smaller than zero, that is, of the one or more moving image frames unnecessary at the time of editing or playback of the moving image frame acquired this time It is determined whether or not it is the first moving image frame (S28).
  • the necessity determination unit 107 determines that the unnecessary 1 Of the above-described moving image frames, the leading information Ki indicating that it is the leading moving image frame and the identification information PID corresponding to the moving image frame acquired this time are integrated (S29), and the moving image file management unit 108 is informed. It is output (S30), and it is determined whether or not the moving image shooting is finished (S24). For example, as shown in FIG.
  • the necessity determination unit 107 does not perform S29 and S30, and the moving image shooting is performed. It is determined whether or not the processing has been completed (S24).
  • the moving image file management unit 108 When the start information Ki and the end information Kj are output from the necessity determination unit 107, the moving image file management unit 108 outputs the identification information PID output together with the start information Kj from the identification information PID output together with the start information Ki.
  • the image capturing apparatus 500 shown in FIG. 5A determines whether or not a moving image frame is necessary according to the position and size of the subject. Therefore, moving image data acquired when the subject moves violently, such as during a sporting event or a race. It is effective in reducing the amount.
  • the composition index described in the metadata is based on the position and size of the subject and is configured to determine whether the moving image frame is necessary. As shown in FIG. 8, when moving image frames having the same composition are continuously acquired, the moving image frames may be determined as unnecessary moving image frames at the time of editing or reproduction. .
  • the difference between frames may be obtained based on the statistics of the image in addition to the difference in detection of the composition index, that is, the position of the subject as shown in FIG.
  • the total value of the difference in level difference between frames is less than or equal to a predetermined value
  • the case where the total value of the amount of change in the histogram of the compared frame is less than or equal to a predetermined value may be used.
  • a difference calculation unit 5011 that integrates the difference between frames is provided instead of the subject detection processing unit 501.
  • a histogram difference calculation unit 5012 is provided instead of the subject detection processing unit 501 to calculate a histogram and calculate a histogram difference between frames or an integral thereof.
  • FIG. 9 is a diagram illustrating an imaging apparatus 900 that is Embodiment 2 of the image processing apparatus 100 illustrated in FIG.
  • symbol is attached
  • a feature of the imaging apparatus 900 shown in FIG. 9 is that a focus information processing unit 901 is provided as the necessity determination data generation unit 103, and the focus information processing unit 901 applies each of the moving image frames of the moving image after image processing.
  • “focus information” is set as the necessity determination data, respectively, and the “focus information” and the identification information PID are integrated by the metadata generation unit 105 and output to the necessity determination unit 107 as metadata. It is a point.
  • FIG. 10 is a flowchart illustrating an example of the operation of the necessity determination unit 107 in the imaging apparatus 900 illustrated in FIG.
  • the necessity determination unit 107 inputs “focus information” indicated by the metadata (S31). ).
  • the focus information processing unit 901 obtains the contrast evaluation value C0 corresponding to the moving image frame from the image processing unit 102 and captures the lens position L0 of the focus lens every time the imaging unit 101 acquires the moving image frame. Obtained from the unit 101 and output to the metadata generation unit 105. Further, when the contrast evaluation value C0 is smaller than 0, it is assumed that the focus is not achieved, that is, the focus lens is not focused.
  • the necessity determination unit 107 determines that C0 is equal to or greater than 0, that is, the focus lens is in focus (S32: No), the lens position L0_n corresponding to the moving image frame acquired this time. Is stored in the storage unit inside or outside the necessity determination unit 107 (S33).
  • the necessity determination unit 107 reads out the lens position L0_n corresponding to the moving image frame acquired this time and the lens position L0_n-1 corresponding to the previously acquired moving image frame from the storage unit (S34), It is determined whether or not the absolute value of the difference between the lens position L0_n and the lens position L0_n ⁇ 1 is larger than the threshold value Thr_L, that is, whether or not the focus is stable (S35).
  • the necessity determination unit 107 reads the necessity determination flag FLG_n of the moving image frame acquired this time and the necessity determination flag FLG_n ⁇ 1 of the moving image frame acquired last time from the storage unit (S38), Whether or not the multiplication result of the necessity determination flag FLG_n and the necessity determination flag FLG_n ⁇ 1 is smaller than zero, that is, one or more moving image frames that are unnecessary at the time of editing or playback of the previously acquired moving image frame It is determined whether or not it is the last moving image frame (S39).
  • the necessity determination unit 107 determines that the unnecessary 1 Of the above moving image frames, the end information Kj indicating the last moving image frame and the identification information PID corresponding to the previously acquired moving image frame are integrated (S40), and the moving image file management unit 108 is integrated. (S41).
  • the necessity determination unit 107 receives a moving image shooting end instruction from the user and determines that the moving image shooting has ended (Yes in S42), the determination process of unnecessary moving image frames ends, and the moving image shooting is not yet performed. If it is determined that the process has not been completed (No in S42), the process returns to S31, and metadata corresponding to the moving image frame to be acquired next is input.
  • the necessity determination unit 107 does not perform S40 and S41, but captures a moving image. It is determined whether or not (S42).
  • the necessity determination unit 107 determines that the focus is not achieved (S32 is Yes) or determines that the focus is not stable (S35 is Yes)
  • the data is stored in the storage unit (S44).
  • the necessity determination unit 107 reads out the necessity determination flag FLG_n of the moving image frame acquired this time and the necessity determination flag FLG_n ⁇ 1 of the moving image frame acquired last time from the storage unit (S45), Whether or not the multiplication result of the necessity determination flag FLG_n and the necessity determination flag FLG_n ⁇ 1 is smaller than zero, that is, one or more moving image frames which are unnecessary at the time of editing or playback of the moving image frame acquired this time It is determined whether or not it is the first moving image frame (S46).
  • the necessity determination unit 107 does not need to First information Ki indicating that it is the first moving image frame among one or more moving image frames and identification information PID corresponding to the moving image frame acquired this time are integrated (S47), and the moving image file management unit 108 is integrated. (S48), it is determined whether or not the moving image shooting is completed (S42).
  • the necessity determination unit 107 determines whether or not the moving image shooting is completed without executing S47 and S48. Judgment is made (S42).
  • the moving image file management unit 108 When the start information Ki and the end information Kj are output from the necessity determination unit 107, the moving image file management unit 108 outputs the identification information PID output together with the start information Kj from the identification information PID output together with the start information Ki.
  • the imaging apparatus 900 shown in FIG. 9 since it is determined whether or not a moving image frame is necessary depending on whether focus is not achieved or whether focus is not stable, for example, not only the subject but also shooting is performed. This is effective in reducing the data amount of the moving image file acquired when the user is also moving.
  • FIG. 11 is a diagram illustrating an imaging apparatus 1100 that is Embodiment 3 of the image processing apparatus 100 illustrated in FIG.
  • symbol is attached
  • a feature of the imaging apparatus 1100 shown in FIG. 11 is that a zoom information processing unit 1101 is provided as the necessity determination data generation unit 103, and the zoom information processing unit 1101 applies each of the moving image frames of the moving image after image processing.
  • “zoom information” is set as the necessity determination data, respectively, and “zoom information” and identification information PID are integrated by the metadata generation unit 105 and output to the necessity determination unit 107 as metadata. It is a point.
  • FIG. 12 is a flowchart illustrating an example of the operation of the necessity determination unit 107 in the imaging apparatus 1100 illustrated in FIG.
  • the necessity determination unit 107 receives “zoom information” indicated by the metadata when the imaging unit 101 starts acquiring moving image frames and the metadata generation unit 105 starts outputting metadata (S51). ). Note that each time the image capturing unit 101 acquires a moving image frame, the zoom information processing unit 1101 displays zoom information Z0 (for example, the lens position of the zoom lens and the lens movement amount) corresponding to the moving image frame. And output to the metadata generation unit 105.
  • zoom information processing unit 1101 displays zoom information Z0 (for example, the lens position of the zoom lens and the lens movement amount) corresponding to the moving image frame.
  • zoom information Z0 for example, the lens position of the zoom lens and the lens movement amount
  • the necessity determination unit 107 holds the input zoom information Z0 in a storage unit inside or outside the necessity determination unit 107 (S52).
  • the necessity determination unit 107 reads out the zoom information Z0_n corresponding to the currently acquired moving image frame and the zoom information Z0_n ⁇ 1 corresponding to the previously acquired moving image frame from the storage unit (S53), It is determined whether or not the absolute value of the difference between the zoom information Z0_n and the zoom information Z0_n-1 is larger than the threshold Thr_Z, that is, whether or not the lens position of the zoom lens is stable (S54).
  • the necessity determination unit 107 determines that the moving image frame acquired this time is a moving image frame necessary for editing or playback.
  • the necessity determination unit 107 reads the necessity determination flag FLG_n of the moving image frame acquired this time and the necessity determination flag FLG_n ⁇ 1 of the moving image frame acquired last time from the storage unit (S57), Whether or not the multiplication result of the necessity determination flag FLG_n and the necessity determination flag FLG_n ⁇ 1 is smaller than zero, that is, one or more moving image frames that are unnecessary at the time of editing or playback of the previously acquired moving image frame It is determined whether or not it is the last moving image frame (S58).
  • the necessity determination unit 107 determines that the unnecessary 1 Of the above moving image frames, the end information Kj indicating the last moving image frame and the identification information PID corresponding to the previously acquired moving image frame are integrated (S59), and the moving image file management unit 108 is integrated. (S60).
  • the necessity determination unit 107 receives a moving image shooting end instruction from the user and determines that the moving image shooting has ended (Yes in S61), the unnecessary moving image frame determination process is ended, and the moving image shooting is still performed. If it is determined that the process has not been completed (No in S61), the process returns to S51, and metadata corresponding to the moving image frame to be acquired next is input.
  • the necessity determination unit 107 does not perform S59 and S60, and takes a moving image. It is determined whether or not (S61).
  • the necessity determination unit 107 reads out the necessity determination flag FLG_n of the moving image frame acquired this time and the necessity determination flag FLG_n ⁇ 1 of the moving image frame acquired last time from the storage unit (S64), Whether or not the multiplication result of the necessity determination flag FLG_n and the necessity determination flag FLG_n ⁇ 1 is smaller than zero, that is, one or more moving image frames which are unnecessary at the time of editing or playback of the moving image frame acquired this time It is determined whether or not it is the first moving image frame (S65).
  • the necessity determination unit 107 does not need to First information Ki indicating that it is the first moving image frame of one or more moving image frames and identification information PID corresponding to the moving image frame acquired this time are integrated (S66), and the moving image file management unit 108 is integrated. (S67), it is determined whether or not the moving image shooting is completed (S61).
  • the necessity determination unit 107 does not perform S66 and S67, and the moving image shooting is performed. It is determined whether or not the processing has been completed (S61).
  • the moving image file management unit 108 When the start information Ki and the end information Kj are output from the necessity determination unit 107, the moving image file management unit 108 outputs the identification information PID output together with the start information Kj from the identification information PID output together with the start information Ki.
  • whether or not the moving image frame is necessary is determined depending on whether or not the lens position of the zoom lens is stable. This is effective for reducing the data amount of a moving image file acquired when moving.
  • the information used for the necessity determination process for unnecessary moving image frames is not limited to the position and size of the subject, focus information, or zoom information as in the first to third embodiments.
  • a histogram of luminance gradation of each moving image frame after image processing may be used.
  • two or more pieces of information among the above-described subject position and size, focus information, zoom information, and luminance gradation histogram may be combined and used for the unnecessary / unnecessary determination process of the moving image frame.
  • FIG. 13 is a diagram illustrating an imaging apparatus 1300 that is Embodiment 4 of the image processing apparatus 100 illustrated in FIG.
  • symbol is attached
  • the imaging apparatus 1300 shown in FIG. 13 includes a wireless antenna 1301 and a received signal strength detector 1302 as the necessity determination data generation unit 103, and the received signal strength detector 1302 uses the received signal strength detector 1302 to process a moving image after image processing. For each moving image frame, received signal strength information (RSSI: Received Signal Strength Indication) R0 as unnecessary / necessary determination data is detected, and the metadata generation unit 105 receives received signal strength information R0, identification information PID, Are integrated and output to the necessity determination unit 107 as metadata.
  • the wireless antenna 1301 receives a signal transmitted from a transmitter provided in the subject or a signal transmitted from the imaging device 1300 and reflected by the subject.
  • FIG. 14 is a flowchart illustrating an example of the operation of the necessity determination unit 107 in the imaging apparatus 1300 illustrated in FIG.
  • the necessity determination unit 107 receives “received signal strength information” indicated in the metadata when the imaging unit 101 starts acquiring the moving image frame and the metadata generation unit 105 starts outputting the metadata. (S71).
  • the received signal strength detection unit 1302 uses the level of the received signal received by the wireless antenna 1301 as the received signal strength information R0 corresponding to the moving image frame every time the imaging unit 101 acquires the moving image frame. Output to the metadata generation unit 105.
  • the necessity determination unit 107 determines whether the input received signal strength information R0 is larger than the threshold value Thr_R, that is, whether the subject is at a position far from the imaging device 1300 (S72). ).
  • the necessity determination unit 107 determines that the moving image frame acquired this time is a moving image frame necessary for editing or playback, and is not necessary.
  • the necessity determination unit 107 reads the necessity determination flag FLG_n of the moving image frame acquired this time and the necessity determination flag FLG_n ⁇ 1 of the moving image frame acquired last time from the storage unit (S75), Whether or not the multiplication result of the necessity determination flag FLG_n and the necessity determination flag FLG_n ⁇ 1 is smaller than zero, that is, one or more moving image frames that are unnecessary at the time of editing or playback of the previously acquired moving image frame It is determined whether or not it is the last moving image frame (S76).
  • the necessity determination unit 107 determines that the unnecessary 1 Of the above moving image frames, the end information Kj indicating the last moving image frame and the identification information PID corresponding to the previously acquired moving image frame are integrated (S77), and the moving image file management unit 108 is integrated. (S78). For example, as shown in FIG.
  • the necessity determination unit 107 receives a moving image shooting end instruction from the user and determines that the moving image shooting is ended (Yes in S79), the determination process of unnecessary moving image frames is ended, and the moving image shooting is still performed. If it is determined that the process has not been completed (No in S79), the process returns to S71, and metadata corresponding to the moving image frame to be acquired next is input.
  • the necessity determination unit 107 does not execute S77 and S78, and takes a moving image. It is determined whether or not (S79).
  • the necessity determination unit 107 determines that the subject is at a far position (Yes in S72), the necessity determination unit 107 determines that the moving image frame acquired this time is an unnecessary moving image frame at the time of editing or reproduction,
  • the necessity determination unit 107 reads the necessity determination flag FLG_n of the moving image frame acquired this time and the necessity determination flag FLG_n ⁇ 1 of the moving image frame acquired last time from the storage unit (S82), Whether or not the multiplication result of the necessity determination flag FLG_n and the necessity determination flag FLG_n ⁇ 1 is smaller than zero, that is, one or more moving image frames which are unnecessary at the time of editing or playback of the moving image frame acquired this time It is determined whether or not it is the first moving image frame (S83).
  • the necessity determination unit 107 does not need to First information Ki indicating that it is the first moving image frame of one or more moving image frames and identification information PID corresponding to the moving image frame acquired this time are integrated (S84), and the moving image file management unit 108 is integrated. (S85), it is determined whether or not the moving image shooting is completed (S79). For example, as shown in FIG.
  • the necessity determination unit 107 does not execute S84 and S85 and ends the video shooting. It is determined whether or not (S79).
  • the moving image file management unit 108 When the start information Ki and the end information Kj are output from the necessity determination unit 107, the moving image file management unit 108 outputs the identification information PID output together with the start information Kj from the identification information PID output together with the start information Ki.
  • the necessity of the moving image frame is determined according to the received signal strength information R0, for example, it is acquired when the subject is moving back and forth with respect to the imaging apparatus 1300. This is effective in reducing the data amount of moving image files.
  • the above-described imaging apparatus 1300 has a configuration in which the necessity determination unit 107 performs the necessity determination process for moving image frames based on whether or not the received signal strength information R0 is larger than the threshold Thr_R.
  • the signal strength detection unit 1302 may be configured to perform the necessity determination process for moving image frames based on whether or not the received signal strength information R0 is larger than the threshold value Thr_R.
  • the metadata generation unit 105 integrates a flag indicating an unnecessary moving image frame and identification information corresponding to the moving image frame to generate metadata.
  • the moving image file management unit 108 rewrites information indicating the data state at the recording position of the recording unit 106 corresponding to the identification information in the metadata to information indicating that there is no data. Further, the necessity determination unit 107 can be omitted.
  • FIG. 16 is a diagram illustrating an imaging apparatus 1600 that is Embodiment 5 of the image processing apparatus 100 illustrated in FIG.
  • symbol is attached
  • a feature of the imaging apparatus 1600 shown in FIG. 16 is that a reduced image generation unit 1601 is provided in place of the necessity determination data generation unit 103, and each moving image of the moving image after image processing is provided by the reduced image generation unit 1601.
  • the image frames are reduced, and the reduced images and the identification information PID are integrated and output to the necessity determination data generation unit 103 as metadata.
  • the necessity determination data generation unit 103 shown in FIG. 16 determines whether or not the moving image frame corresponding to the identification information in the metadata is an unnecessary moving image frame based on the reduced image in the input metadata. Necessary / unnecessary determination data used for the generation is generated.
  • the necessity determination data generated by the necessity determination data generation unit 103 illustrated in FIG. 16 is, for example, the above-described subject position, size, or luminance gradation histogram.
  • the operations of the necessity determination unit 107 and the moving image file management unit 108 shown in FIG. 16 are the same as the operations of the necessity determination unit 107 and the moving image file management unit 108 in the first to fourth embodiments. Further, the necessity determination data generation unit 103 illustrated in FIG. 16 may be provided inside the necessity determination unit 107.
  • the imaging apparatus 1600 shown in FIG. 16 uses a reduced image when generating the necessity determination data, the load on the imaging apparatus 1600 when generating the necessity determination data can be suppressed.
  • FIG. 17 is a diagram showing an image processing system according to the embodiment of the present invention.
  • symbol is attached
  • the image processing system shown in FIG. 17 includes an image processing apparatus 100 and a server 1700, and the image processing apparatus 100 and the server 1700 transmit and receive data to and from each other via a network 1701.
  • the image processing apparatus 100 shown in FIG. 17 is different from the image processing apparatus 100 shown in FIG. 1 in that an unnecessary moving image frame determination process is performed by a server 1700 outside the image processing apparatus 100.
  • the transmission unit 1702 of the image processing apparatus 100 illustrated in FIG. 17 transmits the metadata generated by the metadata generation unit 105 to the server 1700.
  • the necessity determination unit 1703 of the server 1700 illustrated in FIG. 17 is based on the necessity determination data in the metadata received by the reception unit 1704, and a moving image that does not require a moving image frame corresponding to the identification information in the metadata. It is determined whether the frame is an image frame, and the determination result is transmitted to the image processing apparatus 100 by the transmission unit 1705.
  • the moving image file management unit 108 of the image processing apparatus 100 illustrated in FIG. 17 uses the identification information / recording position table in the recording unit 106 to determine an unnecessary moving image frame based on the determination result received by the receiving unit 1706.
  • the recording position in the recording unit 106 corresponding to the identification information of the moving image frame determined as is specified.
  • the moving image file management unit 108 uses the recording position / data state information table in the recording unit 106 to identify information indicating the state of the data corresponding to the identified recording position, and displays the state of the identified data.
  • the information shown is rewritten to information that there is no data.
  • all pieces of identification information recorded in the recording unit 106 are associated with information indicating the data state at the recording position of the recording unit 106 corresponding to the identification information.
  • a table may be provided. Further, in this case, the moving image file management unit 108 shown in FIG. 17 uses this table to record the recording unit corresponding to the identification information of the moving image frame determined to be an unnecessary moving image frame transmitted from the server 1700.
  • the information indicating the data state at the recording position 106 may be rewritten to information indicating that there is no data.
  • image processing apparatus 100 shown in FIG. 17 can be replaced with any of the imaging apparatuses of the first to fifth embodiments described above.
  • the image processing system shown in FIG. 17 is configured to perform the necessity determination process for moving image frames on the server 1700 side outside the image processing apparatus 100, the load on the image processing apparatus 100 can be suppressed. it can.
  • FIG. 18 is a diagram showing an image processing system according to another embodiment of the present invention. Note that the same components as those of the image processing system illustrated in FIG. 17 are denoted by the same reference numerals, and description of the components is omitted.
  • the image processing system shown in FIG. 18 differs from the image processing system shown in FIG. 17 in that a reduced image generation unit 1601 shown in FIG. 16 is provided in the image processing apparatus 100 instead of the necessity determination data generation unit 103.
  • the server 1700 is provided with a necessity determination data generation unit 1800.
  • the reduced image generation unit 1601 of the image processing apparatus 100 generates a reduced image of each moving image frame of the processed moving image
  • the metadata generation unit 105 integrates the reduced image and the identification information PID.
  • the metadata is transmitted from the image processing apparatus 100 to the server 1700 via the network 1701.
  • the moving image frame corresponding to the identification information in the metadata is an unnecessary moving image frame based on the reduced image in the received metadata by the necessity determination data generation unit 1800 of the server 1700. Necessary / unnecessary determination data used for determination is generated.
  • the necessity determination data generated by the necessity determination data generation unit 1800 is, for example, a histogram of the position, size, or luminance gradation of the subject described above.
  • the necessity determination unit 1703 of the server 1700 does not require a moving image frame corresponding to the identification information in the received metadata based on the necessity determination data generated by the necessity determination data generation unit 1800 during editing. It is determined whether the frame is a moving image frame, and the determination result is transmitted to the image processing apparatus 100 by the transmission unit 1705.
  • the moving image file management unit 108 of the image processing apparatus 100 uses the identification information / recording position table in the recording unit 106 to receive a moving image frame that is received by the receiving unit 1706 and determined as an unnecessary moving image frame.
  • the recording position in the recording unit 106 corresponding to the identification information is specified.
  • the moving image file management unit 108 uses the recording position / data state information table in the recording unit 106 to identify information indicating the state of the data corresponding to the identified recording position, and displays the state of the identified data.
  • the information shown is rewritten with information indicating that there is no data.
  • all pieces of identification information recorded in the recording unit 106 are associated with information indicating data states at the recording positions of the recording unit 106 corresponding to the identification information.
  • a table may be provided.
  • the moving image file management unit 108 shown in FIG. 18 uses this table to record the recording unit corresponding to the identification information of the moving image frame determined to be an unnecessary moving image frame transmitted from the server 1700.
  • the information indicating the data state at the recording position 106 may be rewritten to information indicating that there is no data.
  • the server 1700 includes the necessity determination data generation unit 1800 in the image processing system illustrated in FIG. 18, the load on the image processing apparatus 100 can be suppressed. Further, since the image processing system shown in FIG. 18 uses a reduced image when generating the necessity determination data, the load on the server 1700 can be suppressed when the necessity determination data is generated.
  • FIG. 19 is a diagram showing an image processing system according to another embodiment of the present invention. The same components as those of the image processing apparatus 100 shown in FIG. 1 and the image processing system shown in FIG.
  • the image processing system shown in FIG. 19 is different from the image processing system shown in FIG. 17 in that the image processing apparatus 100 further includes a necessity determination unit 107, a load state measurement unit 1900, and a distribution switching unit 1901. is there.
  • the load state measurement unit 1900 is an example of a detection unit that detects information for determining whether or not the image processing apparatus 100 is ready to be loaded. Note that the detection means in the claims is, for example, the load state measurement unit 1900.
  • the load state measurement unit 1900 measures the load state of resources (for example, a CPU and a memory) of the image processing apparatus 100.
  • the distribution switching unit 1901 uses the necessity determination unit 1703 of the server 1700 and the image processing apparatus 100 as a destination of the metadata generated by the metadata generation unit 105 according to the load state measured by the load state measurement unit 1900. Switch to either one of the necessity determination units 107. For example, the distribution switching unit 1901 sends metadata to the necessity determination unit 1703 of the server 1700 when the load on the resource of the image processing apparatus 100 is high, and the load on the resource of the image processing apparatus 100 is high. If not, the metadata is sent to the necessity determination unit 107 of the image processing apparatus 100.
  • the resources of the image processing apparatus 100 should be sufficiently used when the necessity determination process for moving image frames is performed. Therefore, since it is determined that the moving image frame necessity determination process is performed by the server 1700 outside the image processing apparatus 100, the efficiency of the moving image frame necessity determination process can be improved.
  • FIG. 20 is a diagram showing an image processing system according to another embodiment of the present invention. Note that the same components as those of the image processing system illustrated in FIG. 17 are denoted by the same reference numerals, and description of the components is omitted.
  • the image processing system shown in FIG. 20 is different from the image processing system shown in FIG. 17 in that the image processing apparatus 100 further includes a necessity determination unit 107, a power mode detection unit 2000, and a distribution switching unit 2001. is there.
  • the power supply mode detection unit 2000 is an example of a detection unit that detects information for determining whether or not the image processing apparatus 100 is ready to be loaded. Note that the detection means in the claims is, for example, the power mode detector 2000.
  • the power mode detection unit 2000 is a power mode of the image processing apparatus 100 (for example, a startup mode in which power is supplied to all parts of the image processing apparatus 100 or power saving in which power is supplied to some parts of the image processing apparatus 100. (Standby mode).
  • the distribution switching unit 2001 sets the transmission destination of the metadata generated by the metadata generation unit 105 according to the power supply mode detected by the power supply mode detection unit 2000, the necessity determination unit 1703 of the server 1700, and the image processing apparatus 100. Switch to either one of the necessity determination units 107. For example, when the power mode of the image processing apparatus 100 is “power saving (standby) mode”, the distribution switching unit 2001 sends metadata to the necessity determination unit 1703 of the server 1700, and the power mode of the image processing apparatus 100 is “ In the case of “activation mode”, the metadata is sent to the necessity determination unit 107 of the image processing apparatus 100.
  • the power mode of the image processing apparatus 100 is the “power saving (standby) mode”
  • the image processing system shown in FIG. Since the server 1700 outside the image processing apparatus 100 performs the necessity determination process for the moving image frame by determining that the image cannot be sufficiently used, the efficiency of the necessity determination process for the moving image frame is improved. Can be improved.
  • FIG. 21 is a diagram showing an image processing system according to another embodiment of the present invention.
  • the image processing system shown in FIG. 21 includes an image processing device 100a that records an input moving image in the recording unit 106a, and an image reading device 108a that reads the moving image from the recording unit 106a.
  • the recording unit 106a shown in FIG. 21 is an external recording unit (for example, CD (Compact Disc)) that can be attached to and detached from the image processing apparatus 100 even with a recording unit (for example, hard disk, RAM (Random Access Memory), etc.) built in the image processing apparatus 100a. ), A DVD (Digital Versatile Disc) or the like, a memory card, or a USB memory, and the like, for example, a ROM (Read Only Memory), a nonvolatile memory, or a flash memory.
  • the recording unit 106a illustrated in FIG. 21 is assumed to be an external recording unit. When the recording unit 106a is built in the image processing apparatus 100a, the image processing apparatus 100a and the image reading apparatus 108a are connected to each other through a communication line or the like.
  • the image processing apparatus 100a includes a necessity determination data generation unit 103a, an image encoding unit 104a, a metadata generation unit 105a, and a control processing unit 109a. Note that the control processing unit 109a controls the operation of each unit of the image processing apparatus 100a.
  • the necessity determination data generation unit 103a is an unnecessary moving image frame corresponding to each moving image frame of the moving image input from the outside (for example, an imaging device or an external recording unit) to the image processing device 100a. Necessary / unnecessary determination data used to determine whether or not is generated.
  • the image encoding unit 104a encodes a moving image input from the outside to the image processing apparatus 100a, and divides each moving image frame of the encoded moving image into a plurality of pieces of data. Each is provided with identification information and recorded in the recording unit 106a.
  • the image encoding unit 104a performs encoding in the MPEG2 (Moving Picture Experts Group phase 2) format on the input moving image and each moving image of the encoded moving image.
  • Each image frame is divided into a plurality of TS (Transport Stream) packets, and identification information PID (Packet IDentification) (K, K + 1,...) Is assigned to the TS packets and recorded in the recording unit 106a.
  • TS Transport Stream
  • PID Packet IDentification
  • the recording unit 106a includes an identification information / recording position table indicating the correspondence between the identification information assigned to each data in the image encoding unit 104a and the information indicating the recording position in the recording unit 106a.
  • the recording unit 106a includes a directory as an identification information / recording position table indicating the correspondence between the identification information PID and the cluster number indicating the cluster position in the recording unit 106a.
  • the recording unit 106a includes information indicating recording positions in the recording unit 106a and information indicating data states at the recording positions (for example, information indicating the recording position when data continues to other recording positions, A recording position / data state information table indicating a correspondence relationship with information indicating that data ends at this recording position or information indicating that there is no data at this recording position is provided.
  • the recording unit 106 a has a cluster number indicating the position of the cluster in the recording unit 106 a and information indicating the data state in each cluster number (for example, when data continues to other clusters).
  • a FAT Fe Allocation Table
  • the metadata generation unit 105a integrates one piece of identification information assigned to each piece of data after the division of the encoded moving image frame and the necessity determination data corresponding to the moving image frame. Then, metadata is generated, and the generated metadata is recorded in the recording unit 106a.
  • the metadata corresponding to the moving image frame f1 is generated by integrating the necessity determination data corresponding to, and recorded in the recording unit 106a.
  • the identification information PID integrated with the necessity determination data is not limited to the identification information PID of the first TS packet among the TS packets after the division of the encoded moving image frame.
  • the image encoding unit 104a encodes a moving image input to the image processing apparatus 100a from the outside, and assigns identification information to each moving image frame of the encoded moving image, thereby recording the recording unit 106a. You may comprise so that it may record on.
  • the recording unit 106a includes an identification information / recording position table indicating the correspondence between the identification information assigned to each moving image frame in the image encoding unit 104a and the information indicating the recording position in the recording unit 106a. It is done.
  • the metadata generation unit 105a generates metadata by integrating the identification information given to the encoded moving image frame and the necessity determination data corresponding to the moving image frame, and generates the generated metadata. The recorded metadata is recorded in the recording unit 106a.
  • the necessity determination unit 107a controls the operation of each unit in the image reading device 108a.
  • the necessity determination unit 107a, the read control unit 11a2, the read unit 113a, the control processing unit 114a, and the like are configured by, for example, a microcomputer.
  • the necessity determination unit 107a determines whether the moving image frame corresponding to the identification information in the metadata is an unnecessary moving image frame based on the necessity determination data in the metadata read from the recording unit 106a. .
  • the read identification information / recording position table 110a is a table having the same contents as the identification information / recording position table in the recording unit 106a, and is the same as the directory shown in FIG. 23A, for example.
  • the read recording position / data state information table 111a is a table having the same contents as the recording position / data state information table in the recording unit 106a, and is similar to the FAT shown in FIG. 23B, for example.
  • the reading control unit 112a does not need to be used among the moving image frames of the moving image file recorded in the recording unit 106a using the reading identification information / recording position table 110a and the reading recording position / data state information table 111a. Only the moving image frame determined to be a necessary moving image frame by the determination unit 107a is read from the recording unit 106a.
  • the reading unit 113a reads the moving image file read from the recording unit 106a by the reading control unit 112a, the moving image editing program or the reproduction program executed inside or outside the image reading device 108a, or the image reading device 108a. Output to a display device provided inside or outside.
  • FIG. 24 is a flowchart showing an example of the operation of the image reading device 108a.
  • the necessity determination unit 107a receives a request for reading a moving image file in the recording unit 106a from a moving image editing program or a reproduction program inside or outside the image reading device 108a (S11a is Yes)
  • Metadata corresponding to one or more moving image frames of the moving image frames of the moving image file indicated in the read request or the like is read from the recording unit 106a (S12a).
  • the necessity determination unit 107a determines whether or not the moving image frame corresponding to the identification information in the metadata is a necessary moving image frame based on the necessity determination data in the read metadata ( S13a).
  • the necessity determination unit 107a records all necessary moving image frames among the moving image frames of the moving image file indicated in the read request or the like. It is determined whether or not the data has been read from 106a (S14a).
  • the moving image file reading process ends, and all the necessary moving image frames have not been read. If it is determined (No in S14a), the process returns to S12a, and metadata corresponding to the next one or more moving image frames is read from the recording unit 106a.
  • the reading control unit 112a Referring to the identification information / recording position table 110a and the reading recording position / data state information table 111a (S15a), the necessary moving image frame is read from the recording unit 106a (S16a), and all necessary moving image frames are read. It is determined whether it has been issued (S14a).
  • the necessity of moving image frames is determined for each metadata, that is, for each moving image frame.
  • the necessity of moving image frames is determined for each predetermined number of moving image frames. You may comprise so that an unnecessary determination may be performed.
  • the predetermined number of moving image frames may be set in advance by a user or the like based on the amount of moving image frames required when editing or reproducing a moving image. With this configuration, it is possible to reduce the calculation amount of the necessity determination unit 107a.
  • the image reading device 108a may include a table in which all identification information recorded in the recording unit 106a is associated with information indicating the recording position of the recording unit 106a corresponding to the identification information. .
  • the read control unit 112a uses this table to record data recorded at the recording position of the recording unit 106a corresponding to the identification information of the moving image frame determined as the necessary moving image frame by the necessity determination unit 107a. Alternatively, only the information may be read from the recording unit 106a.
  • the image processing system shown in FIG. 21 is configured to read, from the recording unit 106a, a moving image frame determined as a necessary moving image frame out of each moving image frame of the moving image file in the previous stage of editing work or reproduction work. For this reason, when a moving image file is read from the recording unit 106a, an unnecessary moving image frame is read. As described above, since a moving image file from which unnecessary moving image frames are removed can be read out from the recording unit 106a in the previous stage of editing or playback, the moving image file can be edited during editing or playback. The time for loading the program and the reproduction program can be shortened, and the efficiency of editing and reproduction can be suppressed.
  • the image processing system shown in FIG. 21 identifies each data after dividing the moving image frame and identification given to each moving image frame in order to specify the recording position of the recording unit 106a corresponding to the necessary moving image frame. Since the information is used, the amount of data processing when generating metadata or reading metadata can be reduced, and the load on the image processing apparatus 100a and the image reading apparatus 108a can be suppressed.
  • the image encoding unit 104a performs MPEG format encoding on an input moving image, for example, as shown in FIG. 25, compression of SH (Sequence Header) and GOP (Group Of Picture) is performed. Encoding is performed in units (for example, I frame (Intra Picture), B1 frame to B3 frame (Bidirectionally Predictive Picture), and P frame (Predictive Picture)).
  • the read control unit 112a reads a GOP including a necessary moving image frame from the recording unit 106a.
  • data recorded in the cluster number “0002” corresponding to the GOP including the first frame B1 of the necessary moving image is read from the recording unit 106a, and the last frame B2 ′ of the necessary moving image is included.
  • the data recorded in the cluster number “0014” corresponding to the GOP is read from the recording unit 106a.
  • FIG. 26A is a diagram illustrating an image processing system including the imaging device 600a as the first embodiment of the image processing device 100a.
  • the same components as those shown in FIG. 21 are denoted by the same reference numerals, and description of the components is omitted.
  • An imaging apparatus 600a illustrated in FIG. 26A is, for example, a digital camera or the like, and includes an imaging unit 101a, an image processing unit 102a, a necessity determination data generation unit 103a, an image encoding unit 104a, and a metadata generation unit 105a. And a control processing unit 109a.
  • the imaging unit 101a converts, for example, a subject image formed on an imaging element such as a CCD (Charge Coupled Device) by a lens into an electrical signal in the imaging element, and converts a moving image including a still image frame or a plurality of moving image frames. obtain.
  • an imaging element such as a CCD (Charge Coupled Device)
  • CCD Charge Coupled Device
  • the image processing unit 102a performs various types of image processing such as sharpness correction, contrast correction, luminance / color difference signal generation, and white balance correction on each moving image frame of the still image or moving image obtained by the imaging unit 101a.
  • the image encoding unit 104a encodes a still image frame after image processing in a JPEG (Joint Photographic Experts Group) format or the like. In addition, the image encoding unit 104a performs encoding in the MPEG format or the like on the moving image after image processing.
  • JPEG Joint Photographic Experts Group
  • the characteristic feature of the imaging apparatus 600a shown in FIG. 26A is that a subject detection processing unit 601a is provided as the necessity determination data generation unit 103a, and the subject detection processing unit 601a uses the subject detection processing unit 601a in each moving image frame of the moving image after image processing.
  • the “subject position” and “subject size” as the necessity determination data are detected, respectively, and the detected “subject position” and “subject size” and the identification information PID are detected in the metadata generation unit 105a.
  • FIG. 27 is a flowchart showing an example of the operation of the necessity determination unit 107a shown in FIG. 26A.
  • the necessity determination unit 107a inputs “subject position” and “subject size” indicated in the metadata read from the recording unit 106a (S21a).
  • the subject detection processing unit 601a detects a subject in a moving image frame after image processing, and then sets a rectangular area surrounding the detected subject as a subject area, and a pixel position (x0, y0) at the upper left of the subject area Is the “subject position”.
  • the subject detection processing unit 601a sets the number of pixels in the horizontal direction of the subject area as W and the number of pixels in the vertical direction of the subject area as “subject size”.
  • the subject detection processing unit 601a sets x0 to a value smaller than 0 when no subject is detected from the moving image frame. Further, the pixel position at the upper left of the moving image frame is assumed to be (1, 1).
  • the necessity determination unit 107a determines whether or not x0 is smaller than 0, that is, whether or not a subject is detected (S22a).
  • the necessity determination unit 107a determines whether W is smaller than the threshold Thr_W or whether H is smaller than the threshold Thr_H, that is, the subject is predetermined. It is determined whether or not it is smaller than the size (S23a). Note that the threshold Thr_W and the threshold Thr_H may be set in advance by a user or the like.
  • the necessity determination unit 107 determines whether x0 + W / 2 is smaller than the threshold Thr_L_x, that is, the subject area is outside the left end of the moving image frame. It is determined whether or not it is off (S24a). Note that the threshold Thr_L_x may be set in advance by a user or the like.
  • the necessity determination unit 107a determines whether x0 + W / 2 is larger than the threshold Thr_R_x, that is, the right end of the subject area. Is determined to be outside the right end of the moving image frame (S25a). Note that the threshold Thr_R_x may be set in advance by a user or the like.
  • the necessity determination unit 107a determines whether y0 + H / 2 is larger than the threshold Thr_U_y, that is, the subject area It is determined whether or not the upper end of the moving image frame is outside the upper end of the moving image frame (S26a).
  • the threshold Thr_U_y may be set in advance by a user or the like.
  • the necessity determination unit 107a determines whether y0 + H / 2 is smaller than the threshold Thr_D_y, that is, the subject area It is determined whether or not the lower end of the frame is outside the lower end of the moving image frame (S27a).
  • the threshold Thr_U_y may be set in advance by a user or the like.
  • the necessity determination unit 107a determines that “the subject has not been detected (S22a is Yes)”, “the subject is smaller than a predetermined size (S23a is Yes)”, “the subject area is outside the left end of the moving image frame. Is out (S24a is Yes) "," the subject area is outside the right edge of the video frame (S25a is Yes) "," the subject area is outside the top edge of the video frame (S26a is Yes ”and“ Subject area is outside the lower end of the moving image frame (S27a is Yes) ”, it is determined that the moving image frame is an unnecessary moving image frame during editing or playback. It is determined that there is a moving image frame corresponding to the identification information in the metadata read from the recording unit 106a.
  • the frame is determined as an unnecessary moving image frame (NG) during editing or playback.
  • the image reading device 108a shown in FIG. 26A determines whether or not a moving image frame is necessary according to the position and size of the subject, a moving image file acquired when the subject moves violently during sports or race watching. This is effective in reducing the amount of data when reading.
  • the composition index described in the metadata is based on the position and size of the subject, and is configured to determine whether the moving image frame is necessary. As shown in FIG. 29, when moving image frames having the same composition are continuously acquired, the moving image frames may be determined as unnecessary moving image frames at the time of editing or reproduction. .
  • the reading control unit 112a does not read a moving image frame of identification information corresponding to a part of the continuous frames from the recording unit 106a. To do.
  • the difference between frames may be obtained based on the statistical amount of the image in addition to the difference in detection of the composition index, that is, the position of the subject as shown in FIG.
  • the total value of the difference in level difference between frames is less than or equal to a predetermined value
  • the case where the total value of the amount of change in the histogram of the compared frame is less than or equal to a predetermined value may be used.
  • a difference calculation unit 1031a means for integrating the difference between frames is provided instead of the subject detection processing unit 103a.
  • a histogram difference calculation unit 1032a that calculates a histogram difference between frames and an integral thereof is calculated instead of the subject detection processing unit 103a.
  • FIG. 30 is a diagram illustrating an image processing system including an imaging apparatus 1000a as the second embodiment of the image processing apparatus 100a.
  • the same components as those shown in FIG. 26 are denoted by the same reference numerals, and description of the components is omitted.
  • the characteristic feature of the imaging apparatus 1000a shown in FIG. 30 is that a focus information processing unit 1001a is provided as the necessity determination data generation unit 103a, and the focus information processing unit 1001a applies to each moving image frame of the moving image after image processing.
  • “focus information” as necessity determination data is set, respectively, and “focus information” and identification information PID are integrated and recorded as metadata in the recording unit 106a by the metadata generation unit 105a. It is.
  • FIG. 31 is a flowchart showing an example of the operation of the necessity determination unit 107a shown in FIG.
  • the necessity determination unit 107a inputs “focus information” indicated in the metadata read from the recording unit 106a (S31a).
  • the focus information processing unit 1001a obtains the contrast evaluation value C0 corresponding to the moving image frame from the image processing unit 102a and captures the lens position L0 of the focus lens every time the imaging unit 101a acquires the moving image frame. Obtained from the unit 101a and output to the metadata generation unit 105a.
  • the image processing unit 102a sets the contrast evaluation value C0 to a value smaller than 0 when the focus is not achieved, that is, when the focus lens is not focused.
  • the necessity determination unit 107a determines that C0 is equal to or greater than 0, that is, the focus lens is in focus (No in S32a)
  • the lens position L0_n corresponding to the moving image frame acquired this time Is stored in a storage unit inside or outside the necessity determination unit 107a (S33a).
  • the necessity determination unit 107a reads out the lens position L0_n corresponding to the moving image frame acquired this time and the lens position L0_n-1 corresponding to the previously acquired moving image frame from the storage unit (S34a), It is determined whether or not the absolute value of the difference between the lens position L0_n and the lens position L0_n ⁇ 1 is larger than the threshold value Thr_L, that is, whether or not the focus is stable (S35a).
  • the threshold Thr_L may be set in advance by a user or the like.
  • FIG. 32 is a diagram illustrating an image processing system including an imaging apparatus 1200a as the third embodiment of the image processing apparatus 100a.
  • the same components as those shown in FIG. 26 are denoted by the same reference numerals, and description of the components is omitted.
  • the characteristic feature of the imaging apparatus 1200a shown in FIG. 32 is that a zoom information processing unit 1201a is provided as the necessity determination data generation unit 103a, and each moving image frame of the moving image after image processing is provided by the zoom information processing unit 1201a.
  • “zoom information” as necessity determination data is set, respectively, and “zoom information” and identification information PID are integrated by the metadata generation unit 105a and recorded as metadata in the recording unit 106a. It is.
  • FIG. 33 is a flowchart showing an example of the operation of the necessity determination unit 107a shown in FIG.
  • the necessity determination unit 107a inputs “zoom information” indicated in the metadata read from the recording unit 106a (S41a). Note that each time the imaging unit 101a acquires a moving image frame, the zoom information processing unit 1201a displays zoom information Z0 (for example, the lens position of the zoom lens and the lens movement amount) corresponding to the moving image frame. And output to the metadata generation unit 105a.
  • zoom information Z0 for example, the lens position of the zoom lens and the lens movement amount
  • the necessity determination unit 107a holds the input zoom information Z0 in a storage unit inside or outside the necessity determination unit 107a (S42a).
  • the necessity determination unit 107a reads out the zoom information Z0_n corresponding to the currently acquired moving image frame and the zoom information Z0_n-1 corresponding to the previously acquired moving image frame from the storage unit (S43a), It is determined whether or not the absolute value of the difference between the zoom information Z0_n and the zoom information Z0_n-1 is larger than the threshold Thr_Z, that is, whether the lens position of the zoom lens is not stable (S44a).
  • the threshold Thr_Z may be set in advance by a user or the like.
  • the determination unit 107a determines that the lens position of the zoom lens is not stable (Yes in S44a)
  • the determination unit 107a determines that the moving image frame is an unnecessary moving image frame during editing or playback.
  • the necessity determination flag FLG ⁇ 1 indicating that the moving image frame corresponding to the identification information in the metadata read from the recording unit 106a is an unnecessary moving image frame at the time of editing or reproduction, the identification information is read and controlled.
  • the data is output to the unit 112a (S46a).
  • the necessity of the moving image frame is determined depending on whether or not the lens position of the zoom lens is stable. This is effective in reducing the amount of data when reading a moving image file acquired when moving to.
  • the information used for the necessity determination process of the moving image frame necessary when editing or reproducing the moving image is not limited to the position and size of the subject, the focus information, or the zoom information as described above.
  • a histogram of luminance gradation of each moving image frame after image processing may be used.
  • FIG. 34 is a diagram illustrating an image processing system including an imaging apparatus 1400a as Example 4 of the image processing apparatus 100a.
  • the same components as those shown in FIG. 26 are denoted by the same reference numerals, and description of the components is omitted.
  • the characteristic feature of the imaging apparatus 1400a shown in FIG. 34 is that the necessity determination data generation unit 103a includes a wireless antenna 1401a and a reception signal strength detection unit 1402a, and the reception signal strength detection unit 1402a performs the processing of the moving image after image processing.
  • received signal strength information RSSI: Received Signal Strength Indication
  • RSSI Received Signal Strength Indication
  • the wireless antenna 1401a receives a signal transmitted from a transmitter provided in the subject and a signal transmitted from the imaging device 1400a and reflected by the subject.
  • FIG. 35 is a flowchart showing an example of the operation of the necessity determination unit 107a shown in FIG.
  • the necessity determination unit 107a inputs the received signal strength information R0 indicated in the metadata read from the recording unit 106a (S51a).
  • the received signal strength detection unit 1402a uses the level of the received signal received by the wireless antenna 1401a as received signal strength information R0 in correspondence with the moving image frame every time the imaging unit 101a acquires the moving image frame.
  • the data is output to the metadata generation unit 105a.
  • the necessity determination unit 107a determines whether the input received signal strength information R0 is larger than the threshold Thr_R, that is, whether the subject is far from the imaging device 1400a (S52a).
  • the threshold Thr_R may be set in advance by a user or the like.
  • the necessity determination unit 107a determines that the subject is far from the imaging device 1400a (Yes in S52a)
  • the data is output to 112a (S54a).
  • the necessity of the moving image frame is determined according to the received signal strength information R0, for example, it is acquired when the subject is moving back and forth with respect to the imaging device 1400a. This is effective in reducing the amount of data when reading a moving image file.
  • the necessity determination unit 107a is configured to determine whether or not a moving image frame is necessary based on whether or not the received signal strength information R0 is greater than the threshold Thr_R.
  • the received signal strength detection unit 1402a of the imaging device 1400a may be configured to determine whether or not a moving image frame is necessary based on whether or not the received signal strength information R0 is greater than a threshold value Thr_R.
  • the necessity determination unit 107a can be omitted.
  • the image processing device 100a and the image reading device 108a are configured as independent devices. However, as shown in FIG. The device 100a may include a single device. The operation of each unit of the image processing apparatus 100a shown in FIG. 37 is the same as the above-described operation, and thus description thereof is omitted.
  • a read operation may be performed only when it is received.
  • FIG. 38 is a diagram showing an image processing apparatus according to another embodiment of the present invention. Note that the image processing apparatus 10 illustrated in FIG. 38 is intended to improve the efficiency of editing and reproducing work on a plurality of image data, for example.
  • the image processing apparatus 10 illustrated in FIG. 38 includes an input unit 11, a processing unit 12, an output unit 13, a feature data acquisition unit 14, a reference feature data acquisition unit 15, a feature data evaluation unit 16, and a control processing unit. 17.
  • the input unit 11 and the feature data acquisition unit 14 may be configured integrally.
  • the image processing apparatus in the present application is not limited to image data processing, but means processing of data related to an image, such as evaluation of an image used for image processing using image feature data and determination of necessity / unnecessity. And
  • the input unit 11 acquires image data (for example, a moving image or a plurality of still images) from the outside (for example, an external server or an imaging device).
  • image data for example, a moving image or a plurality of still images
  • the processing unit 12 performs, for example, sharpness correction, contrast correction, luminance / color difference signal generation, white balance correction, on the image data determined to be necessary by the control processing unit 17 among the image data acquired by the input unit 11.
  • Various image processing (control) such as adding metadata and trimming is performed.
  • the output unit 13 outputs the image data subjected to various types of image processing by the processing unit 12 to the outside (for example, a display device or a recording device).
  • the feature data acquisition unit 14 corresponds to feature data corresponding to image data (for example, metadata corresponding to a plurality of still images arranged in time series, moving image header data, or time code corresponding to moving image frames and packets). Data) from outside.
  • image data for example, metadata corresponding to a plurality of still images arranged in time series, moving image header data, or time code corresponding to moving image frames and packets. Data
  • the reference feature data acquisition unit 15 acquires reference feature data.
  • the reference feature data acquisition unit 15 may acquire the reference feature data from the outside or may store it in advance.
  • the reference feature data acquisition unit 15 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), a nonvolatile memory, a flash memory, or the like, and a storage medium built in the image processing apparatus 10 such as a hard disk. It may be a storage medium that can be attached to and detached from the image processing apparatus 10 such as a CD (Compact Disc), a DVD (Digital Versatile Disc), a memory card, or a USB memory.
  • CD Compact Disc
  • DVD Digital Versatile Disc
  • memory card or a USB memory.
  • the feature data evaluation unit 16 evaluates feature data based on the reference feature data.
  • the reference feature data is, for example, a value evaluated by an evaluation item that indicates the degree of satisfaction or dissatisfaction of the user with respect to the image data.
  • the reference feature data is a value evaluated by evaluation items such as blurring, blurring, darkness, hue, sharpness, field angle deviation, asymmetry, and subject fogging of image data corresponding to the feature data.
  • the reference feature data includes evaluation items such as opening / closing of the subject's eyes, facial expression, face orientation, eye color (red eyes during flash photography, etc.)
  • the value evaluated by the feature data evaluation unit 16 evaluates blurring, blurring, sharpness, and the like based on the outline and the focus state in the image data corresponding to the feature data.
  • the image processing apparatus 10 includes an angular velocity sensor, a vibration sensor, or the like, output values of the sensors at the shutter timing can be stored and used for blur evaluation.
  • the feature data evaluation unit 16 evaluates the brightness of the image data corresponding to the feature data by calculating the luminance of the entire image data.
  • the feature data evaluation unit 16 evaluates the hue of the image data corresponding to the feature data by analyzing the color tendency of the entire image data. Further, for example, the feature data evaluation unit 16 detects the occurrence of extreme defocusing in a certain range in the image data corresponding to the feature data, so that the subject fogging such as a finger or a strap covering the imaging lens is detected. Evaluate. Further, for example, the feature data evaluation unit 16 evaluates the angle of view by analyzing the verticality and horizontality of buildings, natural objects, people, and the like in the image data corresponding to the feature data. Further, for example, the feature data evaluation unit 16 evaluates eye opening / closing by analyzing the eye portion in the image data corresponding to the feature data.
  • the feature data evaluation unit 16 evaluates facial expressions by comparing image data corresponding to the feature data with various facial expression patterns or estimating the shape of the eyes or mouth. In addition, for example, the feature data evaluation unit 16 evaluates the orientation of the face by estimating the positional relationship between the eyes, nose, mouth, and ears, the face outline, and the like in the image data corresponding to the feature data. Do. Further, for example, the feature data evaluation unit 16 may compare the feature data with a plurality of reference feature data, and classify and evaluate the feature data step by step. In addition, for example, the feature data evaluation unit 16 may score and evaluate the feature data. Further, for example, the feature data evaluation unit 16 compares the feature data with the reference feature data corresponding to each item, evaluates the feature data for each item, and based on the evaluation result for each item. A comprehensive evaluation of the feature data may be performed.
  • the control processing unit 17 controls the operations of the input unit 11, processing unit 12, output unit 13, feature data acquisition unit 14, reference feature data acquisition unit 15, and feature data evaluation unit 16.
  • the control processing unit 17 includes a necessity determination unit 17-1.
  • the necessity determination unit 17-1 performs necessity determination of the image data corresponding to the feature data based on the evaluation result of the feature data evaluation unit 16.
  • the feature data acquisition unit 14, the necessity determination unit 17-1, and the processing unit 12 may be realized, for example, by executing a program recorded on a recording medium by a DSP (Digital Signal Processor) as a computer. Alternatively, it may be realized by executing a program incorporated in an FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit) as a computer.
  • the recording medium may be a non-transitory recording medium.
  • the non-transitory recording medium is not particularly limited, but is, for example, a CD-ROM.
  • FIG. 39 is a flowchart showing an example of the operation of the control processing unit 17 shown in FIG.
  • the control processing unit 17 acquires the feature data.
  • the reference feature data is extracted from the data (S22b), and the feature data evaluation unit 16 evaluates the feature data based on the reference feature data (S23b).
  • the necessity determination unit 17-1 of the control processing unit 17 performs necessity determination of image data corresponding to the feature data acquired based on the evaluation result of the feature data evaluation unit 16 (S24b).
  • control processing unit 17 causes the feature data acquisition unit 14 to acquire feature data corresponding to the next image data (S25b), and the feature data evaluation unit 16 based on the reference feature data.
  • the feature data is evaluated (S23b).
  • control processing unit 17 causes the input unit 11 to acquire image data corresponding to the feature data (S26b), and then the processing unit 12 applies the determination to the image data that needs determination.
  • Various image processing is performed (S27b), and the image data after the image processing is output by the output unit 13 (S28b).
  • control processing unit 17 uses the feature data acquisition unit 14 to Feature data corresponding to the image data is acquired (S25b), and the feature data evaluation unit 16 evaluates the feature data based on the reference feature data (S23b).
  • control processing unit 17 performs image processing on the plurality of image data. Exit.
  • the control processing unit 17 uses the data table acquired by the reference feature data acquisition unit 15 illustrated in FIG. “Peak position range 10 to 245” is extracted as reference feature data corresponding to “luminance histogram”.
  • the characteristic data evaluation unit 16 outputs an evaluation result indicating that the luminance peak position is smaller than the “peak position range 10 to 245”
  • the necessity determination unit 17-1 indicates that the image data is too dark. It is determined that the image data is unnecessary, and control data indicating that the image data is unnecessary is sent to the input unit 11.
  • the necessity determination unit 17-1 When the characteristic data evaluation unit 16 outputs an evaluation result indicating that the luminance peak position is larger than the “peak position range 10 to 245”, the necessity determination unit 17-1 requires that the image data is too bright. It is determined that there is no image data, and control data indicating that the image data is unnecessary is sent to the input unit 11. On the other hand, when the evaluation result indicating that the luminance peak position is within the “peak position range 10 to 245” is output from the feature data evaluation unit 16, the necessity determination unit 17-1 determines that the image data is not too bright and dark. It is determined that the image data is only desired image data, and control data indicating that the image data is necessary determination is sent to the input unit 11.
  • the control processing unit 17 is acquired by the reference feature data acquisition unit 15 illustrated in FIG. 40. “1 or more” is extracted from the data table as reference feature data corresponding to “number of detected faces”.
  • the necessity determination unit 17-1 inputs control data indicating that the image data is unnecessary determination Send to part 11.
  • the necessity determination unit 17-1 inputs control data indicating that the image data is determination necessary Send to part 11.
  • the input unit 11 acquires only the image data that needs to be determined, the load on the output destination of the processing unit 12 and the output unit 13 can be reduced.
  • editing processing and reproduction work are performed by the processing unit 12, but editing work and reproduction are performed using the processing unit of the external image processing device. Work may be performed.
  • the image processing apparatus 10 shown in FIG. 38 has a configuration in which various image processing is performed only on image data based on the evaluation result of the feature data evaluation unit 16 among a plurality of image data and output to the outside. Therefore, it is possible to reduce the load of the editing work and reproduction work of the output destination, and it is possible to improve the efficiency of the editing work and the reproduction work.
  • various image processes are performed only on the image data based on the evaluation result of the feature data evaluation unit 16 among the plurality of image data. Can be reduced.
  • the image processing apparatus 10 may acquire feature data from the imaging device 43 (imaging unit) via the communication devices 41 and 42 as illustrated in FIG. 41A.
  • the communication device 42 and the imaging device 43 are configured by a digital camera with a communication function, a mobile phone with a camera, a smartphone, or an imaging device via an adapter having a communication function.
  • the image processing apparatus 10 determines whether or not the image data corresponding to the feature data is necessary based on the feature data, and if the determination is necessary, requests the image data from the imaging device 43.
  • the image processing apparatus 10 receives the requested image data, the image processing apparatus 10 performs various image processing on the image data, and sends the image data after the image processing to the display device 44.
  • the necessity determination unit 17-1 requests the image device 43, which is an external device, for the image data that has been determined to be necessary.
  • the necessity determination unit 17-1 may cause the image data that has been determined to be necessary to be requested from another external device to the imaging device 43 that is an external device.
  • the imaging device 43 may be connected to a network 45.
  • the image processing apparatus 10 transmits / receives data of the imaging apparatus 43 via the communication apparatus 42 and the network 45.
  • the image processing apparatus 10 may include an imaging device 46 (imaging unit).
  • the image processing apparatus 10 determines whether or not the image data corresponding to the feature data is necessary based on the feature data sent from the imaging device 46, and if the determination is necessary, captures the image data. Request to device 46.
  • the image processing apparatus 10 receives the requested image data, the image processing apparatus 10 performs various image processing on the image data, and sends the image data after the image processing to the display device 44.
  • the feature data evaluation unit 16 may review the reference feature data to be extracted from the data acquired by the reference feature data acquisition unit 15 according to an external situation.
  • FIG. 42 is a diagram showing an image processing apparatus according to another embodiment of the present invention. Note that the same components as those shown in FIG. Further, the image processing apparatus 50 shown in FIG. 42 is intended to improve the efficiency of editing and reproducing work for a plurality of image data, for example.
  • the image processing apparatus 50 shown in FIG. 42 differs from the image processing apparatus 10 shown in FIG. 38 in that a power supply state detection unit 51 (state detection unit), an evaluation policy generation unit 52, a reference feature data generation unit 53, The transmission unit 54 and the reception unit 55 are further provided.
  • a power supply state detection unit 51 state detection unit
  • an evaluation policy generation unit 52 evaluation policy generation unit
  • a reference feature data generation unit 53 reference feature data generation unit
  • the transmission unit 54 and the reception unit 55 are further provided.
  • the power supply state detection unit 51 sequentially detects the power supply type and the power supply state of the image processing apparatus 50. For example, the power supply state detection unit 51 detects “AC power supply” or “DC power supply” as the power supply type of the image processing apparatus 50, or detects “DC power remaining capacity” as the power supply state. Note that the power supply state detection unit 51 detects the power supply state such as the expected remaining time, current, and voltage value of the DC power supply as an instantaneous value and an average value within a certain past period. Or you may detect all the past power supply states with a time stamp.
  • the AC power source is a power source with no limitation on the supply amount such as a commercial power source, and the DC power source indicates a power source with a limited remaining amount or usage amount such as a battery (storage battery).
  • the evaluation policy generation unit 52 generates an evaluation policy related to the power supply when detecting that the power supply state detection unit 51 is operating. For example, if the power type of the image processing apparatus 50 is “DC power” and the power state is “DC power remaining capacity: less than 20%”, the evaluation policy generation unit 52 “resolution is VGA (640 ⁇ 480). ) Generate an evaluation policy of “acquire the following images”. For example, when the power type of the image processing apparatus 50 is “DC power” and the power state is “DC power remaining capacity: less than 20%”, the evaluation policy generation unit 52 “X direction, Y direction” An evaluation policy of “selecting an image whose total number of pixels in the image area is 640 ⁇ 480 or less regardless of the resolution of the image” may be generated.
  • the reference feature data generation unit 53 generates reference feature data based on the evaluation policy generated by the evaluation policy generation unit 52 and the detection result of the power supply state detection unit 51.
  • the necessity determination unit 17-1 shown in FIG. 42 sends an image acquisition request including the necessity determination result of image data corresponding to the feature data and the identification information of the image data to the transmission unit 54.
  • the transmission unit 54 transmits the image acquisition request sent from the necessity determination unit 17-1 to the server 56 via the network.
  • the network may be, for example, the Internet, a LAN, an on-chip network, or an interface such as USB or PCI.
  • the necessity determination unit 17-1 requests the image data determined to be necessary from the server 56 that is an external device.
  • the necessity determination unit 17-1 may cause the server 56 to request the image data from other external devices for the image data determined to be necessary.
  • the server 56 includes a reception unit 57, a selection unit 58, a storage unit 59, and a transmission unit 60.
  • the receiving unit 57 receives an image acquisition request transmitted from the image processing apparatus 50.
  • the selection unit 58 extracts image data corresponding to the identification information indicated in the received image acquisition request from the plurality of image data stored in the storage unit 59.
  • the transmission unit 60 transmits the image data extracted by the selection unit 58 to the image processing apparatus 50 via the network.
  • the receiving unit 55 of the image processing apparatus 50 receives image data transmitted from the server 56.
  • the input unit 11 of the second embodiment sends the image data received by the receiving unit 55 to the processing unit 12.
  • FIG. 43 is a flowchart showing an example of the operation of the reference feature data generation unit 53.
  • the reference feature data generation unit 53 generates reference feature data based on the evaluation policy generated by the evaluation policy generation unit 52 and the detection result of the power supply state detection unit 51 (S61b), and then generates the generated reference feature data. It stores in the reference feature data acquisition unit 15 (S62b).
  • a data table shown in FIG. 44 is stored in advance in a storage unit (not shown).
  • the reference feature data generation unit 53 “Resolution: 640 ⁇ 480 or less” is extracted as reference feature data corresponding to the power type “DC power” and the power state “DC power remaining capacity: 20% or less” from the data table shown in FIG. Save to 15.
  • the reference feature data generation unit 53 has a case where the power type of the image processing apparatus 50 detected by the power state detection unit 51 is “DC power” and the power state is “remaining capacity of DC power: 34%”.
  • “Resolution: 1280 ⁇ 960 or less” is extracted as reference feature data corresponding to the power type “DC power” and the power status “DC power remaining capacity: 20% or more” from the data table shown in FIG. Save in the acquisition unit 15.
  • the reference feature data generation unit 53 sets the power type to “AC power” from the data table shown in FIG. “Resolution: Unrestricted” is extracted as corresponding reference feature data and stored in the reference feature data acquisition unit 15.
  • the reference feature data generation unit 53 is configured such that when the usable power supply capacity is in a low energy state that is equal to or less than a specified value, the data amount of image data to be acquired is reduced compared to the non-low energy state. Generate reference feature data.
  • FIG. 45 is a flowchart showing an example of the operation of the control processing unit 17 shown in FIG.
  • the control processing unit 17 starts from the data acquired by the reference feature data acquisition unit 15.
  • the reference feature data is extracted (S82b), and the feature data evaluation unit 16 evaluates the feature data based on the reference feature data (S83b).
  • the necessity determination unit 17-1 of the control processing unit 17 performs necessity determination of image data corresponding to the feature data acquired based on the evaluation result of the feature data evaluation unit 16 (S84b).
  • control processing unit 17 causes the feature data acquisition unit 14 to acquire feature data corresponding to the next image data (S85b), and the feature data evaluation unit 16 based on the reference feature data.
  • the feature data is evaluated (S83b).
  • control processing unit 17 causes the transmission unit 54 to transmit the image acquisition request to the server 56 (S86b), and the reception unit 55 receives the image data corresponding to the image acquisition request.
  • the processing unit 12 performs various image processing on the image data (S88b), and the output unit 13 outputs the image data after the image processing (S89b).
  • control processing unit 17 uses the feature data acquisition unit 14 to The feature data corresponding to the image data is acquired (S85b), and the feature data evaluation unit 16 evaluates the feature data based on the reference feature data (S83b).
  • control processing unit 17 performs image processing on the plurality of image data. Exit.
  • the control processing unit 17 “Resolution: 640 ⁇ 480 or less” is extracted from the data acquired by the feature data acquisition unit 15 as reference feature data.
  • the feature data evaluation unit 16 outputs an evaluation result indicating that the resolution of the image data corresponding to the feature data is “640 ⁇ 480” or less, the necessity determination unit 17-1 requires the image data. Judgment.
  • the necessity determination unit 17-1 determines that the image data is unnecessary.
  • FIG. 46 is a diagram showing an image processing apparatus according to another embodiment of the present invention.
  • the same components as those illustrated in FIG. 42 are denoted by the same reference numerals and description thereof is omitted.
  • the image processing apparatus 90 illustrated in FIG. 46 is intended to improve the efficiency of editing and reproducing work on a plurality of image data, for example.
  • connection state determination unit 91 state detection unit
  • connection state determination unit 91 is connected to the network (connection or disconnection, etc.), network type (wired or wireless, etc.), network standard (IEEE802.3ab) from the transmission unit 54 or the reception unit 55 of the image processing apparatus 90. And IEEE802.11n), information on network traffic, and the like are acquired as network information and output to the evaluation policy generation unit 52 and the reference feature data generation unit 53, respectively.
  • the evaluation policy generation unit 52 of the third embodiment generates an evaluation policy related to network information when detecting that the connection state determination unit 91 is operating. For example, when the network type is “wired” and the network occupation rate (the ratio of the current network traffic volume to the upper limit of the network traffic volume) is “50% or more”, the evaluation policy generation unit 52 of the third embodiment , An evaluation policy of “acquiring an image having a resolution of VGA (640 ⁇ 480) or less” is generated. Further, the evaluation policy generation unit 52 may combine a plurality of reference feature data.
  • the evaluation policy generation unit 52 “the resolution is VGA (640 ⁇ 480) or less and the data size is An evaluation policy of “acquiring an image of 20 KB or less” may be generated.
  • the evaluation policy generation unit 52 may use an evaluation formula when combining the reference feature data.
  • FIG. 47 is a flowchart showing an example of the operation of the reference feature data generation unit 53 shown in FIG.
  • the reference feature data generation unit 53 generates reference feature data based on the evaluation policy generated by the evaluation policy generation unit 52 and the determination result (network information) of the connection state determination unit 91 (S101), and then generates the reference feature data.
  • the reference feature data is stored in the reference feature data acquisition unit 15 (S102).
  • the connection state determination unit 91 determines that the network type is “Net information indicating that it is “wireless” and the network occupation ratio is “86.4%” is output.
  • the reference feature data generation unit 53 performs the data shown in FIG.
  • “2 ⁇ 3” is extracted as an evaluation formula corresponding to the network type “wireless” and the network occupation ratio “80% or more” from the table, and “resolution” is used as the reference feature data corresponding to the feature ID “2”.
  • “640 ⁇ 480 or less ” “ image size: 20 KB or less ”is extracted as reference feature data corresponding to the feature ID“ 3 ”, and the reference feature data and the evaluation formula are stored in the reference feature data acquisition unit 15. That is, the reference feature data generation unit 53 has a total data amount of image data to be acquired when compared with the non-low-speed state when the data transfer amount per unit time of the usable network is equal to or less than a specified value.
  • the reference feature data is generated so that the
  • the necessity determination unit 17-1 illustrated in FIG. 46 evaluates when the network type determined by the connection state determination unit 91 is “wireless” and the network occupation ratio is “86.4%”. “2 ⁇ 3” and reference feature data corresponding to the feature IDs “2” and “3” from the data acquired by the reference feature data acquisition unit 15 are “resolution: 640 ⁇ 480 or less” and “image size: 20 KB or less. "Is taken out. At this time, the feature data evaluation unit 16 outputs an evaluation result that the resolution of the image data corresponding to the feature data is “640 ⁇ 480” or less and the image size of the image data is “20 KB” or less.
  • the necessity determination unit 17-1 sends an image acquisition request indicating that the image data is a necessity determination to the server 56 by the transmission unit 54.
  • the necessity determination unit 17-1 requests the image data determined to be necessary from the server 56 that is an external device.
  • the necessity determination unit 17-1 may cause the server 56 to request the image data from other external devices for the image data determined to be necessary.
  • the necessity determination unit 17-1 transmits an image acquisition request to the server 56 by the transmission unit 54 indicating that the image data is unnecessary determination.
  • the evaluation formula used in the third embodiment is determined based on a previously stored evaluation policy, but may be determined by inputting the evaluation policy or the evaluation formula itself from the display unit 141 described later. Then, the evaluation formula or the evaluation policy may be changed or determined to be a predetermined one depending on the result detected by the connection state determination unit 91 (state detection unit).
  • the feature data is evaluated based on the reference feature data related to the power supply capacity detected by the power supply state detection unit 51.
  • the reference related to the connection state with the network determined by the connection state determination unit 91 is evaluated by the feature data.
  • the feature data may be evaluated by reference feature data in which a plurality of types of reference feature data such as the reference feature data are combined. In this way, by evaluating feature data by combining multiple types of reference feature data, it is possible to appropriately determine more necessary data in accordance with the status of devices and networks used for editing and playback work. it can.
  • FIG. 49 is a diagram showing an image processing apparatus according to another embodiment of the present invention.
  • the same components as those shown in FIG. 46 are denoted by the same reference numerals and description thereof is omitted.
  • the image processing apparatus 120 illustrated in FIG. 49 is intended to improve the efficiency of editing and reproducing work on a plurality of image data, for example.
  • the image processing apparatus 120 further includes an internal server 121 and a distribution switching unit 122.
  • the internal server 121 has the same configuration as the server 56 and functions as a cache for image data acquired from the server 56. For example, the image data transmitted from the server 56 to the receiving unit 55 of the image processing apparatus 120 is stored. The image data in the internal server 121 may be updated when the image data is input, periodically, or when a specific event occurs. Further, when the capacity is smaller than that of the server 56, the internal server 121 determines image data to be saved by preferentially saving image data having a high access frequency or image data having a previous access time close to the current time.
  • the distribution switching unit 122 switches the transmission destination of the image acquisition request to either the transmission unit 54 of the image processing apparatus 120 or the internal server 121 according to the network information output from the connection state determination unit 91. That is, for example, if the image processing apparatus 120 is connected to a network, the distribution switching unit 122 performs an operation of transmitting an image acquisition request to the server 56 via the network and extracting desired image data from a plurality of image data. This is performed outside the image processing apparatus 120. On the other hand, if the image processing apparatus 120 is not connected to the network, the distribution switching unit 122 sends an image acquisition request to the internal server 121 and performs a task of extracting desired image data from a plurality of image data. To do. For example, even if the image processing apparatus 120 is connected to a network, the distribution switching unit 122 may be configured to send an image acquisition request to the internal server 121 when the network occupation ratio is higher than a threshold.
  • FIG. 50 is a flowchart showing an example of the operation of the control processing unit 17 shown in FIG.
  • the control feature unit 17 acquires the feature data.
  • the reference feature data is extracted from the data (S132), and the feature data evaluation unit 16 evaluates the feature data based on the reference feature data (S133).
  • the necessity determination unit 17-1 of the control processing unit 17 performs the necessity determination of image data corresponding to the feature data acquired based on the evaluation result of the feature data evaluation unit 16 (S134).
  • control processing unit 17 causes the feature data acquisition unit 14 to acquire feature data corresponding to the next image data (S135), and the feature data evaluation unit 16 based on the reference feature data.
  • the feature data is evaluated (S133).
  • control processing unit 17 determines whether the determination is necessary (Yes in S134)
  • the control processing unit 17 generates an image acquisition request (S136), and the distribution switching unit 122 uses either the external server 56 or the internal server 121 as the transmission destination of the image acquisition request. One of them is switched (S137).
  • the control processing unit 17 causes the transmission unit 54 to transmit the image acquisition request to the server 56 (S138), and the reception unit 55 causes the image to be transmitted.
  • the image data corresponding to the acquisition request is received (S139). That is, the control processing unit 17 requests the server 56 that is an external device for the image data that has been determined to be necessary.
  • the control processing unit 17 may cause the server 56 to request the image data from other external devices for the image data that has been determined to be necessary.
  • the control processing unit 17 sends the image acquisition request to the internal server 121 (S140), and the image sent from the internal server 121 Image data corresponding to the acquisition request is received by the input unit 11 (S141).
  • the internal server 121 extracts image data corresponding to the identification information indicated in the image acquisition request from a plurality of image data stored in a storage unit (not illustrated), and extracts the image data.
  • the received image data is sent to the input unit 11.
  • control processing unit 17 causes the processing unit 12 to perform various image processing on the image data (S142), and causes the output unit 13 to output the image data after the image processing (S143).
  • control processing unit 17 uses the feature data acquisition unit 14 to The feature data corresponding to the image data is acquired (S135), and the feature data evaluation unit 16 evaluates the feature data based on the reference feature data (S133).
  • control processing unit 17 performs image processing on the plurality of image data. Exit.
  • control processing unit 17 may be configured to send the received image data to the processing unit 12 and cache it in the internal server 121.
  • the control processing unit 17 may send image data sent from the internal server 121 to the input unit 11 to the processing unit 12.
  • FIG. 51 is a diagram showing an image processing apparatus according to another embodiment of the present invention.
  • the same components as those illustrated in FIG. 42 are denoted by the same reference numerals and description thereof is omitted.
  • the image processing apparatus 140 illustrated in FIG. 51 is intended to improve the efficiency of editing and reproducing work for a plurality of image data, for example.
  • the image processing apparatus 140 shown in FIG. 51 differs from the image processing apparatus 50 shown in FIG. 42 in that a display unit 141 is provided instead of the power supply state detection unit 51.
  • the display unit 141 is a user interface such as a touch panel display, for example, and a user intention regarding the evaluation policy is input by a user operation.
  • the input user intention is sent to the reference feature data generation unit 53.
  • the evaluation policy generation unit 52 shown in FIG. 51 is configured to prioritize a plurality of evaluation policies based on the input user intention, and then to send the evaluation policies to the reference feature data generation unit 53. May be.
  • the reference feature data generation unit 53 uses the evaluation policy according to the priority order.
  • the user intention at this time indicates, for example, a policy of preferentially evaluating at least one of display speed, resolution, and data amount of image data.
  • FIG. 52 is a flowchart showing an example of the operation of the reference feature data generation unit 53 shown in FIG.
  • the reference feature data generation unit 53 generates reference feature data based on the evaluation policy generated by the evaluation policy generation unit 52 and the user intention input by the display unit 141 (S151), and then the generated reference feature data Is stored in the reference feature data acquisition unit 15 (S152).
  • the display unit 141 includes a background priority mode button and a subject priority mode button, and when one of the buttons is pressed by the user, the mode corresponding to the pressed button is set as the user's intention to the reference feature data generation unit 53. Send to.
  • the background priority mode button is pressed, the reference feature data generation unit 53 sets lower upper limits of acceleration and speed of a camera (not shown) so that the background can be enjoyed.
  • the reference feature data generation unit 53 sets the upper limit value of the camera acceleration as the reference feature data to “1G or less” corresponding to the “background priority mode”, and the reference feature data as the reference feature data.
  • the upper limit value of the camera speed is set to “1 cm / s or less” corresponding to the “background priority mode”.
  • the reference feature data generation unit 53 sets the upper limit values of the acceleration and speed of a camera (not shown) to be high so that the movement of the subject can be enjoyed. For example, as shown in FIG. 53A, the reference feature data generation unit 53 sets the upper limit value of the camera acceleration as the reference feature data to “5G or less” corresponding to the “subject priority mode” and the camera as the reference feature data.
  • the upper limit value of the speed is set to “5 cm / s or less” corresponding to the “subject priority mode”.
  • These combinations may be stored in the evaluation policy generation unit 52 in advance, or may be provided with a user interface that can be edited by the user.
  • the type of parameter to be set is not limited. Further, the mode selection may be an analog setting using a slide bar instead of the two options using the buttons as described above.
  • the display unit 141 includes a professional mode button and an amateur mode button, and when one of the buttons is pressed by the user, the mode corresponding to the pressed button is set as a user intent to the reference feature data generation unit 53.
  • the professional mode button is pressed, the reference feature data generation unit 53 uses five image data before and after the image data from which the subject is detected as an extraction reference so that the variation of editing is rich, or not shown. Set the upper limit of the acceleration / speed of the camera to higher. For example, as shown in FIG. 53B, the reference feature data generation unit 53 sets the image extraction reference as the reference feature data to “5 frames before and after the subject detection frame” corresponding to the “professional mode” and the camera as the reference feature data.
  • the upper limit value of acceleration is set to “5 G or less” corresponding to “Pro mode”, and the upper limit value of the camera speed as reference feature data is set to “5 cm / s or less” corresponding to “Pro mode”.
  • the reference feature data generation unit 53 uses only the image data in which the subject is detected as an extraction reference or the acceleration of a camera (not shown) in order to realize editing without trouble. ⁇ Set a lower upper speed limit. For example, as shown in FIG. 53B, the reference feature data generation unit 53 sets the image extraction reference as the reference feature data to “only subject detection frame” corresponding to “amateur mode”, and sets the upper limit of the camera acceleration as the reference feature data.
  • the value is set to “1 G or less” corresponding to “Amateur mode”, and the upper limit value of the camera speed as reference feature data is set to “1 cm / s or less” corresponding to “Amateur mode”.
  • These combinations may be stored in the evaluation policy generation unit 52 in advance, or may be provided with a user interface that can be edited by the user.
  • the type of parameter to be set is not limited. Further, the mode selection may be an analog setting using a slide bar instead of the two options using the buttons as described above.
  • the mode switching timing may be set before shooting according to the purpose of the day, or may be set before previewing image data every time.
  • the display unit 141 includes a priority recognition unit, and a sign (such as a choke formed by a user's hand or a thumb of a gripped hand standing in an upward direction) reflected in a captured image of a camera (not shown). ), The user may intentionally increase the priority for each scene based on the rating information that is shaken by a camera (not shown) or previously provided by the user at the time of shooting.
  • the reference feature data is obtained from the data acquired by the reference feature data acquisition unit 15.
  • the heel feature data evaluating unit 16 evaluates the feature data based on the reference feature data.
  • the necessity determination unit 17-1 of the control processing unit 17 performs necessity determination of image data corresponding to the feature data based on the evaluation result of the feature data evaluation unit 16.
  • control processing unit 17 causes the feature data acquisition unit 14 to acquire feature data corresponding to the next image data, and causes the feature data evaluation unit 16 to evaluate the feature data based on the reference feature data. .
  • control processing unit 17 causes the transmission unit 54 to transmit an image acquisition request to the server 56 and causes the reception unit 55 to receive image data corresponding to the image acquisition request.
  • Various image processing is performed on the image data, and the output unit 13 outputs the image data after the image processing.
  • control processing unit 17 causes the feature data acquisition unit 14 to execute the next image data.
  • the feature data corresponding to the data is acquired, and the feature data evaluation unit 16 evaluates the feature data based on the reference feature data.
  • control processing unit 17 performs image processing on the plurality of image data. finish.
  • the control processing unit 17 uses “five frames before and after the subject detection frame” as the image extraction reference from the data acquired by the reference feature data acquisition unit 15, the camera “5 G or less” is extracted as the upper limit value of acceleration, and “5 cm / s or less” is extracted as the upper limit value of the camera speed.
  • the feature data evaluation unit 16 evaluates that the image data corresponding to the feature data is within “5 frames before and after the subject detection frame”, and the camera acceleration at the time of shooting the image data corresponding to the feature data is “5G”.
  • the necessity determination unit 17-1 determines that the image is not necessary. Data is judged necessary.
  • the image data corresponding to the feature data is not within “5 frames before and after the subject detection frame”, the camera acceleration of the image data corresponding to the feature data is not “5G” or less, and the feature data is supported.
  • the necessity determination unit 17-1 determines that the image data is unnecessary. .
  • FIG. 54 is a diagram showing an image processing apparatus according to another embodiment of the present invention. Note that the same components as those shown in FIG. Also, the image processing apparatus 170 shown in FIG. 54 aims to improve the efficiency of editing and reproducing work for a plurality of image data.
  • a feature data extraction unit 171 is further provided.
  • the feature data extraction unit 171 extracts feature data from the image data acquired by the input unit 11.
  • the feature data extracted at this time is, for example, an object such as a human face or body, a car, a flower, an animal, the sky, a mountain, the sea, a road, or a building, a marker, or a color or luminance as a specific subject.
  • the feature data extraction unit 171 includes a subject detection unit, and the subject detection unit extracts “subject position” and “subject size” from the image data.
  • the feature data evaluation unit 16 of the sixth embodiment acquires “the width in the X direction and the Y direction of the image data” and “predetermined size” as the reference feature data by the reference feature data acquisition unit 15.
  • the determination result is sent to the necessity determination unit 17-1.
  • the necessity determination unit 17-1 determines whether the image data acquired by the input unit 11 is necessary based on the determination result sent from the feature data evaluation unit 16. For example, as shown in FIG.
  • the necessity determination unit 17-1 determines that “the subject size is smaller than a predetermined size” of the image data P1 among the moving images composed of the plurality of image data P1 to P6. Then, it is determined that the image data P1 is unnecessary. If the necessity determination unit 17-1 determines that the subject position is outside the left end of the image data in the image data P6, the image data P6 is determined as unnecessary image data. Then, the necessity determination unit 17-1 controls the operation of the input unit 11 so that the image data P6 is not output from the input unit 11 to the processing unit 12. Thereby, the load of the processing unit 12 can be reduced.
  • the feature data extraction unit 171 extracts the composition of the image data.
  • the feature data evaluation unit 16 of the sixth embodiment extracts “predetermined value” and “predetermined number” as reference feature data from the data acquired by the reference feature data acquisition unit 15, If it is determined that “a predetermined number or more of image data in which the compositional difference of the image data is equal to or less than a predetermined value is continued”, the determination result is sent to the necessity determination unit 17-1.
  • the necessity determination unit 17-1 determines whether the image data acquired by the input unit 11 is necessary based on the determination result sent from the feature data evaluation unit 16. For example, as shown in FIG. 56, the necessity determination unit 17-1 determines that “the image data whose composition difference between the image data P7 and P8 is equal to or less than a predetermined value among the moving images including the plurality of image data P7 to P11”. If it is determined that “two or more continuous”, the image data P9 to P11 after the image data P7 and P8 are determined as unnecessary image data. Then, the necessity determination unit 17-1 controls the operation of the input unit 11 so that the image data P9 to P11 are not output from the input unit 11 to the processing unit 12. Thereby, the load of the processing unit 12 can be reduced.
  • the feature data extraction unit 171 acquires a thumbnail image (a reduced image of the image data), a reduced resolution (an image having a lower resolution than the image data), and partial imaged image data (image data) acquired by the input unit 11.
  • the feature data may be extracted from (a part of).
  • FIG. 57 is a diagram showing an image processing apparatus according to another embodiment of the present invention. Note that the same components as those shown in FIG. Note that the image processing apparatus 200 shown in FIG. 57 aims to improve the efficiency of editing and reproducing operations for a plurality of image data.
  • the image processing apparatus 200 shown in FIG. 57 is different from the image processing apparatus 10 of the first embodiment shown in FIG. 38 in that a feature data storage unit 201 is further provided.
  • the feature data acquisition unit 14 shown in FIG. 57 periodically acquires feature data from the outside and stores it in the feature data storage unit 201.
  • the feature data cannot be periodically acquired from the outside because the imaging apparatus is removed from the image processing apparatus 200, the network is disconnected, or the network occupation ratio is high.
  • the necessity determination of the image data can be continuously performed using the feature data stored in the feature data storage unit 201.
  • the image data for which the necessity determination is performed at that time can be acquired when an imaging apparatus is attached to the image processing apparatus 200 or when the network connection is restored. In this way, it is possible to realize offline necessity determination.
  • the feature data storage unit 201 may be provided outside the image processing apparatus 200 (for example, on a network or a removable memory).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

 要不要判定データを生成する要不要判定データ生成部103と、符号化後の動画像の各動画像フレームの分割後の各データにそれぞれ識別情報を付して記録部106に記録する画像符号化部104と、要不要判定データに基づいて、不要な動画像フレームを判定する要不要判定部107と、要不要判定部107により不要な動画像フレームと判定された動画像フレームに対応する記録部106内の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換える動画像ファイル管理部108とを備えて画像処理装置100を構成する。

Description

画像処理装置、画像処理システム、及び画像読出し装置
 本発明は、動画像の各動画像フレームの要不要を自動的に判定する技術に関する。
 近年、撮像装置の高解像度化や高速化、フラッシュメモリの大容量化、及び撮像装置内の画像処理回路の高速化や低電力化が進み、高解像度による長時間動画撮影や長時間動画再生が可能になってきている。
 しかしながら、動画撮影時にユーザが意図をもって撮影していない場合や、とりあえず撮り逃しの無いように長時間、動画の撮影を行っている場合などでは、撮影後の動画像に不要な動画像フレームが多く含まれてしまう。すると、後工程としての動画の編集作業や再生作業に大きな負荷がかかり、動画の編集作業や再生作業の効率を下げてしまうおそれがある。例えば、動画像ファイルに不要な動画像フレームが多く含まれていると、目的の動画像フレームを探すために多くの手間や時間がかかったり、動画像ファイルを編集用プログラムや再生用プログラムにロードする際に多くの時間がかかったりしてしまう。
 例えば、動画の編集時や再生時において、動画像ファイルの各動画像フレームのうち、階調変化が少ない動画像フレームを不要な動画像フレームであると判定して、その動画像フレームを自動的に削除する技術がある(例えば、特許文献1~3参照)。
特開2008-182544号公報 特開2005-295285号公報 特開2000-209483号公報
 上述のように、動画の編集時や再生時において、動画像ファイルの各動画像フレームのうち、階調変化が少ない動画像フレームを不要な動画像フレームであると判定して、その動画像フレームを自動的に削除する技術は、動画像フレームの要不要を判定する際にユーザにかかる負荷を軽減することができるが、その動画像フレーム自動削除機能を含む編集用プログラムや再生用プログラムに動画像ファイルをロードする必要がやはりあるため、動画像ファイル内に不要な動画像フレームが多いと、編集作業や再生作業の効率を低下させてしまう。
 本発明は、動画の編集作業や再生作業の効率を向上させることを目的とする。
 本発明の画像処理装置は、入力される動画像の各動画像フレームにそれぞれ対応する、不要な動画像フレームであるか否かを判定するために用いられる要不要判定データを生成する要不要判定データ生成手段と、前記入力される動画像を符号化するとともに、符号化後の動画像の各動画像フレームをそれぞれ複数のデータに分割しつつ、それらデータにそれぞれ識別情報を付与して記録手段に記録する画像符号化手段と、前記要不要判定データに基づいて、前記要不要判定データに対応する動画像フレームが不要な動画像フレームであるか否かを判定する要不要判定手段と、前記記録手段に記録される識別情報と、その識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報とが対応付けられた前記記録手段内のテーブルにおいて、前記要不要判定手段により不要な動画像フレームと判定された動画像フレームの識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換える動画像ファイル管理手段とを備える。
 また、本発明の画像処理装置において、前記記録手段は、前記記録手段内の前記テーブルと同じ内容の復帰用テーブルを備え、前記動画像ファイル管理手段は、前記復帰用テーブルを用いて、復帰対象のデータの識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報を、元の情報に戻すように構成してもよい。
 また、本発明の画像処理装置において、前記画像符号化手段は、前記入力される動画像をMPEG2形式で符号化するとともに、符号化後の動画像の各動画像フレームをそれぞれ複数のTSパケットに分割しつつ、それらTSパケットにそれぞれ識別情報としてのPIDを付与して前記記録手段に記録するように構成してもよい。
 また、本発明の画像処理装置において、前記要不要判定手段データは、前記Mpeg2形式の符号化の単位GOPで付与されてもよい。
 また、本発明の画像処理装置において、前記符号化後の動画像フレームの分割後の各データにそれぞれ付与された識別情報のうちの1つの識別情報と、その符号化後の動画像フレームに対応する要不要判定データとを統合してメタデータを生成するメタデータ生成手段を更に有し、前記要不要判定手段は、前記メタデータにおける要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定するように構成してもよい。
 また、本発明の画像処理装置において、前記要不要判定データ生成手段は、前記動画像フレーム中の被写体の位置及びサイズを前記要不要判定データとして生成し、前記要不要判定手段は、前記記録手段から読み出した前記メタデータにおける要不要判定データが示す被写体のサイズが所定のサイズよりも小さい場合であって、前記記録手段から読み出した前記メタデータにおける要不要判定データが示す被写体の位置が所定の範囲外に位置する場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定するように構成してもよい。
 また、本発明の画像処理装置において、前記要不要判定データ生成手段は、前記動画像フレーム中の画像特徴量に基づいて、前記要不要判定データを生成し、前記要不要判定手段は、前記記録手段から読み出した前記メタデータにおける要不要判定データが示す画像特徴量と、そのメタデータに対応する動画像フレームに近接する動画像フレームのメタデータにおける要不要判定データが示す画像特徴量と、の差異が所定値以下の場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定するように構成してもよい。
 また、本発明の画像処理装置において、前記画像特徴量が、被写体の構図を示す構図指標であってもよい。
 また、本発明の画像処理装置において、前記画像特徴量が、画像の輝度値の統計量であってもよい。
 また、本発明の画像処理装置において、前記要不要判定データ生成手段は、前記動画像フレームの撮影時のフォーカス情報を前記要不要判定データとして生成し、前記要不要判定手段は、前記記録手段から読み出した前記メタデータにおける要不要判定データが示すフォーカス情報から、そのメタデータに対応する動画像フレームのフォーカスが合っていない、又は、フォーカスが安定していない、と判断した場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定するように構成してもよい。
 また、本発明の画像処理装置において、前記要不要判定データ生成手段は、前記動画像フレームの撮影時のズーム情報を前記要不要判定データとして生成し、前記要不要判定手段は、前記記録手段から読み出した前記メタデータにおける要不要判定データが示すズーム情報と、そのメタデータに対応する動画像フレームの一つ前の動画像フレームのメタデータにおける要不要判定データが示すズーム情報と、から、ズームレンズのレンズ位置が安定していないと判断した場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定するように構成してもよい。
 また、本発明の画像処理装置において、被写体側からの信号を受信する無線アンテナを備え、前記要不要判定データ生成手段は、前記無線アンテナにより受信される信号の受信信号強度を前記要不要判定データとして生成し、前記要不要判定手段は、前記記録手段から読み出した前記メタデータにおける要不要判定データが示す受信信号強度が、所定の値より低い場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定するように構成してもよい。
 また、本発明の画像処理装置において、前記要不要判定手段は、前記不要な動画像フレームの先頭、あるいは末尾で有ることを示すフラグを前記識別情報に記述するように構成してもよい。
 また、本発明の画像処理装置において、前記動画像ファイル管理手段は、前記不要な動画像フレームの先頭であることを示すフラグおよび前記不要な動画像フレームの末尾で有ることを示すフラグの双方が揃ったときに、前記不要な動画像フレームの先頭と前記不要な動画像フレームの末尾との間にある前記動画像フレームの識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報をデータがない旨の情報に書き換えるように構成してもよい。
 また、本発明の画像処理装置において、入力される各動画像フレームそれぞれの縮小画像を生成する縮小画像生成手段と、前記符号化後の動画像フレームの分割後の各データにそれぞれ付与された識別情報のうちの1つの識別情報と、その符号化後の動画像フレームの縮小画像とを統合してメタデータを生成するメタデータ生成手段とを更に有し、前記要不要判定データ生成手段は、前記メタデータにおける縮小画像に基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定するために用いられる要不要判定データを生成するように構成してもよい。
 また、本発明の画像処理装置において、前記記録手段は、前記記録手段内の前記テーブルと同じ内容の復帰用テーブルを備え、前記動画像ファイル管理手段は、前記復帰用テーブルを用いて、復帰対象のデータの識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報を、元の情報に戻すように構成してもよい。
 また、本発明の画像処理装置において、前記画像符号化手段は、前記入力される動画像をMPEG2形式で符号化するとともに、符号化後の動画像の各動画像フレームをそれぞれ複数のTSパケットに分割しつつ、それらTSパケットにそれぞれ識別情報としてのPIDを付与して前記記録手段に記録するように構成してもよい。
 また、本発明の画像処理システムは、画像処理装置とサーバとがネットワークを介してデータの送受信を行う画像処理システムであって、前記画像処理装置は、前記入力される動画像を符号化するとともに、符号化後の動画像の各動画像フレームをそれぞれ複数のデータに分割しつつ、それらデータにそれぞれ識別情報を付与して記録手段に記録する画像符号化手段と、前記サーバから送信される判定結果及び識別情報を受信する第1の受信手段と、前記記録手段に記録される識別情報と、その識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報とが対応付けられた前記記録手段内のテーブルにおいて、不要な動画像フレームであるとの前記判定結果とともに受信した識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換える動画像ファイル管理手段とを備え、前記サーバは、前記要不要判定データに基づいて、前記要不要判定データに対応する動画像フレームが不要な動画像フレームであるか否かを判定する要不要判定手段と、前記要不要判定手段の判定結果を、その判定結果に対応する識別情報とともに前記画像処理装置へ送信する第2の送信手段とを備え、前記画像処理装置と前記サーバとのうち、いずれか一方は、入力される動画像の各動画像フレームにそれぞれ対応する、不要な動画像フレームであるか否かを判定するために用いられる要不要判定データを生成する要不要判定データ生成手段を備える。
 また、本発明の画像処理システムにおいて、前記要不要判定データ生成手段は、前記画像処理装置にあり、前記画像処理装置は、前記符号化後の動画像フレームの分割後の各データにそれぞれ付与された識別情報のうちの1つの識別情報と、その符号化後の動画像フレームに対応する要不要判定データとを統合してメタデータを生成するメタデータ生成手段と、前記メタデータを前記サーバへ送信する第1の送信手段とを更に有し、前記サーバは、前記画像処理装置から送信されるメタデータを受信する第2の受信手段を更に有し、前記要不要判定手段は、前記受信したメタデータにおける前記要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定するように構成してもよい。
 また、前記画像処理システムにおいて、前記サーバが有する前記要不要判定手段を、第2の要不要判定手段と定義するとき、前記画像処理装置は、前記生成されたメタデータにおける要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定する第1の要不要判定手段と、前記画像処理装置に負荷をかけて良い状態であるか否かを判断するための情報を検出する検出手段と、前記検出手段により検出された情報から、前記画像処理装置に負荷をかけて良い状態であると判断される場合、前記メタデータ生成手段により生成されるメタデータの送り先を、前記第1の要不要判定手段に切り替え、前記検出手段により検出された情報から、前記画像処理装置に負荷をかけて良い状態でないと判断される場合、前記メタデータ生成手段により生成されるメタデータの送り先を、前記第1の送信手段に切り替える切替手段とを更に備え、前記第2の送信手段は、前記第2の要不要判定手段の判定結果を、その判定結果に対応する識別情報とともに前記画像処理装置へ送信し、前記動画像ファイル管理手段は、前記記録手段に記録される識別情報と、その識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報とが対応付けられた前記記録手段内のテーブルにおいて、不要な動画像フレームであるとの前記判定結果とともに受信した識別情報、又は、前記第1の要不要判定手段により不要な動画像フレームと判定された動画像フレームの識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換えるように構成してもよい。
 また、本発明の画像処理システムにおいて、前記検出手段は、前記画像処理装置のリソースにかかっている負荷を測定する負荷状態測定手段であり、前記切替手段は、前記負荷状態測定手段の測定結果から、所定の負荷の量よりも高い負荷の量が前記画像処理装置にかかっていないと判断される場合、前記メタデータ生成手段により生成されるメタデータの送り先を、前記第1の要不要判定手段に切り替え、前記負荷状態測定手段の測定結果から、前記所定の負荷の量よりも高い負荷の量が前記画像処理装置にかかっていると判断される場合、前記メタデータ生成手段により生成されるメタデータの送り先を、前記第1の送信手段に切り替えるように構成してもよい。
 また、本発明の画像処理システムにおいて、前記検出手段は、前記画像処理装置の電源モードが節電に係るモードであるか否かを検知する電源モード検知手段であり、前記切替手段は、前記電源モード検知手段により、節電に係るモードでないと検知された場合、前記メタデータ生成手段により生成されるメタデータの送り先を、前記第1の要不要判定手段に切り替え、前記電源モード検知手段により、節電に係るモードであると検知された場合、前記メタデータ生成手段により生成されるメタデータの送り先を、前記第1の送信手段に切り替えるように構成してもよい。
 また、本発明の画像処理システムにおいて、前記要不要判定データ生成手段は、前記サーバにあり、前記画像処理装置は、入力される動画像の各動画像フレームそれぞれの縮小画像を生成する縮小画像生成手段と、前記符号化後の動画像フレームの分割後の各データにそれぞれ付与された識別情報のうちの1つの識別情報と、その符号化後の動画像フレームの縮小画像とを統合してメタデータを生成するメタデータ生成手段と、前記メタデータを前記サーバへ送信する第1の送信手段とを更に有し、前記サーバは、前記画像処理装置から送信されるメタデータを受信する第2の受信手段を更に有し、前記要不要判定データ生成手段は、前記受信したメタデータにおける縮小画像に基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定するために用いられる要不要判定データを生成し、前記要不要判定手段は、前記生成した要不要判定データに基づいて、その要不要判定データに対応する識別情報の動画像フレームが不要な動画像フレームであるか否かを判定するように構成してもよい。
 また、本発明の画像読出し装置は、動画像の各動画像フレームにそれぞれ対応する、必要な動画像フレームであるか否かを判定するために用いられる要不要判定データと、それぞれに識別情報が付与された、符号化後の前記動画像の各動画像フレームと、前記動画像フレームに付与された識別情報と、その動画像フレームに対応する要不要判定データとが統合されたメタデータとが記録された記録手段から前記メタデータを読み出し、そのメタデータにおける要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームであるか否かを判定する要不要判定手段と、前記記録手段に記録される識別情報と、その識別情報に対応する前記記録手段の記録位置を示す情報とが対応付けられたテーブルを用いて、前記要不要判定手段により必要な動画像フレームと判定された動画像フレームの識別情報に対応する前記記録手段の記録位置に記録される動画像フレームのみを前記記録手段から読み出す読出し制御手段とを備える。
 また、本発明の画像読出し装置において、前記記録手段には、MPEG2形式で符号化された前記動画像を記録されているとともに、符号化後の動画像の各動画像フレームは、それぞれ複数のTSパケットに分割され、それらTSパケットにそれぞれ識別情報としてのPIDが付与されて記録されており、前記読出し制御手段は、前記要不要判定手段により必要な動画像フレームと判定された動画像フレームのPIDに対応する前記記録手段の記録位置に記録されるデータのみを前記記録手段から読み出す読出すように構成してもよい。
 また、本発明の画像読出し装置において、入力される動画像の各動画像フレームにそれぞれ対応する、前記要不要判定データを生成する要不要判定データ生成手段と、前記入力される動画像を符号化するとともに、その符号化後の動画像の各動画像フレームにそれぞれ識別情報を付与して前記記録手段に記録する画像符号化手段と、前記動画像フレームに付与された識別情報と、その動画像フレームに対応する要不要判定データとを統合してメタデータを生成して前記記録手段に記録するメタデータ生成手段とを更に備えるように構成してもよい。
 また、本発明の画像処理システムは、動画像を記録手段に記録する画像処理装置と、前記記録手段から動画像を読み出す画像読出し装置とを備える画像処理システムであって、前記画像処理装置は、入力される動画像の各動画像フレームにそれぞれ対応する、必要な動画像フレームであるか否かを判定するために用いられる要不要判定データを生成する要不要判定データ生成手段と、前記入力される動画像を符号化するとともに、その符号化後の動画像の各動画像フレームにそれぞれ識別情報を付与して前記記録手段に記録する画像符号化手段と、前記動画像フレームに付与された識別情報と、その動画像フレームに対応する要不要判定データとを統合してメタデータを生成して前記記録手段に記録するメタデータ生成手段とを備え、前記画像読出し装置は、前記記録手段からメタデータを読み出し、そのメタデータにおける要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームであるか否かを判定する要不要判定手段と、前記記録手段に記録される識別情報と、その識別情報に対応する前記記録手段の記録位置を示す情報とが対応付けられたテーブルを用いて、前記要不要判定手段により必要な動画像フレームと判定された動画像フレームの識別情報に対応する前記記録手段の記録位置に記録される動画像フレームのみを前記記録手段から読み出す読出し制御手段とを備える。
 また、本発明の画像処理システムにおいて、前記画像符号化手段は、前記入力される動画像をMPEG2形式で符号化するとともに、符号化後の動画像の各動画像フレームをそれぞれ複数のTSパケットに分割しつつ、それらTSパケットにそれぞれ識別情報としてのPIDを付与して前記記録手段に記録するように構成してもよい。
 また、本発明の画像処理システムにおいて、前記要不要判定データ生成手段は、前記動画像フレーム中の被写体の位置及びサイズを前記要不要判定データとして生成し、前記要不要判定手段は、前記記録手段から読み出したメタデータにおける要不要判定データが示す被写体のサイズが所定のサイズよりも小さい場合であって、前記記録手段から読み出したメタデータにおける要不要判定データが示す被写体の位置が所定の範囲外に位置する場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定するように構成してもよい。
 また、本発明の画像処理システムにおいて、前記要不要判定データ生成手段は、前記動画像フレーム中の画像特徴量に基づいて、前記要不要判定データを生成し、前記要不要判定手段は、前記記録手段から読み出したメタデータにおける要不要判定データが示す画像特徴量と、そのメタデータに対応する動画像フレームに近接する動画像フレームのメタデータにおける要不要判定データが示す画像特徴量と、の差異が所定値以下の場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定するように構成してもよい。
 また、本発明の画像処理システムにおいて、前記画像特徴量が、被写体の構図を示す構図指標であってもよい。
 また、本発明の画像処理システムにおいて、前記画像特徴量が、画像の輝度値の統計量であってもよい。
 また、本発明の画像処理システムにおいて、前記要不要判定データ生成手段は、前記動画像フレームの撮影時のフォーカス情報を前記要不要判定データとして生成し、前記要不要判定手段は、前記記録手段から読み出したメタデータにおける要不要判定データが示すフォーカス情報から、そのメタデータに対応する動画像フレームのフォーカスが合っていない、又は、フォーカスが安定していない、と判断した場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定するように構成してもよい。
 また、本発明の画像処理システムにおいて、前記要不要判定データ生成手段は、前記動画像フレームの撮影時のズーム情報を前記要不要判定データとして生成し、前記要不要判定手段は、前記記録手段から読み出したメタデータにおける要不要判定データが示すズーム情報と、そのメタデータに対応する動画像フレームの一つ前の動画像フレームのメタデータにおける要不要判定データが示すズーム情報と、から、ズームレンズのレンズ位置が安定していないと判断した場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定するように構成してもよい。
 また、本発明の画像処理システムにおいて、被写体側からの信号を受信する無線アンテナを備え、前記要不要判定データ生成手段は、前記無線アンテナにより受信される信号の受信信号強度を前記要不要判定データとして生成し、前記要不要判定手段は、前記記録手段から読み出したメタデータにおける要不要判定データが示す受信信号強度が、所定の値より低い場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定するように構成してもよい。
 また、本発明の画像処理装置は、画像データに対応した特徴データを取得する特徴データ取得部と、基準特徴データを取得する基準特徴データ取得部と、前記基準特徴データに基づいて前記特徴データの評価を行う特徴データ評価部と、前記特徴データ評価部によって行われた前記評価に基づいて前記特徴データに対応した画像データの要不要の判定を行なう要不要判定部と、前記要不要の判定に基づいて制御を行なう制御処理部とを備える。
 また、本発明の画像処理装置において、評価方針を生成する評価方針生成部と、前記評価方針に基づいて前記基準特徴データを生成する基準特徴データ生成部とをさらに備えるように構成してもよい。
 また、本発明の画像処理装置において、状態検知部を更に備え、前記基準特徴データ生成部は、前記評価方針及び前記状態検知部の検知結果に基づいて前記基準特徴データを生成するように構成してもよい。
 また、本発明の画像処理装置において、状態検知部を更に備え、評価方針生成部は、前記状態検知部の検知結果に基づいて評価方針を生成するように構成してもよい。
 また、本発明の画像処理装置において、前記状態検知部は、当該画像処理装置の電源種別及び電源状態の少なくとも1つを検知する電源状態検知部であってもよい。
 また、本発明の画像処理装置において、前記電源状態検知部の検知結果が、使用可能な電源容量が規定値以下である低エネルギー状態であるとき、前記基準特徴データ生成部は、前記検知結果と前記評価方針から、非低エネルギー状態と比較して、取得する画像のデータ量が少なくなるように、前記基準特徴データを生成するように構成してもよい。
 また、本発明の画像処理装置において、前記状態検知部は、ネットワークとの接続状態を判定する接続状態判定部であってもよい。
 また、本発明の画像処理装置において、前記特徴データ評価部は、複数種類の前記基準特徴データを組み合わせて評価するように構成してもよい。
 また、本発明の画像処理装置において、前記接続状態判定部の判定結果が、使用可能なネットワークの単位時間あたりのデータ転送量が規定値以下である低速状態であるとき、前記基準特徴データ生成部は、前記検知結果と前記評価方針から、非低速状態と比較して、取得する画像の総データ量が少なくなるように、前記基準特徴データを生成するように構成してもよい。
 また、本発明の画像処理装置において、前記画像データの表示速度、解像度、及びデータ量の少なくとも何れかを優先して評価する方針を示す評価方針を入力する表示部をさらに備え、前記基準特徴データ生成部は、前記表示部に入力された前記評価方針に基づいて前記基準特徴データを生成するように構成してもよい。
 また、本発明の画像処理装置において、前記画像データから前記特徴データを抽出する特徴データ抽出部をさらに備えるように構成してもよい。
 また、本発明の画像処理装置において、前記特徴データ抽出部は、前記特徴データとして前記画像データ内の被写体の位置及びサイズの少なくとも一方を抽出し、前記要不要判定部は、前記特徴データ抽出部により抽出された前記画像データ内の被写体の位置及びサイズの少なくとも一方が前記基準特徴データとしての閾値以下であるか否かを判断し、該判断結果に基づいて前記画像データの要不要を判定するように構成してもよい。
 また、本発明の画像処理装置において、前記要不要判定部は、前記特徴データ抽出手段により抽出された前記画像データ内の被写体の位置及びサイズの少なくとも一方が前記閾値以下であると、前記画像データに対して不要の判定を行うように構成してもよい。
 また、本発明の画像処理装置において、前記特徴データ抽出部は、前記特徴データとして連続する複数の前記画像データの構図を抽出し、前記要不要判定部は、前記特徴データ抽出部により抽出された複数の画像データの構図の変化量が前記基準特徴データとしての閾値以下であるか否かを判断し、該判断結果に基づいて前記画像データの要不要を判定するように構成してもよい。
 また、本発明の画像処理装置において、前記要不要判定部は、前記複数の画像データの構図の変化量が前記閾値以下であると、前記複数の画像データに対して不要の判定を行うように構成してもよい。
 また、本発明の画像処理装置において、前記要不要判定部は、多段階に分類して、又は、数値化して前記特徴データの評価を行うように構成してもよい。
 また、本発明の画像処理装置において、前記要不要判定部は、前記特徴データに対応する画像データのボケ具合、ブレ具合、明暗、色合い、鮮明度、画角ずれ、非対称、被写体のかぶりのうちの少なくとも1つについて評価を行うように構成してもよい。
 また、本発明の画像処理装置において、前記特徴データ抽出手段は、前記画像データの縮小画像、前記画像データよりも解像度が低い画像、又は前記画像データの一部である前記特徴データから特徴データを抽出するように構成してもよい。
 また、本発明の画像処理装置において、前記特徴データを保存する特徴データ保存部をさらに備え、前記要不要判定部は、前記基準特徴データに基づいて前記特徴データ保存部により保存される特徴データの評価を行うように構成してもよい。
 また、本発明の画像処理装置において、外部装置と前記特徴データまたは前記画像データの通信を行う通信部をさらに備え、前記要不要判定部は、要判定となった画像データを前記外部装置に要求するまたは他の外部装置から前記外部装置に前記画像データを要求させるように構成してもよい。
 また、本発明の画像処理装置において、撮像部と、前記要不要判定部により要判定された画像データを前記撮像部から取得する入力部とを備えるように構成してもよい。
 また、本発明の画像処理装置において、画像データを処理する処理部をさらに備え、前記処理部は、前記要不要判定部により要判定された画像データに対して処理を行なうように構成してもよい。
 また、本発明のプラグラムは、コンピュータを、画像データに対応した特徴データを取得する特徴データ取得部、基準特徴データ取得部により取得される基準特徴データに基づいて前記特徴データの評価を行う特徴データ評価部、前記特徴データ評価部によって行われた前記評価に基づいて前記特徴データに対応した画像データの要不要の判定を行なう要不要判定部、前記要不要の判定に基づいて制御を行なう制御処理部として機能させる。
 また、本発明の画像処理方法は、特徴データ取得部により、画像データに対応した特徴データを取得し、特徴データ評価部により、基準特徴データ取得部により取得される基準特徴データに基づいて前記特徴データの評価を行ない、要不要判定部により、該評価に基づいて前記特徴データに対応した画像データの要不要の判定を行ない、制御処理部により、前記要不要の判定に基づいて制御を行なう。
 本発明によれば、動画の編集作業や再生作業の効率を向上させることができる。
本発明の実施形態の画像処理装置を示す図である。 メタデータ、動画像フレーム、記録部内のセクタ、及び記録部内のクラスタの一例を示す図である。 ディレクトリの一例を示す図である。 FATの一例を示す図である。 データの状態を示す情報を書き換えた後のFATの一例を示す図である。 MPEG形式の符号化時における動画像フレーム、圧縮単位、及び記録部内のクラスタの一例を示す図である。 実施例1の撮像装置を示す図である。 実施例1の撮像装置の変形例(その1)を示す図である。 実施例1の撮像装置の変形例(その2)を示す図である。 実施例1の要不要判定部の動作を示すフローチャートである。 実施例1における要判定の動画像フレームと不要判定の動画像フレームの一例を示す図である。 実施例1における要判定の動画像フレームと不要判定の動画像フレームの他の例を示す図である。 実施例2の撮像装置を示す図である。 実施例2の要不要判定部の動作を示すフローチャートである。 実施例3の撮像装置を示す図である。 実施例3の要不要判定部の動作を示すフローチャートである。 実施例4の撮像装置を示す図である。 実施例4の要不要判定部の動作を示すフローチャートである。 実施例4における要判定の動画像フレームと不要判定の動画像フレームの一例を示す図である。 実施例5の撮像装置を示す図である。 本発明の実施形態の画像処理システムを示す図である。 本発明の他の実施形態の画像処理システムを示す図である。 本発明の他の実施形態の画像処理システムを示す図である。 本発明の他の実施形態の画像処理システムを示す図である。 本発明の他の実施形態の画像処理システムを示す図である。 メタデータ、動画像フレーム、記録部内のセクタ、及び記録部内のクラスタの一例を示す図である。 ディレクトリの一例を示す図である。 FATの一例を示す図である。 画像読出し装置の動作の一例を示すフローチャートである。 MPEG形式の符号化時における動画像フレーム、圧縮単位、及び記録部内のクラスタの一例を示す図である。 図21に示す画像処理装置の実施例1としての撮像装置を備える画像処理システムを示す図である。 図21に示す画像処理装置の実施例1としての撮像装置を備える画像処理システムの変形例(その1)を示す図である。 図21に示す画像処理装置の実施例1としての撮像装置を備える画像処理システムの変形例(その2)を示す図である。 図21に示す画像処理装置の実施例2としての撮像装置を備える画像処理システムにおける要不要判定部の動作を示すフローチャートである。 図21に示す画像処理装置の実施例2としての撮像装置を備える画像処理システムにおける要判定の動画像フレームと不要判定の動画像フレームの一例を示す図である。 図21に示す画像処理装置の実施例2としての撮像装置を備える画像処理システムにおける要判定の動画像フレームと不要判定の動画像フレームの他の例を示す図である。 図21に示す画像処理装置の実施例3としての撮像装置を備える画像処理システムを示す図である。 図21に示す画像処理装置の実施例3としての撮像装置を備える画像処理システムにおける要不要判定部の動作を示すフローチャートである。 図21に示す画像処理装置の実施例4としての撮像装置を備える画像処理システムを示す図である。 図21に示す画像処理装置の実施例4としての撮像装置を備える画像処理システムにおける要不要判定部の動作を示すフローチャートである。 図21に示す画像処理装置の実施例5としての撮像装置を備える画像処理システムを示す図である。 図21に示す画像処理装置の実施例5としての撮像装置を備える画像処理システムにおける要不要判定部の動作を示すフローチャートである。 図21に示す画像処理装置の実施例6としての撮像装置を備える画像処理システムにおける要判定の動画像フレームと不要判定の動画像フレームの一例を示す図である。 本発明の他の実施形態の画像処理装置を示す図である。 本発明の他の実施形態の画像処理装置を示す図である。 図38に示す制御処理部の動作の一例を示すフローチャートである。 基準特徴データ取得部に取得されるデータの一例を示す図である。 画像処理装置の周辺装置の一例を示す図である。 画像処理装置の周辺装置の一例を示す図である。 画像処理装置の周辺装置の一例を示す図である。 本発明の他の画像処理装置を示す図である。 図42に示す基準特徴データ生成部の動作の一例を示すフローチャートである。 基準特徴データ取得部に取得されるデータの一例を示す図である。 図42に示す制御処理部の動作の一例を示すフローチャートである。 本発明の他の実施形態の画像処理装置を示す図である。 図46に示す基準特徴データ生成部の動作の一例を示すフローチャートである。 基準特徴データ取得部に取得されるデータの一例を示す図である。 本発明の他の実施形態の画像処理装置を示す図である。 図49に示す制御処理部の動作の一例を示すフローチャートである。 本発明の他の実施形態の画像処理装置の一例を示す図である。 図51に示す基準特徴データ生成部の動作の一例を示すフローチャートである。 基準特徴データ取得部に取得されるデータの一例を示す図である。 基準特徴データ取得部に取得されるデータの一例を示す図である。 本発明の他の実施形態の画像処理装置を示す図である。 要不要判定された画像データの一例を示す図である。 要不要判定された画像データの一例を示す図である。 本発明の他の実施形態の画像処理装置を示す図である。
 図1は、本発明の実施形態の画像処理装置を示す図である。
 図1の画像処理装置100は、要不要判定データ生成部103と、画像符号化部104と、メタデータ生成部105と、記録部106と、要不要判定部107と、動画像ファイル管理部108と、制御処理部109とを備える。なお、制御処理部109は、画像処理装置100内の各部の動作を制御するものとする。
 要不要判定データ生成部103は、外部(例えば、撮像装置や外部記録部など)から画像処理装置100に入力される動画像ファイルの各動画像フレームにそれぞれ対応する、不要な動画像フレームであるか否かを判定するために用いられる要不要判定データを生成する。
 画像符号化部104は、外部から画像処理装置100に入力される動画像を符号化するとともに、符号化後の動画像の各動画像フレームをそれぞれ複数のデータに分割しつつ、それらデータにそれぞれ識別情報を付与して記録部106に記録する。例えば、画像符号化部104は、図2に示すように、入力される動画像に対してMPEG2(Moving Picture Experts Group phase 2)形式の符号化を行うとともに、符号化後の動画像の各動画像フレームをそれぞれ複数のTS(Transport Stream)パケットに分割しつつ、それらTSパケットにそれぞれ「識別情報PID(Packet IDentification)」(K、K+1、・・・)を付与して記録部106に記録する。
 また、図1に示す記録部106は、画像処理装置100に内蔵の記録部(例えば、ハードディスク、RAM(Random Access Memory))でも画像処理装置100に着脱可能な外部記録部(例えば、CD-R(Rewritable Compact Disc)、DVD-R(Rewritble Digital Versatile Disc)等の媒体、メモリカード、又はUSBメモリなど)でもよく、例えば、不揮発性メモリ、又はフラッシュメモリなどにより構成される。
 また、記録部106は、画像符号化部104において各データにそれぞれ付与された識別情報と、記録部106内の記録位置を示す情報との対応関係を示す識別情報/記録位置テーブルを備える。例えば、記録部106は、図3Aに示すように、識別情報PIDと、記録部106内のクラスタの位置を示すクラスタ番号との対応関係を示す識別情報/記録位置テーブルとしてのディレクトリを備える。
 また、記録部106は、記録部106内の記録位置を示す情報と、各記録位置におけるデータの状態を示す情報(例えば、他の記録位置にデータが続く際のその記録位置を示す情報、データがこの記録位置で終わることを示す情報、又はこの記録位置にデータが無いことを示す情報)との対応関係を示す記録位置/データ状態情報テーブルを備える。例えば、記録部106は、図3Bに示すように、記録部106内のクラスタの位置を示すクラスタ番号と、各クラスタ番号におけるデータの状態を示す情報(例えば、他のクラスタにデータが続く際のそのクラスタの位置を示すクラスタ番号、データがこのクラスタで終わることを示す情報:「FFFF」、又はこのクラスタにデータが無いことを示す情報:「0000」)との対応関係を示す記録位置/データ状態情報テーブルとしてのFAT(File Allocation Table)を備える。
 メタデータ生成部105は、符号化後の動画像フレームの分割後の各データにそれぞれ付与された識別情報のうちの1つの識別情報と、その動画像フレームに対応する要不要判定データとを統合してメタデータを生成する。例えば、メタデータ生成部105は、図2に示すように、符号化後の動画像フレームf1の分割後の各TSパケットのうちの先頭のTSパケットの識別情報PID=Kと、動画像フレームf1に対応する要不要判定データとを統合して動画像フレームf1に対応するメタデータを生成する。また、メタデータ生成部105は、符号化後の動画像フレームf2の分割後の各TSパケットのうちの先頭のTSパケットの識別情報PID=K+n+1と、動画像フレームf2に対応する要不要判定データとを統合して動画像フレームf2に対応するメタデータを生成する。なお、要不要判定データと統合される識別情報PIDは、符号化後の動画像フレームの分割後の各TSパケットのうちの先頭のTSパケットの識別情報PIDに限定されない。
 要不要判定部107は、メタデータにおける要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定する。
 動画像ファイル管理部108は、記録部106内の識別情報/記録位置テーブルを用いて、要不要判定部107により不要な動画像フレームと判定された動画像フレームの識別情報に対応する記録部106内の記録位置を特定する。また、動画像ファイル管理部108は、記録部106内の記録位置/データ状態情報テーブルを用いて、特定した記録位置に対応するデータの状態を示す情報を特定し、その特定したデータの状態を示す情報をデータが無い旨の情報に書き換える。
 例えば、図2に示す動画像フレームf2が不要と判定された場合、動画像ファイル管理部108は、図3Aに示すディレクトリを用いて、動画像フレームf2の識別情報PID=K+n+1に対応する記録部106内のクラスタの位置を示すクラスタ番号として「0003」を特定する。次に、動画像ファイル管理部108は、図3Bに示すFATを用いて、特定したクラスタ番号「0003」におけるデータの状態を示す情報「0004」を「0000」に書き換えるとともに、さらに他のクラスタにも動画像フレームf2が記録される際のそのクラスタの位置を示すクラスタ番号「0004」におけるデータの状態を示す情報「FFFF」を「0000」に書き換える。
 なお、記録部106は、記録部106に記録される全ての識別情報と、それら識別情報にそれぞれ対応する記録部106の記録位置におけるデータの状態を示す情報とが対応付けられたテーブルを備えていてもよい。また、この場合、動画像ファイル管理部108は、このテーブルを用いて、要不要判定部107により不要な動画像フレームと判定された動画像フレームの識別情報に対応する記録部106の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換えるように構成してもよい。
 本発明の実施形態の画像処理装置100は、編集作業や再生作業の前段階において、動画像の各動画像フレームのうち、不要な動画像フレームと判定された動画像フレームに対応する記録部106の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換える構成であるため、その動画像の編集時や再生時において、動画像を記録部106から読み出す際、不要な動画像フレーム以外が読み出される。このように、編集作業や再生作業の前段階において不要な動画像フレームを動画像ファイルから実質的に削除しておくことができるため、編集作業時や再生作業時において、動画像ファイルを編集用プログラムや再生用プログラムにロードする時間を短縮することができ、編集作業や再生作業の効率低下を抑えることができる。
 また、本発明の実施形態の画像処理装置100は、記録部106から不要な動画像フレーム以外を読み出すために、記録部106の記録位置におけるデータの状態を示す情報を書き換えるだけであるため、データ処理量を少なくすることができ、画像処理装置100にかかる負荷を抑えることができる。
 また、本発明の実施形態の画像処理装置100は、不要な動画像フレームに対応する記録部106内の記録位置を特定するために、符号化後の動画像フレームの分割後の各データに付与される識別情報を使用しているため、データ処理量を少なくすることができ、画像処理装置100にかかる負荷を抑えることができる。
 なお、要不要判定部107は、連続する複数の不要な動画像フレームのうち、先頭の動画像フレームであることを示す先頭情報Kiと、末尾の動画像フレームであることを示す末尾情報Kjとを動画像ファイル管理部108に送るように構成してもよい。すなわち、識別情報PID上に不要判定された動画像の先頭である事を示すフラグと、末尾で有ることを示すフラグを記述する様にしても良い。この場合、動画像ファイル管理部108は、先頭情報Ki及び末尾情報Kjにそれぞれ対応する、記録部106の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換えるとともに、先頭情報Ki及び末尾情報Kjにそれぞれ対応する各動画像フレームの間の動画像フレームに対応する、記録部106の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換える。また、動画像ファイル管理部108は、不要な動画像フレームの先頭であることを示すフラグおよび不要な動画像フレームの末尾で有ることを示すフラグの双方が揃ったときに、不要な動画像フレームの先頭と不要な動画像フレームの末尾との間にある動画像フレームの識別情報に対応する記録部106の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換えるようにしても良い。
 また、上記記録部106のデータの書き換えのタイミングに関しては不要判定の先頭である事を示すフラグと、末尾で有ることを示すフラグの対が受信されたところでデータの書き換えを行うようにしても良い。
 また、画像符号化部104において、入力される動画像に対して、MPEG形式の符号化が行われる場合、例えば、図4に示すように、SH(Sequence Header)及びGOP(Group Of Picture)の圧縮単位(例えば、Iフレーム(Intra Picture)、B1フレーム~B3フレーム(Bidirectionally Predictive Picture)、Pフレーム(Predictive Picture))で符号化が行われる。このような場合、動画像ファイル管理部108は、先頭の不要動画像フレームが含まれるGOPから末尾の不要動画像フレームが含まれるGOPまでの範囲に対応する、記録部106の記録位置におけるデータの状態を示す情報を全てデータが無い旨の情報に書き換える。図4の例では、先頭の不要動画像フレームB1が含まれるGOPに対応するクラスタ番号「0002」から末尾の不要動画像フレームB2’が含まれるGOPに対応するクラスタ番号「0014」までの範囲に対応する、記録部106の記録位置におけるデータの状態を示す情報を全て「0000」に書き換える。
 また、記録部106は、FATと同じ内容の復帰用テーブルを備えていてもよい。この場合、動画像ファイル管理部108は、その復帰用テーブルを用いて、復帰対象であるデータの識別情報に対応する記録部106の記録位置におけるデータの状態を示す情報を、元の情報に戻すことができる。これにより、不要な動画像フレームであると判定されて、その動画像フレームの識別情報に対応する記録部106内の記録位置におけるデータの状態を示す情報が、データが無い旨の情報に書き換えられた後でも、その動画像フレームを読み出し可能な状態に戻すことができる。
 図5Aは、図1に示す画像処理装置100の実施例1である撮像装置500を示す図である。なお、図1に示す構成と同じ構成には同じ符号を付しその構成の説明を省略する。
 図5Aに示す撮像装置500は、撮像部101と、画像処理部102と、要不要判定データ生成部103と、画像符号化部104と、メタデータ生成部105と、記録部106と、要不要判定部107と、動画像ファイル管理部108と、制御処理部109とを備える。
 撮像部101は、例えば、レンズによってCCD(Charge Coupled Device)などの撮像素子に結像される被写体像をその撮像素子において電気信号に変換し静止画像フレーム又は複数の動画像フレームからなる動画像を得る。
 画像処理部102は、撮像部101により得られる静止画像又は動画像の各動画像フレームに対して、シャープネス補正、コントラスト補正、輝度・色差信号生成、及びホワイトバランス補正などの各種画像処理を行う。
 画像符号化部104は、画像処理後の静止画像フレームに対してJPEG(Joint Photographic Experts Group)形式などの符号化を行う。また、画像符号化部104は、画像処理後の動画像に対してMPEG形式などの符号化を行う。
 図5Aに示す撮像装置500の特徴とする点は、要不要判定データ生成部103として被写体検出処理部501を備え、その被写体検出処理部501により、画像処理後の動画像の各動画像フレームにおいて、それぞれ、要不要判定データとしての「被写体の位置」及び「被写体のサイズ」が検出され、メタデータ生成部105において、検出された「被写体の位置」及び「被写体のサイズ」と、識別情報PIDとが統合されてメタデータとして要不要判定部107へ出力される点である。
 図6は、図5Aに示す撮像装置500における要不要判定部107の動作の一例を示すフローチャートである。
 まず、要不要判定部107は、撮像部101により動画像フレームが取得され始めて、メタデータ生成部105からメタデータが出力され始めると、そのメタデータに示される「被写体の位置」及び「被写体のサイズ」を入力する(S11)。なお、被写体検出処理部501は、画像処理後の動画像フレーム内において被写体を検出した後、その検出した被写体を囲む矩形範囲を被写体エリアとし、その被写体エリアの左上の画素位置(x0,y0)を「被写体の位置」とする。また、被写体検出処理部501は、「被写体のサイズ」として被写体エリアの横方向の画素数をWとするとともに被写体エリアの縦方向の画素数をHとする。また、被写体検出処理部501は、動画像フレームから被写体が検出されない場合、x0を0よりも小さい値にする。また、動画像フレームの左上の画素位置を(1,1)とする。
 次に、要不要判定部107は、x0が0よりも小さいか否か、すなわち、被写体が検出されていないか否かを判断する(S12)。
 被写体が検出されていると判断した場合(S12がNo)、要不要判定部107は、Wが閾値Thr_Wよりも小さいか否か又はHが閾値Thr_Hよりも小さいか否か、すなわち、被写体が所定サイズよりも小さいか否かを判断する(S13)。なお、閾値Thr_Wや閾値Thr_Hは、ユーザなどにより予め設定されていてもよい。
 被写体が所定サイズよりも大きいと判断した場合(S13がNo)、要不要判定部107は、x0+W/2が閾値Thr_L_xよりも小さいか否か、すなわち、被写体エリアが動画像フレームの左端より外側に外れているか否かを判断する(S14)。なお、閾値Thr_L_xは、ユーザなどにより予め設定されていてもよい。
 被写体エリアが動画像フレームの左端より外側に外れていないと判断した場合(S14がNo)、要不要判定部107は、x0+W/2が閾値Thr_R_xよりも大きいか否か、すなわち、被写体エリアの右端が動画像フレームの右端より外側に外れているか否かを判断する(S15)。なお、閾値Thr_R_xは、ユーザなどにより予め設定されていてもよい。
 被写体エリアの右端が動画像フレームの右端より外側に外れていないと判断した場合(S15がNo)、要不要判定部107は、y0+H/2が閾値Thr_U_yよりも大きいか否か、すなわち、被写体エリアの上端が動画像フレームの上端より外側に外れているか否かを判断する(S16)。なお、閾値Thr_U_yは、ユーザなどにより予め設定されていてもよい。
 被写体エリアの上端が動画像フレームの上端より外側に外れていないと判断した場合(S16がNo)、要不要判定部107は、y0+H/2が閾値Thr_D_yよりも小さいか否か、すなわち、被写体エリアの下端が動画像フレームの下端より外側に外れているか否かを判断する(S17)。なお、閾値Thr_D_yは、ユーザなどにより予め設定されていてもよい。
 被写体エリアの下端が動画像フレームの下端より外側に外れていないと判断した場合(S17がNo)、要不要判定部107は、その動画像フレームを編集時や再生時に必要な動画像フレームであると判断して、要不要判定フラグFLG_n=1を設定し(S18)、その要不要判定フラグFLG_n=1を要不要判定部107の内部又は外部にある記憶部に保持する(S19)。
 次に、要不要判定部107は、今回取得した動画像フレームの要不要判定フラグFLG_nと前回取得した動画像フレームの要不要判定フラグFLG_n-1とを上記記憶部から読み出し(S20)、それら要不要判定フラグFLG_nと要不要判定フラグFLG_n-1との乗算結果がゼロよりも小さいか否か、すなわち、前回取得した動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの末尾の動画像フレームであるか否かを判断する(S21)。
 前回取得した動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの末尾の動画像フレームであると判断した場合(S21がYes)、要不要判定部107は、不要な1以上の動画像フレームのうちの末尾の動画像フレームであることを示す末尾情報Kjと前回取得した動画像フレームに対応する識別情報PIDとを統合して(S22)、動画像ファイル管理部108に出力する(S23)。例えば、図7に示すように、識別情報PID=7~12の複数の動画像フレームが取得された場合において、識別情報PID=7に対応する要不要判定フラグFLG_nが「-1」で、かつ、識別情報PID=8に対応する要不要判定フラグFLG_n-1が「1」のとき、要不要判定部107は、末尾情報Kjと識別情報PID=7とを統合して動画像ファイル管理部108に出力する。
 次に、要不要判定部107は、ユーザから動画撮影終了指示などを受け取り動画撮影が終了したと判断すると(S24がYes)、不要な動画像フレームの判定処理を終了し、まだ動画撮影が終了していないと判断すると(S24がNo)、S11に戻り、次に取得される動画像フレームに対応するメタデータを入力する。
 一方、前回取得した動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの末尾の動画像フレームでないと判断した場合、すなわち、今回取得された動画像フレームも編集時や再生時に必要な動画像フレームであり必要な動画像フレームを連続して取得していると判断した場合(S21がNo)、要不要判定部107は、S22及びS23を実行せずに、動画撮影が終了したか否かを判断する(S24)。
 また、要不要判定部107は、「被写体が検出されていない(S12がYes)」、「被写体が所定サイズよりも小さい(S13がYes)」、「被写体エリアが動画像フレームの左端より外側に外れている(S14がYes)」、「被写体エリアが動画像フレームの右端より外側に外れている(S15がYes)」、「被写体エリアが動画像フレームの上端より外側に外れている(S16がYes)」、及び「被写体エリアが動画像フレームの下端より外側に外れている(S17がYes)」の少なくとも1つを判断すると、その動画像フレームを編集時や再生時に不要な動画像フレームであると判断して、要不要判定フラグFLG_n=-1を設定し(S25)、その要不要判定フラグFLG_n=-1を要不要判定部107の内部又は外部にある記憶部に保持する(S26)。
 次に、要不要判定部107は、今回取得した動画像フレームの要不要判定フラグFLG_nと前回取得した動画像フレームの要不要判定フラグFLG_n-1とを上記記憶部から読み出し(S27)、それら要不要判定フラグFLG_nと要不要判定フラグFLG_n-1との乗算結果がゼロよりも小さいか否か、すなわち、今回取得した動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの先頭の動画像フレームであるか否かを判断する(S28)。
 今回取得した動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの先頭の動画像フレームであると判断した場合(S28がYes)、要不要判定部107は、不要な1以上の動画像フレームのうちの先頭の動画像フレームであることを示す先頭情報Kiと今回取得した動画像フレームに対応する識別情報PIDとを統合して(S29)、動画像ファイル管理部108に出力し(S30)、動画撮影が終了したか否かを判断する(S24)。例えば、図7に示すように、識別情報PID=7~12の複数の動画像フレームが取得された場合において、識別情報PID=12に対応する要不要判定フラグFLG_nが「-1」で、かつ、識別情報PID=11に対応する要不要判定フラグFLG_n-1が「1」のとき、要不要判定部107は、先頭情報Kiと識別情報PID=12とを統合して動画像ファイル管理部108に出力する。
 一方、今回取得した動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの先頭の動画像フレームでないと判断した場合、すなわち、前回取得された動画像フレームも編集時や再生時に不要な動画像フレームであり不要な動画像フレームを連続して取得していると判断した場合(S28がNo)、要不要判定部107は、S29及びS30を実行せずに、動画撮影が終了したか否かを判断する(S24)。
 そして、動画像ファイル管理部108は、要不要判定部107から先頭情報Ki及び末尾情報Kjが出力されると、先頭情報Kiとともに出力された識別情報PIDから先頭情報Kjとともに出力された識別情報PIDまでの間の全ての識別情報に対応する記録部106の記録位置におけるデータの状態を示す情報をそれぞれデータが無い旨の情報に書き換える。
 図5Aに示す撮像装置500は、被写体の位置やサイズに応じて、動画像フレームの要不要が判定されるため、スポーツやレースの観戦時など被写体が激しく動く場合において取得される動画像のデータ量の削減に有効である。
 なお、図6に示す要不要判定部107の動作例では、メタデータに記述されている構図指標は被写体の位置やサイズに基づいており、動画像フレームの要不要判定を行う構成であるが、図8に示すように、同じような構図の動画像フレームを連続して取得されるとき、それらの動画像フレームを編集時や再生時に不要な動画像フレームと判定するように構成してもよい。例えば、要不要判定部107は、図8に示す識別情報PID=7に対応する動画像フレームの構図と、識別情報PID=8、9に対応する動画像フレームの構図との差異が所定値以下であると判断されるとき、識別情報PID=9に対応する動画像フレームに対して先頭情報Kiを設定する。また、構図の差異が所定値以下のフレームが所定数以上連続する場合に、読出し制御部112は、連続するフレームの後部に相当する識別情報の動画像フレームに対して先頭情報Kiを設定する。
 なお、上記フレーム間の差異の測定方法としては、図8に示した、構図指標すなわち被写体の位置サイズの検出の差異の他に、画像の統計量に基づきフレーム間の差異を求めとも良い。フレーム間のレベル差の差分の合計値が所定値以下の場合、比較するフレームのヒストグラムの変化量の合計値が所定値以下の場合を不要とする等を使っても良い。フレーム間の差分を用いる場合、例えば、図5Bに示すように、被写体検出処理部501の代わりにフレーム間差分を積分する差分演算部5011を備える。また、ヒストグラムを用いる場合には、例えば、図5Cに示すように、被写体検出処理部501の代わりにヒストグラムを算出しフレーム間のヒストグラムの差分またはその積分を計算するヒストグラム差分演算部5012を備える。
 図9は、図1に示す画像処理装置100の実施例2である撮像装置900を示す図である。なお、図5に示す構成と同じ構成には同じ符号を付しその構成の説明を省略する。
 図9に示す撮像装置900の特徴とする点は、要不要判定データ生成部103としてフォーカス情報処理部901を備え、そのフォーカス情報処理部901により、画像処理後の動画像の各動画像フレームに対して、それぞれ、要不要判定データとしての「フォーカス情報」が設定され、メタデータ生成部105により、「フォーカス情報」と識別情報PIDとが統合されてメタデータとして要不要判定部107へ出力される点である。
 図10は、図9に示す撮像装置900における要不要判定部107の動作の一例を示すフローチャートである。
 まず、要不要判定部107は、撮像部101により動画像フレームが取得され始めて、メタデータ生成部105からメタデータが出力され始めると、そのメタデータに示される「フォーカス情報」を入力する(S31)。なお、フォーカス情報処理部901は、撮像部101が動画像フレームを取得する度に、その動画像フレームに対応するコントラスト評価値C0を画像処理部102から得るとともに、フォーカスレンズのレンズ位置L0を撮像部101から得てメタデータ生成部105へ出力する。また、コントラスト評価値C0が0よりも小さいとき、フォーカスができていない、すなわち、フォーカスレンズの焦点が合っていないものとする。
 次に、要不要判定部107は、C0が0以上である、すなわち、フォーカスレンズの焦点が合っていると判断した場合(S32がNo)、今回取得された動画像フレームに対応するレンズ位置L0_nを要不要判定部107の内部又は外部にある記憶部に保持する(S33)。
 次に、要不要判定部107は、今回取得された動画像フレームに対応するレンズ位置L0_nと前回取得された動画像フレームに対応するレンズ位置L0_n-1とを上記記憶部から読み出し(S34)、それらレンズ位置L0_nとレンズ位置L0_n-1との差分の絶対値が閾値Thr_Lよりも大きいか否か、すなわち、フォーカスが安定していないか否かを判断する(S35)。
 フォーカスが安定していると判断した場合(S35がNo)、要不要判定部107は、その動画像フレームを編集時や再生時に必要な動画像フレームであると判断して、要不要判定フラグFLG_n=1を設定し(S36)、その要不要判定フラグFLG_n=1を要不要判定部107の内部又は外部にある記憶部に保持する(S37)。
 次に、要不要判定部107は、今回取得された動画像フレームの要不要判定フラグFLG_nと前回取得された動画像フレームの要不要判定フラグFLG_n-1とを上記記憶部から読み出し(S38)、それら要不要判定フラグFLG_nと要不要判定フラグFLG_n-1との乗算結果がゼロよりも小さいか否か、すなわち、前回取得された動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの末尾の動画像フレームであるか否かを判断する(S39)。
 前回取得した動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの末尾の動画像フレームであると判断した場合(S39がYes)、要不要判定部107は、不要な1以上の動画像フレームのうちの末尾の動画像フレームであることを示す末尾情報Kjと前回取得された動画像フレームに対応する識別情報PIDとを統合して(S40)、動画像ファイル管理部108に出力する(S41)。
 次に、要不要判定部107は、ユーザからの動画撮影終了指示などを受け取り動画撮影が終了したと判断すると(S42がYes)、不要な動画像フレームの判定処理を終了し、まだ動画撮影が終了していないと判断すると(S42がNo)、S31に戻り、次に取得される動画像フレームに対応するメタデータを入力する。
 一方、前回取得された動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの末尾の動画像フレームでないと判断した場合、すなわち、今回取得された動画像フレームも編集時や再生時に必要な動画像フレームであり必要な動画像フレームを連続して取得していると判断した場合(S39がNo)、要不要判定部107は、S40及びS41を実行せずに、動画撮影が終了したか否かを判断する(S42)。
 また、要不要判定部107は、フォーカスができていないと判断した場合(S32がYes)又はフォーカスが安定していないと判断した場合(S35がYes)、そのときの動画像フレームを編集時や再生時に不要な動画像フレームであると判断して、要不要判定フラグFLG_n=-1を設定し(S43)、その要不要判定フラグFLG_n=-1を要不要判定部107の内部又は外部にある記憶部に保持する(S44)。
 次に、要不要判定部107は、今回取得された動画像フレームの要不要判定フラグFLG_nと前回取得された動画像フレームの要不要判定フラグFLG_n-1とを上記記憶部から読み出し(S45)、それら要不要判定フラグFLG_nと要不要判定フラグFLG_n-1との乗算結果がゼロよりも小さいか否か、すなわち、今回取得された動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの先頭の動画像フレームであるか否かを判断する(S46)。
 今回取得された動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの先頭の動画像フレームであると判断した場合(S46がYes)、要不要判定部107は、不要な1以上の動画像フレームのうちの先頭の動画像フレームであることを示す先頭情報Kiと今回取得した動画像フレームに対応する識別情報PIDとを統合して(S47)、動画像ファイル管理部108に出力し(S48)、動画撮影が終了したか否かを判断する(S42)。
 一方、今回取得した動画像フレームが編集時に不要な1以上の動画像フレームのうちの先頭の動画像フレームでないと判断した場合、すなわち、前回取得された動画像フレームも編集時に不要な動画像フレームであり不要な動画像フレームを連続して取得していると判断した場合(S46がNo)、要不要判定部107は、S47及びS48を実行せずに、動画撮影が終了したか否かを判断する(S42)。
 そして、動画像ファイル管理部108は、要不要判定部107から先頭情報Ki及び末尾情報Kjが出力されると、先頭情報Kiとともに出力された識別情報PIDから先頭情報Kjとともに出力された識別情報PIDまでの間の全ての識別情報に対応する記録部106の記録位置におけるデータの状態を示す情報をそれぞれデータが無い旨の情報に書き換える。
 図9に示す撮像装置900では、フォーカスができていないか否か又はフォーカスが安定していないか否かに応じて、動画像フレームの要不要が判断されるため、例えば、被写体だけでなく撮影者も移動している場合において取得される動画像ファイルのデータ量の削減に有効である。
 図11は、図1に示す画像処理装置100の実施例3である撮像装置1100を示す図である。なお、図5に示す構成と同じ構成には同じ符号を付しその構成の説明を省略する。
 図11に示す撮像装置1100の特徴とする点は、要不要判定データ生成部103としてズーム情報処理部1101を備え、そのズーム情報処理部1101により、画像処理後の動画像の各動画像フレームに対して、それぞれ、要不要判定データとしての「ズーム情報」が設定され、メタデータ生成部105により、「ズーム情報」と識別情報PIDとが統合されてメタデータとして要不要判定部107へ出力される点である。
 図12は、図11に示す撮像装置1100における要不要判定部107の動作の一例を示すフローチャートである。
 まず、要不要判定部107は、撮像部101により動画像フレームが取得され始めて、メタデータ生成部105からメタデータが出力され始めると、そのメタデータに示される「ズーム情報」を入力する(S51)。なお、ズーム情報処理部1101は、撮像部101が動画像フレームを取得する度に、その動画像フレームに対応するズーム情報Z0(例えば、ズームレンズのレンズ位置やレンズ移動量など)を撮像部101から得てメタデータ生成部105へ出力する。
 次に、要不要判定部107は、入力されるズーム情報Z0を要不要判定部107の内部又は外部にある記憶部に保持する(S52)。
 次に、要不要判定部107は、今回取得された動画像フレームに対応するズーム情報Z0_nと前回取得された動画像フレームに対応するズーム情報Z0_n-1とを上記記憶部から読み出し(S53)、それらズーム情報Z0_nとズーム情報Z0_n-1との差分の絶対値が閾値Thr_Zよりも大きいか否か、すなわち、ズームレンズのレンズ位置が安定していないか否かを判断する(S54)。
 ズームレンズのレンズ位置が安定していると判断した場合(S54がNo)、要不要判定部107は、今回取得された動画像フレームを編集時や再生時に必要な動画像フレームであると判断して、要不要判定フラグFLG_n=1を設定し(S55)、その要不要判定フラグFLG_n=1を要不要判定部107の内部又は外部にある記憶部に保持する(S56)。
 次に、要不要判定部107は、今回取得された動画像フレームの要不要判定フラグFLG_nと前回取得された動画像フレームの要不要判定フラグFLG_n-1とを上記記憶部から読み出し(S57)、それら要不要判定フラグFLG_nと要不要判定フラグFLG_n-1との乗算結果がゼロよりも小さいか否か、すなわち、前回取得された動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの末尾の動画像フレームであるか否かを判断する(S58)。
 前回取得した動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの末尾の動画像フレームであると判断した場合(S58がYes)、要不要判定部107は、不要な1以上の動画像フレームのうちの末尾の動画像フレームであることを示す末尾情報Kjと前回取得された動画像フレームに対応する識別情報PIDとを統合して(S59)、動画像ファイル管理部108に出力する(S60)。
 次に、要不要判定部107は、ユーザからの動画撮影終了指示などを受け取り動画撮影が終了したと判断すると(S61がYes)、不要な動画像フレームの判定処理を終了し、まだ動画撮影が終了していないと判断すると(S61がNo)、S51に戻り、次に取得される動画像フレームに対応するメタデータを入力する。
 一方、前回取得された動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの末尾の動画像フレームでないと判断した場合、すなわち、今回取得された動画像フレームも編集時や再生時に必要な動画像フレームであり必要な動画像フレームを連続して取得していると判断した場合(S58がNo)、要不要判定部107は、S59及びS60を実行せずに、動画撮影が終了したか否かを判断する(S61)。
 また、要不要判定部107は、ズームレンズのレンズ位置が安定していないと判断した場合(S54がYes)、今回取得された動画像フレームを編集時や再生時に不要な動画像フレームであると判断して、要不要判定フラグFLG_n=-1を設定し(S62)、その要不要判定フラグFLG_n=-1を要不要判定部107の内部又は外部にある記憶部に保持する(S63)。
 次に、要不要判定部107は、今回取得された動画像フレームの要不要判定フラグFLG_nと前回取得された動画像フレームの要不要判定フラグFLG_n-1とを上記記憶部から読み出し(S64)、それら要不要判定フラグFLG_nと要不要判定フラグFLG_n-1との乗算結果がゼロよりも小さいか否か、すなわち、今回取得された動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの先頭の動画像フレームであるか否かを判断する(S65)。
 今回取得された動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの先頭の動画像フレームであると判断した場合(S65がYes)、要不要判定部107は、不要な1以上の動画像フレームのうちの先頭の動画像フレームであることを示す先頭情報Kiと今回取得した動画像フレームに対応する識別情報PIDとを統合して(S66)、動画像ファイル管理部108に出力し(S67)、動画撮影が終了したか否かを判断する(S61)。
 一方、今回取得した動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの先頭の動画像フレームでないと判断した場合、すなわち、前回取得された動画像フレームも編集時や再生時に不要な動画像フレームであり不要な動画像フレームを連続して取得していると判断した場合(S65がNo)、要不要判定部107は、S66及びS67を実行せずに、動画撮影が終了したか否かを判断する(S61)。
 そして、動画像ファイル管理部108は、要不要判定部107から先頭情報Ki及び末尾情報Kjが出力されると、先頭情報Kiとともに出力された識別情報PIDから先頭情報Kjとともに出力された識別情報PIDまでの間の全ての識別情報に対応する記録部106の記録位置におけるデータの状態を示す情報をそれぞれデータが無い旨の情報に書き換える。
 図11に示す撮像装置1100では、ズームレンズのレンズ位置が安定していないか否かに応じて、動画像フレームの要不要が判断されるため、例えば、被写体が撮影者に対して前後方向に移動している場合において取得される動画像ファイルのデータ量の削減に有効である。
 なお、不要な動画像フレームの要不要判定処理に使用される情報は、上述した実施例1~3のように、被写体の位置やサイズ、フォーカス情報、又はズーム情報に限定されない。例えば、画像処理後の各動画像フレームの輝度階調のヒストグラムを使用してもよい。
 また、上述した被写体の位置やサイズ、フォーカス情報、ズーム情報、及び輝度階調のヒストグラムのうち、2つ以上の情報を組み合わせて、不要な動画像フレームの要不要判定処理に使用してもよい。
 図13は、図1に示す画像処理装置100の実施例4である撮像装置1300を示す図である。なお、図5に示す構成と同じ構成には同じ符号を付しその構成の説明を省略する。
 図13に示す撮像装置1300の特徴とする点は、要不要判定データ生成部103として無線アンテナ1301及び受信信号強度検出部1302を備え、受信信号強度検出部1302により、画像処理後の動画像の各動画像フレームに対して、それぞれ、要不要判定データとしての受信信号強度情報(RSSI:Received Signal Strength Indication)R0が検出され、メタデータ生成部105により、受信信号強度情報R0と識別情報PIDとが統合されてメタデータとして要不要判定部107へ出力される点である。なお、無線アンテナ1301は、被写体に備えられる送信機から送信される信号や撮像装置1300から送信され被写体に反射した信号を受信するものとする。
 図14は、図13に示す撮像装置1300における要不要判定部107の動作の一例を示すフローチャートである。
 まず、要不要判定部107は、撮像部101により動画像フレームが取得され始めて、メタデータ生成部105からメタデータが出力され始めると、そのメタデータに示される「受信信号強度情報」を入力する(S71)。なお、受信信号強度検出部1302は、撮像部101が動画像フレームを取得する度に、その動画像フレームに対応させて、無線アンテナ1301により受信される受信信号のレベルを受信信号強度情報R0としてメタデータ生成部105へ出力する。
 次に、要不要判定部107は、入力される受信信号強度情報R0が閾値Thr_Rよりも大きいか否か、すなわち、撮像装置1300に対して被写体が遠い位置にあるか否かを判断する(S72)。
 被写体が遠い位置にないと判断した場合(S72がNo)、要不要判定部107は、今回取得された動画像フレームを編集時や再生時に必要な動画像フレームであると判断して、要不要判定フラグFLG_n=1を設定し(S73)、その要不要判定フラグFLG_n=1を要不要判定部107の内部又は外部にある記憶部に保持する(S74)。
 次に、要不要判定部107は、今回取得された動画像フレームの要不要判定フラグFLG_nと前回取得された動画像フレームの要不要判定フラグFLG_n-1とを上記記憶部から読み出し(S75)、それら要不要判定フラグFLG_nと要不要判定フラグFLG_n-1との乗算結果がゼロよりも小さいか否か、すなわち、前回取得された動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの末尾の動画像フレームであるか否かを判断する(S76)。
 前回取得した動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの末尾の動画像フレームであると判断した場合(S76がYes)、要不要判定部107は、不要な1以上の動画像フレームのうちの末尾の動画像フレームであることを示す末尾情報Kjと前回取得された動画像フレームに対応する識別情報PIDとを統合して(S77)、動画像ファイル管理部108に出力する(S78)。例えば、図15に示すように、識別情報PID=15~22の複数の動画像フレームが取得された場合において、識別情報PID=22に対応する要不要判定フラグFLG_nが「1」で、かつ、識別情報PID=21に対応する要不要判定フラグFLG_n-1が「-1」のとき、要不要判定部107は、末尾情報Kjと識別情報PID=21とを統合して動画像ファイル管理部108に出力する。
 次に、要不要判定部107は、ユーザからの動画撮影終了指示などを受け取り動画撮影が終了したと判断すると(S79がYes)、不要な動画像フレームの判定処理を終了し、まだ動画撮影が終了していないと判断すると(S79がNo)、S71に戻り、次に取得される動画像フレームに対応するメタデータを入力する。
 一方、前回取得された動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの末尾の動画像フレームでないと判断した場合、すなわち、今回取得された動画像フレームも編集時や再生時に必要な動画像フレームであり必要な動画像フレームを連続して取得していると判断した場合(S76がNo)、要不要判定部107は、S77及びS78を実行せずに、動画撮影が終了したか否かを判断する(S79)。
 また、要不要判定部107は、被写体が遠い位置にあると判断した場合(S72がYes)、今回取得された動画像フレームを編集時や再生時に不要な動画像フレームであると判断して、要不要判定フラグFLG_n=-1を設定し(S80)、その要不要判定フラグFLG_n=-1を要不要判定部107の内部又は外部にある記憶部に保持する(S81)。
 次に、要不要判定部107は、今回取得された動画像フレームの要不要判定フラグFLG_nと前回取得された動画像フレームの要不要判定フラグFLG_n-1とを上記記憶部から読み出し(S82)、それら要不要判定フラグFLG_nと要不要判定フラグFLG_n-1との乗算結果がゼロよりも小さいか否か、すなわち、今回取得された動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの先頭の動画像フレームであるか否かを判断する(S83)。
 今回取得された動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの先頭の動画像フレームであると判断した場合(S84がYes)、要不要判定部107は、不要な1以上の動画像フレームのうちの先頭の動画像フレームであることを示す先頭情報Kiと今回取得した動画像フレームに対応する識別情報PIDとを統合して(S84)、動画像ファイル管理部108に出力し(S85)、動画撮影が終了したか否かを判断する(S79)。例えば、図15に示すように、識別情報PID=15~22の複数の動画像フレームが取得された場合において、識別情報PID=16に対応する要不要判定フラグFLG_nが「-1」で、かつ、識別情報PID=15に対応する要不要判定フラグFLG_n-1が「1」のとき、要不要判定部107は、先頭情報Kiと識別情報PID=16とを統合して動画像ファイル管理部108に出力する。
 一方、今回取得した動画像フレームが編集時や再生時に不要な1以上の動画像フレームのうちの先頭の動画像フレームでないと判断した場合、すなわち、前回取得された動画像フレームも編集時や再生時に不要な動画像フレームであり不要な動画像フレームを続けて取得していると判断した場合(S83がNo)、要不要判定部107は、S84及びS85を実行せずに、動画撮影が終了したか否かを判断する(S79)。
 そして、動画像ファイル管理部108は、要不要判定部107から先頭情報Ki及び末尾情報Kjが出力されると、先頭情報Kiとともに出力された識別情報PIDから先頭情報Kjとともに出力された識別情報PIDまでの間の全ての識別情報に対応する記録部106の記録位置におけるデータの状態を示す情報をそれぞれデータが無い旨の情報に書き換える。
 図13に示す撮像装置1300では、受信信号強度情報R0に応じて、動画像フレームの要不要が判定されるため、例えば、撮像装置1300に対して被写体が前後に移動している場合において取得される動画像ファイルのデータ量の削減に有効である。
 なお、上述の撮像装置1300では、要不要判定部107において、受信信号強度情報R0が閾値Thr_Rよりも大きいか否かに基づいて、動画像フレームの要不要判定処理を行う構成であるが、受信信号強度検出部1302において、受信信号強度情報R0が閾値Thr_Rよりも大きいか否かに基づいて、動画像フレームの要不要判定処理を行うように構成してもよい。このように構成する場合、メタデータ生成部105において、不要な動画像フレームであることを示すフラグと、その動画像フレームに対応する識別情報とが統合されてメタデータが生成される。また、動画像ファイル管理部108は、そのメタデータにおける識別情報に対応する記録部106の記録位置におけるデータの状態を示す情報をそれぞれデータが無い旨の情報に書き換える。また、要不要判定部107を省略することができる。
 図16は、図1に示す画像処理装置100の実施例5である撮像装置1600を示す図である。なお、図5に示す構成と同じ構成には同じ符号を付しその構成の説明を省略する。
 図16に示す撮像装置1600の特徴とする点は、要不要判定データ生成部103の代わりに、縮小画像生成部1601を備え、その縮小画像生成部1601により、画像処理後の動画像の各動画像フレームがそれぞれ縮小され、それら縮小画像と識別情報PIDとが統合されてメタデータとして要不要判定データ生成部103へ出力される点である。
 図16に示す要不要判定データ生成部103は、入力されるメタデータにおける縮小画像に基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定するために用いられる要不要判定データを生成する。図16に示す要不要判定データ生成部103で生成される要不要判定データとしては、例えば、上述した被写体の位置やサイズ又は輝度階調のヒストグラムなどとする。
 なお、図16に示す要不要判定部107や動画像ファイル管理部108の動作は、上述した実施例1~4における要不要判定部107や動画像ファイル管理部108の動作と同様とする。また、図16に示す要不要判定データ生成部103は、要不要判定部107の内部に設けられてもよい。
 このように、図16に示す撮像装置1600は、要不要判定データを生成する際、縮小画像を用いるため、要不要判定データを生成する際に撮像装置1600にかかる負荷を抑えることができる。
 図17は、本発明の実施形態の画像処理システムを示す図である。なお、図1に示す構成と同じ構成には同じ符号を付しその構成の説明を省略する。
 図17に示す画像処理システムは、画像処理装置100と、サーバ1700とを有し、画像処理装置100とサーバ1700とが互いにネットワーク1701を介してデータを送受信する。
 図17に示す画像処理装置100において、図1に示す画像処理装置100と異なる点は、不要な動画像フレームの判定処理を画像処理装置100の外部のサーバ1700で行わせている点である。
 すなわち、図17に示す画像処理装置100の送信部1702は、メタデータ生成部105で生成されるメタデータをサーバ1700へ送信する。
 また、図17に示すサーバ1700の要不要判定部1703は、受信部1704で受信されるメタデータにおける要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定し、その判定結果を送信部1705により画像処理装置100へ送信する。
 そして、図17に示す画像処理装置100の動画像ファイル管理部108は、記録部106内の識別情報/記録位置テーブルを用いて、受信部1706で受信される判定結果により、不要な動画像フレームと判定された動画像フレームの識別情報に対応する記録部106内の記録位置を特定する。また、動画像ファイル管理部108は、記録部106内の記録位置/データ状態情報テーブルを用いて、特定した記録位置に対応するデータの状態を示す情報を特定し、その特定したデータの状態を示す情報を、データが無い旨の情報に書き換える。
 なお、図17に示す記録部106は、記録部106に記録される全ての識別情報と、それら識別情報にそれぞれ対応する記録部106の記録位置におけるデータの状態を示す情報とが対応付けられたテーブルを備えていてもよい。また、この場合、図17に示す動画像ファイル管理部108は、このテーブルを用いて、サーバ1700から送信される、不要な動画像フレームと判定された動画像フレームの識別情報に対応する記録部106の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換えるように構成してもよい。
 また、図17に示す画像処理装置100は、上述した実施例1~5の何れかの撮像装置に置き換えることができる。
 このように、図17に示す画像処理システムは、動画像フレームの要不要判定処理を画像処理装置100の外部のサーバ1700側で行う構成であるため、画像処理装置100にかかる負荷を抑えることができる。
 図18は、本発明の他の実施形態の画像処理システムを示す図である。なお、図17に示す画像処理システムの構成と同じ構成には同じ符号を付しその構成の説明を省略する。
 図18に示す画像処理システムにおいて、図17に示す画像処理システムと異なる点は、要不要判定データ生成部103の代わりに、図16に示す縮小画像生成部1601が画像処理装置100に備えられているとともに、サーバ1700に要不要判定データ生成部1800が備えられている点である。
 すなわち、画像処理装置100の縮小画像生成部1601により、画像処理後の動画像の各動画像フレームそれぞれの縮小画像が生成され、メタデータ生成部105により縮小画像と識別情報PIDとが統合されてメタデータとしてネットワーク1701を介して画像処理装置100からサーバ1700へ送信される。
 また、サーバ1700の要不要判定データ生成部1800により、受信されるメタデータにおける縮小画像に基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定するために用いられる要不要判定データが生成される。なお、要不要判定データ生成部1800で生成される要不要判定データは、例えば、上述した被写体の位置やサイズ又は輝度階調のヒストグラムなどとする。
 また、サーバ1700の要不要判定部1703は、要不要判定データ生成部1800で生成された要不要判定データに基づいて、受信されるメタデータにおける識別情報に対応する動画像フレームが編集時に不要な動画像フレームであるか否かを判定し、その判定結果を送信部1705により画像処理装置100へ送信する。
 そして、画像処理装置100の動画像ファイル管理部108は、記録部106内の識別情報/記録位置テーブルを用いて、受信部1706で受信される、不要な動画像フレームと判定された動画像フレームの識別情報に対応する記録部106内の記録位置を特定する。また、動画像ファイル管理部108は、記録部106内の記録位置/データ状態情報テーブルを用いて、特定した記録位置に対応するデータの状態を示す情報を特定し、その特定したデータの状態を示す情報をデータが無い旨の情報に書き換える。
 なお、図18に示す記録部106は、記録部106に記録される全ての識別情報と、それら識別情報にそれぞれ対応する記録部106の記録位置におけるデータの状態を示す情報とが対応付けられたテーブルを備えていてもよい。また、この場合、図18に示す動画像ファイル管理部108は、このテーブルを用いて、サーバ1700から送信される、不要な動画像フレームと判定された動画像フレームの識別情報に対応する記録部106の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換えるように構成してもよい。
 このように、図18に示す画像処理システムは、要不要判定データ生成部1800をサーバ1700に備えているため、画像処理装置100にかかる負荷を抑えることができる。また、図18に示す画像処理システムは、要不要判定データを生成する際、縮小画像を用いるため、要不要判定データを生成する際にサーバ1700にかかる負荷を抑えることができる。
 図19は、本発明の他の実施形態の画像処理システムを示す図である。なお、図1に示す画像処理装置100の構成や図17に示す画像処理システムの構成と同じ構成には同じ符号を付しその構成の説明を省略する。
 図19に示す画像処理システムにおいて、図17に示す画像処理システムと異なる点は、画像処理装置100が要不要判定部107、負荷状態測定部1900、及び分配切替部1901をさらに備えている点である。
 この負荷状態測定部1900は、画像処理装置100に負荷をかけて良い状態であるか否かを判断するための情報を検出する検出部の一例である。なお、特許請求の範囲における検出手段は、例えば、負荷状態測定部1900とする。
 負荷状態測定部1900は、画像処理装置100のリソース(例えば、CPUやメモリなど)の負荷状態を測定する。
 分配切替部1901は、負荷状態測定部1900で測定される負荷状態に応じて、メタデータ生成部105で生成されるメタデータの送り先として、サーバ1700の要不要判定部1703及び画像処理装置100の要不要判定部107のどちらか一方に切り替える。例えば、分配切替部1901は、画像処理装置100のリソースにかかっている負荷が高い場合、メタデータをサーバ1700の要不要判定部1703へ送り、画像処理装置100のリソースにかかっている負荷が高くない場合、メタデータを画像処理装置100の要不要判定部107に送る。
 このように、図19に示す画像処理システムは、画像処理装置100のリソースにかかる負荷が高い場合、動画像フレームの要不要判定処理を行う際に画像処理装置100のリソースを十分に利用することができないと判断して、動画像フレームの要不要判定処理を画像処理装置100の外部のサーバ1700で行わせる構成であるため、動画像フレームの要不要判定処理の効率を向上させることができる。
 図20は、本発明の他の実施形態の画像処理システムを示す図である。なお、図17に示す画像処理システムの構成と同じ構成には同じ符号を付しその構成の説明を省略する。
 図20に示す画像処理システムにおいて、図17に示す画像処理システムと異なる点は、画像処理装置100が要不要判定部107、電源モード検知部2000、及び分配切替部2001をさらに備えている点である。
 この電源モード検知部2000は、画像処理装置100に負荷をかけて良い状態であるか否かを判断するための情報を検出する検出部の一例である。なお、特許請求の範囲における検出手段は、例えば、電源モード検知部2000とする。
 電源モード検知部2000は、画像処理装置100の電源モード(例えば、画像処理装置100の各部の全てに電力が供給される起動モードや画像処理装置100の各部の一部に電力が供給される節電(待機)モード)を検知する。
 分配切替部2001は、電源モード検知部2000で検知される電源モードに応じて、メタデータ生成部105で生成されるメタデータの送り先を、サーバ1700の要不要判定部1703及び画像処理装置100の要不要判定部107のどちらか一方に切り替える。例えば、分配切替部2001は、画像処理装置100の電源モードが「節電(待機)モード」である場合、メタデータをサーバ1700の要不要判定部1703へ送り、画像処理装置100の電源モードが「起動モード」である場合、メタデータを画像処理装置100の要不要判定部107に送る。
 このように、図20に示す画像処理システムは、画像処理装置100の電源モードが「節電(待機)モード」である場合、動画像フレームの要不要判定処理を行う際に画像処理装置100のリソースを十分に利用することができないと判断して、動画像フレームの要不要判定処理を画像処理装置100の外部のサーバ1700で行わせる構成であるため、動画像フレームの要不要判定処理の効率を向上させることができる。
 図21は、本発明の他の実施形態の画像処理システムを示す図である。
 図21に示す画像処理システムは、入力される動画像を記録部106aに記録する画像処理装置100aと、記録部106aから動画像を読み出す画像読出し装置108aとを備える。
 図21に示す記録部106aは、画像処理装置100aに内蔵の記録部(例えば、ハードディスク、RAM(Random Acess Memory)など)でも画像処理装置100に着脱可能な外部記録部(例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)等の媒体、メモリカード、又はUSBメモリなど)でもよく、例えば、ROM(Read Only Memory)、不揮発性メモリ、又はフラッシュメモリなどにより構成される。図21に示す記録部106aは、外部記録部を想定している。なお、記録部106aが画像処理装置100aに内蔵される場合は、画像処理装置100aと画像読出し装置108aとが互いに通信線などで接続されるものとする。
 画像処理装置100aは、要不要判定データ生成部103aと、画像符号化部104aと、メタデータ生成部105aと、制御処理部109aとを備える。なお、制御処理部109aは、画像処理装置100aの各部の動作を制御するものとする。
 要不要判定データ生成部103aは、外部(例えば、撮像装置や外部記録部など)から画像処理装置100aに入力される動画像の各動画像フレームにそれぞれ対応する、不要な動画像フレームであるか否かを判定するために用いられる要不要判定データを生成する。
 画像符号化部104aは、外部から画像処理装置100aに入力される動画像を符号化するとともに、その符号化後の動画像の各動画像フレームをそれぞれ複数のデータに分割しつつ、それらデータにそれぞれ識別情報を付与して記録部106aに記録する。例えば、画像符号化部104aは、図22に示すように、入力される動画像に対してMPEG2(Moving Picture Experts Group phase 2)形式の符号化を行うとともに、符号化後の動画像の各動画像フレームをそれぞれ複数のTS(Transport Stream)パケットに分割しつつ、それらTSパケットにそれぞれ識別情報PID(Packet IDentification)(K、K+1、・・・)を付与して記録部106aに記録する。
 なお、記録部106aは、画像符号化部104aにおいて各データにそれぞれ付与された識別情報と、記録部106a内の記録位置を示す情報との対応関係を示す識別情報/記録位置テーブルを備える。例えば、記録部106aは、図23Aに示すように、識別情報PIDと、記録部106a内のクラスタの位置を示すクラスタ番号との対応関係を示す識別情報/記録位置テーブルとしてのディレクトリを備える。
 また、記録部106aは、記録部106a内の記録位置を示す情報と、それらの記録位置におけるデータの状態を示す情報(例えば、他の記録位置にデータが続く際のその記録位置を示す情報、データがこの記録位置で終わることを示す情報、又はこの記録位置にデータが無いことを示す情報)との対応関係を示す記録位置/データ状態情報テーブルを備える。例えば、記録部106aは、図23Bに示すように、記録部106a内のクラスタの位置を示すクラスタ番号と、各クラスタ番号におけるデータの状態を示す情報(例えば、他のクラスタにデータが続く際のそのクラスタの位置を示すクラスタ番号、データがこのクラスタで終わることを示す情報:「FFFF」、又はこのクラスタにデータが無いことを示す情報:「0000」)との対応関係を示す記録位置/データ状態情報テーブルとしてのFAT(File Allocation Table)を備える。
 メタデータ生成部105aは、符号化後の動画像フレームの分割後の各データにそれぞれ付与された識別情報のうちの1つの識別情報と、その動画像フレームに対応する要不要判定データとを統合してメタデータを生成して、その生成したメタデータを記録部106aに記録する。例えば、メタデータ生成部105aは、図22に示すように、符号化後の動画像フレームf1の分割後の各TSパケットのうちの先頭のTSパケットの識別情報PID=Kと、動画像フレームf1に対応する要不要判定データとを統合することにより動画像フレームf1に対応するメタデータを生成して記録部106aに記録する。また、メタデータ生成部105aは、符号化後の動画像フレームf2の分割後の各TSパケットのうちの先頭のTSパケットの識別情報PID=K+n+1と、動画像フレームf2に対応する要不要判定データとを統合することにより動画像フレームf2に対応するメタデータを生成して記録部106aに記録する。なお、要不要判定データと統合される識別情報PIDは、符号化後の動画像フレームの分割後の各TSパケットのうちの先頭のTSパケットの識別情報PIDに限定されない。
 なお、画像符号化部104aは、外部から画像処理装置100aに入力される動画像を符号化するとともに、その符号化後の動画像の各動画像フレームにそれぞれ識別情報を付与して記録部106aに記録するように構成してもよい。この場合、画像符号化部104aにおいて各動画像フレームにそれぞれ付与された識別情報と、記録部106a内の記録位置を示す情報との対応関係を示す識別情報/記録位置テーブルが記録部106aに備えられる。また、メタデータ生成部105aは、符号化後の動画像フレームに付与された識別情報と、その動画像フレームに対応する要不要判定データとを統合することによりメタデータを生成して、その生成したメタデータを記録部106aに記録する。
 また、図21に示す画像読出し装置108aは、例えば、パーソナルコンピュータなどであり、要不要判定部107aと、読出し用識別情報/記録位置テーブル110aと、読出し用記録位置/データ状態情報テーブル111aと、読出し制御部112aと、読出し部113aと、制御処理部114aとを備える。なお、制御処理部114aは、画像読出し装置108a内の各部の動作を制御するものとする。また、要不要判定部107a、読出し制御部11a2、読出し部113a、及び制御処理部114aなどは、例えば、マイクロコンピュータなどにより構成されるものとする。
 要不要判定部107aは、記録部106aから読み出したメタデータにおける要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定する。
 読出し用識別情報/記録位置テーブル110aは、記録部106a内の識別情報/記録位置テーブルと同じ内容のテーブルであり、例えば、図23Aに示すディレクトリと同様とする。
 読出し用記録位置/データ状態情報テーブル111aは、記録部106a内の記録位置/データ状態情報テーブルと同じ内容のテーブルであり、例えば、図23Bに示すFATと同様とする。
 読出し制御部112aは、読出し用識別情報/記録位置テーブル110aや読出し用記録位置/データ状態情報テーブル111aを用いて、記録部106aに記録される動画像ファイルの各動画像フレームのうち、要不要判定部107aにより必要な動画像フレームであると判定された動画像フレームのみを記録部106aから読み出す。
 読出し部113aは、読出し制御部112aにより記録部106aから読み出された動画像ファイルを、画像読出し装置108aの内部若しくは外部で実行される動画像の編集プログラムや再生プログラム、又は、画像読出し装置108aの内部若しくは外部に設けられる表示装置に出力する。
 図24は、画像読出し装置108aの動作の一例を示すフローチャートである。
 まず、要不要判定部107aは、画像読出し装置108aの内部又は外部の動画像の編集プログラムや再生プログラムなどから記録部106a内の動画像ファイルの読出し要求などがあると(S11aがYes)、その読出し要求などに示される動画像ファイルの各動画像フレームのうちの1以上の動画像フレームに対応するメタデータを記録部106aから読み出す(S12a)。
 次に、要不要判定部107aは、読み出したメタデータにおける要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームであるか否かを判定する(S13a)。
 必要な動画像フレームではないと判定した場合(S13aがNo)、要不要判定部107aは、読出し要求などに示される動画像ファイルの各動画像フレームのうち、必要な動画像フレームが全て記録部106aから読み出されたか否かを判断する(S14a)。
 要不要判定部107aは、必要な動画像フレームが全て読み出されたと判断した場合(S14aがYes)、動画像ファイルの読出し処理を終了し、必要な動画像フレームが全て読み出されていないと判断した場合(S14aがNo)、S12aに戻り、次の1以上の動画像フレームに対応するメタデータを記録部106aから読み出す。
 また、上記S13aにおいて、記録部106aから読み出したメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームであると判定された場合(S13aがYes)、読出し制御部112aは、読出し用識別情報/記録位置テーブル110a及び読出し用記録位置/データ状態情報テーブル111aを参照して(S15a)、その必要な動画像フレームを記録部106aから読み出し(S16a)、必要な動画像フレームが全て読み出されたか否かを判断する(S14a)。
 例えば、図22に示す動画像フレームf2が必要と判定された場合、読出し制御部112aは、図23Aに示すディレクトリを用いて、動画像フレームf2の識別情報PID=K+n+1に対応する記録部106a内のクラスタの位置を示すクラスタ番号として「0003」を特定する。次に、読出し制御部112aは、図23Bに示すFATを用いて、特定したクラスタ番号「0003」に記録されるデータを読み出すとともに、次のクラスタ番号「0004」に記録されるデータを読み出す。
 なお、図24に示すフローチャートでは、メタデータ毎に、すなわち、動画像フレーム毎に、動画像フレームの要不要判定を行う構成であるが、所定の動画像フレーム数毎に、動画像フレームの要不要判定を行うように構成してもよい。なお、上記所定の動画像フレーム数は、動画像の編集時や再生時に必要な動画像フレームの量に基づいて、ユーザなどにより予め設定されていてもよい。このように構成することにより、要不要判定部107aの演算量を低減することができる。
 また、画像読出し装置108aは、記録部106aに記録される全ての識別情報と、それら識別情報にそれぞれ対応する記録部106aの記録位置を示す情報とが対応付けられたテーブルを備えていてもよい。この場合、読出し制御部112aは、このテーブルを用いて、要不要判定部107aにより必要な動画像フレームと判定された動画像フレームの識別情報に対応する記録部106aの記録位置に記録されるデータのみを記録部106aから読み出すように構成してもよい。
 図21に示す画像処理システムは、編集作業や再生作業の前段階において、動画像ファイルの各動画像フレームのうち、必要な動画像フレームと判定された動画像フレームを記録部106aから読み出す構成であるため、動画像ファイルを記録部106aから読み出す際、不要な動画像フレーム以外が読み出される。このように、編集作業や再生作業の前段階において不要な動画像フレームが除かれた動画像ファイルを記録部106aから読み出すことができるため、編集作業時や再生作業時において、動画像ファイルを編集用プログラムや再生用プログラムにロードする時間を短縮することができ、編集作業や再生作業の効率低下を抑えることができる。
 また、図21に示す画像処理システムは、必要な動画像フレームに対応する記録部106aの記録位置を特定するために、動画像フレームの分割後の各データや各動画像フレームに付与される識別情報を使用する構成であるため、メタデータを生成する際やメタデータを読み出す際のデータ処理量を少なくすることができ、画像処理装置100aや画像読出し装置108aにかかる負荷を抑えることができる。
 また、画像符号化部104aは、入力される動画像に対して、MPEG形式の符号化を行う場合、例えば、図25に示すように、SH(Sequence Header)及びGOP(Group Of Picture)の圧縮単位(例えば、Iフレーム(Intra Picture)、B1フレーム~B3フレーム(Bidirectionally Predictive Picture)、Pフレーム(Predictive Picture))で符号化を行う。この場合、読出し制御部112aは、必要な動画像フレームが含まれるGOPを記録部106aから読み出す。図25の例では、必要な動画像の先頭フレームB1が含まれるGOPに対応するクラスタ番号「0002」に記録されるデータを記録部106aから読み出すとともに、必要な動画像の末尾フレームB2’が含まれるGOPに対応するクラスタ番号「0014」に記録されるデータを記録部106aから読み出す。
 図26Aは、画像処理装置100aの実施例1としての撮像装置600aを備える画像処理システムを示す図である。なお、図21に示す構成と同じ構成には同じ符号を付しその構成の説明を省略する。
 図26Aに示す撮像装置600aは、例えば、デジタルカメラなどであり、撮像部101aと、画像処理部102aと、要不要判定データ生成部103aと、画像符号化部104aと、メタデータ生成部105aと、制御処理部109aとを備える。
 撮像部101aは、例えば、レンズによってCCD(Charge Coupled Device)などの撮像素子に結像される被写体像をその撮像素子において電気信号に変換し静止画像フレーム又は複数の動画像フレームからなる動画像を得る。
 画像処理部102aは、撮像部101aにより得られる静止画像又は動画像の各動画像フレームに対して、シャープネス補正、コントラスト補正、輝度・色差信号生成、及びホワイトバランス補正などの各種画像処理を行う。
 画像符号化部104aは、画像処理後の静止画像フレームに対してJPEG(Joint Photographic Experts Group)形式などの符号化を行う。また、画像符号化部104aは、画像処理後の動画像に対してMPEG形式などの符号化を行う。
 図26Aに示す撮像装置600aの特徴とする点は、要不要判定データ生成部103aとして被写体検出処理部601aを備え、その被写体検出処理部601aにより、画像処理後の動画像の各動画像フレームにおいて、それぞれ、要不要判定データとしての「被写体の位置」及び「被写体のサイズ」が検出され、メタデータ生成部105aにおいて、検出された「被写体の位置」及び「被写体のサイズ」と、識別情報PIDとが統合されてメタデータとして記録部106aに記録される点である。
 図27は、図26Aに示す要不要判定部107aの動作の一例を示すフローチャートである。
 まず、要不要判定部107aは、記録部106aから読み出したメタデータに示される「被写体の位置」及び「被写体のサイズ」を入力する(S21a)。なお、被写体検出処理部601aは、画像処理後の動画像フレーム内において被写体を検出した後、その検出した被写体を囲む矩形範囲を被写体エリアとし、その被写体エリアの左上の画素位置(x0,y0)を「被写体の位置」とする。また、被写体検出処理部601aは、「被写体のサイズ」として被写体エリアの横方向の画素数をWとするとともに被写体エリアの縦方向の画素数をHとする。また、被写体検出処理部601aは、動画像フレームから被写体が検出されない場合、x0を0よりも小さい値にする。また、動画像フレームの左上の画素位置を(1,1)とする。
 次に、要不要判定部107aは、x0が0よりも小さいか否か、すなわち、被写体が検出されていないか否かを判断する(S22a)。
 被写体が検出されていると判断した場合(S22aがNo)、要不要判定部107aは、Wが閾値Thr_Wよりも小さいか否か又はHが閾値Thr_Hよりも小さいか否か、すなわち、被写体が所定サイズよりも小さいか否かを判断する(S23a)。なお、閾値Thr_Wや閾値Thr_Hは、ユーザなどにより予め設定されていてもよい。
 被写体が所定サイズよりも大きいと判断した場合(S23aがNo)、要不要判定部107は、x0+W/2が閾値Thr_L_xよりも小さいか否か、すなわち、被写体エリアが動画像フレームの左端より外側に外れているか否かを判断する(S24a)。なお、閾値Thr_L_xは、ユーザなどにより予め設定されていてもよい。
 被写体エリアが動画像フレームの左端より外側に外れていないと判断した場合(S24aがNo)、要不要判定部107aは、x0+W/2が閾値Thr_R_xよりも大きいか否か、すなわち、被写体エリアの右端が動画像フレームの右端より外側に外れているか否かを判断する(S25a)。なお、閾値Thr_R_xは、ユーザなどにより予め設定されていてもよい。
 被写体エリアの右端が動画像フレームの右端より外側に外れていないと判断した場合(S25aがNo)、要不要判定部107aは、y0+H/2が閾値Thr_U_yよりも大きいか否か、すなわち、被写体エリアの上端が動画像フレームの上端より外側に外れているか否かを判断する(S26a)。なお、閾値Thr_U_yは、ユーザなどにより予め設定されていてもよい。
 被写体エリアの上端が動画像フレームの上端より外側に外れていないと判断した場合(S26aがNo)、要不要判定部107aは、y0+H/2が閾値Thr_D_yよりも小さいか否か、すなわち、被写体エリアの下端が動画像フレームの下端より外側に外れているか否かを判断する(S27a)。なお、閾値Thr_U_yは、ユーザなどにより予め設定されていてもよい。
 被写体エリアの下端が動画像フレームの下端より外側に外れていないと判断した場合(S27aがNo)、要不要判定部107aは、その動画像フレームを編集時や再生時に必要な動画像フレームであると判定して、記録部106aから読み出したメタデータにおける識別情報に対応する動画像フレームが編集時や再生時に必要な動画像フレームである旨を示す要不要判定フラグFLG=1とともに、その識別情報を読出し制御部112aに出力する(S28a)。例えば、要不要判定部107aは、図28に示すように、被写体が所定サイズよりも大きく、かつ、被写体が動画像フレームの中央付近に存在している識別情報PID=8~11の各動画像フレームを編集時や再生時に必要な動画像フレーム(OK)として判定する。
 また、要不要判定部107aは、「被写体が検出されていない(S22aがYes)」、「被写体が所定サイズよりも小さい(S23aがYes)」、「被写体エリアが動画像フレームの左端より外側に外れている(S24aがYes)」、「被写体エリアが動画像フレームの右端より外側に外れている(S25aがYes)」、「被写体エリアが動画像フレームの上端より外側に外れている(S26aがYes)」、及び「被写体エリアが動画像フレームの下端より外側に外れている(S27aがYes)」の少なくとも1つを判断すると、その動画像フレームを編集時や再生時に不要な動画像フレームであると判定して、記録部106aから読み出したメタデータにおける識別情報に対応する動画像フレームが編集時や再生時に不要な動画像フレームである旨を示す要不要判定フラグFLG=-1とともに、その識別情報を読出し制御部112aに出力する(S28a)。例えば、要不要判定部107aは、図28に示すように、被写体が所定サイズよりも小さい識別情報PID=7の動画像フレームや被写体が動画像フレームから外れている識別情報PID=12の動画像フレームを編集時や再生時に不要な動画像フレーム(NG)として判定する。
 そして、読出し制御部112aは、要不要判定部107aから要不要判定フラグFLG=1及び識別情報が出力されると、その識別情報に対応する動画像フレームを記録部106aから読み出し、要不要判定部107aから要不要判定フラグFLG=-1及び識別情報が出力されると、その識別情報に対応する動画像フレームを記録部106aから読み出さない。
 図26Aに示す画像読出し装置108aは、被写体の位置やサイズに応じて、動画像フレームの要不要が判定されるため、スポーツやレースの観戦時など被写体が激しく動く場合において取得される動画像ファイルの読出し時のデータ量の削減に有効である。
 なお、図27に示す要不要判定部107aの動作例では、メタデータに記述されている構図指標は被写体の位置やサイズに基づいており、動画像フレームの要不要判定を行う構成であるが、図29に示すように、同じような構図の動画像フレームを連続して取得されるとき、それらの動画像フレームを編集時や再生時に不要な動画像フレームと判定するように構成してもよい。例えば、要不要判定部107aにおいて、図29に示す識別情報PID=7に対応する動画像フレームの構図と、識別情報PID=8、9に対応する動画像フレームの構図との差異が所定値以下であると判断されるとき、読出し制御部112aは、識別情報PID=9以降の動画像フレームを記録部106aから読み出さないようにする。また、構図の差異が所定値以下のフレームが所定数以上連続する場合に、読出し制御部112aは、連続するフレームの一部に相当する識別情報の動画像フレームを記録部106aから読み出さないようにする。
 なお、上記フレーム間の差異の測定方法としては、図29に示した、構図指標すなわち被写体の位置サイズの検出の差異の他に、画像の統計量に基づきフレーム間の差異を求めとも良い。フレーム間のレベル差の差分の合計値が所定値以下の場合、比較するフレームのヒストグラムの変化量の合計値が所定値以下の場合を不要とする等を使っても良い。フレーム間の差分を用いる場合、例えば、図26Bに示すように、被写体検出処理部103aの代わりにフレーム間差分を積分する差分演算部1031a手段を備える。また、ヒストグラムを用いる場合には、例えば、図26Cに示すように、被写体検出処理部103aの代わりにヒストグラムを算出しフレーム間のヒストグラムの差分またはその積分を計算するヒストグラム差分演算部1032aを備える。
 図30は、画像処理装置100aの実施例2としての撮像装置1000aを備える画像処理システムを示す図である。なお、図26に示す構成と同じ構成には同じ符号を付しその構成の説明を省略する。
 図30に示す撮像装置1000aの特徴とする点は、要不要判定データ生成部103aとしてフォーカス情報処理部1001aを備え、そのフォーカス情報処理部1001aにより、画像処理後の動画像の各動画像フレームに対して、それぞれ、要不要判定データとしての「フォーカス情報」が設定され、メタデータ生成部105aにより、「フォーカス情報」と識別情報PIDとが統合されてメタデータとして記録部106aに記録される点である。
 図31は、図30に示す要不要判定部107aの動作の一例を示すフローチャートである。
 まず、要不要判定部107aは、記録部106aから読み出したメタデータに示される「フォーカス情報」を入力する(S31a)。なお、フォーカス情報処理部1001aは、撮像部101aが動画像フレームを取得する度に、その動画像フレームに対応するコントラスト評価値C0を画像処理部102aから得るとともに、フォーカスレンズのレンズ位置L0を撮像部101aから得てメタデータ生成部105aへ出力する。また、画像処理部102aは、フォーカスができていないとき、すなわち、フォーカスレンズの焦点が合っていないとき、コントラスト評価値C0を0よりも小さい値にする。
 次に、要不要判定部107aは、C0が0以上である、すなわち、フォーカスレンズの焦点が合っていると判断した場合(S32aがNo)、今回取得された動画像フレームに対応するレンズ位置L0_nを要不要判定部107aの内部又は外部にある記憶部に保持する(S33a)。
 次に、要不要判定部107aは、今回取得された動画像フレームに対応するレンズ位置L0_nと前回取得された動画像フレームに対応するレンズ位置L0_n-1とを上記記憶部から読み出し(S34a)、それらレンズ位置L0_nとレンズ位置L0_n-1との差分の絶対値が閾値Thr_Lよりも大きいか否か、すなわち、フォーカスが安定していないか否かを判断する(S35a)。なお、閾値Thr_Lは、ユーザなどにより予め設定されていてもよい。
 フォーカスが安定していると判断した場合(S35aがNo)、要不要判定部107aは、その動画像フレームを編集時や再生時に必要な動画像フレームであると判定して、記録部106aから読み出したメタデータにおける識別情報に対応する動画像フレームが編集時や再生時に必要な動画像フレームである旨を示す要不要判定フラグFLG=1とともに、その識別情報を読出し制御部112aに出力する(S36a)。
 また、要不要判定部107は、フォーカスができていないと判断した場合(S32aがYes)又はフォーカスが安定していないと判断した場合(S35aがYes)、その動画像フレームを編集時や再生時に不要な動画像フレームであると判定して、記録部106から読み出したメタデータにおける識別情報に対応する動画像フレームが編集時や再生時に不要な動画像フレームである旨を示す要不要判定フラグFLG=-1とともに、その識別情報を読出し制御部112aに出力する(S37a)。
 そして、読出し制御部112aは、要不要判定部107aから要不要判定フラグFLG=1及び識別情報が出力されると、その識別情報に対応する動画像フレームを記録部106aから読み出し、要不要判定部107aから要不要判定フラグFLG=-1及び識別情報が出力されると、その識別情報に対応する動画像フレームを記録部106aから読み出さない。
 図30に示す画像読出し装置108aでは、フォーカスができていないか否か又はフォーカスが安定していないか否かに応じて、動画像フレームの要不要が判断されるため、例えば、被写体だけでなく撮影者も移動している場合において取得される動画像ファイルの読出し時のデータ量の削減に有効である。
 図32は、画像処理装置100aの実施例3としての撮像装置1200aを備える画像処理システムを示す図である。なお、図26に示す構成と同じ構成には同じ符号を付しその構成の説明を省略する。
 図32に示す撮像装置1200aの特徴とする点は、要不要判定データ生成部103aとしてズーム情報処理部1201aを備え、そのズーム情報処理部1201aにより、画像処理後の動画像の各動画像フレームに対して、それぞれ、要不要判定データとしての「ズーム情報」が設定され、メタデータ生成部105aにより、「ズーム情報」と識別情報PIDとが統合されてメタデータとして記録部106aに記録される点である。
 図33は、図32に示す要不要判定部107aの動作の一例を示すフローチャートである。
 まず、要不要判定部107aは、記録部106aから読み出したメタデータに示される「ズーム情報」を入力する(S41a)。なお、ズーム情報処理部1201aは、撮像部101aが動画像フレームを取得する度に、その動画像フレームに対応するズーム情報Z0(例えば、ズームレンズのレンズ位置やレンズ移動量など)を撮像部101aから得てメタデータ生成部105aへ出力する。
 次に、要不要判定部107aは、入力されるズーム情報Z0を要不要判定部107aの内部又は外部にある記憶部に保持する(S42a)。
 次に、要不要判定部107aは、今回取得された動画像フレームに対応するズーム情報Z0_nと前回取得された動画像フレームに対応するズーム情報Z0_n-1とを上記記憶部から読み出し(S43a)、それらズーム情報Z0_nとズーム情報Z0_n-1との差分の絶対値が閾値Thr_Zよりも大きいか否か、すなわち、ズームレンズのレンズ位置が安定していないか否かを判断する(S44a)。なお、閾値Thr_Zは、ユーザなどにより予め設定されていてもよい。
 ズームレンズのレンズ位置が安定していると判断した場合(S44aがNo)、要不要判定部107aは、その動画像フレームを編集時や再生時に必要な動画像フレームであると判定して、記録部106aから読み出したメタデータにおける識別情報に対応する動画像フレームが編集時や再生時に必要な動画像フレームである旨を示す要不要判定フラグFLG=1とともに、その識別情報を読出し制御部112aに出力する(S45a)。
 また、要不要判定部107aは、ズームレンズのレンズ位置が安定していないと判断した場合(S44aがYes)、その動画像フレームを編集時や再生時に不要な動画像フレームであると判定して、記録部106aから読み出したメタデータにおける識別情報に対応する動画像フレームが編集時や再生時に不要な動画像フレームである旨を示す要不要判定フラグFLG=-1とともに、その識別情報を読出し制御部112aに出力する(S46a)。
 そして、読出し制御部112aは、要不要判定部107aから要不要判定フラグFLG=1及び識別情報が出力されると、その識別情報に対応する動画像フレームを記録部106aから読み出し、要不要判定部107aから要不要判定フラグFLG=-1及び識別情報が出力されると、その識別情報に対応する動画像フレームを記録部106aから読み出さない。
 図32に示す画像読出し装置108aでは、ズームレンズのレンズ位置が安定していないか否かに応じて、動画像フレームの要不要が判断されるため、例えば、被写体が撮影者に対して前後方向に移動している場合において取得される動画像ファイルの読出し時のデータ量の削減に有効である。
 なお、動画像の編集時や再生時に必要な動画像フレームの要不要判定処理に使用される情報は、上述したような被写体の位置やサイズ、フォーカス情報、又はズーム情報に限定されない。例えば、画像処理後の各動画像フレームの輝度階調のヒストグラムを使用してもよい。
 また、上述した被写体の位置やサイズ、フォーカス情報、ズーム情報、及び輝度階調のヒストグラムのうち、2つ以上の情報を組み合わせて、動画像の編集時や再生時に必要な動画像フレームの要不要判定処理に使用してもよい。
 図34は、画像処理装置100aの実施例4としての撮像装置1400aを備える画像処理システムを示す図である。なお、図26に示す構成と同じ構成には同じ符号を付しその構成の説明を省略する。
 図34に示す撮像装置1400aの特徴とする点は、要不要判定データ生成部103aとして無線アンテナ1401a及び受信信号強度検出部1402aを備え、受信信号強度検出部1402aにより、画像処理後の動画像の各動画像フレームに対して、それぞれ、要不要判定データとしての受信信号強度情報(RSSI:Received Signal Strength Indication)R0が検出され、メタデータ生成部105aにより、受信信号強度情報R0と識別情報PIDとが統合されてメタデータとして記録部106aに記録される点である。なお、無線アンテナ1401aは、被写体に備えられる送信機から送信される信号や撮像装置1400aから送信され被写体に反射した信号を受信するものとする。
 図35は、図34に示す要不要判定部107aの動作の一例を示すフローチャートである。
 まず、要不要判定部107aは、記録部106aから読み出したメタデータに示される受信信号強度情報R0を入力する(S51a)。なお、受信信号強度検出部1402aは、撮像部101aが動画像フレームを取得する度に、その動画像フレームに対応させて、無線アンテナ1401aにより受信される受信信号のレベルを受信信号強度情報R0としてメタデータ生成部105aへ出力する。
 次に、要不要判定部107aは、入力される受信信号強度情報R0が閾値Thr_Rよりも大きいか否か、すなわち、撮像装置1400aに対して被写体が遠いか否かを判断する(S52a)。なお、閾値Thr_Rは、ユーザなどにより予め設定されていてもよい。
 撮像装置1400aに対して被写体が遠くないと判断した場合(S52aがNo)、要不要判定部107aは、その動画像フレームを編集時や再生時に必要な動画像フレームであると判定して、記録部106aから読み出したメタデータにおける識別情報に対応する動画像フレームが編集時や再生時に必要な動画像フレームである旨を示す要不要判定フラグFLG=1とともに、その識別情報を読出し制御部112aに出力する(S53a)。例えば、要不要判定部107aは、図36に示すように、受信信号強度情報R0が閾値Thr_Rよりも大きい識別情報PID=15、22の各動画像フレームを編集時や再生時に必要な動画像フレーム(OK)として判定する。
 また、要不要判定部107aは、撮像装置1400aに対して被写体が遠いと判断した場合(S52aがYes)、その動画像フレームを編集時や再生時に不要な動画像フレームであると判定して、記録部106aから読み出したメタデータにおける識別情報に対応する動画像フレームが編集時や再生時に不要な動画像フレームである旨を示す要不要判定フラグFLG=-1とともに、その識別情報を読出し制御部112aに出力する(S54a)。例えば、要不要判定部107aは、図36に示すように、受信信号強度情報R0が閾値Thr_Rよりも小さい識別情報PID=16~21の各動画像フレームを編集時や再生時に不要な動画像フレーム(NG)として判定する。
 そして、読出し制御部112aは、要不要判定部107aから要不要判定フラグFLG=1及び識別情報が出力されると、その識別情報に対応する動画像フレームを記録部106aから読み出し、要不要判定部107aから要不要判定フラグFLG=-1及び識別情報が出力されると、その識別情報に対応する動画像フレームを記録部106aから読み出さない。
 図34に示す画像読出し装置108aでは、受信信号強度情報R0に応じて、動画像フレームの要不要が判定されるため、例えば、撮像装置1400aに対して被写体が前後に移動している場合において取得される動画像ファイルの読出し時のデータ量の削減に有効である。
 また、上述の撮像装置1400aでは、要不要判定部107aにおいて、受信信号強度情報R0が閾値Thr_Rよりも大きいか否かに基づいて、動画像フレームの要不要の判定が行われる構成であるが、撮像装置1400aの受信信号強度検出部1402aにおいて、受信信号強度情報R0が閾値Thr_Rよりも大きいか否かに基づいて、動画像フレームの要不要の判定が行われるように構成してもよい。このように構成する場合、メタデータ生成部105aにおいて、必要な動画像フレームであることを示す要不要判定フラグFLG=1と、その動画像フレームに対応する識別情報とが統合されてメタデータが生成される。また、読出し制御部112aは、要不要判定フラグFLG=1を含むメタデータにおける識別情報に対応する動画像フレームのみを記録部106aから読み出す。このように構成される画像読出し装置108aでは、要不要判定部107aを省略することができる。
 なお、図21に示す画像処理システムでは、画像処理装置100aと、画像読出し装置108aとがそれぞれ独立した装置で構成されているが、図37に示すように、画像読出し装置108aの機能を画像処理装置100aに含めて一体の装置で構成してもよい。図37に示す画像処理装置100aの各部の動作は上述した動作と同様であるため説明を省略する。
 また、上記各実施形態において、要不要判定部107aが識別情報とともに要不要判定フラグFLG=1のみを読出し制御部112aに出力し、読出し制御部112aが要不要判定フラグFLG=1及び識別情報を受け取ったときだけ読出し動作を行うように構成してもよい。
 図38は、本発明の他の実施形態の画像処理装置を示す図である。なお、図38に示す画像処理装置10は、例えば、複数の画像データの編集作業や再生作業の効率を向上させることを目的とする。
 図38に示す画像処理装置10は、入力部11と、処理部12と、出力部13と、特徴データ取得部14と、基準特徴データ取得部15と、特徴データ評価部16と、制御処理部17とを備える。なお、入力部11と特徴データ取得部14とを一体に構成してもよい。また、本願における画像処理装置とは、画像データの処理に限定されず、画像の特徴データを用いた画像処理に用いる画像の評価や要不要判定など、画像に関連するデータの処理を意味するものとする。
 入力部11は、画像データ(例えば、動画や複数の静止画)を外部(例えば、外部サーバや撮像装置など)から取得する。
 処理部12は、入力部11により取得される画像データのうち、制御処理部17により要判定された画像データに対して、例えば、シャープネス補正、コントラスト補正、輝度・色差信号生成、ホワイトバランス補正、メタデータ付与、トリミング処理などの各種画像処理(制御)を行う。
 出力部13は、処理部12により各種画像処理された画像データを外部(例えば、表示装置や記録装置など)に出力する。
 特徴データ取得部14は、画像データに対応する特徴データ(例えば、時系列に並ぶ複数の静止画にそれぞれ対応するメタデータ、動画のヘッダデータ、又は、タイムコードで動画のフレームやパケットに対応するデータ)を外部から取得する。
 基準特徴データ取得部15は、基準特徴データを取得する。なお、基準特徴データ取得部15は、基準特徴データを外部から取得しても良いし、予め保存しておいても良い。なお、基準特徴データ取得部15は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、又はフラッシュメモリなどにより構成され、ハードディスクなど画像処理装置10に内蔵される記憶媒体であってもよいし、CD(Compact Disc)、DVD(Digital Versatile Disc)、メモリカード、又はUSBメモリなど画像処理装置10に着脱可能な記憶媒体であってもよい。
 特徴データ評価部16は、基準特徴データに基づいて特徴データの評価を行う。なお、基準特徴データは、例えば、画像データに対するユーザの満足度又は不満度を示すような評価項目によって評価した値とする。例えば、基準特徴データは、特徴データに対応する画像データのボケ、ブレ、暗明、色合い、鮮明度、画角ずれ、非対称、被写体のかぶりなどの評価項目によって評価した値とする。また、画像データに示される被写体が人や動物である場合、基準特徴データは、被写体の眼の開閉、顔の表情、顔の向き、眼の色(ストロボ撮影時の赤目など)などの評価項目によって評価した値とする。例えば、特徴データ評価部16は、特徴データに対応する画像データ内の輪郭線や焦点の状態により、ブレやボケ、鮮明度などを評価する。また、画像処理装置10に角速度センサや振動センサなどを備えている場合、シャッタタイミングにおけるそれらセンサの出力値を保存しておき、ブレの評価に用いることができる。また、例えば、特徴データ評価部16は、画像データ全体の輝度を演算することにより、特徴データに対応する画像データの暗明の評価を行う。また、例えば、特徴データ評価部16は、画像データ全体の色の傾向を解析することにより、特徴データに対応する画像データの色合いの評価を行う。また、例えば、特徴データ評価部16は、特徴データに対応する画像データ内のある範囲で極端な焦点ボケの発生を検知することにより、指やストラップなどが撮像レンズにかぶるなどの被写体のかぶりの評価を行う。また、例えば、特徴データ評価部16は、特徴データに対応する画像データ内の建造物、自然物、人などの垂直性や水平性を解析することにより、画角ずれの評価を行う。また、例えば、特徴データ評価部16は、特徴データに対応する画像データ内の眼の部分の解析により、眼の開閉の評価を行う。また、例えば、特徴データ評価部16は、特徴データに対応する画像データと各種表情パターンとの比較を行ったり、眼や口の形状の推定を行うことにより、顔の表情の評価を行う。また、例えば、特徴データ評価部16は、特徴データに対応する画像データにおいて眼、鼻、口、耳の互いの位置関係や顔の輪郭線などの推定を行うことにより、顔の向きの評価を行う。また、例えば、特徴データ評価部16は、特徴データと複数の基準特徴データとを比較して、その特徴データを段階的に分類して評価してもよい。また、例えば、特徴データ評価部16は、特徴データを点数化して評価してもよい。また、例えば、特徴データ評価部16は、特徴データと各項目にそれぞれ対応する基準特徴データとを比較して、特徴データの評価を各項目毎に行い、それら各項目毎の評価結果に基づいて、特徴データの総合的な評価を行うようにしてもよい。
 制御処理部17は、入力部11、処理部12、出力部13、特徴データ取得部14、基準特徴データ取得部15、及び特徴データ評価部16のそれぞれの動作を制御する。また、制御処理部17は、要不要判定部17-1を備える。要不要判定部17-1は、特徴データ評価部16の評価結果に基づいて特徴データに対応する画像データの要不要判定を行なう。なお、特徴データ取得部14、要不要判定部17-1、及び処理部12は、例えば、コンピュータとしてのDSP(Digital Signal Processor)が記録媒体に記録されるプログラムを実行することにより実現されてもよいし、コンピュータとしてのFPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)などに組み込まれるプログラムが実行されることにより実現されてもよい。また、上記記録媒体は、非一過性の記録媒体であってもよい。その非一過性の記録媒体は、特に限定されないが、例えば CD-ROM等とする。
 図39は、図38に示す制御処理部17の動作の一例を示すフローチャートである。
 まず、制御処理部17は、特徴データ取得部14により複数の画像データのうちの最初の画像データに対応する特徴データを取得させると(S21bがYes)、基準特徴データ取得部15により取得されるデータから基準特徴データを取り出し(S22b)、特徴データ評価部16により基準特徴データに基づいて特徴データの評価を行なわせる(S23b)。
 次に、制御処理部17の要不要判定部17-1は、特徴データ評価部16の評価結果に基づいて取得した特徴データに対応する画像データの要不要判定を行う(S24b)。
 不要判定の場合(S24bがNo)、制御処理部17は、特徴データ取得部14により次の画像データに対応する特徴データを取得させ(S25b)、特徴データ評価部16により基準特徴データに基づいて特徴データの評価を行なわせる(S23b)。
 一方、要判定の場合(S24bがYes)、制御処理部17は、入力部11により特徴データに対応する画像データを取得させた後(S26b)、処理部12により要判定の画像データに対して各種画像処理を行なわせて(S27b)、出力部13によりその画像処理後の画像データを出力させる(S28b)。
 そして、S23で評価した特徴データに対応する画像データが複数の画像データのうちの最後の画像データでないと判断した場合(S29bがNo)、制御処理部17は、特徴データ取得部14により次の画像データに対応する特徴データを取得させて(S25b)、特徴データ評価部16により基準特徴データに基づいて特徴データの評価を行なわせる(S23b)。
 一方、S23で評価した特徴データに対応する画像データが複数の画像データのうちの最後の画像データであると判断した場合(S29bがYes)、制御処理部17は、複数の画像データに対する画像処理を終了する。
 例えば、制御処理部17は、特徴データ取得部14により取得された特徴データに示される特徴種別が「輝度ヒストグラム」である場合、図40に示す基準特徴データ取得部15により取得されるデータテーブルから「輝度ヒストグラム」に対応する基準特徴データとして「ピーク位置範囲10~245」を取り出す。このとき、特徴データ評価部16において輝度のピーク位置が「ピーク位置範囲10~245」よりも小さいという評価結果が出力されたとき、要不要判定部17-1は、その画像データが暗すぎて必要ない画像データであると判断して、その画像データが不要判定である旨の制御データを入力部11に送る。また、特徴データ評価部16において輝度のピーク位置が「ピーク位置範囲10~245」よりも大きいという評価結果が出力されたとき、要不要判定部17-1は、その画像データが明るすぎて必要ない画像データであると判断して、その画像データが不要判定である旨の制御データを入力部11に送る。一方、特徴データ評価部16において輝度のピーク位置が「ピーク位置範囲10~245」内にあるという評価結果が出力されたとき、要不要判定部17-1は、その画像データが明るすぎず暗すぎない所望な画像データであると判断して、その画像データが要判定である旨の制御データを入力部11に送る。
 また、例えば、制御処理部17は、特徴データ取得部14により取得された特徴データに示される特徴種別が「顔検出数」である場合、図40に示す基準特徴データ取得部15により取得されるデータテーブルから「顔検出数」に対応する基準特徴データとして「1以上」を取り出す。このとき、特徴データ評価部16において顔検出数が「1以上」でないと評価結果が出力されたとき、要不要判定部17-1は、その画像データが不要判定である旨の制御データを入力部11に送る。一方、特徴データ評価部16において顔検出数が「1以上」であると評価結果が出力されたとき、要不要判定部17-1は、その画像データが要判定である旨の制御データを入力部11に送る。
 これにより、入力部11は、要判定の画像データのみを取得するため、処理部12や出力部13の出力先の負荷を低減することができる。なお、図38に示す画像処理装置10や後述する画像処理装置10では、処理部12により編集作業や再生作業を行わせているが、外部の画像処理装置の処理部を用いて編集作業や再生作業を行なわせてもよい。
 このように図38に示す画像処理装置10によれば、複数の画像データのうち、特徴データ評価部16の評価結果に基づく画像データのみに対して各種画像処理を行い外部に出力する構成であるため、出力先の編集作業や再生作業の負荷を低減することができ、それら編集作業や再生作業の効率を向上させることができる。
 また、図38に示す画像処理装置10によれば、複数の画像データのうち、特徴データ評価部16の評価結果に基づく画像データのみに対して各種画像処理を行う構成であるため、処理部12の負荷を低減することができる。
 なお、画像処理装置10は、図41Aに示すように、通信装置41、42を介して撮像装置43(撮像部)から特徴データを取得してもよい。なお、通信装置42及び撮像装置43は、通信機能付きデジタルカメラ、カメラ付き携帯電話、スマートフォン、又は通信機能を有するアダプタを介した撮像装置などにより構成される。この場合、画像処理装置10は、その特徴データに基づいて、その特徴データに対応する画像データの要不要判定を行い、要判定であった場合、その画像データを撮像装置43に要求する。そして、画像処理装置10は、要求した画像データを受信すると、その画像データ対して各種画像処理を行い、画像処理後の画像データを表示装置44に送る。すなわち、要不要判定部17-1は、要判定となった画像データを外部装置である撮像装置43に要求する。なお、要不要判定部17-1は、要判定となった画像データを他の外部装置から外部装置である撮像装置43に画像データを要求させるようにしてもよい。
 また、図41Bに示すように、撮像装置43がネットワーク45に接続されていてもよい。この場合、画像処理装置10は、通信装置42及びネットワーク45を介して撮像装置43のデータの送受信を行う。
 また、図41Cに示すように、画像処理装置10は、撮像装置46(撮像部)を備えてもよい。この場合、画像処理装置10は、撮像装置46から送られてくる特徴データに基づいて、その特徴データに対応する画像データの要不要判定を行い、要判定であった場合、その画像データを撮像装置46に要求する。そして、画像処理装置10は、要求した画像データを受信すると、その画像データ対して各種画像処理を行い、画像処理後の画像データを表示装置44に送る。また、この場合、特徴データ評価部16は、外部の状況によって基準特徴データ取得部15により取得されるデータから取り出すべき基準特徴データの見直しを行なってもよい。
 図42は、本発明の他の実施形態の画像処理装置を示す図である。なお、図38に示す構成と同じ構成には同じ符号を付しその説明を省略する。また、図42に示す画像処理装置50は、例えば、複数の画像データの編集作業や再生作業の効率を向上させることを目的とする。
 図42に示す画像処理装置50において、図38に示す画像処理装置10と異なる点は、電源状態検知部51(状態検知部)と、評価方針生成部52と、基準特徴データ生成部53と、送信部54と、受信部55とをさらに備えている点である。
 電源状態検知部51は、画像処理装置50の電源種別や電源状態を逐次検知する。例えば、電源状態検知部51は、画像処理装置50の電源種別として「AC電源」又は「DC電源」を検知したり、電源状態として「DC電源の残容量」を検知したりする。なお、電源状態検知部51は、DC電源の予想残時間、電流、電圧値などの電源状態について、瞬間値、過去の一定期間内の平均値として検知する。又は、過去の電源状態すべてをタイムスタンプとともに検知してもよい。AC電源は商用電源などの供給量に制限が無い電源であり、DC電源はバッテリー(蓄電池)などの残量や使用量に制限のある電源などを示す。
 評価方針生成部52は、電源状態検知部51が動作していることを検知すると、電源に関する評価方針を生成する。例えば、評価方針生成部52は、画像処理装置50の電源種別が「DC電源」であり、電源状態が「DC電源の残容量:20%未満」である場合、「解像度がVGA(640×480)以下の画像を取得する」という評価方針を生成する。また、例えば、評価方針生成部52は、画像処理装置50の電源種別が「DC電源」であり、電源状態が「DC電源の残容量:20%未満」である場合、「X方向、Y方向の解像度に関わらず、画像領域内の総ピクセル数が640×480以下となる画像を選択する」という評価方針を生成してもよい。
 基準特徴データ生成部53は、評価方針生成部52により生成された評価方針及び電源状態検知部51の検知結果に基づいて基準特徴データを生成する。
 図42に示す要不要判定部17-1は、特徴データに対応する画像データの要不要判定結果や画像データの識別情報を含む画像取得要求を送信部54に送る。送信部54は、要不要判定部17-1から送られてくる画像取得要求をネットワークを介してサーバ56に送信する。なお、ネットワークは、例えば、インターネット、LAN、オンチップネットワークのほか、USBやPCIなどのインタフェースでもよい。すなわち、要不要判定部17-1は、要判定となった画像データを外部装置であるサーバ56に要求する。なお、要不要判定部17-1は、要判定となった画像データを他の外部装置からサーバ56に画像データを要求させるようにしてもよい。
 サーバ56は、受信部57と、選択部58と、保存部59と、送信部60とを備える。
 受信部57は、画像処理装置50から送信される画像取得要求を受信する。
 選択部58は、受信した画像取得要求に示される識別情報に対応する画像データを保存部59に保存される複数の画像データの中から取り出す。
 送信部60は、選択部58により取り出された画像データをネットワークを介して画像処理装置50に送信する。
 画像処理装置50の受信部55は、サーバ56から送信される画像データを受信する。
 第2実施形態の入力部11は、受信部55により受信される画像データを処理部12に送る。
 図43は、基準特徴データ生成部53の動作の一例を示すフローチャートである。
 基準特徴データ生成部53は、評価方針生成部52により生成された評価方針及び電源状態検知部51の検知結果に基づいて、基準特徴データを生成した後(S61b)、その生成した基準特徴データを基準特徴データ取得部15に保存する(S62b)。
 例えば、評価方針生成部52などにより生成される評価方針として、図44に示すデータテーブルを不図示の記憶部に予め記憶しておく。基準特徴データ生成部53は、電源状態検知部51により検知された画像処理装置50の電源種別が「DC電源」であり、電源状態が「DC電源の残容量:18%」である場合、図44に示すデータテーブルから電源種別が「DC電源」、電源状態が「DC電源の残容量:20%以下」に対応する基準特徴データとして「解像度:640×480以下」を取り出し基準特徴データ取得部15に保存する。また、基準特徴データ生成部53は、電源状態検知部51により検知された画像処理装置50の電源種別が「DC電源」であり、電源状態が「DC電源の残容量:34%」である場合、図44に示すデータテーブルから電源種別が「DC電源」、電源状態が「DC電源の残容量:20%以上」に対応する基準特徴データとして「解像度:1280×960以下」を取り出し基準特徴データ取得部15に保存する。また、基準特徴データ生成部53は、電源状態検知部51により検知された画像処理装置50の電源種別が「AC電源」である場合、図43に示すデータテーブルから電源種別が「AC電源」に対応する基準特徴データとして「解像度:無制限」を取り出し基準特徴データ取得部15に保存する。すなわち、基準特徴データ生成部53は、使用可能な電源容量が規定値以下である低エネルギー状態であるとき、非低エネルギー状態と比較して、取得する画像データのデータ量が少なくなるように、基準特徴データを生成する。
 図45は、図42に示す制御処理部17の動作の一例を示すフローチャートである。
 まず、制御処理部17は、特徴データ取得部14により複数の画像データのうちの最初の画像データに対応する特徴データを取得させると(S81b)、基準特徴データ取得部15により取得されるデータから基準特徴データを取り出し(S82b)、特徴データ評価部16により基準特徴データに基づいて特徴データの評価を行なわせる(S83b)。
 次に、制御処理部17の要不要判定部17-1は、特徴データ評価部16の評価結果に基づいて取得した特徴データに対応する画像データの要不要判定を行う(S84b)。
 不要判定の場合(S84bがNo)、制御処理部17は、特徴データ取得部14により次の画像データに対応する特徴データを取得させて(S85b)、特徴データ評価部16により基準特徴データに基づいて特徴データの評価を行なわせる(S83b)。
 一方、要判定の場合(S84bがYes)、制御処理部17は、送信部54により画像取得要求をサーバ56に送信させるとともに(S86b)、受信部55により画像取得要求に対応する画像データを受信させた後(S87b)、処理部12によりその画像データに対して各種画像処理を行なわせて(S88b)、出力部13によりその画像処理後の画像データを出力させる(S89b)。
 そして、S83で評価した特徴データに対応する画像データが複数の画像データのうちの最後の画像データでないと判断した場合(S90bがNo)、制御処理部17は、特徴データ取得部14により次の画像データに対応する特徴データを取得させて(S85b)、特徴データ評価部16により基準特徴データに基づいて特徴データの評価を行なわせる(S83b)。
 一方、S83bで評価した特徴データに対応する画像データが複数の画像データのうちの最後の画像データであると判断した場合(S90bがYes)、制御処理部17は、複数の画像データに対する画像処理を終了する。
 例えば、制御処理部17は、電源状態検知部51により検知された画像処理装置50の電源種別が「DC電源」であり、電源状態が「DC電源の残容量:18%」である場合、基準特徴データ取得部15により取得されるデータから基準特徴データとして「解像度:640×480以下」を取り出す。このとき、特徴データ評価部16において特徴データに対応する画像データの解像度が「640×480」以下であるという評価結果が出力されると、要不要判定部17-1は、その画像データを要判定とする。
 一方、特徴データ評価部16において特徴データに対応する画像データの解像度が「640×480」よりも大きいという評価結果が出力されたとき、要不要判定部17-1は、その画像データを不要判定とする。
 これにより、複数の画像データのうち、特徴データ評価部16の評価結果に基づく画像データのみを処理部12や出力部13の出力先に送ることができるため、処理部12や出力部13の出力先の負荷を低減することができる。
 図46は、本発明の他の実施形態の画像処理装置を示す図である。なお、図42に示す構成と同じ構成には同じ符号を付しその説明を省略する。また、図46に示す画像処理装置90は、例えば、複数の画像データの編集作業や再生作業の効率を向上させることを目的とする。
 図46に示す画像処理装置90において、図42に示す画像処理装置50と異なる点は、電源状態検知部51の代わりに接続状態判定部91(状態検知部)を備えている点である。
 接続状態判定部91は、画像処理装置90の送信部54や受信部55から、ネットワークへの接続状態(接続又切断など)、ネットワークの種別(有線又は無線など)、ネットワークの規格(IEEE802.3abやIEEE802.11nなど)、ネットワークトラフィックに関する情報などをネットワーク情報として取得し、評価方針生成部52及び基準特徴データ生成部53にそれぞれ出力する。
 第3実施形態の評価方針生成部52は、接続状態判定部91が動作していることを検知すると、ネットワーク情報に関する評価方針を生成する。例えば、第3実施形態の評価方針生成部52は、ネットワーク種別が「有線」であり、ネットワーク占有率(ネットワークトラフィック量の上限に対する現在のネットワークトラフィック量の割合)が「50%以上」である場合、「解像度がVGA(640×480)以下の画像を取得する」という評価方針を生成する。また、評価方針生成部52は、複数の基準特徴データを組み合わせてもよい。すなわち、例えば、評価方針生成部52は、ネットワーク種別が「無線」であり、ネットワーク占有率が「80%以上」である場合、「解像度がVGA(640×480)以下で、かつ、データサイズが20KB以下の画像を取得する」という評価方針を生成してもよい。また、評価方針生成部52は、基準特徴データを組み合わせる際、評価式を用いてもよい。
 図47は、図46に示す基準特徴データ生成部53の動作の一例を示すフローチャートである。
 基準特徴データ生成部53は、評価方針生成部52により生成された評価方針及び接続状態判定部91の判定結果(ネットワーク情報)に基づいて、基準特徴データを生成した後(S101)、その生成した基準特徴データを基準特徴データ取得部15に保存する(S102)。
 例えば、評価方針生成部52などにより生成される評価方針として、図48に示すデータテーブルを不図示の記憶部に予め記憶しておく。このような場合において、ネットワークの種別が「無線」であり、ネットワークスループットの上限「50Mbps」に対する現在のネットワークスループットが「43.2Mbps」である場合、接続状態判定部91は、ネットワークの種別が「無線」であること、及び、ネットワーク占有率が「86.4%」であることを示すネットワーク情報を出力する。基準特徴データ生成部53は、接続状態判定部91から出力されるネットワーク情報が示すネットワークの種別が「無線」であり、ネットワーク占有率が「86.4%」である場合、図48に示すデータテーブルからネットワークの種別が「無線」であって、ネットワーク占有率が「80%以上」に対応する評価式として「2×3」を取り出し、特徴ID「2」に対応する基準特徴データとして「解像度:640×480以下」を取り出すとともに、特徴ID「3」に対応する基準特徴データとして「画像サイズ:20KB以下」を取り出し、それら基準特徴データと評価式を基準特徴データ取得部15に保存する。すなわち、基準特徴データ生成部53は、使用可能なネットワークの単位時間あたりのデータ転送量が規定値以下である低速状態であるとき、非低速状態と比較して、取得する画像データの総データ量が少なくなるように、基準特徴データを生成する。
 例えば、図46に示す要不要判定部17-1は、接続状態判定部91により判定されたネットワークの種別が「無線」であり、ネットワーク占有率が「86.4%」である場合、評価式「2×3」と、基準特徴データ取得部15により取得されるデータから特徴ID「2」と「3」に対応した基準特徴データとして「解像度:640×480以下」及び「画像サイズ:20KB以下」を取り出す。このとき、特徴データ評価部16において特徴データに対応する画像データの解像度が「640×480」以下であり、かつ、その画像データの画像サイズが「20KB」以下であるという評価結果が出力されると、要不要判定部17-1は、その画像データが要判定である旨の画像取得要求を送信部54によりサーバ56に送る。すなわち、要不要判定部17-1は、要判定となった画像データを外部装置であるサーバ56に要求する。なお、要不要判定部17-1は、要判定となった画像データを他の外部装置からサーバ56に画像データを要求させるようにしてもよい。
 一方、特徴データ評価部16において、特徴データに対応する画像データの解像度が「640×480」よりも大きい、あるいは、その画像データの画像サイズが「20KB」よりも大きい、という2つの評価結果の少なくとも1つが出力されたとき、要不要判定部17-1は、その画像データが不要判定である旨の画像取得要求を送信部54によりサーバ56に送る。
 これにより、複数の画像データのうち、特徴データ評価部16の評価結果に基づく画像データのみを処理部12や出力部13の出力先に送ることができるため、処理部12や出力部13の出力先の負荷を低減することができる。なお、第3実施形態で用いられる評価式は、予め記憶された評価方針によって定められているものとしたが、後述する表示部141から評価方針や評価式自体を入力することによって定めても良いし、接続状態判定部91(状態検知部)が検知した結果によって評価式または評価方針を変更したり、所定のものに定めたりしても良い。また、第2実施形態では電源状態検知部51によって検知された電源容量に関する基準特徴データにより特徴データが評価され、第3実施形態では接続状態判定部91によって判定されたネットワークとの接続状態に関する基準特徴データにより特徴データが評価される構成であるが、これら基準特徴データなど複数種類の基準特徴データが組み合わされた基準特徴データにより特徴データが評価されるように構成してもよい。このように、複数種類の基準特徴データを組み合わせて特徴データを評価することによって、編集作業や再生作業に用いられる機器やネットワークの状況に合わせて、より必要なデータの判別が適切に行なうことができる。
 図49は、本発明の他の実施形態の画像処理装置を示す図である。なお、図46に示す構成と同じ構成には同じ符号を付しその説明を省略する。また、図49に示す画像処理装置120は、例えば、複数の画像データの編集作業や再生作業の効率を向上させることを目的とする。
 図49に示す画像処理装置120において、図46に示す第2実施形態の画像処理装置90と異なる点は、内部サーバ121と、分配切替部122とをさらに備えている点である。
 内部サーバ121は、サーバ56と同様の構成をとり、サーバ56から取得される画像データのキャッシュとして機能する。例えば、サーバ56から画像処理装置120の受信部55に送信される画像データを保存する。内部サーバ121内の画像データの更新は、画像データの入力時、定期的、又は特定のイベント発生時などに行ってもよい。また、内部サーバ121は、サーバ56より容量が小さい場合、アクセス頻度の高い画像データや直前のアクセス時刻が現在時刻に近い画像データを優先的に保存するなどして保存する画像データを決定する。
 分配切替部122は、接続状態判定部91から出力されるネットワーク情報に応じて、画像取得要求の送信先を画像処理装置120の送信部54か内部サーバ121の何れか一方に切り替える。すなわち、例えば、画像処理装置120がネットワークに接続されていれば、分配切替部122は、画像取得要求をネットワークを介してサーバ56に送信し複数の画像データから所望な画像データを抽出する作業を画像処理装置120の外部に行わせる。一方、画像処理装置120がネットワークに接続されていなければ、分配切替部122は、画像取得要求を内部サーバ121に送り複数の画像データから所望な画像データを抽出する作業を画像処理装置120の内部に行わせる。また、例えば、画像処理装置120がネットワークに接続されていても、ネットワーク占有率が閾値よりも高い場合、分配切替部122は、画像取得要求を内部サーバ121に送るように構成してもよい。
 図50は、図49に示す制御処理部17の動作の一例を示すフローチャートである。
 まず、制御処理部17は、特徴データ取得部14により複数の画像データのうちの最初の画像データに対応する特徴データを取得させると(S131がYes)、基準特徴データ取得部15により取得されるデータから基準特徴データを取り出し(S132)、特徴データ評価部16により基準特徴データに基づいて特徴データの評価を行なわせる(S133)。
 次に、制御処理部17の要不要判定部17-1は、特徴データ評価部16の評価結果に基づいて取得した特徴データに対応する画像データの要不要判定を行う(S134)。
 不要判定の場合(S134がNo)、制御処理部17は、特徴データ取得部14により次の画像データに対応する特徴データを取得させて(S135)、特徴データ評価部16により基準特徴データに基づいて特徴データの評価を行なわせる(S133)。
 一方、要判定の場合(S134がYes)、制御処理部17は、画像取得要求を生成し(S136)、分配切替部122により画像取得要求の送信先として外部のサーバ56及び内部サーバ121のどちらか一方に切り替える(S137)。
 画像取得要求の送信先として外部のサーバ56に切り替えた場合(S137がNo)、制御処理部17は、送信部54により画像取得要求をサーバ56に送信させるとともに(S138)、受信部55により画像取得要求に対応する画像データを受信させる(S139)。すなわち、制御処理部17は、要判定となった画像データを外部装置であるサーバ56に要求する。なお、制御処理部17は、要判定となった画像データを他の外部装置からサーバ56に画像データを要求させるようにしてもよい。
 一方、画像取得要求の送信先として内部サーバ121に切り替えた場合(S137がYes)、制御処理部17は、画像取得要求を内部サーバ121に送り(S140)、内部サーバ121から送られてくる画像取得要求に対応する画像データを入力部11により受け取る(S141)。例えば、内部サーバ121は、画像取得要求を受け取ると、その画像取得要求に示される識別情報に対応する画像データを、不図示の保存部に記憶される複数の画像データの中から取り出し、その取り出した画像データを入力部11へ送る。
 次に、制御処理部17は、処理部12により画像データに対して各種画像処理を行なわせて(S142)、出力部13によりその画像処理後の画像データを出力させる(S143)。
 そして、S133で評価した特徴データに対応する画像データが複数の画像データのうちの最後の画像データでないと判断した場合(S144がNo)、制御処理部17は、特徴データ取得部14により次の画像データに対応する特徴データを取得させて(S135)、特徴データ評価部16により基準特徴データに基づいて特徴データの評価を行なわせる(S133)。
 一方、S133で評価した特徴データに対応する画像データが複数の画像データのうちの最後の画像データであると判断した場合(S144がYes)、制御処理部17は、複数の画像データに対する画像処理を終了する。
 なお、画像取得要求をサーバ56に送信した場合、制御処理部17は、受信した画像データを処理部12に送るとともに、内部サーバ121にキャッシュするように構成してもよい。また、画像取得要求を内部サーバ121に送った場合、制御処理部17は、内部サーバ121から入力部11へ送られる画像データを処理部12に送ってもよい。
 図51は、本発明の他の実施形態の画像処理装置を示す図である。なお、図42に示す構成と同じ構成には同じ符号を付しその説明を省略する。また、図51に示す画像処理装置140は、例えば、複数の画像データの編集作業や再生作業の効率を向上させることを目的とする。
 図51に示す画像処理装置140において、図42に示す画像処理装置50と異なる点は、電源状態検知部51の代わりに表示部141を備えている点である。
 表示部141は、例えば、タッチパネルディスプレイなどのユーザインタフェースであって、ユーザの操作により評価方針に関するユーザ意図が入力される。入力されたユーザ意図は、基準特徴データ生成部53へ送られる。
 また、図51に示す評価方針生成部52は、入力されるユーザ意図に基づいて、複数の評価方針に優先順位をつけた後、それら評価方針を基準特徴データ生成部53に送るように構成してもよい。この場合、基準特徴データ生成部53は、優先順位に従って評価方針を使用する。このときのユーザ意図は、例えば、画像データの表示速度、解像度、データ量の少なくとも何れかを優先して評価する方針を示す。
 図52は、図51に示す基準特徴データ生成部53の動作の一例を示すフローチャートである。
 基準特徴データ生成部53は、評価方針生成部52により生成された評価方針及び表示部141により入力されたユーザ意図に基づいて、基準特徴データを生成した後(S151)、その生成した基準特徴データを基準特徴データ取得部15に保存する(S152)。
 例えば、表示部141は、背景優先モードボタン及び被写体優先モードボタンを備え、ユーザによりどちらか一方のボタンが押されると、その押されたボタンに対応するモードをユーザ意図として基準特徴データ生成部53へ送る。背景優先モードボタンが押された場合、基準特徴データ生成部53は、背景を楽しめるように、不図示のカメラの加速度や速度の上限値を低めに設定する。例えば、基準特徴データ生成部53は、図53Aに示すように、基準特徴データとしてのカメラ加速度の上限値を「背景優先モード」に対応する「1G以下」に設定するとともに、基準特徴データとしてのカメラ速度の上限値を「背景優先モード」に対応する「1cm/s以下」に設定する。一方、被写体優先モードボタンが押された場合、基準特徴データ生成部53は、被写体の動きを楽しめるように、不図示のカメラの加速度や速度の上限値を高めに設定する。例えば、基準特徴データ生成部53、図53Aに示すように、基準特徴データとしてのカメラ加速度の上限値を「被写体優先モード」に対応する「5G以下」に設定するとともに、基準特徴データとしてのカメラ速度の上限値を「被写体優先モード」に対応する「5cm/s以下」に設定する。これらの組み合わせは、予め評価方針生成部52に保存されていてもよいし、ユーザが編集できるようなユーザインタフェースを備えてもよい。また、設定するパラメータの種類は限定されない。また、モードの選択は、上記のようなボタンによる二者択一ではなく、スライドバーによるアナログな設定でもよい。
 また、例えば、表示部141は、プロモードボタン及びアマチュアモードボタンを備え、ユーザによりどちらか一方のボタンが押されると、その押されたボタンに対応するモードをユーザ意図として基準特徴データ生成部53へ送る。プロモードボタンが押された場合、基準特徴データ生成部53は、編集のバリエーションが豊かになるように、被写体が検出された画像データからさらに前後5枚の画像データを抽出基準としたり、不図示のカメラの加速度・速度の上限値を高めに設定する。例えば、基準特徴データ生成部53は、図53Bに示すように、基準特徴データとしての画像抽出基準を「プロモード」に対応する「被写体検出フレームの前後5フレーム」に、基準特徴データとしてのカメラ加速度の上限値を「プロモード」に対応する「5G以下」に、基準特徴データとしてのカメラ速度の上限値を「プロモード」に対応する「5cm/s以下」に設定する。一方、アマチュアモードボタンが押された場合、基準特徴データ生成部53は、手間いらずの編集を実現するために、被写体が検出された画像データのみを抽出基準としたり、不図示のカメラの加速度・速度の上限値を低めに設定する。例えば、基準特徴データ生成部53は、図53Bに示すように、基準特徴データとしての画像抽出基準を「アマチュアモード」に対応する「被写体検出フレームのみ」に、基準特徴データとしてのカメラ加速度の上限値を「アマチュアモード」に対応する「1G以下」に、基準特徴データとしてのカメラ速度の上限値を「アマチュアモード」に対応する「1cm/s以下」に設定する。これらの組み合わせは、予め評価方針生成部52に保存されていてもよいし、ユーザが編集できるようなユーザインタフェースを備えてもよい。また、設定するパラメータの種類は限定されない。また、モードの選択は、上記のようなボタンによる二者択一ではなく、スライドバーによるアナログな設定でもよい。
 なお、これらのユーザ意図、評価方針の種類は、上述の構成に限定されない。また、モードの切り替えのタイミングは、例えば、その日の目的に合わせて撮影前に設定してもよいし、毎回画像データのプレビュー前に設定してもよい。さらに、表示部141に、優先度認識部を備え、不図示のカメラの撮像画像に映り込んだサイン(ユーザの手で形作られたチョキや握った手の親指を上の方向に立てたものなど)、不図示のカメラを振る、あるいは予めユーザによって撮影時に付与されたレーティング情報をもとに、シーンごとにユーザが意図的に優先度を上げてもよい。
 次に、図51に示す制御処理部17の動作の一例を説明する。
 まず、制御処理部17は、特徴データ取得部14により複数の画像データのうちの最初の画像データに対応する特徴データを取得させると、基準特徴データ取得部15により取得されるデータから基準特徴データを取り出し、 特徴データ評価部16により基準特徴データに基づいて特徴データの評価を行わせる。
 次に、制御処理部17の要不要判定部17-1は、特徴データ評価部16の評価結果に基づいて特徴データに対応する画像データの要不要判定を行う。
 不要判定の場合、制御処理部17は、特徴データ取得部14により次の画像データに対応する特徴データを取得させて、特徴データ評価部16により基準特徴データに基づいて特徴データの評価を行わせる。
 一方、要判定の場合、制御処理部17は、送信部54により画像取得要求をサーバ56に送信させるとともに、受信部55により画像取得要求に対応する画像データを受信させた後、処理部12によりその画像データに対して各種画像処理を行わせて、出力部13によりその画像処理後の画像データを出力させる。
 そして、特徴データ評価部16で評価した特徴データに対応する画像データが複数の画像データのうちの最後の画像データでないと判断した場合、制御処理部17は、特徴データ取得部14により次の画像データに対応する特徴データを取得させて、特徴データ評価部16により基準特徴データに基づいて特徴データの評価を行わせる。
 一方、特徴データ評価部16で評価した特徴データに対応する画像データが複数の画像データのうちの最後の画像データであると判断した場合、制御処理部17は、複数の画像データに対する画像処理を終了する。
 例えば、制御処理部17は、表示部141においてユーザによりプロモードボタンが押された場合、基準特徴データ取得部15により取得されるデータから画像抽出基準として「被写体検出フレームの前後5フレーム」、カメラ加速度の上限値として「5G以下」、及びカメラ速度の上限値として「5cm/s以下」を取り出す。このとき、特徴データ評価部16において特徴データに対応する画像データが「被写体検出フレームの前後5フレーム」以内であるという評価結果、特徴データに対応する画像データの撮影時のカメラ加速度が「5G」以下であるという評価結果、及び特徴データに対応する画像データの撮影時のカメラ速度が「5cm/s」以下であるという評価結果が出力されると、要不要判定部17-1は、その画像データを要判定とする。
 一方、特徴データ評価部16において特徴データに対応する画像データが「被写体検出フレームの前後5フレーム」以内でない、特徴データに対応する画像データのカメラ加速度が「5G」以下でない、及び特徴データに対応する画像データのカメラ速度の上限値が「5cm/s」以下でないという評価結果のうち少なくとも1つの評価結果が出力されると、要不要判定部17-1は、その画像データを不要判定とする。
 これにより、複数の画像データのうち、特徴データ評価部16の評価結果に基づく画像データのみを処理部12や出力部13の出力先に送ることができるため、処理部12や出力部13の出力先の負荷を低減することができる。
 図54は、本発明の他の実施形態の画像処理装置を示す図である。なお、図38に示す構成と同じ構成には同じ符号を付しその説明を省略する。また、図54に示す画像処理装置170は、複数の画像データの編集作業や再生作業の効率を向上させることを目的とする。
 図54に示す画像処理装置170において、図38に示す画像処理装置10と異なる点は、特徴データ抽出部171をさらに備えている点である。
 特徴データ抽出部171は、入力部11により取得される画像データから特徴データを抽出する。このとき抽出される特徴データは、例えば、人物の顔や体、自動車、花、動物、空、山、海、道路、建物などのオブジェクト、マーカー、又は、色や輝度などを特定被写体とする。
 例えば、特徴データ抽出部171は、被写体検出部を備え、その被写体検出部により画像データから「被写体の位置」及び「被写体のサイズ」を抽出する。この場合、第6実施形態の特徴データ評価部16は、基準特徴データとしての「画像データのX方向の幅及びY方向の幅」や「所定サイズ」を基準特徴データ取得部15により取得されるデータから取り出し、「被写体が検出されていない」、「被写体のサイズが所定サイズよりも小さい」、「被写体の位置が画像データの左端より外側に外れている」、「被写体の位置が画像データの右端より外側に外れている」、「被写体の位置が画像データの上端より外側に外れている」、及び「被写体の位置が画像データの下端より外側に外れている」の少なくとも1つを判断すると、その判断結果を要不要判定部17-1に送る。要不要判定部17-1は、特徴データ評価部16から送られてくる判断結果に基づいて、入力部11により取得される画像データの要不要判定を行う。例えば、要不要判定部17-1は、図55に示すように、複数の画像データP1~P6からなる動画のうち、画像データP1の「被写体のサイズが所定サイズよりも小さい」と判断されると、その画像データP1を不要であると判定する。また、要不要判定部17-1は、画像データP6の「被写体の位置が画像データの左端より外側に外れている」と判断されると、その画像データP6を不要な画像データと判定する。そして、要不要判定部17-1は、画像データP6を入力部11から処理部12へ出力されないように入力部11の動作を制御する。これにより、処理部12の負荷を低減することができる。
 また、特徴データ抽出部171は、画像データの構図を抽出する。この場合、第6実施形態の特徴データ評価部16は、基準特徴データとしての「所定値」や「所定数」を基準特徴データ取得部15により取得されるデータから取り出し、「連続する2枚の画像データの構図の差異が所定値以下になる画像データが所定数以上連続する」を判断すると、その判断結果を要不要判定部17-1に送る。
 要不要判定部17-1は、特徴データ評価部16から送られてくる判断結果に基づいて、入力部11により取得される画像データの要不要判定を行う。例えば、要不要判定部17-1は、図56に示すように、複数の画像データP7~P11からなる動画のうち、「画像データP7、P8の構図の差異が所定値以下になる画像データが2以上連続する」と判断されると、それらの画像データP7、P8以降の画像データP9~P11を不要な画像データと判定する。そして、要不要判定部17-1は、画像データP9~P11を入力部11から処理部12へ出力されないように入力部11の動作を制御する。これにより、処理部12の負荷を低減することができる。
 また、特徴データ抽出部171は、入力部11により取得される、サムネイル画像(画像データの縮小画像)、低解像度化(画像データよりも解像度が低い画像)、部分画像化した画像データ(画像データの一部)から特徴データを抽出するように構成してもよい。
 図57は、本発明の他の実施形態の画像処理装置を示す図である。なお、図38に示す構成と同じ構成には同じ符号を付しその説明を省略する。なお、図57に示す画像処理装置200は、複数の画像データの編集作業や再生作業の効率を向上させることを目的とする。
 図57に示す画像処理装置200において、図38に示す第1実施形態の画像処理装置10と異なる点は、特徴データ保存部201をさらに備えている点である。
 図57に示す特徴データ取得部14は、外部から定期的に特徴データを取得して特徴データ保存部201に保存する。
 図57に示す画像処理装置200によれば、画像処理装置200から撮像装置が取り外されたり、ネットワークが切断されたり、ネットワーク占有率が高かったりして、外部から定期的に特徴データを取得できなくなっても、特徴データ保存部201に保存されている特徴データを用いて画像データの要不要判定を継続して行うことができる。そのときに要不要判定が行われた画像データは、画像処理装置200に撮像装置が取り付けられたり、ネットワークの接続が回復した際などに取得することができる。このように、オフラインでの要不要判定も実現することができる。
 なお、特徴データ保存部201は、画像処理装置200の外部(例えば、ネットワーク上やリムーバブルメモリ上など)に設けられてもよい。

Claims (59)

  1.  入力される動画像の各動画像フレームにそれぞれ対応する、不要な動画像フレームであるか否かを判定するために用いられる要不要判定データを生成する要不要判定データ生成手段と、
     前記入力される動画像を符号化するとともに、符号化後の動画像の各動画像フレームをそれぞれ複数のデータに分割しつつ、それらデータにそれぞれ識別情報を付与して記録手段に記録する画像符号化手段と、
     前記要不要判定データに基づいて、前記要不要判定データに対応する動画像フレームが不要な動画像フレームであるか否かを判定する要不要判定手段と、
     前記記録手段に記録される識別情報と、その識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報とが対応付けられた前記記録手段内のテーブルにおいて、前記要不要判定手段により不要な動画像フレームと判定された動画像フレームの識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換える動画像ファイル管理手段と、
     を備えることを特徴とする画像処理装置。
  2.  請求項1に記載の画像処理装置であって、
     前記記録手段は、前記記録手段内の前記テーブルと同じ内容の復帰用テーブルを備え、
     前記動画像ファイル管理手段は、前記復帰用テーブルを用いて、復帰対象のデータの識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報を、元の情報に戻す
     ことを特徴とする画像処理装置。
  3.  請求項1、2の何れか1項に記載の画像処理装置であって、
     前記画像符号化手段は、前記入力される動画像をMPEG2形式で符号化するとともに、符号化後の動画像の各動画像フレームをそれぞれ複数のTSパケットに分割しつつ、それらTSパケットにそれぞれ識別情報としてのPIDを付与して前記記録手段に記録する
     ことを特徴とする画像処理装置。
  4.  請求項3に記載の画像処理装置において、
     前記要不要判定手段データが、前記Mpeg2形式の符号化の単位GOPで付与される
     ことを特徴とすることを特徴とする画像処理装置。
  5.  請求項1に記載の画像処理装置であって、
     前記符号化後の動画像フレームの分割後の各データにそれぞれ付与された識別情報のうちの1つの識別情報と、その符号化後の動画像フレームに対応する要不要判定データとを統合してメタデータを生成するメタデータ生成手段を更に有し、
     前記要不要判定手段は、前記メタデータにおける要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定する
     ことを特徴とする画像処理装置。
  6.  請求項5に記載の画像処理装置であって、
     前記要不要判定データ生成手段は、前記動画像フレーム中の被写体の位置及びサイズを前記要不要判定データとして生成し、
     前記要不要判定手段は、前記記録手段から読み出した前記メタデータにおける要不要判定データが示す被写体のサイズが所定のサイズよりも小さい場合であって、前記記録手段から読み出した前記メタデータにおける要不要判定データが示す被写体の位置が所定の範囲外に位置する場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定する
     ことを特徴とする画像処理装置。
  7.  請求項5に記載の画像処理装置であって、
     前記要不要判定データ生成手段は、前記動画像フレーム中の画像特徴量に基づいて、前記要不要判定データを生成し、
     前記要不要判定手段は、前記記録手段から読み出した前記メタデータにおける要不要判定データが示す画像特徴量と、そのメタデータに対応する動画像フレームに近接する動画像フレームのメタデータにおける要不要判定データが示す画像特徴量と、の差異が所定値以下の場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定する
     ことを特徴とする画像処理装置。
  8.  請求項7に記載の画像処理装置であって、
     前記画像特徴量が、被写体の構図を示す構図指標である
     ことを特徴とする画像処理装置。
  9.  請求項7に記載の画像処理装置であって、
     前記画像特徴量が、画像の輝度値の統計量である
     ことを特徴とする画像処理装置。
  10.  請求項5に記載の画像処理装置であって、
     前記要不要判定データ生成手段は、前記動画像フレームの撮影時のフォーカス情報を前記要不要判定データとして生成し、
     前記要不要判定手段は、前記記録手段から読み出した前記メタデータにおける要不要判定データが示すフォーカス情報から、そのメタデータに対応する動画像フレームのフォーカスが合っていない、又は、フォーカスが安定していない、と判断した場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定する
     ことを特徴とする画像処理装置。
  11.  請求項4に記載の画像処理装置であって、
     前記要不要判定データ生成手段は、前記動画像フレームの撮影時のズーム情報を前記要不要判定データとして生成し、
     前記要不要判定手段は、前記記録手段から読み出した前記メタデータにおける要不要判定データが示すズーム情報と、そのメタデータに対応する動画像フレームの一つ前の動画像フレームのメタデータにおける要不要判定データが示すズーム情報と、から、ズームレンズのレンズ位置が安定していないと判断した場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定する
    する
     ことを特徴とする画像処理装置。
  12.  請求項5に記載の画像処理装置であって、
     被写体側からの信号を受信する無線アンテナを備え、
     前記要不要判定データ生成手段は、前記無線アンテナにより受信される信号の受信信号強度を前記要不要判定データとして生成し、
     前記要不要判定手段は、前記記録手段から読み出した前記メタデータにおける要不要判定データが示す受信信号強度が、所定の値より低い場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定する
     ことを特徴とする画像処理装置。
  13.  請求項1に記載の画像処理装置であって、
     前記要不要判定手段は、前記不要な動画像フレームの先頭、あるいは末尾で有ることを示すフラグを前記識別情報に記述する
     ことを特徴とする画像処理装置。
  14.  請求項13に記載の画像処理装置であって、
     前記動画像ファイル管理手段は、前記不要な動画像フレームの先頭であることを示すフラグおよび前記不要な動画像フレームの末尾で有ることを示すフラグの双方が揃ったときに、前記不要な動画像フレームの先頭と前記不要な動画像フレームの末尾との間にある前記動画像フレームの識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報をデータがない旨の情報に書き換える
     ことを特徴とする画像処理装置。
  15.  請求項1に記載の画像処理装置であって、
     入力される各動画像フレームそれぞれの縮小画像を生成する縮小画像生成手段と、
     前記符号化後の動画像フレームの分割後の各データにそれぞれ付与された識別情報のうちの1つの識別情報と、その符号化後の動画像フレームの縮小画像とを統合してメタデータを生成するメタデータ生成手段と、
     を更に有し、
     前記要不要判定データ生成手段は、前記メタデータにおける縮小画像に基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定するために用いられる要不要判定データを生成する
     ことを特徴とする画像処理装置。
  16.  請求項15に記載の画像処理装置であって、
     前記記録手段は、前記記録手段内の前記テーブルと同じ内容の復帰用テーブルを備え、
     前記動画像ファイル管理手段は、前記復帰用テーブルを用いて、復帰対象のデータの識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報を、元の情報に戻す
     ことを特徴とする画像処理装置。
  17.  請求項15、16の何れか1項に記載の画像処理装置であって、
     前記画像符号化手段は、前記入力される動画像をMPEG2形式で符号化するとともに、符号化後の動画像の各動画像フレームをそれぞれ複数のTSパケットに分割しつつ、それらTSパケットにそれぞれ識別情報としてのPIDを付与して前記記録手段に記録する
     ことを特徴とする画像処理装置。
  18.  画像処理装置とサーバとがネットワークを介してデータの送受信を行う画像処理システムであって、
     前記画像処理装置は、
      前記入力される動画像を符号化するとともに、符号化後の動画像の各動画像フレームをそれぞれ複数のデータに分割しつつ、それらデータにそれぞれ識別情報を付与して記録手段に記録する画像符号化手段と、
      前記サーバから送信される判定結果及び識別情報を受信する第1の受信手段と、
      前記記録手段に記録される識別情報と、その識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報とが対応付けられた前記記録手段内のテーブルにおいて、不要な動画像フレームであるとの前記判定結果とともに受信した識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換える動画像ファイル管理手段と、
     を備え、
     前記サーバは、
      前記要不要判定データに基づいて、前記要不要判定データに対応する動画像フレームが不要な動画像フレームであるか否かを判定する要不要判定手段と、
      前記要不要判定手段の判定結果を、その判定結果に対応する識別情報とともに前記画像処理装置へ送信する第2の送信手段と、
     を備え、
     前記画像処理装置と前記サーバとのうち、いずれか一方は、入力される動画像の各動画像フレームにそれぞれ対応する、不要な動画像フレームであるか否かを判定するために用いられる要不要判定データを生成する要不要判定データ生成手段、
     を備えることを特徴とする画像処理システム。
  19.  請求項18に記載の画像処理システムであって、
     前記要不要判定データ生成手段は、前記画像処理装置にあり、
     前記画像処理装置は、
     前記符号化後の動画像フレームの分割後の各データにそれぞれ付与された識別情報のうちの1つの識別情報と、その符号化後の動画像フレームに対応する要不要判定データとを統合してメタデータを生成するメタデータ生成手段と、
     前記メタデータを前記サーバへ送信する第1の送信手段と、
     を更に有し、
     前記サーバは、
     前記画像処理装置から送信されるメタデータを受信する第2の受信手段を更に有し、
     前記要不要判定手段は、前記受信したメタデータにおける前記要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定する、
     ことを特徴とする画像処理システム。
  20.  請求項19に記載の画像処理システムであって、
     前記サーバが有する前記要不要判定手段を、第2の要不要判定手段と定義するとき、
     前記画像処理装置は、
      前記生成されたメタデータにおける要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定する第1の要不要判定手段と、
      前記画像処理装置に負荷をかけて良い状態であるか否かを判断するための情報を検出する検出手段と、
      前記検出手段により検出された情報から、前記画像処理装置に負荷をかけて良い状態であると判断される場合、前記メタデータ生成手段により生成されるメタデータの送り先を、前記第1の要不要判定手段に切り替え、前記検出手段により検出された情報から、前記画像処理装置に負荷をかけて良い状態でないと判断される場合、前記メタデータ生成手段により生成されるメタデータの送り先を、前記第1の送信手段に切り替える切替手段と、
     を更に備え、
     前記第2の送信手段は、前記第2の要不要判定手段の判定結果を、その判定結果に対応する識別情報とともに前記画像処理装置へ送信し、
     前記動画像ファイル管理手段は、前記記録手段に記録される識別情報と、その識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報とが対応付けられた前記記録手段内のテーブルにおいて、不要な動画像フレームであるとの前記判定結果とともに受信した識別情報、又は、前記第1の要不要判定手段により不要な動画像フレームと判定された動画像フレームの識別情報に対応する前記記録手段の記録位置におけるデータの状態を示す情報をデータが無い旨の情報に書き換える、
     ことを特徴とする画像処理システム。
  21.  請求項20に記載の画像処理システムであって、
     前記検出手段は、前記画像処理装置のリソースにかかっている負荷を測定する負荷状態測定手段であり、
     前記切替手段は、前記負荷状態測定手段の測定結果から、所定の負荷の量よりも高い負荷の量が前記画像処理装置にかかっていないと判断される場合、前記メタデータ生成手段により生成されるメタデータの送り先を、前記第1の要不要判定手段に切り替え、前記負荷状態測定手段の測定結果から、前記所定の負荷の量よりも高い負荷の量が前記画像処理装置にかかっていると判断される場合、前記メタデータ生成手段により生成されるメタデータの送り先を、前記第1の送信手段に切り替える
     ことを特徴とする画像処理システム。
  22.  請求項20に記載の画像処理システムであって、
     前記検出手段は、前記画像処理装置の電源モードが節電に係るモードであるか否かを検知する電源モード検知手段であり、
     前記切替手段は、前記電源モード検知手段により、節電に係るモードでないと検知された場合、前記メタデータ生成手段により生成されるメタデータの送り先を、前記第1の要不要判定手段に切り替え、前記電源モード検知手段により、節電に係るモードであると検知された場合、前記メタデータ生成手段により生成されるメタデータの送り先を、前記第1の送信手段に切り替える
     ことを特徴とする画像処理システム。
  23.  請求項18に記載の画像処理システムであって、
     前記要不要判定データ生成手段は、前記サーバにあり、
     前記画像処理装置は、
      入力される動画像の各動画像フレームそれぞれの縮小画像を生成する縮小画像生成手段と、
      前記符号化後の動画像フレームの分割後の各データにそれぞれ付与された識別情報のうちの1つの識別情報と、その符号化後の動画像フレームの縮小画像とを統合してメタデータを生成するメタデータ生成手段と、
      前記メタデータを前記サーバへ送信する第1の送信手段と、
     を更に有し、
     前記サーバは、
      前記画像処理装置から送信されるメタデータを受信する第2の受信手段を更に有し、
      前記要不要判定データ生成手段は、前記受信したメタデータにおける縮小画像に基づいて、そのメタデータにおける識別情報に対応する動画像フレームが不要な動画像フレームであるか否かを判定するために用いられる要不要判定データを生成し、
      前記要不要判定手段は、前記生成した要不要判定データに基づいて、その要不要判定データに対応する識別情報の動画像フレームが不要な動画像フレームであるか否かを判定する
     ことを特徴とする画像処理システム。
  24.  動画像の各動画像フレームにそれぞれ対応する、必要な動画像フレームであるか否かを判定するために用いられる要不要判定データと、
     それぞれに識別情報が付与された、符号化後の前記動画像の各動画像フレームと、
     前記動画像フレームに付与された識別情報と、その動画像フレームに対応する要不要判定データとが統合されたメタデータと、
     が記録された
     記録手段から前記メタデータを読み出し、そのメタデータにおける要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームであるか否かを判定する要不要判定手段と、
     前記記録手段に記録される識別情報と、その識別情報に対応する前記記録手段の記録位置を示す情報とが対応付けられたテーブルを用いて、前記要不要判定手段により必要な動画像フレームと判定された動画像フレームの識別情報に対応する前記記録手段の記録位置に記録される動画像フレームのみを前記記録手段から読み出す読出し制御手段と、
     を備えることを特徴とする画像読出し装置。
  25.  請求項24に記載の画像読出し装置であって、
     前記記録手段には、MPEG2形式で符号化された前記動画像を記録されているとともに、符号化後の動画像の各動画像フレームは、それぞれ複数のTSパケットに分割され、それらTSパケットにそれぞれ識別情報としてのPIDが付与されて記録されており、
     前記読出し制御手段は、前記要不要判定手段により必要な動画像フレームと判定された動画像フレームのPIDに対応する前記記録手段の記録位置に記録されるデータのみを前記記録手段から読み出す読出す
     ことを特徴とする画像読み出し装置。
  26.  請求項24に記載の画像読出し装置であって、
     入力される動画像の各動画像フレームにそれぞれ対応する、前記要不要判定データを生成する要不要判定データ生成手段と、
     前記入力される動画像を符号化するとともに、その符号化後の動画像の各動画像フレームにそれぞれ識別情報を付与して前記記録手段に記録する画像符号化手段と、
     前記動画像フレームに付与された識別情報と、その動画像フレームに対応する要不要判定データとを統合してメタデータを生成して前記記録手段に記録するメタデータ生成手段と、
     を更に備えることを特徴とする画像読出し装置。
  27.  動画像を記録手段に記録する画像処理装置と、前記記録手段から動画像を読み出す画像読出し装置とを備える画像処理システムであって、
     前記画像処理装置は、
      入力される動画像の各動画像フレームにそれぞれ対応する、必要な動画像フレームであるか否かを判定するために用いられる要不要判定データを生成する要不要判定データ生成手段と、
      前記入力される動画像を符号化するとともに、その符号化後の動画像の各動画像フレームにそれぞれ識別情報を付与して前記記録手段に記録する画像符号化手段と、
      前記動画像フレームに付与された識別情報と、その動画像フレームに対応する要不要判定データとを統合してメタデータを生成して前記記録手段に記録するメタデータ生成手段と、
     を備え、
     前記画像読出し装置は、
      前記記録手段からメタデータを読み出し、そのメタデータにおける要不要判定データに基づいて、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームであるか否かを判定する要不要判定手段と、
      前記記録手段に記録される識別情報と、その識別情報に対応する前記記録手段の記録位置を示す情報とが対応付けられたテーブルを用いて、前記要不要判定手段により必要な動画像フレームと判定された動画像フレームの識別情報に対応する前記記録手段の記録位置に記録される動画像フレームのみを前記記録手段から読み出す読出し制御手段と、
     を備えることを特徴とする画像処理システム。
  28.  請求項27に記載の画像処理システムであって、
     前記画像符号化手段は、前記入力される動画像をMPEG2形式で符号化するとともに、符号化後の動画像の各動画像フレームをそれぞれ複数のTSパケットに分割しつつ、それらTSパケットにそれぞれ識別情報としてのPIDを付与して前記記録手段に記録する
     ことを特徴とする画像処理システム。
  29.  請求項27に記載の画像処理システムであって、
     前記要不要判定データ生成手段は、前記動画像フレーム中の被写体の位置及びサイズを前記要不要判定データとして生成し、
     前記要不要判定手段は、前記記録手段から読み出したメタデータにおける要不要判定データが示す被写体のサイズが所定のサイズよりも小さい場合であって、前記記録手段から読み出したメタデータにおける要不要判定データが示す被写体の位置が所定の範囲外に位置する場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定する
     ことを特徴とする画像処理システム。
  30.  請求項27に記載の画像処理システムであって、
     前記要不要判定データ生成手段は、前記動画像フレーム中の画像特徴量に基づいて、前記要不要判定データを生成し、
     前記要不要判定手段は、前記記録手段から読み出したメタデータにおける要不要判定データが示す画像特徴量と、そのメタデータに対応する動画像フレームに近接する動画像フレームのメタデータにおける要不要判定データが示す画像特徴量と、の差異が所定値以下の場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定する
     ことを特徴とする画像処理システム。
  31.  請求項30に記載の画像処理システムであって、
     前記画像特徴量が、被写体の構図を示す構図指標である
     ことを特徴とする画像処理システム。
  32.  請求項30に記載の画像処理システムであって、
     前記画像特徴量が、画像の輝度値の統計量である
     ことを特徴とする画像処理システム。
  33.  請求項27に記載の画像処理システムであって、
     前記要不要判定データ生成手段は、前記動画像フレームの撮影時のフォーカス情報を前記要不要判定データとして生成し、
     前記要不要判定手段は、前記記録手段から読み出したメタデータにおける要不要判定データが示すフォーカス情報から、そのメタデータに対応する動画像フレームのフォーカスが合っていない、又は、フォーカスが安定していない、と判断した場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定する
     ことを特徴とする画像処理システム。
  34.  請求項27に記載の画像処理システムであって、
     前記要不要判定データ生成手段は、前記動画像フレームの撮影時のズーム情報を前記要不要判定データとして生成し、
     前記要不要判定手段は、前記記録手段から読み出したメタデータにおける要不要判定データが示すズーム情報と、そのメタデータに対応する動画像フレームの一つ前の動画像フレームのメタデータにおける要不要判定データが示すズーム情報と、から、ズームレンズのレンズ位置が安定していないと判断した場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定する
    する
     ことを特徴とする画像処理システム。
  35.  請求項27に記載の画像処理システムであって、
     被写体側からの信号を受信する無線アンテナを備え、
     前記要不要判定データ生成手段は、前記無線アンテナにより受信される信号の受信信号強度を前記要不要判定データとして生成し、
     前記要不要判定手段は、前記記録手段から読み出したメタデータにおける要不要判定データが示す受信信号強度が、所定の値より低い場合、そのメタデータにおける識別情報に対応する動画像フレームが必要な動画像フレームでないと判定する
     ことを特徴とする画像処理システム。
  36.  画像データに対応した特徴データを取得する特徴データ取得部と、
     基準特徴データを取得する基準特徴データ取得部と、
     前記基準特徴データに基づいて前記特徴データの評価を行う特徴データ評価部と、
     前記特徴データ評価部によって行われた前記評価に基づいて前記特徴データに対応した画像データの要不要の判定を行なう要不要判定部と、
     前記要不要の判定に基づいて制御を行なう制御処理部と、
     を備える画像処理装置。
  37.  評価方針を生成する評価方針生成部と、
     前記評価方針に基づいて前記基準特徴データを生成する基準特徴データ生成部と、
     をさらに備えることを特徴とする請求項36に記載の画像処理装置。
  38.  状態検知部を更に備え、
     前記基準特徴データ生成部は、前記評価方針及び前記状態検知部の検知結果に基づいて前記基準特徴データを生成することを特徴とする請求項37に記載の画像処理装置。
  39.  状態検知部を更に備え、
     評価方針生成部は、前記状態検知部の検知結果に基づいて評価方針を生成する
     ことを特徴とする請求項37に記載の画像処理装置。
  40.  前記状態検知部は、当該画像処理装置の電源種別及び電源状態の少なくとも1つを検知する電源状態検知部である
     ことを特徴とする請求項38または39に記載の画像処理装置。
  41.  前記電源状態検知部の検知結果が、使用可能な電源容量が規定値以下である低エネルギー状態であるとき、
     前記基準特徴データ生成部は、前記検知結果と前記評価方針から、非低エネルギー状態と比較して、取得する画像のデータ量が少なくなるように、前記基準特徴データを生成する
     ことを特徴とする請求項40に記載の画像処理装置。
  42.  前記状態検知部は、ネットワークとの接続状態を判定する接続状態判定部である
     ことを特徴とする請求項38または39に記載の画像処理装置。
  43.  前記特徴データ評価部は、複数種類の前記基準特徴データを組み合わせて評価することを特徴とする
     ことを特徴とする請求項37~42のいずれか1項に記載の画像処理装置。
  44.  前記接続状態判定部の判定結果が、使用可能なネットワークの単位時間あたりのデータ転送量が規定値以下である低速状態であるとき、前記基準特徴データ生成部は、前記検知結果と前記評価方針から、非低速状態と比較して、取得する画像の総データ量が少なくなるように、前記基準特徴データを生成する
     ことを特徴とする請求項42に記載の画像処理装置。
  45.  前記画像データの表示速度、解像度、及びデータ量の少なくとも何れかを優先して評価する方針を示す評価方針を入力する表示部をさらに備え、
     前記基準特徴データ生成部は、前記表示部に入力された前記評価方針に基づいて前記基準特徴データを生成する
     ことを特徴とする請求項37に記載の画像処理装置。
  46.  前記画像データから前記特徴データを抽出する特徴データ抽出部をさらに備える
     ことを特徴とする請求項36または37に記載の画像処理装置。
  47.  前記特徴データ抽出部は、前記特徴データとして前記画像データ内の被写体の位置及びサイズの少なくとも一方を抽出し、
     前記要不要判定部は、前記特徴データ抽出部により抽出された前記画像データ内の被写体の位置及びサイズの少なくとも一方が前記基準特徴データとしての閾値以下であるか否かを判断し、該判断結果に基づいて前記画像データの要不要を判定する
     ことを特徴とする請求項46に記載の画像処理装置。
  48.  前記要不要判定部は、前記特徴データ抽出手段により抽出された前記画像データ内の被写体の位置及びサイズの少なくとも一方が前記閾値以下であると、前記画像データに対して不要の判定を行う
     ことを特徴とする請求項47に記載の画像処理装置。
  49.  前記特徴データ抽出部は、前記特徴データとして連続する複数の前記画像データの構図を抽出し、
     前記要不要判定部は、前記特徴データ抽出部により抽出された複数の画像データの構図の変化量が前記基準特徴データとしての閾値以下であるか否かを判断し、該判断結果に基づいて前記画像データの要不要を判定する
     ことを特徴とする請求項46に記載の画像処理装置。
  50.  前記要不要判定部は、前記複数の画像データの構図の変化量が前記閾値以下であると、前記複数の画像データに対して不要の判定を行う
     ことを特徴とする請求項49に記載の画像処理装置。
  51.  前記要不要判定部は、多段階に分類して、又は、数値化して前記特徴データの評価を行う
     ことを特徴とする請求項36~50の何れか1項に記載の画像処理装置。
  52.  前記要不要判定部は、前記特徴データに対応する画像データのボケ具合、ブレ具合、明暗、色合い、鮮明度、画角ずれ、非対称、被写体のかぶりのうちの少なくとも1つについて評価を行う
     ことを特徴とする請求項36~51の何れか1項に記載の画像処理装置。
  53.  前記特徴データ抽出手段は、前記画像データの縮小画像、前記画像データよりも解像度が低い画像、又は前記画像データの一部である前記特徴データから特徴データを抽出する
     ことを特徴とする請求項46に記載の画像処理装置。
  54.  前記特徴データを保存する特徴データ保存部をさらに備え、
     前記要不要判定部は、前記基準特徴データに基づいて前記特徴データ保存部により保存される特徴データの評価を行う
     ことを特徴とする請求項36~53の何れか1項に記載の画像処理装置。
  55.  外部装置と前記特徴データまたは前記画像データの通信を行う通信部をさらに備え、
     前記要不要判定部は、要判定となった画像データを前記外部装置に要求するまたは他の外部装置から前記外部装置に前記画像データを要求させる
     ことを特徴とする請求項36~54の何れか1項に記載の画像処理装置。
  56.  撮像部と、
     前記要不要判定部により要判定された画像データを前記撮像部から取得する入力部と、
     を備えることを特徴とする請求項36~54の何れか1項に記載の画像処理装置。
  57.  画像データを処理する処理部をさらに備え、
     前記処理部は、前記要不要判定部により要判定された画像データに対して処理を行なう
     ことを特徴とする請求項36~56のいずれか1項に記載の画像処理装置。
  58.  コンピュータを、
     画像データに対応した特徴データを取得する特徴データ取得部、
     基準特徴データ取得部に取得される基準特徴データに基づいて前記特徴データの評価を行う特徴データ評価部、
     前記特徴データ評価部によって行われた前記評価に基づいて前記特徴データに対応した画像データの要不要の判定を行なう要不要判定部、
     前記要不要の判定に基づいて制御を行なう制御処理部、
     として機能させるプログラム。
  59.  特徴データ取得部により、画像データに対応した特徴データを取得し、
     特徴データ評価部により、基準特徴データ取得部に取得される基準特徴データに基づいて前記特徴データの評価を行ない、
     要不要判定部により、該評価に基づいて前記特徴データに対応した画像データの要不要の判定を行ない、
     制御処理部により、前記要不要の判定に基づいて制御を行なう、
     ことを特徴とする画像処理方法。
     
PCT/JP2012/074227 2011-09-22 2012-09-21 画像処理装置、画像処理システム、及び画像読出し装置 WO2013042766A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/213,714 US9300904B2 (en) 2011-09-22 2014-03-14 Image processing apparatus, image processing system, and image reading apparatus

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2011-207818 2011-09-22
JP2011207818A JP5809905B2 (ja) 2011-09-22 2011-09-22 画像処理装置及び画像処理システム
JP2011-207819 2011-09-22
JP2011207819A JP5809906B2 (ja) 2011-09-22 2011-09-22 画像読出し装置及び画像処理システム
JP2012-002581 2012-01-10
JP2012002581A JP6027745B2 (ja) 2012-01-10 2012-01-10 画像処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/213,714 Continuation US9300904B2 (en) 2011-09-22 2014-03-14 Image processing apparatus, image processing system, and image reading apparatus

Publications (1)

Publication Number Publication Date
WO2013042766A1 true WO2013042766A1 (ja) 2013-03-28

Family

ID=47914526

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/074227 WO2013042766A1 (ja) 2011-09-22 2012-09-21 画像処理装置、画像処理システム、及び画像読出し装置

Country Status (2)

Country Link
US (1) US9300904B2 (ja)
WO (1) WO2013042766A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107888838A (zh) * 2016-09-30 2018-04-06 三星电子株式会社 用于处理图像的方法及支持该方法的电子设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013224962A1 (de) * 2013-12-05 2015-06-11 Robert Bosch Gmbh Anordnung zum Erstellen eines Bildes einer Szene
GB2539461B (en) 2015-06-16 2020-01-08 Canon Kk Image data encapsulation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0530498A (ja) * 1991-07-24 1993-02-05 Seiko Epson Corp 動画像データ圧縮装置
JPH07121789A (ja) * 1993-10-22 1995-05-12 Canon Inc 遠隔監視装置
JPH09214879A (ja) * 1996-02-07 1997-08-15 Toshiba Corp 動画像処理方法
JP2009253542A (ja) * 2008-04-03 2009-10-29 Casio Comput Co Ltd 撮影装置、画像記録方法、及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209483A (ja) 1999-01-18 2000-07-28 Nikon Corp 画像選別機能を有する電子カメラ、およびプログラムを記録した記録媒体
US7088865B2 (en) 1998-11-20 2006-08-08 Nikon Corporation Image processing apparatus having image selection function, and recording medium having image selection function program
JP2002010179A (ja) 2000-06-19 2002-01-11 Olympus Optical Co Ltd プリント画像選択装置、自動選択機能付き写真プリンタ装置及び自動選択プリントシステム並びに記録媒体
US20020154833A1 (en) * 2001-03-08 2002-10-24 Christof Koch Computation of intrinsic perceptual saliency in visual environments, and applications
JP2005020196A (ja) 2003-06-24 2005-01-20 Casio Comput Co Ltd 画像撮影装置、及び画像整理装置
JP4273852B2 (ja) 2003-06-26 2009-06-03 カシオ計算機株式会社 画像撮影装置、プログラム
JP2005295285A (ja) 2004-03-31 2005-10-20 Japan Aviation Electronics Industry Ltd 動画像データ生成方法
JP4720685B2 (ja) 2006-09-01 2011-07-13 株式会社セガ 自動写真館
JP4826485B2 (ja) 2007-01-25 2011-11-30 ソニー株式会社 画像保存装置、画像保存方法
JP2008306334A (ja) 2007-06-06 2008-12-18 Fujifilm Corp 動画ファイル生成方法およびこれを用いた動画撮影装置
JP4973729B2 (ja) * 2007-06-07 2012-07-11 富士通株式会社 動画像類似判定装置、および動画像類似判定方法
JP2009004950A (ja) 2007-06-20 2009-01-08 Victor Co Of Japan Ltd 撮像装置および編集装置
JP5206095B2 (ja) 2008-04-25 2013-06-12 ソニー株式会社 構図判定装置、構図判定方法、プログラム
JP5359247B2 (ja) 2008-12-17 2013-12-04 株式会社ニコン 電子カメラ
JP5268787B2 (ja) * 2009-06-04 2013-08-21 キヤノン株式会社 情報処理装置及びその制御方法、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0530498A (ja) * 1991-07-24 1993-02-05 Seiko Epson Corp 動画像データ圧縮装置
JPH07121789A (ja) * 1993-10-22 1995-05-12 Canon Inc 遠隔監視装置
JPH09214879A (ja) * 1996-02-07 1997-08-15 Toshiba Corp 動画像処理方法
JP2009253542A (ja) * 2008-04-03 2009-10-29 Casio Comput Co Ltd 撮影装置、画像記録方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107888838A (zh) * 2016-09-30 2018-04-06 三星电子株式会社 用于处理图像的方法及支持该方法的电子设备
CN107888838B (zh) * 2016-09-30 2021-08-27 三星电子株式会社 用于处理图像的方法及支持该方法的电子设备

Also Published As

Publication number Publication date
US9300904B2 (en) 2016-03-29
US20140218565A1 (en) 2014-08-07

Similar Documents

Publication Publication Date Title
CN101419666B (zh) 图像处理装置、图像捕获装置、图像处理方法及记录媒介
US9013604B2 (en) Video summary including a particular person
US8199213B2 (en) Method for selecting desirable images from among a plurality of images and apparatus thereof
JP4973098B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20120082389A1 (en) Image processing device and computer-program product of image evaluation
US20130195419A1 (en) Image pickup apparatus, image pickup method, playback control apparatus, playback control method, and program
JP5456023B2 (ja) 画像撮影装置、画像撮影方法、プログラム、及び集積回路
WO2008035688A1 (fr) Dispositif et procédé d'enregistrement, programme, et dispositif et procédé de lecture
JP2014516222A (ja) 興味の特徴を含むビデオサマリー
JP5888614B2 (ja) 撮像装置、映像コンテンツ生成方法、及び、プログラム
CN101287089B (zh) 摄像设备、图像处理设备及其控制方法
TWI508548B (zh) 攝像裝置及攝像方法
CN102630003B (zh) 图像数据记录设备及其控制方法
JP2004056397A (ja) 画像処理装置および方法
JP2012105205A (ja) キーフレーム抽出装置、キーフレーム抽出プログラム、キーフレーム抽出方法、撮像装置、およびサーバ装置
US8928768B2 (en) Image processing device and computer-readable computer program product containing image processing program
WO2013042766A1 (ja) 画像処理装置、画像処理システム、及び画像読出し装置
JP2003032600A (ja) 画像処理装置、インデックス作成システム、インデックス作成方法、記録媒体及びプログラム
JP4948014B2 (ja) 電子カメラ
JP4857254B2 (ja) 撮像装置及びその画像自動選択方法
AU2016277643A1 (en) Using face detection metadata to select video segments
JP5809906B2 (ja) 画像読出し装置及び画像処理システム
JP2011119934A (ja) 画像撮影装置及び画像撮影方法
WO2006016461A1 (ja) 撮像装置
JP5809905B2 (ja) 画像処理装置及び画像処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12834409

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12834409

Country of ref document: EP

Kind code of ref document: A1