WO2007015452A1 - 電子透かし埋め込み方法、電子透かし埋め込み装置、電子透かし検出方法、電子透かし検出装置、及びプログラム - Google Patents

電子透かし埋め込み方法、電子透かし埋め込み装置、電子透かし検出方法、電子透かし検出装置、及びプログラム Download PDF

Info

Publication number
WO2007015452A1
WO2007015452A1 PCT/JP2006/315126 JP2006315126W WO2007015452A1 WO 2007015452 A1 WO2007015452 A1 WO 2007015452A1 JP 2006315126 W JP2006315126 W JP 2006315126W WO 2007015452 A1 WO2007015452 A1 WO 2007015452A1
Authority
WO
WIPO (PCT)
Prior art keywords
watermark
image
detection
pattern
digital watermark
Prior art date
Application number
PCT/JP2006/315126
Other languages
English (en)
French (fr)
Inventor
Takao Nakamura
Susumu Yamamoto
Ryo Kitahara
Takashi Miyatake
Atushi Katayama
Hisato Miyachi
Original Assignee
Nippon Telegraph And Telephone Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph And Telephone Corporation filed Critical Nippon Telegraph And Telephone Corporation
Priority to CN2006800011353A priority Critical patent/CN101053256B/zh
Priority to KR1020077009763A priority patent/KR100876006B1/ko
Priority to US11/666,311 priority patent/US7970164B2/en
Priority to JP2007529252A priority patent/JP4809840B2/ja
Priority to EP06782004A priority patent/EP1928180A1/en
Publication of WO2007015452A1 publication Critical patent/WO2007015452A1/ja
Priority to US13/105,367 priority patent/US8126202B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0085Time domain based watermarking, e.g. watermarks spread over several images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8358Generation of protective data, e.g. certificates involving watermark
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2541Rights Management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0051Embedding of the watermark in the spatial domain

Definitions

  • Digital watermark embedding method digital watermark embedding device, digital watermark detection method, digital watermark detection device, and program
  • the present invention relates to a digital watermark embedding technique and a digital watermark detection technique, and more particularly to a technique for embedding electronic transparency in video content so that humans do not perceive sub information, and a technique for reading this sub information.
  • the present invention relates to digital watermark detection technology.
  • Non-Patent Document 1 there is a utilization method in which a still image such as a printed matter is input to a camera, and the input image force is also detected as electronic permeability to obtain related information (see Non-Patent Document 1, for example).
  • Non-patent document 1 Nakamura, Katayama, Sajichi, Yamashita, Yamamuro: “Digital watermark detection method for service mediation using camera-equipped mobile phone”, Information Science and Technology Forum FIT2003, N-020, September 2003
  • Non-Patent Document 2 Nakamura, Taketake, Hayashi, Katayama, Yamamuro: "Real-time digital watermark detection method from camera input image", Information Science and Technology Forum FIT2004, J-036, September 2004
  • a moving image such as a TV screen is photographed with a camera-equipped mobile phone, and the photographed moving image has a method of performing digital watermark detection processing in real time.
  • Various information services that can be linked with video content in real time can be realized.
  • DZA conversion and A / D conversion accompanying camera shooting there is a problem that it is difficult to specify which part of the frame image captured at the time of shooting with the camera is the object to detect electronic permeability.
  • the present invention has been made in view of the above points, and it is possible to detect a moving image of a television or the like, which has not existed in the past, with a camera, and to perform digital watermark detection in real time from the captured video camera.
  • the purpose is to provide post-surgery. Furthermore, by identifying which partial force in the captured frame image should be detected by electronic transparency, it is possible to reliably detect digital watermarks even under various shooting angles and background image conditions.
  • the purpose is to provide technology.
  • the above-described problem is a digital watermark embedding method in a digital watermark embedding apparatus that embeds a digital watermark in a moving image
  • a frame image acquisition step for sequentially acquiring each frame image of the moving image data and a frame display time which is a display time of the frame image;
  • a watermark pattern generating means for generating a watermark pattern using the watermark information, the frame display time, and the watermark pattern switching information
  • a watermark pattern superimposing means for superimposing the watermark pattern on the frame image
  • the watermarked moving image data is obtained by combining the watermarked frame image groups obtained by sequentially repeating the processing in the frame image acquisition unit, the processing in the watermark pattern generation unit, and the processing in the watermark pattern superimposing unit.
  • Video data reconstruction step for generating It can be solved by an electronic permeability embedding method characterized by having:
  • the timing of switching the watermark pattern may be repeated at a constant time period.
  • the watermark pattern generation step includes
  • a phase determination watermark pattern for estimating a time change state of the watermark pattern at the time of detection is generated, and the phase determination watermark pattern is converted into the phase determination watermark pattern.
  • a step of using a pattern obtained by multiplexing the watermark pattern corresponding to information as a watermark pattern is generated, and the phase determination watermark pattern is converted into the phase determination watermark pattern.
  • the present invention is a digital watermark embedding method in a digital watermark embedding device for embedding a digital watermark in a moving image
  • a watermark pattern generating means for generating a watermark pattern using the watermark information, the frame display time, and the watermark pattern switching information
  • a watermark pattern superimposing means for superimposing the watermark pattern on the frame image
  • the frame image acquisition step force The moving image data reconstruction step of generating watermarked moving image data by combining the watermarked frame images obtained by sequentially repeating the watermark pattern superimposing step;
  • the watermark pattern generation step includes A basic watermark pattern generating step for generating a basic watermark pattern using the transparency information;
  • the watermark pattern generation step includes
  • a basic watermark pattern generating step for generating a basic watermark pattern using the transparency information
  • a code pattern generation step for generating a code pattern based on the pixel value of the basic watermark pattern
  • a watermark pattern switching phase fluctuation value calculating step for obtaining a watermark pattern switching phase fluctuation value corresponding to the time difference of the immediately preceding frame car using the frame display time and the watermark pattern switching information;
  • a code of each element of the code pattern generated in the code pattern generation step is added to the watermark pattern switching phase fluctuation value, and this is used as a phase difference of the immediately preceding watermark phase pattern force to determine whether or not the current frame is transparent.
  • the watermark pattern generation step when the watermark pattern is generated from the watermark phase pattern, based on each pixel value of the basic watermark pattern, the pixel value corresponding to the watermark pattern is changed. It is good also as having the step which increases / decreases an amplitude.
  • the watermark pattern generation step is obtained by causing the phase difference variation represented by the basic watermark pattern to correspond to the rotation amount in the coordinate system obtained from a plurality of components of the image and rotating the phase difference variation.
  • the method may include a step of generating the watermark pattern based on a plurality of new component values.
  • a Cb-Cr component of an image can be used as a plurality of components of the image.
  • the watermark pattern generation step includes
  • the watermark pattern generation step includes
  • the data block ID displays the phase determination permeability information. And a step of generating a watermark pattern so as to double as well.
  • the watermark pattern superimposing step may include a step of scaling the watermark pattern to a size equal to or smaller than the frame image and superimposing the watermark pattern inside the frame image.
  • the watermark pattern generation step includes a step of generating a basic watermark pattern using the transparency information
  • a step of adding a pattern for alignment for extracting a detection target area at the time of digital watermark detection to the basic watermark pattern
  • the watermark pattern generating step modulates the watermark information into a basic watermark pattern using an existing two-dimensional code, and uses the frame display time and the watermark pattern switching information.
  • the watermark pattern force may also include the step of generating a watermark pattern.
  • the digital watermark embedding apparatus includes a plurality of digital watermark embedding apparatuses.
  • the watermark pattern superimposing step may include a step of amplifying the amplitude of the watermark pattern for a frame image with more motion.
  • the watermark pattern superimposing step holds a previously input frame image in a storage means, generates a difference image between the frame image input this time and the previous frame image, A step of amplifying the amplitude of the basic watermark pattern based on the pixel value may be included.
  • the watermark pattern superimposing step includes
  • the watermark pattern superimposing step may include a step of amplifying a pixel area of the watermark pattern corresponding to a pixel area having a large motion in the frame image.
  • the above-mentioned problem is a digital watermark detection method in a digital watermark detection apparatus that detects a moving image force and an electronic permeability.
  • a moving image input step for sequentially acquiring frame images through the moving image input means, and a difference image generation for generating a difference image between the frame image acquired this time and the previously acquired frame image in the difference image generating means. Steps,
  • a digital watermark detection means for detecting a digital watermark from the difference image and outputting a detection status of the digital watermark
  • the watermark information obtained in the digital watermark detection step also obtains the data block ID and the data block information, and detects the watermark in the blueprint buffer.
  • the detected data block information may be recorded in the information of the data block ID, and when the detection is completed for all the data block IDs, the fact that the digital watermark detection is successful may be output.
  • the moving image input step includes a step of sequentially obtaining the frame image and a frame display time which is a display time of the frame image,
  • the digital watermark detection method uses the watermark pattern switching information at the time of embedding a digital watermark to determine whether detection is necessary from the time interval between the current frame display time and the frame display time of a previously acquired frame image. And further comprising a step
  • the digital watermark detection method further includes a capture timing control step for setting a capture timing of a frame using watermark pattern switching information at the time of embedding electronic permeability.
  • the moving image input means may sequentially acquire frame images based on the capture timing.
  • the digital watermark detection method includes a step of setting a differential timing representing a time interval between frames for obtaining a differential image using watermark pattern switching information at the time of embedding electronic transparency.
  • the frame image and the frame display time are obtained in sequence by the moving image input means, and the difference image generation means previously obtains the frame image obtained this time and the time designated by the difference timing.
  • a difference image of the acquired frame image may be generated.
  • the digital watermark detection step determines the phase of the watermark pattern embedded in the difference image, and detects if the phase of the watermark pattern is in reverse phase. It may have a step of performing bit inversion of the information and outputting the detection status of the digital watermark.
  • the difference image is stored in the difference image storage buffer.
  • digital watermark detection step digital watermark detection from the differential image storage buffer may be performed to detect a transparent blueprint, and the detection status may be output.
  • the phase of the watermark pattern embedded in the difference image is determined, and the phase is the same in all of the differential images that are sequentially processed.
  • the difference image may be changed so that the difference image obtained in these steps is used to execute the difference image generation step and the digital watermark detection step.
  • the digital watermark detection step includes a step of accumulating a correlation value calculated at the time of detection in a storage unit for each detection process, and determining whether or not the detection success is possible using the accumulated correlation value. It's good.
  • the absolute value of the correlation value calculated at the time of detection is accumulated in the storage means every time detection processing is performed, and detection is performed using the accumulated absolute value of the correlation value. It also has a step to judge whether it is successful or not!
  • the step of determining the phase of the watermark pattern in the difference image from the relationship between the watermark pattern switching information used at the time of embedding and the frame display time obtained at the time of frame image acquisition. It is good also as having.
  • the watermark value in the difference image is detected based on the bit value detected in a predetermined bit position in the transparency information expressed by the watermark pattern embedded in the difference image. Having the step of determining the phase of the.
  • the digital watermark detection method may further include a step of detecting a phase determination watermark and determining a phase of a watermark pattern in the difference image! /.
  • the digital watermark detection method may further include a step of determining the phase of the watermark pattern in the difference image using the positive / negative polarity of the correlation value calculated by the watermark detection process.
  • the digital watermark detection method detects data block information and data block ID as watermark information by performing digital watermark detection from the difference image
  • the difference image generation step generates a difference image between the frame image acquired this time and the previously acquired frame image, and further obtains a phase value and an amplitude value from a specific component in the difference image, A step of determining which of the plurality of groups the phase value belongs, and correcting and outputting the difference image based on the determination result and the amplitude value may be included.
  • the difference image generation step includes a difference image (A) between the frame image acquired this time and the frame image acquired previously read from the image storage means. Generating and storing the frame image acquired this time in the image storage means,
  • the digital watermark detection method generates a phase pattern based on the difference image (A) acquired this time, measures the phase difference between the phase pattern acquired this time and the phase pattern acquired before reading the phase pattern storage means power, Based on phase difference!
  • the digital watermark detection step may include a step of detecting a digital watermark from the difference image (B) and outputting a detection status of the digital watermark.
  • phase difference measurement step includes:
  • the method may further include generating the difference image (B) based on the phase pattern acquired this time, the amplitude value of the phase pattern acquired previously, and a sign.
  • phase difference measurement step includes
  • the difference image (A) force When generating the phase pattern, the difference image (A) force also changes a monotonically increasing value with respect to the amplitude value of the phase pattern acquired this time and the phase pattern acquired previously.
  • a step of generating the difference image (B) based on a value obtained by combining with the code as the width may be provided.
  • the specific component in the difference image in the difference image generation step may be a plurality of components.
  • phase and amplitude in the coordinate system obtained from a plurality of components in the difference image (A) when the difference image (A) force also obtains a phase pattern. May be used.
  • a Cb component and a Cr component can be used as the specific component in the difference image.
  • the digital watermark detection method further includes a step of adding the difference image (B) to a difference image accumulation buffer,
  • the digital watermark detection step may include a step of performing digital watermark detection from the difference image storage buffer to detect a transparent blueprint and outputting a detection status.
  • a detection target area in the current frame image is extracted from the sequentially acquired frame images, distortion is corrected, and the size is normalized to detect the detection target area image.
  • a difference image between the detection target region image acquired this time and the detection target region image acquired previously may be generated.
  • the digital watermark detection method has a step of generating a detection target region image by extracting a detection target region from the differential images sequentially acquired,
  • digital watermark detection from the detection target region image may be performed, and a detection status of the digital watermark may be output.
  • the feature region is extracted from the frame image and subjected to distortion correction and size normalization to generate a feature region image. Steps,
  • a detection pair that extracts a detection target region from the difference image and generates a detection target region image An elephant region extraction step
  • the digital watermark detection step of performing digital watermark detection of the detection target region force may be included.
  • the detection target region extraction step may include a step of searching for a detection target region by converting a pixel value of the difference image into an absolute value when the detection target region is extracted from the difference image. .
  • the detection target region extraction step includes a step of searching for the detection target region using the alignment pattern added to the basic watermark pattern at the time of embedding when the detection target region is extracted from the difference image. It is good also as having.
  • the detection target region extraction step performs a search limited to a region in the vicinity of the detection target region when the detection status is good in the past digital watermark detection trials, and extracts the current detection target region. It is good also as having the step which performs a process.
  • the detection target region extraction step may include a step of determining a phase of a watermark pattern in the difference image using the alignment pattern.
  • the detection target region extraction step may further include a step of adding and storing the difference image in a storage unit, and searching and extracting the detection target region from the stored difference image. .
  • the detection target region extraction step includes a step of performing addition accumulation by aligning the phases of the watermark patterns in the difference image when the difference image is accumulated in the storage unit. It is good as well.
  • the above-described problem is a digital watermark detection method in a digital watermark detection apparatus that detects a moving image force and an electronic permeability.
  • a frame image acquisition step for sequentially acquiring frame images using a moving image input means
  • a feature region extracting step for extracting a feature region in the frame image and obtaining a feature region image in the feature region extracting means
  • the difference image generation means the feature area image acquired this time and the feature area image buffer A difference image generation step of generating a difference image (A) by generating a difference image of the feature area image acquired before reading from the key and storing the currently acquired feature area image in the feature area image buffer; ,
  • the phase difference measurement means generates a phase pattern based on the difference image (A) acquired this time, measures the phase difference between the phase pattern acquired this time and the phase pattern acquired before the phase pattern buffer force was read out. Based on phase difference and amplitude! A phase difference measurement step of generating a difference image (B) and storing the difference image (A) acquired this time in the phase pattern buffer;
  • the difference image (B) is accumulated by adding pixel values for each pixel, and the detection target area is extracted from the difference image (B) accumulation buffer obtained by the addition accumulation.
  • the detection target area extraction step takes an absolute value of a pixel value of the difference image (B) accumulation buffer when extracting the detection target area from the difference image (B) accumulation buffer obtained by addition accumulation. It is also possible to include a step of extracting a detection target area from the obtained image and obtaining a difference image before taking an absolute value (B) an image of the detection target area of the accumulation buffer as a detection target area image.
  • the detection target region extraction step a plurality of detection target regions are extracted
  • a digital watermark detection trial may be performed on each of the plurality of detection target regions, and a detection result may be output.
  • the digital watermark detection step may include a step of detecting permeability information using a decoding process of an existing two-dimensional code when the watermark is detected.
  • the digital watermark detection method further includes a step of further filtering the difference image generated by the difference processing and outputting the filtered difference image. It is good.
  • a non-linear filter can be used as the filtering process.
  • the input moving image may be a captured and captured video signal.
  • the step of performing feedback output according to any one or a plurality of processing statuses of the detection target region extraction status, the digital watermark detection status, the data block detection status, or by an external output means for outputting audio You may have.
  • the zoom parameter may include a zoom processing step in which a zoom parameter is set so that the detection target region has a given pixel size, and the zoom parameter is applied to the moving image input unit to perform zoom processing.
  • zoom processing step when the detection status in the digital watermark detection step is favorable, zooming is performed so that the detection target area has a given pixel size based on the detection target area information. It may be configured to include a step of setting a parameter and giving it to the moving image input means to perform zoom processing.
  • a moving image to be input is captured in real time by a camera and captured while being displayed on a display.
  • the method may include a step of acquiring information related to the displayed moving image based on the transparency information obtained by the digital watermark detection.
  • a digital watermark embedding device a digital watermark detection device, a program, and a recording medium on which the program is recorded, which are suitable for carrying out the above method.
  • the present invention it is possible to provide a post-operation that enables a moving image of a television or the like to be captured by a camera, and the digital watermark detection to be performed on the real time based on the captured moving image power. Also, specify which partial force in the captured frame image should be detected by electronic permeability. It is possible to provide technology that can reliably detect digital watermarks even under various shooting angles and background image conditions.
  • FIG. 1A is a flowchart of an electronic watermark embedding method of A.
  • FIG. 1B is a flowchart of an electronic watermark detection method A of the embodiment.
  • FIG. 2A is a configuration diagram of an electronic permeability embedding device of A.
  • FIG. 2B is a configuration diagram of the digital watermark detection apparatus of A.
  • FIG. 3A is a flowchart of the electronic permeability embedding method B according to the outline of the embodiment.
  • FIG. 3B is a flowchart of the digital watermark detection method of embodiment B.
  • FIG. 4A is a configuration diagram of an electronic permeability embedding device B according to the outline of the embodiment.
  • FIG. 4B is a configuration diagram of the digital watermark detection apparatus of embodiment B.
  • FIG. 5A is a flowchart of the digital watermark embedding method C according to the embodiment.
  • FIG. 5B is a flowchart of the digital watermark detection method of embodiment C.
  • FIG. 6A is a block diagram of the C digital watermark embedding apparatus.
  • FIG. 6B is a block diagram of the C digital watermark detection apparatus.
  • FIG. 7 is a configuration diagram of an electronically permeable embedding device according to the first embodiment of the present invention.
  • FIG. 8 is a flowchart of the operation of the electronically permeable embedding device in the first embodiment of the present invention.
  • FIG. 9 is a diagram for explaining processing of a frame image acquisition unit in the first embodiment of the present invention.
  • FIG. 10 is a configuration diagram of a watermark pattern generation unit in the first embodiment of the present invention.
  • FIG. 11 is a flowchart of the operation of the watermark pattern generation unit in the first embodiment of the present invention.
  • FIG. 12 is a diagram (No. 1) for explaining an example of processing by the basic watermark pattern generation unit in the first embodiment of the present invention
  • FIG. 13 is a diagram (No. 2) for explaining an example of the process of the basic watermark pattern generation unit in the first embodiment of the present invention
  • FIG. 14A is a diagram for explaining an example of watermark pattern switching information in the first embodiment of the present invention.
  • FIG. 14B is a diagram for explaining an example of watermark pattern switching information according to the first embodiment of the present invention.
  • FIG. 14C is a diagram for explaining an example of watermark pattern switching information in the first embodiment of the present invention.
  • FIG. 15 is a diagram (No. 1) for explaining the processing of the watermark pattern switching unit in the first embodiment of the invention.
  • FIG. 16 is a diagram (No. 2) for explaining the processing of the watermark pattern switching unit in the first embodiment of the invention.
  • FIG. 17 is a diagram for explaining processing of a watermark pattern superimposing unit in the first embodiment of the present invention.
  • FIG. 18 is a diagram for explaining a use scene of the present invention.
  • FIG. 19 is a configuration diagram of the digital watermark detection apparatus in the first embodiment of the present invention. 20] A flowchart of the operation of the digital watermark detection apparatus in the first embodiment of the present invention.
  • FIG. 21 is a diagram for explaining processing of a detection target region extraction unit in the first embodiment of the present invention.
  • FIG. 22 is a diagram for explaining processing of the difference image generation unit in the first embodiment of the present invention.
  • FIG. 23 is a diagram for explaining an example of processing of the digital watermark detection unit in the first embodiment of the present invention.
  • FIG. 24 is a diagram for explaining an effect in the first embodiment of the present invention.
  • FIG. 25 is a configuration diagram of the digital watermark detection apparatus in the second embodiment of the present invention.
  • FIG. 26 An operation flowchart of the digital watermark detection apparatus in the second embodiment of the present invention.
  • FIG. 27 is a diagram for explaining the processing of the detection necessity determination unit in the second embodiment of the present invention.
  • ⁇ 28A] It is a diagram for explaining an effect in the second embodiment of the present invention.
  • ⁇ 28B] is a diagram for illustrating an effect in the second embodiment of the present invention.
  • FIG. 31 is a diagram (No. 1) for explaining the processing of the capture timing control unit in the third embodiment of the present invention.
  • FIG. 32 is a diagram (No. 2) for explaining the processing of the capture timing control unit in the third embodiment of the present invention.
  • FIG. 33 is a diagram for explaining an effect in the third embodiment of the present invention.
  • FIG. 33 is a diagram for explaining an effect in the third embodiment of the present invention.
  • FIG. 34A is a diagram for explaining processing of a basic watermark pattern generation unit in the fourth embodiment of the present invention.
  • FIG. 34B is a diagram for explaining processing of a basic watermark pattern generation unit in the fourth embodiment of the present invention.
  • ⁇ 35] is a flowchart of the operation of the digital watermark detection unit in the fourth embodiment of the present invention.
  • a diagram for explaining the effect of the fourth embodiment of the present invention (part 1) ⁇ 37]
  • a diagram for explaining the effect of the fourth embodiment of the present invention (part 2) ⁇ 38] is a diagram (No. 3) for explaining the effect of the fourth exemplary embodiment of the present invention.
  • FIG. 39 is a diagram for explaining an example of processing of a basic watermark pattern generation unit in the fifth embodiment of the present invention.
  • FIG. 40 is a flowchart of the operation of the digital watermark detection unit in the fifth embodiment of the present invention.
  • FIG. 41 is a configuration diagram of the digital watermark detection unit in the sixth embodiment of the present invention.
  • FIG. 42 is a flowchart of the operation of the digital watermark detection unit in the sixth embodiment of the present invention.
  • FIG. 43 A diagram for explaining processing of a difference image phase determination unit in the sixth embodiment of the present invention.
  • FIG. 44 is a diagram for explaining a difference image storage buffer in the sixth embodiment of the invention.
  • FIG. 45 Configuration diagram of the digital watermark detection unit in the seventh embodiment of the present invention.
  • FIG. 46 is a flowchart of the operation of the digital watermark detection unit in the seventh embodiment of the present invention.
  • FIG. 47 A diagram for explaining the contents of the processing relating to the correlation value buffer in the seventh embodiment of the present invention.
  • FIG. 48A is a diagram for explaining the processing contents of the detection availability determination unit in the seventh embodiment of the present invention.
  • FIG. 48B is a diagram for describing the contents of the processing of the detectability determination unit in the seventh embodiment of the present invention.
  • FIG. 49 is a configuration diagram of a watermark pattern generation unit in an eighth embodiment of the present invention.
  • FIG. 50 is a flowchart of the operation of the watermark pattern generation unit in the eighth embodiment of the present invention.
  • FIG. 51 is a diagram for describing processing of a permeability information dividing unit in the eighth embodiment of the present invention.
  • FIG. 52A is a diagram for explaining processing of a basic watermark pattern generation unit in the eighth embodiment of the present invention.
  • FIG. 52B is a diagram for explaining processing of a basic watermark pattern generation unit in the eighth embodiment of the present invention.
  • FIG. 53 is a configuration diagram of a digital watermark detection apparatus in an eighth embodiment of the present invention.
  • FIG. 54 is a flowchart of the operation of the digital watermark detection apparatus in the eighth embodiment of the present invention.
  • FIG. 55 is a configuration diagram of the detection data block storage unit in the eighth embodiment of the present invention.
  • FIG. 56 is a flowchart of the operation of the detection data block storage unit in the eighth embodiment of the present invention.
  • FIG. 57] is a diagram (No. 1) for explaining the processing of the detection data block storage unit in the eighth embodiment of the invention.
  • FIG. 58 is a diagram (No. 2) for explaining the process of the detection data block accumulating unit in the eighth embodiment of the present invention.
  • FIG. 59 is a diagram for explaining an example of processing of a basic watermark pattern generation unit in the ninth embodiment of the present invention.
  • FIG. 60 is a flowchart of the operation of the digital watermark detection unit in the ninth embodiment of the present invention.
  • ⁇ 61 It is a block diagram of a digital watermark detection unit in the tenth embodiment of the present invention.
  • FIG. 62 is a flowchart of the operation of the digital watermark detection unit in the tenth embodiment of the present invention.
  • FIG. 64 is a flowchart of the operation of the digital watermark detection unit in the eleventh embodiment of the present invention.
  • ⁇ 65 It is a block diagram of the digital watermark detection apparatus in the twelfth embodiment of the present invention. 66] This is a flowchart of the operation of the digital watermark detection apparatus in the twelfth embodiment of the present invention.
  • FIG. 70 is a diagram for explaining processing of a watermark pattern superimposing unit in the thirteenth embodiment of the present invention.
  • FIG. 71 is a block diagram of the digital watermark detection apparatus in the thirteenth embodiment of the present invention.
  • 72 A flowchart of the operation of the digital watermark detection apparatus in the thirteenth embodiment of the present invention.
  • FIG. 73 is a diagram for describing processing of a difference image generation unit in the thirteenth embodiment of the present invention.
  • FIG. 74 is a diagram for explaining processing of a detection target region extraction unit in the thirteenth embodiment of the present invention.
  • FIG. 75 (No. 1) for explaining the effect of the thirteenth embodiment of the present invention.
  • ⁇ 76 (No. 2) for explaining the effect of the thirteenth embodiment of the present invention.
  • FIG. 77 A diagram (No. 3) for explaining the effect of the thirteenth embodiment of the present invention.
  • ⁇ 78] (No. 4) for explaining the effect of the thirteenth embodiment of the present invention.
  • FIG. 79 is a diagram for explaining an example of processing of a basic watermark pattern generation unit in the fourteenth embodiment of the present invention.
  • FIG. 80 is a diagram for explaining processing of a detection target region extraction unit in the fourteenth embodiment of the present invention.
  • FIG. 81 is a diagram for explaining an effect of the fourteenth embodiment of the present invention.
  • FIG. 81B] is a diagram for explaining the effect of the fourteenth embodiment of the present invention.
  • FIG. 82 is a diagram for explaining an example of processing of a basic watermark pattern generation unit in the fourteenth embodiment of the present invention.
  • FIG. 83 is a diagram for explaining processing of a detection target region extraction unit in the fifteenth embodiment of the present invention.
  • ⁇ 84 It is a block diagram of the digital watermark detection apparatus in the sixteenth embodiment of the present invention.
  • FIG. 87] is a diagram (No. 2) for explaining the process of the feature region extraction unit in the sixteenth embodiment of the present invention.
  • FIG. 88] is a diagram (No. 3) for explaining the process of the feature region extraction unit in the sixteenth embodiment of the present invention.
  • FIG. 90 is a diagram (No. 5) for explaining the process of the feature region extraction unit in the sixteenth embodiment of the present invention.
  • FIG. 91] is a diagram (No. 1) for describing a process of the difference image generation unit in the sixteenth embodiment of the present invention.
  • FIG. 92] is a diagram (No. 2) for explaining the process of the difference image generation unit in the sixteenth embodiment of the present invention.
  • FIG. 93] is a diagram (No. 3) for explaining the process of the difference image generation unit in the sixteenth embodiment of the present invention.
  • FIG. 94 is a diagram for describing processing of a feature region extraction unit in the seventeenth embodiment of the present invention.
  • FIG. 95 is a diagram for explaining processing of a detection target region extraction unit in the seventeenth embodiment of the present invention.
  • FIG. 1 A diagram (No. 1) for explaining a detection target region extraction processing according to the eighteenth embodiment of the present invention.
  • FIG. 97 is a diagram (No. 2) for explaining the detection target region extraction processing according to the eighteenth embodiment of the present invention.
  • FIG. 99 is a diagram (No. 4) for explaining the detection target region extraction processing according to the eighteenth embodiment of the present invention.
  • FIG. 100 is a configuration diagram of the digital watermark detection apparatus in the nineteenth embodiment of the present invention.
  • ⁇ 101] is a flowchart of the operation of the digital watermark detection apparatus in the nineteenth embodiment of the present invention.
  • FIG. 103 is a diagram (No. 2) for explaining the process of the detection target region extraction unit in the nineteenth embodiment of the present invention.
  • ⁇ 104 It is a block diagram of the digital watermark detection apparatus in the nineteenth embodiment of the present invention.
  • ⁇ 105] A flowchart of the operation of the digital watermark detection apparatus in the nineteenth embodiment of the present invention.
  • FIG. 106 is a diagram (No. 1) for explaining a process of the detection target region extraction unit in the nineteenth embodiment of the present invention.
  • FIG. 107 is a diagram (No. 2) for explaining the process of the difference image generation unit in the nineteenth embodiment of the present invention.
  • FIG. 108 is a diagram (No. 1) for explaining a process of the watermark pattern superimposing unit in the twentieth embodiment of the present invention.
  • FIG. 109 is a diagram (No. 2) for explaining the process of the watermark pattern superimposing unit in the twentieth embodiment of the present invention.
  • ⁇ 110 A diagram for explaining a process of the difference image generation unit in the twentieth embodiment of the present invention.
  • FIG. 111 is a diagram (No. 1) for explaining a process of the detection target region extraction unit in the twentieth embodiment of the present invention.
  • FIG. 112 is a diagram (No. 2) for explaining the processing of the detection target region extraction unit in the twentieth embodiment of the present invention.
  • FIG. 117 is a diagram for explaining an example of watermark pattern switching information in the twenty first embodiment of the present invention.
  • FIG. 118 is a diagram for explaining processing of a watermark pattern switching unit in the twenty first embodiment of the present invention.
  • FIG. 119 is a diagram for explaining processing of a watermark pattern switching unit in the twenty first embodiment of the present invention.
  • FIG. 120 is a diagram for explaining an example of a process of the difference image generation unit in the twenty first embodiment of the present invention.
  • FIG. 121 is a diagram (No. 1) for describing a principle of a twenty-first embodiment of the present invention.
  • FIG. 122 is a diagram (No. 2) for explaining the principle of the twenty-first embodiment of the present invention.
  • FIG. 123 is a diagram (No. 3) for explaining the principle of the twenty-first embodiment of the present invention.
  • ⁇ 124] A diagram for explaining the effect of the twenty-first embodiment of the present invention.
  • ⁇ 125 A diagram for explaining a process of the difference image generation unit in the twenty second embodiment of the present invention.
  • FIG. 126A is a diagram for explaining an example of filter processing in a twenty-second embodiment of the present invention.
  • FIG. 126B is a diagram for explaining an example of filter processing in the twenty-second embodiment of the present invention.
  • FIG. 127 is a diagram for explaining processing of a force-permeable weight part in a twenty-third embodiment of the present invention.
  • FIG. 128 is a diagram for explaining an example of watermark pattern amplitude adjustment in the twenty-third embodiment of the present invention.
  • FIG. 133 is a diagram (No. 1) for explaining a process of the watermark pattern switching unit in the twenty fifth embodiment of the present invention.
  • FIG. 134 is a figure (2) for explaining processes of the watermark pattern switching unit in the twenty fifth embodiment of the present invention.
  • ⁇ 135 It is a block diagram of the digital watermark detection apparatus in the twenty fifth embodiment of the present invention.
  • ⁇ 136] A flowchart of the operation of the digital watermark detection apparatus in the twenty fifth embodiment of the present invention.
  • FIG. 137 is a diagram for explaining processing of a difference image generation unit in the twenty fifth embodiment of the present invention.
  • No. 1 is a diagram for explaining processing contents of a phase difference measurement unit in the twenty fifth embodiment of the present invention.
  • ⁇ 139 A diagram (No. 2) for explaining the contents of the process of the phase difference measurement unit in the twenty fifth embodiment of the present invention.
  • ⁇ 140A] (No. 3) is a diagram for explaining processing contents of a phase difference measurement unit in the twenty fifth embodiment of the present invention.
  • ⁇ 140B] (No. 3) is a diagram for explaining processing contents of a phase difference measurement unit in the twenty fifth embodiment of the present invention.
  • ⁇ 141] (No. 1) for explaining the effect of the twenty-fifth embodiment of the present invention.
  • ⁇ 142] (No. 2) for explaining the effect of the twenty-fifth embodiment of the present invention.
  • ⁇ 143] (No. 3) for explaining the effect of the twenty-fifth embodiment of the present invention.
  • ⁇ 144] (4) for explaining effects of the twenty-fifth embodiment of the present invention.
  • 145145] A diagram (No. 5) for explaining the effect of the twenty-fifth embodiment of the present invention.
  • 146] (No. 6) for explaining the effect of the twenty-fifth embodiment of the present invention.
  • ⁇ 147] A diagram (No. 7) for explaining the effect of the twenty-fifth embodiment of the present invention.
  • 148148] (No.
  • FIG. 19 is a figure (19) for explaining effects of the twenty-fifth embodiment of the present invention.
  • FIG. 160 is a figure (20) for explaining effects of the twenty-fifth embodiment of the present invention. ⁇ 161] (No. 21) for explaining effects of the twenty-fifth embodiment of the present invention.
  • FIG. 162 is a configuration diagram of an electronic permeability embedding device according to a twenty-sixth embodiment of the present invention.
  • FIG. 163 is a flowchart of the operation of the electronically permeable embedding device in the twentieth embodiment of the present invention.
  • FIG. 164 is a diagram for explaining processing of a frame image acquisition unit in the twenty sixth embodiment of the present invention.
  • ⁇ 165 It is a block diagram of the watermark pattern generation unit in the twenty-sixth embodiment of the present invention.
  • FIG. 166 is a flowchart of operation of the watermark pattern generation unit in the twenty sixth embodiment of the present invention.
  • FIG. 167 is a diagram for explaining an example of processing of a basic watermark pattern generation unit in the twenty sixth embodiment of the present invention.
  • FIG. 168 is a block diagram of the watermark pattern switching unit in the twenty sixth embodiment of the present invention.
  • FIG. 169 is a flowchart of the operation of the watermark pattern switching unit in the twenty sixth embodiment of the present invention.
  • FIG. 170 illustrates an example of watermark pattern switching information in the twenty sixth embodiment of the present invention. It is a figure for clarification.
  • FIG. 171 is a diagram for explaining processing of a watermark pattern switching unit in the twenty sixth embodiment of the present invention.
  • FIG. 172 is a diagram for explaining processing of a watermark phase pattern image key portion in the twenty sixth embodiment of the present invention.
  • FIG. 173 is a diagram for explaining processing of a watermark pattern superimposing unit in the twenty sixth embodiment of the present invention.
  • ⁇ 180A] (No. 3) is a diagram for explaining processing contents of a phase difference measuring unit in the twenty sixth embodiment of the present invention.
  • ⁇ 180B] is a diagram (No. 3) for explaining the contents of the processing of the phase difference measurement unit in the twenty sixth embodiment of the present invention.
  • a difference image (B) in the twenty-sixth embodiment of the present invention is a view for explaining an accumulation buffer.
  • FIG. 182 is a diagram for describing processing of a detection target region extraction unit in the twenty sixth embodiment of the present invention.
  • FIG. 183 is a diagram for explaining an example of processing of the digital watermark detection unit in the twenty sixth embodiment of the present invention. Explanation of symbols
  • 1A to 2B are diagrams showing an outline A of the embodiment.
  • FIG. 1A shows a flowchart of the electronic permeability embedding method of the outline A of the embodiment.
  • This method is an electronic watermark embedding method in an electronic permeability embedding device for embedding electronic permeability in a moving image.
  • moving image data consisting of a group of frame images, watermark information, and watermark pattern switching information are embedded in the electronic transparency.
  • the digital watermark embedding device includes each frame image of the moving image data and the frame image.
  • the digital watermark embedding device generates watermarked moving image data by combining the watermarked frame image groups obtained by sequentially repeating Step 2 to Step 4 (Step A5).
  • FIG. 1B shows a flowchart of the electronic watermark detection method of the outline A of the embodiment.
  • This method is a digital watermark detection method in a digital watermark detection apparatus that detects a digital image power as well as a moving image power.
  • frame images are sequentially acquired (step A6).
  • the digital watermark detection device generates a difference image between the frame image acquired this time and the frame image acquired previously (step A7), detects a digital watermark from the difference image, and performs digital transparency.
  • the detection status is output (step A8).
  • the digital watermark detection apparatus continues the digital watermark detection process including the case where the digital watermark cannot be detected, a new input is made by the moving image input means. Re-acquire the frame image and repeat the above process (Step A9).
  • FIG. 2A shows a configuration diagram of the electronic transparent embedding device of outline A of the embodiment.
  • This electronic transparent embedding device includes frame image acquisition means A110 for sequentially acquiring each frame image of the moving image data that also has the input frame image group power and the frame display time, and the input transparency information and the frame display.
  • Watermark pattern generation means A120 for generating a watermark pattern using the time and input watermark pattern switching information
  • watermark pattern superimposition means A130 for superimposing a watermark pattern on a frame image
  • moving image data reconstruction means A140 for generating watermarked moving image data by combining the watermarked frame image groups obtained by sequentially repeating the above processes.
  • FIG. 2B shows a configuration diagram of the digital watermark detection apparatus A according to the outline A of the embodiment.
  • the digital watermark detection apparatus includes a moving image input unit A210 that sequentially acquires frame images, a difference image generation unit A230 that generates a difference image between a frame image acquired this time and a frame image acquired previously, a difference image Digital watermark detection means A240 for detecting the digital watermark from and outputting the detection status of the electronic permeability.
  • 3A to 4B are diagrams showing an outline B of the embodiment.
  • FIG. 3A shows a flowchart of the electronic permeability embedding method of the outline B of the embodiment. This method is a digital watermark embedding method in a digital watermark embedding apparatus that embeds an electronic watermark in a moving image.
  • Step Bl the digital watermark embedding apparatus sequentially acquires each frame image of the moving image data and the display time of the frame image.
  • the digital watermark embedding apparatus generates a watermark pattern using the watermark information, the frame image display time, and the watermark pattern switching information (Step B2), and superimposes the watermark pattern on the frame image (Step B3).
  • the digital watermark embedding apparatus generates watermarked moving image data by combining the watermarked frame image groups obtained by sequentially repeating Step B1 to Step B3 (Step B4).
  • FIG. 3B shows a flowchart of the digital watermark detection method of the outline B of the embodiment.
  • This method is a digital watermark detection method using a digital watermark detection apparatus that detects the digital image power as well as moving image power.
  • frame images are sequentially acquired (step Bl).
  • the digital watermark detection device generates a difference image (A) between the currently acquired frame image and the previously acquired frame image read from the image storage unit, and stores the currently acquired frame image in the image storage unit.
  • Step B12 The digital watermark detection device generates a phase pattern based on the difference image (A) acquired this time, and measures the phase difference between the phase pattern acquired this time and the phase pattern acquired before reading the phase pattern storage means power.
  • a difference image (B) is generated, and the phase pattern acquired this time is stored in the phase pattern storage means (step B13). Then, the digital watermark detection apparatus detects the digital watermark from the difference image (B), outputs the digital watermark detection status (step B14), and continues the digital watermark detection process when a new frame is detected. The image is reacquired and the above process is repeated (step B15).
  • FIG. 4A shows a configuration diagram of the electronic permeability embedding device of the outline B of the embodiment.
  • This electronic transparent embedding device is a frame image acquisition method for sequentially acquiring each frame image of moving image data that also has an input frame image group power and the display time of the frame image.
  • a watermark pattern generation means for generating a watermark pattern using stage Bl 10 and watermark pattern switching information which is periodic information for designating the input transparency information, frame image display time, and phase variation of the watermark pattern B120
  • watermark pattern superimposing means B130 for superimposing the watermark pattern on the frame image
  • moving image data reconstruction means B140 for generating watermarked moving image data by combining the watermarked frame image groups and outputting them.
  • FIG. 4B shows a configuration diagram of the digital watermark detection apparatus of outline B of the embodiment.
  • This digital watermark detection apparatus generates a moving image input means B210 that sequentially acquires frame images, a frame image acquired this time, and a difference image (A) between the frame image acquired previously read from the image storage means,
  • the difference image generation means B230 that stores the frame image acquired this time in the image storage means B250, and the phase pattern generated based on the difference image (A) acquired this time, the phase pattern acquired this time and the phase pattern storage means B370 Measures the phase difference of the phase pattern acquired before reading from, generates a difference W (B) based on the phase difference, and stores the phase pattern acquired this time in the phase pattern storage means
  • Phase difference calculation means B360 for performing digital watermark detection from the difference image (B) and outputting a detection status of the electronic watermark.
  • FIG. 5A to FIG. 6B are diagrams showing an outline C of the embodiment.
  • FIG. 5A shows a flowchart of the electronic permeability embedding method of the outline C of the embodiment.
  • This method is an electronic watermark embedding method in an electronic watermark embedding apparatus that embeds an electronic watermark in a moving image.
  • moving image data consisting of a group of frame images, watermark information, and watermark pattern switching information are embedded in electronic transparency.
  • Input to the device step Cl.
  • the digital watermark embedding device sequentially acquires each frame image of the moving image data and the frame display time (Step C2), and uses the watermark information, the frame display time, and the watermark pattern switching information to use the watermark pattern. Is generated (step C3).
  • the digital watermark embedding device scales the watermark pattern to a size smaller than that of the frame image and superimposes it inside the frame image (step C4), and adds a watermarked frame image group obtained by sequentially repeating steps C2 to C4. Combine to generate watermarked video data (Step C5
  • FIG. 5B shows a flowchart of the digital watermark detection method of the outline C of the embodiment.
  • This method is a digital watermark detection method in a digital watermark detection apparatus that detects a digital image power as well as a moving image force.
  • frame images are sequentially acquired (step C6).
  • the digital watermark detection device generates a differential image between the frame image acquired this time and the previously acquired frame image (step C7), and extracts a detection target region from the difference image to generate a detection target region image. (Step C8).
  • the digital watermark detection apparatus detects the digital watermark from the detection target region image, outputs the digital watermark detection status (step C9), and continues the digital watermark detection process depending on the detection status.
  • a new frame image is acquired again and the above processing is repeated (step C10).
  • FIG. 6A shows a configuration diagram of the electronic permeability embedding device of the outline C of the embodiment.
  • This digital watermark embedding device uses frame image acquisition means C110 that sequentially acquires each frame image and frame display time of moving image data, and input transparency information, watermark pattern switching information, and frame display time.
  • the watermark pattern generating means C120 for generating a watermark pattern, the watermark pattern superimposing means C130 for changing the scale of the watermark pattern to a size smaller than that of the frame image and superimposing it inside the frame image, and the above processing are sequentially repeated.
  • moving image data reconstructing means C140 for generating a watermarked moving image data by combining the watermarked frame image groups.
  • FIG. 6B shows a configuration diagram of the digital watermark detection apparatus of outline C of the embodiment.
  • This digital watermark detection apparatus includes a moving image input unit C210 that sequentially acquires frame images, a difference image generation unit C230 that generates a difference image between a frame image acquired this time and a frame image acquired previously, a difference image Detection target region extraction means C220 for generating a detection target region image by extracting a detection target region from the detection target, and digital watermark detection means C240 for performing digital watermark detection from the detection target region image and outputting the detection status of the digital watermark And have.
  • FIG. 7 shows the configuration of the digital watermark embedding apparatus according to the first embodiment of the present invention.
  • the electronic transparency embedding device 100 shown in the figure includes a frame image acquisition unit 110, a watermark pattern generation unit 120, a watermark pattern superimposition unit 130, and a moving image data reconstruction unit 140.
  • the original image data is input to the frame image acquisition unit 110, and the watermark information and the watermark pattern switching information are input to the watermark pattern generation unit 120.
  • the moving image data reconstruction unit 140 outputs watermarked moving image data.
  • FIG. 8 is a flowchart of the operation of the electronically permeable embedding device according to the first embodiment of the present invention.
  • Step 110 The frame image acquisition unit 110 sequentially acquires the frame image and the frame display time one by one from the original moving image data as shown in FIG.
  • the frame display time may represent, for example, an absolute time from the beginning of the moving image determined from the time code and the frame rate at the time of reproduction, or a serial number assigned to each frame, etc. It can be used to measure the relative time interval between frames during playback.
  • the input moving image data is MPEG data such as MPEG
  • the frame image acquisition unit 110 performs decoding to acquire a frame image.
  • Step 120) The watermark pattern generation unit 120 receives the watermark information and the watermark pattern switching information, and generates a watermark pattern using the watermark information, the frame display time, and the watermark pattern switching information.
  • Step 130 The watermark pattern superimposing unit 130 superimposes the watermark pattern generated by the watermark pattern generating unit 120 on the frame image to generate a watermarked frame image.
  • Step 140 Finally, the moving image data reconstruction unit 140 reconstructs the sequence of watermarked frame images generated in sequence as moving image data and outputs it as watermarked moving image data. At this time, if necessary, code encoding such as MPEG encoding may be performed.
  • FIG. 10 shows the configuration of the watermark pattern generation unit in the first embodiment of the present invention.
  • the watermark pattern generation unit 120 includes a basic watermark pattern generation unit 121 and a watermark pattern switching unit 122.
  • FIG. 11 is a flowchart of the operation of the watermark pattern generation unit in the first embodiment of the present invention.
  • Step 121) When the watermark watermark blue is input, the basic watermark pattern generator 121 converts the watermark information into a basic watermark pattern that is a two-dimensional pattern.
  • this conversion method is a method used in the ordinary electronic image transmission technology for still images, for example, “Nakamura, Katayama, Yamamuro, Sonehara:” "High-speed digital watermarking from analog images used", IEICE (D-II), Vol. J87-D-II, No.12, pp.2145-2155, December 2004 " Can be used.
  • the method involves associating the magnitude of pixel values according to the value of the sequence obtained by direct spread spectrum modulation of the bit value of the transparent frame blue ( Figure 12: Modulation method ( A— 1)), changing the waveform pattern of a block (Figure 12: Modulation method (A 2)), or associating values of series terms with two blocks and expressing the value by the presence or absence of changes in pixel values ( Fig. 12: Modulation method (A-3)) and the method of expressing by the presence or absence of phase change of waveform pattern (Fig. 12: Modulation method (A-4)).
  • modulation is performed as shown in (Fig. 12: A-3) and (Fig. 12: A-4)
  • modulation is performed by shifting the positions of the two blocks corresponding to the terms of the sequence by shifting one block at a time. it can.
  • the watermark information is divided into symbols of a certain length (in FIG. 13, each bit is divided as one symbol), and for each possible value of each symbol.
  • Corresponding different independent spreading sequences, concatenating them, or superimposing and superimposing them (not shown), converting the value of the sequence into a two-dimensional pattern as in the case of FIG. A way is also conceivable.
  • these basic watermark patterns preferably have a large block size or a low-frequency waveform pattern in consideration of the case where the resolution at the time of camera capture is low.
  • the result of the spread spectrum modulation of the transparent information is directly pixel-patterned.
  • the image pattern may be obtained by inverse orthogonal transformation in the same manner in the frequency space. In any case, any electronic permeation type that is additively superimposed on the image may be used.
  • Step 122) Subsequently, the watermark pattern generation unit 120 determines whether or not the phase inversion of the basic watermark pattern is necessary in the watermark pattern switching unit 122 2 from the relationship between the frame display time and the pattern switching information.
  • Step 123) If phase inversion is necessary, the phase of the basic watermark pattern is inverted and output as a watermark pattern.
  • Step 124) If phase inversion is not required, the basic watermark pattern is output as it is as a watermark pattern.
  • the watermark pattern switching information is information indicating how to change the phase of the basic watermark pattern with respect to the time axis during playback of a moving image, and the basic watermark pattern is inverted at a certain time as shown in FIG. 14A. Can be instructed to invert at random as shown in FIG. 14B, or can be instructed to invert at a complicated timing as shown in FIG. 14C. Since the analysis becomes difficult by using a complicated pattern such as random switching, when the present invention is used for security purposes such as copyright protection, security against an attack against a digital watermark is increased. Note that the examples in FIGS. 14A to 14C show only a case where the binary values of phase 0 and ⁇ are rectangular, for example, a force whose phase changes to a sliding force such as a sine force probe may be used. .
  • FIG. 15 is a diagram for explaining processing of the watermark pattern switching unit in the first embodiment of the present invention.
  • the watermark pattern switching unit 122 includes watermark pattern switching information and a frame. Assume that the display time and basic watermark pattern are input, and that the watermark pattern switching information indicates inversion every 1Z10 seconds as shown in FIG. In addition, if the original image is played back in 30 frames and Z seconds, the phase is inverted every 3 frames.
  • the frame display time t acquired by the frame image acquisition unit 110 is taken on the time axis of the watermark pattern switching information, it is assumed that the phase represented by the watermark pattern switching information is ⁇ . In this case, the watermark pattern for the frame display time is obtained by inverting the phase of the basic watermark pattern.
  • the phase inversion is obtained by multiplying each pixel value by 1. Also, if the phase when the frame display time t 'is taken on the time axis of the watermark pattern switching information is 0, the phase change amount of the basic watermark pattern is 0, that is, the change is not given and is output as it is as the watermark pattern To do.
  • the phase modulation in the watermark pattern switching unit 122 is performed on the amplitude of the pixel value, for example, for each block as in the modulation method (A-2).
  • the direction of the waveform does not change and the pixel value is inverted.
  • the change in the phase of the watermark pattern represented by the watermark pattern switching information changes between the normal phase and the reverse phase within a certain time interval (for example, 1 second) in order to suppress the deterioration of the image quality of the watermarked moving image. It is desirable that there is no bias. In other words, it is desirable that the horizontal axis of the graph display in FIG.
  • FIG. 17 is a diagram for explaining the processing of the watermark pattern superimposing unit in the first embodiment of the present invention.
  • the watermark pattern superimposing unit 130 receives a frame image and a watermark pattern generated based on the frame display time.
  • the watermark pattern superimposing unit 130 first stretches the watermark pattern to the size of the frame image, and then adds it to the frame image. To obtain a watermarked frame image. It is also possible to adjust the trade-off balance between the resistance to electronic permeability and image quality deterioration by adding and increasing the watermark pattern amplitude before and after the addition.
  • the power to add to any component can have various modes. For example, add to the luminance value of the frame image, or add to the Blue component of the RGB color system. Add to the yellow component of the CMYK color system.
  • Addition to the Hue component of the HSV color system and addition to the Cb component of the YCbCr color system are various.
  • there may be a watermark pattern that uses multiple components such that one pixel of the watermark pattern has two values rather than one value.
  • the Red component and Green component of the RGB color system It is also possible to change a plurality of components by adding pixel values of each plane of the watermark pattern to each other.
  • the moving image data reconstruction unit 140 reconstructs the watermarked frame image sequentially generated by the above processing as moving image data, and outputs it as watermarked moving image data.
  • code encoding such as MPEG encoding may be performed.
  • FIG. 18 is a diagram for explaining a usage scene in the first embodiment of the present invention.
  • the watermarked moving image data power described above is reproduced on a television display device by, for example, television broadcasting (1).
  • a camera such as a camera-equipped mobile phone is pointed at a television display screen to start shooting (2).
  • video frames are sequentially captured on the mobile phone in real time, and this frame group force is also detected by electronic permeability (3). Based on the detected electronic permeability information, it is possible to use related information services such as obtaining information resources on the network [4].
  • FIG. 19 shows the configuration of the digital watermark detection apparatus in the first embodiment of the present invention.
  • the digital watermark detection apparatus 200A shown in the figure includes a moving image input unit 210, a detection target region extraction unit 220, a difference image generation unit 230, a digital watermark detection unit 240, and a detection target region image buffer 250. ing.
  • the moving image input unit 210 receives an analog moving image displayed on a television or the like, or an MPEG-encoded digital moving image, and the digital watermark detection unit 240 outputs a detection result.
  • FIG. 20 is a flowchart of the operation of the digital watermark detection apparatus in the first embodiment of the present invention.
  • Step 201) When an analog or digital moving image is input in the moving image input unit 210, frame images are sequentially acquired.
  • a camera is scanned or an analog video signal is input to obtain a frame image, and if it is a digital moving image, a frame image is obtained by performing a decoding process or the like. .
  • Step 202) Next, in the detection target region extraction unit 220, a detection target region that is a target of watermark detection in each sequentially input frame image is extracted to obtain a detection target region image. .
  • Step 203 the difference image generation unit 230 generates a difference image between the currently acquired detection target area image and the previously acquired detection target area image stored in the detection target area image buffer 250. To do.
  • Step 205) The digital watermark detection unit 240 attempts to detect the digital watermark with respect to the difference image power, and outputs the detection result. If the digital watermark detection is successful, the moving image input unit 210 obtains the next frame image, and repeats the above processing in sequence.
  • FIG. 21 is a diagram for explaining the processing of the detection target region extraction unit in the first embodiment of the present invention.
  • the detection target region extraction unit 220 receives a frame image as an input.
  • Figure 21 shows an example of camera input.
  • the detection target area in the frame image changes in various ways due to geometric distortion due to planar projective transformation caused by the shooting angle or camera shake.
  • the detection target region extraction unit 220 uses, for example, “Katayama, Nakamura, Yamamuro, Sonehara:“ i-appli high-speed corner detection algorithm for reading electronic permeability ”for each captured frame image.
  • Edge detection 'corner detection' such as "Science theory (D-II), Vol. J88-D-II, No.
  • FIG. 22 is a diagram for explaining processing of the difference image generation unit in the first embodiment of the present invention.
  • the difference image generation unit 230 receives the detection target region image as an input.
  • the difference image generation unit 230 generates a difference image between the currently input detection target area image and the previously acquired detection target area image stored in the detection target area image buffer 250.
  • the previous detection target image is buffered, and it can be considered as a difference target.
  • a plurality of images are buffered in the detection target region image. May be generated.
  • the current detection target area image is buffered in the detection target area image buffer 250. At this time, the detection target area image that is out of date in the detection target area image buffer 250 may be discarded.
  • the detection target region image notifier 250 is empty.
  • the first detection target region image itself is used as a difference image without taking a difference.
  • the digital watermark detection may be output and digital watermark detection may be attempted, or the digital watermark detection may be skipped and the next frame capture process may be performed.
  • the digital watermark detection unit 240 receives the difference image and detects the digital watermark from the difference image. Try.
  • FIG. 23 is a diagram for explaining an example of processing of the digital watermark detection unit in the first embodiment of the present invention. This figure shows the demodulation method at the time of detection corresponding to the modulation method (B-1) at the time of electronic permeability and embedding.
  • the component channel used for embedding the difference image is extracted. If it is luminance, the luminance component is extracted. Then, the difference image is divided into blocks according to the number of watermark pattern blocks at the time of embedding.
  • the sum of the luminance values in the block is obtained and arranged in block order to obtain a detection target sequence that is a one-dimensional sequence.
  • modulation information B-2
  • the energy of the waveform pattern in the block is obtained, and an index value indicating which of the multiple waveform patterns is dominant is calculated and arranged in one dimension (Reference 1). .
  • the digital watermark detection unit 240 When the digital watermark detection unit 240 detects the electronic watermark successfully, the detected watermark information may be output, the detection process may be terminated, and the state transition may be made to providing a related information service.
  • digital watermark detection may be continued continuously. If the digital watermark detection is unsuccessful, the process returns to the frame capture processing of the moving image input unit 210 and repeats the detection trial. Ah Alternatively, the detection process ends when the input of the moving image is completed.
  • the application of the still image algorithm is simply repeated on the frame image by embedding by switching the watermark pattern for each frame.
  • the fixed pattern can be avoided, so image quality degradation can be suppressed low.
  • image quality deterioration becomes less perceptible ( , Image Engineering, Nd Book, Asakura Shoten, ISBN 4-254-20033-1, pp.10-56, 1986 ”(hereinafter referred to as Reference 5)).
  • the digital watermark is detected from the difference image by taking the time difference of the captured frame image.
  • Fig. 24 it is generally known that moving images have a high correlation between frames in the time direction, and by taking the difference, most of the original image components are canceled except for portions that involve intense movement.
  • the watermark pattern is reversed! /, The difference between the two frames, a watermark pattern having an amplitude twice that of the transparent pattern at the time of embedding is obtained.
  • the detection target area in the captured frame image is extracted, distortion is corrected, and normalization is performed.
  • Various distortion factors of the detection target area in the capture frame such as movement of the image and parallel movement accompanying movement of the viewpoint, can be canceled, and electronic watermark detection from the camera input can be realized.
  • by performing this correction for each capture frame it is possible to cancel different distortion factors for each shooting frame that accompany the movement of the camera itself when the camera is held by hand.
  • the original image signal can be reliably suppressed by image generation, and the camera-equipped mobile phone is held by hand. Even in such a case, it is possible to detect successfully without any problem.
  • FIG. 25 shows the configuration of the digital watermark detection apparatus in the second embodiment of the present invention.
  • the digital watermark detection apparatus 200B shown in the figure has a configuration in which a detection necessity determination unit 260 is added to the configuration of FIG. 15 in the first embodiment described above.
  • FIG. 26 is a flowchart of operation of the digital watermark detection apparatus in the second embodiment of the present invention.
  • Step 301) The moving image input unit 210 of the digital watermark detection apparatus 200B inputs an analog or digital moving image, sequentially acquires frame images, and simultaneously acquires the frame display time.
  • the frame display time can be acquired based on the time code or frame rate in the case of an MPEG-encoded moving image, for example. In the case of a camera, etc., it may be impossible to synchronize with the display system.
  • the moving image input unit 210 has a timer, and the frame display time of the capture frame can be obtained by a method such as acquiring the capture time or acquiring the delay time from the previous capture. .
  • Step 302 Next, in the detection target region extraction unit 220, a detection target region that is a target of watermark detection in each sequentially input frame image is extracted to obtain a detection target region.
  • Step 303 Next, in the detection necessity determination unit 260, the frame display time corresponding to the currently acquired detection target region image and the previously acquired detection target region image stored in the detection target region image buffer.
  • the frame display time corresponding to is compared with reference to the same watermark pattern switching information as at the time of embedding, and if the watermark patterns in the two detection target area images are in phase, the detection is not necessary, and the processing of step 304 Move to. If it is determined that they are not in phase, the process proceeds to step 305.
  • Step 304) If the detection is not necessary, the detection target image buffer 250 After the detection target region image and the corresponding frame display time are buffered, the processing returns to the capture processing of the moving image input unit 210 (the process proceeds to step 301).
  • Step 305) The current detection target region image is sent to the difference image generation unit 230.
  • the difference image generation unit 230 generates a difference image between the currently acquired detection target area image and the previously acquired detection target area image stored in the detection target area image buffer 250.
  • Step 306 In preparation for the next detection trial, the difference image generation unit 230 buffers the current detection target region image and the frame display time in the detection target region image buffer 250. At this time, the detection target area image and the frame display time that are out of date in the detection target area image buffer are discarded.
  • Step 307) Subsequently, the digital watermark detection unit 240 attempts to detect the digital watermark of the difference image force, and outputs the detection result.
  • Step 308 It is determined whether the digital watermark detection is successful. If the detection is successful, the moving image input unit 210 obtains the next frame image and repeats the above processing sequentially (proceeds to Step 301). To do). If successful, the process is terminated.
  • the above-described detection necessity determination unit 260 receives the frame display time, the detection target region image, and the watermark pattern switching information.
  • the detection necessity determination unit 260 calculates the frame display time corresponding to the currently acquired detection target area image and the frame display time corresponding to the previously acquired detection target area image stored in the detection target area image buffer 250. Compare with reference to the same watermark pattern switching information as when embedding, and determine whether detection is necessary or not based on the power of the watermark patterns in the two detection target area images being in phase. In this case, the process returns to the capture processing of the moving image input unit 210. If it is determined that detection is necessary, the detection target area image is sent to the difference image generation unit 230.
  • FIG. 27 is a diagram for explaining the processing of the detection necessity determination unit in the second embodiment of the present invention.
  • the watermark pattern switching information is "switch every 1 Z 10 seconds", and the moving image is played back at 30 frames Z seconds.
  • the frame display time does not need to be the absolute time of the moving image, and it is only necessary to obtain the delay time between the captured timings of the moving image being reproduced.
  • efficient detection processing can be performed by omitting useless digital watermark detection processing by performing detection necessity determination.
  • Figs. 28A and 28B only when the watermark timing is evaluated and the watermark pattern is out of phase, a difference image is generated and a detection attempt is made, so it is possible to avoid in-phase cases where detection is difficult. Therefore, useless detection trials can be omitted.
  • the detection performance can be improved by increasing the frame rate of the capture, and the convenience of the detection device can be improved by improving the user interface.
  • FIG. 29 shows the configuration of the digital watermark detection apparatus in the third embodiment of the present invention.
  • the digital watermark detection apparatus 200C shown in the figure has a configuration in which a capture timing control unit 270 is added to the configuration of FIG. 19 in the first embodiment.
  • the capture timing control unit 270 receives the watermark pattern switching information as an input, and sends a capture timing signal to the moving image input unit 210. Further, the difference timing signal is sent to the difference image generation unit 230.
  • FIG. 30 is a flowchart of the operation of the digital watermark detection apparatus in the third embodiment of the present invention.
  • Step 401) The moving image input unit 210 performs an analog or a digital recording at a capture time interval specified by the capture timing signal input from the capture timing control unit 270.
  • a digital moving image is input and frame images are acquired sequentially.
  • Step 402 In the detection target region extraction unit 220, a detection target region that is a target of watermark detection in each sequentially input frame image is extracted to obtain a detection target region image.
  • Step 403 Next, the detection target region image currently acquired by the differential image generation unit 230 and the detection target preceding in time indicated by the differential timing signal accumulated in the detection target region image buffer 250 A difference image with the region image is generated.
  • Step 404) Further, the differential image generating unit 230 buffers the current detection target area image in the detection target area image buffer 250 in preparation for the next detection trial.
  • Step 405) Subsequently, the digital watermark detection unit 240 tries to detect the digital watermark of the difference image force, and outputs the detection result.
  • Step 406 If the digital watermark detection is successful, the moving image input unit 210 obtains the next frame image and repeats the above processing in sequence (transition to Step 401). . If successful, the process ends.
  • FIG. 31 is a diagram for explaining processing of the capture timing control unit in the third embodiment of the present invention.
  • the watermark pattern switching information is “switched every 1 Z 10 seconds” and the moving image is played back at 30 frames Z seconds.
  • a capture timing signal is transmitted every 1Z10 seconds, and capture is performed at intervals of 1 Z10 seconds by the moving image input unit 210 that has received it.
  • the information “capture at 1Z10 second intervals” may be sent as a capture timing signal, and the capture operation may be performed at lZio second intervals while timing is taken inside the moving image input unit 210.
  • an instruction “take a difference between detection target region images separated by 1Z10 seconds (odd multiple)” is sent to the difference image generation unit 230 as a difference timing signal.
  • the actual captured frames are different (difference between capture example A and capture example B in Fig. 31).
  • detection target region image buffer 2 50 includes a frame force captured in 1Z30 seconds, and the detection area image power for the three most recent images S buffered, and a new detection target area image input every 1Z30 seconds, By sequentially taking the difference from the detection target region image 1Z 10 seconds ago, that is, 3 frames before, all the detection possibilities can be made high in each watermark detection trial.
  • the input is digital, such as MPEG, or if the input frame display time can be obtained accurately, such as an analog video signal, it is obvious that synchronization can be achieved.
  • the process can increase the detectability of each detection attempt.
  • capture and difference image generation are performed at timing synchronized with the watermark pattern switching timing.
  • This makes it possible to detect the difference in the watermark pattern that is always out of phase, so detection is performed from the difference image in which the watermark pattern is emphasized in all detection attempts, and the detection possibility is increased. be able to.
  • This eliminates unnecessary trials with low detectability, so that the time required to detect a digital watermark can be shortened, and detection can be successfully performed quickly after a capcher is started.
  • the detection is continued even if the watermark detection is successful, such as an augmented reality application, the detection success state will continue without interruption, so the user interface will be improved and the convenience will be improved. Can also be obtained.
  • FIGS. 34A and 34B show the processing contents of the basic watermark pattern generation unit in the fourth embodiment of the present invention. This figure shows the processing contents of the basic watermark pattern generation unit 121 of the watermark pattern generation unit 120 of the electronic permeability embedding apparatus 100 shown in FIG. 10 in the first embodiment.
  • a basic watermark pattern is generated by adding one bit of the flag bit for determining the bit inversion of the transparency information to the input transparency information.
  • a flag bit for bit inversion determination is added, and the first to second A basic watermark pattern may be generated based on the same bit length information as in the third embodiment.
  • a bit value “0” is added as a flag bit for bit inversion determination as indicating a positive phase, that is, no bit inversion.
  • FIG. 35 is a flowchart of the operation of the digital watermark detection unit in the fourth embodiment of the present invention.
  • Step 501 Using the difference image as an input, the digital watermark detection unit 240 first attempts to detect a digital watermark from the difference image in the same manner as in the first to third embodiments.
  • Step 502 If electronic permeability is detected, the process proceeds to step 504. If not detected, the process proceeds to step 503.
  • Step 503 If not detected, return to the next frame capture.
  • Step 504 When the electronic permeability is detected, the value of the bit inversion determination flag in the detected information is viewed to evaluate whether or not the value represents a positive phase. If it represents the positive phase, the process proceeds to step 506, and if it represents the reverse phase, the process proceeds to step 505.
  • Step 505 If the bit inversion determination flag indicates an opposite phase, the detection result is displayed as a transparent f blueprint that detects the inverted information bit except for the bit inversion determination flag. Output.
  • Step 506 If it represents a positive phase, the detected information power is also used for bit inversion determination. The information excluding the flag is used as the detected permeability information, and the detection result is output.
  • the watermark pattern switching information at the time of embedding and the frame display time at the time of capture are used to determine the phase of the watermark pattern in the current difference image. Obviously, it is possible.
  • the modulation method at the time of embedding a digital watermark is the modulation method of FIG. 12 described in the first embodiment.
  • the detection target sequence is obtained from the pixel value of the difference image at the time of detection, and the correlation between this and the diffusion sequence is obtained, and the bit value “0”, ⁇ 1 Figure 36 explains the demodulation in the case of the modulation method (A-1).
  • the basic watermark pattern obtained by the modulation is appropriately inverted in phase and embedded in the frame image of the moving image. Since various watermarks are added to the watermark pattern embedded in the process of watermarked moving image encoding or analog display capture, the detection target sequence obtained from the difference image is Compared with the modulated permeability information at the time of embedding, the signal changes.
  • the correlation value in the interval corresponding to 1 bit is a large positive value.
  • the correlation value of the interval corresponding to bid 0 " Should take a large negative value, which will demodulate the embedded bit information.
  • the phase of the basic watermark pattern is switched between the positive phase and the reverse phase in the time direction by the watermark pattern switching unit 122. Therefore, for example, FIG. Considering the difference image obtained from (i) and (mouth), the reverse phase of the basic watermark pattern is embedded in (i), and the same phase of the basic watermark pattern is embedded in (mouth). (Mouth)-The difference image obtained in (i) is in-phase, that is, the positive phase as the basic watermark pattern, so that the information can be detected correctly. However, depending on the timing of the gap, there may be a case of a difference image with the frame force of (c) and (b).
  • (c) is in phase with the basic watermark pattern
  • (2) is in reverse phase with the basic watermark pattern
  • the difference image is in the reverse phase of the basic watermark pattern.
  • This embodiment is for avoiding this problem, and adds a bit inversion determination flag to the embedded information V, as shown in FIG. It is possible to determine whether or not the force has been reversed by the permeability and information force S bit at the time of detection. In other words, it can be determined whether the difference image is in phase or out of phase with the basic watermark pattern. If the bit inversion flag of the detection information is a value representing the normal phase, the bit value is transmitted as it is to obtain information, and if it is a value representing the reverse phase, the bit value of the detection information is inverted to be transparent. By using force information, it is possible to always detect the correct force information regardless of the method of taking two frames obtained by captilla. This method can be applied to any polarity-based modulation method.
  • modulation methods (A—2) to (A—4) and (B—2) to (B—4) described in the first embodiment are the pixel values of the difference image (simple Therefore, constant permeability information can always be detected regardless of how the difference image is taken.
  • a modulation method that can modulate and demodulate information according to which spreading sequence that does not represent information with a positive or negative correlation value and a large correlation absolute value such as modulation method (B-1).
  • modulation method (B-1) Is the same as (A-1) in that a positive correlation value is output when the difference image is positive phase, and a negative correlation value is output when the difference image is negative phase. If it is a symbol, even if the difference image is in the normal phase or the reverse phase, it can always be detected without any problem, so such a device is not necessary.
  • Pattern amplitude type Since the detection target sequence is constructed based on the amplitude of the pattern in the image, the detection target sequence is inverted when the difference image is inverted (Modulation method (A—1), (B- 1 ))
  • Pattern shape utilization type Since the detection target sequence is configured based on the pattern shape in the image, the detection target sequence is not inverted even if the difference image is inverted (Modulation method (A-2) to (A — 4), modulation method (B-2) to (B-4))
  • Polarity utilization type A method that expresses information with the positive and negative polarities of the correlation value with the spreading sequence (modulation method (A-1) to (A-4))
  • Polarity non-use type A method in which information is expressed by the type of the sequence having the maximum absolute correlation value among a plurality of spreading sequences (modulation method (B-1) to (B-4))
  • the bit value is inverted only in (1) and (a), that is, in the case of the modulation method (A-1).
  • the present embodiment is the same as the first to third embodiments described above except for the parts described below.
  • FIG. 39 is a diagram for explaining an example of processing of the basic watermark pattern generation unit in the fifth embodiment of the present invention.
  • the figure shows the processing contents of the basic watermark pattern generation unit 121 of the watermark pattern generation unit 120 in the electronic permeability embedding device 100.
  • the basic watermark pattern generation unit 121 in the first to third embodiments only the input watermark information is modulated into the basic watermark pattern.
  • the basic watermark pattern is generated so that a phase synchronization signal for specifying the phase of the watermark pattern of the difference image at the time of detection other than only the input transparency information is embedded.
  • the basic watermark pattern (A) is obtained using the modulation method (A-1) as in the first to third embodiments, and the value of “0” is always set.
  • a basic watermark pattern (B) obtained by modulating the phase-synchronized signal using the modulation method (B-1) is generated as a watermark pattern for phase determination, and the result of multiplexing both is used as the basic watermark pattern. It will be used for embedding.
  • FIG. 40 is a flowchart of the operation of the digital watermark detection unit in the fifth embodiment of the present invention.
  • Step 601) Using the difference image as an input, the digital watermark detection unit 240 first attempts to detect a digital watermark from the difference image in the same manner as in the first to third embodiments.
  • Step 602) If electronic permeability cannot be detected, go to Step 603 to detect If YES, go to step 604.
  • Step 603) Return to the next frame captcha.
  • Step 604) When the electronic permeability is detected, an attempt is made to detect the phase synchronization signal.
  • the phase synchronization signal Since the phase synchronization signal is embedded by the modulation method (B-1), the phase synchronization signal can be detected if the absolute value of the correlation value with the spreading sequence representing "0" is large, and the difference between the positive and negative polarities of the correlation value It is possible to determine whether the watermark pattern in the image is in phase or out of phase with the basic watermark pattern at the time of embedding.
  • Step 605) If the correlation value at the time of detecting the phase synchronization signal is positive, it is determined to be in-phase, and if it is negative, it is determined to be in reverse phase. If it is determined that the phase is in phase, the process proceeds to step 606. If it is determined that the phase is opposite, the process proceeds to step 607.
  • Step 606 If it is determined that the phase is in-phase, the detected watermark blue is directly output as a detection result.
  • Step 607) If it is determined that the phase is out of phase, the detected transparent bit is reversed and output as the detection result.
  • a part of the transparent information is used as a bit inversion determination flag, whereas in this embodiment, a phase synchronization signal for determining the phase of the watermark pattern in the difference image is used. It is transparent and multiplexed with information. At this time, since the phase-synchronized signal is embedded by modulation using the pattern amplitude and not using the polarity, the phase of the watermark pattern in the difference image can be determined using the polarity at the time of detection. As a result, as in the fourth embodiment, correct permeability information can always be detected regardless of the method of taking two frames obtained by capture.
  • bit inversion determination flag since the bit inversion determination flag is not used, it is not necessary to shorten the bit length of the transparency information by one bit. It should be noted that the pattern shape utilizing type may be used for embedding the phase synchronization signal as long as it can specify the inversion of the difference image.
  • the basic watermark pattern at the time of embedding the watermark pattern in the difference image An example will be described in which it is determined whether the phase is in-phase with the screen and the phase is reversed and stored as necessary.
  • FIG. 41 shows the configuration of the digital watermark detection unit in the sixth embodiment of the present invention.
  • the digital watermark detection unit 240 of the digital watermark detection apparatus 200 shown in the figure includes a differential image phase determination unit 241, a transparent information detection unit 242 and a differential image storage buffer 255.
  • FIG. 42 is a flowchart of the operation of the digital watermark detection unit in the sixth embodiment of the present invention.
  • Step 701 When the difference image is input, the difference image phase determination unit 241 determines the phase of the watermark pattern in the input difference image.
  • Step 702 The difference image phase determination unit 241 determines whether the phase force of the watermark pattern in the input difference image is in phase or in phase with the basic watermark pattern at the time of embedding. If it is in-phase, go to step 703, otherwise go to step 704
  • Step 703 If they are in-phase, the difference image input this time is added to the difference image storage buffer 255 as it is, and the processing proceeds to Step 705.
  • Step 704 When the phase is reversed, the difference image input this time is phase-inverted and added to the difference image storage buffer 255.
  • Step 705) the transparency information detection unit 242 tries to detect the watermark blue from the added difference image accumulated in the difference image accumulation buffer 255.
  • Step 706) If the detection is successful, the process proceeds to step 708. If the detection is not successful, the process proceeds to step 707.
  • Step 708) If successful, output the detection result.
  • FIG. 43 is a diagram for explaining processing of the difference image phase determination unit in the sixth embodiment of the present invention.
  • the difference image phase determination unit 241 determines the phase force of the watermark pattern in the difference image and whether it is in phase or opposite phase to the basic watermark pattern at the time of embedding.
  • the bit inversion determination flag shown in the fourth embodiment is detected from the difference image, and the in-phase / Z-reverse phase is determined based on the detected value, or the phase synchronization shown in the fifth embodiment
  • each symbol can be identified as in-phase when positive, and out-of-phase when negative.
  • the difference image input this time is added to the difference image storage buffer 255 as it is. If it is determined that the phase is reversed, the phase of the difference image input this time is inverted and added to the difference image storage buffer 255.
  • the phase for example, if it is a luminance component, the polarity of the pixel value of the entire image is reversed, or the detection target region images used to generate the current difference image are two images, X and Y. If this difference image is obtained by X—Y, use Y—X difference image for phase inversion.
  • the watermark pattern switching timing can be synchronized using the watermark pattern switching information at the time of embedding, for example, the switching of the adjacent watermark pattern is performed from the switching timing.
  • every other differential force is in phase
  • the difference image is accumulated, it will be accumulated while inverting every other phase so that they are all in phase.
  • difference images having a watermark pattern in phase with the basic watermark pattern are always added to the difference image accumulation buffer 255 one after another!
  • “adding difference images” refers to obtaining an image of the same size obtained by adding pixel values for each coordinate of the image.
  • the result accumulated in the difference image accumulation buffer 255 is either in phase or in phase with the basic watermark pattern at the time of embedding. Can be obtained as a result of adding them together, but the difference image storage buffer If a device such as the fourth embodiment or the fifth embodiment is used for detection from 255, problems due to reverse phase can be avoided.
  • the difference image storage buffer 255 it is determined whether the watermark pattern in the difference image is in phase with the basic watermark pattern at the time of embedding, and phase inversion is performed as necessary, so that the difference image storage buffer 255 is always correct.
  • the addition is sequentially performed in a phased state, and an attempt is made to detect information through the added difference image force.
  • the differential image accumulation buffer 255 can obtain a watermark pattern that is amplified by the number of additions in principle.
  • the difference signal of the original image that is noise to the watermark pattern is not amplified by the number of additions!
  • the SZN ratio of the watermark signal is improved, and the resistance to electronic permeability is improved as compared with the first to fifth embodiments.
  • this tolerance improvement can also be used so as to suppress image quality deterioration.
  • the image quality can be improved. Can be realized.
  • This embodiment is the same as the first to sixth embodiments except for the parts described below. Hereinafter, in order to simplify the description, differences from the first embodiment will be described.
  • FIG. 45 shows the configuration of the digital watermark detection unit in the seventh embodiment of the present invention.
  • the digital watermark detection unit 240 of the digital watermark detection apparatus 200 shown in the figure includes a correlation calculation unit 243, a detectability determination unit 244, and a correlation value buffer 245.
  • FIG. 46 is a flowchart of the operation of the digital watermark detection unit in the seventh embodiment of the present invention. Yat.
  • Step 801 The digital watermark detection unit 240 receives the difference image, and the correlation calculation unit 243 obtains a detection target sequence from the difference image in the same manner as in the normal digital watermark detection process, and correlates with the spread sequence. Ask for. At this time, if the force of only the input differential image is transparent, the information can be output as the detection result and the processing can be completed! If the correlation value is a bit-by-bit spreading method such as modulation methods (A-1) to (A-4), the number of bits of transparency information will be the same as modulation methods (B-1) to (B-4). If the per-symbol spreading method is used, the number of symbols x the range of symbol values can be obtained.
  • A-1 to (A-4) the number of bits of transparency information will be the same as modulation methods (B-1) to (B-4). If the per-symbol spreading method is used, the number of symbols x the range of symbol values can be obtained.
  • Step 802 The correlation value group obtained by the correlation calculation unit 243 is added to the correlation value buffer 245 for each term.
  • Step 803 Next, in the detection possibility determination unit 244, a threshold value determination is performed on the correlation value group stored in the correlation value buffer 245, and the determination of whether or not the information can be detected is performed.
  • Step 804) If detected, proceed to step 806, and if not detected, proceed to step 805.
  • Step 805) If the information cannot be detected due to the permeability, the process returns to the next frame capture of the moving image input unit 210.
  • Step 806) If no threshold determination is made, the detected information is constructed based on the content of the correlation value buffer 245 as detection success, and the detection result is output.
  • FIG. 47 is a diagram for explaining the contents of the processing relating to the correlation value buffer according to the seventh embodiment of the present invention.
  • Modulation method (A— 1) that may cause bit inversion due to differential phase
  • the force is correlated with the positive phase by the method as in the fourth embodiment or the fifth embodiment.
  • the modulation methods (B-1) to (B-4) if the phase of the difference is inverted, the correlation value takes a negative value.
  • the correlation value group obtained by the correlation calculation unit 243 is added to the correlation value buffer 245 for each term of each correlation value.
  • the watermark pattern switching timing is synchronized using the watermark pattern switching information at the time of embedding as in the third embodiment, for example, switching of adjacent watermark patterns is performed from the switching timing.
  • every other phase is in phase
  • every other phase is in phase
  • the polarity of the correlation value is inverted and stored every other time, so that the correlation values are always aligned and accumulated.
  • FIGS. 48A and 48B are diagrams for explaining the contents of the processing relating to the correlation value buffer in the seventh embodiment of the present invention.
  • the detectability determination unit 244 determines a threshold value for the correlation values stored in the correlation value buffer 245, and determines whether the detection is successful.
  • bit-by-bit spreading methods such as modulation methods ( ⁇ -1) to ( ⁇ -4)
  • the absolute values of the correlation values for each bit position are all equal to or greater than the threshold value, it is determined that the detection has succeeded.
  • the absolute value sum of the correlation values for each bit position may be taken, and the threshold value may be determined for the result.
  • the per-symbol spreading method such as the modulation methods (B-1) to (B-4)
  • it is determined that the detection is successful if the maximum correlation value for each symbol position is above the threshold value. And it is sufficient.
  • the threshold value is changed according to the number of additions to the correlation value accumulation buffer 245, or each term value in the correlation accumulation buffer 245 is divided by the number of additions before the threshold determination.
  • whether or not detection is possible is determined based on the result of addition and accumulation of correlation values calculated when detecting a difference image force. As a result, even if the detection power S is difficult in one detection trial, the detection results of multiple differential image forces can be integrated. The detection performance can be improved.
  • This embodiment is the same as the first to seventh embodiments described above except for the parts described below. In the following, the difference from the first embodiment is described for the sake of simplicity.
  • FIG. 49 shows the configuration of the watermark pattern generation unit in the eighth embodiment of the present invention.
  • the watermark pattern generation unit 120 of the electronic watermark embedding apparatus 100 shown in the figure includes a basic watermark pattern generation unit 121, a watermark pattern switching unit 122, and a watermark information decomposition unit 123.
  • FIG. 50 is a flowchart of the operation of the watermark pattern generation unit in the eighth embodiment of the present invention.
  • Step 901 When the transparent information, watermark pattern switching information, and frame display time are input to the watermark pattern generating unit 120, the transparent information decomposing unit 123 converts the watermark information into shorter bit information. Subdivide into data block information.
  • the watermark information dividing unit 123 refers to the frame display time, indicates the data block ID indicating the number of the data block to be embedded in the current frame image, and the data block of the data block ID. Data block information that is bit information is sent to the basic watermark pattern generation unit 121.
  • the basic watermark pattern generation unit 121 also generates a basic watermark pattern based on the data block ID and the data block information power.
  • Step 904 the watermark pattern switching unit 122 determines whether or not the phase of the basic watermark pattern needs to be reversed based on the relationship between the frame display time and the watermark pattern switching information.
  • Step 905) If the phase inversion of the basic watermark pattern is necessary, the process proceeds to Step 906. If not necessary, the process proceeds to Step 907.
  • Step 906 If necessary, change the phase of the basic watermark pattern, output it as a watermark pattern, and end the process.
  • Step 907) Output as a basic watermark pattern, and the process ends.
  • the transparent frame blueprint dividing unit 123 will be described in detail.
  • FIG. 51 is a diagram for explaining the processing of the permeability information dividing unit in the eighth embodiment of the present invention.
  • the watermark pattern switching information indicates “invert every 1Z10 seconds”
  • the source image data has a frame rate of 30 frames Z seconds
  • the watermark information is 16 bits.
  • the transparent watermark blue section dividing unit 123 divides the transparent watermark into data blocks having a predetermined bit length.
  • the 16-bit transparent information is divided into four 4-bit data blocks.
  • a data block ID (a, b, c, d in Fig. 51) representing what number each data block is is acquired at the same time. Then, referring to the watermark pattern switching information, the data block to be embedded in the current frame is selected, and the selected data block information and data block ID are sent to the basic watermark pattern generation unit 121.
  • the contents of the process of "switch data block every watermark pattern inversion period (6Z30 seconds)" are shown, and the data block is switched every 6 frames.
  • the selection is performed cyclically by returning to the head.
  • end information indicating the end of the transparent frame blueprint may be sent to the basic watermark pattern generation unit 121.
  • FIG. 51 shows an example in which the data block is sequentially switched every inversion cycle of the watermark pattern.
  • the data block is switched every 3 inversion cycles, every inversion cycle and every other data block switching cycle.
  • FIGS. 52A and 52B are diagrams for explaining the processing of the basic watermark pattern generation unit in the eighth embodiment of the present invention.
  • the basic watermark pattern generation unit 121 modulates a data block obtained by subdividing watermark information other than the watermark information itself and a data block ID representing the order of the data block. To generate a basic watermark pattern.
  • the end information representing the last data block is received from the transparent frame blueprint dividing unit 123, it is possible to determine the end of the data block at the time of detection by, for example, rubbing 1 ⁇ . However, it is not necessary if you always assume a fixed number of data blocks, for example, only 4.
  • information for determining the phase of the difference image at the time of detection may be simultaneously embedded.
  • FIG. 53 shows the configuration of the digital watermark detection apparatus in the eighth embodiment of the present invention.
  • the difference between the digital watermark detection apparatus 200D shown in the figure and the apparatus 200 ⁇ in the first embodiment is the processing after the digital watermark detection unit 240.
  • FIG. 54 is a flowchart of operation of the digital watermark detection apparatus in the eighth embodiment of the present invention.
  • Step 1001 The moving image input unit 210 captures moving images and sequentially obtains frame images.
  • Step 1002 The detection target region extraction unit 220 extracts a detection target region image from the currently captured frame image.
  • Step 1003 The difference image generation unit 230 generates a difference image between the currently acquired detection target area image and the previously acquired detection target area image.
  • Step 1004 Similar to the first embodiment, the digital watermark detection unit 240 attempts to detect embedded information by using a digital watermark detection with a difference image.
  • Step 1005) If the detection is successful, go to Step 1006. If the detection is not successful, go to Step 1001.
  • Step 1006 If the detection is successful, unlike the first embodiment, the detected information is a data block ID corresponding to the data block information that is part of the transparent information rather than the information itself. These pieces of information are sent to the detection data block storage unit 280. The detection data block storage unit 280 sets the value of the detection data block information as the data value of the detection transparent information buffer at the position indicated by the data block ID detected this time.
  • Step 1007) If the detection of data blocks in all the detected watermark information buffers is successful, the process proceeds to Step 1008.
  • Digital watermark detection unit 240 uses digital image data with differential image power If the detection fails or there is a data block that is not yet buffered in the detected data block storage unit 280, the process returns to the capture in the moving image input unit 210 and the detection process is continued.
  • Step 1008 The detection result is output as the detected permeability information using the value of the detected permeability information buffer.
  • FIG. 55 shows the configuration of the detected data block storage unit in the eighth embodiment of the present invention.
  • the detection data block storage unit 280 shown in the figure has a detection data block buffer unit 281, a detection completion confirmation unit 282, and a detection watermark f blueprint buffer 283.
  • FIG. 56 is a flowchart of the operation of the detected data block storage unit in the eighth embodiment of the present invention.
  • Figures 57 and 58 show the processing contents of the detection data block storage unit.
  • Step 1101) The detection data block storage unit 280 receives the detection data block ID and the detection data block information.
  • Step 1102 First, in the detected watermark data block buffering unit 281, the data value at the data position indicated by the input detected data block ID in the detected watermark information buffer 283 is input to the input detected data block. Set to the information value.
  • the detection permeability information buffer 283 is in an initial state where all data block ID data blocks are not detected, and the detection data block ID and the detection data block information are not detected. Each time it is input, the status changes from undetected to detected. If a data block ID that has already been detected is input, the data value of the data block ID in the detection data block 283 may be overwritten with the detected data block information, and overwritten. You do n’t have to do anything.
  • FIG. 57 shows the contents of processing when the number of data blocks is determined in advance. Further, when the end flag of the data block is embedded at the time of embedding, as shown in FIG. 58, in the initial state, how many data blocks are present cannot be divided. However, if a data block ID with a termination flag is input, it is determined how many data blocks are in total, so that undetected data blocks can be identified. After this, the same processing as when the number of data blocks has been determined may be performed. By using the end information, it is possible to handle embedding / detection of transparent frames of arbitrary length.
  • Step 1103 the detection completion confirmation unit 282 determines whether or not all data blocks in the detection watermark information buffer 283 have been detected. If all the data blocks have been detected, step 1103 is performed. The process moves to 1104, and if an undetected data block remains, the process moves to Step 1105.
  • Step 1104) When all of the data has been detected, the detection result is output as the permeability information for detecting the data value of the detection watermark f blueprint buffer 283.
  • Step 1105) If an undetected data block remains, return to the frame capture of the moving image input unit 210 and continue the detection trial.
  • the differences from the first embodiment are mainly described.
  • the device of the present embodiment is combined with the devices of the second to seventh embodiments. It is obvious that it is easy to implement. For example, detection performance is improved by detecting difference data for each data block by accumulating differential images as in the sixth embodiment or accumulating correlation values as in the seventh embodiment. This is self-explanatory.
  • the permeability information is divided into data blocks, and watermark embedding is performed while switching the data blocks temporally.
  • the detected data blocks are sequentially accumulated, and all data blocks are detected.
  • the watermark detection is successful when it has been completed. This makes it possible to detect embedding of watermark information with a longer information length that exceeds the embedding information length limit of the transparency algorithm for a single difference image, or to reduce the length of information embedded in each frame and tolerate it. Improvements can be realized.
  • FIG. 59 is a diagram for explaining an example of processing of the basic watermark pattern generation unit in the ninth embodiment of the present invention.
  • a basic watermark pattern (A) is obtained by modulating with the modulation method (A-1).
  • FIG. 60 is a flowchart of the operation of the digital watermark detection unit in the ninth embodiment of the present invention.
  • Step 1201) Using the difference image as an input, the digital watermark detection unit 240 first tries to detect data block information from the difference image as in the case of the eighth embodiment.
  • Step 1202) If data block information can be detected, the process proceeds to step 1204. If not detected, the process proceeds to step 1203.
  • Step 1203 Return to the next frame capture of the moving image input unit 210.
  • Step 1204) If the data block information is detected, the data block ID is subsequently detected.
  • Step 1205) Since the data block ID is embedded in the modulation method (B-2), the data block ID can be detected first using the absolute value of the correlation operation, and the correlation value at that time It is possible to determine whether the watermark pattern in the difference image is in phase with or out of phase with the basic watermark pattern at the time of embedding. If the correlation value at the time of detecting the data block ID is positive, it is judged as positive phase, and if it is negative, it is judged as reverse phase. If the positive phase is determined, step 1207 If it is determined that the phase is reversed, the process proceeds to step 1206.
  • Step 1206) In the case of reversed phase, the detected data block information bit is inverted and output together with the data block ID.
  • Step 1207) When it is determined that the phase is positive, the detected data block information is left as it is and output together with the data block ID.
  • the contrivance of the present embodiment is the first.
  • the detection performance is improved by detecting difference data for each data block as in the sixth embodiment or by storing correlation values as in the seventh embodiment. It is self-explanatory.
  • the data block ID is embedded by embedding information by using the pattern amplitude utilizing type and polarity non-using type modulation.
  • the information length of the data block information embedded in each frame can be increased.
  • phase of the watermark pattern can be determined using the correlation polarity when detecting the data block ID, it is not necessary to prepare a separate flag for bit inversion determination, etc., and it contributes to the expansion of the information length. it can.
  • using the polarity non-use modulation of the data block ID makes it possible to determine the phase of the watermark pattern simultaneously with the detection of the data block ID.
  • FIG. 61 shows the configuration of the digital watermark detection unit in the tenth embodiment of the present invention.
  • FIG. 62 is a flowchart of operation of the digital watermark detection unit in the tenth embodiment of the present invention.
  • Step 1301) When the difference image is input, the digital watermark detection unit 240 tries to detect the data block ID in the data block ID detection unit 246.
  • Step 1302 the difference image phase determination unit 241 detects the phase of the watermark pattern in the difference image as in the sixth embodiment described above.
  • Step 1303 If the difference image phase determination unit 241 has a positive phase, Step 1303
  • Step 1304) If the phase is the positive phase, the current difference image is added to and accumulated in the difference image buffer 248 corresponding to the detected data block ID, and the process proceeds to Step 1306.
  • Step 1305) If the phase is opposite, the difference image is changed so as to be in the positive phase and then stored in the difference image buffer 248 corresponding to the detected data block ID. As shown in FIG. 61, the digital watermark detection unit 240 has a difference image buffer 248 for each type of data block ID.
  • Step 1306) the data block information detection unit 247 attempts to detect data block information from the differential image storage buffer 248 corresponding to the data block ID detected this time.
  • Step 1307) If the detection is successful, the process goes to Step 1308. If the detection is not successful, the process goes to Step 1309.
  • Step 1308) If the detection is successful, the current data block ID and the detected data block information are output.
  • Step 1309) If the detection is not successful, the process returns to the capture processing of the moving image input unit 210.
  • the difference image is displayed. Improving tolerance due to image accumulation can be realized at the same time, improving detection performance.
  • This embodiment is the same as the first to tenth embodiments, except for the parts described below. Hereinafter, in order to simplify the description, differences from the eighth embodiment will be described.
  • FIG. 63 shows the configuration of the digital watermark detection unit in the eleventh embodiment of the present invention.
  • FIG. 64 is a flowchart of operation of the digital watermark detection unit in the eleventh embodiment of the present invention.
  • Step 1401) When the digital watermark detection unit 240 receives the difference image, first, the data block ID detection unit 246 tries to detect the data block ID.
  • Step 1402 Next, the correlation calculation unit 249 obtains the correlation value calculated by performing the data block information detection trial.
  • Step 1403 The obtained correlation value is added and accumulated in the correlation value buffer 251 corresponding to the detected data block ID. At this time, if the detection of the data block information is successful for only the input difference image, it may be output together with the data block ID to end the processing.
  • Step 1404) Next, in the detectability determination unit 244, regarding the correlation value buffer 251 corresponding to the data block ID detected this time, whether or not the data block information can be detected by threshold determination in the same manner as in the seventh embodiment. Determine.
  • Step 1405) If it is determined that detection is possible, the process proceeds to step 1406. If detection is not successful, the process proceeds to step 1407.
  • Step 1406 When it is determined that detection is possible, the value of the current correlation value buffer 251 also constitutes the data block information and is output together with the current data block ID. Step 1407) When the detection is successful, the process returns to the capture processing of the moving image input unit 210.
  • the tolerance improvement by the correlation value notifier 251 can be realized at the same time, and the detection performance is improved.
  • FIG. 65 shows the configuration of the digital watermark detection apparatus in the twelfth embodiment of the present invention.
  • the difference between the digital watermark detection apparatus 200E shown in the figure and the first embodiment is that the current capture frame image, the current detection target region extraction status information, and the current digital watermark detection detection status information are input as needed.
  • it has a feedback output unit 265 that generates and outputs feedback information in parallel with the digital watermark detection process corresponding to the first embodiment.
  • FIG. 66 is a flowchart of the operation of the digital watermark detection apparatus in the twelfth embodiment of the present invention.
  • steps 1501 to 1506 are the same as the steps 201 to 206 in FIG. 20, and are not described here.
  • the following step 1507 is performed in parallel with these steps. It is.
  • Step 1507) In the feedback output unit 265, the current frame image, the current detection target region extraction status information, and the current digital watermark detection detection status information are input as needed, and the digital watermark corresponding to the first embodiment is input. Generates and outputs feedback information in parallel with the detection process.
  • FIGS. 67, 68 and 69 are examples of feedback output of the digital watermark detection apparatus in the twelfth embodiment of the present invention.
  • the degree of planar projection distortion caused by the shooting angle is high, and the position force away is also shot, so the pixel area of the detection target area in the capture frame image is too small. If it is difficult to detect digital watermarks, a message indicating that the shooting angle must be adjusted or zoomed in is displayed to prompt the user to make adjustments.
  • the convenience of the digital watermark detection process is improved by providing feedback in real time, thereby increasing the interactivity.
  • it can be expected to improve detection performance by encouraging the user to enter a detection-friendly situation.
  • This embodiment is the same as the first to twelfth embodiments except for the parts described below. Hereinafter, in order to simplify the description, differences from the first embodiment will be described.
  • FIG. 70 is a diagram for explaining processing of the watermark pattern superimposing unit in the thirteenth embodiment of the present invention.
  • the watermark pattern superimposing unit 130 inputs a frame image and a watermark pattern generated based on the frame display time. In the watermark pattern superimposing unit 130, first, the watermark pattern is resized to a given size smaller than the frame image, and then added to the central area of the frame image to obtain a watermarked frame image.
  • FIG. 71 shows the configuration of the digital watermark detection apparatus in the thirteenth embodiment of the present invention.
  • the digital watermark detection apparatus 200F shown in the figure is a real-time video capture of an analog moving image displayed on a television or the like by a camera, or MPE.
  • a moving image input unit 210 to which a G-encoded digital moving image is input, a difference image generation unit 230, a detection target region extraction unit 220, a digital watermark detection unit 240, and a frame image buffer 301 are configured.
  • FIG. 72 is a flowchart of the operation of the digital watermark detection apparatus in the thirteenth embodiment of the present invention.
  • Step 1501 In the moving image input unit 210, an analog or digital moving image is input, and frame images are sequentially acquired.
  • a camera or scanner or an analog video signal is input to acquire a frame image. If it is a digital moving image, the frame image is acquired by performing a decoding process or the like.
  • Step 1502 the difference image generation unit 230 takes the difference between the currently acquired frame image and the previously acquired frame image stored in the frame image buffer 301, and obtains the difference frame image. Generate.
  • Step 1503 In preparation for the next detection trial, the current frame image is buffered in the frame image buffer 301.
  • Step 1504 the detection target region extraction unit 220 extracts a detection target region that is a target of watermark detection from the difference frame image to obtain a detection target region image.
  • Step 1505 Subsequently, the digital watermark detection unit 240 attempts digital watermark detection from the detection target region image and outputs the detection result.
  • Step 1506 If the digital watermark detection is successful, the moving image input unit 210 obtains the next frame image and repeats the above processing in sequence.
  • FIG. 73 is a diagram for explaining processing of the difference image generation unit in the thirteenth embodiment of the present invention.
  • the difference image generation unit 230 takes the difference between the currently acquired frame image and the previously acquired frame image stored in the frame image buffer 301, and generates a difference frame image.
  • in the difference frame image it is possible to distinguish the magnitude of the change in the difference caused by the switching of the watermark pattern, the part, the change in no change, and the background part.
  • FIG. 74 is a diagram for explaining processing of the detection target region extraction unit in the thirteenth embodiment of the present invention.
  • the detection target region extraction unit 220 receives the difference frame image, extracts a detection target region as a watermark detection target in the difference frame image, and acquires a detection target region image.
  • the difference frame image is converted to an absolute value
  • the distortion parameter of the detection target area is detected using the edge detection method of Document 3
  • the original difference frame image is corrected for distortion and normalized in size before being converted to an absolute value.
  • the detection target region image is obtained by performing the ⁇ ⁇ . Since the detection target area image obtained in this way is the same as the basic watermark pattern at the time of embedding except for the influence of noise, it is possible to detect electronic permeability. It is clear from the contents of the embodiment.
  • a watermark pattern having the same size as the frame size of the input moving image is superimposed.
  • the detection target area is extracted by detecting the edge of the display area of the television receiver in the frame captured by the camera.
  • the playback environment for moving images such as the shape of the television receiver, is not constant. Therefore, as shown in Fig. 75 (A), the display screen area is correctly set as the detection target area.
  • the power to detect the electric permeability is detected as shown in Fig. 75 (B), or the outside of the television receiver is detected, or as shown in Fig. 75 (C).
  • the detection target area cannot be correctly extracted by detecting a frame-shaped design.
  • the first through twelfth methods fail to detect the digital watermark because the difference image is reduced to the inside of the watermark pattern difference image and block division cannot be performed correctly. Resulting in.
  • the edge of the screen is cut off, not only the wide image but also the part of the image signal by so-called overscan, for example, the edge part of the image signal is not displayed in the case of CRT display. May be cut off, making it difficult to detect electronic permeability.
  • This embodiment is for solving this problem.
  • the watermark pattern is made smaller than the size of the frame image and is superimposed on the center area of the frame image. As a result, for example, it is possible to superimpose a watermark pattern only on a region that is reliably displayed in anticipation of missing frame images when displaying a wide screen in 4: 3.
  • the detection target area and the watermark pattern area do not match during detection. Therefore, in the present embodiment, a difference frame image between the captured frame images is generated as shown in FIG. 73, and the detection target region is also extracted from the difference frame image force as shown in FIG. If there is almost no camera movement during camera shooting, only the detection target area has a large difference (absolute value) in the difference frame image by switching the watermark pattern. As a result, the detection target area is extracted by a rectangle recognition technique using an edge, and the digital watermark can be detected as shown in FIGS.
  • FIG. 79 is a view for explaining an example of processing of the basic watermark pattern generation unit in the fourteenth embodiment of the present invention.
  • the basic watermark pattern generation unit 121 of the watermark pattern generation unit 120 in the present embodiment adds a plus / minus pixel value to the basic watermark pattern generated in the same manner as in the first to twelfth embodiments. A frame is added using, and this is used as a basic watermark pattern.
  • FIG. 80 is a diagram for explaining processing of the detection target region extraction unit in the fourteenth embodiment of the present invention.
  • the detection target region extraction unit 220 receives the difference frame image, extracts a detection target region as a watermark detection target in the difference frame image, and acquires a detection target region image.
  • the edge detection method of Document 3 is used to detect the distortion parameter of the detection target area, and distortion correction and size normalization are performed to obtain the detection target area image. Since the detection target area image obtained in this way is the same as the basic watermark pattern at the time of embedding except for the influence of noise, the electronic permeability can be detected. It is clear from the contents of the 12 embodiments.
  • the detection target region extraction processing in the thirteenth embodiment performs region extraction by performing edge detection and the like using the absolute value of the difference frame image.
  • the edge contrast is the absolute value of the difference frame image. Therefore, if the influence of noise is ignored, there is a difference of twice the watermark pattern amplitude at the time of embedding.
  • a frame having plus / minus pixel values is added to the basic watermark pattern in the first to twelfth embodiments as the basic watermark pattern.
  • the region extraction is performed by performing edge recognition or the like with the difference frame image.
  • the edge contrast of the edge part is the watermark pattern at the time of embedding.
  • the amplitude is four times that of the thirteenth embodiment, which makes edge detection more difficult. For this reason, the detection target area can be extracted more reliably and with high reliability, and the detection performance of the digital watermark can be improved.
  • This embodiment is the same as the fourteenth embodiment except for the parts described below.
  • FIG. 82 is a diagram for explaining an example of processing of the basic watermark pattern generation unit in the fifteenth embodiment of the present invention.
  • the basic watermark pattern generation unit 121 uses a plus Z minus pixel value as a basic watermark pattern generated in the same manner as the first to twelfth embodiments, and uses an alignment marker. Add this as the basic watermark pattern.
  • the frame in the 14th embodiment is also considered an example of the alignment marker.
  • alignment markers are added to find corners used in two-dimensional codes such as QR Code (registered trademark) as an alignment marker. Note that the basic watermark pattern in Fig. 82 is actually the pixel value of the QR code (registered trademark) itself plus Z minus, but there is a problem even if the 2D code itself is used as the basic watermark pattern in this way. .
  • FIG. 83 is a diagram for explaining processing of the detection target region extraction unit in the fifteenth embodiment of the present invention.
  • the detection target area extraction unit 220 receives the difference frame image, extracts a detection target area as a watermark detection target in the difference frame image, and acquires a detection target area image.
  • the detection target region is extracted from the difference frame image by the same method as the alignment marker detection at the time of normal QR code (registered trademark) reading.
  • the digital watermark detection unit 240 has no problem if it is considered to perform a two-dimensional code reading process. It is clear that the information can be detected.
  • the present invention can be implemented by arbitrarily combining the contrivances of the twelfth embodiment.
  • the alignment marker that was a frame in the fourteenth embodiment is a marker that identifies a corner.
  • the contrast difference between light and dark in the difference frame image becomes four times the watermark pattern amplitude at the time of embedding, and the detection performance is improved.
  • an existing two-dimensional code pattern can be easily used as a method for generating a watermark pattern. As a result, it is possible to obtain a cost reduction effect by reusing the existing parts in the electronic device.
  • a detection target region is extracted from a difference image between feature region images that have undergone feature region distortion correction and size normalization.
  • FIG. 84 shows the configuration of the digital watermark detection apparatus in the sixteenth embodiment of the present invention.
  • the digital watermark detection apparatus 200G shown in the figure includes a moving image input unit 210, a feature region extraction unit 290, a difference image generation unit 230, a detection target region extraction unit 220, a digital watermark detection unit 240, and a feature region image buffer. It is composed of 302.
  • FIG. 85 is a flowchart of the operation of the digital watermark detection apparatus in the sixteenth embodiment of the present invention.
  • Step 1601) In the moving image input unit 210, an analog moving image displayed on a display device such as a television is obtained by real-time video capture using a camera, or a digital moving image that is MPEG-encoded is input. And sequentially obtain frame images.
  • a frame image is acquired by inputting a camera, a scanner, or an analog video signal. The frame image is acquired by performing the process.
  • Step 1602) Next, the feature region extraction unit 290 extracts a feature region in the frame image.
  • a feature region extraction techniques such as rectangular region detection based on edge recognition in Document 3 are used.
  • the extracted feature region is output as a feature region extraction image after correcting the distortion caused by the camera shooting angle and the like, and normalizing the size.
  • Step 1603 Next, in the difference image generation unit 230, the difference between the currently acquired feature region image and the previously acquired feature region image stored in the feature region image buffer 302 is obtained, and the feature is obtained. An area difference image is generated.
  • Step 1604) Also, in preparation for the next detection trial, the current feature region image is buffered in the feature region image buffer 302.
  • Step 1605) the detection target region extraction unit 220 extracts a detection target region that is a target of watermark detection from the feature region difference image to obtain a detection target region image.
  • Step 1606) Subsequently, the digital watermark detection unit 240 attempts to detect the digital watermark from the detection target region image, and outputs the detection result.
  • Step 1607) If the digital watermark detection is successful, the moving image input unit 210 obtains the next frame image and repeats the above-described processing sequentially.
  • FIGS. 86 to 90 are diagrams for explaining the processing of the feature extraction unit in the sixteenth embodiment of the present invention.
  • the feature region extraction unit 290 receives a frame image and extracts a feature region in the frame image.
  • techniques such as rectangular region detection based on edge recognition in Document 3 are used.
  • the extracted feature region is output as a feature region extracted image after correcting distortion caused by the camera photographing angle and the like, and normalizing the size.
  • the display area of the TV can be detected as a characteristic area as shown in FIGS. 86 and 90, or the outside of the TV casing can be detected as shown in FIGS. 87 and 89.
  • the feature region image 88 is detected as a feature region, or a rectangular region in the background of the television (not shown) is used as the feature region. Case Depending on the contents of the input frame image, there may be various cases depending on the content of the feature area. However, the important point is that the same object can be taken regardless of the difference in the shooting angle. If the feature regions detected by the frame images are substantially the same, the feature region image obtained by correcting the distortion and normalizing the size is shown in FIG. As shown in Fig. 90, it can be obtained in the same state with respect to the shooting angle, etc., which changes every moment according to the capture time.
  • the feature region may be detected in any state as in the example of FIG. 86 or FIG. Any method can be used as long as it is a stable feature region extraction method from a frame image that satisfies these conditions, not limited to rectangular region detection using edge lines as in Reference 3. .
  • FIGS. 91 to 93 are views for explaining processing of the difference image generation unit in the sixteenth embodiment of the present invention.
  • the difference image generation unit 230 takes the difference between the currently acquired feature area image and the previously acquired feature area image stored in the feature area image buffer 302, and generates a feature area difference image. .
  • the current feature area image is buffered in the feature area image buffer 302 in preparation for the next detection trial.
  • the feature region extraction process absorbs the difference in distortion caused by camera movement between capture frames, etc., so the feature region difference image obtained from the time difference of the feature region image is The other parts where the amount of change in the part caused by watermark pattern switching is large have almost no difference.
  • the detection target region is extracted from the feature region difference image, the distortion is corrected, and the electronic watermark detection is attempted, The information can be detected.
  • the feature region 'detection target region is extracted by searching only the vicinity of the position when the digital watermark detection state is good.
  • This embodiment is the same as the thirteenth to sixteenth embodiments except for the parts described below. The following description is centered on differences from the sixteenth embodiment.
  • FIG. 94 is a diagram for explaining the process of the feature region extraction unit in the seventeenth embodiment of the present invention.
  • the feature region extraction unit 290 in the present embodiment remembers the position and shape of the feature region when the detection status is good in the previous digital watermark detection trial (stores it by some method). )
  • the force search is performed only in the vicinity of the previous feature region. In the two capture time intervals that perform the difference calculation, the camera movement is not so large, so when the previous detection situation was good, there is a correct feature area in the vicinity of the current frame image. To do. Utilizing this principle, the feature region search range is narrowed to realize more stable feature region extraction.
  • the detection condition is good means that, for example, the detection reliability index value in Document 1 is a somewhat significant value, but the digital watermark detection has not yet been successful.
  • the detection reliability index value in Document 1 is a somewhat significant value, but the digital watermark detection has not yet been successful.
  • the detection status of the digital watermark detection unit 240 It shall be the case where
  • the size of the vicinity at the time of search may be changed according to the interval between two capture times for obtaining a difference. For example, if the capture time interval is short, the camera movement is expected to be small. Therefore, make the neighborhood small. Conversely, if the capture time interval is long, it can be predicted that the amount of movement of the camera may be large, so the vicinity may be increased.
  • Fig. 95 is a diagram for explaining processing of the detection target region extraction unit in the seventeenth embodiment of the present invention.
  • the detection target region extraction unit 220 in the digital watermark detection apparatus in the first to twelfth embodiments.
  • the detection target region in the current frame image may be searched from the vicinity of the previous detection target region.
  • Processing may be performed in the same manner as in the thirteenth to sixteenth embodiments without performing a search.
  • the stability and reliability of the feature region or the detection target region are improved, so that it is possible to improve the digital watermark detection performance.
  • the detection method of the feature region or the detection target region is not very robust, there is a great effect, and the digital watermark detection performance is greatly improved.
  • This embodiment is the same as the fourteenth to seventeenth embodiments except for the parts described below. The following description will center on differences from the fourteenth embodiment.
  • FIGS. 96 to 99 are diagrams for explaining the processing of the detection target region extraction unit in the eighteenth embodiment of the present invention.
  • the inter-frame difference image force of the moving image in which the watermark pattern of the fourteenth embodiment is embedded is also performed.
  • a frame pattern of outside: bright and inside: dark is added to the basic watermark pattern in advance in order to perform detection target region extraction with high accuracy (note that As described in the first embodiment, the light is used to represent the magnitude of the pixel value and should not be limited to only the luminance value).
  • the detection target area extraction unit 220 examines a change in the pixel value of the frame portion when searching for the detection target area from the difference frame image. In the example in Fig.
  • the detection target area is outside: bright, inside: dark, so the watermark pattern in the detection target area image is judged to be in phase (positive phase) with the basic pattern at the time of embedding,
  • this phase information can be used for digital watermark detection processing.
  • Figure 97 shows an example where the phase is reversed. By examining the edge of the detection target area, it can be seen that the positive phase Z and reverse phase can be determined.
  • FIGS. 98 and 99 show examples in which the present embodiment is applied to the fifteenth embodiment.
  • the basic pattern of the QR Code (registered trademark) alignment marker and the alignment pattern found from the detection target area have a positive correlation, it is determined as a positive phase.
  • it has a negative correlation Fig. 98
  • it is determined to be out of phase Fig. 99
  • the reason for reversing is that the existing 2D code reading method corresponds to the recognition of the phase-inverted code, so there are many cases, so when using the existing 2D code reading process, This is necessary.
  • the input of the detection target region extraction unit 220 is only a feature region difference image, not a difference frame image, and otherwise It is obvious that the same processing may be performed.
  • the phase of the pattern portion of the extracted detection target area is basically determined using a pattern such as a frame or alignment marker added to the basic watermark pattern in order to improve the extraction reliability of the detection target area.
  • the normal phase Z reverse phase of the watermark pattern in the detection target region image is determined according to whether or not the in-phase power is the same as that of the watermark pattern. This phase information can be used to improve the detection performance shown in the fourth embodiment.
  • the bit length of the transparent watermark is reduced by adding a flag to the information and adding a flag for phase alignment, or multiplexing the phase determination signal that causes noise for transparent watermark. Therefore, the digital watermark detection performance is improved.
  • This embodiment is the same as the thirteenth to eighteenth embodiments except for the following parts.
  • FIG. 100 shows the configuration of the digital watermark detection apparatus in the nineteenth embodiment of the present invention.
  • the digital watermark detection apparatus 200H shown in the figure includes a moving image input unit 210, a difference image generation unit 230, a detection target region extraction unit 220, a digital watermark detection unit 240, a frame image buffer 301, and a difference frame image buffer 303. Consists of
  • the difference from the thirteenth embodiment is that the processing content of the detection target region extraction unit 220 is newly The difference frame image buffer 303 is provided.
  • FIG. 101 is a flowchart of operation of the digital watermark detection apparatus in the nineteenth embodiment of the present invention.
  • Step 1701 In the moving image input unit 210, an analog or digital moving image is input, and frame images are sequentially acquired.
  • a camera or scanner or an analog video signal is input to acquire a frame image. If it is a digital moving image, the frame image is acquired by performing a decoding process or the like.
  • Step 1702 the difference image generation unit 230 takes the difference between the currently acquired frame image and the previously acquired frame image stored in the frame image buffer 301, and obtains the difference frame image. Generate.
  • Step 1703 The frame image input this time is buffered in the difference frame buffer 301.
  • Step 1704 The difference frame image obtained this time is added and accumulated in the difference frame buffer 301.
  • Step 1705 From the difference frame image accumulated and accumulated in the difference frame buffer 301, a detection target region that is a target of watermark detection is extracted to obtain a detection target region image.
  • the pixel values of the difference frame image are converted into absolute values, and then added and accumulated in the difference frame image buffer 303, and detected from the difference frame image added and accumulated in the difference frame image buffer 303.
  • the target area may be extracted, and the image of the detection target area of the current difference frame image may be subjected to distortion correction and size normalization to be a detection target area image.
  • the absolute value image of the difference frame image is added and accumulated, so the addition and accumulation increase the contrast between the detection target area and the background area regardless of the phase of the watermark pattern in the input difference frame image. The extraction reliability of the target area is increased.
  • the difference frame image can be generated in synchronization with the watermark pattern switching timing represented by the watermark pattern switching information as in the third embodiment, the obtained difference is used.
  • the detection target area is extracted after the difference frame image added and accumulated in the difference frame image buffer 303 is converted to an absolute value, and the difference frame image buffer 303 stores the difference frame image.
  • An image of the detection target area of the difference frame image accumulated by calorie calculation may be subjected to distortion correction and size correction to be a detection target area image.
  • Step 1706 Subsequently, the digital watermark detection unit 240 attempts digital watermark detection from the detection target region image, and outputs the detection result.
  • Step 1707 If the digital watermark detection is successful, the moving image input unit 210 obtains the next frame image and repeats the above processing sequentially.
  • FIG. 104 shows the configuration of the digital watermark detection apparatus in the nineteenth embodiment of the present invention.
  • the digital watermark detection apparatus 2001 shown in the figure includes a moving image input unit 210, a feature region extraction unit 290, a difference image generation unit 230, a detection target region extraction unit 220, a digital watermark detection unit 240, and a feature region buffer 302. , A feature region difference image buffer 304.
  • the difference from the sixteenth embodiment is that the processing contents of the detection target area extraction unit 220 and a new characteristic area difference image buffer 304 are prepared.
  • FIG. 105 is a flowchart of the operation of the digital watermark detection apparatus in the nineteenth embodiment of the present invention (applied to the sixteenth embodiment).
  • Step 1801) In the moving image input unit 210, an analog moving image displayed on a display such as a television is captured by a camera in real time, or When a digital moving image such as MPEG encoded is input, frame images are sequentially acquired.
  • a frame image is acquired by inputting a camera, a scanner, or an analog video signal. If it is a digital moving image, a frame image is acquired by performing a decoding process or the like.
  • Step 1802) Next, the feature region extraction unit 290 extracts the feature region in the frame image.
  • For feature region extraction techniques such as rectangular region detection based on edge recognition in Document 3 are used.
  • the extracted feature region is output as a feature region extraction image after correcting the distortion caused by the camera shooting angle and the like, and normalizing the size.
  • Step 1803) Next, in the difference image generation unit 230, the difference between the currently acquired feature area image and the previously acquired feature area image stored in the feature area image buffer 302 is obtained, and a feature is obtained. An area difference image is generated.
  • Step 1804) In addition, the current feature area image is buffered in the feature area image buffer 302 in preparation for the next detection trial.
  • Step 1805) In the detection target region extraction unit 220, the feature region difference image is stored in the feature region difference image buffer 304.
  • the phase of the feature region difference image stored in the feature region difference image buffer 304 is aligned, and the addition is performed in the feature region difference image buffer 304.
  • a method of aligning the phases a method such as that shown in the sixth embodiment or the seventeenth embodiment can be used, as long as it is synchronized with the watermark pattern switching timing. As a result, only those in phase with the basic watermark pattern are added to the feature region difference image buffer 304, or only those in reverse phase are added.
  • Step 1806) Next, a detection target region that is a target of watermark detection is extracted from the feature region difference image added and accumulated in the feature region difference image buffer 304, and distortion correction and size normalization are performed. To obtain a detection target region image.
  • Step 1807) Subsequently, the digital watermark detection unit 240 tries to detect the digital watermark from the detection target region image, and outputs the detection result.
  • Step 1808) When the digital watermark detection is successful, the moving image input unit 210 obtains the next frame image and repeats the above-described processing sequentially. [0476] As described above, by adding and accumulating the phases, the watermark pattern of the detection target region is more prominent than that of only one difference image, so that the extraction reliability of the detection target region is improved and the first Similar to the sixth embodiment, the electronic permeability detection performance is improved.
  • the difference frame image or the feature region difference image is accumulated, and the detection pattern of the detection target region is improved by relatively increasing the strength of the watermark pattern and extracting the detection target region. Realized.
  • the present embodiment is the same as the first to nineteenth embodiments except for the parts described below. The following description will center on differences from the thirteenth embodiment.
  • 108 and 109 are diagrams for explaining the process of the watermark pattern superimposing unit in the twentieth embodiment of the present invention.
  • the watermark pattern superimposing unit 130 inputs a generated watermark pattern based on the frame image and the frame display time. At this time, it is assumed that a plurality of watermark patterns are generated as necessary so that a plurality of watermark patterns can be superimposed on one frame image. For example, suppose that three watermark patterns representing three different pieces of information are given. The watermark pattern superimposing unit 130 adjusts the amplitude of each watermark pattern as appropriate, adjusts the position and size according to the object in the frame image to be associated with the information represented by each watermark pattern, and superimposes it on the frame image.
  • FIG. 108 shows an example in which a watermark pattern is superimposed on three different object areas in a frame image. Alternatively, as shown in FIG.
  • an object is included in a watermark pattern corresponding to the entire image.
  • the watermark patterns corresponding to the tattoos may be superposed in a nested manner.
  • the value of the outer watermark pattern may be overwritten with the value of the inner watermark pattern that is nested.
  • FIG. 109 as in the fourteenth embodiment and the fifteenth embodiment, it is assumed that a marker for extracting a detection target region is attached to the watermark pattern.
  • FIG. 110 is a diagram for explaining processing of the difference image generation unit in the twentieth embodiment of the present invention.
  • the process itself of the difference image generation unit 230 is the same as that of the thirteenth embodiment. Since there are a plurality of watermark pattern regions in the input frame image, as shown in FIG. A plurality of watermark pattern areas are obtained in the difference frame image.
  • 111 and 112 are diagrams for explaining the process of the detection target region extraction unit in the twentieth embodiment of the present invention.
  • the rectangular area is searched using the absolute value of the pixel value of the difference frame image, three detection target areas can be found as shown in FIG.
  • a detection target area image is generated for each of the three detection target areas, and a digital watermark detection trial is performed for each.
  • 113 to 116 show examples of feedback output of the digital watermark detection apparatus in the twentieth embodiment of the present invention.
  • the detection status obtained for each detection target area is combined with the preview screen on the display screen of the digital watermark detection apparatus 200 according to the position and size of the detection target area.
  • the digital watermark detection statuses from the three detection target areas are combined and displayed at the object position associated with the original watermark pattern.
  • FIG. 114 shows an example of synthesis of the digital watermark detection status from two nested detection target areas.
  • the digital watermark detection status of only the photographing part can be output. If this is used, for example, an instruction to select some of a plurality of objects on the display screen can be realized using electronic watermark detection.
  • a plurality of watermark patterns are superimposed and embedded in one frame of a moving image, and a plurality of detection target areas in a frame image obtained by a camera capture are extracted, and each is detected electronically.
  • This makes it possible to embed and detect electronic transparency associated with an object in the frame image, improving convenience.
  • it can be used for a user interface that selects a specific object on the screen by zooming in on the specific object at the time of shooting and performing capture detection.
  • This embodiment is the same as the first to twentieth embodiments except for the parts described below. It is one. Hereinafter, a description will be given centering on differences from the first embodiment.
  • FIG. 117 is a diagram for explaining an example of watermark pattern switching information in the twenty first embodiment of the present invention.
  • the watermark pattern switching information in the present embodiment is information that indicates the cycle of the watermark pattern and the switching point during the cycle, rather than the information that directly indicates pattern inversion.
  • FIG. 118 and FIG. 119 are diagrams for explaining the processing of the watermark pattern switching unit in the twenty first embodiment of the present invention.
  • the watermark pattern switching unit 122 first converts the gray value of the input basic watermark pattern into a phase difference variation pattern. For example, in the case of a binary basic watermark pattern as shown in FIG. 118, two phase difference fluctuation values corresponding to light and dark are obtained and the pixel values of light and dark on the basic watermark pattern are converted. It is obtained by associating a phase difference variation value with a pixel position having.
  • how to obtain the binary phase fluctuation difference value is as follows. As shown in Fig.
  • the watermark pattern switching information is ⁇ intermittently switched every 1Z10 seconds so that one cycle is 3ZlO seconds '' If the phase is 3Z10 seconds and the switching timing is 1Z10 seconds, changing the phase by 2 ⁇ ⁇ 3 in 1Z10 seconds will return to the original phase after 3Z10 seconds. Use 2 ⁇ ⁇ 3 and 2 ⁇ ⁇ 3 in the opposite direction.
  • the watermark pattern switching unit 122 takes the input frame display time as the time axis of the watermark pattern switching information, and at each switching timing, the watermark pattern immediately before is displayed. Add the phase difference fluctuation pattern to the phase pattern.
  • the phase difference variation pattern is added to the watermark phase pattern at the times tO, tl, and t2. It should be noted that the initial value of the watermark phase pattern in the first frame of the moving image is set so that each element of the watermark phase pattern arbitrarily takes a deviation between 0 and the above difference variation value. .
  • the watermark pattern switching unit 122 Converts the watermark phase pattern into a watermark pattern.
  • a method of conversion for example
  • each element value of the watermark phase pattern is represented by two or more components of the image, in the figure, the origin (0, 0) in the coordinate system with Cb and Cr as the orthogonal axes in the YcbCr color system Corresponds to a point on a circle with radius r (r is a given value) centered at.
  • the pixel values of all watermark patterns are obtained by using the Cb and Cr coordinates of the Cb—Cr coordinate system obtained as a result as the pixel values of the transparent pattern corresponding to the elements of the watermark phase pattern.
  • the watermark pattern thus obtained is a pattern having a plurality of component values for each pixel.
  • the scale may be corrected as appropriate so that the variation amount of each axis and the visual sensitivity match.
  • the YCb Cr color system shows an example using Cb and Cr components for the reason that it is less perceivable than Y.
  • the modulation method (A-2) of the first embodiment is used.
  • the waveform pattern as the basic watermark pattern and changing the phase of the waveform pattern, digital watermark embedding using phase difference variation can be realized as in the present embodiment.
  • the watermark pattern power obtained in this way is the same as in the first embodiment in that a watermarked moving image is obtained by sequentially superimposing on a frame image.
  • FIG. 120 is a diagram for explaining processing of the difference image generation unit in the twenty first embodiment of the present invention.
  • the difference image generation unit 230 performs the same processing as in the first embodiment to obtain the difference image, and further modifies the difference image.
  • An example of how to make corrections is as shown in Fig. 120.
  • 0 is the angle of the circle in the figure ( ⁇ ⁇ 6, ⁇ / 2, ⁇ / 6, 5 ⁇ / 6, 7 ⁇ / etc, 3 ⁇ 2, 11 ⁇ (6) is determined to be the closest one, and the sign (+ or 1) assigned to the closest angle is obtained. Finally, the distance R from the origin is multiplied by this sign and overwritten as the pixel value of the pixel in the differential image. This is performed for all the pixels of the difference image.
  • the capture timing and the difference timing are based on the watermark pattern switching information as in the third embodiment.
  • the difference is specified to be the difference between the detection target region images separated by 1Z10.
  • the watermark pattern in the obtained difference image is changed depending on the timing of difference acquisition. It was either in-phase or opposite-phase when embedded, and it was necessary to cope with various devices
  • FIG. 122 and FIG. Fig. 122 corresponds to the Cb-Cr component value embedded in two frames separated by 1 Z 10 seconds, that is, the phase pattern at the time of embedding, when the phase difference variation pattern value at the time of embedding is 2 ⁇ 3. It lists all possible patterns of values and Cb-Cr values obtained by the difference. Thus, if the phase difference fluctuation value at the time of embedding is 2 ⁇ ⁇ 3, the Cb-Cr component value in the difference image is one of the three of ⁇ ⁇ 6, 5 ⁇ / 6, 3 ⁇ ⁇ 2. Has a phase.
  • FIG. 123 shows the case where the phase difference variation value is 2 ⁇ 3.
  • the Cb-Cr component value in the differential image has one of the three phases 7 ⁇ ⁇ 6, ⁇ / 2, 11 ⁇ ⁇ 6. That is, according to the phase difference fluctuation value, the Cb-Cr component values in the difference image can be classified into two groups. If this is used, the phase difference fluctuation value at the time of embedding is always determined by determining which of the two groups the phase of the Cb-Cr component at the time of detection belongs to, as shown in Fig. 120. Can be obtained constantly. Since the phase difference variation values correspond to the values of the terms of the series through which the information is transmitted and diffused, the watermark pattern (difference image modified in Fig. 120) that can also obtain the difference force regardless of the capture timing. This is equivalent to the basic watermark pattern at the time of embedding that does not invert.
  • the other modulation methods of the first embodiment are also improved in the detection performance of information and the detection target area as in the sixth embodiment and the nineteenth embodiment, for example. Because it is necessary to match the phase when storing the difference image for this purpose, various devices have been used. However, by using this embodiment, this problem is completely eliminated, and regardless of how the difference is taken. Since the watermark pattern is constant, of course, bit inversion of the detected permeability information does not occur, and it is only necessary to simply add without worrying about the phase when adding and accumulating differential images.
  • the modulation method as in the first embodiment As shown in Fig. 124, there is a risk that the differential image straddling the boundary of the data block may detect information with incorrect permeability. For this reason, in order to ensure safety, it is necessary to insert a section where the permeability is not embedded between the data block sections, which causes a problem that the transparency per unit time is reduced. It was.
  • the permeability information is represented by the phase difference fluctuation, and therefore the phase difference fluctuation representing the current data block information is added to the phase pattern at the end of the immediately preceding data block. If embedding is performed, data block information can be accurately detected even if a differential image straddling the data block boundary is obtained at the time of detection. As a result, it is possible to detect the embedding by switching the data blocks continuously without inserting an unnecessary blank, so that it is possible to increase the permeability and the amount of information per unit time.
  • the permeability information is embedded as a phase difference variation, so that a difference image can be obtained so as to include a certain watermark pattern regardless of the difference image acquisition timing.
  • the reliability of the detection information can be ensured without inserting unnecessary blanks between the data blocks. Can be increased.
  • This embodiment is the same as the first to twenty-first embodiments except for the parts described below.
  • FIG. 125 is a diagram for explaining processing of the difference image generation unit in the twenty second embodiment of the present invention.
  • the difference image generation unit 230 After the difference image generation unit 230 generates a difference image of the detection target region image, the difference image is further filtered and output.
  • FIGS. 126A and 126B are diagrams for explaining an example of the filter processing in the twenty-second embodiment of the present invention.
  • the difference image is represented as a one-dimensional signal.
  • FIG. 126A when the absolute value of the pixel value of the difference image is equal to or greater than a given threshold value, a nonlinear filter process of clipping to the threshold value is performed.
  • FIG. B if the absolute value of the pixel value of the difference image is equal to or greater than a given threshold value, nonlinear filter processing is performed if the pixel value is set to 0.
  • the present embodiment it is possible to suppress a large difference component that occurs when a moving image with motion is captured by filtering.
  • the difference component resulting from the motion of the image itself appears as a difference pixel value having a large absolute value on the difference image. Therefore, if a non-linear filter as in this embodiment is used, the difference component due to the motion of the moving image is suppressed, and the watermark pattern Because the SZN ratio of the watermark pattern is improved, the detection performance from moving images with motion can be improved.
  • This embodiment is the same as the first to twenty-second embodiments except for the parts described below. Hereinafter, differences from the first embodiment will be described.
  • FIG. 127 is a diagram for explaining the processing of the watermark pattern important part in the twenty third embodiment of the present invention.
  • the watermark pattern superimposing unit 130 in the present embodiment has a function of accumulating the past several frame images that are sequentially input, and the newly input current frame image and the previous frame image. A difference image is generated.
  • the previous frame image may be the previous one or a few frames before.
  • the watermark pattern is appropriately scaled as in the first to twenty-second embodiments.
  • the amplitude of the watermark pattern is adjusted based on the difference image. Subsequent processing only superimposes the watermark pattern with the amplitude adjusted on the frame image as in the first to twenty-second embodiments.
  • FIG. 128 is a diagram for describing an example of watermark pattern amplitude adjustment in the twenty-third embodiment of the present invention.
  • the sum of absolute values of the pixel values of the difference image is obtained, and the amplitude of the entire watermark pattern is adjusted based on the sum value.
  • the adjustment is performed, for example, by amplifying the amplitude by a value proportional to the total value, so that the amplitude increases as the total value increases.
  • FIG. 2 (2) there may be a method of adjusting the amplitude of the pixel value of the corresponding coordinate of the watermark pattern based on the pixel value of each coordinate of the difference image.
  • the larger the absolute value of the pixel value of the difference image the larger the amplitude of the watermark pattern at the corresponding position.
  • the amplitude of the watermark pattern is amplified as the number of pixels having a large absolute value in the difference image increases, that is, as the motion of the moving image increases.
  • the method of amplification may be made more complicated, for example, by applying (2) in the figure after applying (1) in the figure.
  • a watermark pattern when a watermark pattern is superimposed on a moving image with motion, there are many pixels having a large absolute value in the difference image, that is, for a frame with intense motion. Will superimpose a watermark pattern with a larger amplitude than for a frame with little motion. In general, moving scenes with a lot of movement are less likely to perceive noise than static scenes! / Even if the movement is intense as described above and the watermark pattern amplitude is increased in the frame, the image quality deterioration due to watermark embedding Can not be perceived.
  • This embodiment is the same as the first to twenty-third embodiments except for the parts described below. Hereinafter, a description will be given centering on differences from the first embodiment.
  • FIG. 129 shows the configuration of the digital watermark detection apparatus in the twenty-fourth embodiment of the present invention.
  • the digital watermark detection apparatus 200J shown in the figure includes a moving image input unit 210, a detection target region extraction unit 220, a difference image generation unit 230, a digital watermark detection unit 240, a detection target region image buffer 250, and a zoom processing unit 310. Consists of The configuration shown in the figure is a configuration in which a zoom processing unit 310 is added to the digital watermark detection apparatus 100A of the first embodiment.
  • FIG. 130 is an operation flowchart in the twenty-fourth embodiment of the present invention.
  • Step 1901 to Step 1906 in the flowchart shown in the figure are the same as Step 201 to Step 206 in Fig. 20, the description thereof is omitted.
  • Step 1907) If the detection status of the digital watermark detection unit 210 is not good, the process proceeds to Step 1901. If it is good, the process of Step 1908 is performed.
  • Step 1908) In the zoom processing unit 310, when the detection status is favorable using the detection target region information indicating the size and position of the detection target region and the detection status of the digital watermark detection unit 240, A zoom parameter is generated so that the detection target area has a given size, is given to the moving image input unit 210, and the process proceeds to step 1901.
  • the moving image input unit 210 automatically operates a camera, a scanner, or the like based on a given zoom parameter. Zoom in.
  • the detection condition is good means that, for example, the detection reliability index value in Document 1 is a significant value to some extent, as in the seventeenth embodiment, but the electronic permeability is still low.
  • the detection of a certain data block is successful, that is, the digital watermark detection.
  • the presence of electronic permeability is significantly clear from the detection status of part 240. For example, if the detection target area represented by the current detection target area information is less than 40% so that the area of the detection target area is 40% or more of the area of the frame image, the camera automatically zooms in. Try to be 40% or more.
  • the detection status is good at the time of a detection trial and the area of the detection target area is 20%, the display is smoothly changed by gradually zooming in each detection trial, and the user interface is changed. You can improve it.
  • zoom in is not performed until the detection target area becomes frustrating, and the given size ( For example, you may zoom to 50% of the frame image.
  • the zoom ratio may be changed as appropriate so that the vertices and sides of the detection target area determined by the current detection target area information with a given size fit in the frame image (for example, detection at the center of the frame image). In the case of the target area and the case of being at the end, the latter is less zoomed in).
  • the pixel size of the detection target area in the frame image at the time of shooting In this case, it is possible to automatically zoom in to obtain a detection target area having a larger pixel size.
  • the number of pixel samples is small, it becomes difficult to detect digital watermarks. Therefore, by increasing the number of pixel samples in the detection target area by zooming in, it is possible to improve the detection performance of electronic transparency.
  • the detection performance can be improved by increasing the number of samples, and at the same time, if the area that is not the original detection target area is mistakenly set as the detection target area as shown in Fig. B, the digital watermark detection status is Since it does not become good, it does not zoom in.In other words, it zooms in so that the detection performance is improved only in the detection target area where the existence of the electronic permeability is clear. Can be improved.
  • the permeability information is embedded as a phase difference variation, and at the time of detection, a difference image (A) is first generated, and further, a phase difference between temporally adjacent difference images (A) is measured.
  • a difference image (A) is first generated, and further, a phase difference between temporally adjacent difference images (A) is measured.
  • This embodiment is the same as the first to twenty-fourth embodiments, except for the parts described below. Hereinafter, a description will be given centering on differences from the first embodiment.
  • the configuration of the electronically permeable embedding device in this embodiment is the same as that of the first embodiment.
  • FIG. 132 is a diagram for explaining an example of watermark pattern switching information in the twenty fifth embodiment of the present invention.
  • the watermark pattern switching information of the watermark pattern generation unit 120 in the electronic transparency embedding device 100 in the present embodiment is not information that directly indicates pattern inversion, but a sine wave having one cycle in 6Z30 seconds. It is expressed as a continuous function, and specifically, information that indicates the period of a sine wave.
  • the input video is a discrete frame image with a specific frame rate, for example, 30 frames / second. Since they are given as a group, as shown in the lower diagram of FIG. 132, the sine wave is discretely sampled and used for embedding. In the present embodiment, as shown below, the phase value with respect to the period of the sine wave is used.
  • FIG. 133 is a diagram for explaining processing of the watermark pattern switching unit in the twenty fifth embodiment of the present invention.
  • the watermark pattern switching unit 122 first converts the gray value of the input basic watermark pattern into a code pattern.
  • the code pattern is an array that takes the + or-sign of each gray value of the basic watermark pattern and has a value of 1 as the element value.
  • the input frame display time is taken as the time axis of the transparent pattern switching information, and the phase (hereinafter referred to as the watermark below) of the watermark pattern switching information corresponding to the frame display time is taken.
  • the pattern switching phase is obtained (+ ⁇ / 3 in Fig. 133), and the value obtained by multiplying the phase fluctuation value by the element value of the code pattern is the value of each element of the watermark phase pattern.
  • the watermark phase pattern is an array of the same size as the code pattern, and each element takes a phase value between 0 and 2 ⁇ .
  • the initial value of each element of the watermark phase pattern may be any value.
  • the watermark pattern switching unit 122 converts the phase pattern into a watermark pattern.
  • each element value of the watermark phase pattern is converted into two or more components of the image, in the coordinate system with Cb and Cr in the YCb Cr color system as shown in the figure.
  • the angle is associated with a point with a phase pattern element value on a circle with a radius r (r is a given value) centered at the origin (0, 0).
  • the Cb and Cr coordinates of the Cb-Cr coordinate system obtained as a result are used as the pixel values of the watermark pattern corresponding to the phase pattern element, and the pixel values of all watermark patterns are obtained.
  • the watermark pattern thus obtained is a pattern having a plurality of component values for each pixel.
  • the force RGB color system R-G using Cb and Cr as an example, XY in the XYZ color system, or the Hue-Saturation of the HSV color system is used.
  • Hue-Saturation instead of taking Hue-Saturation as Cartesian coordinates, it is possible to set the phase value directly to the Hue value and have a given Saturation value). It can be.
  • the scale may be corrected as appropriate so that the amount of variation for each axis matches the visual sensitivity (for example, in FIG. 134, Use an ellipse instead of a circle).
  • the YCbCr color system is less perceptible than Y, and for this reason, an example using Cb and Cr components is shown.
  • the modulation method (A-2) of the first embodiment is used.
  • the waveform pattern as the basic watermark pattern and changing the phase of the waveform pattern, digital watermark embedding using phase difference variation can be realized as in the present embodiment.
  • the watermark pattern power obtained in this way is the same as in the first embodiment in that a watermarked moving image is obtained by being superimposed on sequential frame images in the watermark pattern superimposing unit 130. .
  • adjusting the amplitude of the watermark pattern means increasing or decreasing the amplitude in the Cb-Cr coordinate system (the distance between the point aO and the origin in Fig. 134).
  • Hue- Saturation it is equivalent to increasing or decreasing Saturation.
  • the basic permeability pattern is multivalued instead of binary, the amplitude of the pixel value of the corresponding watermark pattern may be increased or decreased according to the magnitude of the absolute value of the pixel value of the basic watermark pattern. .
  • FIG. 135 is a block diagram of the digital watermark detection apparatus in the twenty fifth embodiment of the present invention.
  • the digital watermark detection apparatus 200 in the present embodiment includes a moving image input unit 210, a detection target region extraction unit 220, a difference image generation unit 230, a phase difference measurement unit 360, a digital watermark detection unit 240, and a detection target region.
  • An image buffer 250 and a phase pattern buffer 370 are provided.
  • FIG. 136 is a flowchart of operation of the digital watermark detection apparatus in the twenty fifth embodiment of the present invention.
  • the digital watermark detection unit 240 receives the differential image (B) and performs digital watermark detection from the differential image (B) as in the first embodiment (step 2070).
  • FIG. 138 is a diagram for explaining the processing contents of the phase difference measurement unit in the twenty fifth embodiment of the present invention.
  • the phase difference measurement unit 360 receives the difference image (A).
  • the phase difference measurement unit 360 divides the difference image (A) into blocks in the same manner as when embedding, obtains the sum of Cb and Cr components for each block, and obtains the result (Cb, Cr) as Cb-Cr coordinates.
  • the phase pattern is an array that takes an amplitude and a phase for each element position, and each element is associated with each block of the difference image.
  • the phase difference measurement unit 360 compares the previously acquired phase pattern stored in the phase pattern buffer 370 with the currently acquired phase pattern, and compares the position of each element. A plus or minus sign is determined based on the phase difference, and a new amplitude is determined using a monotonically increasing function that takes a larger value as the amplitude of each of the two phase patterns increases. Each element value of the difference image (B) having the above amplitude as a value is determined.
  • FIGS. 140A and 140B are diagrams for explaining the contents of the processing of the phase difference measurement unit in the twenty fifth embodiment of the present invention.
  • phase pattern acquired this time is stored in the phase pattern buffer 370 to be used for a subsequent detection trial.
  • Capture example A in Fig. 141 is an example in which frame capture is performed every 1Z15 seconds, that is, every other frame.
  • the difference image (A) obtained between adjacent capture frames (indicated as (1), (2), (3), (4), ... etc. in Fig. 141) ((a), (b ), (C),...)),
  • the sign pattern in Fig. 133 has a positive sign pattern, as shown in Fig. 142.
  • the difference is obtained when the Cb-Cr component value is regarded as solid. This is because the difference image calculation corresponds to the difference calculation for each term of the Cb component and Cr component (which greatly suppresses the original image component).
  • a plurality of phases as shown in FIG. 143 can be obtained.
  • a phase pattern is further generated based on the phase value of the Cb—Cr component of the difference image (A), and the phases adjacent to each other in terms of time are generated.
  • the phase difference between the patterns is measured (in Fig. 141, the phase difference data between the phase patterns is expressed as (h), ( ⁇ ) ⁇ ), etc.).
  • the situation is shown in Figure 144 (when the sign pattern is positive) and Figure 145 (when the sign pattern is negative).
  • the phase difference 2 ⁇ ⁇ 3 of the watermark pattern at the time of embedding can be obtained equally between any adjacent capture frames from the phase pattern phase difference. I understand that.
  • digital watermark detection is performed by determining the sign of the difference image ( ⁇ ) using the sign of the phase difference.
  • the phase difference is associated with the code pattern at the time of embedding. Therefore, it is obvious that electronic permeability can be detected.
  • digital watermark detection can be performed in the same manner with any timing force of the capture frame.
  • Fig. 146 shows a capture example B different from the capture example ⁇ (Fig. 141).
  • Captcha example B is the same as capture example A, but 1 Z every 15 seconds, but the start timing of the capture is off.
  • the difference image (A) is generated, the phase of the watermark pattern embedded in each capture frame is different from that of capture example A (Fig. 141).
  • the combination of Cb-Cr values (phase pattern phase values) of the watermark pattern in A) is different compared to the case of capture example A (Figs. 142 and 143) as shown in Fig. 147 and Fig. 148. .
  • the same sign as the code pattern element at the time of embedding is always obtained by measuring the phase difference between adjacent difference images (A) as shown in FIGS. 149 and 150. Can be detected. That is, according to the present embodiment, digital watermark detection can be similarly performed at any capture start timing where there is no difference between capture example A and capture example B.
  • FIG. 151 shows a capture example C different from the capture examples A and B.
  • An example of capture is when the capture timing is 1Z30 seconds, 1Z15 seconds, or not constant.
  • the capture example C when the difference image (A) is first generated, the Cb-Cr value in the difference image (A) is differently combined with the capture example A and the capture example B as shown in FIGS. 152 and 153 ( Phase value in the phase pattern) is obtained. If the time intervals of the capillaries are different as in the example of the capture, it is difficult to classify the Cb-Cr values (phase values in the phase pattern) in the difference image (A) into two. Detection is difficult with the method as in the twenty-first embodiment.
  • the phase difference between the adjacent difference images (A) is further measured as shown in Figs.
  • the value of the phase difference varies depending on the fluctuation of the capture time interval, but the code (0 to ⁇ ⁇ +, 1 ⁇ to 0 ⁇ —) determined from the phase difference is constant regardless of the capture time interval.
  • the capture time interval is changed as in capture example C. Even when moving, digital watermark detection can be performed without any problem.
  • Fig. 156 shows an example of capture D, which is different from capture examples A, B, and C.
  • a moving image camera capture, etc. multiple motion pictures are recorded in one capture frame when the shutter speed is slow.
  • the image frame is exposed and combined multiple times.
  • a moving image frame displayed every 1Z30 seconds is combined into one capture frame by multiple exposure.
  • the phase of the watermark pattern in the capture frame obtained by this synthesis is the synthesis of the phase in each of the multiplexed video frames, the Cb and Cr component terms of multiple frames are weighted at an appropriate ratio.
  • the composite image can be obtained by averaging), it takes an intermediate value of the phase in each multiplexed video frame as shown in Fig. 157 (Fig. 157 shows that two frames are exactly 1).
  • the capture example D when the difference image (A) is first generated, the Cb—Cr in the difference image (A) is combined in a different combination from the capture examples A, B, and C as shown in FIGS. 158 and 159. Value (phase value in the phase pattern) is obtained.
  • the same sign as the code pattern element at the time of embedding is always obtained by further measuring the phase difference between the adjacent difference images (A) as shown in FIGS. 160 and 161. Can be detected.
  • the timing at the time of capture is smaller than the frame display timing of the moving image, and there is an arbitrary time lag. Even in such a case, digital watermark detection can be performed in the same manner.
  • the permeability information is represented by the phase difference fluctuation, so the phase difference fluctuation representing the current data block information is added to the phase pattern at the end of the immediately preceding data block. If embedding is performed, data block information can be accurately detected even if a differential image with a force S is obtained at the data block boundary at the time of detection. As a result, it is possible to embed and detect data blocks by continuously switching data blocks without using unnecessary blanks, so that it is possible to increase the amount of information per unit time.
  • this embodiment is difficult even in the case where the capture interval fluctuates and a capture frame in which a plurality of moving image frames are synthesized by multiple exposure, which is difficult in the 21st embodiment.
  • the detection can be performed without any problem, and the effect of the combination with each of the above embodiments can also be enjoyed.
  • the present embodiment can be implemented even if the devices of the first to twenty-fourth embodiments are arbitrarily combined.
  • the processing of the phase difference measurement unit in this embodiment is inserted into the corresponding location in each embodiment (before the digital watermark detection unit or the detection target region extraction unit, etc.) and the processing is performed, the above-described effects Can be realized it can.
  • the difference image (B) in this embodiment may be read as a difference image or a detection target region image. The following briefly describes the case where the device of this embodiment is applied to each embodiment.
  • Embodiments 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 21, 22, 23, 24 Difference in output of difference image generation unit of electronic permeability detector Input to the phase difference measurement unit as an image (A), obtain a difference image (B), and input this to the digital watermark detection unit;
  • the detection target region image which is the output of the detection target region extraction unit, is used as the difference image (A) of the present embodiment, and the phase difference measurement unit To obtain the difference image (B) and input it to the digital watermark detection unit;
  • the permeability information is embedded as a phase difference variation, and at the time of detection, a difference image (A) is first generated, and further, the phase difference between the temporally adjacent difference images (A) is calculated. Since the digital watermark is detected from the difference image (B) obtained by measuring and using the phase difference, as described above, the capture timing and capture time interval at the time of detection, and certain V Therefore, digital watermark detection can always be performed under the same conditions. This eliminates the need to invert bits of information and prevent phase inversion, and it is not necessary to match the phase when storing the difference image. Simply adding and storing the difference image is sufficient, which simplifies the device configuration, speeds up the processing, In addition, by eliminating the need for the phase synchronization signal, it is possible to increase the transparency and increase the blueprint length.
  • the reliability of the detection information can be ensured without inserting unnecessary blanks between the data blocks. Increases the information length through transparency. Even when the capture timing of the detection device fluctuates, or when multiple moving image frames are combined and captured by multiple exposures, such as by camera shooting, digital watermark detection is possible without any problems. To simplify the configuration of the moving image input unit 210 in the digital watermark detection apparatus 200 (it is not necessary to capture with an accurate clock) or to improve the digital watermark detection performance in the case of analog optical reading such as a camera. Is possible. [Twenty-sixth embodiment]
  • the permeability information is embedded as a phase difference variation, and at the time of detection, a difference image (A) is first generated, and further, a phase difference between temporally adjacent difference images (A) is measured. Then, the difference image (B) obtained using the phase difference is generated, the difference image (B) is added and accumulated, the detection target region is extracted, and the digital watermark is detected from the detection target region image.
  • digital watermark detection is always possible under the same conditions regardless of the capture timing and capture time interval at the time of detection, or shutter speed, etc., correcting the influence of distortion caused by the shooting angle, and making it transparent by accumulation. This improves the robustness of the digital watermark and realizes more stable digital watermark detection.
  • FIG. 162 is a configuration diagram of the digital watermark embedding device in the twenty sixth embodiment of the present invention.
  • the electronic transparency embedding device 100 shown in the figure includes a frame image acquisition unit 110, a watermark pattern generation unit 120, a watermark pattern superimposition unit 130, and a moving image data reconstruction unit 140.
  • the digital watermark embedding apparatus 100 receives original moving image data, watermark information, and watermark pattern switching information.
  • FIG. 163 is a flowchart of the operation of the electronic permeability embedding device in the twenty-sixth embodiment of the present invention.
  • the frame image acquisition unit 110 sequentially acquires the frame image and the display time of the frame image one by one from the original moving image data as shown in FIG.
  • the frame image display time may represent the absolute time of the moving image, which is determined from the time code and the frame rate at the time of playback, or the relative time between frames at the time of playback. It may be something that can measure the interval.
  • the input moving image data is code key data such as MPEG
  • the frame image acquiring unit 110 acquires a frame image by performing decoding or the like.
  • Step 110 Subsequently, the watermark pattern generation unit 120 generates a watermark pattern using the watermark information, the frame display time, and the watermark pattern switching information.
  • FIG. 165 is a configuration diagram of the watermark pattern generation unit in the twenty-sixth embodiment of the present invention
  • FIG. 166 is a flowchart of the operation of the watermark pattern generation unit in the twenty-sixth embodiment of the present invention. It is.
  • the watermark pattern generation unit 120 includes a basic watermark pattern generation unit 121 and a watermark pattern switching unit 122, and receives watermark information, watermark pattern switching information, and frame display time as inputs.
  • Step 2100 the basic watermark pattern generation unit 121 converts the watermark information into a basic watermark pattern which is a two-dimensional pattern.
  • the modulation method of the first embodiment is used.
  • FIG. 167 shows an example of processing of the basic watermark pattern generation unit 121.
  • a method is used in which pixel values are associated with each other in accordance with a sequence value obtained by directly performing spread spectrum modulation on the bit value of permeability information using a spreading sequence.
  • each pixel value of the basic watermark pattern is assumed to be positive or negative.
  • Step 2110) The watermark pattern generation unit 120 then determines whether or not the phase of the basic watermark pattern needs to be reversed based on the relationship between the frame display time and the watermark pattern switching information in the watermark pattern switching unit 122. If necessary, change the phase of the basic watermark pattern and output it as a watermark pattern.
  • FIG. 168 is a configuration diagram of the watermark pattern switching unit in the twenty sixth embodiment of the present invention.
  • the watermark pattern switching unit 122 includes a code pattern generation unit 1221, a watermark pattern switching phase fluctuation value calculation unit 1222, a watermark phase difference pattern generation unit 1223, a watermark phase pattern generation unit 1224, and a watermark phase pattern image display unit 1225.
  • FIG. 169 is a flowchart of the operation of the watermark pattern switching unit in the twenty sixth embodiment of the present invention.
  • Step 2200 The watermark pattern switching unit 122 starts with the code pattern generation unit 122.
  • the basic watermark pattern is converted into a code pattern.
  • Step 2210) Next, in the watermark pattern switching phase fluctuation value calculation unit 1222, based on the time difference between the immediately preceding frame and the current frame represented by the frame display time
  • the difference value of the watermark pattern switching phase represented by the watermark pattern switching information is obtained, and this is used as the watermark pattern switching phase fluctuation value.
  • Step 2220 Next, the watermark phase difference pattern generation unit 1223 generates a watermark phase difference pattern having the code represented by the code pattern and having the watermark pattern switching phase fluctuation value as an absolute value.
  • Step 2230 Next, in the watermark phase pattern generation unit 1224, the current watermark phase difference pattern is given as a phase difference to each element value of the watermark phase pattern for the immediately preceding frame. Get a pattern.
  • Step 2240 Finally, the watermark phase pattern image input unit 1225 converts the watermark phase pattern into an image pattern and outputs the result as a watermark pattern.
  • FIG. 170 is a diagram for explaining an example of watermark pattern switching information in the twenty sixth embodiment of the present invention.
  • the watermark pattern switching unit 120 of the watermark pattern embedding device 100 in the present embodiment does not directly indicate the pattern inversion, but the sine wave that is one cycle in 6Z30 seconds. It is expressed as a continuous function, and is specifically information that indicates the period of a sine wave. Actually, the input video image is given as a group of discrete frame images such as a specific frame rate, for example, 30 frames / second. Will be used for embedding. In the present embodiment, as shown below, the phase value with respect to the period of the sine wave is used.
  • FIG. 171 is a diagram for explaining the processing of the watermark pattern switching unit in the twenty sixth embodiment of the present invention.
  • the watermark pattern switching unit 122 first converts the gray value of the input basic watermark pattern into a code pattern.
  • the code pattern is the gray value of each basic watermark pattern. This is an array that takes out the sign of + or-and sets each element value as a value with a size of 1.
  • the phase (hereinafter referred to as the watermark pattern switching phase) with respect to the cycle of the watermark pattern switching information corresponding to the frame display time is acquired.
  • the phase fluctuation value between the previous frame and the watermark pattern switching phase is obtained (+ ⁇ Z3 in FIG. 171), and this is used as the watermark pattern switching phase fluctuation value.
  • each element value of the watermark phase pattern is given as a phase fluctuation amount to obtain the current watermark phase pattern.
  • the watermark phase pattern is an array of the same size as the code pattern, and each element takes a phase value of 0 to 2 ⁇ .
  • the initial value of each element of the watermark phase pattern should be an arbitrary value.
  • the watermark phase pattern image display unit 1225 converts the watermark phase pattern into a watermark pattern.
  • each element value of the watermark phase pattern is converted into two or more components of the image, as shown in FIG. 172, in the coordinate system using Cb and Cr in the YCbCr color system as the orthogonal axes.
  • the angle corresponds to the point of the phase pattern element value on the circle of radius r (r is a given value) centered at the origin (0, 0).
  • the Cb and Cr coordinates of the Cb-Cr coordinate system obtained as a result are used as the pixel values of the watermark pattern corresponding to the phase pattern element, and the pixel values of all watermark patterns are obtained.
  • the watermark pattern thus obtained is a pattern having a plurality of component values for each pixel.
  • Hue- Saturation in this case, the phase value that does not take Hue- Saturation as Cartesian coordinates may be set directly to Hue value and have a given Saturation value
  • the scale may be corrected as appropriate so that the amount of variation for each axis matches the visual sensitivity (for example, in FIG. 134, Use an ellipse instead of a circle).
  • the YCbCr color system is compared to Y In this example, Cb and Cr components are used because they are difficult to perceive.
  • the watermark pattern superimposing unit 130 appropriately changes the amplitude of the watermark pattern and sequentially superimposes the watermark pattern on the frame image, as shown in FIG. Obtaining an image is the same as in the first embodiment. At this time, the watermark pattern is scaled to a size smaller than the frame image and superimposed on the center of the frame image.
  • adjusting the watermark pattern amplitude increases or decreases the amplitude in the Cb-Cr coordinate system (distance between point aO and the original point in Fig. 172). Also, when using Hue-Saturation, this is equivalent to increasing or decreasing Saturation.
  • the moving image data reconstruction unit 140 reconstructs the watermarked frame images sequentially generated by the above processing as moving image data and outputs it as watermarked moving image data.
  • code encoding such as MPEG encoding may be performed.
  • FIG. 174 is a block diagram of the digital watermark detection apparatus in the twenty sixth embodiment of the present invention.
  • the digital watermark detection apparatus 200 includes a moving image input unit 210, a feature region extraction unit 290, a difference image generation unit 230, a phase difference calculation unit 360, a detection target region extraction unit 220, a digital watermark detection unit 240, a feature region.
  • An image buffer 302, a phase pattern buffer 370, and a difference image (B) accumulation buffer 390 are provided.
  • the digital watermark detection apparatus 200 is an analog moving image displayed on a TV or the like. Or, input a digital moving image such as MPEG encoded.
  • FIG. 175 is a flowchart of the operation of the digital watermark detection apparatus in the twenty sixth embodiment of the present invention.
  • Step 2300 In the moving image input unit 210, an analog or digital moving image is input to sequentially acquire frame images.
  • a frame image is acquired by inputting a camera, a scanner, or an analog video signal. If a digital moving image is input, a decoding process is performed to acquire the frame image.
  • Step 2310) Next, in the feature region extraction unit 290, the feature region in the captured frame image is extracted in the same manner as in the sixteenth embodiment to obtain a feature region image.
  • Step 2320 Next, the difference image generation unit 230 generates a difference image between the currently acquired feature area image and the previously acquired feature area image stored in the feature area image buffer 302, and the difference image Output as (A).
  • Step 2330 Also, in preparation for the next detection trial, the current feature region image is buffered in the feature region image buffer 302.
  • Step 2340 Subsequently, the phase difference measurement unit 360 converts the difference image (A) into a phase pattern.
  • Step 2350 In the phase difference measurement unit 360, the phase difference between the currently acquired phase pattern and the previously acquired phase pattern stored in the phase pattern buffer 370 is measured. Based on the amplitude values of the two phase patterns, a new difference image (B) is generated.
  • Steps 2360 to 2380 Next, in the detection target region extraction unit 220, the current difference image (B) is added and accumulated in the difference image (B) accumulation buffer 390, and the accumulated difference image (B) force is also detected. A target area is extracted to obtain a detection target area image.
  • Step 2390 Finally, the digital watermark detection unit 240 tries to detect the digital watermark from the detection target region image, and outputs the detection result.
  • Step 2400 If the digital watermark detection is successful, the moving image input unit 210 obtains the next frame image and repeats the above-described processing sequentially.
  • FIG. 176 illustrates the process of the feature region extraction unit in the twenty sixth embodiment of the present invention.
  • the feature region extraction unit 290 receives a frame image, extracts a feature region in the frame image in the same manner as in the sixteenth embodiment, and obtains a feature region image.
  • FIG. 177 is a diagram for explaining processing of the difference image generation unit in the twenty sixth embodiment of the present invention.
  • the difference image generation unit 230 receives a feature area image as an input.
  • the difference image generation unit 230 generates a difference image between the currently input feature area image and the previously acquired feature area image stored in the feature area image buffer 302, and outputs it as a difference image (A). To do.
  • the difference processing is performed by subtraction for each component such as R, G, B, Y, Cb, Cr.
  • the current feature area image is buffered in the feature area image buffer 302 in preparation for the next detection trial.
  • FIG. 178 is a diagram for explaining the processing contents of the phase difference calculation unit in the twenty sixth embodiment of the present invention.
  • the phase difference measurement unit 360 receives the difference image (A) as an input.
  • the phase difference measurement unit 360 obtains a Cb component and a Cr component for each pixel of the difference image (A), and expresses the result (cb, cr) as a point in the Cb-Cr coordinate system.
  • is obtained, and these are set as values of elements corresponding to the pixel positions of the phase pattern.
  • the phase pattern is an array that takes the amplitude and phase for each element position, and each element is associated with each pixel of the difference image.
  • the phase difference measurement unit 360 compares the previously acquired phase pattern stored in the phase pattern buffer 370 with the currently acquired phase pattern, and compares the position of each element. A plus or minus sign is determined based on the phase difference, and a new amplitude is determined using a monotonically increasing function that takes a larger value as the amplitude of each of the two phase patterns increases. Each element value of the difference image (B) having the above amplitude as a value is determined.
  • Figs. 180A and 180B show examples of the code selection method based on the phase difference. Find the phase difference ⁇ - ⁇ 'between the phase value ⁇ of the element with the currently acquired phase pattern and the corresponding element phase value ⁇ ' of the previously acquired phase pattern, and if that value is in the range of 0 to ⁇ For example, if the sign is within the range of ⁇ to 0, the sign ⁇ — ⁇ is selected.
  • the reason why the amplitude values R and R 'are monotonically increased is that the watermark signal remains stronger, that is, the higher the amplitude R and R', the better the detection performance of electronic permeability It is.
  • the detection target region extraction unit 220 receives the difference image (B) as an input.
  • the detection target region extraction unit 220 adds and stores the input difference image (B) in the difference image (B) accumulation buffer 390.
  • FIG. 181 is a view for explaining the difference image (B) accumulation buffer in the twenty sixth embodiment of the present invention.
  • the difference image (B) accumulation buffer 390 is a pixel array having the same size as the difference image (B), and for each pixel of the newly input difference image (B), the difference image (B) accumulation buffer 390 The pixel value is added to the corresponding pixel position.
  • FIG. 182 is a diagram for explaining the processing of the detection target region extraction unit in the twenty sixth embodiment of the present invention.
  • the difference image (B) is added and accumulated in the difference image (B) accumulation buffer 390 as described above, and then the pixel value of the difference image (B) accumulation buffer 390 is input as an absolute value. From these, the detection target area is extracted in the same manner as in the thirteenth embodiment.
  • Difference image before absolute value conversion (B) The image of the detection target area in the accumulation buffer 390 is distorted so that it becomes a rectangle of a given size, and further the size normalization is performed, and the detection target area image is Generate and output.
  • the phase difference measurement unit 360 uses the phase difference to determine the sign of the pixel value of the difference image), as described in the twenty-fifth embodiment, the watermark pattern is not related to the capture timing.
  • the embedded pixel area always has the same code at the same pixel position. For this reason, if addition is performed in the difference image (B) accumulation buffer 390, the absolute value increases with each addition.
  • the watermark pattern is embedded in the pixel area, so the signs are not the same, and the pixel value is different.
  • the absolute value of the pixel value does not increase so much, and the contrast with the pixel area in which the watermark pattern is embedded increases with each addition and accumulation.
  • the pixel value of the difference image (B) buffer 390 obtained by addition accumulation is converted to an absolute value, the difference between the positive and negative of the watermark pattern is eliminated, and the watermark pattern as the background area is embedded.
  • the pixel area in which the watermark pattern is embedded appears with high contrast. As a result, the area in which the watermark pattern is embedded can be reliably extracted as the detection target area.
  • the digital watermark detection unit 240 receives the detection target area image as an input, and tries to detect the digital watermark from the detection target area image.
  • a processing example of the digital watermark detection unit 240 will be described with reference to FIG. Figure 183 shows the detection demodulation method corresponding to the modulation method (A-1) when embedding electronic permeability (Reference 1).
  • the detection target region image is divided into blocks corresponding to the number of blocks of the watermark pattern at the time of embedding.
  • the sum of the pixel values in the block is obtained and arranged in block order to obtain a detection target sequence that is a one-dimensional system.
  • the interval corresponding to 1 bit at the time of embedding is taken out from the detection target sequence, and the correlation calculation is performed with the corresponding interval of the spread sequence. If the correlation value is a large positive value, the bit value “1” is detected, and if the correlation value is a large negative value, the bit value “0” is detected, and all bits are detected. If necessary, finish the detection process.
  • the information may be subjected to error correction / detection decoding processing. If the detection of the digital watermark is successful, the process returns to the frame capture process of the moving image input unit 210 and repeats the detection trial. Alternatively, the detection process ends when the input of the moving image is completed.
  • the difference image (A) B) is obtained for each pixel, the difference image (B) is added and accumulated, the detection target region is extracted from the absolute value, and digital watermark detection is performed, thereby further improving the effect of the nineteenth embodiment. Can be combined.
  • the permeability information is embedded as a phase difference variation
  • the addition and accumulation of the difference image (B) can be performed by adding the pixel value as it is, and the bit of the information is not inverted. Therefore, the electronic permeability system is simpler and more efficient than the nineteenth embodiment.
  • the operations of the digital watermark embedding device 100 and the digital watermark detection device 200 in the above-described form are constructed as programs, and are installed and executed in a computer used as the digital watermark embedding device and the digital watermark detection device. Or can be distributed through a network. It is also possible to use the program by storing it in a computer-readable recording medium such as a CD-ROM or electronic memory.
  • the present invention can be variously modified and applied within the scope of the claims without being limited to the above-described embodiment. Further, the present invention is applicable to digital watermark technology, and the present invention is not limited to the above-described embodiments. For example, the present invention is applicable to 3D display systems, 3D imaging systems, audio information, etc. Unperceivable as Various applications such as application to various signal areas are possible.
  • the embodiment of the present invention it is not necessary to embed a fixed pattern in each frame of a moving image by embedding a watermark pattern that switches in time with respect to the frame of the moving image. It is known that a pattern that switches at high speed is embedded, and it is known that visual sensitivity to high frequencies is low with respect to temporal frequency characteristics in human visual characteristics. Therefore, the image quality deterioration due to embedding can be reduced.
  • the watermark pattern switching timing at the time of embedding is known on the detection side, it is possible to select the one in which the watermark pattern remains in the difference image using the time of the two frames that have been captured, and useless electronic There is no need to perform watermark detection.
  • the watermark pattern always remains in the difference image by controlling the capture timing of the camera on the detection side or the time difference between the two images when the difference image is acquired in accordance with the watermark pattern switching timing. Thus, efficient digital watermark detection is possible.
  • the correct transparency is used.
  • Information can be detected.
  • one bit in the transparent information may be used as a flag for phase determination, or a digital watermark for phase determination separate from the transparent information may be used.
  • the embedding information is divided into small data blocks, the data blocks are switched in the time direction, embedding is performed, and at the time of detection, the data blocks obtained by performing detection for each data block are connected, Longer permeability allows embedding and detection of information.
  • the differential phase determination is performed for each detection of each small data block, or the phase determination is performed by embedding the data block ID indicating the order of the data blocks. It is also possible to further improve the electronic permeability detection performance by performing combined difference image accumulation and correlation value accumulation.
  • the convenience of the digital watermark detection process is improved by outputting the digital watermark detection process in real time, thereby increasing the interactivity.
  • improvement of detection performance can be expected by encouraging the user to be in a state where detection is easy.
  • a difference image can be obtained so as to include a certain watermark pattern regardless of the difference image acquisition timing.
  • the reliability of the detection information can be ensured without inserting unnecessary blanks between the data blocks, so that the permeability per unit time can be increased and the information length can be increased.
  • a watermark pattern smaller than the frame size of the moving image data is superimposed.
  • the frame image obtained by captilla at the time of detection By creating a difference image between them and extracting a region with a large difference, that is, a region subject to digital watermark detection, from the difference image, stable electronic watermark detection is achieved regardless of the shooting angle or background image. it can.
  • the camera moves during shooting.
  • the detection target region can be extracted stably.
  • a plurality of watermark patterns representing different information at the time of embedding are arranged and superimposed in association with objects in the image, and a plurality of detection target areas are extracted from the difference image at the time of detection. At the same time, it is possible to detect a plurality of electronic permeability information and to extract different information for each object.
  • the permeability information is embedded as a phase difference variation, and at the time of detection, a difference image (A) is first generated, and further, the phase difference between the difference images (A) that are temporally adjacent is measured, Since the digital watermark is detected from the difference image (B) obtained by using the difference, the digital watermark can always be detected under the same conditions regardless of the capture timing and capture time interval at the time of detection or the shutter speed. Become.
  • the permeability information is embedded as a phase difference variation, and at the time of detection, a difference image (A) is first generated, and further, the phase difference between the temporally adjacent difference images (A) is measured to determine the position.
  • the difference image (B) obtained using the phase difference is generated, the difference image (B) is added and accumulated, the detection target area is extracted, and the digital watermark is detected from the detection target area image.
  • Digital watermark detection is always possible under the same conditions regardless of the capture timing and capture time interval at the time of detection, or the shutter speed, and the effect of distortion caused by the shooting angle is corrected and accumulated. It is possible to improve resistance to penetration and realize more stable digital watermark detection.
  • the watermark pattern switching timing at the time of embedding is known on the detection side, it is possible to select the one in which the watermark pattern remains in the difference image using the time of the two frames that have been captured. There is no need to perform watermark detection. Furthermore, by controlling the capture timing of the camera on the detection side or the time difference between the two images at the time of acquisition of the difference image according to the timing of switching the watermark pattern, it is always transparent in the difference image. Scarecrow patterns can remain, and efficient digital watermark detection is possible.
  • a watermark pattern smaller than the frame size of the moving image data is superimposed. Also, at the time of detection, a difference image between the frame images obtained by the capture is generated, and a region having a large difference, that is, a region to be detected by the digital watermark is extracted from the difference image. Stable electronic watermark detection can be realized.
  • a feature region is extracted for each capture frame, distortion of the feature region is corrected, and a detection target region is extracted from a difference image between feature region images obtained by performing size normalization. Even if the camera moves, the detection target area can be extracted stably.
  • a plurality of watermark patterns representing different information at the time of embedding are arranged and superimposed in association with objects in the image, and a plurality of detection target areas are extracted from the difference image at the time of detection. At the same time, it is possible to detect a plurality of electronic permeability information and to extract different information for each object.
  • a moving image of a television or the like is shot with a camera by improving the detection performance of electronic permeability by various devices.
  • digital watermark detection processing can be performed in real time.
  • the detection performance of electron permeability is improved. As a result, it is possible to capture a moving image of a television or the like with a camera, and to reliably perform electronic watermark detection processing in real time from the captured moving image.
  • an image being viewed on a television is shot with a camera-equipped mobile phone to obtain viewing program related information, or a quiz program or a viewer questionnaire option. Is selected by watermark detection, and the result is sent to the broadcast station by communication, thereby realizing interactive TV broadcasting that feeds back to the program contents in real time, or augmented reality that previously required barcodes, etc.
  • the use of invisible electronic transparency eliminates the need for barcodes and eliminates unnaturalness, and certain games are used in video games and the like to identify objects to be manipulated through watermark detection.
  • a watermark Used for operation or the same application as above for aurora vision on the street
  • information can be sent from the PC to the mobile phone to link devices, or a still image can be copied.
  • n is an integer of 2 or more
  • By displaying with it is possible to embed and detect still images on the display screen, or when analyzing hypertext such as HTML on a PC and displaying it on a browser etc.
  • the hyperlink information is embedded in the display area of the hyperlinked object using the present invention, the PC display screen is photographed with a camera-equipped cellular phone, and the Or a figure, or, using the display screen of a mobile phone such that the mobile phone between collaboration and mobile phone ⁇ PC cooperation by carrying out the application of the above, with a very wide range of applications. Furthermore, it is clear that it can also be applied to copyright management, copyright protection, etc., which are the purposes of applying conventional digital watermark technology.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Television Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 本発明の電子透かし埋め込み方法は、動画像データの各フレーム画像及びフレーム表示時刻を順次取得するステップと、透かし情報とフレーム表示時刻と透かしパターン切り替え情報を用いて、透かしパターンを生成するステップと、透かしパターンを前記フレーム画像に重畳し、上記の処理を順次繰り返して得られる透かし入りフレーム画像群を結合して透かし入り動画像データを生成するステップを有する。また、電子透かし検出方法は、フレーム画像を順次取得するステップと、今回取得したフレーム画像と、以前に取得したフレーム画像の差分画像を生成するステップと、差分画像からの電子透かし検出を行って、電子透かしの検出状況を出力し、電子透かし検出処理を続行する場合は、新たなフレーム画像を取得し直し、上記の処理を繰り返すステップとを有する。

Description

明 細 書
電子透かし埋め込み方法、電子透かし埋め込み装置、電子透かし検出 方法、電子透かし検出装置、及びプログラム
技術分野
[0001] 本発明は、電子透かし埋め込み技術及び電子透かし検出技術に関し、特に、映像 コンテンツに、副情報を人に知覚されないように埋め込み電子透力し埋め込み技術、 及びこの副情報を読み取る技術である電子透かし検出技術に関する。
背景技術
[0002] 今日、電子透かし技術は、コンテンツの著作権保護 ·管理システムや、コンテンツ関 連サービス提供システムなどに用いられて 、る。
[0003] 画像、映像、もしくは音声といったコンテンツの流通の際、コンテンツ識別'管理や 著作権保護'管理、関連情報提供などの目的のため、コンテンツ内に知覚できないよ うに別の情報を埋め込む電子透力 技術を用いる方法がある。
[0004] 例えば、印刷物など静止画をカメラ入力し、入力画像力も電子透力 を検出して関 連情報を得るような利用の方法がある (例えば、非特許文献 1参照)。
[0005] さらに、カメラ入力及び電子透かし検出をリアルタイムで連続的に行い、検出性能を 向上させるという方法もある(例えば、非特許文献 2参照)。
非特許文献 1:中村、片山、宫地、山下、山室:「カメラ付き携帯電話機を用いたサー ビス仲介のための電子透かし検出方式」、情報科学技術フォーラム FIT2003, N-020, 2003年 9月
非特許文献 2 :中村、宫武、林、片山、山室:「カメラ入力画像からのリアルタイム電子 透かし検出方式」、情報科学技術フォーラム FIT2004, J-036, 2004年 9月
発明の開示
発明が解決しょうとする課題
[0006] しカゝしながら、例えばテレビ画面などの動画像をカメラ付携帯電話機などで撮影し、 撮影した動画力もリアルタイムに電子透かし検出処理を行うような方法がな力つた。こ のような方法があれば、 TVで放送中の画面から関連する情報を取得することができ 、動画コンテンツとリアルタイムに連携可能な様々な情報サービスを実現することがで きる。しかし、カメラ撮影に伴う DZA変換や A/D変換などで生じるノイズに対して、 十分な耐性を実現することが困難であるという問題がある。また、カメラ撮影時にキヤ プチヤしたフレーム画像のどの部分が電子透力しの検出対象であるかを特定すること が困難であると 、う問題もある。
[0007] 本発明は、上記の点に鑑みなされたもので、従来存在しなかった、テレビなどの動 画像をカメラで撮影し、撮影した動画カゝらリアルタイムに電子透かし検出を行うことを 可能とする後術を提供することを目的とする。さらに、キヤプチヤしたフレーム画像中 のどの部分力も電子透力しの検出を行えばよいかを特定して、様々な撮影角度や背 景画像の条件下でも確実に電子透かし検出を行うことが可能な技術を提供することも 目的とする。
課題を解決するための手段
[0008] 上記の課題は、動画像に電子透かしを埋め込む電子透かし埋め込み装置におけ る電子透力し埋め込み方法であって、
フレーム画像群からなる動画像データ、透かレ隋報、透かしパターンの時間変化を 指定する透かしパターン切り替え情報を入力するステップと、
フレーム画像取得手段にぉ 、て、動画像データの各フレーム画像及び該フレーム 画像の表示時刻であるフレーム表示時刻を順次取得するフレーム画像取得ステップ と、
透かしパターン生成手段において、前記透かし情報と前記フレーム表示時刻と前 記透かしパターン切り替え情報を用いて、透かしパターンを生成する透かしパターン 生成ステップと、
透かしパターン重畳手段にお!、て、前記透かしパターンを前記フレーム画像に重 畳する透かしパターン重畳ステップと、
前記フレーム画像取得手段での処理、前記透かしパターン生成手段での処理、及 び前記透かしパターン重畳手段での処理を順次繰り返して得られる透かし入りフレ ーム画像群を結合して透かし入り動画像データを生成する動画像データ再構成ステ ップと、 を有することを特徴とする電子透力 埋め込み方法により解決できる。
[0009] 前記透かしパターン生成ステップにおいて、前記透かしパターンの切り替えのタイミ ングが、一定の時間周期で繰り返されるようにしてもょ 、。
[0010] また、前記透かしパターン生成ステップは、
前記透かし情報と前記フレーム表示時刻と前記透かしパターン切り替え情報を用
V、て、該透力し情報に対応する透かしパターンを生成するステップと、
さらに、前記フレーム表示時刻と前記透かしパターン切り替え情報を用いて、該透 かしパターンの時間変化状態を検出時に推定するための位相判定用透かしパター ンを生成し、その位相判定用透かしパターンを前記透力し情報に対応する透かしパ ターンに多重化して得られるパターンを透かしパターンとするステップとを有する、こ ととしてもよ 、。
[0011] また、本発明は、動画像に電子透かしを埋め込む電子透かし埋め込み装置におけ る電子透力し埋め込み方法であって、
フレーム画像群からなる動画像データ、透かレ隋報、透かしパターンの位相変動を 指定する周期情報である透かしパターン切り替え情報を入力するステップと、 フレーム画像取得手段にお 、て、前記動画像データの各フレーム画像及び該フレ ーム画像の表示時刻であるフレーム表示時刻を順次取得するフレーム画像取得ステ ップと、
透かしパターン生成手段において、前記透かし情報と前記フレーム表示時刻と前 記透かしパターン切り替え情報を用いて、透かしパターンを生成する透かしパターン 生成ステップと、
透かしパターン重畳手段にお!、て、前記透かしパターンを前記フレーム画像に重 畳する透かしパターン重畳ステップと、
前記フレーム画像取得ステップ力 前記透かしパターン重畳ステップを順次繰り返 して得られる透かし入りフレーム画像群を結合して透かし入り動画像データを生成す る動画像データ再構成ステップと、
を有することを特徴とする電子透力 埋め込み方法によっても解決できる。
[0012] 前記電子透かし埋め込み方法において、前記透かしパターン生成ステップは、 前記透力し情報を用いて基本透かしパターンを生成する基本透かしパターン生成 ステップと、
前記フレーム表示時刻と前記透かしパターン切り替え情報を用いて、直前の透かし パターンに対して前記基本透かしパターンで定まる位相変動をカ卩えて新たな透かし パターンを生成するステップと、を有することとしてもよ!/、。
[0013] 前記透かしパターン生成ステップは、
前記透力し情報を用いて基本透かしパターンを生成する基本透かしパターン生成 ステップと、
前記基本透かしパターンの画素値に基づいて符号パターンを生成する符号パター ン生成ステップと、
前記フレーム表示時刻と前記透かしパターン切り替え情報を用いて、直前のフレー ムカもの時間差分に対応する透かしパターン切り替え位相変動値を求める透かしパ ターン切り替え位相変動値算出ステップと、
前記透かしパターン切り替え位相変動値に前記符号パターン生成ステップで生成 された前記符号パターンの各要素の符号を付与して、これを直前の透かし位相バタ ーン力 の位相差分として現在のフレームに対する透か Lf立相パターンを生成する 透かし位相パターン生成ステップと、
前記透かし位相パターンに基づいて透かしパターンを生成する透かし位相パター ン画像化ステップと、を有することとしてもよい。
[0014] また、前記透かしパターン生成ステップは、前記透かし位相パターンから前記透か しパターンを生成する際に、前記基本透かしパターンの各画素値に基づ 、て透かし ノ ターンの対応する画素値の振幅を増減するステップを有することとしてもよい。
[0015] また、前記透かしパターン生成ステップは、前記基本透かしパターンが表す位相差 分変動を、画像の複数の成分から得られる座標系における回転量に対応させ、位相 差分変動で回転されて得られる新たな複数の成分値をもとに、前記透かしパターン を生成するステップを有する、こととしてもよい。
[0016] 前記電子透かし埋め込み方法にお!、て、前記画像の複数の成分として、画像の Cb -Cr成分を用いることができる。 [0017] また、前記透かしパターン生成ステップは、
前記透かし情報と前記フレーム表示時刻と前記透かしパターン切り替え情報を用 V、て、該透力し情報をデータブロックに分割するステップと、
前記フレーム表示時刻と前記透かしパターン切り替え情報から定まるデータブロッ ク ID及び該データブロック IDのデータブロック情報を元に透かしパターンを生成する ステップと、を有することとしてもよい。
[0018] また、前記透かしパターン生成ステップは、
前記透かし情報と前記フレーム表示時刻と前記透かしパターン切り替え情報を用 V、て、該透力し情報をデータブロックに分割するステップと、
前記フレーム表示時刻と前記透かしパターン切り替え情報から定まるデータブロッ ク ID及び該データブロック IDのデータブロック情報を元に前記透かしパターンを生 成する際に、前記データブロック IDが位相判定用透力 情報を兼ねるようにして透か しパターンを生成するステップと、を有することとしてもよ 、。
[0019] 前記透かしパターン重畳ステップは、前記透かしパターンを前記フレーム画像以下 のサイズにスケール変更して該フレーム画像の内部に重畳するステップを有する、こ ととしてもよ 、。
[0020] 前記電子透かし埋め込み方法において、前記透かしパターン生成ステップは、 前記透力し情報を用いて基本透かしパターンを生成するステップと、
さらに、電子透かし検出時の検出対象領域抽出のための位置合わせのためのパタ ーンを基本透かしパターンに追加するステップと、
前記フレーム表示時刻と前記透かしパターン切り替え情報を用いて基本透かしパ ターンを変更することで透かしパターンを生成するステップとを有することとしてもよい
[0021] 前記電子透かし埋め込み方法において、前記透かしパターン生成ステップは、 前記透かし情報を既存の 2次元コードにより基本透かしパターンに変調し、前記フ レーム表示時刻と前記透かしパターン切り替え情報を用いて該基本透かしパターン 力も透かしパターンを生成するステップを有することとしてもよい。
[0022] また、前記電子透かし埋め込み方法において、前記電子透かし埋め込み装置は複 数の透かしパターン生成手段を有し、前記電子透力し埋め込みステップにお ヽて、 各々の前記透かしパターン生成手段は異なる透かしパターンを生成し、前記透かし パターン重畳手段は、前記透かしパターンをフレーム画像内に複数重畳する、ことと してちよい。
[0023] 前記透かしパターン重畳ステップは、動きの多いフレーム画像ほど透かしパターン の振幅を増幅するステップを有する、こととしてもよい。
[0024] また、前記透かしパターン重畳ステップは、以前に入力したフレーム画像を記憶手 段に保持しておき、今回入力したフレーム画像と以前のフレーム画像との差分画像 を生成し、該差分画像の画素値に基づ 、て基本透かしパターンの振幅を増幅するス テツプを有する、こととしてもよい。
[0025] また、前記電子透かし埋め込み方法において、前記透かしパターン重畳ステップは
、透かしパターン全体の振幅を増幅するステップを有する、こととしてもよい。
[0026] 更に、前記透かしパターン重畳ステップは、フレーム画像中の動きの大きい画素領 域に対応する透かしパターンの画素領域を増幅するステップを有する、こととしてもよ い。
[0027] また、上記の課題は、動画像力も電子透力 を検出する電子透かし検出装置にお ける電子透かし検出方法であって、
動画像入力手段にぉ ヽて、フレーム画像を順次取得する動画像入力ステップと、 差分画像生成手段において、今回取得した前記フレーム画像と、以前に取得した フレーム画像の差分画像を生成する差分画像生成ステップと、
電子透かし検出手段において、前記差分画像からの電子透かし検出を行って、電 子透かしの検出状況を出力する電子透かし検出ステップとを有し、
前記電子透力しの検出が不可能であった場合を含む、電子透かし検出処理を続 行する場合は、前記動画像入力手段で新たなフレーム画像を取得し直し、上記の各 ステップを繰り返す、ことを特徴とする電子透かし検出方法によって解決することがで きる。
[0028] 前記電子透かし検出方法において、前記電子透かし検出ステップで得られた透か し情報力もデータブロック IDとデータブロック情報を得て、検出透かレ f青報バッファの 該データブロック IDの情報に検出したデータブロック情報を記録し、全てのデータブ ロック IDについて検出が完了した場合に電子透かし検出成功の旨を出力する、よう にしてもよい。
[0029] また、前記動画像入力ステップは、前記フレーム画像と該フレーム画像の表示時刻 であるフレーム表示時刻を順次取得するステップを有し、
前記電子透かし検出方法は、電子透かし埋め込み時の透かしパターン切り替え情 報を用いて、今回のフレーム表示時刻と、以前に取得したフレーム画像のフレーム表 示時刻の時間間隔から検出要否を判定する判定ステップを更に有し、
判定ステップにおいて検出不要と判定された場合は前記動画像入力手段におい て新たなフレーム画像を取得し直し、検出要と判定した場合は前記差分画像生成ス テツプ以降の処理を続行する、こととしてもよい。
[0030] また、前記電子透かし検出方法は、電子透力 埋め込み時の透かしパターン切り 替え情報を用いて、フレームのキヤプチャタイミングを設定するキヤプチャタイミング 制御ステップを有し、
前記動画像入力手段にぉ 、て、前記キヤプチャタイミングに基づ 、てフレーム画像 を順次取得する、ようにしてもよい。
[0031] また、前記電子透かし検出方法は、電子透力 埋め込み時の透かしパターン切り 替え情報を用いて、差分画像を得るためのフレーム間の時間間隔を表す差分タイミ ングを設定するステップを有し、
前記動画像入力手段にぉ ヽて、前記フレーム画像と該フレーム表示時刻を順次取 得し、前記差分画像生成手段において、今回取得したフレーム画像と、前記差分タ イミングで指定される時間だけ以前に取得したフレーム画像の差分画像を生成する、 こととしてちよい。
[0032] また、前記電子透かし検出方法において、前記電子透かし検出ステップは、前記 差分画像に埋め込まれて 、る透かしパターンの位相を判定し、透かしパターンの位 相が逆相の場合は、検出した透力し情報のビット反転を行って、電子透かしの検出 状況を出力するステップを有する、こととしてもよい。
[0033] 前記差分画像生成ステップにおいて前記差分画像を差分画像蓄積バッファにカロ 算し、前記電子透かし検出ステップにおいて、前記差分画像蓄積バッファからの電 子透かし検出を行って透かレ f青報を検出して、検出状況を出力する、ようにしてもよ い。
[0034] また、前記電子透かし検出方法は、前記差分画像に埋め込まれて!/、る透かしバタ ーンの位相を判定するステップと、順次処理される差分画像の全てで当該位相が同 相となるように差分画像を変更するステップを有し、これらのステップで得られた差分 画像を用いて前記差分画像生成ステップ及び前記電子透かし検出ステップを実行 する、こととしてもよい。
[0035] 前記電子透かし検出ステップは、検出の際に算出される相関値を検出処理の度に 記憶手段に蓄積し、蓄積された相関値を用いて検出成功力否かを判定するステップ を有する、こととしてもよい。
[0036] また、前記電子透かし検出ステップは、検出の際に算出される相関値の絶対値を 検出処理の度に記憶手段に蓄積し、蓄積された該相関値の絶対値を用いて検出成 功か否かを判定するステップを有する、こととしてもよ!/、。
[0037] また、前記電子透かし検出方法において、埋め込み時に用いた透かしパターン切 り替え情報と、フレーム画像取得時に得られるフレーム表示時刻の関係から、差分画 像中の透かしパターンの位相を判定するステップを有する、こととしてもよい。
[0038] 前記差分画像中に埋め込まれた透かしパターンで表現された透力し情報中の予め 定めたビット位置のビット値を検出し、該ビット値に基づ 、て該差分画像中の透かし パターンの位相を判定するステップを有する、こととしてもよ 、。
[0039] また、前記電子透かし検出方法は、位相判定用透かしを検出して前記差分画像中 の透かしパターンの位相を判定するステップを有する、こととしてもよ!/、。
[0040] また、前記電子透かし検出方法は、透かし検出処理によって算出される相関値の 正負の極性を利用して前記差分画像中の透かしパターンの位相を判定するステップ を有する、こととしてもよい。
[0041] また、前記電子透かし検出方法は、前記差分画像からの電子透かし検出を行って 透かし情報であるデータブロック情報及びデータブロック IDを検出し、データブロック
ID検出時の相関値の正負の極性を利用して前記差分画像に埋め込まれている透か しパターンの位相を判定するステップを有する、こととしてもよ 、。
[0042] 前記差分画像生成ステップは、今回取得したフレーム画像と、以前に取得したフレ ーム画像の差分画像を生成し、さらに、該差分画像中の特定成分から位相値と振幅 値を求め、該位相値が所与の複数のグループのいずれに属するかを判定し、その判 定結果と該振幅値を元に該差分画像を修正して出力するステップを有する、こととし てもよい。
[0043] また、前記電子透かし検出方法にお!、て、前記差分画像生成ステップは、今回取 得したフレーム画像と、画像記憶手段から読み出した以前に取得したフレーム画像 の差分画像 (A)を生成し、該今回取得したフレーム画像を該画像記憶手段に格納 するステップを有し、
前記電子透かし検出方法は、今回取得した差分画像 (A)に基づいて位相パターン を生成し、今回取得した位相パターンと位相パターン記憶手段力 読み出した以前 に取得した位相パターンの位相差を計測し、位相差に基づ!ヽて差分画像 (B)を生成 し、該今回取得した位相パターンを該位相パターン記憶手段に格納する位相差分 計測ステップを有し、
前記電子透かし検出ステップは、前記差分画像 (B)からの電子透かし検出を行つ て、電子透かしの検出状況を出力するステップを有する、ようにしてもよい。
[0044] また、前記位相差分計測ステップは、
前記差分画像 (A)から位相パターンを生成する際に、位相値と共に振幅値を求め て位相パターンの要素値とするステップと、
前記今回取得した位相パターンと前記以前に取得した位相パターンの位相差を計 測し、位相差に基づいて符号を決定するステップと、
さらに前記今回取得した位相パターンと前記以前に取得した位相パターンの振幅 値と、符号に基づいて前記差分画像 (B)を生成するステップと、を有することとしても よい。
[0045] また、前記位相差分計測ステップは、
前記差分画像 (A)力も前記位相パターンを生成する際に、前記今回取得した位相 パターンと前記以前に取得した位相パターンの振幅値に対して単調増加する値を振 幅とし、前記符号と組み合わせて得られる値に基づ!、て前記差分画像 (B)を生成す るステップを有する、ようにしてもよい。
[0046] また、前記電子透かし検出方法にお!、て、前記差分画像生成ステップにおける前 記差分画像中の特定成分が複数の成分であることとしてもよい。
[0047] また、前記位相差分計測ステップにお 、て、前記差分画像 (A)力も位相パターンを 得る際に、該差分画像 (A)中の複数の成分から得られる座標系おける位相及び振 幅を利用する、ようにしてもよい。
[0048] 前記差分画像中の特定成分として Cb成分及び Cr成分を使用することができる。
[0049] また、前記電子透かし検出方法は、前記差分画像 (B)を差分画像蓄積バッファに 加算するステップを更に有し、
電子透かし検出ステップは、前記差分画像蓄積バッファからの電子透かし検出を行 つて透かレ f青報を検出して、検出状況を出力するステップを有する、こととしてもよい
[0050] また、前記電子透かし検出方法は、順次取得される前記フレーム画像に対し、今回 のフレーム画像中の検出対象領域を抽出し、歪みを補正し、サイズを正規化して検 出対象領域画像を生成するステップを有し、
前記差分画像生成ステップにおいて、今回取得した検出対象領域画像と、以前に 取得した検出対象領域画像の差分画像を生成する、こととしてもよ!ヽ。
[0051] また、前記電子透かし検出方法は、順次取得される前記差分画像から検出対象領 域を抽出して検出対象領域画像を生成するステップを有し、
前記電子透かし検出ステップにお 、て、前記検出対象領域画像からの電子透かし 検出を行って、電子透かしの検出状況を出力する、こととしてもよい。
[0052] また、前記電子透かし検出方法は、前記フレーム画像を順次取得した後に、前記フ レーム画像から特徴領域を抽出して歪み補正及びサイズ正規化を行って特徴領域 画像を生成する特徴領域抽出ステップと、
今回取得した特徴領域画像と、以前に取得した特徴領域画像の差分画像を生成 する前記差分画像生成ステップと、
前記差分画像から検出対象領域を抽出して検出対象領域画像を生成する検出対 象領域抽出ステップと、
前記検出対象領域力 の電子透かし検出を行う前記電子透かし検出ステップと、 を有することとしてもよい。
[0053] 前記検出対象領域抽出ステップは、前記差分画像から前記検出対象領域を抽出 する際に、該差分画像の画素値を絶対値化して検出対象領域を探索するステップを 有する、こととしてもよい。
[0054] また、前記検出対象領域抽出ステップは、前記差分画像から前記検出対象領域を 抽出する際に、埋め込み時の基本透かしパターンに付加された位置合わせパターン を用いて検出対象領域を探索するステップを有する、こととしてもよい。
[0055] また、前記検出対象領域抽出ステップは、過去の電子透かし検出試行で検出状況 が良好であったときの検出対象領域の近傍の領域に限定した探索を行って、今回の 検出対象領域抽出処理を行うステップを有する、こととしてもよい。
[0056] また、前記検出対象領域抽出ステップは、前記位置合わせパターンを用いて、前 記差分画像中の透かしパターンの位相を判定するステップを有する、こととしてもよ ヽ
[0057] また、前記検出対象領域抽出ステップは、前記差分画像を記憶手段に加算蓄積し 、蓄積した該差分画像中から検出対象領域を探索し、抽出するステップを有する、こ ととしてもよ 、。
[0058] また、前記検出対象領域抽出ステップは、前記差分画像を前記記憶手段に加算蓄 積する際に、該差分画像中の透かしパターンの位相を揃えて、加算蓄積を行うステツ プを有する、こととしてもよい。
[0059] また、上記の課題は、動画像力も電子透力 を検出する電子透かし検出装置にお ける電子透かし検出方法であって、
動画像入力手段にぉ 、て、フレーム画像を順次取得するフレーム画像取得ステツ プと、
特徴領域抽出手段において、フレーム画像中の特徴領域を抽出し特徴領域画像 を取得する特徴領域抽出ステップと、
差分画像生成手段において、今回取得した特徴領域画像と、特徴領域画像バッフ ァから読み出した以前に取得した特徴領域画像の差分画像を生成して差分画像 (A )を取得すると共に、該今回取得した特徴領域画像を該特徴領域画像バッファに格 納する差分画像生成ステップと、
位相差分計測手段において、今回取得した差分画像 (A)に基づいて位相パター ンを生成し、今回取得した位相パターンと位相パターンバッファ力も読み出した以前 に取得した位相パターンの位相差を計測し、位相差と振幅に基づ!ヽて差分画像 (B) を生成すると共に、該今回取得した差分画像 (A)を該位相パターンバッファに格納 する位相差分計測ステップと、
検出対象領域抽出手段において、前記差分画像 (B)を各画素毎に画素値の加算 蓄積を行い、加算蓄積によって得られる差分画像 (B)蓄積バッファから検出対象領 域を抽出し、検出対象領域画像を取得する検出対象領域抽出ステップと、
電子透かし検出手段において、前記検出対象領域画像からの電子透かし検出を 行って、電子透かしの検出状況を出力する電子透かし検出ステップと、
電子透かしの検出が不可能であった場合を含む、電子透かし検出処理を続行する 場合は、上記動画像入力手段で新たなフレーム画像を取得し直し上記各ステップを 繰り返すステップと、
を有することを特徴とする電子透かし検出方法によっても解決できる。
[0060] 前記検出対象領域抽出ステップは、加算蓄積によって得られる前記差分画像 (B) 蓄積バッファから検出対象領域を抽出する際に、前記差分画像 (B)蓄積バッファの 画素値の絶対値をとつたものから検出対象領域を抽出し、絶対値を取る前の差分画 像 (B)蓄積バッファの検出対象領域の画像を検出対象領域画像として得るステップ を有する、こととしてもよい。
[0061] 前記検出対象領域抽出ステップにおいて、複数の検出対象領域を抽出し、
前記電子透かし検出ステップにおいて、前記複数の検出対象領域の各々に対して 電子透かし検出試行を行い、検出結果を出力する、よう〖こしてもよい。
[0062] また、前記電子透かし検出ステップは、透かレ f青報を検出する際に、既存の 2次元 コードの復号処理を用いて透力 情報を検出するステップを有する、こととしてもよい [0063] また、前記電子透かし検出方法にお!、て、差分処理によって生成される前記差分 画像に対して、さらにフィルタ処理を施し、フィルタ処理を施した差分画像を出力する ステップを有する、こととしてもよい。前記フィルタ処理として、非線形フィルタを用いる ことができる。
[0064] また、前記電子透かし検出方法において、入力とする動画像が、カメラで撮影され 、キヤプチャされた映像信号である、こととしてもよい。
[0065] また、検出対象領域抽出状況、電子透かし検出状況、データブロック検出状況のう ちのいずれか又は複数の処理状況に応じたフィードバック出力を画面あるいは、音 声を出力する外部出力手段により行うステップを有してもよい。
[0066] また、前記検出対象領域抽出ステップにお!、て、検出対象領域のサイズ及び位置 を表す検出対象領域情報を更に生成し、前記電子透かし生成方法は、前記検出対 象領域情報に基づいて、検出対象領域が所与の画素サイズとなるようにズームパラメ タを設定し、当該ズームパラメタを前記動画像入力手段に与えてズーム処理を行うズ ーム処理ステップを有する、こととしてもよい。
[0067] 前記ズーム処理ステップは、前記電子透かし検出ステップにおける検出状況が良 好であった場合に、前記検出対象領域情報に基づいて、検出対象領域が所与の画 素サイズになるようにズームパラメタを設定し、前記動画像入力手段に与えてズーム 処理を行うステップを有して構成してもよ 、。
[0068] 入力とする動画像が、表示ディスプレイ上に表示されている状態をカメラでリアルタ ィムに撮影され、キヤプチャされたものであり、
電子透かし検出によって得られた透力 情報に基づいて、表示されている動画像 に関連する情報を取得するステップを有する、こととしてもよい。
[0069] また、本発明によれば、上記の方法の実施に適した電子透かし埋め込み装置、電 子透かし検出装置、プログラム、及びプログラムを記録した記録媒体が提供される。 発明の効果
[0070] 本発明によれば、テレビなどの動画像をカメラで撮影し、撮影した動画力ゝらリアルタ ィムに電子透かし検出を行うことを可能とする後術を提供できる。また、キヤプチヤし たフレーム画像中のどの部分力も電子透力しの検出を行えばよいかを特定して、様 々な撮影角度や背景画像の条件下でも確実に電子透かし検出を行うことが可能な 技術を提供できる。
図面の簡単な説明
[図 1A]実施の形態の概要 Aの電子透かし埋め込み方法のフローチャートである。
[図 1B]実施の形態の概要 Aの電子透かし検出方法のフローチャートである。
[図 2A]実施の形態の概要 Aの電子透力し埋め込み装置の構成図である。
[図 2B]実施の形態の概要 Aの電子透かし検出装置の構成図である。
[図 3A]実施の形態の概要 Bの電子透力し埋め込み方法のフローチャートである。
[図 3B]実施の形態の概要 Bの電子透かし検出方法のフローチャートである。
[図 4A]実施の形態の概要 Bの電子透力し埋め込み装置の構成図である。
[図 4B]実施の形態の概要 Bの電子透かし検出装置の構成図である。
[図 5A]実施の形態の概要 Cの電子透かし埋め込み方法のフローチャートである。
[図 5B]実施の形態の概要 Cの電子透かし検出方法のフローチャートである。
[図 6A]実施の形態の概要 Cの電子透かし埋め込み装置の構成図である。
[図 6B]実施の形態の概要 Cの電子透かし検出装置の構成図である。
[図 7]本発明の第 1の実施の形態における電子透力し埋め込み装置の構成図である
[図 8]本発明の第 1の実施の形態における電子透力し埋め込み装置の動作のフロー チャートである。
[図 9]本発明の第 1の実施の形態におけるフレーム画像取得部の処理を説明するた めの図である。
[図 10]本発明の第 1の実施の形態における透かしパターン生成部の構成図である。
[図 11]本発明の第 1の実施の形態における透かしパターン生成部の動作のフローチ ヤートである。
[図 12]本発明の第 1の実施の形態における基本透かしパターン生成部の処理の例を 説明するための図(その 1)である。
[図 13]本発明の第 1の実施の形態における基本透かしパターン生成部の処理の例を 説明するための図(その 2)である。 [図 14A]本発明の第 1の実施の形態における透かしパターン切り替え情報の例を説 明するための図である。
[図 14B]本発明の第 1の実施の形態における透かしパターン切り替え情報の例を説 明するための図である。
[図 14C]本発明の第 1の実施の形態における透かしパターン切り替え情報の例を説 明するための図である。
[図 15]本発明の第 1の実施の形態における透かしパターン切り替え部の処理を説明 するための図(その 1)である。
[図 16]本発明の第 1の実施の形態における透かしパターン切り替え部の処理を説明 するための図(その 2)である。
[図 17]本発明の第 1の実施の形態における透かしパターン重畳部の処理を説明する ための図である。
[図 18]本発明の利用シーンを説明するための図である。
圆 19]本発明の第 1の実施の形態における電子透かし検出装置の構成図である。 圆 20]本発明の第 1の実施の形態における電子透かし検出装置の動作のフローチヤ ートである。
圆 21]本発明の第 1の実施の形態における検出対象領域抽出部の処理を説明する ための図である。
圆 22]本発明の第 1の実施の形態における差分画像生成部の処理を説明するため の図である。
圆 23]本発明の第 1の実施の形態における電子透かし検出部の処理の例を説明す るための図である。
圆 24]本発明の第 1の実施の形態における効果を説明するための図である。
圆 25]本発明の第 2の実施の形態における電子透かし検出装置の構成図である。 圆 26]本発明の第 2の実施の形態における電子透かし検出装置の動作のフローチヤ ートである。
圆 27]本発明の第 2の実施の形態における検出要否判定部の処理を説明するため の図である。 圆 28A]本発明の第 2の実施の形態における効果を説明するための図である。
圆 28B]本発明の第 2の実施の形態における効果を説明するための図である。
圆 29]本発明の第 3の実施の形態における電子透かし検出装置の構成図である。 圆 30]本発明の第 3の実施の形態における電子透かし検出装置の動作のフローチヤ ートである。
[図 31]本発明の第 3の実施の形態におけるキヤプチャタイミング制御部の処理を説明 するための図(その 1)である。
[図 32]本発明の第 3の実施の形態におけるキヤプチャタイミング制御部の処理を説明 するための図(その 2)である。
圆 33A]本発明の第 3の実施の形態における効果を説明するための図である。
圆 33B]本発明の第 3の実施の形態における効果を説明するための図である。
[図 34A]本発明の第 4の実施の形態における基本透かしパターン生成部の処理を説 明するための図である。
[図 34B]本発明の第 4の実施の形態における基本透かしパターン生成部の処理を説 明するための図である。
圆 35]本発明の第 4の実施の形態における電子透かし検出部の動作のフローチヤ一 トである。
圆 36]本発明の第 4の実施の形態における効果を説明するための図(その 1)である 圆 37]本発明の第 4の実施の形態における効果を説明するための図(その 2)である 圆 38]本発明の第 4の実施の形態における効果を説明するための図(その 3)である
[図 39]本発明の第 5の実施の形態における基本透かしパターン生成部の処理の例を 説明するための図である。
[図 40]本発明の第 5の実施の形態における電子透かし検出部の動作のフローチヤ一 トである。
圆 41]本発明の第 6の実施の形態における電子透かし検出部の構成図である。 [図 42]本発明の第 6の実施の形態における電子透かし検出部の動作のフローチヤ一 トである。
圆 43]本発明の第 6の実施の形態における差分画像位相判定部の処理を説明する ための図である。
圆 44]本発明の第 6の実施の形態における差分画像蓄積バッファを説明するための 図である。
圆 45]本発明の第 7の実施の形態における電子透かし検出部の構成図である。
[図 46]本発明の第 7の実施の形態における電子透かし検出部の動作のフローチヤ一 トである。
圆 47]本発明の第 7の実施の形態における相関値バッファに関する処理の内容を説 明するための図である。
圆 48A]本発明の第 7の実施の形態における検出可否判定部の処理の内容を説明 するための図である。
圆 48B]本発明の第 7の実施の形態における検出可否判定部の処理の内容を説明 するための図である。
圆 49]本発明の第 8の実施の形態における透かしパターン生成部の構成図である。
[図 50]本発明の第 8の実施の形態における透かしパターン生成部の動作のフローチ ヤートである。
圆 51]本発明の第 8の実施の形態における透力 情報分割部の処理を説明するた めの図である。
[図 52A]本発明の第 8の実施の形態における基本透かしパターン生成部の処理を説 明するための図である。
[図 52B]本発明の第 8の実施の形態における基本透かしパターン生成部の処理を説 明するための図である。
圆 53]本発明の第 8の実施の形態における電子透かし検出装置の構成図である。 圆 54]本発明の第 8の実施の形態における電子透かし検出装置の動作のフローチヤ ートである。
圆 55]本発明の第 8の実施の形態における検出データブロック蓄積部の構成図であ る。
[図 56]本発明の第 8の実施の形態における検出データブロック蓄積部の動作のフロ 一チャートである。
圆 57]本発明の第 8の実施の形態における検出データブロック蓄積部の処理を説明 するための図(その 1)である。
圆 58]本発明の第 8の実施の形態における検出データブロック蓄積部の処理を説明 するための図(その 2)である。
[図 59]本発明の第 9の実施の形態における基本透かしパターン生成部の処理の例を 説明するための図である。
[図 60]本発明の第 9の実施の形態における電子透かし検出部の動作のフローチヤ一 トである。
圆 61]本発明の第 10の実施の形態における電子透かし検出部の構成図である。
[図 62]本発明の第 10の実施の形態における電子透かし検出部の動作のフローチヤ ートである。
圆 63]本発明の第 11の実施の形態における電子透かし検出部の構成図である。
[図 64]本発明の第 11の実施の形態における電子透かし検出部の動作のフローチヤ ートである。
圆 65]本発明の第 12の実施の形態における電子透かし検出装置の構成図である。 圆 66]本発明の第 12の実施の形態における電子透かし検出装置の動作のフローチ ヤートである。
圆 67]本発明の第 12の実施の形態における電子透かし検出装置のフィードバック出 力の例(その 1)である。
圆 68]本発明の第 12の実施の形態における電子透かし検出装置のフィードバックの 出力の例(その 2)である。
圆 69]本発明の第 12の実施の形態における電子透かし検出装置のフィードバック出 力の例である。
[図 70]本発明の第 13の実施の形態における透かしパターン重畳部の処理を説明す るための図である。 圆 71]本発明の第 13の実施の形態における電子透かし検出装置の構成図である。 圆 72]本発明の第 13の実施の形態における電子透かし検出装置の動作のフローチ ヤートである。
圆 73]本発明の第 13の実施の形態における差分画像生成部の処理を説明するため の図である。
[図 74]本発明の第 13の実施の形態における検出対象領域抽出部の処理を説明す るための図である。
圆 75]本発明の第 13の実施の形態の効果を説明するための図(その 1)である。 圆 76]本発明の第 13の実施の形態の効果を説明するための図(その 2)である。 圆 77]本発明の第 13の実施の形態の効果を説明するための図(その 3)である。 圆 78]本発明の第 13の実施の形態の効果を説明するための図(その 4)である。
[図 79]本発明の第 14の実施の形態における基本透かしパターン生成部の処理の例 を説明するための図である。
[図 80]本発明の第 14の実施の形態における検出対象領域抽出部の処理を説明す るための図である。
圆 81A]本発明の第 14の実施の形態の効果を説明するための図である。
圆 81B]本発明の第 14の実施の形態の効果を説明するための図である。
[図 82]本発明の第 14の実施の形態における基本透かしパターン生成部の処理の例 を説明するための図である。
[図 83]本発明の第 15の実施の形態における検出対象領域抽出部の処理を説明す るための図である。
圆 84]本発明の第 16の実施の形態における電子透かし検出装置の構成図である。 圆 85]本発明の第 16の実施の形態における電子透かし検出装置の動作のフローチ ヤートである。
圆 86]本発明の第 16の実施の形態における特徴領域抽出部の処理を説明するため の図(その 1)である。
圆 87]本発明の第 16の実施の形態における特徴領域抽出部の処理を説明するため の図(その 2)である。 圆 88]本発明の第 16の実施の形態における特徴領域抽出部の処理を説明するため の図(その 3)である。
圆 89]本発明の第 16の実施の形態における特徴領域抽出部の処理を説明するため の図(その 4)である。
圆 90]本発明の第 16の実施の形態における特徴領域抽出部の処理を説明するため の図(その 5)である。
圆 91]本発明の第 16の実施の形態における差分画像生成部の処理を説明するため の図(その 1)である。
圆 92]本発明の第 16の実施の形態における差分画像生成部の処理を説明するため の図(その 2)である。
圆 93]本発明の第 16の実施の形態における差分画像生成部の処理を説明するため の図(その 3)である。
圆 94]本発明の第 17の実施の形態における特徴領域抽出部の処理を説明するため の図である。
[図 95]本発明の第 17の実施の形態における検出対象領域抽出部の処理を説明す るための図である。
圆 96]本発明の第 18の実施の形態における検出対象領域抽出の処理を説明するた めの図(その 1)である。
圆 97]本発明の第 18の実施の形態における検出対象領域抽出の処理を説明するた めの図(その 2)である。
圆 98]本発明の第 18の実施の形態における検出対象領域抽出の処理を説明するた めの図(その 3)である。
圆 99]本発明の第 18の実施の形態における検出対象領域抽出の処理を説明するた めの図(その 4)である。
圆 100]本発明の第 19の実施の形態における電子透かし検出装置の構成図である。 圆 101]本発明の第 19の実施の形態における電子透かし検出装置の動作のフロー チャートである。
圆 102]本発明の第 19の実施の形態における検出対象領域抽出部の処理を説明す るための図(その 1)である。
圆 103]本発明の第 19の実施の形態における検出対象領域抽出部の処理を説明す るための図(その 2)である。
圆 104]本発明の第 19の実施の形態における電子透かし検出装置の構成図である。 圆 105]本発明の第 19の実施の形態における電子透かし検出装置の動作のフロー チャートである。
圆 106]本発明の第 19の実施の形態における検出対象領域抽出部の処理を説明す るための図(その 1)である。
圆 107]本発明の第 19の実施の形態における差分画像生成部の処理を説明するた めの図(その 2)である。
[図 108]本発明の第 20の実施の形態における透かしパターン重畳部の処理を説明 するための図(その 1)である。
[図 109]本発明の第 20の実施の形態における透かしパターン重畳部の処理を説明 するための図(その 2)である。
圆 110]本発明の第 20の実施の形態における差分画像生成部の処理を説明するた めの図である。
[図 111]本発明の第 20の実施の形態における検出対象領域抽出部の処理を説明す るための図(その 1)である。
[図 112]本発明の第 20の実施の形態における検出対象領域抽出部の処理を説明す るための図(その 2)である。
圆 113]本発明の第 20の実施の形態における電子透かし検出装置のフィードバック 出力の例(その 1)である。
圆 114]本発明の第 20の実施の形態における電子透かし検出装置のフィードバック 出力の例(その 2)である。
圆 115]本発明の第 20の実施の形態における電子透かし検出装置のフィードバック 出力の例(その 3)である。
圆 116]本発明の第 20の実施の形態における電子透かし検出装置のフィードバック 出力の例(その 4)である。 [図 117]本発明の第 21の実施の形態における透かしパターン切り替え情報の例を説 明するための図である。
[図 118]本発明の第 21の実施の形態における透かしパターン切り替え部の処理を説 明するための図である。
[図 119]本発明の第 21の実施の形態における透かしパターン切り替え部の処理を説 明するための図である。
圆 120]本発明の第 21の実施の形態における差分画像生成部の処理の例を説明す るための図である。
[図 121]本発明の第 21の実施の形態の原理を説明するための図(その 1)である。
[図 122]本発明の第 21の実施の形態の原理を説明するための図(その 2)である。
[図 123]本発明の第 21の実施の形態の原理を説明するための図(その 3)である。 圆 124]本発明の第 21の実施の形態の効果を説明するための図である。
圆 125]本発明の第 22の実施の形態における差分画像生成部の処理を説明するた めの図である。
[図 126A]本発明の第 22の実施の形態におけるフィルタ処理の例を説明するための 図である。
[図 126B]本発明の第 22の実施の形態におけるフィルタ処理の例を説明するための 図である。
[図 127]本発明の第 23の実施の形態における透力し重量部の処理を説明するため の図である。
圆 128]本発明の第 23の実施の形態における透かしパターン振幅調整の例を説明 するための図である。
圆 129]本発明の第 24の実施の形態における電子透かし検出装置の構成図である。 圆 130]本発明の第 24の実施の形態における電子透かし検出装置の動作のフロー チャートである。
圆 131A]本発明の第 24の実施の形態の効果を説明するための図である。
圆 131B]本発明の第 24の実施の形態の効果を説明するための図である。
圆 132]本発明の第 25の実施の形態における透かしパターン切替情報の例を説明 するための図である。
[図 133]本発明の第 25の実施の形態における透かしパターン切り替え部の処理を説 明するための図(その 1)である。
[図 134]本発明の第 25の実施の形態における透かしパターン切り替え部の処理を説 明するための図(その 2)である。
圆 135]本発明の第 25の実施の形態における電子透かし検出装置の構成図である。 圆 136]本発明の第 25の実施の形態における電子透かし検出装置の動作のフロー チャートである。
圆 137]本発明の第 25の実施の形態における差分画像生成部の処理を説明するた めの図である。
圆 138]本発明の第 25の実施の形態における位相差分計測部の処理の内容を説明 するための図(その 1)である。
圆 139]本発明の第 25の実施の形態における位相差分計測部の処理の内容を説明 するための図(その 2)である。
圆 140A]本発明の第 25の実施の形態における位相差分計測部の処理の内容を説 明するための図(その 3)である。
圆 140B]本発明の第 25の実施の形態における位相差分計測部の処理の内容を説 明するための図(その 3)である。
圆 141]本発明の第 25の実施の形態の効果を説明するための図(その 1)である。 圆 142]本発明の第 25の実施の形態の効果を説明するための図(その 2)である。 圆 143]本発明の第 25の実施の形態の効果を説明するための図(その 3)である。 圆 144]本発明の第 25の実施の形態の効果を説明するための図(その 4)である。 圆 145]本発明の第 25の実施の形態の効果を説明するための図(その 5)である。 圆 146]本発明の第 25の実施の形態の効果を説明するための図(その 6)である。 圆 147]本発明の第 25の実施の形態の効果を説明するための図(その 7)である。 圆 148]本発明の第 25の実施の形態の効果を説明するための図(その 8)である。 圆 149]本発明の第 25の実施の形態の効果を説明するための図(その 9)である。 圆 150]本発明の第 25の実施の形態の効果を説明するための図(その 10)である。 圆 151]本発明の第 25の実施の形態の効果を説明するための図(その 11)である。 圆 152]本発明の第 25の実施の形態の効果を説明するための図(その 12)である。 圆 153]本発明の第 25の実施の形態の効果を説明するための図(その 13)である。 圆 154]本発明の第 25の実施の形態の効果を説明するための図(その 14)である。 圆 155]本発明の第 25の実施の形態の効果を説明するための図(その 15)である。 圆 156]本発明の第 25の実施の形態の効果を説明するための図(その 16)である。 圆 157]本発明の第 25の実施の形態の効果を説明するための図(その 17)である。 圆 158]本発明の第 25の実施の形態の効果を説明するための図(その 18)である。 圆 159]本発明の第 25の実施の形態の効果を説明するための図(その 19)である。
[図 160]本発明の第 25の実施の形態の効果を説明するための図(その 20)である。 圆 161]本発明の第 25の実施の形態の効果を説明するための図(その 21)である。
[図 162]本発明の第 26の実施の形態における電子透力し埋め込み装置の構成図で ある。
[図 163]本発明の第 20の実施の形態における電子透力し埋め込み装置の動作のフ ローチャートである。
[図 164]本発明の第 26の実施の形態におけるフレーム画像取得部の処理を説明す るための図である。
圆 165]本発明の第 26の実施の形態における透かしパターン生成部の構成図である
[図 166]本発明の第 26の実施の形態における透かしパターン生成部の動作のフロー チャートである。
[図 167]本発明の第 26の実施の形態における基本透かしパターン生成部の処理の 例を説明するための図である。
[図 168]本発明の第 26の実施の形態における透かしパターン切り替え部の構成図で ある。
[図 169]本発明の第 26の実施の形態における透かしパターン切り替え部の動作のフ ローチャートである。
[図 170]本発明の第 26の実施の形態における透かしパターン切り替え情報の例を説 明するための図である。
[図 171]本発明の第 26の実施の形態における透かしパターン切り替え部の処理を説 明するための図である。
[図 172]本発明の第 26の実施の形態における透かし位相パターン画像ィ匕部の処理 を説明するための図である。
[図 173]本発明の第 26の実施の形態における透かしパターン重畳部の処理説明す るための図である。
圆 174]本発明の第 26の実施の形態における電子透かし検出装置の構成図である。 圆 175]本発明の第 26の実施の形態における電子透かし検出装置の動作のフロー チャートである。
圆 176]本発明の第 26の実施の形態における特徴領域抽出部の処理を説明するた めの図である。
圆 177]本発明の第 26の実施の形態における差分画像生成部の処理を説明するた めの図ある。
圆 178]本発明の第 26の実施の形態における位相差分計測部の処理の内容を説明 するための図(その 1)である。
圆 179]本発明の第 26の実施の形態における位相差分計測部の処理の内容を説明 するための図(その 2)である。
圆 180A]本発明の第 26の実施の形態における位相差分計測部の処理の内容を説 明するための図(その 3)である。
圆 180B]本発明の第 26の実施の形態における位相差分計測部の処理の内容を説 明するための図(その 3)である。
圆 181]本発明の第 26の実施の形態における差分画像 (B)蓄積バッファを説明する ための図である。
圆 182]本発明の第 26の実施の形態における検出対象領域抽出部の処理を説明す るための図である。
[図 183]本発明の第 26の実施の形態における電子透かし検出部の処理の例を説明 するための図である。 符号の説明
100 電子透かし埋め込み装置
110 フレーム画像取得部
120 透かしパターン生成部
121 基本透かしパターン生成部
122 透かしパターン切り替え部
123 透かし 報分解部
130 透かしパターン重畳部
140 動画像データ再構成部
200 電子透かし検出装置
210 動画像入力部
220 検出対象領域抽出部
230 差分画像生成部
240 電子透かし検出部
241 差分画像位相判定部
242 透かし情報検出部
243 相関演算部
244 検出可否判定部
246 データブロック ID検出部
247 データブロック情報検出部
248 データブロック ID = n用差分画像蓄積バッファ
249 相関演算部
250 検出対象領域画像バッファ
251 データブロック ID=n用相関値バッファ
255 差分画像蓄積バッファ
260 検出要否判定部
265 フィードバック出力部
270 キヤプチャタイミング制御部 280 検出データブロック蓄積部
281 検出データブロックバッファリング部
282 検出完了確認部
283 検出透力し情報バッファ
290 特徴領域抽出部
301 フレーム画像ノ ッファ
302 特徴領域画像バッファ
303 差分フレーム画像バッファ
304 特徴領域差分画像バッファ
310 ズーム処理部
360 位相差分計測部
370 位相パターンバッファ
390 差分画像 (B)蓄積バッファ
1221 符号パターン生成部
1222 透かしパターン切り替え位相変動値算出部
1223 透かし位相差分パターン生成部
1224 透かし位相パターン生成部
1225 透かし位相パターン画像ィ匕部
発明を実施するための最良の形態
[0073] 以下、図面と共に本発明の実施の形態を説明する。
[0074] [実施の形態の概要]
まず、実施の形態の概要について説明する。図 1A〜図 2Bは実施の形態の概要 A を示す図である。
[0075] 図 1Aに、実施の形態の概要 Aの電子透力し埋め込み方法のフローチャートを示す 。この方法は、動画像に電子透力 を埋め込む電子透力 埋め込み装置における電 子透かし埋め込み方法であり、まず、フレーム画像群からなる動画像データ、透かし 情報、透かしパターン切り替え情報が電子透力し埋め込み装置に入力される (ステツ プ Al)。次に、電子透かし埋め込み装置は、動画像データの各フレーム画像及び該 フレーム表示時刻を順次取得し (ステップ A2)、透力し情報とフレーム表示時刻と透 かしパターン切り替え情報を用いて、透かしパターンを生成し (ステップ A3)、透かし パターンをフレーム画像に重畳する (ステップ A4)。そして、電子透かし埋め込み装 置は、ステップ 2〜ステップ 4を順次繰り返して得られる透かし入りフレーム画像群を 結合して透かし入り動画像データを生成する (ステップ A5)。
[0076] 図 1Bに、実施の形態の概要 Aの電子透かし検出方法のフローチャートを示す。こ の方法は、動画像力も電子透力 を検出する電子透かし検出装置における電子透 かし検出方法であって、まず、フレーム画像を順次取得する (ステップ A6)。次に、電 子透かし検出装置は、今回取得したフレーム画像と、以前に取得したフレーム画像 の差分画像を生成し (ステップ A7)、差分画像からの電子透かし検出を行って、電子 透力しの検出状況を出力する (ステップ A8)そして、電子透かし検出装置は、電子透 かしの検出が不可能であった場合を含む、電子透かし検出処理を続行する場合は、 動画像入力手段で新たなフレーム画像を取得し直し、上記の処理を繰り返す (ステツ プ A9)。
[0077] 図 2Aに、実施の形態の概要 Aの電子透カゝし埋め込み装置の構成図を示す。この 電子透力し埋め込み装置は、入力されたフレーム画像群力もなる動画像データの各 フレーム画像及び該フレーム表示時刻を順次取得するフレーム画像取得手段 A110 と、入力された透力し情報とフレーム表示時刻と入力された透かしパターン切り替え 情報を用いて、透かしパターンを生成する透かしパターン生成手段 A120と、透かし パターンをフレーム画像に重畳する透かしパターン重畳手段 A130と、フレーム画像 取得手段 A110から透かしパターン重畳手段までの処理を順次繰り返して得られる 透かし入りフレーム画像群を結合して透かし入り動画像データを生成する動画像デ ータ再構成手段 A140と、を有する。
[0078] 図 2Bに、実施の形態の概要 Aの電子透かし検出装置の構成図を示す。この電子 透かし検出装置は、フレーム画像を順次取得する動画像入力手段 A210と、今回取 得したフレーム画像と、以前に取得したフレーム画像の差分画像を生成する差分画 像生成手段 A230と、差分画像からの電子透かし検出を行って、電子透力しの検出 状況を出力する電子透かし検出手段 A240と、を有する。 [0079] 図 3A〜図 4Bは実施の形態の概要 Bを示す図である。図 3Aに、実施の形態の概 要 Bの電子透力し埋め込み方法のフローチャートを示す。この方法は、動画像に電 子透かしを埋め込む電子透かし埋め込み装置における電子透かし埋め込み方法で あって、まず、フレーム画像群からなる動画像データ、透かし情報、透かしパターンの 位相変動を指定する周期情報である透かしパターン切り替え情報が入力される。そ して、電子透かし埋め込み装置は、動画像データの各フレーム画像及び該フレーム 画像の表示時刻を順次取得する (ステップ Bl)。そして、電子透かし埋め込み装置は 、透力し情報とフレーム画像表示時刻と透かしパターン切り替え情報を用いて、透か しパターンを生成し (ステップ B2)、透かしパターンをフレーム画像に重畳する(ステツ プ B3)。そして、電子透かし埋め込み装置は、ステップ B1〜ステップ B3を順次繰り 返して得られる透かし入りフレーム画像群を結合して透かし入り動画像データを生成 する(ステップ B4)。
[0080] 図 3Bに、実施の形態の概要 Bの電子透かし検出方法のフローチャートを示す。こ の方法は、動画像力も電子透力 を検出する電子透かし検出装置により電子透かし 検出方法であって、まず、フレーム画像を順次取得する (ステップ Bl l)。電子透かし 検出装置は、今回取得したフレーム画像と、画像記憶手段から読み出した以前に取 得したフレーム画像の差分画像 (A)を生成し、該今回取得したフレーム画像を該画 像記憶手段に格納する (ステップ B12)。電子透かし検出装置は、今回取得した差分 画像 (A)に基づいて位相パターンを生成し、今回取得した位相パターンと位相パタ ーン記憶手段力も読み出した以前に取得した位相パターンの位相差を計測し、位相 差に基づ ヽて差分画像 (B)を生成し、該今回取得した位相パターンを該位相パター ン記憶手段に格納する (ステップ B13)。そして、電子透かし検出装置は、差分画像( B)からの電子透かし検出を行って、電子透力しの検出状況を出力し (ステップ B14) 、電子透かし検出処理を続行する場合は、新たなフレーム画像を取得し直し上記処 理を繰り返す (ステップ B15)。
[0081] 図 4Aに、実施の形態の概要 Bの電子透力し埋め込み装置の構成図を示す。この 電子透力し埋め込み装置は、入力されたフレーム画像群力もなる動画像データの各 フレーム画像及び該フレーム画像の表示時刻を順次取得するフレーム画像取得手 段 Bl 10と、入力された透力し情報とフレーム画像表示時刻と透かしパターンの位相 変動を指定する周期情報である透かしパターン切り替え情報を用いて、透かしバタ ーンを生成する透かしパターン生成手段 B120と、透かしパターンをフレーム画像に 重畳する透かしパターン重畳手段 B130と、透かし入りフレーム画像群を結合して透 かし入り動画像データを生成し、出力する動画像データ再構成手段 B140と、を有す る。
[0082] 図 4Bに、実施の形態の概要 Bの電子透かし検出装置の構成図を示す。この電子 透かし検出装置は、フレーム画像を順次取得する動画像入力手段 B210と、今回取 得したフレーム画像と、画像記憶手段から読み出した以前に取得したフレーム画像 の差分画像 (A)を生成し、該今回取得したフレーム画像を該画像記憶手段 B250に 格納する差分画像生成手段 B230と、今回取得した差分画像 (A)に基づいて位相 パターンを生成し、今回取得した位相パターンと位相パターン記憶手段 B370から読 み出した以前に取得した位相パターンの位相差を計測し、位相差に基づ!/、て差分 W (B)を生成し、該今回取得した位相パターンを該位相パターン記憶手段に格納 する位相差分計算手段 B360と、差分画像 (B)からの電子透かし検出を行って、電 子透かしの検出状況を出力する電子透かし検出手段 B240と、を有する。
[0083] 図 5A〜図 6Bは実施の形態の概要 Cを示す図である。図 5Aに、実施の形態の概 要 Cの電子透力し埋め込み方法のフローチャートを示す。この方法は、動画像に電 子透かしを埋め込む電子透かし埋め込み装置における電子透かし埋め込み方法で あって、まず、フレーム画像群からなる動画像データ、透かし情報、透かしパターン切 り替え情報が電子透力 埋め込み装置に入力される (ステップ Cl)。そして、電子透 かし埋め込み装置は、動画像データの各フレーム画像及び該フレーム表示時刻を 順次取得し (ステップ C2)、透力し情報とフレーム表示時刻と透かしパターン切り替え 情報を用いて、透かしパターンを生成する (ステップ C3)。電子透かし埋め込み装置 は、透かしパターンをフレーム画像以下のサイズにスケール変更してフレーム画像の 内部に重畳し (ステップ C4)、ステップ C2〜ステップ C4を順次繰り返して得られる透 かし入りフレーム画像群を結合して透かし入り動画像データを生成する (ステップ C5
) o [0084] 図 5Bに、実施の形態の概要 Cの電子透かし検出方法のフローチャートを示す。こ の方法は、動画像力も電子透力 を検出する電子透かし検出装置における電子透 かし検出方法であって、まず、フレーム画像を順次取得する (ステップ C6)。電子透 かし検出装置は、今回取得したフレーム画像と、以前に取得したフレーム画像の差 分画像を生成し (ステップ C7)、差分画像から検出対象領域を抽出して検出対象領 域画像を生成する (ステップ C8)。そして、電子透かし検出装置は、検出対象領域画 像からの電子透かし検出を行って、電子透力しの検出状況を出力し (ステップ C9)、 検出状況により電子透かし検出処理を続行する場合は、新たなフレーム画像を取得 し直し、上記の処理を繰り返す (ステップ C10)。
[0085] 図 6Aに、実施の形態の概要 Cの電子透力し埋め込み装置の構成図を示す。この 電子透かし埋め込み装置は、動画像データの各フレーム画像及びフレーム表示時 刻を順次取得するフレーム画像取得手段 C110と、入力された透力 情報と透かしパ ターン切り替え情報とフレーム表示時刻とを用いて、透かしパターンを生成する透か しパターン生成手段 C120と、透かしパターンをフレーム画像以下のサイズにスケー ル変更してフレーム画像の内部に重畳する透かしパターン重畳手段 C130と、上記 処理を順次繰り返して得られる透かし入りフレーム画像群を結合して透かし入り動画 像データを生成する動画像データ再構成手段 C140と、を有する。
[0086] 図 6Bに、実施の形態の概要 Cの電子透かし検出装置の構成図を示す。この電子 透かし検出装置は、フレーム画像を順次取得する動画像入力手段 C210と、今回取 得したフレーム画像と、以前に取得したフレーム画像の差分画像を生成する差分画 像生成手段 C230と、差分画像から検出対象領域を抽出して検出対象領域画像を 生成する検出対象領域抽出手段 C220と、検出対象領域画像からの電子透かし検 出を行って、電子透かしの検出状況を出力する電子透かし検出手段 C240と、を有 する。
[0087] [第 1の実施の形態]
く電子透かし埋め込み装置〉
図 7は、本発明の第 1の実施の形態における電子透かし埋め込み装置の構成を示 す。 [0088] 同図に示す電子透力し埋め込み装置 100は、フレーム画像取得部 110、透かしパ ターン生成部 120、透かしパターン重畳部 130、動画像データ再構成部 140を有し ている。
[0089] フレーム画像取得部 110には、原動画像データが入力され、透かしパターン生成 部 120には、透力し情報と透かしパターン切り替え情報が入力される。また、動画像 データ再構成部 140は、透かし入り動画像データを出力する
以下に、電子透かし埋め込み装置 100の動作を説明する。
[0090] 図 8は、本発明の第 1の実施の形態における電子透力し埋め込み装置の動作のフ ローチャートである。
[0091] ステップ 110) フレーム画像取得部 110は、図 9に示すように、原動画像データか らフレーム画像及び当該フレーム表示時刻を一枚ずつ順次取得する。ここで、フレー ム表示時刻とは、例えば、タイムコードと再生時のフレームレートから定まる動画像の 先頭からの絶対的な時刻を表すものでもよいし、あるいは、フレーム毎に付与される 通し番号など、再生時のフレーム間の相対的な時間間隔が測れるようなものでもよ 、 。フレーム画像取得部 110は、入力動画像データが MPEGなどの符号ィ匕データであ る場合は、復号を行ってフレーム画像を取得する。
[0092] ステップ 120) 透かしパターン生成部 120には、透力し情報と透かしパターン切り 替え情報が入力され、透かし情報、フレーム表示時刻、透かしパターン切り替え情報 を用いて透かしパターンを生成する。
[0093] ステップ 130) 透かしパターン重畳部 130において、透かしパターン生成部 120で 生成された透かしパターンを前述のフレーム画像に重畳して透かし入りフレーム画像 を生成する。
[0094] ステップ 140) 最後に、動画像データ再構成部 140において、順次生成される透 かし入りフレーム画像の列を、動画像データとして再構成して透かし入り動画像デー タとして出力する。この際、必要ならば MPEGエンコードなどの符号ィ匕を行ってもよい
[0095] 次に、透かしパターン生成部 120について詳細に説明する。
[0096] 図 10は、本発明の第 1の実施の形態における透かしパターン生成部の構成を示す [0097] 透かしパターン生成部 120は、基本透かしパターン生成部 121と、透かしパターン 切り替え部 122を有する。
[0098] 図 11は、本発明の第 1の実施の形態における透かしパターン生成部の動作のフロ 一チャートである。
[0099] ステップ 121) 基本透かしパターン生成部 121は、透かレ f青報が入力されると、当 該透力し情報を 2次元パターンである基本透かしパターンに変換する。
[0100] この変換の仕方は、図 12に示すように、通常の静止画向け電子透力し技術で用い られている方法、例えば、「中村、片山、山室、曽根原:「カメラ付携帯電話機を用い たアナログ画像からの高速電子透かし方式」、信学論 (D-II)、 Vol. J87-D-II, No.12, pp.2145-2155, 2004年 12月」(以下、文献 1と記す)に記載されている方法を用いるこ とができる。その方法には、透かレ f青報のビット値を拡張系列によって直接スぺクトラ ム拡散変調して得られる系列の値に応じて、画素値の大小を対応付ける方法(図 12 :変調方法 (A— 1) )、ブロックの波形パターンを切り替える方法 (図 12:変調方法 (A 2) )、あるいは系列の項の値を 2ブロックに対応付けて画素値の変化の有無で値を 表す方法 (図 12:変調方法 (A— 3) )、波形パターンの位相変化の有無で表す方法( 図 12 :変調方法 (A— 4) )などがある。なお、(図 12 :A— 3) , (図 12 : A— 4)のような 変調の際には、系列の項に対応する 2ブロックの位置を、 1ブロックずつずらしてダブ らせながら変調できる。
[0101] あるいは、図 13の例に示すように、透かし情報をある程度の長さのシンボルに区切 り(図 13では、 1ビットずつ 1シンボルとして区切っている)、各シンボルの取り得る値 毎に異なる独立な拡散系列を対応付け、それらを連結、あるいは、重畳して多重化( 図示せず)して得られる系列の値を、図 12の場合と同様に 2次元パターンに変換す る、といったやり方も考えられる。なお、これらの基本透かしパターンは、カメラキヤプ チヤ時の解像度が低くなる場合も考慮して、ブロックの大きさを大きくとったり、波形パ ターンを低周波パターンとしておくことが望ましい。また、図 12及び図 13では、透力し 情報をスペクトラム拡散変調した結果を直接画素パターンィ匕しているが、文献 2「T. Ν akamura, H. Ogawa, A. fomioka, Y. Ί akashima, Improved digital watermark robust ness against translation and/ or cropping of an image area", IEICE Trans. Fundamen tals, vol. E83-A, No.l, pp.68- 76, Jan. 2000」(以下、文献 2と記す)のように周波数 空間で同様に行い、逆直交変換で画像パターンィ匕してもよい。いずれにせよ、画像 に対して加法的に重畳されるタイプの電子透力し方式であればどのようなものでも構 わない。
[0102] 以下、説明のため、基本透かしパターンの各画素値は正負の値を持ち、画素値の 平均値は 0であるものとする。任意の基本透かしパターンの平均値をシフトすれば、こ のようにすることが容易であるのは自明である。
[0103] ステップ 122) 透かしパターン生成部 120は、続いて透かしパターン切り替え部 12 2において、フレーム表示時刻とパターン切り替えの情報の関係から、基本透かしパ ターンの位相反転の要否を判定する。
[0104] ステップ 123) 位相反転が必要である場合は、基本透かしパターンの位相を反転 し、透かしパターンとして出力する。
[0105] ステップ 124) 位相反転が不要な場合は、基本透かしパターンをそのまま透かし パターンとして出力する。
[0106] 図 14A〜Cは、本発明の第 1の実施の形態における透かしパターン切り替え情報 の例を示す。透かしパターン切り替え情報は、動画像の再生時の時間軸に対して基 本透かしパターンの位相をどのように変更するかを表す情報であり、図 14Aのように 一定時間で基本透かしパターンが反転するように指示したり、図 14Bのようにある時 間単位でランダムに反転するように指示したり、あるいは、図 14Cのように複雑なタイ ミングで反転するように指示することもできる。ランダム切り替えなど、複雑なパターン を用いることで解析が困難となるから、著作権保護などセキュリティ目的で本発明を 用いる場合、電子透かしに対する攻撃に対して安全性が増す。なお、図 14A〜Cの 例は、位相 0と πの 2値を矩形的にとるケースのみを示している力 例えば、サイン力 ーブなど、滑ら力に位相が変化するものを用いてもよい。
[0107] 図 15は、本発明の第 1の実施の形態における透かしパターン切り替え部の処理を 説明するための図である。同図では、前述の変調方法 (Α— 1)を用いた場合につい て示す。透かしパターン切り替え部 122は、透かしパターン切り替え情報とフレーム 表示時刻、基本透かしパターンを入力とし、図 15のように透かしパターン切り替え情 報が 1Z10秒毎に反転を指示するようなものであったとする。また、原動画像は、 30 フレーム Z秒で再生されるものとすると、 3フレームおきに位相反転することとなる。こ のときフレーム画像取得部 110で取得したフレーム表示時刻 tを透かしパターン切り 替え情報の時間軸上にとったときに、透かしパターン切り替え情報で表される位相は πとなっているとすると、この場合は、基本透かしパターンの位相を反転したものを当 該フレーム表示時刻に対する透かしパターンとする。
[0108] なお、基本透かしパターンは正負の画素値を持ち、平均値が 0であるので、位相反 転は各画素値に 1を掛け算することによって得られる。また、フレーム表示時刻 t'を 透かしパターン切り替え情報の時間軸上にとったときの位相が 0である場合は、基本 透かしパターンの位相変化量を 0、すなわち変化を与えず、そのまま透かしパターン として出力する。
[0109] なお、図 16に示すように、透かしパターン切り替え部 122における位相変調は画素 値の振幅に対して行われるものであるので、例えば、変調方法 (A— 2)のようにブロッ ク毎に波形パターンを用いた基本透かしパターンの場合は、波形の向きは変化せず 、画素値が反転する形となる。また、透かしパターン切り替え情報で表される透かしパ ターンの位相変化は、透かし入り動画像の画質劣化を抑えるため、ある程度の時間 区間(例えば、 1秒間)の範囲で、正位相と逆位相への偏りがないことが望ましい。即 ち、図 14のグラフ表示の横軸を位相偏り 0として時間区間で積分した値が 0となること が望ましい。
[0110] 反転 *非反転のみの透かしパターン切り替えの場合について言えば、時間区間内 の反転,非反転の時間の合計が略同じとなるようにすることが望ましい。
[0111] 次に、透かしパターン重畳部 130について詳細に説明する。
[0112] 図 17は、本発明の第 1の実施の形態における透かしパターン重畳部の処理を説明 するための図である。
[0113] 透かしパターン重畳部 130は、フレーム画像と、当該フレーム表示時刻に基づいて 生成された透かしパターンを入力する。透かしパターン重畳部 130では、まず、透か しパターンをフレーム画像のサイズまで引き伸ばして、その後フレーム画像に加算し て、透かし入りフレーム画像を得る。加算の前に透かしパターンの振幅を適宜増減し てから加算することで、電子透力しの耐性と画質劣化のトレードオフバランスを調整 することも可能である。また、透かしパターンをフレーム画像に加算する際に、どのよ うな成分に加算する力も様々な態様が有り得る。例えば、フレーム画像の輝度値に加 算する、あるいは、 RGB表色系の Blue成分に加算する。 CMYK表色系の Yellow成分 に加算する。 HSV表色系の Hue成分に加算する、 YCbCr表色系の Cb成分に加算す るなど、様々である。また、透かしパターンの 1画素が一つの値ではなぐ 2つの値を 持つような、複数成分を利用する透かしパターンの場合も有り得るが、その場合は、 例えば、 RGB表色系の Red成分及び Green成分に透かしパターンの各プレーンの画 素値をそれぞれ加算するなどして複数の成分を変更することも有り得る。
[0114] 最後に、動画像データ再構成部 140について詳細に説明する。
[0115] 動画像データ再構成部 140は、上記の処理により順次生成される透かし入りフレー ム画像を動画像データとして再構成して透かし入り動画像データとして出力する。再 構成の際には、 MPEGエンコードなどの符号ィ匕を行ってもよい。
[0116] 以上が本実施の形態における透力し埋め込み装置 100の説明である。
[0117] ここで、本実施の形態の利用シーンについて説明する。
[0118] 図 18は、本発明の第 1の実施の形態における利用シーンを説明するための図であ る。
[0119] 上記で説明した透かし入り動画像データ力 例えば、テレビ放送などによってテレ ビ表示装置上で再生されている(1)。視聴者が視聴番組に関連する情報サービスを 利用する際には、例えば、カメラ付携帯電話機などのカメラをテレビの表示画面に向 けて撮影を始める(2)。撮影によって携帯電話機上にビデオフレームがリアルタイム に順次キヤプチャ入力され、このフレーム群力も電子透力しの検出を行う(3)。検出し た電子透力しの情報を元に、例えば、ネットワーク上の情報資源を取得するなどの関 連情報サービスを利用することができる (4)。
[0120] く電子透かし検出装置〉
次に、電子透かし検出装置について説明する。
[0121] 図 19は、本発明の第 1の実施の形態における電子透かし検出装置の構成を示す。 [0122] 同図に示す電子透かし検出装置 200Aは、動画像入力部 210、検出対象領域抽 出部 220、差分画像生成部 230、電子透かし検出部 240、検出対象領域画像バッフ ァ 250を有している。動画像入力部 210には、テレビなどにディスプレイ表示されたァ ナログ動画像、あるいは、 MPEGエンコードされたディジタル動画像が入力され、電子 透かし検出部 240は、検出結果を出力する。
[0123] 図 20は、本発明の第 1の実施の形態における電子透かし検出装置の動作のフロー チャートである。
[0124] ステップ 201) 動画像入力部 210において、アナログまたはディジタル動画像が入 力されると、順次フレーム画像を取得する。アナログ動画像の入力の際は、カメラゃス キヤナ、あるいは、アナログビデオ信号などが入力され、フレーム画像を取得し、また 、ディジタル動画像であれば、デコード処理などを行ってフレーム画像を取得する。
[0125] ステップ 202) 次に、検出対象領域抽出部 220において、順次入力される各フレ ーム画像中の透かし検出の対象となる検出対象領域を抽出して、検出対象領域画 像を取得する。
[0126] ステップ 203) 次に、差分画像生成部 230において、現在取得した検出対象領域 画像と検出対象領域画像バッファ 250に蓄積されている以前に取得した検出対象領 域画像との差分画像を生成する。
[0127] ステップ 204) また、差分画像生成部 230は、次の検出試行に備えて、検出対象 領域画像バッファ 250に今回の検出対象領域画像をバッファリングしておく。
[0128] ステップ 205) 電子透かし検出部 240において、差分画像力も電子透かし検出を 試み、検出結果を出力する。電子透かし検出が成功しな力つた場合は、動画像入力 部 210において、次のフレーム画像を取得し、上記の処理を順次繰り返す。
[0129] 次に、検出対象領域抽出部 220の処理を詳細に説明する。
[0130] 図 21は、本発明の第 1の実施の形態における検出対象領域抽出部の処理を説明 するための図である。
[0131] 検出対象領域抽出部 220は、フレーム画像を入力とする。図 21では、カメラ入力の 例を示す。カメラ入力の場合、撮影角度によって生じる平面射影変換や、手振れなど によってフレーム画像中の検出対象領域が様々な形で幾何歪みを被って変化する。 そのため、検出対象領域抽出部 220では、キヤプチヤしたフレーム画像毎に TVの表 示領域などを、例えば、「片山、中村、山室、曽根原:「電子透力 読み取りのための i アプリ高速コーナー検出アルゴリズム」、信学論(D- II) , Vol. J88-D-II, No. 6, pp.103 5-1046, 2005年 6月」(以下、文献 3と記す)のような縁検出'コーナー検出などの手法 によって検出する。続いて行う差分画像生成のために、検出した表示領域の平面射 影歪みを補正し、さらに画像サイズを正規化して一定としたものを検出対象領域画像 として出力する。なお、 NTSCなどのアナログビデオ信号入力や、 MPEGなどのディ ジタル動画像入力の場合には、フレームに生じる歪みや、フレーム画像中の一部の みを切り出すといった処理は不要であり、フレーム画像をそのまま検出対象領域画像 として出力すればよい。
[0132] 次に、差分画像生成部 230について詳細に説明する。
[0133] 図 22は、本発明の第 1の実施の形態における差分画像生成部の処理を説明する ための図である。
[0134] 差分画像生成部 230は、検出対象領域画像を入力とする。差分画像生成部 230 は、現在入力された検出対象領域画像と、検出対象領域画像バッファ 250に蓄積さ れている、以前に取得した検出対象領域画像の差分画像を生成する。最も簡単には 、直前の検出対象画像がバッファリングされており、差分対象とすることが考えられる 力 検出対象領域画像には複数の画像がバッファリングされており、適宜差分対象を 選んで差分画像を生成するとしてもよい。また、次の検出試行に備えて、検出対象領 域画像バッファ 250に今回の検出対象領域画像をバッファリングしておく。この際、検 出対象領域画像バッファ 250中の時間的に古くなつた検出対象領域画像は破棄し てもよい。
[0135] なお、最初の検出対象領域画像が入力されたタイミングでは、検出対象領域画像 ノ ッファ 250は空である力 この場合は差分をとらずに最初の検出対象領域画像自 体を差分画像として出力して電子透かし検出を試みてもよいし、あるいは電子透かし 検出をスキップして次のフレームキヤプチャ処理を行ってもよい。
[0136] 次に、電子透かし検出部 240について詳細に説明する。
[0137] 電子透かし検出部 240は、差分画像を入力とし、差分画像から電子透かし検出を 試みる。
[0138] 図 23は、本発明の第 1の実施の形態における電子透かし検出部の処理の例を説 明するための図である。同図は、電子透力し埋め込み時の変調方法 (B— 1)に対応 する検出時の復調方法である。
[0139] まず、差分画像の埋め込みに用いた成分チャネルを取り出す。それが輝度であると すると輝度成分、を取り出す。そして、埋め込み時の透かしパターンのブロックの個数 に差分画像をブロック分割する。
[0140] 次に、ブロック内の輝度値の合計を求め、ブロック順に並べて一次元の系列である 検出対象系列を得る。変調情報 (B— 2)のような場合は、ブロック内の波形パターン のエネルギーを求め、複数の波形パターンのうちどのパターンが支配的かという指標 値を算出して一次元に並べる(文献 1)。
[0141] 次に、埋め込み時には 1ビットシンボルを系列の区間毎に変調していたことに対応 して、検出対象系列のシンボル位置毎の区間を取り出し、各区間についてシンボル 値〃 0〃を表す拡散系列及び〃 1〃を表す拡散系列との相関演算を行う。各シンボル位 置につ 、て相関値 (の絶対値)が最大となるシンボル値が検出した透力し情報となる 。図 23の例では、 1シンボル目力 〇"、 2シンボル目が" 1"、が検出した透力し情報と なる。また、この際に得られた相関値 (の絶対値)が予め定めた閾値以上となるなど、 十分に大きい場合は電子透力しの検出に成功したとする。なお、変調方法 (A— 1) 〜 (A— 4)の検出方法については、文献 1のように相関値の正負でビット値を決定す ればよい
電子透かし検出部 240で電子透力しの検出が成功した場合には、検出した透かし 情報を出力して検出処理を終了して関連情報サービスの提供に状態遷移してもよい し、め O ヽは、「J. Re imoto, Y. Ayatsuka, し yberし ode: Designing Augmented Realit y Environments with Visual Tags", Designing Augmented Reality Environments (DA RE 2000), 2000年」(以下、文献 4と記す)等のように、撮影画像と CG (コンピュータグ ラフイクス)などを合成する拡張現実感的なアプリケーションの場合は、続けて連続的 に電子透かし検出を続けてもよい。電子透かし検出に成功しな力つた場合は、引き 続き動画像入力部 210のフレームキヤプチャ処理に復帰し、検出試行を繰り返す。あ るいは、動画像の入力が終了したら検出処理を終了する。
[0142] く本実施の形態の効果〉
本実施の形態によれば、動画像への電子透力し埋め込みの際に、フレーム毎に透 かしパターンを切り替えて埋め込みを行うことによって、単純にフレーム画像に静止 画アルゴリズムの適用を繰り返すことで固定の透かしパターンが埋め込まれるような 埋め込み方と比較して、固定パターンを避けることができるので画質劣化を低く抑え ることができる。特に、切り替え速度が高速な場合、人間の視覚特性においては時間 周波数が高い場合は視覚感度が低下するという時間周波数特性に関する知見を適 用すれば、画質劣化がより知覚しにくくなる(「樋渡編、画像工学ノ、ンドブック、朝倉 書店、 ISBN4-254-20033-1, pp.10-56, 1986年」(以下、文献 5と記す))。
[0143] また、電子透かし検出処理においては、キヤプチャされたフレーム画像の時間差分 をとり差分画像からの電子透かし検出を行っている。図 24に示すように、一般に動画 像は時間方向のフレーム間相関が高いことが知られており、差分をとることで激しい 動きを伴う部分などを除いて原画像成分の大半はキャンセルされる。これと同時に、 透かしパターンが逆転して!/、る 2つのフレーム間の差分の場合は、埋め込み時の透 力しパターンの振幅の倍の振幅の透かしパターンが得られることとなる。これによつて 画像に対して加法的に透かしパターンを重畳するタイプの電子透力し方式共通の課 題であった、透かし信号に対する大きな雑音成分である原画信号を抑圧し、さらに透 かし信号の振幅を倍にすることができるので、検出時の透かし信号の SZN比を大幅 に向上することができ、電子透力しの耐性が向上する
さらに、差分画像を生成する前に、キヤプチヤしたフレーム画像中の検出対象領域 抽出を行い、歪みを補正し、正規化することで、カメラ入力のように撮影角度による平 面射影変換歪みや、カメラの移動、視点移動などに伴う平行移動など、キヤプチャフ レーム中の検出対象領域の様々な歪み要因をキャンセルでき、カメラ入力からの電 子透かし検出を実現することができる。さらに、この補正を各キヤプチャフレーム毎に 対して行うことで、カメラを手で持っているような場合に生じるカメラ自体の移動に伴う 撮影フレーム毎の異なる歪み要因をキャンセルことができるため、差分画像生成によ つて確実に原画信号を抑圧することができ、カメラ付携帯電話機を手で持って撮影 するような場合でも問題なく検出成功することが可能である。
[0144] [第 2の実施の形態]
本実施の形態では、電子透かし検出装置について説明する。
[0145] 本実施の形態は、以下に説明する部分を除いて、前述の第 1の実施の形態と同一 である。
[0146] 図 25は、本発明の第 2の実施の形態における電子透かし検出装置の構成を示す。
同図に示す電子透かし検出装置 200Bは、前述の第 1の実施の形態における図 15 の構成に検出要否判定部 260を付加した構成である。
[0147] 図 26は、本発明の第 2の実施の形態における電子透かし検出装置の動作のフロー チャートである。
[0148] ステップ 301) 電子透かし検出装置 200Bの動画像入力部 210は、アナログまた は、ディジタル動画像を入力し、順次フレーム画像を取得すると同時に、当該フレー ム表示時刻を取得する。フレーム表示時刻は、例えば、 MPEGエンコードされた動画 像などの場合ではタイムコードやフレームレートなどを元に取得できる。カメラなどの 場合は表示系との同期が取れないことが考えられる。この場合は動画像入力部 210 内にタイマを持ち、キヤプチャ時の時刻を取得する、あるいは直前のキヤプチヤから の遅延時間を取得するなどの方法で当該キヤプチャフレームのフレーム表示時刻を 得ることができる。
[0149] ステップ 302) 次に、検出対象領域抽出部 220において、順次入力される各フレ ーム画像中の透かし検出の対象となる検出対象領域を抽出して検出対象領域を取 得する。
[0150] ステップ 303) 次に、検出要否判定部 260において、現在取得した検出対象領域 画像に対応するフレーム表示時刻と、検出対象領域画像バッファに蓄積されている 以前に取得した検出対象領域画像に対応するフレーム表示時刻を、埋め込み時と 同じ透かしパターン切り替え情報を参照しながら比較し、 2枚の検出対象領域画像中 の透かしパターンが同相となっている場合は検出不要とし、ステップ 304の処理に移 行する。同相でな 、と判定した場合はステップ 305に移行する。
[0151] ステップ 304) 検出不要である場合は、検出対象領域画像バッファ 250に今回の 検出対象領域画像及び対応するフレーム表示時刻をバッファリングした上で動画像 入力部 210のキヤプチャ処理に復帰する(ステップ 301に移行する)。
[0152] ステップ 305) 差分画像生成部 230に今回の検出対象領域画像を送る。差分画 像生成部 230は、現在取得した検出対象領域画像と、検出対象領域画像バッファ 2 50に蓄積されている以前に取得した検出対象領域画像との差分画像を生成する。
[0153] ステップ 306) また、差分画像生成部 230は、次の検出試行に備えて、検出対象 領域画像バッファ 250に今回の検出対象領域画像及びフレーム表示時刻をバッファ リングしておく。この際、検出対象領域画像バッファ中の時間的に古くなつた検出対 象領域画像及びフレーム表示時刻は破棄するなどしておく。
[0154] ステップ 307) 続いて、電子透かし検出部 240において、差分画像力 の電子透 かし検出を試み、検出結果を出力する。
[0155] ステップ 308) 電子透かし検出が成功したかを判定し、成功しな力つた場合は、動 画像入力部 210において次のフレーム画像を取得して上記の処理を順次繰り返す( ステップ 301に移行する)。成功した場合には、処理を終了する。
[0156] 上記の検出要否判定部 260は、フレーム表示時刻、検出対象領域画像、透かしパ ターン切り替え情報を入力とする。検出要否判定部 260は、現在取得した検出対象 領域画像に対応するフレーム表示時刻と、検出対象領域画像バッファ 250に蓄積さ れている以前に取得した検出対象領域画像に対応するフレーム表示時刻を、埋め 込み時と同じ透かしパターン切り替え情報を参照しながら比較し、 2枚の検出対象領 域画像中の透かしパターンが同相となっている力否かで検出要否を判定し、検出不 要の場合は、動画像入力部 210のキヤプチャ処理に復帰する。検出要と判定した場 合は差分画像生成部 230に検出対象領域画像を送る。
[0157] 図 27は、本発明の第 2の実施の形態における検出要否判定部の処理を説明する ための図である。
[0158] 例として、透かしパターン切り替え情報が「1Z10秒毎に切り替え」であり、動画像 は 30フレーム Z秒で再生されているとする。また、検出対象領域画像バッファ 250に 蓄積されて 、る以前のフレームのフレーム表示時刻を tとする。今回取得したフレー ム表示時刻が tOまたは tlの場合は、 t0— t= 3Z30秒、あるいは、 tl t= 5Z30秒 はそれぞれ ΐΖΐο秒毎反転において透かしパターンが逆相になることを表し、差分 画像からの電子透かし検出可能性が高いことがわ力るため、「検出要」と判定する。ま た、今回取得したフレーム表示時刻が t2の場合は、 t2— t=6Z30秒が 1Z10秒毎 反転にお 、て透かしパターンが同相になることを表し、差分画像からの電子透かし検 出可能性が低いことがわ力るため、「検出不要」と判定する。
[0159] この例のように、フレーム表示時刻は動画像の先頭力もの絶対時間である必要はな ぐ再生されている動画像のキヤプチャタイミング間の遅延時間が得られればよい。
[0160] く本実施の形態の効果〉
本実施の形態によれば、第 1の実施の形態の効果に加え、検出要否判定を行うこと で無駄な電子透かし検出処理を省くことで効率的な検出処理を行うことができる。図 28A、 Bに示すとおり、キヤプチヤのタイミングを評価して透かしパターンが逆相となつ ている場合のみ差分画像を生成して検出試行を行うので、検出が困難な同相の場合 を避けることができ、無駄な検出試行を省くことができる。処理量を減らした分は、キ ャプチヤのフレームレートを高めることによる検出性能向上や、ユーザインタフェース を高度化するなどによって検出装置の利便性を向上させるといった効果が得られる。
[0161] [第 3の実施の形態]
本実施の形態では、電子透かし検出装置について説明する。
[0162] 本実施の形態は、以下に説明する部分を除いて、第 1の実施の形態と同一である。
[0163] 図 29は、本発明の第 3の実施の形態における電子透かし検出装置の構成を示す。
[0164] 同図に示す電子透かし検出装置 200Cは、第 1の実施の形態における図 19の構成 に、キヤプチャタイミング制御部 270を付加した構成である。
[0165] キヤプチャタイミング制御部 270は、透かしパターン切り替え情報を入力とし、キヤプ チヤタイミング信号を動画像入力部 210に送る。また、差分タイミング信号を差分画像 生成部 230に送る。
[0166] 図 30は、本発明の第 3の実施の形態における電子透かし検出装置の動作のフロー チャートである。
[0167] ステップ 401) 動画像入力部 210は、キヤプチャタイミング制御部 270から入力さ れたキヤプチャタイミング信号で指定されるキヤプチャ時間間隔でアナログまたはディ ジタル動画像を入力し、順次フレーム画像を取得する。
[0168] ステップ 402) 検出対象領域抽出部 220において、順次入力される各フレーム画 像中の透かし検出の対象となる検出対象領域を抽出して検出対象領域画像を取得 する。
[0169] ステップ 403) 次に、差分画像生成部 230において現在取得した検出対象領域 画像と、検出対象領域画像バッファ 250に蓄積されている、差分タイミング信号で示 される時間的に前の検出対象領域画像との差分画像を生成する。
[0170] ステップ 404) また、差分画像生成部 230は、次の検出試行に備えて、検出対象 領域画像バッファ 250に今回の検出対象領域画像をバッファリングしておく。
[0171] ステップ 405) 続いて、電子透かし検出部 240において、差分画像力 の電子透 かし検出を試み、検出結果を出力する。
[0172] ステップ 406) 電子透かし検出が成功しな力つた場合は、動画像入力部 210にお いて、次のフレーム画像を取得して、上記の処理を順次繰り返す (ステップ 401に移 行する)。成功した場合は処理を終了する。
[0173] 図 31は、本発明の第 3の実施の形態におけるキヤプチャタイミング制御部の処理を 説明するための図である。例として透かしパターン切り替え情報が「1Z10秒毎に切 り替え」であり、動画像は 30フレーム Z秒で再生されているとする。この場合は、キヤ プチヤタイミング信号を 1Z10秒毎に発信し、それを受信した動画像入力部 210で 1 Z10秒間隔でキヤプチャを行うようにする。あるいは、最初に「1Z10秒間隔でキヤ プチヤすること」という情報をキヤプチャタイミング信号として送り、動画像入力部 210 内部でタイミングを取りながら lZio秒間隔でキヤプチャ動作をするようにしてもよい
[0174] また、差分タイミング信号として、「1Z10秒 (の奇数倍)離れた検出対象領域画像 の差分をとる」という指示を差分画像生成部 230に送るものとする。カメラ入力などの 場合、キヤプチヤの時間間隔だけを指定したとしても実際にキヤプチャされるフレーム 群が異なるケースが有り得る(図 31のキヤプチャ例 Aとキヤプチャ例 Bの違い)。しかし 、どちらのキヤプチャ例の場合も、 1Z10秒毎のキヤプチヤによって必ず逆相の透か しパターンが埋め込まれたフレームを交互にキヤプチャ可能である。これによつて連 続するどの 2枚の差分からも電子透かし検出の可能性が高いようにできる。つまり、キ ャプチヤの開始タイミングによらない。
[0175] また、図 32に示すように「1Z30秒間隔でキヤプチヤし、差分は lZlO (の奇数倍) 離れた検出対象領域画像間で行う」ように指示を行!ヽ、検出対象領域画像バッファ 2 50には、 1Z30秒でキヤプチャされたフレーム力 得られた直近 3枚分の検出対象 領域画像力 Sバッファリングされているとすると、 1Z30秒毎に入力される新たな検出 対象領域画像と、 1Z10秒前、即ち、 3枚前の検出対象領域画像との差分を順次と ることで、毎回の透かし検出試行において、検出可能性が全て高いようにできる。
[0176] なお、入力が MPEGなどのディジタルの場合や、アナログビデオ信号など、入力の フレーム表示時刻を正確に得られる場合は、同期を合わせることができるのは自明で あるので、上記と同様の処理によって各検出試行で検出可能性が高くなるようにでき る。
[0177] く本実施の形態の効果〉
本実施の形態によれば、第 1の実施の形態の効果にカ卩え、図 33A、 Bに示すように 、透かしパターン切り替えタイミングと同期をとつたタイミングでキヤプチャ及び差分画 像生成を行うことにより、常に透かしパターンが逆相となるものについての差分をとつ て検出を行うことができるので、全ての検出試行で透かしパターンが強調された差分 画像からの検出となり、検出可能性を高くすることができる。これにより、検出可能性 の低い無駄な試行を行うことがなくなるので、電子透かし検出に至るまでに必要な時 間を短縮でき、キャップチヤを開始してから素早く検出を成功させることができる。ま た、拡張現実感的なアプリケーションなど、透かし検出が成功しても検出を続行する 場合は、検出成功状態が途切れることなく持続するので、ユーザインタフェースが改 善され、利便性が向上するという効果も得られる。
[0178] [第 4の実施の形態]
本実施の形態では、透かしパターンの位相の反転によって検出された透力し情報 のビットが反転するタイプの変調方法を用いた場合でも正し 、透力 情報を検出する ための方法にっ 、て説明する。
[0179] 本実施の形態は、以下に説明する部分を除いて、第 1〜第 3の実施の形態と同様 である。
[0180] 図 34A、 Bは、本発明の第 4の実施の形態における基本透かしパターン生成部の 処理内容を示す。同図は、第 1の実施の形態における図 10に示す電子透力し埋め 込み装置 100の透かしパターン生成部 120の基本透かしパターン生成部 121の処 理内容を示している。
[0181] 第 1〜第 3の実施の形態における基本透かしパターン生成部 121では、入力された 透力し情報のみを基本透かしパターンに変調していた。本実施の形態では、入力さ れた透力し情報に、透力し情報のビット反転判定用のフラグビットを 1ビット追加して 基本透かしパターンを生成する。あるいは、第 1の実施の形態乃至第 3の実施の形態 と比較して透力し情報のビット長を 1ビット少ないものを想定してビット反転判定用のフ ラグビットを追加し、第 1乃至第 3の実施の形態と同じビット長の情報を元に基本透か しパターンを生成するとしてもよい。図 34の例では、ビット反転判定用のフラグビットと してビット値 "0 "が正位相、即ち、ビット反転なしを表すものとして付加される。
[0182] 図 35は、本発明の第 4の実施の形態における電子透かし検出部の動作のフローチ ヤートである。
[0183] ステップ 501) 電子透かし検出部 240は、差分画像を入力として、まず、第 1乃至 第 3の実施の形態の場合と同様に差分画像からの電子透かし検出を試みる。
[0184] ステップ 502) 電子透力しが検出できた場合は、ステップ 504に移行し、検出でき な 、場合はステップ 503に移行する。
[0185] ステップ 503) 検出できない場合は、次のフレームキヤプチヤに復帰する。
[0186] ステップ 504) 電子透力しが検出できた場合、検出した情報中のビット反転判定フ ラグの値を見て、その値が正位相を表すものであるかどうかを評価する。正位相を表 すものである場合は、ステップ 506に移行し、逆位相を表す場合はステップ 505に移 行する。
[0187] ステップ 505) ビット反転判定フラグが逆位相を表すものであった場合は、ビット反 転判定フラグを除いた情報のビットを反転したものを検出した透かレ f青報として検出 結果を出力する。
[0188] ステップ 506) 正位相を表すものであった場合は、検出情報力もビット反転判定用 フラグを除いた情報を検出した透力し情報とし、検出結果を出力する。
[0189] なお、第 3の実施の形態のように、埋め込み時の透かしパターン切り替え情報と、キ ャプチヤ時のフレーム表示時刻を用いることで、現在の差分画像中の透かしパターン の位相を判定することも可能であるのは明らかである。
[0190] く本実施の形態の効果〉
本実施の形態の効果を図 36〜図 38を用いて説明する。
[0191] 電子透かし埋め込み時の変調方法が第 1の実施の形態で述べた図 12の変調方法
(A— 1)の場合、検出の際には差分画像の画素値から検出対象系列を得て、これと 拡散系列との相関をとつて、相関値の正負でビット値 "0"、〃1"を検出することになる。 図 36に変調方法 (A—1)の場合の復調を説明する。変調によって得られた基本透か しパターンは適宜位相を反転して動画像のフレーム画像に埋め込まれる。透かし入り 動画像が符号ィ匕されたり、アナログ表示をキヤプチヤしたりする過程で埋め込まれた 透かしパターンには様々なノイズが加わることになるので、差分画像から得られる検 出対象系列は、埋め込み時の変調された透力 情報と比較して信号が変化して 、る 。しかし、埋め込み時に用いた拡散系列との相関をとれば、ビット" 1Ίこ相当する区間 の相関値は正の大きな値を取り、ビッド 0"に相当する区間の相関値は負の大きな値 を取るはずである。これによつて埋め込まれたビット情報の復調を行うことになる。
[0192] し力しながら、図 37に示すように、基本透かしパターンの位相は、透かしパターン切 り替え部 122によって時間方向で正位相 ·逆位相に切り替えられて 、るので、例えば 、図 37の (ィ)と(口)のフレーム力 得られる差分画像を考えると、(ィ)には基本透か しパターンの逆相、(口)には基本透かしパターンの同相が埋め込まれているので、( 口) - (ィ)で得られる差分画像は基本透かしパターンとして同相、即ち正位相となり、 透力し情報は正しく検出できる。し力しながら、キヤプチヤのタイミングによっては (ハ) と(二)のフレーム力もの差分画像のケースも有り得る。この場合 (ハ)は基本透かしパ ターンと同相、(二)は基本透かしパターンと逆相であるため、差分画像は基本透かし パターンの逆相の形となる。このとき、透かし検出を行うと、図 36で述べた検出対象 系列の各項の値が正負逆転しているため、相関値の符号が反転してしまう。即ち、透 力し情報" 01"を埋め込んだにも関わらず、そのビット反転である" 10"を正しく検出、 といった問題が生じる。
[0193] 本実施の形態は、この問題を避けるためのものであり、図 38のように埋め込まれて V、る透力し情報にビット反転判定フラグを追加して 、る。これに検出時の透力し情報 力 Sビット反転してしまっている力否かを判定できる。即ち、差分画像が基本透かしバタ ーンと同相であるか逆相であるかを判定できる。検出情報のビット反転フラグが正位 相を表す値だった場合にはそのままビット値で透力し情報とし、逆相を表す値となつ ている場合は、検出情報のビット値を反転して透力し情報とすることで、キヤプチヤで 得られた 2枚のフレームの取り方によらず、常に正しい透力し情報を検出することがで きる。この方法は、極性利用型の変調方法であれば全て適用することが可能である。
[0194] なお、第 1の実施の形態で述べた変調方法 (A— 2)〜(A— 4)、 (B— 2)〜(B— 4) については、差分画像の画素値 (の単純な総和)を元に検出対象系列を構成するも のではなぐ差分画像の取り方によらず常に一定の透力 情報を検出できる。また、 変調方法 (B— 1)のように、相関値の正負で情報を表すものではなぐどの拡散系列 と大きな相関絶対値を取ったかによつて情報を変復調することが可能なタイプの変調 方法では、差分画像が正位相の場合は正の相関値、逆相の場合は負の相関値が出 ることについては (A— 1)と同様である力 相関値の絶対値が大きいものを検出シン ボルとすれば差分画像が正位相あるいは逆相であっても、常に問題なく検出ができ るため、このような工夫は必要ない。まとめると以下のようになる。
[0195] 〈2次元パターン変復調の種別〉
(1)パターン振幅利用型:画像中のパターンの振幅を元に検出対象系列を構成す るため、差分画像が反転すると検出対象系列が反転する (変調方法 (A— 1) , (B- 1 ) )
(2)パターン形状利用型:画像中のパターン形状を元に検出対象系列を構成する ため、差分画像が反転しても検出対象系列が反転しな 、 (変調方法 (A— 2)〜 (A— 4)、変調方法 (B— 2)〜(B— 4) )
くスペクトラム拡散変復調の種別〉
(a)極性利用型:拡散系列との相関値の正負の極性で情報を表現して 、る方法( 変調方法 (A— 1)〜(A— 4) ) (b)極性非利用型:複数の拡散系列のうちの最大絶対相関値をとる系列の種類に よって情報を表現して 、る方法 (変調方法 (B— 1)〜 (B— 4) )
差分画像が反転した場合にビット値が反転するのは(1)かつ(a)、すなわち例示し た中では変調方法 (A— 1)の場合のみである。
[0196] [第 5の実施の形態]
本実施の形態では、第 4の実施の形態にぉ ヽて用いた位相判定用フラグを用いず に位相同期信号の多重透かし埋め込みを用いる例を説明する。
[0197] 本実施の形態は、以下に説明する部分を除いて、前述の第 1乃至第 3の実施の形 態と同一である。
[0198] 図 39は、本発明の第 5の実施の形態における基本透かしパターン生成部の処理の 例を説明するための図である。同図は、電子透力 埋め込み装置 100における透か しパターン生成部 120の基本透かしパターン生成部 121の処理の内容を示す。第 1 乃至第 3の実施の形態における基本透かしパターン生成部 121では、入力された透 力し情報のみを基本透かしパターンに変調していた。本実施の形態では、入力され た透力し情報のみではなぐ検出時の差分画像の透かしパターンの位相を特定する ための位相同期信号も埋め込まれるように基本透かしパターンを生成する。
[0199] 図 39の例では、変調方法 (A—1)を用いて第 1乃至第 3の実施の形態と同様に、 基本透かしパターン(甲)を得て、さらに、常に "0"の値を取る位相同期信号を変調方 法 (B— 1)で変調して得られる基本透かしパターン(乙)を位相判定用透かしパター ンとして生成し、両者を重畳によって多重化したものを基本透かしパターンとして埋め 込みに用いることとする。
[0200] 本実施の形態における電子透かし検出装置 200における電子透かし検出部 240 の処理の流れにっ 、て説明する。
[0201] 図 40は、本発明の第 5の実施の形態における電子透かし検出部の動作のフローチ ヤートである。
[0202] ステップ 601) 電子透かし検出部 240は、差分画像を入力として、まず、第 1乃至 第 3の実施の形態の場合と同様に差分画像からの電子透かし検出を試みる。
[0203] ステップ 602) 電子透力しが検出できない場合は、ステップ 603に移行し、検出で きた場合はステップ 604に移行する。
[0204] ステップ 603) 次のフレームキヤプチヤに復帰する。
[0205] ステップ 604) 電子透力しが検出できた場合は、位相同期信号の検出を試みる。
位相同期信号は変調方法 (B—1)で埋め込まれているので、"0 "を表す拡散系列と の相関値の絶対値が大きければ位相同期信号を検出でき、相関値の正負の極性で 差分画像中の透かしパターンが埋め込み時の基本透かしパターンと同相か逆相かを 判定できる。
[0206] ステップ 605) 位相同期信号の検出時の相関値が正の場合は同相、負の場合は 逆相と判定する。同相と判定した場合はステップ 606に移行し、逆相と判定した場合 はステップ 607に移行する。
[0207] ステップ 606) 同相と判定した場合は、検出した透かレ f青報をそのまま検出結果と して出力する。
[0208] ステップ 607) 逆相と判定した場合は、検出した透かレ f青報のビットを反転した上 で検出結果として出力する。
[0209] く本実施の形態の効果〉
第 4の実施の形態では透力し情報の一部をビット反転判定用フラグとして用いたの に対し、本実施の形態では、差分画像中の透かしパターンの位相を判定するための 位相同期信号を透力し情報と共に多重化して埋め込んでいる。この際、位相同期信 号がパターン振幅利用型かつ、極性非利用型の変調により埋め込まれるので、検出 時に極性を用いて差分画像中の透かしパターンの位相を判別することができる。これ により、第 4の実施の形態と同様にキヤプチヤで得られた 2枚のフレームの取り方によ らず、常に正しい透力 情報を検出することができる。
[0210] また、第 4の実施の形態と比較すると、ビット反転判定用フラグを用いないため、透 力 情報のビット長を 1ビット短くする必要がない。なお、パターン形状利用型であつ ても差分画像の反転を特定できるものなら位相同期信号埋め込みに用いても構わな い。
[0211] [第 6の実施の形態]
本実施の形態では、差分画像中の透かしパターンの埋め込み時の基本透かしパタ ーンと同相カゝ否かを判定し、必要に応じて位相反転して蓄積する例を説明する。
[0212] 本実施の形態では、以下に説明する部分を除いて、第 1〜第 5の実施の形態と同 一である。以下、説明を簡易にするため、第 1の実施の形態との差分を述べる。
[0213] 図 41は、本発明の第 6の実施の形態における電子透かし検出部の構成を示す。
[0214] 同図に示す電子透かし検出装置 200の電子透かし検出部 240は、差分画像位相 判定部 241と透力し情報検出部 242と差分画像蓄積バッファ 255から構成される。
[0215] 図 42は、本発明の第 6の実施の形態における電子透かし検出部の動作のフローチ ヤートである。
[0216] ステップ 701) 差分画像位相判定部 241は、差分画像が入力されると、入力され た当該差分画像中の透かしパターンの位相を判別する。
[0217] ステップ 702) 差分画像位相判定部 241は、入力された差分画像中の透かしバタ ーンの位相力 埋め込み時の基本透かしパターンと同相か逆相かを判定する。同相 であった場合はステップ 703に移行し、逆相であった場合はステップ 704に移行する
[0218] ステップ 703) 同相であった場合は、今回入力された差分画像をそのまま差分画 像蓄積バッファ 255に加算し、ステップ 705に移行する。
[0219] ステップ 704) 逆相であった場合は、今回入力された差分画像を位相反転させて 差分画像蓄積バッファ 255に加算する。
[0220] ステップ 705) 次に、透力し情報検出部 242において、差分画像蓄積バッファ 255 に蓄積された加算された差分画像からの透かレ f青報の検出を試みる。
[0221] ステップ 706) 検出に成功した場合はステップ 708に移行し、成功しなカゝつた場合 はステップ 707に移行する。
[0222] ステップ 707) 成功しな力つた場合は動画像入力部 210において次のフレームキ ャプチヤを行う処理に復帰する。
[0223] ステップ 708) 成功した場合は、検出結果を出力する。
[0224] 次に、差分画像位相判定部 241につ 、て説明する。
[0225] 図 43は、本発明の第 6の実施の形態における差分画像位相判定部の処理を説明 するための図である。 [0226] 差分画像位相判定部 241は、差分画像が入力されると、当該差分画像中の透かし パターンの位相力、埋め込み時の基本透かしパターンと同相か逆相かを判定する。 判定の方法としては、差分画像から第 4の実施の形態に示したビット反転判定フラグ を検出し、その値で同相 Z逆相を判定する方法や、第 5の実施の形態に示した位相 同期信号を検出し、その値で同相 Z逆相を判定する方法などが有り得る。あるいは、 第 1の実施の形態の変調方法 (B—1)のような、パターン振幅利用型かつ、極性非利 用型の変調を用いて透力し情報を変調している場合は、各シンボル毎の検出処理に おいて検出された絶対値最大の相関値の総和力 プラスの場合は同相、マイナスの 場合は逆相と判別することなどが可能である。
[0227] 差分画像中の透かしパターンが埋め込み時の基本透かしパターンと同相だと判定 した場合は、今回入力された差分画像をそのまま差分画像蓄積バッファ 255に加算 する。逆相だと判定した場合は、今回入力された差分画像の位相を反転させて差分 画像蓄積バッファ 255に加算する。位相反転するには、例えば輝度成分であれば画 像全体の画素値の正負を逆転させたり、あるいは今回の差分画像を生成するのに用 いた検出対象領域画像が X, Yの 2枚で、今回の差分画像が X— Yで求められたの だとすると、位相反転するには Y— Xの差分画像を用いればょ ヽ。
[0228] また、第 3の実施の形態のように、埋め込み時の透かしパターン切り替え情報を用 いて透かしパターン切り替えタイミングの同期が取れる場合には、切り替えタイミング から、例えば、隣あった透かしパターンの切り替えは逆相になる力 一つおきなら同 相になるという原理を利用して、以下の差分画像蓄積時に全て同相となるように一つ おきに位相反転しながら蓄積すればょ 、。
[0229] 上記の処理によって図 44に示すように、差分画像蓄積バッファ 255には、常に基 本透かしパターンと同相な透かしパターンを持つ差分画像が次々に加算されて!、る ことになる。なお、ここで、「差分画像を加算」とは、画像の各座標毎の画素値を加算 して得られる同サイズの画像を得ることを指す。
[0230] なお、前述の第 3の実施の形態を利用した蓄積の場合、差分画像蓄積バッファ 25 5に蓄積された結果は、埋め込み時の基本透かしパターンと同相あるいは逆相のい ずれかの状態がそろった形で加算されたものとして得られるが、差分画像蓄積バッフ ァ 255からの検出に第 4の実施の形態または、第 5の実施の形態のような工夫を用い れば、逆相による問題を回避できる。
[0231] く本実施の形態の効果〉
本実施の形態では、差分画像中の透かしパターンが埋め込み時の基本透かしパタ ーンと同相カゝ否かを判定し、必要に応じて位相反転することで、差分画像蓄積バッフ ァ 255に常に正位相な状態で順次加算を行い、加算された差分画像力ゝら透カゝし情報 検出を試行している。
[0232] これにより、 1枚の差分画像中の透かしパターンが微弱で十分に検出できない場合 でも、複数の差分画像を統合して検出を行うこととなるので、検出が可能となる。図 4 4に示すとおり、透かしパターンは常に正位相な形で加算されていくので、差分画像 蓄積バッファ 255には原理上加算した回数分増幅された透かしパターンが得られる。 しかし、一般に原動画像の差分は各々のタイミングで異なるので、透かしパターンに 対するノイズである原動画像の差分信号は加算回数分増幅されな!ヽ。これによつて 透かし信号の SZN比が向上し、第 1乃至第 5の実施の形態と比べて電子透力しの 耐性が向上する。
[0233] また、この耐性向上を、画質劣化を抑えるように用いることもできる。即ち、第 1乃至 第 5の実施の形態のように 1枚の差分画像力も検出を可能とするための透力し埋め込 み強度よりさらに弱い強度でも差分画像蓄積によって検出ができるため、画質改善を 実現できる。
[0234] [第 7の実施の形態]
本実施の形態では、 1枚の差分画像からは十分な検出性能が得られな!、場合でも 検出可能とする方法について説明する。
[0235] 本実施の形態は、以下に説明する部分を除いて、第 1乃至第 6の実施の形態と同 一である。以下、説明を簡易にするため、第 1の実施の形態との差分を述べる。
[0236] 図 45は、本発明の第 7の実施の形態における電子透かし検出部の構成を示す。
[0237] 同図に示す電子透かし検出装置 200の電子透かし検出部 240は、相関演算部 24 3と、検出可否判定部 244及び、相関値バッファ 245を有する。
[0238] 図 46は、本発明の第 7の実施の形態における電子透かし検出部の動作のフローチ ヤートである。
[0239] ステップ 801) 電子透かし検出部 240は、差分画像を入力とし、相関演算部 243 において、通常の電子透かし検出処理と同様に差分画像から検出対象系列を得て、 拡散系列との相関値を求める。なお、この際、入力された差分画像のみ力も透かレ f青 報の検出が成功した場合は、透力し情報を検出結果として出力して処理を終了して もよ!/、。相関値は変調方法 (A— 1)〜 (A— 4)のようなビット毎拡散方式であれば透 力 情報のビット数分、変調方法 (B— 1)〜(B— 4)のようなシンボル毎拡散方式であ ればシンボル数 Xシンボル値の値域分得られる。
[0240] ステップ 802) 相関演算部 243で得られた相関値群は相関値バッファ 245に各項 加算される。
[0241] ステップ 803) 次に、検出可否判定部 244において、相関値バッファ 245に格納さ れた相関値群に対して閾値判定を行い、透力し情報の検出可否の判定を行う。
[0242] ステップ 804) 検出できた場合はステップ 806に移行し、検出できない場合はステ ップ 805〖こ移行する。
[0243] ステップ 805) 透力し情報の検出ができない場合は、動画像入力部 210の次のフ レームキヤプチヤに復帰する。
[0244] ステップ 806) 閾値判定にノ スしたら、検出成功として相関値バッファ 245の内容 を元に検出した透力し情報を構成して検出結果を出力する。
[0245] 次に、相関値バッファ 245に関する処理の内容を説明する。
[0246] 図 47は、本発明の第 7の実施の形態における相関値バッファに関する処理の内容 を説明するための図である。
[0247] 相関演算部 243では、差分画像から検出対象系列を取り出し、変調時に用いた拡 散系列との相関を計算する。変調方法 (A— 1)〜 (A—4)のようなビット毎拡散方式 であれば、透力し情報のビット数分、変調方法 (B— 1)〜(B— 4)のようなシンボル毎 拡散方式であれば、シンボル数 Xシンボル値の値域分得られる(図 47では 1シンポ ル = 1ビット、各シンボル毎に "0 "または" 1 "の 2値をとるようなシンボルが 4つある例を 示す)。
[0248] 変調方法 (A— 1)のように差分の位相によってビットが反転する可能性があるもの については、第 4の実施の形態、または、第 5の実施の形態のような方法で正位相に 揃えて力も相関をとるようにする。また、変調方法 (B— 1)〜(B— 4)の場合は、差分 の位相が反転している場合は相関値がマイナスをとるので、絶対値化しておく。相関 演算部 243で得られた相関値群は、相関値バッファ 245に各相関値の項ごとに加算 される。
[0249] また、第 3の実施の形態のように、埋め込み時の透かしパターン切り替え情報を用 いて透かしパターン切り替えタイミングの同期がとれる場合には、切り替えタイミング から、例えば、隣り合った透かしパターンの切り替えは逆相になる力 一つおきなら同 相になる、という原理を利用して、一つおきに相関値の極性を反転させて蓄積するこ とで常に相関値の極性を揃えて加算蓄積することもできる。
[0250] 図 48A、 Bは、本発明の第 7の実施の形態における相関値バッファに関する処理の 内容を説明するための図である。
[0251] 検出可否判定部 244は、相関値バッファ 245に蓄えられた相関値に対して閾値判 定を行い、検出成功か否かを判定する。変調方法 (Α—1)〜(Α—4)のようなビット毎 拡散方式の場合は、各ビット位置毎の相関値の絶対値がすべて閾値以上なら検出 成功と判定したり、図 48A、 Bのように各ビット位置毎の相関値の絶対値和をとり、そ の結果に対して閾値判定をしてもよい。また、変調方法 (B— 1)〜(B— 4)のようなシ ンボル毎拡散方式であれば、各シンボル位置毎の相関値の最大値がすべて閾値以 上なら検出成功と判定する、などとすればよい。なお、閾値の値を相関値蓄積バッフ ァ 245への加算回数に応じて変化させたり、閾値判定前に相関蓄積バッファ 245の 各項値を加算回数で割り算するなどを適宜行うものとする。
[0252] なお、上記の第 3の実施の形態を利用した蓄積の場合、相関値バッファ 245に蓄 積された結果に対して、第 4の実施の形態、または、第 5の実施の形態のような工夫 を用いれば、極性反転による問題を回避できる。
[0253] く本実施の形態の効果〉
本実施の形態では、差分画像力もの検出の際に算出される相関値について加算 蓄積した結果を元に検出可否を判定している。これにより、 1回の検出試行では検出 力 S困難であった場合でも、複数枚の差分画像力 の検出結果を統合することにより 検出可能とすることができ、検出性能が向上する。
[0254] [第 8の実施の形態]
本実施の形態では、以下に説明する部分を除いて、前述の第 1乃至第 7の実施の 形態と同一である。以下、説明を簡単にするため第 1の実施の形態との差分を述べる
[0255] 図 49は、本発明の第 8の実施の形態における透かしパターン生成部の構成を示す 。同図に示す電子透力し埋め込み装置 100の透かしパターン生成部 120は、基本透 かしパターン生成部 121、透かしパターン切り替え部 122、透かし情報分解部 123か ら構成される。
[0256] 図 50は、本発明の第 8の実施の形態における透かしパターン生成部の動作のフロ 一チャートである。
[0257] ステップ 901) 透かしパターン生成部 120に透力し情報、透かしパターン切り替え 情報、フレーム表示時刻が入力されると、透力し情報分解部 123において、透かし情 報をより短いビット情報であるデータブロック情報に細分する。
[0258] ステップ 902) 透かし情報分割部 123は、フレーム表示時刻を参照して今回のフ レーム画像に埋め込むべきデータブロックが何番目かを示すデータブロック IDと、当 該データブロック IDのデータブロックのビット情報であるデータブロック情報を基本透 かしパターン生成部 121に送る。
[0259] ステップ 903) 基本透かしパターン生成部 121では、データブロック IDとデータブ ロック情報力も基本透かしパターンを生成する。
[0260] ステップ 904) 最後に、透かしパターン切り替え部 122において、フレーム表示時 刻と透かしパターン切り替え情報の関係から、基本透かしパターンの位相反転の要 否を判定する。
[0261] ステップ 905) 基本透かしパターンの位相反転が必要である場合は、ステップ 906 に移行し、必要でな!、場合にはステップ 907に移行する。
[0262] ステップ 906) 必要がある場合には基本透かしパターンの位相を変更し、透かしパ ターンとして出力し、処理を終了する。
[0263] ステップ 907) 基本透かしパターンとして出力し、処理を終了する。 [0264] 次に、透かレ f青報分割部 123について詳細に説明する。
[0265] 図 51は、本発明の第 8の実施の形態における透力し情報分割部の処理を説明す るための図である。
[0266] 同図の例では、透かしパターン切り替え情報が「1Z10秒毎に反転」を指示するも のであるとし、原動画像データが 30フレーム Z秒のフレームレートであるとし、透かし 情報が 16ビットであるとしている。透かレ f青報分割部 123は、透かレ f青報を予め定め たビット長のデータブロックに分割する。図 51の例では、 16ビットの透力し情報を 4ビ ットのデータブロック 4つに分割している。
[0267] また、各データブロックが何番目のものかを表すデータブロック IDを(図 51の a, b, c, d)を同時に取得する。そして透かしパターン切り替え情報を参照しながら、今回の フレームに埋め込むべきデータブロックを選択し、選択されたデータブロック情報とデ 一タブロック IDを基本透かしパターン生成部 121に送る。図 51の例では、「透かしパ ターン反転一周期(6Z30秒)毎にデータブロックを切り替え」という処理の内容を示 しており、 6フレーム毎にデータブロックを切り替えている。
[0268] なお、データブロックが最後のデータブロックまで到達した場合は、先頭に戻って循 環的に選択を行う。また、最後のデータブロックを選択した場合は、透かレ f青報の終 端であることを示す終端情報も基本透かしパターン生成部 121に送るようにしてもよ い。
[0269] 図 51では、透かしパターンの一反転周期毎にデータブロックを順次切り替える例を 示しているが、 3反転周期毎にする、反転周期と別のデータブロック切り替え周期毎と する、データブロックの切り替えを順次ではなくランダムに選択するなど、様々なバリ エーシヨンが有り得る。
[0270] 次に、基本透かしパターン生成部 121について説明する。
[0271] 図 52A、 Bは、本発明の第 8の実施の形態における基本透かしパターン生成部の 処理を説明するための図である。
[0272] 基本透かしパターン生成部 121は、第 1乃至第 6の実施の形態とは異なり、透かし 情報そのものではなぐ透かし情報を細分したデータブロックと該データブロックの順 番を表すデータブロック IDを変調して基本透かしパターンを生成する。 [0273] また、透かレ f青報分割部 123から最後のデータブロックを表す終端情報を受け付け た場合は、 〃1Ίこするなどして、検出時にデータブロックの終端の判別ができるようし てもよいが、常に固定のデータブロック数、例えば、 4つのみを前提としている場合に は不要である。
[0274] また、第 4乃至第 6の実施の形態のように、検出時の差分画像の位相を判別するた めの情報の埋め込みを同時に行ってもよい。
[0275] 図 53は、本発明の第 8の実施の形態における電子透かし検出装置の構成を示す。
[0276] 同図に示す電子透かし検出装置 200Dと第 1の実施の形態における装置 200Αと の差異は、電子透かし検出部 240以降の処理である。
[0277] 図 54は、本発明の第 8の実施の形態における電子透かし検出装置の動作のフロー チャートである。
[0278] ステップ 1001) 動画像入力部 210において、動画像をキヤプチヤしてフレーム画 像を順次取得する。
[0279] ステップ 1002) 検出対象領域抽出部 220において、現在キヤプチヤしたフレーム 画像中の検出対象領域画像を抽出する。
[0280] ステップ 1003) 差分画像生成部 230において、現在取得した検出対象領域画像 と、以前に取得した検出対象領域画像との差分画像を生成する。
[0281] ステップ 1004) 電子透かし検出部 240は、第 1の実施の形態と同様に差分画像 力もの電子透かし検出試行により、埋め込まれている情報の検出を試みる。
[0282] ステップ 1005) 検出成功した場合は、ステップ 1006に移行する、検出成功しなか つた場合はステップ 1001に移行する。
[0283] ステップ 1006) 検出成功した場合、第 1の実施の形態とは異なり、検出した情報 は透力し情報そのものではなぐその一部であるデータブロック情報と対応するデー タブロック IDであるので、これらの情報を検出データブロック蓄積部 280に送る。検出 データブロック蓄積部 280は、今回検出したデータブロック IDで示される位置の検出 透力し情報バッファのデータ値に、検出データブロック情報の値を設定する。
[0284] ステップ 1007) 全ての検出透かし情報バッファ中のデータブロックの検出が成功 したらステップ 1008に移行する。電子透かし検出部 240で差分画像力もの電子透か し検出に失敗したり、検出データブロック蓄積部 280において未だバッファリングされ ていないデータブロックが存在する場合は、動画像入力部 210におけるキヤプチヤに 復帰し、検出処理を続行する。
[0285] ステップ 1008) 検出透力し情報バッファの値を、検出した透力し情報として検出 結果を出力する。
[0286] 図 55は、本発明の第 8の実施の形態における検出データブロック蓄積部の構成を 示す。同図に示す検出データブロック蓄積部 280は、検出データブロックバッファリン グ部 281、検出完了確認部 282、検出透かレ f青報バッファ 283を有する。
[0287] 上記の検出データブロック蓄積部 280の動作を説明する。
[0288] 図 56は、本発明の第 8の実施の形態における検出データブロック蓄積部の動作の フローチャートである。図 57、図 58は、検出データブロック蓄積部の処理の内容を示 す。
[0289] ステップ 1101) 検出データブロック蓄積部 280は、検出データブロック IDと、検出 データブロック情報が入力される。
[0290] ステップ 1102) まず、検出透かしデータブロックバッファリング部 281において、検 出透かし情報バッファ 283中の、入力された検出データブロック IDで示されるデータ 位置のデータ値を、入力された検出データブロック情報の値にセットする。
[0291] 検出透力し情報バッファ 283は、図 57のように、初期状態では全てのデータブロッ ク IDのデータブロックが未検出という状態になっており、検出データブロック ID及び 検出データブロック情報が入力される度に、順次未検出から検出済みの状態に変化 する。なお、既に検出済みのデータブロック IDが入力された場合は、検出透かレ f青 報バッファ 283の当該データブロック IDのデータ値を、検出データブロック情報で上 書してもょ 、し、上書きせずに何もしなくても構わな 、。
[0292] 図 57は、データブロックの個数が予め定まっている場合の処理の内容を示している 。また、埋め込みの際にデータブロックの終端フラグを埋め込んでいるような場合、図 58のように、初期状態では、データブロックが全部で何個あるのかは分力 ない。し かし、終端フラグの立っているデータブロック IDを入力すると、全部で何個のデータ ブロックであるかが判明するので、未検出のデータブロックを特定することができる。 これ以降は、データブロックの個数が定まっている場合の処理と同様に処理すればよ い。終端情報を利用することで、任意長の透かレ f青報の埋め込み ·検出を取り扱うこ とが可能となる。
[0293] ステップ 1103) 次に、検出完了確認部 282において、検出透かし情報バッファ 28 3中の全てのデータブロックが検出済みとなった力否かを判定し、全て検出済みとな つた場合はステップ 1104に移行し、未検出のデータブロックが残っている場合には ステップ 1105に移行する。
[0294] ステップ 1104) 全て検出済みとなった場合は、検出透かレ f青報バッファ 283のデ 一タ値を検出した透力し情報として検出結果を出力する。
[0295] ステップ 1105) 未検出のデータブロックが残っている場合には、動画像入力部 21 0のフレームキヤプチヤに復帰し、検出試行を続行する。
[0296] なお、本実施の形態では、主に、第 1の実施の形態との差分を述べたが、本実施の 形態の工夫を、第 2乃至第 7の実施の形態の工夫と組み合わせて実施することが容 易であるのは自明である。例えば、データブロック毎に、第 6の実施の形態のように差 分画像を蓄積したり、第 7の実施の形態のように相関値を蓄積したりして検出すること で検出性能が向上することなどは自明である。
[0297] く本実施の形態の効果〉
本実施の形態では、透力 情報をデータブロックに分割して時間的にデータブロッ クを切り替えながら透かし埋め込みを行 、、検出側では検出したデータブロックを順 次蓄積し、全てのデータブロックの検出済みとなった場合に透かし検出成功としてい る。これにより、一枚の差分画像に対する透力しアルゴリズムの埋め込み情報長限界 を超えた、より長い情報長の透かし情報の埋め込み '検出が可能となる、あるいは、 各フレームの埋め込む情報長を減らして耐性向上を実現することができる。
[0298] また、終端情報の埋め込み '検出により、任意長の情報を取り扱うことができ、より長 V、情報を必要とするアプリケーションが実現できるなど、利用範囲が広がる。
[0299] [第 9の実施の形態]
本実施の形態では、データブロック IDをパターン振幅利用型かつ、極性非利用型 の変調で透力し情報に多重化して埋め込みを行う例を説明する。 [0300] 本実施の形態は、以下に説明する部分を除いて、前述の第 8の実施の形態と同一 である。
[0301] 本実施の形態における電子透力し埋め込み装置内 100の基本透かしパターン生 成部 121の処理の内容を説明する。
[0302] 図 59は、本発明の第 9の実施の形態における基本透かしパターン生成部の処理の 例を説明するための図である。
[0303] 本実施の形態では、基本透かしパターンの入力であるデータブロック情報とデータ ブロック IDについて、まず、データブロック情報について第 5の実施の形態と同様に
、変調方法 (A— 1)で変調して基本透かしパターン(甲)を得る。
[0304] 次に、データブロック IDについては、第 5の実施の形態の位相同期信号(常に同じ 値)の代わりに、多値のデータブロック ID (必要ならデータブロック終端情報も合わせ て)を変調方法 (B— 1)を用いて基本透かしパターン(乙)を得る。
[0305] 最後に基本透かしパターン(甲)と基本透かしパターン(乙)を重畳して合成し、基 本透かしパターンを得る。
[0306] 図 60は、本発明の第 9の実施の形態における電子透かし検出部の動作のフローチ ヤートである。
[0307] ステップ 1201) 電子透かし検出部 240は、差分画像を入力として、まず、第 8の実 施の形態の場合と同様に差分画像からのデータブロック情報検出を試みる。
[0308] ステップ 1202) データブロック情報が検出できた場合は、ステップ 1204に移行し 、検出できなかった場合は、ステップ 1203に移行する。
[0309] ステップ 1203) 動画像入力部 210の次のフレームキヤプチヤに復帰する。
[0310] ステップ 1204) データブロック情報が検出できた場合は、続いて、データブロック I Dの検出を試みる。
[0311] ステップ 1205) データブロック IDは変調方法(B— 2)で埋め込まれているので、ま ず、相関演算の絶対値を用いてデータブロック IDを検出することができ、そのときの 相関値の正負の極性で差分画像中の透かしパターンが埋め込み時の基本透かしパ ターンと同相か逆相かを判定できる。データブロック IDの検出時の相関値が正の場 合は、正位相、負の場合は逆相と判定する。正位相と判定した場合はステップ 1207 に移行し、逆相と判定した場合は、ステップ 1206に移行する。
[0312] ステップ 1206) 逆相の場合は、検出したデータブロック情報のビットを反転した上 で、データブロック IDと共に出力する。
[0313] ステップ 1207) 正位相と判定した場合は、検出したデータブロック情報をそのまま とし、データブロック IDと共に出力する。
[0314] なお、本実施の形態では、第 8の実施の形態と同様に、本実施の形態の工夫を第
1乃至第 7の工夫と組み合わせて実施することが容易であるのは自明である。例えば
、データブロック毎に第 6の実施の形態のように差分画像を蓄積したり、第 7の実施の 形態のように相関値を蓄積したりして検出することで検出性能が向上することなどは 自明である。
[0315] く本実施の形態の効果〉
本実施の形態では、データブロック IDをパターン振幅利用型かつ、極性非利用型 の変調で透力し情報に多重化して埋め込みを行っている。これにより、各フレームに 埋め込まれるデータブロック情報の情報長を長くできる。
[0316] さらに、データブロック ID検出時の相関の極性を利用して透かしパターンの位相判 定を行えるため、別途ビット反転判定用のフラグなどを用意する必要もなぐさらに、 情報長の拡大に寄与できる。即ち、データブロック IDの極性非利用型変調を用いる ことにより、データブロック IDの検出と同時に透かしパターンの位相判定も可能となる ので、一石二鳥である。
[0317] なお、パターン形状利用型であっても差分画像の反転を特定できるものならデータ ブロック ID埋め込みに用いて構わな 、。
[0318] [第 10の実施の形態]
本実施の形態では、位相を合わせた差分画像蓄積を行う例を説明する。
[0319] 本実施の形態は、以下に説明する部分を除いて、第 1乃至第 9の実施の形態と同 一である。以下、説明を簡易にするため第 8の実施の形態との差分を述べる。
[0320] 本実施の形態における電子透かし検出装置 200内の電子透かし検出部 240につ いて説明する。
[0321] 図 61は、本発明の第 10の実施の形態における電子透かし検出部の構成を示す。 [0322] 同図に示す電子透かし検出部 240は、差分画像位相判定部 241、データブロック I D検出部 246、データブロック情報検出部 247、及び複数のデータブロック ID=n用 差分画像蓄積バッファ 248から構成される。
[0323] 図 62は、本発明の第 10の実施の形態における電子透かし検出部の動作のフロー チャートである。
[0324] ステップ 1301) 電子透かし検出部 240は、差分画像が入力されると、データプロ ック ID検出部 246において、データブロック IDの検出を試みる。
[0325] ステップ 1302) 次に、差分画像位相判定部 241において、差分画像中の透かし パターンの位相を前述の第 6の実施の形態のようにして検出する。
[0326] ステップ 1303) 差分画像位相判定部 241は、正位相である場合は、ステップ 130
4に移行し、逆位相である場合はステップ 1305に移行する。
[0327] ステップ 1304) 正位相である場合は、今回の差分画像を検出データブロック IDに 対応する差分画像バッファ 248に加算し蓄積し、ステップ 1306に移行する。
[0328] ステップ 1305) 逆位相である場合は、正位相となるように差分画像を変更した上 で、検出データブロック IDに対応する差分画像バッファ 248に蓄積する。図 61に示 すように、電子透かし検出部 240は、差分画像バッファ 248をデータブロック IDの種 類分有している。
[0329] ステップ 1306) 次に、データブロック情報検出部 247において、今回検出したデ 一タブロック IDに対応する差分画像蓄積バッファ 248からのデータブロック情報の検 出を試みる。
[0330] ステップ 1307) 検出成功した場合は、ステップ 1308に移行し、検出成功しなかつ た場合は、ステップ 1309に移行する。
[0331] ステップ 1308) 検出成功した場合は、今回のデータブロック IDと検出したデータ ブロック情報を出力する。
[0332] ステップ 1309) 検出成功しな力つた場合は、動画像入力部 210のキヤプチャ処理 に復帰する。
[0333] く本実施の形態の効果〉
本実施の形態によれば、データブロックを用いた透力 情報長拡大時に、差分画 像蓄積による耐性向上も同時に実現でき、検出性能が向上する。
[0334] [第 11の実施の形態]
本実施の形態では、相関値を蓄積する例を説明する。
[0335] 本実施の形態は、以下に説明する部分を除いて、第 1乃至第 10の実施の形態と同 一である。以下、説明を簡易にするため第 8の実施の形態との差分を述べる。
[0336] 図 63は、本発明の第 11の実施の形態における電子透かし検出部の構成を示す。
[0337] 同図に示す電子透かし検出部 240は、データブロック ID検出部 246、検出可否判 定部 244、相関演算部 249、データブロック ID=n用相関値バッファ 251を有する。 同図に示すように、電子透かし検出部 240は、データブロック ID=n用相関値バッフ ァ 251をデータブロック IDの種類分持っている。
[0338] 上記の構成の電子透かし検出部 240の動作を説明する。
[0339] 図 64は、本発明の第 11の実施の形態における電子透かし検出部の動作のフロー チャートである。
[0340] ステップ 1401) 電子透かし検出部 240は、差分画像が入力されると、まず、デー タブロック ID検出部 246において、データブロック IDの検出を試みる。
[0341] ステップ 1402) 次に、相関演算部 249において、データブロック情報検出試行を 行うことで算出される相関値を求める。
[0342] ステップ 1403) 求められた相関値を検出データブロック IDに対応する相関値バッ ファ 251に加算蓄積する。なお、この際、入力された差分画像のみ力もデータブロッ ク情報の検出が成功した場合は、データブロック IDと共に出力して処理を終了しても よい。
[0343] ステップ 1404) 次に、検出可否判定部 244において、今回検出したデータブロッ ク IDに対応する相関値バッファ 251について、第 7の実施の形態と同様に閾値判定 によりデータブロック情報の検出可否を判定する。
[0344] ステップ 1405) 検出可能と判定した場合はステップ 1406に移行し、検出成功し な力つた場合は、ステップ 1407に移行する。
[0345] ステップ 1406) 検出可能と判定された場合には、今回の相関値バッファ 251の値 力もデータブロック情報を構成し、今回のデータブロック IDと共に出力する。 [0346] ステップ 1407) 検出成功しな力つた場合は、動画像入力部 210のキヤプチャ処理 に復帰する。
[0347] く本実施の形態の効果〉
本実施の形態によれば、データブロックを用いた透力し情報長拡大時に、相関値 ノ ッファ 251による耐性向上も同時に実現でき、検出性能が向上する。
[0348] [第 12の実施の形態]
本実施の形態では、電子透かし検出処理の状況をリアルタイムにフィードバック出 力する例を説明する。
[0349] 本実施の形態は、以下に説明する部分を除いて、第 1乃至第 11の実施の形態と同 一である。以下説明を簡易にするため第 1の実施の形態との差分を述べる。
[0350] 図 65は、本発明の第 12の実施の形態における電子透かし検出装置の構成を示す 。同図に示す電子透かし検出装置 200Eと第 1の実施の形態との相違は、現在のキ ャプチャフレーム画像、現在の検出対象領域抽出状況情報、現在の電子透かし検 出の検出状況情報を随時入力し、第 1の実施の形態相当の電子透かし検出処理と 並列にフィードバック情報を生成し出力するフィードバック出力部 265を有する点で ある。
[0351] 図 66は、本発明の第 12の実施の形態における電子透かし検出装置の動作のフロ 一チャートである。
[0352] 同図において、ステップ 1501〜ステップ 1506は、図 20のステップ 201〜ステップ 206の処理と同様であるので説明は省略する力 以下のステップ 1507の処理をこれ らの処理と並列に行うものである。
[0353] ステップ 1507) フィードバック出力部 265において、現在フレーム画像、現在の検 出対象領域抽出状況情報、現在の電子透かし検出の検出状況情報を随時入力し、 第 1の実施の形態相当の電子透かし検出処理と並列にフィードバック情報を生成し 出力する。
[0354] 図 67, 68, 69は、本発明の第 12の実施の形態における電子透かし検出装置のフ イードバック出力の例である。
[0355] 電子透かし検出装置 200Eの動画像入力部 210で得られたキヤプチャフレーム画 像をリアルタイムに描画するプレビュー画面を持ち、検出対象領域抽出部 220で得ら れた検出対象領域をプレビュー画面上に合成し(図 67の a)、電子透かし検出部 240 で得られた検出強度、例えば、復調時の相関値の大きさをグラフィカルに表示したり( 図 67の b)、検出強度に応じて音色や音量を変えて音声出力したりする。
[0356] また、データブロックを用いている場合には、図 68のように現在までにバッファリン グできたデータブロックの検出状況を合成したりする。
[0357] あるいは、図 69のように、撮影角度によって生じる平面射影歪みの程度がきっかつ たり、離れた位置力も撮影しているため、キヤプチャフレーム画像中の検出対象領域 の画素面積が小さすぎたりして、電子透かしの検出が困難になっている場合には、 撮影角度の調整や、ズームアップが必要であるというメッセージを表示し、ユーザに 調整を促すようにしたりする。
[0358] く本実施の形態の効果〉
本実施の形態では、電子透かし検出処理の状況を、リアルタイムにフィードバック出 力することで、インタラクティブ性が増すことによって利便性が向上する。特に、検出 しゃすい状況になるようにユーザを促すことにより、検出性能の向上が期待できる。
[0359] [第 13の実施の形態]
本実施の形態は、以下に説明する部分を除いて、第 1乃至第 12の実施の形態と同 一である。以下、説明を簡易にするために第 1の実施の形態との差分を述べる。
[0360] 本実施の形態における電子透力し埋め込み装置 100内の透かしパターン重畳部 1 30の処理につ!、て説明する。
[0361] 図 70は、本発明の第 13の実施の形態における透かしパターン重畳部の処理を説 明するための図である。
[0362] 透かしパターン重畳部 130は、フレーム画像と、当該フレーム表示時刻に基づいて 生成された透かしパターンを入力する。透かしパターン重畳部 130では、まず、透か しパターンをフレーム画像以下の所与のサイズまでサイズ変更して、その後フレーム 画像の中央領域に加算して、透かし入りフレーム画像を得る。
[0363] 次に、本実施の形態における電子透かし検出装置 200Fについて説明する。
[0364] 図 71は、本発明の第 13の実施の形態における電子透かし検出装置の構成を示す [0365] 同図に示す電子透かし検出装置 200Fは、テレビなどにディスプレイ表示されたァ ナログ動画像をカメラによりリアルタイムビデオキヤプチヤしたものや、あるいは、 MPE
Gエンコードされたようなディジタル動画像が入力される動画像入力部 210、差分画 像生成部 230、検出対象領域抽出部 220、電子透かし検出部 240、及びフレーム画 像バッファ 301から構成される。
[0366] 上記の構成における動作を説明する。
[0367] 図 72は、本発明の第 13の実施の形態における電子透かし検出装置の動作のフロ 一チャートである。
[0368] ステップ 1501) 動画像入力部 210において、アナログまたはディジタル動画像を 入力し、順次フレーム画像を取得する。アナログ動画像の入力の際はカメラゃスキヤ ナ、あるいはアナログビデオ信号などを入力してフレーム画像を取得し、ディジタル 動画像であれば、デコード処理などを行ってフレーム画像を取得する。
[0369] ステップ 1502) 次に、差分画像生成部 230において、現在取得したフレーム画像 と、フレーム画像バッファ 301に蓄積されている、以前に取得したフレーム画像との差 分を取り、差分フレーム画像を生成する。
[0370] ステップ 1503) また、次の検出試行に備えて、フレーム画像バッファ 301に今回 のフレーム画像をバッファリングしておく。
[0371] ステップ 1504) 次に、検出対象領域抽出部 220において、差分フレーム画像中 の、透かし検出の対象となる検出対象領域を抽出して検出対象領域画像を取得する
[0372] ステップ 1505) 続いて、電子透かし検出部 240において、検出対象領域画像か ら電子透かし検出を試み、検出結果を出力する。
[0373] ステップ 1506) 電子透かし検出が成功しな力つた場合は、動画像入力部 210に おいて次のフレーム画像を取得して上記の処理を順次繰り返す。
[0374] 次に、上記の差分画像生成部 230の処理を詳細に説明する。
[0375] 図 73は、本発明の第 13の実施の形態における差分画像生成部の処理を説明する ための図である。 [0376] 差分画像生成部 230は、現在取得したフレーム画像と、フレーム画像バッファ 301 に蓄積されている、以前に取得したフレーム画像との差分を取り、差分フレーム画像 を生成する。ここで、上記 2枚のフレーム画像を撮影しているときのカメラの動きが殆 ど無いとする。図 73のように、差分フレーム画像では透かしパターンの切り替えによ つて生じた差分の変化の大き!/、部分と、変化の無!、背景部分が区別可能となる。
[0377] 次に、検出対象領域抽出部 220の処理を詳細に説明する。
[0378] 図 74は、本発明の第 13の実施の形態における検出対象領域抽出部の処理を説 明するための図である。
[0379] 検出対象領域抽出部 220は、差分フレーム画像を入力とし、差分フレーム画像中 の、透かし検出の対象となる検出対象領域を抽出して、検出対象領域画像を取得す る。図 74では、差分フレーム画像を絶対値化して、文献 3の縁検出方法を用いて検 出対象領域の歪みパラメータを検出し、絶対値化する前の元の差分フレーム画像の 歪み補正、サイズ正規ィ匕を行って検出対象領域画像としている。このようにして得ら れた検出対象領域画像は埋め込み時の基本透かしパターンとノイズによる影響など を除いて同一であるから、電子透力しの検出が可能になることは、第 1乃至第 12の実 施の形態の内容から明らかである。
[0380] また、本実施の形態は、第 1乃至第 12の各々の工夫を任意に組み合わせても実施 できることも自明である。
[0381] く本実施の形態の効果〉
本実施の形態における効果を図 75〜図 77を用いて説明する。
[0382] まず、第 1乃至第 12の実施の形態における電子透力し埋め込みにおいては、入力 された動画像のフレームサイズと同じサイズの透かしパターンが重畳されて 、た。ま た、電子透かし検出時は、カメラでキヤプチヤしたフレーム中のテレビ受像機の表示 領域の縁を検出するなどして検出対象領域を抽出していた。しかし、図 75に示すよう に、テレビ受像機の形状など動画像の再生環境は一定ではな 、ことが考えられるた め、図 75 (A)のように、正しく表示画面領域を検出対象領域として抽出した場合は電 子透力しの検出に成功する力 図 75 (B)の例のようにテレビ受像機の外側を縁検出 してしまったり、図 75 (C)の例のようにテレビ受像機の表示画面の外側に付けられた 枠状の意匠を検出してしまったりして、検出対象領域を正しく抽出できないことが有り 得る。
[0383] この場合、差分画像上では透かしパターン差分画像の内側に縮小された形になつ てしまい、正しくブロック分割ができないことから第 1乃至第 12の方法では、電子透か しの検出に失敗してしまう。
[0384] また、図 76の例に、もともとの動画像がアスペクト比 16 : 9のワイド映像であったとし 、これをアスペクト比 4 : 3のモニタに表示することを考える。この場合、一般によく用い られる表示の仕方として、ワイド画面の左右の端を切り取って表示したり、あるいは、 1 6: 9のワイド画面が 4: 3の画面に収まるように縮小して画面上に押し込める、と!、つた ことがある。このようにして表示された場合に、検出対象領域抽出によって表示画面 の縁が正しく検出できたとしても、そもそも表示されて 、る映像自体が一部切り取られ ていたり、余計な余白がついていたりするため、図 75の例と同様に、電子透かし検出 に失敗してしまう。また、画面の端が切り取られるという問題については、ワイド映像の みならず、例えば、ブラウン管表示の際に、映像信号の端の部分はそもそも表示され ないという、いわゆるオーバースキャンによって映像信号の一部が切り取られ、電子 透力しの検出が困難になることが考えられる。
[0385] 本実施の形態は、この問題を解決するためのものであり、透かしパターンをフレー ム画像のサイズよりも小さくし、フレーム画像の中央領域に重畳する。これによつて、 例えば、ワイド画面を 4 : 3表示する際のフレーム画像の欠けを見込んで、確実に表示 される領域のみに透かしパターンを重畳することができる。しかしこのままでは検出時 に検出対象領域と透かしパターンの領域が一致しない。このため、本実施の形態で は、図 73のように、キヤプチヤしたフレーム画像間の差分フレーム画像を生成し、図 7 4のように差分フレーム画像力も検出対象領域を抽出するようにする。カメラ撮影時に カメラの動きが殆どな 、とすると、差分フレーム画像では透かしパターンの切り替えに よって、検出対象領域のみが差分 (の絶対値)が大きい状態になる。これによつて縁 を用いた矩形認識技術などにより検出対象領域を抽出し、図 77及び図 78のように、 電子透かし検出が可能となる。
[0386] [第 14の実施の形態] 本実施の形態は、以下に説明する部分を除いて、第 13の実施の形態と同一である
[0387] 図 79は、本発明の第 14の実施の形態における基本透かしパターン生成部の処理 の例を説明するためのである。
[0388] 本実施の形態における透かしパターン生成部 120の基本透かしパターン生成部 1 21は、第 1乃至第 12の実施の形態と同様にして生成される基本透かしパターンに、 プラス/マイナスの画素値を用いて枠を付加し、これを基本透かしパターンとする。
[0389] 図 80は、本発明の第 14の実施の形態における検出対象領域抽出部の処理を説 明するための図である。
[0390] 検出対象領域抽出部 220は、差分フレーム画像を入力とし、差分フレーム画像中 の透かし検出の対象となる検出対象領域を抽出して検出対象領域画像を取得する。 図 80では、差分フレーム画像に対して、文献 3の縁検出方法を用いて検出対象領域 の歪みパラメータを検出し、歪み補正、サイズ正規化を行って検出対象領域画像とし ている。このようにして得られた検出対象領域画像は埋め込み時の基本透かしパタ ーンとノイズによる影響などを除いて同一であるから、電子透力しの検出が可能となる ことは、第 1乃至第 12の実施の形態の内容から明らかである。
[0391] また、本実施の形態は、第 1乃至第 13の実施の形態の各々の工夫を任意に組み 合わせても実施できることも自明である。
[0392] く本実施の形態の効果〉
本実施の形態の効果を、図 81A、 Bを用いて説明する。まず、第 13の実施の形態 における検出対象領域抽出処理は、差分フレーム画像の絶対値を用いて縁検出な どを行うことで領域抽出をしていた。この際、縁部分のエッジのコントラストは、差分フ レーム画像の絶対値ィ匕であるため、ノイズの影響などを無視すれば、埋め込み時の 透かしパターン振幅の 2倍の差がある。
[0393] 本実施の形態では、基本透かしパターンとして、第 1乃至第 12の実施の形態にお ける基本透かしパターンにプラス/マイナスの画素値を持つ枠を付加する。また、検 出対象領域抽出時には、差分フレーム画像のまま、縁認識などを行うことで領域抽 出を行う。このため、縁部分のエッジのコントラストは、埋め込み時の透かしパターン 振幅の 4倍となり、第 13の実施の形態と比べてエッジの検出がしゃすくなる。このた め、検出対象領域の抽出がより確実に高い信頼度で行えるようになり、電子透かしの 検出性能向上を実現できる。
[0394] [第 15の実施の形態]
本実施の形態は、以下に説明する部分を除いて、第 14の実施の形態と同一である
[0395] 本実施の形態の電子透力し埋め込み装置における透かしパターン生成部 120内 の基本透かしパターン生成部 121の処理について説明する。
[0396] 図 82は、本発明の第 15の実施の形態における基本透かしパターン生成部の処理 の例を説明するための図である。
[0397] 本実施の形態における基本透かしパターン生成部 121は、第 1乃至第 12の実施の 形態と同様にして生成される基本透かしパターンに、プラス Zマイナスの画素値を用 いて位置合わせマーカを付カ卩し、これを基本透かしパターンとする。第 14の実施の 形態における枠も位置合わせマーカの一例と考えられる。図 82では、位置合わせマ 一力として QRコード (登録商標)などの 2次元コードで用いられているコーナーを見 つけるための位置あわせマーカを付加する。なお、図 82の基本透かしパターンは、 実は QRコード (登録商標)そのものの画素値をプラス Zマイナス化したものであるが 、このように 2次元コードそのものを基本透かしパターンとして用いても問題な 、。
[0398] 次に、本実施の形態における検出対象領域抽出部 220について説明する。
[0399] 図 83は、本発明の第 15の実施の形態における検出対象領域抽出部の処理を説 明するための図である。
[0400] 検出対象領域抽出部 220は、差分フレーム画像を入力とし、差分フレーム画像中 の透かし検出の対象となる検出対象領域を抽出して検出対象領域画像を取得する。 図 83では、差分フレーム画像に対して通常の QRコード (登録商標)読み取り時の位 置合わせマーカ検出と同様の方法により、検出対象領域を抽出している。
[0401] なお、本実施の形態のように 2次元コードを基本透かしパターンとして 、る場合につ いて、電子透かし検出部 240は、 2次元コードの読み取り処理を行うものと考えれば 問題なく透力し情報を検出できることは明らかである。また、本実施の形態は、第 1乃 至第 12の実施の形態の各々の工夫を任意に組み合わせても実施できることも自明 である。
[0402] く本実施の形態の効果〉
本実施の形態では、第 14の実施の形態で枠であった位置合わせマーカを、コーナ 一を特定するマーカとした場合の例について示した。本実施の形態の場合も、第 14 の実施の形態と同様差分フレーム画像中の明暗のコントラスト差が埋め込み時の透 かしパターン振幅の 4倍となり、検出性能が向上する。
[0403] また、本実施の形態により、透かしパターン生成の方法として既存の 2次元コードの パターンを容易に転用できることがわかる。これによつて電子透力し埋め込み '検出 装置の一部を既存の部品を使いまわすことによるコスト削減効果も得られる。
[0404] [第 16の実施の形態]
本実施の形態では、特徴領域の歪みの補正、サイズ正規化を行った特徴領域画 像間の差分画像から検出対象領域を抽出する例を説明する。
[0405] 本実施の形態は、以下に説明する部分を除いて、第 13乃至第 15の実施の形態と 同一である。
[0406] 本実施の形態の電子透かし検出装置について説明する。
[0407] 図 84は、本発明の第 16の実施の形態における電子透かし検出装置の構成を示す 。同図に示す電子透かし検出装置 200Gは、動画像入力部 210、特徴領域抽出部 2 90、差分画像生成部 230、検出対象領域抽出部 220、電子透かし検出部 240、及 び、特徴領域画像バッファ 302から構成される。
[0408] 次に、上記の構成における電子透かし検出装置の動作を説明する。
[0409] 図 85は、本発明の第 16の実施の形態における電子透かし検出装置の動作のフロ 一チャートである。
[0410] ステップ 1601) 動画像入力部 210において、テレビなどのディスプレイ表示され たアナログ動画像をカメラによりリアルタイムビデオキヤプチヤしたものや、あるいは、 MPEGエンコードされたようなディジタル動画像が入力されると、順次フレーム画像を 取得する。アナログ動画像の入力の際は、カメラやスキャナ、あるいはアナログビデオ 信号などを入力してフレーム画像を取得し、ディジタル動画像であれば、デコード処 理などを行ってフレーム画像を取得する。
[0411] ステップ 1602) 次に、特徴領域抽出部 290において、フレーム画像中の特徴領 域を抽出する。特徴領域抽出には、文献 3の縁認識による矩形領域検出などの技術 を用いる。抽出された特徴領域はカメラ撮影角度などによって生じる歪みを補正し、 サイズを正規化した上で特徴領域抽出画像として出力される。
[0412] ステップ 1603) 次に、差分画像生成部 230において、現在取得した特徴領域画 像と、特徴領域画像バッファ 302に蓄積されている、以前に取得した特徴領域画像と の差分を取り、特徴領域差分画像を生成する。
[0413] ステップ 1604) また、次の検出試行に備えて、特徴領域画像バッファ 302に今回 の特徴領域画像をバッファリングしておく。
[0414] ステップ 1605) 次に、検出対象領域抽出部 220において、特徴領域差分画像中 の、透かし検出の対象となる検出対象領域を抽出して検出対象領域画像を取得する
[0415] ステップ 1606) 続いて、電子透かし検出部 240において、検出対象領域画像か らの電子透かし検出を試み、検出結果を出力する。
[0416] ステップ 1607) 電子透かし検出が成功しな力つた場合は、動画像入力部 210に おいて次のフレーム画像を取得して上記の処理を順次繰り返す。
[0417] 次に、上記の特徴領域抽出部 290の処理の内容を説明する。
[0418] 図 86〜図 90は、本発明の第 16の実施の形態における特徴抽出部の処理を説明 するための図である。
[0419] 特徴領域抽出部 290は、フレーム画像を入力とし、フレーム画像中の特徴領域を 抽出する。特徴領域抽出には、文献 3の縁認識による矩形領域検出などの技術を用 いる。抽出された特徴領域は、カメラ撮影角度などによって生じる歪みを補正し、サイ ズを正規化した上で特徴領域抽出画像として出力される。文献 3のような矩形領域抽 出技術を用いることで、図 86や図 90のように、テレビの表示領域を特徴領域として検 出したり、図 87や図 89のようにテレビの筐体の外側を特徴領域としたり、あるいは、 図 88のようにテレビの表示画面の外側にある枠状の意匠を特徴領域として検出した り、あるいは図示しないがテレビの背景にある矩形領域などを特徴領域とするケース など、入力されたフレーム画像の内容によって、特徴領域がどのような領域となるか は様々なケースがあり得るが、重要な点は、撮影角度の違いによらず、同一の対象を 撮影している場合には、各フレーム画像カゝら検出される特徴領域が実質的に同じで あるようになっていれば、歪みを補正し、サイズを正規化して得られる特徴領域画像 は、図 86〜図 90のようにキヤプチャ時刻によって刻々と変化する撮影角度などに対 して同じ状態で得られるということである。
[0420] 上記の「撮影角度の違いによらず、同一の対象を撮影している場合には、各フレー ム画像力 検出される特徴領域が実質的に同じ」という条件を満たしてさえいれば、 特徴領域が図 86や、図 90の例のように、どのような状態で検出されても構わない。こ のような条件を満たすフレーム画像中からの安定的な特徴領域抽出方法であれば、 文献 3のような縁線を利用した矩形領域検出に限らず、どのような方法を用いてもよ い。
[0421] 次に、差分画像生成部 230の処理の内容について説明する。
[0422] 図 91〜図 93は、本発明の第 16の実施の形態における差分画像生成部の処理を 説明するための図である。
[0423] 差分画像生成部 230は、現在取得した特徴領域画像と、特徴領域画像バッファ 30 2に蓄積されている、以前に取得した特徴領域画像との差分を取り、特徴領域差分 画像を生成する。また、次の検出試行に備えて、特徴領域画像バッファ 302に今回 の特徴領域画像をバッファリングしておく。図 91〜図 93に示したとおり、特徴領域抽 出処理により、キヤプチャフレーム間のカメラ移動などに伴う歪みの違いは吸収される ため、特徴領域画像の時間差分で得られる特徴領域差分画像は、透かしパターン切 り替えによって生じる部分の変化量が大きぐその他の部分は殆ど差分がないという 形になる。これにより、第 13乃至第 15の検出対象領域抽出処理と同様に、特徴領域 差分画像から検出対象領域を抽出し、歪みを補正するなどした上で、電子透かし検 出を試みれば電子透力し情報の検出が可能となる。
[0424] く本実施の形態の効果〉
本実施の形態では、第 13乃至第 15の実施の形態の効果に加え、前提としていた「 撮影時のカメラに殆ど動きがない場合」という制約なしでも電子透かし検出が可能と なる。これはまずキヤプチャフレーム画像毎に特徴領域を抽出した上で歪みを補正 することでフレーム間の歪みの違!、を吸収してしま 、、その後の差分画像生成で確 実に透かしパターン部分の差分を位置ずれなく行うからである。これにより、カメラつ き携帯電話機を片手で持ってテレビに向けてキヤプチヤするなどといった際に生じる 手ぶれなどの影響を受けずに、電子透かし検出性能が向上することになる。
[0425] [第 17の実施の形態]
本実施の形態では、電子透かし検出状況が良好であったときの位置の近傍のみを 探索することにより特徴領域'検出対象領域の抽出を行う例を説明する。
[0426] 本実施の形態は、以下に説明する部分を除いて、第 13乃至第 16の実施の形態と 同一である。以下、第 16の実施の形態との差分を中心に説明する。
[0427] 最初に、電子透かし検出装置 200Gにおける特徴領域抽出部 290の処理の内容を 説明する。
[0428] 図 94は、本発明の第 17の実施の形態におけると特徴領域抽出部の処理を説明す るための図である。
[0429] 本実施の形態における特徴領域抽出部 290は、前回の電子透かし検出試行で検 出状況が良好であったときの特徴領域の位置や形状を覚えておき (何らかの方法で 記憶しておく)、今回入力されたフレーム画像力もの特徴領域の探索の際には、前回 の特徴領域の近傍のみ力 探索を行う。差分演算を行う 2枚のキヤプチャ時間間隔 では、カメラの移動はそれほど大きくないため、前回検出状況が良好であったときに は今回のフレーム画像にぉ 、てもその近傍に正解の特徴領域が存在する。この原理 を利用し、特徴領域探索範囲を狭めることでより安定的な特徴領域抽出を実現する。
[0430] なお、「検出状況が良好」とは、例えば、文献 1の検出信頼度指標値がある程度有 意な値であるが未だ電子透かし検出が成功していない状態であるとか、あるいは、第 8の実施の形態などのデータブロック毎検出の場合に、あるデータブロックの検出に 成功した、などといった状態、即ち、電子透かし検出部 240の検出状況から、電子透 力しの存在が有意に明らかである、といった場合を指すものとする。また、探索時の 近傍の大きさを、差分をとる 2枚のキヤプチャ時間間隔によって変動させるようにして もよい。例えば、キヤプチャ時間間隔が短い場合、カメラの移動量は少ないと予想で きるため、近傍を小さくとる。逆に、キヤプチャ時間間隔が長い場合、カメラの移動量 が大きい場合もありうると予想できるため、近傍を大きくとる、などとしてもよい。
[0431] 本実施の形態における、検出対象領域抽出部 220の処理の内容を説明する。
[0432] 図 95は、本発明の第 17の実施の形態における検出対象領域抽出部の処理を説 明するための図である。
[0433] 検出対象領域を抽出する際にも特徴領域抽出部 290と同様に、前回の電子透かし 検出試行で検出状況が良好であったときの検出対象領域の位置や形状を覚えてお き (何らかの方法で記憶しておく)、今回入力された特徴領域差分画像からの検出対 象領域の探索の際には、前回の特徴領域の近傍力 探索を行う。これによつて検出 対象領域の探索も安定的になる。
[0434] なお、第 16の実施の形態に本実施の形態を適用した場合、カメラ移動などによる 歪み要因は特徴領域抽出処理により吸収されているため、図 95のように前回と今回 の検出対象領域はほぼ同一となり、近傍サイズを小さめにとつても構わない。検出対 象領域の抽出に失敗する要因として考えられるものは、動画像自体が動きのあるシ ーンの場合に、差分に透かしパターンだけでなく動画像の動き成分もノイズとして現 れてしまうようなケースであるが、近傍サイズを小さくしておけば検出対象領域の探索 が非常に安定的になる。
[0435] また、第 13乃至第 15の実施の形態に本実施の形態を適用した場合は、そもそも力 メラの動きが大きい場合は電子透力しの検出が困難であるので、この場合も同じく近 傍領域を小さくとってよぐ検出対象領域の探索が非常に安定的になる。
[0436] また、本実施の形態を第 1乃至第 12の実施の形態における電子透かし検出装置に おける検出対象領域抽出部 220に適用することも容易である。この場合、前回の電 子透かし検出試行で検出状況が良好であったとき、前回の検出対象領域の近傍か ら、今回のフレーム画像中の検出対象領域を探索するようにすればよい。
[0437] なお、本実施の形態では、「前回の電子透かし検出試行において検出状況が良好 であった」場合を利用する例を示したが、前回に限らず「時間的に近い良好な電子透 かし検出試行時」の特徴領域、あるいは、検出対象領域を利用するようにしてもよい。
[0438] また、一定時間電子透かし検出情報が良好ではない状態が続いた場合は、近傍探 索を行わず、第 13乃至第 16の実施の形態と同様に処理を行うようにしてもよい。
[0439] く本実施の形態の効果〉
本実施の形態では、第 13乃至第 15の実施の形態の効果に加え、特徴領域あるい は検出対象領域の安定性、信頼性が向上するため、電子透かし検出性能の向上を 実現できる。特に、特徴領域あるいは検出対象領域の検出方法があまりロバストでな い場合に、大きな効果があり、電子透かし検出性能の大幅な向上をもたらす。
[0440] [第 18の実施の形態]
本実施の形態は、以下に説明する部分を除いて、第 14乃至第 17の実施の形態と 同一である。以下、第 14の実施の形態との差分を中心に説明する。
[0441] 本実施の形態の電子透かし検出装置における検出対象領域抽出部 220の処理に ついて説明する。
[0442] 図 96〜図 99は、本発明の第 18の実施の形態における検出対象領域抽出部の処 理を説明するための図である。
[0443] 差分フレーム画像からの検出対象領域抽出処理は、第 14の実施の形態の透かし ノターンが埋め込まれた動画像のフレーム間差分画像力も行われる。この際、第 14 の実施の形態では、予め検出対象領域抽出を高精度に行うために、基本透かしバタ ーンに対して外側:明、内側:暗の枠パターンが付加されている(なお、明'喑は画素 値の大小を表すために用いており、輝度値のみに限定されるべきものではないことは 、第 1の実施の形態で述べたとおりである)。検出対象領域抽出部 220では、差分フ レーム画像中から検出対象領域探索の際に、枠部分の画素値変化を調べる。図 96 の例では、検出対象領域の外側:明、内側:暗となっているので、検出対象領域画像 中の透かしパターンは、埋め込み時の基本パターンと同相(正位相)であると判断し、 第 4の実施の形態などで用いたように、電子透かし検出処理にこの位相情報を利用 することができる。図 97は、位相が逆転している例を示す。検出対象領域の縁部分を 調べることで、正位相 Z逆相が判定できることがわかる。
[0444] また、本実施の形態を第 15の実施の形態に適用した場合の例を図 98、図 99に示 す。この例では、 QRコード (登録商標)の位置合わせマーカの基礎パターンと、検出 対象領域から見つけた位置合わせパターンが正の相関を持つときは正位相と判断し (図 98)、負の相関を持つとき逆相と判定する(図 99)。また、逆相であった場合は、 検出対象領域画像の位相を反転してから電子透かし検出を試行してもよ!/ヽ。反転を する理由は、既存の 2次元コードの読み取り方法は、位相反転したコードの認識に対 応して、、な 、ことが多 、ため、既存の 2次元コード読み取り処理を使 、まわす際に必 要だからである。
[0445] 本実施の形態を第 16の実施の形態に適用する場合は、検出対象領域抽出部 220 の入力が、差分フレーム画像ではなく特徴領域差分画像となることのみで、それ以外 は上記と同様の処理を行えばよいことは自明である。
[0446] く本実施の形態の効果〉
本実施の形態では、検出対象領域の抽出信頼性向上のために基本透かしパター ンに付加された枠や位置合わせマーカなどのパターンを用いて、抽出した検出対象 領域の当該パターン部分の位相が基本透かしパターンの時と同相力否かによって、 検出対象領域画像中の透かしパターンの正位相 Z逆相を判定して 、る。この位相情 報を用いて第 4の実施の形態などで示した検出性能向上が図れる。
[0447] また、本実施の形態によれば、枠や位置合わせマーカなどのパターン力 検出対 象領域抽出信頼度向上と位相情報取得の二役をこなすので、一石二鳥である。即ち 、位相合わせのために透力し情報にフラグを付加することによって透かレ f青報のビッ ト長を短くしたり、透かレ f青報にとってはノイズとなる位相判定信号を多重化する必要 がなくなるので、電子透かし検出性能が向上する。
[0448] [第 19の実施の形態]
本実施の形態は、以下に示す部分を除いて第 13乃至第 18の実施の形態と同一で ある。
[0449] 図 100は、本発明の第 19の実施の形態における電子透かし検出装置の構成を示 す。
[0450] 同図に示す電子透かし検出装置 200Hは、動画像入力部 210、差分画像生成部 2 30、検出対象領域抽出部 220、電子透かし検出部 240、フレーム画像バッファ 301 、差分フレーム画像バッファ 303から構成される。
[0451] 第 13の実施の形態との違いは、検出対象領域抽出部 220の処理内容と、新たに 差分フレーム画像バッファ 303を設けた点である。
[0452] 図 101は、本発明の第 19の実施の形態における電子透かし検出装置の動作のフ ローチャートである。
[0453] ステップ 1701) 動画像入力部 210において、アナログまたはディジタル動画像を 入力し、順次フレーム画像を取得する。アナログ動画像の入力の際はカメラゃスキヤ ナ、あるいはアナログビデオ信号などを入力してフレーム画像を取得し、ディジタル 動画像であれば、デコード処理などを行ってフレーム画像を取得する。
[0454] ステップ 1702) 次に、差分画像生成部 230において、現在取得したフレーム画像 と、フレーム画像バッファ 301に蓄積されている、以前に取得したフレーム画像との差 分を取り、差分フレーム画像を生成する。
[0455] ステップ 1703) 今回入力されたフレーム画像を差分フレームバッファ 301にバッフ ァリングする。
[0456] ステップ 1704) 今回得られた差分フレーム画像を差分フレームバッファ 301に加 算蓄積する。
[0457] ステップ 1705) 差分フレームバッファ 301中の加算蓄積された差分フレーム画像 から、透かし検出の対象となる検出対象領域を抽出して、検出対象領域画像を取得 する。
[0458] この際、図 102に示すように、差分フレーム画像の画素値を絶対値化してから差分 フレーム画像バッファ 303に加算蓄積し、差分フレーム画像バッファ 303に加算蓄積 された差分フレーム画像から検出対象領域を抽出し、今回の差分フレーム画像の当 該検出対象領域の画像を歪み補正、サイズ正規化を行って検出対象領域画像とし てもよい。この方法だと、差分フレーム画像の絶対値画像を加算蓄積するので、入力 された差分フレーム画像中の透かしパターンの位相によらず、加算蓄積によって検 出対象領域と背景領域のコントラストが高まり、検出対象領域の抽出信頼度が増す。
[0459] あるいは、第 3の実施の形態のように、透かしパターン切り替え情報で表される透か しパターンの切り替えタイミングと同期をとつて差分フレーム画像を生成できる場合な どでは、得られた差分フレーム画像中の透かしパターン力 基本透かしパターンと同 相 Z逆相のどちらであるかはキヤプチヤの開始タイミングなどにより判別はできないが 、今回得られた差分フレーム画像は以前に得られた差分フレーム画像と同相力否か 判別可能である (例えば、図 31の例では、同じ位相状態が差分画像一つ置きに得ら れる)。これを用いて図 103のように差分フレーム画像バッファ 303に蓄積する差分 画像の位相を揃え、差分フレーム画像バッファ 303に加算蓄積し (結果としては基本 透かしパターンと同相のもののみが加算される力 逆相のもののみが加算されるかの どちらかである)、差分フレーム画像バッファ 303に加算蓄積された差分フレーム画 像を絶対値化してから検出対象領域を抽出し、差分フレーム画像バッファ 303にカロ 算蓄積された差分フレーム画像の当該検出対象領域の画像を歪み補正、サイズ正 規ィ匕を行って検出対象領域画像としてもよい。この方法だと、加算蓄積によって透か しパターンも強調され、検出対象領域抽出信頼度の向上のほか、電子透かし検出性 能が向上すると!、う効果も得られる。
[0460] ステップ 1706) 続いて、電子透かし検出部 240において、検出対象領域画像か ら電子透かし検出を試み、検出結果を出力する。
[0461] ステップ 1707) 電子透かし検出が成功しな力つた場合は、動画像入力部 210に おいて次のフレーム画像を取得して上記の処理を順次繰り返す。
[0462] また、本実施の形態を第 16の実施の形態に適用した場合の電子透かし検出装置 について説明する。
[0463] 図 104は、本発明の第 19の実施の形態における電子透かし検出装置の構成を示 す。
[0464] 同図に示す電子透かし検出装置 2001は、動画像入力部 210、特徴領域抽出部 29 0、差分画像生成部 230、検出対象領域抽出部 220、電子透かし検出部 240、特徴 領域バッファ 302、特徴領域差分画像バッファ 304から構成される。
[0465] 第 16の実施の形態との違いは、検出対象領域抽出部 220の処理内容と新たに特 徴領域差分画像バッファ 304を用意した点である。
[0466] 図 105は、本発明の第 19の実施の形態における電子透かし検出装置の動作のフ ローチャート(第 16の実施の形態に適用)である。
[0467] ステップ 1801) 動画像入力部 210において、テレビなどのディスプレイ表示され たアナログ動画像をカメラによりリアルタイムビデオキヤプチヤしたものや、あるいは、 MPEGエンコードされたようなディジタル動画像が入力されると、順次フレーム画像を 取得する。アナログ動画像の入力の際は、カメラやスキャナ、あるいはアナログビデオ 信号などを入力してフレーム画像を取得し、ディジタル動画像であれば、デコード処 理などを行ってフレーム画像を取得する。
[0468] ステップ 1802) 次に、特徴領域抽出部 290において、フレーム画像中の特徴領 域を抽出する。特徴領域抽出には、文献 3の縁認識による矩形領域検出などの技術 を用いる。抽出された特徴領域はカメラ撮影角度などによって生じる歪みを補正し、 サイズを正規化した上で特徴領域抽出画像として出力される。
[0469] ステップ 1803) 次に、差分画像生成部 230において、現在取得した特徴領域画 像と、特徴領域画像バッファ 302に蓄積されている、以前に取得した特徴領域画像と の差分を取り、特徴領域差分画像を生成する。
[0470] ステップ 1804) また、次の検出試行に備えて、特徴領域画像バッファ 302に今回 の特徴領域画像をバッファリングしておく。
[0471] ステップ 1805) 検出対象領域抽出部 220において、特徴領域差分画像を特徴領 域差分画像バッファ 304に蓄積する。
[0472] この際、図 106、図 107に示すように、特徴領域差分画像バッファ 304に蓄積する 特徴領域差分画像の位相を揃え、特徴領域差分画像バッファ 304に加算蓄積する ようにする。位相の揃え方は、上記の透かしパターン切り替えタイミングとの同期のほ 力 第 6の実施の形態や第 17の実施の形態に示したような方法を利用することがで きる。この結果、特徴領域差分画像バッファ 304には、基本透かしパターンと同相の もののみが加算されるか、逆相のもののみが加算されるかのどちらかになる。
[0473] ステップ 1806) 次に、特徴領域差分画像バッファ 304に加算蓄積された特徴領 域差分画像から透かし検出の対象となる中の検出対象領域を抽出し、歪み補正、サ ィズ正規化を行って検出対象領域画像を取得する。
[0474] ステップ 1807) 続いて、電子透かし検出部 240において、検出対象領域画像か らの電子透かし検出を試み、検出結果を出力する。
[0475] ステップ 1808) 電子透かし検出が成功しな力つた場合は、動画像入力部 210に おいて次のフレーム画像を取得して上記の処理を順次繰り返す。 [0476] 上記のように、位相を揃えた加算蓄積により、一枚の差分画像のみよりも相対的に 検出対象領域の透かしパターンが際立っため、検出対象領域の抽出信頼度が向上 するほか、第 6の実施の形態と同様、電子透力しの検出性能が向上する。
[0477] く本実施の形態の効果〉
本実施の形態では、差分フレーム画像あるいは、特徴領域差分画像を蓄積して、 相対的に透かしパターンの強度を強めて力も検出対象領域を抽出することにより、検 出対象領域の抽出信頼性向上を実現している。
[0478] また、特に、差分画像中の透かしパターンの位相を揃えて加算蓄積を行うことで検 出対象の信頼性向上のみならず、電子透力しの検出性能向上を同時に実現できる。 一般に透かしパターンは人間に知覚できない程度に微弱な振幅で画像に付加され るため、一枚の差分画像の中では明確に検出対象領域を特定できないことがありうる 。本実施の形態は上記の工夫によりこの問題を解決できる。
[0479] [第 20の実施の形態]
本実施の形態は、以下に説明する部分を除いて、第 1乃至第 19の実施の形態と同 一である。以下、第 13の実施の形態との差分を中心に説明する。
[0480] 本実施の形態の電子透かし埋め込み装置 100内の透かしパターン重畳部 130の 処理について説明する。
[0481] 図 108、図 109は、本発明の第 20の実施の形態における透かしパターン重畳部の 処理を説明するための図である。
[0482] 透かしパターン重畳部 130は、フレーム画像と、当該フレーム表示時刻に基づいて 、生成された透かしパターンを入力する。このとき、一枚のフレーム画像に複数の透 かしパターンが重畳できるように、必要に応じて透かしパターンが複数枚生成されて いるものとする。例えば、異なる 3つの情報を表す 3枚の透かしパターンが与えられて いるとする。透かしパターン重畳部 130では、各々の透かしパターンの振幅を適宜調 整し、各透かしパターンの表す情報と関連付けたいフレーム画像中のオブジェクトに 合わせての位置、サイズを調整してフレーム画像に重畳する。図 108では、フレーム 画像中の相異なる 3つのオブジェクト領域に透かしパターンを重畳する例を示してい る。あるいは、図 109のように、画像全体に相当する透かしパターンの中に、オブジェ タトに対応する透かしパターンを入れ子のように重畳する、としてもよい。この場合、入 れ子になっている内側の透かしパターンの値で外側の透かしパターンの値を上書き するようにしてもよい。また、図 109では、第 14の実施の形態や第 15の実施の形態 のように、透かしパターンに検出対象領域抽出用のマーカなどが付けられているとす る。
[0483] 次に、本実施の形態における電子透かし検出装置の差分画像生成部 230の処理 について説明する。
[0484] 図 110は、本発明の第 20の実施の形態における差分画像生成部の処理を説明す るための図である。
[0485] 差分画像生成部 230の処理自体は、第 13の実施の形態と完全に同じである力 入 力されるフレーム画像中の透かしパターン領域が複数個存在するため、図 110のよう に、差分フレーム画像には複数の透かしパターン領域が得られる。
[0486] 次に、本実施の形態における検出対象領域抽出部 220の処理について説明する。
[0487] 図 111、図 112は、本発明の第 20の実施の形態における検出対象領域抽出部の 処理を説明するための図である。第 13の実施の形態と同様に、差分フレーム画像の 画素値の絶対値をとつて矩形領域を探索すると、図 111のように 3つの検出対象領 域を見つけることができる。 3つの検出対象領域毎に検出対象領域画像を生成し、そ れぞれ電子透かし検出試行を行うようにする。
[0488] また、図 109のような透かしパターン重畳を行った場合の検出対象領域抽出部 220 の処理の内容を図 112を用いて説明する。差分フレーム画像中で透かしパターン領 域が入れ子になっていたとしても、第 14の実施の形態や第 15の実施の形態のような 位置合わせのためのマーカなどを用いれば、入れ子構造の検出対象領域を見つけ ることができ、それぞれ毎に検出対象領域画像を生成して電子透かし検出試行を行 うようにする。なお、図 112において、外側の透かしパターンの中には、内側の透かし パターンが入れ子になっており、この領域については外側の透かしパターンの模様 が残っていないが、電子透力し方式自体が持つロバスト性により、パターンの欠損に 対しても対応できるため、電子透かし検出は可能である。
[0489] 次に、本実施の形態における電子透かし検出装置 200のフィードバック出力の例を 示す。
[0490] 図 113〜図 116は、本発明の第 20の実施の形態における電子透かし検出装置の フィードバック出力の例を示す。
[0491] 検出対象領域毎に得られた検出状況は、電子透かし検出装置 200の表示画面上 で、検出対象領域の位置やサイズなどに合わせてプレビュー画面に合成される。図 1 13では、 3つの検出対象領域からの電子透かし検出状況を、もともとの透かしパター ンに関連付けられたオブジェクト位置に合成して表示している。
[0492] また、図 114では、入れ子になった 2つの検出対象領域からの電子透かし検出状 況の合成の例を示して 1、る。このように複数の電子透かし検出対象領域が得られた 場合、それぞれの電子透かし検出状況を同時にフィードバックすることが可能である
[0493] また、図 115や図 116のように、表示画面の一部分をズームインして撮影している 場合には、その撮影部分のみの電子透かし検出状況を出力できる。これを用いれば 、例えば、表示画面中の複数のオブジェクトからいくつかを選択するような指示を電 子透かし検出を用 Vヽて実現できる。
[0494] なお、本実施の形態は、第 1乃至第 19の実施の形態における工夫を任意に組み 合わせても実施できることは自明である。
[0495] く本実施の形態の効果〉
本実施の形態によれば、動画像の 1フレーム中に複数の透かしパターンを重畳して 埋め込みを行い、カメラキヤプチヤで得られるフレーム画像中の複数の検出対象領 域を抽出して各々電子検出を行う。これによりフレーム画像中のオブジェクトに関連 付けた電子透力しの埋め込み ·検出が可能となり、利便性が向上する。また、撮影時 に特定のオブジェクトにズームインしてキヤプチャ ·検出を行うことで、画面中の特定 のオブジェクトを選択するようなユーザインタフェースに利用できる。
[0496] [第 21の実施の形態]
本実施の形態では、透力しの情報を透かしパターンの位相差分変動として埋め込 みを行う例を説明する。
[0497] 本実施の形態は、以下に説明する部分を除いて、第 1乃至第 20の実施の形態と同 一である。以下、第 1の実施の形態との差分を中心に説明する。
[0498] 本実施の形態における電子透力し埋め込み装置 100における透かしパターン生成 部 120について説明する。
[0499] 図 117は、本発明の第 21の実施の形態における透かしパターン切り替え情報の例 を説明するための図である。
[0500] 本実施の形態における透かしパターン切り替え情報は、パターンの反転について 直接的に指示する情報ではなぐ透かしパターンの周期と周期中の切り替えポイント を示すような情報である。
[0501] 図 118、図 119は、本発明の第 21の実施の形態における透かしパターン切り替え 部の処理を説明するための図である。
[0502] 透かしパターン切り替え部 122では、まず、入力された基本透かしパターンの濃淡 値を、位相差分変動パターンに変換する。変換のプロセスは、例えば、図 118のよう に 2値の基本透かしパターンである場合は、明 ·暗に対応する二つの位相差分変動 値を求め、基本透かしパターン上の明 ·暗それぞれの画素値を持つ画素位置に位相 差分変動値を対応付けることにより得られる。ここで 2値の位相変動差分値をどのよう にして求めるかであるが、図 118のように、透かしパターン切り替え情報が「3ZlO秒 で一周期となるように 1Z10秒毎に断続的に切り替え」である場合には、 3Z10秒が 一周期で切り替えタイミングが 1Z10秒であるから、 1Z10秒に 2 π Ζ3だけ位相を 変化させれば、 3Z10秒後に元の位相に戻るため、位相差分変動値を 2 π Ζ3、及 びその反対方向の 2 π Ζ3の 2値を用いるようにする。
[0503] 上記のようにして位相差分変動パターンを得た後、透かしパターン切り替え部 122 は、入力されたフレーム表示時刻を透かしパターン切り替え情報の時間軸にとり、切 り替えタイミング毎に、直前の透かし位相のパターンに位相差分変動パターンをカロえ る。図 118の例では、時刻 tO, tl, t2のタイミングで、透かし位相パターンに位相差 分変動パターンが加えられる。なお、動画像の先頭フレームなどにおける、透かし位 相パターンの初期値は、 0及び上記の差分変動値の 、ずれかを透かし位相パターン の各要素が任意に取るようにして設定されるものとする。
[0504] 上記のようにして透かし位相パターンを取得した後、透かしパターン切り替え部 122 は、透かし位相パターンを透かしパターンに変換する。変換の仕方としては、例えば
、図 119に示すように、透かし位相パターンの各要素値を、画像の 2つ以上の成分、 図では、 YcbCr表色系における Cbと Crを直交軸においた座標系における原点(0, 0 )を中心とした半径 r (rは所与の値)の円上の点に対応付ける。この結果得られる Cb — Crの座標系の Cb座標、 Cr座標を、当該透かし位相パターンの要素に対応する透 力しパターンの画素値として、全ての透かしパターンの画素値を求める。このようにし て得られた透かしパターンは、各画素複数の成分値を持つパターンとなる。
[0505] なお、本実施の形態では、 Cb、 Crを例として用いた力 RGB表色系の R—Gを用い たり、あるいは、 XYZ表色系における X— Yを用いたり、 HSV表色系の H-Sを用いたり など、様々な方法がありうる。
[0506] また、各軸毎の変動量に対する視覚感度が異なる場合には、適宜スケールを補正 して各軸の変動量と視覚感度が一致するようにしてもよい。本実施の形態では、 YCb Cr表色系では、 Yに比べて知覚されづら 、と 、う理由で Cbと Cr成分を用いた例を示 している。
[0507] また、複数の画像成分ではなぐ単一の成分、例えば、輝度成分などを用いて本実 施の形態を実施するには、第 1の実施の形態の変調方法 (A— 2)のように、基本透か しパターンに波形パターンを用いて、波形パターンの位相を変動させることで、本実 施の形態と同様に位相差分変動を用いた電子透かし埋め込みが実現できる。
[0508] このようにして得られた透かしパターン力 順次フレーム画像に重畳されることにより 、透かし入り動画像が得られることについては第 1の実施の形態と同様である。
[0509] 本実施の形態における電子透かし検出装置 200内の差分画像生成部 230の処理 について説明する。
[0510] 図 120は、本発明の第 21の実施の形態における差分画像生成部の処理を説明す るための図である。差分画像生成部 230は、第 1の実施の形態と同様の処理を行つ て差分画像を得た後、さらに、差分画像に修正を加える。修正の仕方の例は、図 12 0のように、差分画像の各画素について Cb、 Cr成分値 (cb,cr)を得て、これを埋め込 み時と同様に Cb-Crの直交座標系にプロットしたときの局座標表現 (R, 0 )を得る。 次に、 0が図中の丸印の角度(π Ζ6, π /2, π /6, 5 π /6, 7 π /ら, 3 π 2, 11 π Ζ6)のどれかに一番近いかを判定し、一番近力つた角度に割り当てられた符号 (+または一)を得る。最後に原点からの距離 Rにこの符号を掛けたものを求めて、差 分画像の当該画素の画素値として上書きする。これを全ての差分画像の画素に対し て行う。
[0511] 差分画像生成部 230以降の処理については第 1の実施の形態と同様である。
[0512] 次に、本実施の形態の原理について説明する。
[0513] 説明の前提として、本実施の形態における電子透かし検出装置においては、図 12 1のように、第 3の実施の形態と同様、透かしパターン切り替え情報に基づいてキヤプ チヤタイミング、差分タイミングが指定されているとする。図 121では、差分は 1Z10離 れた検出対象領域画像の差分を取るように指定されている。第 4の実施の形態など で述べたとおり、第 1乃至第 20の実施の形態で説明した電子透力し埋め込み '検出 方法では、差分取得のタイミングによって、得られた差分画像中の透かしパターンが 埋め込み時と同相か逆相かのどちらかになり、各種工夫により対応する必要があった
[0514] 図 122と図 123を用いて本実施の形態の原理を説明する。図 122は、埋め込み時 の位相差分変動パターン値が 2 π Ζ3の場合について、 1Z10秒離れた 2枚のフレ ームに埋め込まれた Cb-Cr成分値、即ち、埋め込み時の位相パターンに相当する値 と、差分によって得られる Cb-Cr値のありうるパターン全てを列挙したものである。この ように、埋め込み時の位相差分変動値が 2 π Ζ3であれば、差分画像中の Cb-Cr成 分値は、 π Ζ6, 5 π /6, 3 π Ζ2の 3つのうちのどれかの位相を持つ。
[0515] 位相差分変動値が 2 π Ζ3であった場合について、図 123に示す。この場合、差 分画像中の Cb- Cr成分値は、 7 π Ζ6, π /2, 11 π Ζ6の 3つのうちのどれかの位 相を持つ。即ち、位相差分変動値に応じて、差分画像中の Cb-Cr成分値は、 2つの グループに分類できる。これを用いれば、図 120のように検出時の Cb-Cr成分の位 相が 2つのグループのどちらに属するかを判定することで、キヤプチヤのタイミングに よらず、常に埋め込み時の位相差分変動値を一定に得ることができる。位相差分変 動値は、透力し情報を拡散した系列の項の値に対応しているので、結局キヤプチャタ イミングによらず差分力も得られる透かしパターン(図 120中に修正された差分画像 中の透かしパターンに相当)は反転することがなぐ埋め込み時の基本透かしパター ンと同相、ということになる。
[0516] この「差分力も得られる透かしパターン力タイミングによらず常に一定」と!、う特性は 、極めて重要である。例えば、第 1の実施の形態の変調方法 (A—1)は、差分画像中 の透かしパターンが反転すると、検出透かし除法のビットが反転するため、位相を特 定するために第 4の実施の形態や第 5の実施の形態のような工夫を必要として 、た。
[0517] また、第 1の実施の形態のその他の変調方法も、例えば、第 6の実施の形態や第 1 9の実施の形態のように、透力し情報や検出対象領域の検出性能向上のために差分 画像を蓄積する際に、位相を合わせる必要があるため、各種工夫を用いていたが、 本実施の形態を用いることで、この問題は一切解消し、差分の取り方によらず透かし パターンは一定であるから、当然検出透力 情報のビット反転は起きないし、差分画 像の加算蓄積の際に位相を気にすることなく単純に加算をするだけで済む。
[0518] また、第 8の実施の形態のように透力し情報をデータブロックに分割して時間方向 で順次埋め込みを行うような場合に、第 1の実施の形態のような変調方法では、図 12 4に示すようにデータブロックの境界に跨った差分画像では、正しくない透力し情報 を検出してしまう危険性があった。そのため安全を確保するためにはデータブロック 区間の間に透力 を埋め込まない区間を挟む必要があり、これによつて単位時間当 たりの透かレ f青報長が減ってしまうという問題があった。
[0519] しかし、本実施の形態を用いれば、透力しの情報は位相差分変動によって表される ので、直前のデータブロック終端での位相パターンに、今回のデータブロック情報を 表す位相差分変動を与えて埋め込みを行えば、検出時にデータブロック境界に跨つ た差分画像を得ても、その差分力 正しくデータブロック情報を検出することができる 。これによつて無用なブランクを挟み込まず連続的にデータブロックを切り替えて埋 め込み'検出をすることができるので、単位時間当たりの透力し情報量を増大させるこ とちでさる。
[0520] なお、本実施の形態を、第 1乃至第 20の実施の形態の各々の工夫を任意に組み 合わせても実施できることは自明である。
[0521] く本実施の形態の効果〉 本実施の形態によれば、透力しの情報を位相差分変動として埋め込みを行うので、 差分画像の取得タイミングによらず、一定の透かしパターンの含むように差分画像を 得ることができる。これによつて透力し情報のビット反転を防いだり、差分画像蓄積時 に位相を合わせる必要がなくなり、単純に差分画像を加算蓄積するようにすればよい ので、装置構成の単純化、処理の高速化、及び位相同期信号を不要とすることに透 力し情報長増大や耐性向上を実現できる。また、第 8の実施の形態のようなデータブ ロック利用型の場合に、データブロック間に無用なブランクを挟まなくても検出情報の 信頼性を担保できるので、単位時間当たりの透力し情報長の増大を実現できる。
[0522] [第 22の実施の形態]
本実施の形態は、以下に説明する部分を除いて、第 1乃至第 21の実施の形態と同 一である。
[0523] 以下、第 1の実施の形態との差分を説明する。
[0524] 電子透かし検出装置 200の差分画像生成部 230の処理につ 、て説明する。
[0525] 図 125は、本発明の第 22の実施の形態における差分画像生成部の処理を説明す るための図である。
[0526] 本実施の形態においては、差分画像生成部 230において、検出対象領域画像の 差分画像を生成した後、さらに、差分画像に対してフィルタ処理を施して出力する。
[0527] 図 126A、 Bは、本発明の第 22の実施の形態におけるフィルタ処理の例を説明する ための図である。説明のために差分画像を一次元信号として表している。図 126Aで は、差分画像の画素値の絶対値が所与の閾値以上の場合、閾値にクリッピングする という非線形フィルタ処理を施す。また、同図 Bでは、差分画像の画素値の絶対値が 所与の閾値以上の場合、画素値を 0にすると 、う非線形フィルタ処理を施す。
[0528] く本実施の形態の効果〉
本実施の形態によれば、動きのある動画像を撮影した場合に生じる大きな差分成 分をフィルタ処理によって抑圧することができる。一般に透かしパターンは微弱な振 幅で埋め込まれているので、画像自体の動きに起因する差分成分は、差分画像上 の大きな絶対値を持つ差分画素値として現れる。そのため、本実施の形態のような非 線形フィルタを用いれば、動画の動きによる差分成分を抑圧し、また、透かしパター ンの成分は抑圧しないので、透かしパターンの SZN比が向上するので、動きがある 動画像からの検出性能を向上させることが可能となる。
[0529] [第 23の実施の形態]
本実施の形態は、以下に説明する部分を除いて、第 1乃至第 22の実施の形態と同 一である。以下、第 1の実施の形態との差分を説明する。
[0530] 図 127は、本発明の第 23の実施の形態における透かしパターン重要部の処理を 説明するための図である。
[0531] 本実施の形態における透かしパターン重畳部 130は、順次入力されるフレーム画 像を過去数枚分蓄積する機能を有し、新たに入力された今回のフレーム画像と、以 前のフレーム画像との差分画像を生成する。以前のフレーム画像は直前のものでも 良いし、数フレーム前のものでもよい。次に、透かしパターンは、第 1乃至第 22の実 施の形態のように適宜スケーリングされる。次に、差分画像に基づいて、透かしパタ ーンの振幅を調整する。その後の処理は第 1乃至第 22の実施の形態と同様にフレ ーム画像に対して振幅が調整された透かしパターンを重畳するのみである。
[0532] 図 128は、本発明の第 23の実施の形態における透かしパターンの振幅調整の例 を説明するための図である。同図(1)では、差分画像の画素値の絶対値の総和を求 め、この総和の値に基づいて透かしパターン全体の振幅を調整する。調整の仕方は 、例えば、総和値に対して比例する値で振幅を増幅するなど、総和値が大きいほど 振幅が大きくなるようにする。あるいは、同図(2)のように、差分画像の各座標の画素 値に基づ 、て、透かしパターンの対応する座標の画素値の振幅を調整する方法もあ りうる。この場合は、例えば、差分画像の画素値の絶対値が大きいほど、対応する位 置の透かしパターンの振幅を大きくするようにする。同図(1)、 (2)とも、差分画像に 大きな絶対値を持つ画素が多いほど、即ち、動画像の動きが激しいほど、透かしバタ ーンの振幅が増幅されるようになっている。また、同図(1)を施した後にさらに同図(2 )を施すなど、増幅の仕方をより複雑にしてもよい。
[0533] く本実施の形態の効果〉
本実施の形態によれば、動きのある動画像に透かしパターンを重畳する際に、差 分画像中の大きな絶対値を持つ画素が多い、即ち、動きの激しいフレームについて は、動きの少ないフレームに対するよりも、より振幅の大きい透かしパターンを重畳す ることになる。一般に動きの激しい動画シーンでは、静止しているシーンに比べノイズ が知覚しづら!/、ので、上記のように動きの激し 、フレームで透かしパターンの振幅を 強めても、透かし埋め込みによる画質劣化が知覚できないようにすることが可能であ る。
[0534] また、特に動きの多いシーンでは、検出時の差分画像に大きな絶対値を持つ画素 が多いので、透かし検出に対してはノイズが多いという問題があった力 本実施の形 態のように、動きの激しいシーンは予め強めに透かしパターンを埋め込んでおくこと で、 SZN比が向上して透かしの検出性能が向上する。
[0535] [第 24の実施の形態]
本実施の形態は、以下に説明する部分を除いて、第 1乃至第 23の実施の形態と同 一である。以下、第 1の実施の形態との差分を中心に説明する。
[0536] 図 129は、本発明の第 24の実施の形態における電子透かし検出装置の構成を示 す。
[0537] 同図に示す電子透かし検出装置 200Jは、動画像入力部 210、検出対象領域抽出 部 220、差分画像生成部 230、電子透かし検出部 240、検出対象領域画像バッファ 250、ズーム処理部 310から構成される。同図に示す構成は、第 1の実施の形態の 電子透かし検出装置 100Aにズーム処理部 310を付加した構成である。
[0538] 図 130は、本発明の第 24の実施の形態における動作のフローチャートである。
[0539] 同図に示すフローチャートにおけるステップ 1901〜ステップ 1906までの動作は図 20のステップ 201〜ステップ 206と同一であるのでその説明は省略する。
[0540] ステップ 1907) 電子透かし検出部 210の検出状況が良好でない場合は、ステツ プ 1901に移行し、良好である場合は、ステップ 1908の処理を行う。
[0541] ステップ 1908) ズーム処理部 310において、検出対象領域の大きさや位置を表 す検出対象領域情報と電子透かし検出部 240の検出状況を用いて、検出状況が良 好であった場合に、検出対象領域が所与のサイズとなるようにズームパラメタを生成 し、動画像入力部 210に与え、ステップ 1901の処理に移行する。これにより、動画像 入力部 210では、与えられたズームパラメタに基づいて、カメラやスキャナなどを自動 的にズームさせる。
[0542] ここで、「検出状況が良好」とは、第 17の実施の形態と同様に、例えば、文献 1の検 出信頼度指標値がある程度有意な値であるが、まだ電子透力しの検出が成功してい ない状態であるとか、あるいは、第 8の実施の形態などのデータブロック毎検出の場 合に、あるデータブロックの検出に成功した、などといった状態、即ち、電子透かし検 出部 240の検出状況から、電子透力しの存在が有意に明らかである、といった場合 を指すものとする。例えば、検出対象領域の面積がフレーム画像の面積の 40%以上 となるように、今回の検出対象領域情報で表される検出対象領域が 40%未満であつ た場合に、自動的にズームインして 40%以上となるようにする。あるいは、ある検出試 行時において検出状況が良好であり、かつ検出対象領域の面積が 20%であった場 合、検出試行毎に徐々にズームインさせることで表示を滑らかに変化させてユーザィ ンタフェースを改善してもよ 、。
[0543] また、ズームインする際に、あまりにズームインしすぎると検出対象領域の縁検出に 失敗するような場合は、検出対象領域がフレーム画像 ヽっぱいになるまでズームイン せずに、所与のサイズ (例えば、フレーム画像の 50%)までズームするようにしてもよ い。さらに、所与のサイズではなぐ現在の検出対象領域情報で定まる検出対象領域 の頂点や辺がフレーム画像に収まるように、適宜ズーム率を変化させても良い(例え ば、フレーム画像の中央に検出対象領域がある場合と、端にある場合とでは、後者の 方がズームインの程度が低くなる)。
[0544] なお、上記では、第 1の実施の形態との差分について説明したが、第 13乃至第 15 の実施の形態との組み合わせや、第 16の実施の形態の特徴領域を所与のサイズと なるようにズームインすることや、第 17の実施の形態において近傍探索の範囲をズ ーム率の変化に応じて同様にズームさせて組み合わせることや、第 20の実施の形態 において、複数の透かしパターンのうち一つを撮影画像の中央にフレーミングして検 出試行することで自動ズームにより特定の画像領域に結び付けられた透カゝし情報を 検出することなどは容易に実現可能である。
[0545] く本実施の形態の効果〉
本実施の形態によれば、撮影時のフレーム画像中の検出対象領域の画素サイズ 力 、さい場合に、自動的にズームインしてより大きな画素サイズの検出対象領域を取 得することができる。一般に画素サンプルが少なくなると電子透かし検出が困難にな るため、ズームインして検出対象領域の画素サンプル数を増大させることで、電子透 力しの検出性能を向上させることができる。
[0546] また、電子透力しの検出状況に基づいて、検出状況が良好の時のみズームインす ることにより、例えば、図 131Aのように検出状況が良好な場合、ズームインによって 検出対象領域の画素サンプル数を増大させて検出性能を向上させることができると 同時に、同図 Bのように本来の検出対象領域ではない領域を誤って検出対象領域と している場合には、電子透かし検出状況が良好とならないため、ズームインしない、 即ち、確実に電子透力 の存在が明らかな検出対象領域の場合のみ、検出性能が 向上するようにズームインするので、無用なズームインをせずに済み、ユーザピリティ の向上を図ることができる。
[0547] [第 25の実施の形態]
本実施の形態では、透力しの情報を位相差分変動として埋め込みを行い、検出時 にはまず差分画像 (A)を生成し、さらに時間的に隣接した差分画像 (A)の位相差分 を計測し、位相差を用いて得られる差分画像 (B)から電子透かし検出を行うことによ り、検出時のキヤプチャタイミング及びキヤプチャ時間間隔、あるいはシャッター速度 などによらず常に同一条件で電子透かし検出を可能するものである。
[0548] 本実施の形態は、以下に説明する部分を除いて、第 1乃至第 24の実施の形態と同 一である。以下、第 1の実施の形態との差分を中心に説明する。本実施の形態にお ける電子透力し埋め込み装置の構成は、第 1の実施の形態と同様の構成である。
[0549] 図 132は、本発明の第 25の実施の形態における透かしパターン切り替え情報の例 を説明するための図である。
[0550] 本実施の形態における電子透力し埋め込み装置 100における透かしパターン生成 部 120の透かしパターン切り替え情報は、パターンの反転について直接的に指示す る情報ではなぐ 6Z30秒で一周期となる正弦波など、連続的な関数で表現されるも のであり、具体的には正弦波の周期を示すような情報である。実際には入力される動 画像は特定のフレームレート、例えば 30フレーム/秒のような離散的なフレーム画像 群として与えられるので、図 132の下図のように、正弦波上を離散的にサンプリングし て埋め込みに用いることになる。なお、本実施の形態では以下に示すように、正弦波 の周期に対する位相の値を用いる。
[0551] 図 133は、本発明の第 25の実施の形態における透かしパターン切り替え部の処理 を説明するための図である。透かしパターンに切り替え部 122では、まず入力された 基本透かしパターンの濃淡値を、符号パターンに変換する。符号パターンは、基本 透かしパターンの各濃淡値の +または-の符号を取り出し、大きさを 1とした値を各 要素値として持つ配列である。
[0552] 次に、透かしパターン切り替え部 122において、入力されたフレーム表示時刻を透 かしパターン切り替え情報の時間軸にとり、フレーム表示時刻に対応する透かしパタ ーン切り替え情報の周期に対する位相(以下透かしパターン切り替え位相と呼ぶ)を 取得する。そして直前のフレームに対する透かしパターン切り替え位相との間の位相 変動値を求め(図 133では + π /3)、この位相変動値に符号パターンの要素値を掛 けたものを透かし位相パターンの各要素値の位相変動量とする。透かし位相パター ンは符号パターンと同じサイズの配列であり、各要素は 0〜2 πの位相値をとる。透か し位相パターンの各要素の初期値は任意の値でかまわない。
[0553] 上記のようにして透かし位相パターンを取得した後、透かしパターン切り替え部 122 は位相パターンを透かしパターンに変換する。変換の仕方としては、例えば図 134に 示すように、透かし位相パターンの各要素値を、画像の 2つ以上の成分、図では YCb Cr表色系における Cbと Crを直行軸においた座標系における原点(0, 0)を中心とし た半径 r(rは所与の値)の円上の、角度が位相パターン要素値の点に対応付ける。こ の結果得られる Cb— Cr座標系の Cb座標、 Cr座標を、当該位相パターンの要素に対 応する透かしパターンの画素値として、すべての透かしパターンの画素値を求める。 このようにして得られた透かしパターンは、各画素複数の成分値を持つパターンとな る。なお、本実施の形態では Cb, Crを例として用いた力 RGB表色系の R—Gを用 いたり、あるいは XYZ表色系における X— Yを用いたり、 HSV表色系の Hue-Saturatio nを用いたり(この場合は Hue-Saturationを直交座標にとるのではなぐ位相値を直接 Hue値に設定し、所与の Saturation値を持つようにしても良い)など、様々な方法があ り得る。
[0554] また、各軸毎の変動量に対する視覚感度が異なる場合には、適宜スケールを補正 して各軸の変動量と視覚感度が一致するようにしても良 、(例えば図 134にお 、て円 ではなく楕円を用いるなど)。本実施の形態では YCbCr表色系では、 Yに比べて知覚 されづら 、と 、う理由で Cbと Cr成分を用いた例を示して 、る。
[0555] また、複数の画像成分ではなく、単一の成分、例えば輝度成分などを用いて本実 施の形態を実施するには、第 1の実施の形態の変調方法 (A— 2)のように、基本透 かしパターンに波形パターンを用いて、波形パターンの位相を変動させることで、本 実施の形態と同様に位相差分変動を用いた電子透かし埋め込みが実現できる。
[0556] このようにして得られた透かしパターン力 透かしパターン重畳部 130において順 次フレーム画像に重畳されることにより、透かし入り動画像が得られることについては 第 1の実施の形態と同様である。
[0557] なお、 Cb— Crを用いた場合は、透かしパターンの振幅を調整するとは、 Cb— Cr座 標系における振幅(図 134における点 aOと原点との距離)を増減することになる。また 、 Hue- Saturationを用いる場合は Saturationを増減することにあたる。また、基本透力 しパターンが 2値ではなく多値の場合は、基本透かしパターンの画素値の絶対値の 大きさに応じて、対応する透かしパターンの画素値の振幅を増減させても良 、。
[0558] 図 135は、本発明の第 25の実施の形態における電子透かし検出装置の構成図で ある。
[0559] 本実施の形態における電子透かし検出装置 200は、動画像入力部 210、検出対 象領域抽出部 220、差分画像生成部 230、位相差分計測部 360、電子透かし検出 部 240、検出対象領域画像バッファ 250、位相パターンバッファ 370を有する。
[0560] 図 136は、本発明の第 25の実施の形態における電子透かし検出装置の動作のフ ローチャートである。
[0561] 第 1の実施の形態との相違について説明すると、図 137のように第 1の実施の形態 と同様にして差分画像生成部 230で出力された差分画像 (本実施の形態では差分 画像 (A)と表記)を位相差分計測部 360に入力し、位相差分計測部 360にお 、て差 分画像 (A)から位相パターンを生成し (ステップ 2040)、現在取得した位相パターン と、以前に取得した位相パターンとの位相差を測定し、位相差に基づいて新たに差 分画像 (B)を構成して出力する (ステップ 2050)。電子透かし検出部 240は差分画 像 (B)を入力し、第 1の実施の形態と同様に差分画像 (B)から電子透かし検出を行う (ステップ 2070)。
[0562] 図 138は、本発明の第 25の実施の形態における位相差分計測部の処理の内容を 説明するための図である。
[0563] 位相差分計測部 360は差分画像 (A)を入力とする。位相差分計測部 360は、差分 画像 (A)を埋め込み時と同様にブロック分割し、各ブロック毎に Cb成分、 Cr成分の総 和をそれぞれ求め、その結果 (Cb, Cr)を Cb— Cr座標系の点として表した際の振幅 R と位相 Θを求め、これらを位相パターンの当該ブロック位置に対応する要素の値とし て設定する。位相パターンは各要素位置毎に振幅と位相をとるような配列であり、そ の各要素は差分画像の各ブロックと対応付けられている。
[0564] 次に位相差分計測部 360は、図 139のように、位相パターンバッファ 370に蓄積さ れている以前に取得した位相パターンと、現在取得した位相パターンを比較し、各要 素の位相差に基づいてプラスまたはマイナスの符号を決定し、さらに二つの位相パタ ーンのそれぞれの振幅が大きいほど大きな値をとるような単調増加関数を用いて新 たな振幅を決定し、上記符号と上記振幅を値として持つ差分画像 (B)の各要素値を 決定する。
[0565] 図 140A、 Bは、本発明の第 25の実施の形態における位相差分計測部の処理の 内容を説明するための図である。
[0566] 現在取得した位相パターンのある要素の位相値 Θと、以前に取得した位相パター ンの対応する要素の位相値 Θ 'の位相差 Θ— Θ 'を求め、その値が 0〜 πの範囲内で あれば符号 "を、— π〜0の範囲内であれば符号"—"を選択するようにする。また 、現在取得した位相パターンのある要素の振幅値 Rと、以前に取得した位相パターン の対応する要素の振幅値 から、新たな振幅値 ρを求めるのに用いる単調増加関 数の例としては、例えば p (R, R') =R+R'であるとか、 (R, R') =RXR'などを用 いることができる。振幅値 R, R'に対して単調増加とする理由は、透かし信号が強く残 つている、すなわち振幅 R, R'が大きいものほど重みをつけることによって電子透かし の検出性能を改善するためである。
[0567] 全ての要素について符号選択と新たな振幅値を求める処理を終えた後、差分画像
(B)を電子透かし検出部に送り、差分画像 (B)からの透かし検出を試みる。なお、今 回取得した位相パターンは、後の検出試行に利用するため、位相パターンバッファ 3 70に蓄積しておく。
[0568] 次に、検出時のキヤプチャタイミングが異なる例をいくつか用いて、本実施の形態 の原理を説明する。
[0569] 図 141のキヤプチャ例 Aは 1Z15秒毎、すなわち 1フレームおきにフレームキヤプチ ャを行う例である。隣接キヤプチャフレーム (図 141中では(1) , (2) , (3) , (4) ,…等 と表記)間で得られる差分画像 (A) (図 141中では (a)、(b)、(c)、…などと表記)中の透 力しパターンの Cb— Cr値を考えると、図 133における符号パターンが正の要素につ いては図 142のように、負の要素については図 143のように Cb— Cr成分値をべタト ルとみなした場合の差分を求めた結果となって 、る。これは差分画像の計算が Cb成 分、 Cr成分の各項の差分計算に対応するためであり(これにより原画像成分が大幅 に抑圧される)、差分画像 (A)中では、図 142や図 143のような複数の位相が得られ ることは第 21の実施の形態で述べたとおりである。
[0570] 本実施の形態では差分画像 (A)を得た後、さらに差分画像 (A)の Cb— Cr成分の 位相値を元に位相パターンを生成し、時間的に隣接して 、る位相パターン間の位相 差を計測している(図 141中では位相パターン間の位相差分データを(ひ)、 ( β ) Λ γ )、…などと表記)。その状況を図 144(符号パターンが正の場合)及び図 145(符号 パターンが負の場合)に示す。図 144及び図 145では、位相の差を求めることによつ て、位相パターンの位相差から埋め込み時の透かしパターンの位相差 2 π Ζ3が、ど のような隣接キヤプチャフレーム間でも等しく得られることが分かる。
[0571] 本実施の形態では、位相差の正負を用いて差分画像 (Β)の符号を定めて電子透 かし検出を行うが、今述べたとおり位相差が埋め込み時の符号パターンと対応付けら れているため、電子透力しの検出が可能であることは自明である。すなわちキヤプチ ャフレームのどのタイミング力もでも同様に電子透かし検出を行うことができる。
[0572] 図 146に、キヤプチャ例 Α (図 141)とは異なるキヤプチャ例 Bを示す。キヤプチャ例 Bはキヤプチャ例 Aと同じく 1 Z 15秒毎のキヤプチヤであるが、キヤプチャ開始のタイミ ングがずれている場合である。キヤプチャ例 Bの場合、まず差分画像 (A)を生成する と、キヤプチャ例 A (図 141)とは各キヤプチャフレームに埋め込まれている透かしパタ ーンの位相がずれているため、差分画像 (A)中の透かしパターンの Cb— Cr値 (位相 パターンの位相値)の組み合わせは、図 147及び図 148のようにキヤプチャ例 Aの場 合(図 142及び図 143)と比較して異なっている。このことから、差分画像 (A)中の透 力しパターンの Cb— Cr値 (位相パターンの位相値)の組み合わせのみ力も透かし情 報を検出する第 21の実施の形態の場合では、符号パターン" + "または"—"を分類 することができるが、二つのグループのどちら力 V +〃である力、あるいは〃一〃であるか が分力 ない、ということが分かる。
[0573] し力しながら本実施の形態では、さらに図 149及び図 150のように隣接する差分画 像 (A)の位相差を計測することで、常に埋め込み時の符号パターン要素と同じ符号 を検出することができる。すなわち本実施の形態によれば、キヤプチャ例 Aとキヤプチ ャ例 Bの差はなぐ任意のキヤプチャ開始タイミングにおいて同様に電子透かし検出 を行うことができる。
[0574] 図 151に、キヤプチャ例 A, Bとは異なる、キヤプチャ例 Cを示す。キヤプチャ例 ま 、キヤプチヤのタイミングが 1Z30秒間隔であったり 1Z15秒間隔であったり一定でな い場合である。キヤプチャ例 Cの場合、まず差分画像 (A)を生成すると、図 152及び 図 153のようにキヤプチャ例 A及びキヤプチャ例 Bとは異なる組み合わせで、差分画 像 (A)中の Cb— Cr値 (位相パターン中の位相値)が得られる。またキヤプチャ例じの ようにキヤプチヤの時間間隔が各々異なる場合には、差分画像 (A)中の Cb— Cr値( 位相パターン中の位相値)を 2つに分類することが困難なため、第 21の実施の形態 のような方法では検出が困難となる。
[0575] し力しながら本実施の形態では、さらに図 154及び図 155のように隣接する差分画 像 (A)の位相差を計測する。この際、位相差の値はキヤプチャ時間間隔が変動する ことによりまちまちであるが、位相差から定まる符号 (0〜 π→ +、 一 π〜0→—)は、 キヤプチャ時間間隔によらず一定で、かつ埋め込み時の符号パターンと同じ値をとる 。これにより、本実施の形態によればキヤプチャ例 Cのようにキヤプチャ時間間隔が変 動する場合においても、問題なく電子透かし検出を行うことができる。
[0576] 図 156に、キヤプチャ例 A, B, Cとは異なる、キヤプチャ例 Dを示す、動画像のカメ ラキヤプチヤなどの場合では、シャッター速度が遅い場合に 1枚のキヤプチャフレーム に複数の動画像フレームが多重に露出されて合成されてしまうことがある。例えば図 156のキヤプチャ例 Dでは、 1Z30秒毎に表示されている動画フレームが多重露出 により 1枚のキヤプチャフレームに合成されている。しかし、この合成で得られるキヤプ チャフレーム中の透かしパターンの位相は多重化された各々の動画像フレーム中の 位相の合成であるから (複数フレームの Cb、 Cr成分各項を適当な比率で重み平均す ることで合成画像が得られるので)、図 157のように、多重化された各々の動画像フレ ーム中の位相の中間の値をとる (図 157は 2枚のフレームが丁度 1: 1の比率で多重露 出により合成された例を示している力 例えば 2:1などでもその内分比率に応じた中 間値をとることは明らかである)。キヤプチャ例 Dの場合、まず差分画像 (A)を生成す ると、図 158及び図 159のようにキヤプチャ例 A, B, Cとは異なる組み合わせで、差 分画像 (A)中の Cb— Cr値 (位相パターン中の位相値)が得られる。キヤプチャ例 Dの ように多重露出されたキヤプチャフレームの場合、差分画像 (A)中の Cb— Cr値 (位 相パターン中の位相値)を 2つに分類することが困難なため、第 21の実施の形態の ような方法では検出が困難となる。
[0577] し力しながら本実施の形態では、さらに図 160及び図 161のように隣接する差分画 像 (A)の位相差を計測することで、常に埋め込み時の符号パターン要素と同じ符号 を検出することができる。すなわち本実施の形態によればキヤプチャ時のタイミングが 動画像のフレーム表示タイミングより細力 、任意の時間ずれにぉ 、て、仮にキヤプチ ャフレーム中に複数の動画像フレームが多重露出されて合成されている場合であつ ても、同様に電子透かし検出を行うことができる。
[0578] この「差分力も得られる透かしパターンがキヤプチャタイミング及びキヤプチャ時間 間隔、あるいはシャッター速度などによらず常に一定」という特性は極めて重要である 。例えば第 1の実施の形態の変調方法 (A—1)は差分画像中の透かしパターンが反 転すると検出透かレ f青報のビットが反転するため、位相を特定するために第 4または 第 5の実施の形態のような工夫を必要として 、た。 [0579] また、第 1の実施の形態のその他の変調方法も、例えば、第 6または、第 9の実施の 形態のように、透力し情報や検出対象領域の検出性能向上のために差分画像を蓄 積する際に、位相を合わせる必要があるため各種工夫を用いていた力 本実施の形 態を用いることでこの問題は一切解消し、差分のとり方によらず透かしパターンは一 定であるから、当然検出透力 情報のビット反転は起きないし、差分画像 (本実施の 形態における差分画像 (B) )の加算蓄積の際に位相を気にすることなく単純に加算 をするだけで済む。
[0580] また、第 8の実施の形態のように透力し情報をデータブロックに分割して時間方向 で順次埋め込みを行うような場合に、第 1の実施の形態のような変調方法では、図 12 4に示すようにデータブロックの境界にまたがった差分画像では、正しくない透力し情 報を検出してしまう危険性があった。そのため安全を確保するためにはデータブロッ ク区間の間に透力しを埋め込まない区間を挟む必要があり、これによつて単位時間あ たりの透かレ f青報長が減ってしまうという問題があった。
[0581] しかし、本実施の形態を用いれば、透力しの情報は位相差分変動によって表される ので、直前のデータブロック終端での位相パターンに、今回のデータブロック情報を 表す位相差分変動を与えて埋め込みを行えば、検出時にデータブロック境界にまた 力 Sつた差分画像を得ても、その差分力 正しくデータブロック情報を検出することがで きる。これによつて無用なブランクを挟み込まず連続的にデータブロックを切り替えて 埋め込み ·検出をすることができるので、単位時間あたりの透力し情報量を増大させ ることちでさる。
[0582] さらに第 21の実施の形態では困難であった、キヤプチャ間隔が変動した場合、及 び多重露出により複数の動画像フレームが合成されたキヤプチャフレームとなる場合 においても、本実施の形態によれば先に述べたとおり問題なく検出可能であり、かつ 上記各実施の形態との組み合わせによる効果も享受することができる。
[0583] なお、本実施の形態を、第 1乃至第 24の実施の形態の各々の工夫を任意に組み 合わせても実施できることは自明である。すなわち本実施の形態における位相差分 計測部の処理を各実施の形態における対応する箇所 (電子透かし検出部や検出対 象領域抽出部の前など)に挿入して処理を行えば先に述べた効果を実現することが できる。他実施の形態との組み合わせの場合は、本実施の形態における差分画像( B)を、差分画像あるいは検出対象領域画像と読み替えればよい。以下、各実施の形 態に対して本実施の形態の工夫を適用する場合について簡単に説明すると、
•実施の形態 1, 2,3, 4, 5, 6, 7, 8, 9, 10,11, 12, 21,22, 23, 24:電子透力 検出装置の差分画像生成部の出力を差分画像 (A)として位相差分計測部に入力し 、差分画像 (B)を得てこれを電子透かし検出部に入力する;
'実施の形態 13, 14, 15, 16, 17, 18, 19, 20:検出対象領域抽出部の出力である 検出対象領域画像を、本実施の形態の差分画像 (A)として位相差分計測部に入力 し、差分画像 (B)を得てこれを電子透かし検出部に入力する;
のようにすれば良い。
[0584] く第 25の実施の形態の効果〉
本実施の形態によれば、透力しの情報を位相差分変動として埋め込みを行い、検 出時にはまず差分画像 (A)を生成し、さらに時間的に隣接した差分画像 (A)の位相 差分を計測し、位相差を用いて得られる差分画像 (B)から電子透かし検出を行うの で、先に述べたとおり、検出時のキヤプチャタイミング及びキヤプチャ時間間隔、ある Vヽはシャッター速度などによらず常に同一条件で電子透かし検出が可能となる。これ によって透力し情報のビット反転を防いだり、差分画像蓄積時に位相を合わせる必要 がなくなり、単純に差分画像を加算蓄積するようにすれば良いので、装置構成の単 純化、処理の高速化、及び位相同期信号を不要とすることによって透かレ f青報長増 大ゃ耐性向上を実現できる。
[0585] また、第 8の実施の形態のようなデータブロック利用型の場合に、データブロック間 に無用なブランクを挟まなくても検出情報の信頼性を担保できるので、単位時間あた りの透力し情報長の増大を実現できる。また、検出装置のキヤプチャタイミングが変動 する場合や、カメラ撮影などにより複数の動画像フレームが多重露出によって合成さ れてキヤプチヤされる場合でも、一切の問題なく電子透かし検出が可能であるため、 電子透かし検出装置 200における動画像入力部 210の構成を簡単にしたり(正確な クロックでキヤプチヤしなくてもよい)、カメラのようなアナログ光学的読み取りの場合に おける電子透かし検出性能を向上させることが可能となる。 [0586] [第 26の実施の形態]
本実施の形態では、透力しの情報を位相差分変動として埋め込みを行い、検出時 にはまず差分画像 (A)を生成し、さらに時間的に隣接した差分画像 (A)の位相差分 を計測し、位相差を用いて得られる差分画像 (B)を生成し、差分画像 (B)を加算蓄 積して検出対象領域を抽出し、検出対象領域画像から電子透かし検出を行うので、 先に述べたとおり、検出時のキヤプチャタイミング及びキヤプチャ時間間隔、あるいは シャッター速度などによらず常に同一条件で電子透かし検出を可能とし、撮影角度 によって生じる歪みの影響を補正し、かつ蓄積によって透力しの耐性を向上させ、よ り安定的な電子透かし検出を実現するものである。
[0587] 図 162は、本発明の第 26の実施の形態における電子透かし埋め込み装置の構成 図である。
[0588] 同図に示す電子透力し埋め込み装置 100は、フレーム画像取得部 110、透かしパ ターン生成部 120、透かしパターン重畳部 130、動画像データ再構成部 140から構 成される。本実施の形態の電子透かし埋め込み装置 100は、原動画像データ、透か し情報、透かしパターン切り替え情報を入力とする。
[0589] 図 163は、本発明の第 26の実施の形態における電子透力し埋め込み装置の動作 のフローチャートである。
[0590] ステップ 100) まずフレーム画像取得部 110で図 164のように原動画像データから フレーム画像及び該フレーム画像の表示時刻を一枚ずつ順次取得する。ここでフレ ーム画像表示時刻とは、例えばタイムコードと再生時のフレームレートから定まる動画 像の先頭力もの絶対的な時刻を表すものでも良いし、あるいは再生時のフレーム間 の相対的な時間間隔が測れるようなものでも良い。フレーム画像取得部 110は、入力 動画像データが MPEGなどの符号ィ匕データである場合は、復号を行うなどしてフレー ム画像を取得する。
[0591] ステップ 110) 続いて透かしパターン生成部 120において、透かし情報、フレーム 表示時刻、透かしパターン切り替え情報を用いて透かしパターンを生成する。
[0592] ステップ 120) 次に透かしパターン重畳部 130において、該透かしパターンをフレ ーム画像に重畳して透かし入りフレーム画像を生成する。 [0593] ステップ 130) 最後に動画像データ再構成部 140において、順次生成される透か し入りフレーム画像の列を、動画像データとして再構成して透かし入り動画像データ として出力する。この際、必要ならば MPEGエンコードなどの符号ィ匕を行っても良い。
[0594] 図 165は、本発明の第 26の実施の形態における透かしパターン生成部の構成図 であり、図 166は、本発明の第 26の実施の形態における透かしパターン生成部の動 作のフローチャートである。
[0595] 透かしパターン生成部 120は、基本透かしパターン生成部 121と透かしパターン切 り替え部 122を有し、透かし情報、透かしパターン切り替え情報、フレーム表示時刻 を入力とする。
[0596] ステップ 2100) まず基本透かしパターン生成部 121において、透かし情報を 2次 元パターンである基本透かしパターンに変換する。この変換の仕方は、第 1の実施の 形態に示したように様々な方法があり得るが、本実施の形態では説明を簡単にする ために、第 1の実施の形態の変調方法を用いることとする。
[0597] 図 167に基本透かしパターン生成部 121の処理の例を示す。本実施の形態では、 透力 情報のビット値を拡散系列によって直接スペクトラム拡散変調して得られる系 列の値に応じて、画素値の大小を対応付ける方法を用いる。このとき基本透かしバタ 一ンの各画素値は正または負の値をとるものとする。
[0598] ステップ 2110) 透かしパターン生成部 120は、続いて透かしパターン切り替え部 1 22において、フレーム表示時刻と透かしパターン切り替え情報の関係から、基本透 かしパターンの位相反転の要否を判定し、必要に応じて基本透かしパターンの位相 を変更し、透かしパターンとして出力する。
[0599] 図 168は、本発明の第 26の実施の形態における透かしパターン切り替え部の構成 図である。
[0600] 透かしパターン切り替え部 122は、符号パターン生成部 1221、透かしパターン切り 替え位相変動値算出部 1222、透かし位相差分パターン生成部 1223、透かし位相 パターン生成部 1224、透かし位相パターン画像ィ匕部 1225を有する。
[0601] 図 169は、本発明の第 26の実施の形態における透かしパターン切り替え部の動作 のフローチャートである。 [0602] ステップ 2200) 透かしパターン切り替え部 122は、まず符号パターン生成部 122
1にお 、て、基本透かしパターンを符号パターンに変換する。
[0603] ステップ 2210) 次に透かしパターン切り替え位相変動値算出部 1222において、 フレーム表示時刻で表される直前のフレームと今回のフレームの時間差に基づいて
、透かしパターン切り替え情報で表される透かしパターン切り替え位相の差分値を求 め、これを透かしパターン切り替え位相変動値とする。
[0604] ステップ 2220) 次に透かし位相差分パターン生成部 1223において、符号パター ンで表される符号を持ち、透かしパターン切り替え位相変動値を絶対値として持つ、 透かし位相差分パターンを生成する。
[0605] ステップ 2230) 次に透かし位相パターン生成部 1224において、直前のフレーム に対する透かし位相パターンの各要素値に対し、今回の透かし位相差分パターンを 位相差として与えて、今回の透か Lf立相パターンを得る。
[0606] ステップ 2240) 最後に透かし位相パターン画像ィ匕部 1225において、透かし位相 パターンを画像パターンに変換し、その結果を透かしパターンとして出力する。
[0607] 図 170は、本発明の第 26の実施の形態における透かしパターン切り替え情報の例 を説明するための図である。
[0608] 本実施の形態における電子透力し埋め込み装置 100における透かしパターン生成 部 120の透かしパターン切り替え情報はパターンの反転について直接的に指示する 情報ではなぐ 6Z30秒で一周期となる正弦波など、連続的な関数で表現されるもの であり、具体的には正弦波の周期を示すような情報である。実際には入力される動画 像は特定のフレームレート、例えば 30フレーム/秒のような離散的なフレーム画像群 として与えられるので、図 170の下図のように、正弦波上を離散的にサンプリングして 埋め込みに用いることになる。なお、本実施の形態では以下に示すように、正弦波の 周期に対する位相の値を用いる。
[0609] 図 171は、本発明の第 26の実施の形態における透かしパターン切り替え部の処理 を説明するための図である。
[0610] 透かしパターン切り替え部 122では、まず入力された基本透かしパターンの濃淡値 を、符号パターンに変換する。符号パターンは、基本透かしパターンの各濃淡値の +または—の符号を取り出し、大きさを 1とした値を各要素値として持つ配列である。
[0611] 次に、入力されたフレーム表示時刻を透かしパターン切り替え情報の時間軸にとり 、フレーム表示時刻に対応する透かしパターン切り替え情報の周期に対する位相 ( 以下透かしパターン切り替え位相と呼ぶ)を取得する。そして直前のフレームに対す る透かしパターン切り替え位相との間の位相変動値を求め(図 171では + π Z3)、こ れを透かしパターン切り替え位相変動値とし、この透かしパターン切り替え位相変動 値に符号パターンの要素値を掛けたものを透かし位相差分パターンとする。そして直 前のフレームに対応する透かし位相パターンの各要素値に対して透かし位相パター ンの各要素値を位相変動量として与え、今回の透かし位相パターンとする。透かし位 相パターンは符号パターンと同じサイズの配列であり、各要素は 0〜2 πの位相値を とる。透かし位相パターンの各要素の初期値は任意の値で力まわな 、。
[0612] 上記のようにして透かし位相パターンを取得した後、透かし位相パターン画像ィ匕部 1225において透かし位相パターンを透かしパターンに変換する。変換の仕方として は、例えば図 172に示すように、透かし位相パターンの各要素値を、画像の 2つ以上 の成分、図では YCbCr表色系における Cbと Crを直行軸にぉ 、た座標系における原 点(0, 0)を中心とした半径 r (rは所与の値)の円上の、角度が位相パターン要素値の 点に対応付ける。この結果得られる Cb— Cr座標系の Cb座標、 Cr座標を、当該位相 パターンの要素に対応する透かしパターンの画素値として、すべての透かしパターン の画素値を求める。このようにして得られた透かしパターンは、各画素複数の成分値 を持つパターンとなる。
[0613] なお、本実施の形態では Cb, Crを例として用いた力 RGB表色系の R—Gを用いた り、あるいは XYZ表色系における X—Yを用いたり、 HSV表色系の Hue- Saturationを 用いたり(この場合は Hue- Saturationを直交座標にとるのではなぐ位相値を直接 Hu e値に設定し、所与の Saturation値を持つようにしても良い)など、様々な方法があり得 る。
[0614] また、各軸毎の変動量に対する視覚感度が異なる場合には、適宜スケールを補正 して各軸の変動量と視覚感度が一致するようにしても良 、(例えば図 134にお 、て円 ではなく楕円を用いるなど)。本実施の形態においては YCbCr表色系では、 Yに比べ て知覚されづらいという理由で Cbと Cr成分を用いた例を示している。また、複数の画 像成分ではなぐ単一の成分、例えば輝度成分などを用いて本実施の形態を実施す るには、第 1の実施の形態の変調方法 (A— 2)のように、基本透かしパターンに波形 ノターンを用いて、波形パターンの位相を変動させることで、本実施の形態と同様に 位相差分変動を用いた電子透力 埋め込みが実現できる。
[0615] このようにして得られた透かしパターンを、図 173に示すように、透かしパターン重 畳部 130において適宜透かしパターンの振幅を変更して、順次フレーム画像に重畳 することにより、透かし入り動画像が得られることについては第 1の実施の形態と同様 である。この際、透かしパターンをフレーム画像以下のサイズにスケーリングし、フレ ーム画像の中央に重畳するものとする。なお、 Cb— Crを用いた場合は、透かしパタ ーンの振幅を調整するとは、 Cb— Cr座標系における振幅(図 172における点 aOと原 点との距離)を増減することになる。また、 Hue- Saturationを用いる場合は Saturation を増減することにあたる。
[0616] また、基本透かしパターンが 2値ではなく多値の場合は、基本透かしパターンの画 素値の絶対値の大きさに応じて、対応する透かしパターンの画素値の振幅を増減さ せても良い。最後に動画像データ再構成部 140において、上記の処理により順次生 成される透かし入りフレーム画像を動画像データとして再構成して透かし入り動画像 データとして出力する。再構成の際には MPEGエンコードなどの符号ィ匕を行っても良 い。
[0617] 以上が本実施の形態における電子透力 埋め込み装置の説明である。
[0618] 次に、本実施の形態における電子透かし検出装置について説明する。
[0619] 図 174は、本発明の第 26の実施の形態における電子透かし検出装置の構成図で ある。
[0620] 電子透かし検出装置 200は、動画像入力部 210、特徴領域抽出部 290、差分画像 生成部 230、位相差分計算部 360、検出対象領域抽出部 220、電子透かし検出部 2 40、特徴領域画像バッファ 302、位相パターンバッファ 370、差分画像 (B)蓄積バッ ファ 390を有する。
[0621] 電子透かし検出装置 200は、 TVなどにディスプレイ表示されたアナログ動画像、あ るいは MPEGエンコードされたようなディジタル動画像を入力とする。
[0622] 図 175は、本発明の第 26の実施の形態における電子透かし検出装置の動作のフ ローチャートである。
[0623] ステップ 2300) 動画像入力部 210において、アナログまたはディジタル動画像を 入力し順次フレーム画像を取得する。アナログ動画像の入力の際はカメラやスキャナ 、あるいはアナログビデオ信号などを入力してフレーム画像を取得し、ディジタル動 画像であればデコード処理などを行ってフレーム画像を取得する。
[0624] ステップ 2310) 次に特徴領域抽出部 290において、第 16の実施の形態などと同 様にキヤプチヤしたフレーム画像中の特徴領域を抽出して特徴領域画像を得る。
[0625] ステップ 2320) 次に差分画像生成部 230において、現在取得した特徴領域画像 と、特徴領域画像バッファ 302に蓄積されている以前に取得した特徴領域画像との 差分画像を生成し、差分画像 (A)として出力する。
[0626] ステップ 2330) また、次の検出試行に備えて、特徴領域画像バッファ 302に今回 の特徴領域画像をバッファリングしておく。
[0627] ステップ 2340) 続 、て位相差分計測部 360にお 、て、差分画像 (A)を位相パタ ーンに変換する。
[0628] ステップ 2350) 位相差分計測部 360において、現在取得した位相パターンと、位 相パターンバッファ 370に蓄積されている以前に取得した位相パターンとの位相差を 計測し、この位相差と上記 2つの位相パターンの振幅値に基づ 、て新たに差分画像 (B)を生成する。
[0629] ステップ 2360〜2380) 次に検出対象領域抽出部 220において、今回の差分画 像 (B)を差分画像 (B)蓄積バッファ 390に加算蓄積し、蓄積された差分画像 (B)力も 検出対象領域を抽出し、検出対象領域画像を得る。
[0630] ステップ 2390) 最後に、電子透かし検出部 240において、検出対象領域画像か らの電子透かし検出を試み、検出結果を出力する。
[0631] ステップ 2400) 電子透かし検出が成功しな力つた場合は、動画像入力部 210に おいて次のフレーム画像を取得して上記の処理を順次繰り返す。
[0632] 図 176は、本発明の第 26の実施の形態における特徴領域抽出部の処理を説明す るための図である。
[0633] 特徴領域抽出部 290はフレーム画像を入力とし、フレーム画像中の特徴領域を第 16の実施の形態などと同様に抽出し、特徴領域画像を得る。
[0634] 図 177は、本発明の第 26の実施の形態における差分画像生成部の処理を説明す るための図である。差分画像生成部 230は特徴領域画像を入力とする。差分画像生 成部 230は、現在入力された特徴領域画像と、特徴領域画像バッファ 302に蓄積さ れている、以前に取得した特徴領域画像の差分画像を生成し、差分画像 (A)として 出力する。差分処理は、 R, G, Bや Y, Cb, Crなどの各成分毎の引き算によって行わ れる。また、次の検出試行に備えて、特徴領域画像バッファ 302に今回の特徴領域 画像をバッファリングしておく。
[0635] 図 178は、本発明の第 26の実施の形態における位相差分計算部の処理の内容を 説明するための図である。
[0636] 位相差分計測部 360は差分画像 (A)を入力とする。位相差分計測部 360は、差分 画像 (A)の各画素毎に Cb成分、 Cr成分をそれぞれ求め、その結果 (cb, cr)を Cb— Cr座標系の点として表した際の振幅 Rと位相 Θを求め、これらを位相パターンの当該 画素位置に対応する要素の値として設定する。位相パターンは各要素位置毎に振 幅と位相をとるような配列であり、その各要素は差分画像の各画素と対応付けられて いる。
[0637] 次に位相差分計測部 360は、図 179のように、位相パターンバッファ 370に蓄積さ れている以前に取得した位相パターンと、現在取得した位相パターンを比較し、各要 素の位相差に基づいてプラスまたはマイナスの符号を決定し、さらに二つの位相パタ ーンのそれぞれの振幅が大きいほど大きな値をとるような単調増加関数を用いて新 たな振幅を決定し、上記符号と上記振幅を値として持つ差分画像 (B)の各要素値を 決定する。
[0638] 図 180A、 Bに位相差による符号選択方法の例を示す。現在取得した位相パターン のある要素の位相値 Θと、以前に取得した位相パターンの対応する要素の位相値 Θ 'の位相差 Θ— Θ 'を求め、その値が 0〜 πの範囲内であれば符号 "を、 π〜0 の範囲内であれば符号〃—〃を選択するようにする。また、現在取得した位相パターン のある要素の振幅値 Rと、以前に取得した位相パターンの対応する要素の振幅値 R' から、新たな振幅値 pを求めるのに用いる単調増加関数の例としては、例えば p (R , R') =R+R'であるとか、 (R, R') =RXR'などを用いることができる。振幅値 R, R'に対して単調増加とする理由は、透かし信号が強く残っている、すなわち振幅 R, R'が大きいものほど重みをつけることによって電子透力しの検出性能を改善するため である。全ての要素について符号選択と新たな振幅値を求める処理を終えた後、差 分画像 (B)を出力する。また、次の検出試行に備えて、位相パターンバッファ 370に 今回の位相パターンをバッファリングしておく。
[0639] 次に検出対象領域抽出部 220の処理の内容を説明する。
[0640] 検出対象領域抽出部 220は差分画像 (B)を入力とする。検出対象領域抽出部 22 0は、入力された差分画像 (B)を差分画像 (B)蓄積バッファ 390に加算蓄積する。
[0641] 図 181は、本発明の第 26の実施の形態における差分画像 (B)蓄積バッファを説明 するための図である。差分画像 (B)蓄積バッファ 390は、差分画像 (B)と同じサイズ の画素配列であり、新たに入力された差分画像 (B)の各画素毎に、差分画像 (B)蓄 積バッファ 390の対応する画素位置に画素値を加算する。
[0642] 図 182は、本発明の第 26の実施の形態における検出対象領域抽出部の処理を説 明するための図である。検出対象領域抽出部 220では、上記のように差分画像 (B) を差分画像 (B)蓄積バッファ 390に加算蓄積した後、差分画像 (B)蓄積バッファ 390 の画素値を絶対値ィ匕して、その中から第 13の実施の形態などと同様にして検出対象 領域を抽出する。そして絶対値化前の差分画像 (B)蓄積バッファ 390の検出対象領 域の画像を、所与のサイズの矩形となるように歪み補正し、さらにサイズ正規ィ匕して、 検出対象領域画像を生成して出力する。
[0643] 上記のような処理による検出対象領域抽出部 220の効果を説明する。位相差分計 測部 360において得られる差分画像 (B)について考えると、透かしパターンが埋め 込まれて!/、る画素領域にっ 、ては、透かしパターン埋め込まれて!/、な!/、画素領域に 比べ画素値の絶対値が一般に大き 、。これは透かしパターンが各キヤプチャフレー ム毎に異なるため、透かしパターンが埋め込まれている画素領域については差分画 像 (A)の画素値の絶対値が大き 、が、透かしパターンが埋め込まれて 、な 、画素領 域については、原画成分が時間相関が高いため、差分画像 (A)の画素値の絶対値 が小さいためである。また、位相差分計測部 360において、位相差分を用いて差分 画像 )の画素値の符号を決定しているため、第 25の実施の形態で述べたとおり、 キヤプチャタイミングによらず、透かしパターンが埋め込まれて 、る画素領域にっ 、て は同一画素位置で常に同一の符号である。そのため差分画像 (B)蓄積バッファ 390 で加算蓄積すると、加算の度に絶対値が大きくなるようになる。しかし透かしパターン が埋め込まれて ヽな 、画素領域にっ 、ては、符号が同一とはならずにまちまちであ り、先に述べた画素値の絶対値が小さいことと合わせて、加算蓄積によって画素値の 絶対値はそれほど大きくならず、相対的に透かしパターンが埋め込まれている画素 領域とのコントラストが、加算蓄積の度に大きくなつていく。このため、加算蓄積によつ て得られる差分画像 (B)バッファ 390の画素値を絶対値化すれば、透かしパターン の正負の違 、が無くなり、背景領域である透かしパターンが埋め込まれて ヽな 、画 素領域中に、透かしパターンが埋め込まれた画素領域が高いコントラストで浮かび上 がる。これにより透かしパターンが埋め込まれた領域を検出対象領域として確実に抽 出することができる。
[0644] さらに加算蓄積によって図 181のように透かしパターンが相対的に強まることから、 次に述べる電子透かし検出において検出性能を改善し、より高 、耐性をもつ電子透 かし検出を実現することができる。
[0645] 最後に電子透かし検出部 240は検出対象領域画像を入力とし、検出対象領域画 像からの電子透かし検出を試みる。図 183を用いて電子透かし検出部 240の処理例 を説明する。図 183は電子透力 埋め込み時の変調方法 (A—1)に対応する検出時 の復調方法である(文献 1)。
[0646] まず検出対象領域画像を埋め込み時の透かしパターンのブロックの個数にブロック 分割する。次にブロック内の画素値の合計を求め、ブロック順に並べて一次元の系 列である検出対象系列を得る。次に、埋め込み時の 1ビットに対応する区間を検出対 象系列から取り出し、拡散系列の対応する区間と相関演算を行う。相関値がプラスの 大きな値であればビット値〃 1 "を検出、マイナスの大きな値であればビット値" 0〃を検 出として、全てのビットについて検出処理を行う。また必要に応じて検出処理を終え た透力し情報に誤り訂正 ·検出復号処理などを施しても良い。電子透かしの検出に 成功しな力つた場合は引き続き動画像入力部 210のフレームキヤプチャ処理に復帰 し、検出試行を繰り返す。あるいは動画像の入力が終了したら検出処理を終了する。
[0647] く第 26の実施の形態の効果〉
本実施の形態によれば、第 25の実施の形態と同様にどのようなタイミングで動画像 をキヤプチヤしても問題がな!ヽと ヽぅ効果に加え、差分画像 (A)から差分画像 (B)を 各画素毎に得て、差分画像 (B)を加算蓄積し、絶対値化したものから検出対象領域 を抽出して電子透かし検出を行うことにより、さらに第 19の実施の形態の効果を兼ね 備えることができる。
[0648] また、透力しの情報を位相差分変動として埋め込みを行うため、差分画像 (B)の加 算蓄積においてはそのまま画素値の加算で良ぐさらに透力し情報のビットが反転し ないため、第 19の実施の形態と比較してもより簡易でかつ効率的な電子透力 方式 となっている。
[0649] また、本実施の形態によれば、様々な工夫によりキヤプチヤしたフレームレーム画像 中のどの部分力も電子透かし検出を行えば良いかを特定して、さまざまな撮影角度 や背景画像の条件下でも、確実に電子透かし検出可能とすることができ、さらに電子 透力しの検出性能を向上させている。これによつてテレビなどの動画像をカメラで撮 影し、撮影した動画力 リアルタイムに電子透かし検出処理を確実に行うことが可能と なる。
[0650] また、上記の形態における電子透かし埋め込み装置 100、電子透かし検出装置 20 0の各動作をプログラムとして構築し、電子透かし埋め込み装置、電子透かし検出装 置として用いられるコンピュータにインストールして実行させる、または、ネットワークを 介して流通させることが可能である。また、当該プログラムを CD—ROM、電子メモリ 等のコンピュータ読み取り可能な記録媒体に格納して利用することも可能である。
[0651] なお、本発明は、上記の実施の形態に限定されることなぐ特許請求の範囲内にお いて種々変更 ·応用が可能である。また、本発明は、電子透かし技術に適用可能で あり、本発明は上記の実施の形態のみに限定されるものではなぐ例えば 3次元表示 システム、 3次元撮影システムや音声情報などへの適用、赤外線などの知覚不可能 な信号領域への適用などさまざまな適用が可能である。
[0652] [効果]
本発明の実施の形態によれば、動画像のフレームに対して時間的に切り替わる透 かしパターンの埋め込みを行うことにより、動画像の各フレームに対して固定のパタ ーンを埋め込むのではなぐ高速に切り替わるパターンを埋め込むことになり、人間 の視覚特性における時間周波数特性について高周波に対する視覚感度が低いこと が知られて 、るから、透力し埋め込みによる画質劣化を低減することができる。
[0653] また、検出の際には、カメラなどアナログ入力デバイス力も連続して入力されるフレ ーム画像に対して、時間的に近接した 2枚のキヤプチャフレーム画像の差分画像を 生成して電子透かし検出を行うことから、電子透かし信号にとって雑音となる原画像 信号を大幅にキャンセルすることができ、電子透かし検出性能の向上を実現できる。
[0654] また、埋め込み時の透かしパターンの切り替えタイミングが検出側で既知であれば 、キヤプチヤした 2枚のフレームの時刻を用いて、差分画像に透かしパターンが残存 するものを選択でき、無駄な電子透かし検出を行う必要がなくなる。さらに、検出側の カメラのキヤプチャタイミング、あるいは、差分画像取得時の 2枚の画像の時間差を、 透かしパターン切り替えタイミングに合わせて制御することで、常に差分画像中に透 かしパターンが残存するようにでき、効率的な電子透かし検出が可能となる。
[0655] また、差分画像中の透かしパターンの位相を判定することで、透かしパターンの位 相の反転によって検出透力し情報のビットが反転するタイプの変調方法を用いた場 合でも、正しい透力し情報を検出することができる。この際、透力し情報中の 1ビットを 位相判定用のフラグとして用いてもよいし、あるいは、透力し情報とは別個の位相判 定用電子透かしを用いても良い。
[0656] また、連続したキヤプチヤによって順次得られる差分情報を、位相を合わせた上で 加算蓄積することで、透かしパターンの強度を相対的に増加させ、蓄積バッファから の電子透かし検出を試みることで、 1枚の差分画像からでは十分な検出性能が得ら れない場合でも、検出可能とすることができる。なお、位相を合わせるためには上記 位相反転用のフラグを用いたり、透力 情報とは別個の位相判定用透力 を用いる 方法の他、スペクトラム拡散変調における相関値の符号極性を用いる方法も有り得る [0657] また、電子透かし検出の際に算出される相関値を順次加算蓄積し、蓄積された相 関値を評価して検出可否判定を行うことで、 1枚の差分画像からでは十分な検出性 能が得られない場合でも検出可能とすることができる。この際、差分画像の位相を合 わせることで、相関値が常に同じ位相で蓄積されるようにしたり、相関値の絶対値を 蓄積するようにしてもよ ヽ。
[0658] また、埋め込み情報を小データブロックに分割し、時間方向でデータブロックを切 替えて埋め込みを行い、検出時はデータブロック毎に検出を行って得られたデータ ブロックを連結することで、より長い透力し情報を埋め込み ·検出が可能となる。さらに 、一つの差分画像に対するときの処理と同様に、小データブロック毎検出ごとに差分 位相判定を行ったり、データブロックの順番を表すデータブロック IDを埋め込みによ つて位相判定を兼ねたり、位相を合わせた差分画像蓄積を行ったり、相関値の蓄積 を行ったりして、更に電子透力しの検出性能を向上させることも可能である。
[0659] さらに、カメラからのリアルタイム検出処理を行う状況下では、電子透かし検出処理 の状況を、リアルタイムにフィードバック出力することで、インタラクティブ性が増すこと によって利便性が向上する。特に、検出しやすい状況となるようにユーザを促すこと により、検出性能の向上が期待できる。
[0660] さらに、透かレ f青報を透かしパターンの位相差分変動として埋め込み行うことにより 、差分画像の取得タイミングによらず、一定の透かしパターンを含むように差分画像 を得ることができる。これによつて透かレ f青報のビット反転を防いだり、差分画像蓄積 時や相関値蓄積時に位相を合わせる必要がなくなり、単純に加算蓄積するようにす ればよいので、装置構成の単純化、処理の高速化、及び位相同期信号を不要とする ことに透力し情報長増大や耐性向上を実現できる。また、データブロック利用型の場 合に、データブロック間に無用なブランクを挟まなくても検出情報の信頼性を担保で きるので、単位時間あたりの透力し情報長の増大を実現できる。
[0661] また、本発明の実施の形態によれば、動画像のフレームに対して時間的に切り替 わる透かしパターンの埋め込みを行う際に、動画像データのフレームサイズより小さ い透かしパターンを重畳する。また、検出時にはキヤプチヤで得られたフレーム画像 間の差分画像を生成し、差分の大きな領域、即ち、電子透かし検出対象となる領域 を差分画像中から抽出することで、撮影角度や背景画像によらず安定的な電子透か し検出を実現できる。
[0662] また、キヤプチャフレーム毎に特徴領域の歪みを補正、サイズ正規化を行って得ら れる特徴領域画像間の差分画像から検出対象領域を抽出することにより、撮影中に カメラが動いても安定的に検出対象領域を抽出することが可能となる。
[0663] さらに、埋め込み時に異なる情報を表すような複数の透かしパターンを画像中のォ ブジェクトなどと関連付けて配置して重畳し、検出時には差分画像中から複数の検出 対象領域を抽出するようにして、同時に複数の電子透力し情報を検出したり、ォブジ ェクト毎に異なる情報を抽出することが可能となる。
[0664] また、透力しの情報を位相差分変動として埋め込みを行い、検出時にはまず差分 画像 (A)を生成し、更に時間的に隣接した差分画像 (A)の位相差分を計測し、位相 差を用 、て得られる差分画像 (B)から電子透かしの検出を行うので、検出時のキヤプ チヤタイミング及びキヤプチャ時間間隔、あるいはシャッター速度などによらず常に同 一条件で電子透かし検出が可能となる。
[0665] さらに、透力しの情報を位相差分変動として埋め込みを行い、検出時にはまず差分 画像 (A)を生成し、さらに時間的に隣接した差分画像 (A)の位相差分を計測し、位 相差を用いて得られる差分画像 (B)を生成し、差分画像 (B)を加算蓄積して検出対 象領域を抽出し、検出対象領域画像から電子透かし検出を行うので、先に述べたと おり、検出時のキヤプチャタイミング及びキヤプチャ時間間隔、あるいはシャッター速 度などによらず常に同一条件で電子透かし検出が可能となるほか、撮影角度によつ て生じる歪みの影響を補正し、かつ蓄積によって透力しの耐性を向上させ、より安定 的な電子透かし検出を実現することが可能となる。
[0666] また、埋め込み時の透かしパターンの切り替えタイミングが検出側で既知であれば 、キヤプチヤした 2枚のフレームの時刻を用いて、差分画像に透かしパターンが残存 するものを選択でき、無駄な電子透かし検出を行う必要がなくなる。さらに、検出側の カメラのキヤプチャタイミング、あるいは、差分画像取得時の 2枚の画像の時間差を、 透かしパターン切り替えタイミングに合わせて制御することで、常に差分画像中に透 かしパターンが残存するようにでき、効率的な電子透かし検出が可能となる。
[0667] また、本発明の実施の形態によれば、動画像のフレームに対して時間的に切り替 わる透かしパターンの埋め込みを行う際に、動画像データのフレームサイズより小さ い透かしパターンを重畳する。また、検出時にはキヤプチヤで得られたフレーム画像 間の差分画像を生成し、差分の大きな領域、即ち、電子透かし検出対象となる領域 を差分画像中から抽出することで、撮影角度や背景画像によらず安定的な電子透か し検出を実現できる。
[0668] また、キヤプチャフレーム毎に特徴領域を抽出し、特徴領域の歪みを補正、サイズ 正規化を行って得られる特徴領域画像間の差分画像から検出対象領域を抽出する ことにより、撮影中にカメラが動いても安定的に検出対象領域を抽出することが可能 となる。
[0669] また、検出対象領域や特徴領域の探索時に、以前に電子透かし検出状況が良好 であった時の位置の近傍のみを探索することで、より安定的な領域抽出が可能となる
[0670] また、差分画像を加算蓄積し、加算蓄積した差分画像中から検出対象領域を抽出 することで、更に安定的な領域抽出や、電子透かし検出性能の向上が可能となる。
[0671] さらに、埋め込み時に異なる情報を表すような複数の透かしパターンを画像中のォ ブジェクトなどと関連付けて配置して重畳し、検出時には差分画像中から複数の検出 対象領域を抽出するようにして、同時に複数の電子透力し情報を検出したり、ォブジ ェクト毎に異なる情報を抽出することが可能となる。
[0672] また、撮影時のフレーム画像中の検出対象領域の画素サイズが小さい場合に、自 動的にズームインしてより大きな画素サイズの検出対象領域を取得することができる
。一般に画素サンプルが少なくなると電子透かし検出が困難になるため、ズームイン して検出対象領域の画素サンプル数を増大させることで、電子透かしの検出性能を 向上させることができる。
[0673] 以上述べたとおり、本発明の実施の形態によれば、様々な工夫により電子透力しの 検出性能を向上させることで、テレビなどの動画像をカメラで撮影し、撮影した動画か らリアルタイムに電子透かし検出処理を行うことが可能となる。 [0674] また、キヤプチヤしたフレーム画像中のどの部分力 で電子透かし検出を行えばよ いかを特定して、様々な撮影角度や背景画像の条件下でも確実に電子透かし検出 を可能とすることができ、さらに、電子透力しの検出性能を向上させている。これによ つて、テレビなどの動画像をカメラで撮影し、撮影した動画カゝらリアルタイムに電子透 かし検出処理を確実に行うことが可能となる。
[0675] 本発明の実施の形態によって、例えば、テレビで視聴中の映像をカメラ付携帯電話 機で撮影して、視聴番組関連情報を取得したり、あるいはクイズ番組や視聴者アンケ ートの選択肢を透かし検出によって選択し、その結果を通信によって放送局に送るこ とで、リアルタイムに番組内容にフィードバックするようなインタラクティブテレビ放送を 実現したり、あるいは、従来はバーコードなどを必要としていた拡張現実感システム において、不可視な電子透力しを用いることでバーコードを不要として不自然さを解 消したり、ある ヽはテレビゲームなどにぉ 、て操作対象のオブジェクトを透かし検出で 特定するなどによってゲーム操作に用いたり、あるいは街頭のオーロラビジョンなどで 上記と同様なアプリケーションを実施したり、あるいは PC (パーソナルコンピュータ)な どの表示画面に透かしを埋め込み、これをカメラ付携帯電話機で撮影することで、 P Cから携帯電話機へ情報を送って機器の連携を行ったり、あるいは静止画像を複製 して任意の n枚 (nは 2以上の整数)にし、 nフレームの動画像と見做して本発明を適 用し、アニメーション GIFなどの方法で符号ィ匕しておき、これをブラウザ画面などで表 示することで、表示画面上の静止画像に対しても透力し埋め込み ·検出ができるよう にしたり、あるいは、 PC上で HTMLなどのハイパーテキストを解析してブラウザなど に表示する際に、ハイパーリンクの張られたオブジェクトの表示領域に本発明を用い てノ、ィパーリンク情報を埋め込み、 PCの表示画面上をカメラ付携帯電話機で撮影し て携帯電話機でブラウズをしたり、あるいは、携帯電話機の表示画面を用いて上記 の応用を行うことによる携帯電話機間連携や携帯電話機→PC連携など、極めて広 範囲な応用分野を持つ。さらに、従来からの電子透かし技術の適用目的である、著 作権管理、著作権保護などにも適用可能であることは明らかである。
[0676] 本国際出願は 2005年 8月 4日に出願した日本国特許出願 2005— 226755号、 2 005年 8月 4曰に出願した曰本国特許出願 2005— 226756号、及び 2005年 9月 22 日に出願した日本国特許出願 2005— 275965号に基づく優先権を主張するもので あり、 2005— 226755号、 2005— 226756号、及び 2005— 275965号の全内容を 本国際出願に援用する。

Claims

請求の範囲
[1] 動画像に電子透力 を埋め込む電子透力 埋め込み装置における電子透かし埋 め込み方法であって、
フレーム画像群からなる動画像データ、透かレ隋報、透かしパターンの時間変化を 指定する透かしパターン切り替え情報を入力するステップと、
フレーム画像取得手段にぉ 、て、動画像データの各フレーム画像及び該フレーム 画像の表示時刻であるフレーム表示時刻を順次取得するフレーム画像取得ステップ と、
透かしパターン生成手段において、前記透かし情報と前記フレーム表示時刻と前 記透かしパターン切り替え情報を用いて、透かしパターンを生成する透かしパターン 生成ステップと、
透かしパターン重畳手段にお!、て、前記透かしパターンを前記フレーム画像に重 畳する透かしパターン重畳ステップと、
前記フレーム画像取得手段での処理、前記透かしパターン生成手段での処理、及 び前記透かしパターン重畳手段での処理を順次繰り返して得られる透かし入りフレ ーム画像群を結合して透かし入り動画像データを生成する動画像データ再構成ステ ップと、
を有することを特徴とする電子透かし埋め込み方法。
[2] 前記透かしパターン生成ステップにおいて、前記透かしパターンの切り替えのタイミ ングが、一定の時間周期で繰り返される、請求項 1記載の電子透かし埋め込み方法
[3] 前記透かしパターン生成ステップは、
前記透かし情報と前記フレーム表示時刻と前記透かしパターン切り替え情報を用 V、て、該透力し情報に対応する透かしパターンを生成するステップと、
さらに、前記フレーム表示時刻と前記透かしパターン切り替え情報を用いて、該透 かしパターンの時間変化状態を検出時に推定するための位相判定用透かしパター ンを生成し、その位相判定用透かしパターンを前記透力し情報に対応する透かしパ ターンに多重化して得られるパターンを透かしパターンとするステップとを有する、請 求項 1または 2に記載の電子透かし埋め込み方法。
[4] 動画像に電子透力 を埋め込む電子透力 埋め込み装置における電子透かし埋 め込み方法であって、
フレーム画像群からなる動画像データ、透かレ隋報、透かしパターンの位相変動を 指定する周期情報である透かしパターン切り替え情報を入力するステップと、 フレーム画像取得手段にお 、て、前記動画像データの各フレーム画像及び該フレ ーム画像の表示時刻であるフレーム表示時刻を順次取得するフレーム画像取得ステ ップと、
透かしパターン生成手段において、前記透かし情報と前記フレーム表示時刻と前 記透かしパターン切り替え情報を用いて、透かしパターンを生成する透かしパターン 生成ステップと、
透かしパターン重畳手段にお!、て、前記透かしパターンを前記フレーム画像に重 畳する透かしパターン重畳ステップと、
前記フレーム画像取得ステップ力 前記透かしパターン重畳ステップを順次繰り返 して得られる透かし入りフレーム画像群を結合して透かし入り動画像データを生成す る動画像データ再構成ステップと、
を有することを特徴とする電子透かし埋め込み方法。
[5] 前記透かしパターン生成ステップは、
前記透力し情報を用いて基本透かしパターンを生成する基本透かしパターン生成 ステップと、
前記フレーム表示時刻と前記透かしパターン切り替え情報を用いて、直前の透かし パターンに対して前記基本透かしパターンで定まる位相変動をカ卩えて新たな透かし パターンを生成するステップと、
を有する請求項 4記載の電子透かし埋め込み方法。
[6] 前記透かしパターン生成ステップは、
前記透力し情報を用いて基本透かしパターンを生成する基本透かしパターン生成 ステップと、
前記基本透かしパターンの画素値に基づいて符号パターンを生成する符号パター ン生成ステップと、
前記フレーム表示時刻と前記透かしパターン切り替え情報を用いて、直前のフレー ムカもの時間差分に対応する透かしパターン切り替え位相変動値を求める透かしパ ターン切り替え位相変動値算出ステップと、
前記透かしパターン切り替え位相変動値に前記符号パターン生成ステップで生成 された前記符号パターンの各要素の符号を付与して、これを直前の透かし位相バタ ーン力 の位相差分として現在のフレームに対する透か Lf立相パターンを生成する 透かし位相パターン生成ステップと、
前記透かし位相パターンに基づいて透かしパターンを生成する透かし位相パター ン画像化ステップと、
を有する請求項 4記載の電子透かし埋め込み方法。
[7] 前記透かしパターン生成ステップは、
前記透かし位相パターン力も前記透かしパターンを生成する際に、前記基本透か しパターンの各画素値に基づいて透かしパターンの対応する画素値の振幅を増減 するステップを有する請求項 6記載の電子透力 埋め込み方法。
[8] 前記透かしパターン生成ステップは、
前記基本透かしパターンが表す位相差分変動を、画像の複数の成分から得られる 座標系における回転量に対応させ、位相差分変動で回転されて得られる新たな複数 の成分値をもとに、前記透かしパターンを生成するステップを有する、請求項 4乃至 7 のうちいずれか 1項に記載の電子透力し埋め込み方法。
[9] 前記画像の複数の成分として、画像の Cb-Cr成分を用いる、請求項 8記載の電子 透かし埋め込み方法。
[10] 前記透かしパターン生成ステップは、
前記透かし情報と前記フレーム表示時刻と前記透かしパターン切り替え情報を用 V、て、該透力し情報をデータブロックに分割するステップと、
前記フレーム表示時刻と前記透かしパターン切り替え情報から定まるデータブロッ ク ID及び該データブロック IDのデータブロック情報を元に透かしパターンを生成する ステップと、 を有する請求項 1乃至 9のうちいずれか 1項に記載の電子透力し埋め込み方法。
[11] 前記透かしパターン生成ステップは、
前記透かし情報と前記フレーム表示時刻と前記透かしパターン切り替え情報を用 V、て、該透力し情報をデータブロックに分割するステップと、
前記フレーム表示時刻と前記透かしパターン切り替え情報から定まるデータブロッ ク ID及び該データブロック IDのデータブロック情報を元に前記透かしパターンを生 成する際に、前記データブロック IDが位相判定用透力 情報を兼ねるようにして透か しパターンを生成するステップと、
を有する請求項 3または 10に記載の電子透力 埋め込み方法。
[12] 前記透かしパターン重畳ステップは、前記透かしパターンを前記フレーム画像以下 のサイズにスケール変更して該フレーム画像の内部に重畳するステップを有する、請 求項 1乃至 11のうちいずれか 1項に記載の電子透力し埋め込み方法。
[13] 前記透かしパターン生成ステップは、
前記透力し情報を用いて基本透かしパターンを生成するステップと、
さらに、電子透かし検出時の検出対象領域抽出のための位置合わせのためのパタ ーンを基本透かしパターンに追加するステップと、
前記フレーム表示時刻と前記透かしパターン切り替え情報を用いて基本透かしパ ターンを変更することで透かしパターンを生成するステップと、
を有する請求項 12に記載の電子透力 埋め込み方法。
[14] 前記透かしパターン生成ステップは、
前記透かし情報を既存の 2次元コードにより基本透かしパターンに変調し、前記フ レーム表示時刻と前記透かしパターン切り替え情報を用いて該基本透かしパターン 力も透かしパターンを生成するステップを有する、請求項 12または 13に記載の電子 透かし埋め込み方法。
[15] 前記電子透かし埋め込み装置は複数の透かしパターン生成手段を有し、前記電子 透かし埋め込みステップにお!/ヽて、
各々の前記透かしパターン生成手段は異なる透かしパターンを生成し、前記透か しパターン重畳手段は、前記透かしパターンをフレーム画像内に複数重畳する、請 求項 12乃至 14のうちいずれか 1項に記載の電子透力し埋め込み方法。
[16] 前記透かしパターン重畳ステップは、動きの多いフレーム画像ほど透かしパターン の振幅を増幅するステップを有する、請求項 1乃至 15のうちいずれ力 1項に記載の 電子透かし埋め込み方法。
[17] 前記透かしパターン重畳ステップは、以前に入力したフレーム画像を記憶手段に 保持しておき、今回入力したフレーム画像と以前のフレーム画像との差分画像を生 成し、該差分画像の画素値に基づ 、て基本透かしパターンの振幅を増幅するステツ プを有する、請求項 16記載の電子透かし埋め込み方法。
[18] 前記透かしパターン重畳ステップは、透かしパターン全体の振幅を増幅するステツ プを有する、請求項 16または 17に記載の電子透力し埋め込み方法。
[19] 前記透かしパターン重畳ステップは、フレーム画像中の動きの大きい画素領域に 対応する透かしパターンの画素領域を増幅するステップを有する、請求項 16または
17に記載の電子透かし埋め込み方法。
[20] 動画像力も電子透力 を検出する電子透かし検出装置における電子透かし検出方 法であって、
動画像入力手段にぉ ヽて、フレーム画像を順次取得する動画像入力ステップと、 差分画像生成手段において、今回取得した前記フレーム画像と、以前に取得した フレーム画像の差分画像を生成する差分画像生成ステップと、
電子透かし検出手段において、前記差分画像からの電子透かし検出を行って、電 子透かしの検出状況を出力する電子透かし検出ステップとを有し、
前記電子透力しの検出が不可能であった場合を含む、電子透かし検出処理を続 行する場合は、前記動画像入力手段で新たなフレーム画像を取得し直し、上記の各 ステップを繰り返す、ことを特徴とする電子透かし検出方法。
[21] 前記電子透かし検出ステップで得られた透力 情報力 データブロック IDとデータ ブロック情報を得て、検出透力し情報バッファの該データブロック IDの情報に検出し たデータブロック情報を記録し、全てのデータブロック IDにつ 、て検出が完了した場 合に電子透かし検出成功の旨を出力する、請求項 20に記載の電子透かし検出方法 [22] 前記動画像入力ステップは、前記フレーム画像と該フレーム画像の表示時刻であ るフレーム表示時刻を順次取得するステップを有し、
前記電子透かし検出方法は、電子透かし埋め込み時の透かしパターン切り替え情 報を用いて、今回のフレーム表示時刻と、以前に取得したフレーム画像のフレーム表 示時刻の時間間隔から検出要否を判定する判定ステップを更に有し、
判定ステップにおいて検出不要と判定された場合は前記動画像入力手段におい て新たなフレーム画像を取得し直し、検出要と判定した場合は前記差分画像生成ス テツプ以降の処理を続行する、請求項 20または 21に記載の電子透かし検出方法。
[23] 前記電子透かし検出方法は、電子透かし埋め込み時の透かしパターン切り替え情 報を用いて、フレームのキヤプチャタイミングを設定するキヤプチャタイミング制御ステ ップを有し、
前記動画像入力手段にぉ 、て、前記キヤプチャタイミングに基づ 、てフレーム画像 を順次取得する、請求項 20乃至 22のうちいずれ力 1項に記載の電子透かし検出方 法。
[24] 前記電子透かし検出方法は、電子透かし埋め込み時の透かしパターン切り替え情 報を用いて、差分画像を得るためのフレーム間の時間間隔を表す差分タイミングを設 定するステップを有し、
前記動画像入力手段にぉ ヽて、前記フレーム画像と該フレーム表示時刻を順次取 得し、前記差分画像生成手段において、今回取得したフレーム画像と、前記差分タ イミングで指定される時間だけ以前に取得したフレーム画像の差分画像を生成する、 請求項 20乃至 22のうちいずれか 1項に記載の電子透かし検出方法。
[25] 前記電子透かし検出ステップは、前記差分画像に埋め込まれている透かしパター ンの位相を判定し、透かしパターンの位相が逆相の場合は、検出した透かし情報の ビット反転を行って、電子透かしの検出状況を出力するステップを有する、請求項 20 乃至 24のうちいずれか 1項に記載の電子透かし検出方法。
[26] 前記差分画像生成ステップにおいて前記差分画像を差分画像蓄積バッファにカロ 算し、前記電子透かし検出ステップにおいて、前記差分画像蓄積バッファからの電 子透かし検出を行って透かレ f青報を検出して、検出状況を出力する、請求項 20乃至 25のうちいずれか 1項に記載の電子透かし検出方法。
[27] 前記電子透かし検出方法は、前記差分画像に埋め込まれている透かしパターンの 位相を判定するステップと、順次処理される差分画像の全てで当該位相が同相とな るように差分画像を変更するステップを有し、これらのステップで得られた差分画像を 用いて前記差分画像生成ステップ及び前記電子透かし検出ステップを実行する、請 求項 26に記載の電子透かし検出方法。
[28] 前記電子透かし検出ステップは、検出の際に算出される相関値を検出処理の度に 記憶手段に蓄積し、蓄積された相関値を用いて検出成功力否かを判定するステップ を有する、請求項 20乃至 27のうちいずれ力 1項に記載の電子透かし検出方法。
[29] 前記電子透かし検出ステップは、検出の際に算出される相関値の絶対値を検出処 理の度に記憶手段に蓄積し、蓄積された該相関値の絶対値を用いて検出成功力否 かを判定するステップを有する、請求項 20乃至 27のうちいずれか 1項に記載の電子 透かし検出方法。
[30] 埋め込み時に用いた透かしパターン切り替え情報と、フレーム画像取得時に得られ るフレーム表示時刻の関係から、差分画像中の透かしパターンの位相を判定するス テツプを有する、請求項 25または 27に記載の電子透かし検出方法。
[31] 前記差分画像中に埋め込まれた透かしパターンで表現された透力 情報中の予め 定めたビット位置のビット値を検出し、該ビット値に基づ 、て該差分画像中の透かし パターンの位相を判定するステップを有する、請求項 25または 27に記載の電子透か し検出方法。
[32] 位相判定用透力ゝしを検出して前記差分画像中の透かしパターンの位相を判定する ステップを有する、請求項 25または 27に記載の電子透かし検出方法。
[33] 透かし検出処理によって算出される相関値の正負の極性を利用して前記差分画像 中の透かしパターンの位相を判定するステップを有する、請求項 25または 27に記載 の電子透かし検出方法。
[34] 前記差分画像力もの電子透かし検出を行って透力し情報であるデータブロック情 報及びデータブロック IDを検出し、データブロック ID検出時の相関値の正負の極性 を利用して前記差分画像に埋め込まれている透かしパターンの位相を判定するステ ップを有する、請求項 25または 27に記載の電子透かし検出方法。
[35] 前記差分画像生成ステップは、
今回取得したフレーム画像と、以前に取得したフレーム画像の差分画像を生成し、 さらに、該差分画像中の特定成分から位相値と振幅値を求め、該位相値が所与の複 数のグループの 、ずれに属するかを判定し、その判定結果と該振幅値を元に該差 分画像を修正して出力するステップを有する、請求項 20乃至 34のうちいずれか 1項 に記載の電子透かし検出方法。
[36] 前記差分画像生成ステップは、今回取得したフレーム画像と、画像記憶手段から 読み出した以前に取得したフレーム画像の差分画像 (A)を生成し、該今回取得した フレーム画像を該画像記憶手段に格納するステップを有し、
前記電子透かし検出方法は、今回取得した差分画像 (A)に基づいて位相パターン を生成し、今回取得した位相パターンと位相パターン記憶手段力 読み出した以前 に取得した位相パターンの位相差を計測し、位相差に基づ!ヽて差分画像 (B)を生成 し、該今回取得した位相パターンを該位相パターン記憶手段に格納する位相差分 計測ステップを有し、
前記電子透かし検出ステップは、前記差分画像 (B)からの電子透かし検出を行つ て、電子透かしの検出状況を出力するステップを有する、請求項 20乃至 34のうちい ずれ力 1項に記載の電子透かし検出方法。
[37] 前記位相差分計測ステップは、
前記差分画像 (A)から位相パターンを生成する際に、位相値と共に振幅値を求め て位相パターンの要素値とするステップと、
前記今回取得した位相パターンと前記以前に取得した位相パターンの位相差を計 測し、位相差に基づいて符号を決定するステップと、
さらに前記今回取得した位相パターンと前記以前に取得した位相パターンの振幅 値と、符号に基づ!/、て前記差分画像 (B)を生成するステップと、
を有する請求項 36記載の電子透かし検出方法。
[38] 前記位相差分計測ステップは、
前記差分画像 (A)力も前記位相パターンを生成する際に、前記今回取得した位相 パターンと前記以前に取得した位相パターンの振幅値に対して単調増加する値を振 幅とし、前記符号と組み合わせて得られる値に基づ!、て前記差分画像 (B)を生成す るステップを有する、請求項 37記載の電子透かし検出方法。
[39] 前記差分画像生成ステップにおける前記差分画像中の特定成分が複数の成分で ある、請求項 35記載の電子透かし検出方法。
[40] 前記位相差分計測ステップにお 、て、前記差分画像 (A)から位相パターンを得る 際に、該差分画像 (A)中の複数の成分から得られる座標系おける位相及び振幅を 利用する、請求項 36乃至 38のうちいずれか 1項に記載の電子透かし検出方法。
[41] 前記差分画像中の特定成分が Cb成分及び Cr成分である、請求項 39または 40記 載の電子透かし検出方法。
[42] 前記電子透かし検出方法は、前記差分画像 (B)を差分画像蓄積バッファに加算す るステップを更に有し、
電子透かし検出ステップは、前記差分画像蓄積バッファからの電子透かし検出を行 つて透かレ隋報を検出して、検出状況を出力するステップを有する、請求項 36乃至 4
1のうちいずれか 1項に記載の電子透かし検出方法。
[43] 前記電子透かし検出方法は、順次取得される前記フレーム画像に対し、今回のフ レーム画像中の検出対象領域を抽出し、歪みを補正し、サイズを正規化して検出対 象領域画像を生成するステップを有し、
前記差分画像生成ステップにおいて、今回取得した検出対象領域画像と、以前に 取得した検出対象領域画像の差分画像を生成する、請求項 20乃至 42のうち ヽずれ 力 1項に記載の電子透かし検出方法。
[44] 前記電子透かし検出方法は、順次取得される前記差分画像から検出対象領域を 抽出して検出対象領域画像を生成するステップを有し、
前記電子透かし検出ステップにお 、て、前記検出対象領域画像からの電子透かし 検出を行って、電子透かしの検出状況を出力する、請求項 20乃至 42のうちいずれ 力 1項に記載の電子透かし検出方法。
[45] 前記フレーム画像を順次取得した後に、前記フレーム画像力 特徴領域を抽出し て歪み補正及びサイズ正規化を行って特徴領域画像を生成する特徴領域抽出ステ ップと、
今回取得した特徴領域画像と、以前に取得した特徴領域画像の差分画像を生成 する前記差分画像生成ステップと、
前記差分画像から検出対象領域を抽出して検出対象領域画像を生成する検出対 象領域抽出ステップと、
前記検出対象領域力 の電子透かし検出を行う前記電子透かし検出ステップと、 を有する請求項 20乃至 42のうちいずれ力 1項に記載の電子透かし検出方法。
[46] 前記検出対象領域抽出ステップは、前記差分画像から前記検出対象領域を抽出 する際に、該差分画像の画素値を絶対値化して検出対象領域を探索するステップを 有する、請求項 44または 45に記載の電子透かし検出方法。
[47] 前記検出対象領域抽出ステップは、前記差分画像から前記検出対象領域を抽出 する際に、埋め込み時の基本透かしパターンに付加された位置合わせパターンを用
V、て検出対象領域を探索するステップを有する、請求項 44または 46に記載の電子 透かし検出方法。
[48] 前記検出対象領域抽出ステップは、過去の電子透かし検出試行で検出状況が良 好であったときの検出対象領域の近傍の領域に限定した探索を行って、今回の検出 対象領域抽出処理を行うステップを有する、請求項 44乃至 47のうちいずれか 1項に 記載の電子透かし検出方法。
[49] 前記検出対象領域抽出ステップは、前記位置合わせパターンを用いて、前記差分 画像中の透かしパターンの位相を判定するステップを有する、請求項 47に記載の電 子透かし検出方法。
[50] 前記検出対象領域抽出ステップは、前記差分画像を記憶手段に加算蓄積し、蓄積 した該差分画像中から検出対象領域を探索し、抽出するステップを有する、請求項 4
4乃至 49のうちいずれか 1項に記載の電子透かし検出方法。
[51] 前記検出対象領域抽出ステップは、前記差分画像を前記記憶手段に加算蓄積す る際に、該差分画像中の透かしパターンの位相を揃えて、加算蓄積を行うステップを 有する、請求項 50に記載の電子透かし検出方法。
[52] 動画像力も電子透力 を検出する電子透かし検出装置における電子透かし検出方 法であって、
動画像入力手段にぉ 、て、フレーム画像を順次取得するフレーム画像取得ステツ プと、
特徴領域抽出手段において、フレーム画像中の特徴領域を抽出し特徴領域画像 を取得する特徴領域抽出ステップと、
差分画像生成手段において、今回取得した特徴領域画像と、特徴領域画像バッフ ァから読み出した以前に取得した特徴領域画像の差分画像を生成して差分画像 (A )を取得すると共に、該今回取得した特徴領域画像を該特徴領域画像バッファに格 納する差分画像生成ステップと、
位相差分計測手段において、今回取得した差分画像 (A)に基づいて位相パター ンを生成し、今回取得した位相パターンと位相パターンバッファ力も読み出した以前 に取得した位相パターンの位相差を計測し、位相差と振幅に基づ!ヽて差分画像 (B) を生成すると共に、該今回取得した差分画像 (A)を該位相パターンバッファに格納 する位相差分計測ステップと、
検出対象領域抽出手段において、前記差分画像 (B)を各画素毎に画素値の加算 蓄積を行い、加算蓄積によって得られる差分画像 (B)蓄積バッファから検出対象領 域を抽出し、検出対象領域画像を取得する検出対象領域抽出ステップと、
電子透かし検出手段において、前記検出対象領域画像からの電子透かし検出を 行って、電子透かしの検出状況を出力する電子透かし検出ステップと、
電子透かしの検出が不可能であった場合を含む、電子透かし検出処理を続行する 場合は、上記動画像入力手段で新たなフレーム画像を取得し直し上記各ステップを 繰り返すステップと、
を有することを特徴とする電子透かし検出方法。
前記検出対象領域抽出ステップは、
加算蓄積によって得られる前記差分画像 (B)蓄積バッファから検出対象領域を抽 出する際に、前記差分画像 (B)蓄積バッファの画素値の絶対値をとつたものカも検 出対象領域を抽出し、絶対値を取る前の差分画像 (B)蓄積バッファの検出対象領域 の画像を検出対象領域画像として得るステップを有する、請求項 52記載の電子透か し検出方法。
[54] 前記検出対象領域抽出ステップにおいて、複数の検出対象領域を抽出し、
前記電子透かし検出ステップにおいて、前記複数の検出対象領域の各々に対して 電子透かし検出試行を行い、検出結果を出力する、
請求項 43乃至 53のうちいずれか 1項に記載の電子透かし検出方法。
[55] 前記電子透かし検出ステップは、透力 情報を検出する際に、既存の 2次元コード の復号処理を用いて透力し情報を検出するステップを有する、請求項 20乃至 54のう ちいずれか 1項に記載の電子透かし検出方法。
[56] 差分処理によって生成される前記差分画像に対して、さらにフィルタ処理を施し、フ ィルタ処理を施した差分画像を出力するステップを有する、請求項 20乃至 55のうち いずれか 1項に記載の電子透かし検出方法。
[57] 前記フィルタ処理として、非線形フィルタを用いる、請求項 56記載の電子透かし検 出方法。
[58] 入力とする動画像が、カメラで撮影され、キヤプチャされた映像信号である、請求項 20乃至 57のうちいずれか 1項に記載の電子透かし検出方法。
[59] 検出対象領域抽出状況、電子透かし検出状況、データブロック検出状況のうちの いずれか又は複数の処理状況に応じたフィードバック出力を画面あるいは、音声を 出力する外部出力手段により行うステップを有する、請求項 20乃至 58のうちいずれ 力 1項に記載の電子透かし検出方法。
[60] 前記検出対象領域抽出ステップにおいて、検出対象領域のサイズ及び位置を表 す検出対象領域情報を更に生成し、前記電子透かし生成方法は、前記検出対象領 域情報に基づいて、検出対象領域が所与の画素サイズとなるようにズームパラメタを 設定し、当該ズームパラメタを前記動画像入力手段に与えてズーム処理を行うズー ム処理ステップを有する、請求項 43乃至 59のうちいずれか 1項に記載の電子透かし 検出方法。
[61] 前記ズーム処理ステップは、前記電子透かし検出ステップにおける検出状況が良 好であった場合に、前記検出対象領域情報に基づいて、検出対象領域が所与の画 素サイズになるようにズームパラメタを設定し、前記動画像入力手段に与えてズーム 処理を行うステップを有する、請求項 60記載の電子透かし検出方法。
[62] 入力とする動画像が、表示ディスプレイ上に表示されている状態をカメラでリアルタ ィムに撮影され、キヤプチャされたものであり、
電子透かし検出によって得られた透力 情報に基づいて、表示されている動画像 に関連する情報を取得するステップを有する、請求項 20乃至 61のうちいずれか 1項 に記載の電子透かし検出方法。
[63] 動画像に電子透かしを埋め込む電子透かし埋め込み装置であって、
フレーム画像群からなる動画像データ、透かレ隋報、透かしパターンの時間変化を 指定する透かしパターン切り替え情報を入力する手段と、
動画像データの各フレーム画像及び該フレーム画像の表示時刻であるフレーム表 示時刻を順次取得するフレーム画像取得手段と、
前記透かし情報と前記フレーム表示時刻と前記透かしパターン切り替え情報を用 Vヽて、透かしパターンを生成する透かしパターン生成手段と、
前記透かしパターンを前記フレーム画像に重畳する透かしパターン重畳手段と、 前記フレーム画像取得手段での処理、前記透かしパターン生成手段での処理、及 び前記透かしパターン重畳手段での処理を順次繰り返して得られる透かし入りフレ ーム画像群を結合して透かし入り動画像データを生成する動画像データ再構成手 段と、
を有することを特徴とする電子透かし埋め込み装置。
[64] 前記透かしパターン生成手段において、前記透かしパターンの切り替えのタイミン ダカ 一定の時間周期で繰り返される、請求項 63記載の電子透かし埋め込み装置。
[65] 前記透かしパターン生成手段は、
前記透かし情報と前記フレーム表示時刻と前記透かしパターン切り替え情報を用 V、て、該透力し情報に対応する透かしパターンを生成し、
さらに、前記フレーム表示時刻と前記透かしパターン切り替え情報を用いて、該透 かしパターンの時間変化状態を検出時に推定するための位相判定用透かしパター ンを生成し、その位相判定用透かしパターンを前記透力し情報に対応する透かしパ ターンに多重化して得られるパターンを透かしパターンとする、請求項 63または 64に 記載の電子透かし埋め込み装置。
[66] 動画像に電子透かしを埋め込む電子透かし埋め込み装置であって、
フレーム画像群からなる動画像データ、透かレ隋報、透かしパターンの位相変動を 指定する周期情報である透かしパターン切り替え情報を入力する手段と、
前記動画像データの各フレーム画像及び該フレーム画像の表示時刻であるフレー ム表示時刻を順次取得するフレーム画像取得手段と、
前記透かし情報と前記フレーム表示時刻と前記透かしパターン切り替え情報を用
Vヽて、透かしパターンを生成する透かしパターン生成手段と、
前記透かしパターンを前記フレーム画像に重畳する透かしパターン重畳手段と、 前記フレーム画像取得手段での処理、前記透かしパターン生成手段での処理、及 び前記透かしパターン重畳手段での処理を順次繰り返して得られる透かし入りフレ ーム画像群を結合して透かし入り動画像データを生成する動画像データ再構成手 段と、
を有することを特徴とする電子透かし埋め込み装置。
[67] 前記透かしパターン生成手段は、
前記透力し情報を用いて基本透かしパターンを生成する基本透かしパターン生成 手段と、
前記フレーム表示時刻と前記透かしパターン切り替え情報を用いて、直前の透かし パターンに対して前記基本透かしパターンで定まる位相変動をカ卩えて新たな透かし パターンを生成する手段と、
を有する請求項 66記載の電子透かし埋め込み装置。
[68] 前記透かしパターン生成手段は、
前記透力し情報を用いて基本透かしパターンを生成する基本透かしパターン生成 手段と、
前記基本透かしパターンの画素値に基づいて符号パターンを生成する符号パター ン生成手段と、
前記フレーム表示時刻と前記透かしパターン切り替え情報を用いて、直前のフレー ムカもの時間差分に対応する透かしパターン切り替え位相変動値を求める透かしパ ターン切り替え位相変動値算出手段と、
前記透かしパターン切り替え位相変動値に前記符号パターン生成手段で生成され た前記符号パターンの各要素の符号を付与して、これを直前の透かし位相パターン 力 の位相差分として現在のフレームに対する透かし位相パターンを生成する透か し位相パターン生成手段と、
前記透かし位相パターンに基づいて透かしパターンを生成する透かし位相パター ン画像化手段と、
を有する請求項 66記載の電子透かし埋め込み装置。
[69] 前記透かしパターン生成手段は、
前記透かし位相パターン力も前記透かしパターンを生成する際に、前記基本透か しパターンの各画素値に基づいて透かしパターンの対応する画素値の振幅を増減 する、請求項 68記載の電子透かし埋め込み装置。
[70] 前記透かしパターン生成手段は、
前記基本透かしパターンが表す位相差分変動を、画像の複数の成分から得られる 座標系における回転量に対応させ、位相差分変動で回転されて得られる新たな複数 の成分値をもとに、前記透かしパターンを生成する、請求項 66乃至 69のうちいずれ 力 1項に記載の電子透かし埋め込み装置。
[71] 前記画像の複数の成分として、画像の Cb-Cr成分を用いる、請求項 70記載の電子 透かし埋め込み装置。
[72] 前記透かしパターン生成手段は、
前記透かし情報と前記フレーム表示時刻と前記透かしパターン切り替え情報を用 V、て、該透力し情報をデータブロックに分割する手段と、
前記フレーム表示時刻と前記透かしパターン切り替え情報から定まるデータブロッ ク ID及び該データブロック IDのデータブロック情報を元に透かしパターンを生成する 手段と、
を有する請求項 63乃至 71のうちいずれ力 1項に記載の電子透力し埋め込み装置。
[73] 前記透かしパターン生成手段は、
前記透かし情報と前記フレーム表示時刻と前記透かしパターン切り替え情報を用 、て、該透力し情報をデータブロックに分割する手段と、
前記フレーム表示時刻と前記透かしパターン切り替え情報から定まるデータブロッ ク ID及び該データブロック IDのデータブロック情報を元に前記透かしパターンを生 成する際に、前記データブロック IDが位相判定用透力 情報を兼ねるようにして透か しパターンを生成する手段と、
を有する請求項 65または 72に記載の電子透力 埋め込み装置。
[74] 前記透かしパターン重畳手段は、前記透かしパターンを前記フレーム画像以下の サイズにスケール変更して該フレーム画像の内部に重畳する、請求項 63乃至 73のう ち 、ずれか 1項に記載の電子透かし埋め込み装置。
[75] 前記透かしパターン生成手段は、
前記透かし情報を用いて基本透かしパターンを生成する手段と、
さらに、電子透かし検出時の検出対象領域抽出のための位置合わせのためのパタ ーンを基本透かしパターンに追加する手段と、
前記フレーム表示時刻と前記透かしパターン切り替え情報を用いて基本透かしパ ターンを変更することで透かしパターンを生成する手段と、
を有する請求項 74に記載の電子透かし埋め込み装置。
[76] 前記透かしパターン生成手段は、
前記透かし情報を既存の 2次元コードにより基本透かしパターンに変調し、前記フ レーム表示時刻と前記透かしパターン切り替え情報を用いて該基本透かしパターン 力も透かしパターンを生成する、請求項 74または 75に記載の電子透力し埋め込み 装置。
[77] 前記電子透かし埋め込み装置は複数の透かしパターン生成手段を有し、
各々の前記透かしパターン生成手段は異なる透かしパターンを生成し、前記透か しパターン重畳手段は、前記透かしパターンをフレーム画像内に複数重畳する、請 求項 74乃至 76のうちいずれ力 1項に記載の電子透かし埋め込み装置。
[78] 前記透かしパターン重畳手段は、動きの多いフレーム画像ほど透かしパターンの振 幅を増幅する、請求項 63乃至 77のうちいずれ力 1項に記載の電子透力し埋め込み 装置。 [79] 前記透かしパターン重畳手段は、以前に入力したフレーム画像を記憶手段に保持 しておき、今回入力したフレーム画像と以前のフレーム画像との差分画像を生成し、 該差分画像の画素値に基づ 、て基本透かしパターンの振幅を増幅する、請求項 78 記載の電子透かし埋め込み装置。
[80] 前記透かしパターン重畳手段は、透かしパターン全体の振幅を増幅する、請求項 7 8または 79に記載の電子透力 埋め込み装置。
[81] 前記透かしパターン重畳手段は、フレーム画像中の動きの大きい画素領域に対応 する透かしパターンの画素領域を増幅する、請求項 78または 79に記載の電子透か し埋め込み装置。
[82] 動画像力 電子透力 を検出する電子透かし検出装置であって、
フレーム画像を順次取得する動画像入力手段と、
今回取得した前記フレーム画像と、以前に取得したフレーム画像の差分画像を生 成する差分画像生成手段と、
前記差分画像力 の電子透かし検出を行って、電子透かしの検出状況を出力する 電子透かし検出手段と、
前記電子透力しの検出が不可能であった場合を含む、電子透かし検出処理を続 行する場合は、前記動画像入力手段での処理、前記差分画像生成手段での処理、 及び電子透かし検出手段での処理を繰り返す手段と、
を有することを特徴とする電子透かし検出装置。
[83] 前記電子透かし検出手段で得られた透力 情報力もデータブロック IDとデータプロ ック情報を得て、検出透力し情報バッファの該データブロック IDの情報に検出したデ 一タブロック情報を記録し、全てのデータブロック IDについて検出が完了した場合に 電子透かし検出成功の旨を出力する、請求項 82に記載の電子透かし検出装置。
[84] 前記動画像入力手段は、前記フレーム画像と該フレーム画像の表示時刻であるフ レーム表示時刻を順次取得し、
前記電子透かし検出装置は、電子透かし埋め込み時の透かしパターン切り替え情 報を用いて、今回のフレーム表示時刻と、以前に取得したフレーム画像のフレーム表 示時刻の時間間隔力 検出要否を判定する検出要否判定手段を更に有し、 前記検出要否判定手段において検出不要と判定された場合は前記動画像入力手 段において新たなフレーム画像を取得し直し、検出要と判定した場合は前記差分画 像生成手段の処理以降の処理を続行する、請求項 82または 83に記載の電子透か し検出装置。
[85] 前記電子透かし検出装置は、電子透かし埋め込み時の透かしパターン切り替え情 報を用いて、フレームのキヤプチャタイミングを設定するキヤプチャタイミング制御手 段を有し、
前記動画像入力手段は、前記キヤプチャタイミングに基づ 、てフレーム画像を順次 取得する、請求項 82乃至 84のうちいずれか 1項に記載の電子透かし検出装置。
[86] 前記電子透かし検出装置は、電子透かし埋め込み時の透かしパターン切り替え情 報を用いて、差分画像を得るためのフレーム間の時間間隔を表す差分タイミングを設 定する手段を有し、
前記動画像入力手段は、前記フレーム画像と該フレーム表示時刻を順次取得し、 前記差分画像生成手段は、今回取得したフレーム画像と、前記差分タイミングで指 定される時間だけ以前に取得したフレーム画像の差分画像を生成する、請求項 82 乃至 84のうちいずれか 1項に記載の電子透かし検出装置。
[87] 前記電子透かし検出装置は、前記差分画像に埋め込まれている透かしパターンの 位相を判定する差分位相判定手段を有し、
前記差分位相判定手段による判定の結果、透かしパターンの位相が逆相の場合 は、検出した透かレ f青報のビット反転を行って、電子透かしの検出状況を出力する、 請求項 82乃至 86のうちいずれか 1項に記載の電子透かし検出装置。
[88] 前記差分画像生成手段は、前記差分画像を差分画像蓄積バッファに加算し、前記 電子透かし検出手段は、前記差分画像蓄積バッファからの電子透かし検出を行って 透力し情報を検出して、検出状況を出力する、請求項 82乃至 87のうちいずれ力 1項 に記載の電子透かし検出装置。
[89] 前記差分画像に埋め込まれている透かしパターンの位相を判定し、順次処理され る差分画像の全てで当該位相が同相となるように差分画像を変更し、得られた差分 画像を用いて前記差分画像生成手段での処理及び前記電子透かし検出手段での 処理を実行する、請求項 88に記載の電子透かし検出装置。
[90] 前記電子透かし検出手段は、検出の際に算出される相関値を検出処理の度に記 憶手段に蓄積し、蓄積された相関値を用いて検出成功力否かを判定する、請求項 8 2乃至 89のうちいずれか 1項に記載の電子透かし検出装置。
[91] 前記電子透かし検出手段は、検出の際に算出される相関値の絶対値を検出処理 の度に記憶手段に蓄積し、蓄積された該相関値の絶対値を用いて検出成功力否か を判定する、請求項 82乃至 89のうちいずれか 1項に記載の電子透かし検出装置。
[92] 前記差分位相判定手段は、埋め込み時に用いた透かしパターン切り替え情報と、 フレーム画像取得時に得られるフレーム表示時刻の関係から、差分画像中の透かし パターンの位相を判定する、請求項 87または 89に記載の電子透かし検出装置。
[93] 前記差分位相判定手段は、前記差分画像中に埋め込まれた透かしパターンで表 現された透力し情報中の予め定めたビット位置のビット値を検出し、該ビット値に基づ いて該差分画像中の透かしパターンの位相を判定する、請求項 87または 89に記載 の電子透かし検出装置。
[94] 前記差分位相判定手段は、位相判定用透かしを検出して前記差分画像中の透か しパターンの位相を判定する、請求項 87または 89に記載の電子透かし検出装置。
[95] 前記差分位相判定手段は、透かし検出処理によって算出される相関値の正負の極 性を利用して前記差分画像中の透かしパターンの位相を判定する、請求項 87また は 89に記載の電子透かし検出装置。
[96] 前記差分位相判定手段は、前記差分画像からの電子透かし検出を行って透かし 情報であるデータブロック情報及びデータブロック IDを検出し、データブロック ID検 出時の相関値の正負の極性を利用して前記差分画像に埋め込まれている透かしパ ターンの位相を判定する、請求項 87または 89に記載の電子透かし検出装置。
[97] 前記差分画像生成手段は、
今回取得したフレーム画像と、以前に取得したフレーム画像の差分画像を生成し、 さらに、該差分画像中の特定成分から位相値と振幅値を求め、該位相値が所与の複 数のグループの 、ずれに属するかを判定し、その判定結果と該振幅値を元に該差 分画像を修正して出力する、請求項 82乃至 96のうちいずれ力 1項に記載の電子透 かし検出装置。
[98] 前記差分画像生成手段は、今回取得したフレーム画像と、画像記憶手段から読み 出した以前に取得したフレーム画像の差分画像 (A)を生成し、該今回取得したフレ ーム画像を該画像記憶手段に格納し、
前記電子透かし検出装置は、今回取得した差分画像 (A)に基づいて位相パターン を生成し、今回取得した位相パターンと位相パターン記憶手段力 読み出した以前 に取得した位相パターンの位相差を計測し、位相差に基づ!ヽて差分画像 (B)を生成 し、該今回取得した位相パターンを該位相パターン記憶手段に格納する位相差分 計測手段を有し、
前記電子透かし検出手段は、前記差分画像 (B)からの電子透かし検出を行って、 電子透力しの検出状況を出力する、請求項 82乃至 96のうちいずれか 1項に記載の 電子透かし検出装置。
[99] 前記位相差分計測手段は、
前記差分画像 (A)から位相パターンを生成する際に、位相値と共に振幅値を求め て位相パターンの要素値とする手段と、
前記今回取得した位相パターンと前記以前に取得した位相パターンの位相差を計 測し、位相差に基づいて符号を決定する手段と、
さらに前記今回取得した位相パターンと前記以前に取得した位相パターンの振幅 値と、符号に基づ!/、て前記差分画像 (B)を生成する手段と、
を有する請求項 98記載の電子透かし検出装置。
[100] 前記位相差分計測手段は、
前記差分画像 (A)力も前記位相パターンを生成する際に、前記今回取得した位相 パターンと前記以前に取得した位相パターンの振幅値に対して単調増加する値を振 幅とし、前記符号と組み合わせて得られる値に基づ!、て前記差分画像 (B)を生成す る、請求項 99記載の電子透かし検出装置。
[101] 前記差分画像生成手段における前記差分画像中の特定成分が複数の成分である
、請求項 97記載の電子透かし検出装置。
[102] 前記位相差分計測手段は、前記差分画像 (A)から位相パターンを得る際に、該差 分画像 (A)中の複数の成分から得られる座標系おける位相及び振幅を利用する、 請求項 98乃至 100のうちいずれか 1項に記載の電子透かし検出装置。
[103] 前記差分画像中の特定成分が Cb成分及び Cr成分である、請求項 101または 102 記載の電子透かし検出装置。
[104] 前記電子透かし検出装置は、前記差分画像 (B)を差分画像蓄積バッファに加算す る手段を更に有し、
前記電子透かし検出手段は、前記差分画像蓄積バッファからの電子透かし検出を 行って透かレ f青報を検出して、検出状況を出力する、請求項 98乃至 103のうちいず れか 1項に記載の電子透かし検出装置。
[105] 前記電子透かし検出装置は、順次取得される前記フレーム画像に対し、今回のフ レーム画像中の検出対象領域を抽出し、歪みを補正し、サイズを正規化して検出対 象領域画像を生成する検出対象領域抽出手段を有し、
前記差分画像生成手段は、今回取得した検出対象領域画像と、以前に取得した 検出対象領域画像の差分画像を生成する、請求項 82乃至 104のうちいずれか 1項 に記載の電子透かし検出装置。
[106] 前記電子透かし検出装置は、順次取得される前記差分画像力 検出対象領域を 抽出して検出対象領域画像を生成する検出対象領域抽出手段を有し、
前記電子透かし検出手段は、前記検出対象領域画像からの電子透かし検出を行う 、請求項 82乃至 104のうちいずれか 1項に記載の電子透かし検出装置。
[107] 前記電子透かし検出装置は、前記フレーム画像を順次取得した後に、前記フレー ム画像から特徴領域を抽出して歪み補正及びサイズ正規化を行って特徴領域画像 を生成する特徴領域抽出手段を有し、
前記差分画像生成手段は、今回取得した特徴領域画像と、以前に取得した特徴 領域画像の差分画像を生成し、
検出対象領域抽出手段は、前記差分画像から検出対象領域を抽出して検出対象 領域画像を生成し、
前記電子透かし検出手段は、前記検出対象領域画像からの電子透かし検出を行う 、請求項 82乃至 104のうちいずれか 1項に記載の電子透かし検出装置。 [108] 前記検出対象領域抽出手段は、前記差分画像から前記検出対象領域を抽出する 際に、該差分画像の画素値を絶対値化して検出対象領域を探索する、請求項 106 または 107に記載の電子透かし検出装置。
[109] 前記検出対象領域抽出手段は、前記差分画像から前記検出対象領域を抽出する 際に、埋め込み時の基本透かしパターンに付加された位置合わせパターンを用いて 検出対象領域を探索する、請求項 106または 108に記載の電子透かし検出装置。
[110] 前記検出対象領域抽出手段は、過去の電子透かし検出試行で検出状況が良好で あつたときの検出対象領域の近傍の領域に限定した探索を行って、今回の検出対象 領域抽出処理を行う、請求項 106乃至 109のうちいずれか 1項に記載の電子透かし 検出装置。
[111] 前記検出対象領域抽出手段は、前記位置合わせパターンを用いて、前記差分画 像中の透かしパターンの位相を判定する、請求項 109に記載の電子透かし検出装 置。
[112] 前記検出対象領域抽出手段は、前記差分画像を記憶手段に加算蓄積し、蓄積し た該差分画像中から検出対象領域を探索し、抽出する、請求項 106乃至 111のうち いずれか 1項に記載の電子透かし検出装置。
[113] 前記検出対象領域抽出手段は、前記差分画像を前記記憶手段に加算蓄積する際 に、該差分画像中の透かしパターンの位相を揃えて、加算蓄積を行う、請求項 112 に記載の電子透かし検出装置。
[114] 動画像力 電子透力 を検出する電子透かし検出装置であって、
フレーム画像を順次取得する動画像入力手段と、
フレーム画像中の特徴領域を抽出し特徴領域画像を取得する特徴領域抽出手段 と、
今回取得した特徴領域画像と、特徴領域画像バッファから読み出した以前に取得 した特徴領域画像の差分画像を生成して差分画像 (A)を取得すると共に、該今回取 得した特徴領域画像を該特徴領域画像バッファに格納する差分画像生成手段と、 今回取得した差分画像 (A)に基づいて位相パターンを生成し、今回取得した位相 パターンと位相パターンバッファ力も読み出した以前に取得した位相パターンの位相 差を計測し、位相差と振幅に基づいて差分画像 (B)を生成すると共に、該今回取得 した差分画像 (A)を該位相パターンバッファに格納する位相差分計測手段と、 前記差分画像 (B)を各画素毎に画素値の加算蓄積を行い、加算蓄積によって得ら れる差分画像 (B)蓄積バッファから検出対象領域を抽出し、検出対象領域画像を取 得する検出対象領域抽出手段と、
前記検出対象領域画像からの電子透かし検出を行って、電子透かしの検出状況を 出力する電子透かし検出手段と、
電子透力しの検出が不可能であった場合を含む、電子透かし検出処理を続行する 場合は、前記動画像入力手段で新たなフレーム画像を取得し直し上記各手段の処 理を繰り返す手段と、
を有することを特徴とする電子透かし検出装置。
[115] 前記検出対象領域抽出手段は、
加算蓄積によって得られる前記差分画像 (B)蓄積バッファから検出対象領域を抽 出する際に、前記差分画像 (B)蓄積バッファの画素値の絶対値をとつたものカも検 出対象領域を抽出し、絶対値を取る前の差分画像 (B)蓄積バッファの検出対象領域 の画像を検出対象領域画像として得る、請求項 114記載の電子透かし検出装置。
[116] 前記検出対象領域抽出手段は、複数の検出対象領域を抽出し、
前記電子透かし検出手段は、前記複数の検出対象領域の各々に対して電子透か し検出試行を行い、検出結果を出力する、請求項 105乃至 115のうちいずれか 1項 に記載の電子透かし検出装置。
[117] 前記電子透かし検出手段は、透力 情報を検出する際に、既存の 2次元コードの 復号処理を用いて透力し情報を検出する、請求項 82乃至 116のうちいずれか 1項に 記載の電子透かし検出装置。
[118] 差分処理によって生成される前記差分画像に対して、さらにフィルタ処理を施し、フ ィルタ処理を施した差分画像を出力する、請求項 82乃至 117のうちいずれか 1項に 記載の電子透かし検出装置。
[119] 前記フィルタ処理として、非線形フィルタを用いる、請求項 118記載の電子透かし 検出装置。 [120] 入力とする動画像が、カメラで撮影され、キヤプチャされた映像信号である、請求項 82乃至 119のうち 、ずれか 1項に記載の電子透かし検出装置。
[121] 検出対象領域抽出状況、電子透かし検出状況、データブロック検出状況のうちの V、ずれか又は複数の処理状況に応じたフィードバック情報を画面あるいは、音声とし て出力する出力手段を有する、請求項 82乃至 120のうちいずれか 1項に記載の電 子透かし検出装置。
[122] 前記検出対象領域抽出手段は、検出対象領域のサイズ及び位置を表す検出対象 領域情報を更に生成し、前記電子透かし生成装置は、前記検出対象領域情報に基 づいて、検出対象領域が所与の画素サイズとなるようにズームパラメタを設定し、当 該ズームパラメタを前記動画像入力手段に与えてズーム処理を行うズーム処理手段 を有する、請求項 105乃至 121のうちいずれ力 1項に記載の電子透かし検出装置。
[123] 前記ズーム処理手段は、前記電子透かし検出手段における検出状況が良好であ つた場合に、前記検出対象領域情報に基づいて、検出対象領域が所与の画素サイ ズになるようにズームパラメタを設定し、前記動画像入力手段に与えてズーム処理を 行う、請求項 122記載の電子透かし検出装置。
[124] 入力とする動画像が、表示ディスプレイ上に表示されている状態をカメラでリアルタ ィムに撮影され、キヤプチャされたものであり、
電子透かし検出によって得られた透力 情報に基づいて、表示されている動画像 に関連する情報を取得する手段を有する、請求項 82乃至 123のうちいずれか 1項に 記載の電子透かし検出装置。
[125] コンピュータを、動画像に電子透力しを埋め込む電子透力し埋め込み装置として機 能させるための電子透かし埋め込みプログラムであって、コンピュータを、
フレーム画像群からなる動画像データ、透かレ隋報、透かしパターンの時間変化を 指定する透かしパターン切り替え情報を入力する手段、
動画像データの各フレーム画像及び該フレーム画像の表示時刻であるフレーム表 示時刻を順次取得するフレーム画像取得手段、
前記透かし情報と前記フレーム表示時刻と前記透かしパターン切り替え情報を用 V、て、透かしパターンを生成する透かしパターン生成手段、 前記透かしパターンを前記フレーム画像に重畳する透かしパターン重畳手段、 前記フレーム画像取得手段での処理、前記透かしパターン生成手段での処理、及 び前記透かしパターン重畳手段での処理を順次繰り返して得られる透かし入りフレ ーム画像群を結合して透かし入り動画像データを生成する動画像データ再構成手 段、
として機能させるための電子透力し埋め込みプログラム。
[126] 請求項 125に記載の電子透力し埋め込みプログラムを格納したコンピュータ読み取 り可能な記録媒体。
[127] コンピュータを、動画像に電子透力しを埋め込む電子透力し埋め込み装置として機 能させる電子透かし埋め込みプログラムであって、コンピュータを、
フレーム画像群からなる動画像データ、透かレ隋報、透かしパターンの位相変動を 指定する周期情報である透かしパターン切り替え情報を入力する手段、
前記動画像データの各フレーム画像及び該フレーム画像の表示時刻であるフレー ム表示時刻を順次取得するフレーム画像取得手段、
前記透かし情報と前記フレーム表示時刻と前記透かしパターン切り替え情報を用 V、て、透かしパターンを生成する透かしパターン生成手段、
前記透かしパターンを前記フレーム画像に重畳する透かしパターン重畳手段、 前記フレーム画像取得手段での処理、前記透かしパターン生成手段での処理、及 び前記透かしパターン重畳手段での処理を順次繰り返して得られる透かし入りフレ ーム画像群を結合して透かし入り動画像データを生成する動画像データ再構成手 段、
として機能させるための電子透力し埋め込みプログラム。
[128] 請求項 127に記載の電子透力し埋め込みプログラムを格納したコンピュータ読み取 り可能な記録媒体。
[129] コンピュータを、動画像力も電子透力 を検出する電子透かし検出装置として機能 させる電子透かし検出プログラムであって、コンピュータを、
フレーム画像を順次取得する動画像入力手段、
今回取得した前記フレーム画像と、以前に取得したフレーム画像の差分画像を生 成する差分画像生成手段、
前記差分画像力 の電子透かし検出を行って、電子透かしの検出状況を出力する 電子透かし検出手段、
前記電子透力しの検出が不可能であった場合を含む、電子透かし検出処理を続 行する場合は、前記動画像入力手段での処理、前記差分画像生成手段での処理、 及び電子透かし検出手段での処理を繰り返す手段、
として機能させる電子透かし検出プログラム。
[130] 請求項 129に記載の電子透かし検出プログラムを格納したコンピュータ読み取り可 能な記録媒体。
[131] コンピュータを、動画像力も電子透力 を検出する電子透かし検出装置として機能 させる電子透かし検出プログラムであって、コンピュータを、
フレーム画像を順次取得する動画像入力手段、
フレーム画像中の特徴領域を抽出し特徴領域画像を取得する特徴領域抽出手段 今回取得した特徴領域画像と、特徴領域画像バッファから読み出した以前に取得 した特徴領域画像の差分画像を生成して差分画像 (A)を取得すると共に、該今回取 得した特徴領域画像を該特徴領域画像バッファに格納する差分画像生成手段、 今回取得した差分画像 (A)に基づいて位相パターンを生成し、今回取得した位相 パターンと位相パターンバッファ力も読み出した以前に取得した位相パターンの位相 差を計測し、位相差と振幅に基づいて差分画像 (B)を生成すると共に、該今回取得 した差分画像 (A)を該位相パターンバッファに格納する位相差分計測手段、 前記差分画像 (B)を各画素毎に画素値の加算蓄積を行い、加算蓄積によって得ら れる差分画像 (B)蓄積バッファから検出対象領域を抽出し、検出対象領域画像を取 得する検出対象領域抽出手段、
前記検出対象領域画像力 の電子透かし検出を行って、電子透かしの検出状況を 出力する電子透かし検出手段、
電子透力しの検出が不可能であった場合を含む、電子透かし検出処理を続行する 場合は、前記動画像入力手段で新たなフレーム画像を取得し直し上記各手段の処 理を繰り返す手段、
として機能させる電子透かし検出プログラム。
請求項 131に記載の電子透かし検出プログラムを格納したコンピュータ読み取り可 能な記録媒体。
PCT/JP2006/315126 2005-08-04 2006-07-31 電子透かし埋め込み方法、電子透かし埋め込み装置、電子透かし検出方法、電子透かし検出装置、及びプログラム WO2007015452A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN2006800011353A CN101053256B (zh) 2005-08-04 2006-07-31 电子水印嵌入方法及装置
KR1020077009763A KR100876006B1 (ko) 2005-08-04 2006-07-31 전자 워터마크 임베딩방법, 전자 워터마크 임베딩장치 및 프로그램
US11/666,311 US7970164B2 (en) 2005-08-04 2006-07-31 Digital watermark padding method, digital watermark padding device, digital watermark detecting method, digital watermark detecting device, and program
JP2007529252A JP4809840B2 (ja) 2005-08-04 2006-07-31 電子透かし埋め込み方法、電子透かし埋め込み装置、及びプログラム
EP06782004A EP1928180A1 (en) 2005-08-04 2006-07-31 Digital watermark padding method, digital watermark padding device, digital watermark detecting method, digital watermark detecting device, and program
US13/105,367 US8126202B2 (en) 2005-08-04 2011-05-11 Digital watermark padding method, digital watermark padding device, digital watermark detecting method, digital watermark detecting device, and program

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2005226755 2005-08-04
JP2005226756 2005-08-04
JP2005-226756 2005-08-04
JP2005-226755 2005-08-04
JP2005275965 2005-09-22
JP2005-275965 2005-09-22

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US11/666,311 A-371-Of-International US7970164B2 (en) 2005-08-04 2006-07-31 Digital watermark padding method, digital watermark padding device, digital watermark detecting method, digital watermark detecting device, and program
US13/105,367 Division US8126202B2 (en) 2005-08-04 2011-05-11 Digital watermark padding method, digital watermark padding device, digital watermark detecting method, digital watermark detecting device, and program

Publications (1)

Publication Number Publication Date
WO2007015452A1 true WO2007015452A1 (ja) 2007-02-08

Family

ID=37708732

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/315126 WO2007015452A1 (ja) 2005-08-04 2006-07-31 電子透かし埋め込み方法、電子透かし埋め込み装置、電子透かし検出方法、電子透かし検出装置、及びプログラム

Country Status (7)

Country Link
US (2) US7970164B2 (ja)
EP (1) EP1928180A1 (ja)
JP (3) JP4809840B2 (ja)
KR (2) KR100901142B1 (ja)
CN (3) CN101866475B (ja)
TW (2) TWI480842B (ja)
WO (1) WO2007015452A1 (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008146353A1 (ja) * 2007-05-28 2008-12-04 Mitsubishi Electric Corporation 電子透かし埋め込み装置および方法、及び、電子透かし検出装置および方法
WO2009025019A1 (ja) * 2007-08-17 2009-02-26 C4 Technology, Inc. 電子透かし埋め込み方法、電子透かし検出方法、電子透かし埋め込み装置、電子透かし検出装置、プログラムおよびコンピューター読み取り可能な記録媒体
WO2009113416A1 (ja) * 2008-03-10 2009-09-17 日本電気株式会社 通信システム、送信装置及び受信装置
WO2009113415A1 (ja) * 2008-03-10 2009-09-17 日本電気株式会社 通信システム、制御装置及び受信装置
WO2009123106A1 (ja) * 2008-03-31 2009-10-08 株式会社バンダイナムコゲームス 位置検出システム、位置検出方法、プログラム、情報記憶媒体及び画像生成装置
JP2011015210A (ja) * 2009-07-02 2011-01-20 Mitsubishi Electric Corp 電子透かし埋込装置、検出装置及びそれらの方法
WO2011071081A1 (ja) 2009-12-08 2011-06-16 株式会社資生堂 非可視化情報埋込装置、非可視化情報認識装置、非可視化情報埋込方法、非可視化情報認識方法、及び記録媒体
WO2012127611A1 (ja) * 2011-03-22 2012-09-27 富士通株式会社 位置情報付加装置、位置情報付加方法及び位置情報付加用コンピュータプログラムならびに位置検出装置
JP2012244601A (ja) * 2011-05-24 2012-12-10 Sharp Corp 情報取得装置、情報出力装置、情報通信システム、情報取得方法、情報出力方法、制御プログラムおよび記録媒体
JP2013030974A (ja) * 2011-07-28 2013-02-07 Fujitsu Ltd 電子透かし埋め込み装置、電子透かし埋め込み方法、及びプログラム
WO2013080739A1 (ja) * 2011-12-02 2013-06-06 ソニー株式会社 画像処理装置、画像認識装置、画像認識方法およびプログラム
JP2014103583A (ja) * 2012-11-21 2014-06-05 Nippon Telegr & Teleph Corp <Ntt> 情報提示装置、情報入力装置、識別情報埋め込み方法、及びプログラム
JP2015509308A (ja) * 2011-12-21 2015-03-26 クアルコム,インコーポレイテッド 強化されたメディアエクスペリエンスを提供するための触覚技術の使用
JP2015192389A (ja) * 2014-03-28 2015-11-02 日本電信電話株式会社 マーカ埋め込み装置、マーカ検出装置、及びプログラム
JP2016051157A (ja) * 2014-09-02 2016-04-11 国立大学法人 奈良先端科学技術大学院大学 情報取得装置及び情報伝達システム
JP2016163064A (ja) * 2015-02-26 2016-09-05 国立大学法人 鹿児島大学 撮像装置、電子透かしの抽出方法、電子透かし及び開閉パターンの最適化方法
US9646358B2 (en) 2013-09-20 2017-05-09 Infosys Limited Methods for scene based video watermarking and devices thereof
US9760965B2 (en) 2013-11-29 2017-09-12 Fujitsu Limited Information embedding device, information detecting device, information embedding method, and information detecting method
JP2019009747A (ja) * 2017-06-28 2019-01-17 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2019009743A (ja) * 2017-06-28 2019-01-17 キヤノン株式会社 情報処理装置、その制御方法およびプログラム
JP2020079750A (ja) * 2018-11-13 2020-05-28 富士通株式会社 赤外線検出器の制御回路、撮像素子及び赤外線検出器の制御方法

Families Citing this family (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7644282B2 (en) 1998-05-28 2010-01-05 Verance Corporation Pre-processed information embedding system
US6737957B1 (en) 2000-02-16 2004-05-18 Verance Corporation Remote control signaling using audio watermarks
US9055239B2 (en) 2003-10-08 2015-06-09 Verance Corporation Signal continuity assessment using embedded watermarks
US20060239501A1 (en) 2005-04-26 2006-10-26 Verance Corporation Security enhancements of digital watermarks for multi-media content
US8020004B2 (en) 2005-07-01 2011-09-13 Verance Corporation Forensic marking using a common customization function
AU2005209707B2 (en) * 2005-09-13 2008-08-14 Canon Kabushiki Kaisha Adaptive mark placement
CN101401429B (zh) * 2006-03-07 2012-06-27 日本电信电话株式会社 电子水印嵌入方法、装置以及电子水印检测方法、装置
GB0708813D0 (en) * 2007-05-08 2007-06-13 Wesby Philip B System and method for data acquisition and processing
US8300080B2 (en) * 2007-06-29 2012-10-30 Microsoft Corporation Techniques for detecting a display device
GB2451437B (en) * 2007-07-27 2012-11-14 Hewlett Packard Development Co Content encoder and decoder and methods of encoding and decoding content
CN101561921B (zh) * 2008-04-14 2012-09-26 哈尔滨理工大学 抗差分检测的高位空域隐藏方法
US20090294538A1 (en) * 2008-05-28 2009-12-03 Sony Ericsson Mobile Communications Ab Embedded tags in a media signal
US20090300100A1 (en) * 2008-05-30 2009-12-03 Carl Johan Freer Augmented reality platform and method using logo recognition
US20100009713A1 (en) * 2008-07-14 2010-01-14 Carl Johan Freer Logo recognition for mobile augmented reality environment
US8049930B2 (en) * 2008-09-15 2011-11-01 National Taiwan University Of Science And Technology Method of halftone watermarking for hiding multi-tone watermark or two-tone watermark
US8731301B1 (en) * 2008-09-25 2014-05-20 Sprint Communications Company L.P. Display adaptation based on captured image feedback
DE102008043953A1 (de) * 2008-11-21 2010-05-27 Robert Bosch Gmbh Vorrichtung zur Erzeugung und/oder Verarbeitung einer Objektsignatur, Überwachungsvorrichtung, Verfahren und Computerprogramm
WO2010062290A1 (en) * 2008-11-26 2010-06-03 Verimatrix, Inc. Multiphase watermark patterns
JP5089571B2 (ja) * 2008-12-26 2012-12-05 株式会社Pfu 画像読取装置
US8620087B2 (en) * 2009-01-29 2013-12-31 Nec Corporation Feature selection device
US8817330B2 (en) * 2009-04-14 2014-08-26 Troy Group, Inc. Method for adjusting quality of a pantograph background pattern
US10008212B2 (en) * 2009-04-17 2018-06-26 The Nielsen Company (Us), Llc System and method for utilizing audio encoding for measuring media exposure with environmental masking
KR101240467B1 (ko) * 2009-06-30 2013-03-11 한국전자통신연구원 동영상 저작권 보호 장치, 동영상 저작권 보호 방법 및 기록매체
JP5540770B2 (ja) * 2009-07-30 2014-07-02 株式会社リコー 画像処理装置、画像処理方法及び画像処理プログラム
US9277183B2 (en) * 2009-10-13 2016-03-01 Sony Corporation System and method for distributing auxiliary data embedded in video data
KR101104649B1 (ko) * 2010-03-09 2012-01-13 한국과학기술원 접근 불가능 콘텐츠를 위한 오버레이채널을 이용한 동영상 워터마킹 시스템 및 그 방법
KR20110121866A (ko) * 2010-05-03 2011-11-09 삼성전자주식회사 휴대용 장치 및 그의 측정 데이터 처리 방법
EP2588980A1 (en) * 2010-06-30 2013-05-08 Koninklijke Philips Electronics N.V. Interactive image analysis
US8358347B2 (en) * 2010-08-17 2013-01-22 Hewlett-Packard Development Company, L.P. Frame rate measurement
WO2012026039A1 (ja) * 2010-08-27 2012-03-01 富士通株式会社 電子透かし埋め込み装置、電子透かし埋め込み方法及び電子透かし埋め込み用コンピュータプログラムならびに電子透かし検出装置
US9159112B2 (en) * 2010-09-16 2015-10-13 Hewlett-Packard Development Company, L.P. Digital watermarking using saturation patterns
US8718322B2 (en) * 2010-09-28 2014-05-06 Qualcomm Innovation Center, Inc. Image recognition based upon a broadcast signature
KR101424049B1 (ko) * 2010-11-29 2014-07-29 주식회사 씨케이앤비 워터마크 생성 방법, 이를 포함하는 방송 콘텐츠 생성 방법 및 워터마크 삽입 시스템
CN102169534A (zh) * 2011-02-21 2011-08-31 北京书生国际信息技术有限公司 一种显示水印的方法和装置
CA2832522C (en) 2011-04-19 2021-09-07 Nagravision S.A. Ethernet decoder device and method to access protected content
EP2740504B1 (en) * 2011-07-15 2020-08-19 Sanofi-Aventis Deutschland GmbH A drug delivery device with illumination
WO2013010893A1 (en) 2011-07-15 2013-01-24 Sanofi-Aventis Deutschland Gmbh Drug delivery device with electro-mechanic drive mechanism
EP2565667A1 (en) * 2011-08-31 2013-03-06 Friedrich-Alexander-Universität Erlangen-Nürnberg Direction of arrival estimation using watermarked audio signals and microphone arrays
US8745403B2 (en) 2011-11-23 2014-06-03 Verance Corporation Enhanced content management based on watermark extraction records
US9323902B2 (en) 2011-12-13 2016-04-26 Verance Corporation Conditional access using embedded watermarks
US9307188B2 (en) * 2011-12-28 2016-04-05 Intel Corporation Method of and apparatus for performing an objective video quality assessment using non-intrusive video frame tracking
KR20130112313A (ko) * 2012-04-03 2013-10-14 삼성전자주식회사 영상에 관련된 정보를 영상에 임베딩하기 위한 방법 및 장치
US9516223B2 (en) 2012-06-06 2016-12-06 Apple Inc. Motion-based image stitching
US10013623B2 (en) * 2012-06-29 2018-07-03 Blackberry Limited System and method for determining the position of an object displaying media content
US8750630B2 (en) 2012-07-13 2014-06-10 International Business Machines Corporation Hierarchical and index based watermarks represented as trees
EP2690593A1 (en) 2012-07-24 2014-01-29 Nagravision S.A. Method for marking and transmitting a content and method for detecting an identifyier of said content
US8726304B2 (en) 2012-09-13 2014-05-13 Verance Corporation Time varying evaluation of multimedia content
US20140075469A1 (en) 2012-09-13 2014-03-13 Verance Corporation Content distribution including advertisements
JP6107037B2 (ja) * 2012-10-01 2017-04-05 富士通株式会社 画像処理装置、方法、及びプログラム
US8813154B1 (en) 2012-12-07 2014-08-19 American Megatrends, Inc. Injecting a code into video data without or with limited human perception by flashing the code
WO2014160324A1 (en) * 2013-03-13 2014-10-02 Verance Corporation Multimedia presentation tracking in networked environment
US9262794B2 (en) 2013-03-14 2016-02-16 Verance Corporation Transactional video marking system
FR3004051A1 (fr) 2013-03-29 2014-10-03 France Telecom Procede et dispositif de tatouage d'une sequence d'images, procede et dispositif d'authentification d'une sequence d'images tatouees et programme d'ordinateur correspondant.
JP5673890B1 (ja) * 2013-03-29 2015-02-18 東レ株式会社 導電ペースト及び導電パターンの製造方法
CN103237271B (zh) * 2013-04-02 2016-04-06 北京中视广信科技有限公司 大容量视频数字水印的嵌入和检测方法及其系统
KR101932538B1 (ko) * 2013-04-10 2018-12-27 한화테크윈 주식회사 워터마크 처리 장치 및 방법, 그리고 영상 촬영 장치
TWI501094B (zh) * 2013-04-26 2015-09-21 Newtype Software Systems Co Ltd 產生浮水印文件的方法、電腦程式產品及電子裝置
US9542585B2 (en) * 2013-06-06 2017-01-10 Apple Inc. Efficient machine-readable object detection and tracking
JP6221394B2 (ja) 2013-06-19 2017-11-01 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9485089B2 (en) 2013-06-20 2016-11-01 Verance Corporation Stego key management
US9251549B2 (en) 2013-07-23 2016-02-02 Verance Corporation Watermark extractor enhancements based on payload ranking
US9208334B2 (en) 2013-10-25 2015-12-08 Verance Corporation Content management using multiple abstraction layers
CN104661087A (zh) * 2013-11-20 2015-05-27 北京思博途信息技术有限公司 一种生成电视广告监播信息的方法及装置
TWI512671B (zh) * 2013-11-22 2015-12-11 Univ Yuan Ze 可視資訊隱藏方法
CN103731759B (zh) * 2013-12-09 2017-03-22 乐视网信息技术(北京)股份有限公司 一种水印添加方法及装置
CN103778592B (zh) * 2014-01-14 2016-07-06 鲁东大学 一种基于进制余码的双彩色图像盲水印方法
US10504200B2 (en) 2014-03-13 2019-12-10 Verance Corporation Metadata acquisition using embedded watermarks
CN106170988A (zh) 2014-03-13 2016-11-30 凡瑞斯公司 使用嵌入式代码的交互式内容获取
WO2015167628A1 (en) 2014-04-29 2015-11-05 Hewlett-Packard Development Company, L.P. Machine-readable watermarks and barcodes in images
CN104144297A (zh) * 2014-08-19 2014-11-12 诚迈科技(南京)股份有限公司 一种自动给拍摄的照片添加水印的系统及方法
EP3183882A4 (en) 2014-08-20 2018-07-04 Verance Corporation Content management based on dither-like watermark embedding
JP5726359B1 (ja) * 2014-09-05 2015-05-27 株式会社電通 テレビ番組関連コンテンツ提供システム、および提供方法
US9942602B2 (en) 2014-11-25 2018-04-10 Verance Corporation Watermark detection and metadata delivery associated with a primary content
US9769543B2 (en) 2014-11-25 2017-09-19 Verance Corporation Enhanced metadata and content delivery using watermarks
US9602891B2 (en) 2014-12-18 2017-03-21 Verance Corporation Service signaling recovery for multimedia content using embedded watermarks
WO2016176056A1 (en) 2015-04-30 2016-11-03 Verance Corporation Watermark based content recognition improvements
US10477285B2 (en) 2015-07-20 2019-11-12 Verance Corporation Watermark-based data recovery for content with multiple alternative components
CN105141409B (zh) * 2015-08-12 2018-05-04 深圳市联软科技股份有限公司 一种屏幕数字水印的实现方法、终端及服务器
KR102094510B1 (ko) 2015-08-25 2020-03-27 삼성전자주식회사 워터마크 데이터 삽입 방법, 장치 및 시스템
TWI621081B (zh) * 2015-09-18 2018-04-11 財團法人工業技術研究院 產生與解碼具有驗證資料的影像串流的方法與裝置
WO2017052392A1 (en) * 2015-09-25 2017-03-30 Intel Corporation Facilitating efficient detection of patterns in graphics display streams prior to their display at computing devices
WO2017119620A1 (ko) * 2016-01-08 2017-07-13 서울과학기술대학교 산학협력단 디스플레이에 은닉된 부가데이터 전송용 가시광 통신 방법
KR101718279B1 (ko) * 2016-01-08 2017-03-21 서울과학기술대학교 산학협력단 디스플레이에 은닉된 부가데이터 전송용 가시광 통신
US11102499B2 (en) 2016-03-17 2021-08-24 Sharp Kabushiki Kaisha Emergency messages in watermarks
WO2017184648A1 (en) 2016-04-18 2017-10-26 Verance Corporation System and method for signaling security and database population
US10027850B2 (en) 2016-04-19 2018-07-17 Blackberry Limited Securing image data detected by an electronic device
US10019639B2 (en) 2016-04-19 2018-07-10 Blackberry Limited Determining a boundary associated with image data
US10136194B2 (en) * 2016-07-06 2018-11-20 Cisco Technology, Inc. Streaming piracy detection method and system
CN106327156A (zh) * 2016-08-23 2017-01-11 苏州华兴源创电子科技有限公司 一种车辆定损方法、客户端和系统
CN106385539A (zh) * 2016-09-22 2017-02-08 深圳市思创奇科技有限公司 一种照片处理方法及系统
JP6784122B2 (ja) * 2016-09-29 2020-11-11 富士通株式会社 電子透かし埋込プログラム、電子透かし埋込装置、及び電子透かし埋込方法
CN106485645A (zh) * 2016-10-31 2017-03-08 珠海赛纳打印科技股份有限公司 一种水印调整的方法及装置
JP6740868B2 (ja) * 2016-11-11 2020-08-19 株式会社デンソー 撮像装置、及び画像処理システム
TWI640195B (zh) * 2016-12-14 2018-11-01 日商夏普股份有限公司 具有統一資源識別符訊息浮水印有效負載之廣播系統
US10698988B2 (en) * 2017-03-30 2020-06-30 Cisco Technology, Inc. Difference attack protection
JP6909055B2 (ja) * 2017-05-31 2021-07-28 キヤノン株式会社 情報処理装置、制御方法及びプログラム
US11297398B2 (en) 2017-06-21 2022-04-05 Verance Corporation Watermark-based metadata acquisition and processing
US11176396B2 (en) 2017-06-29 2021-11-16 Hewlett-Packard Development Company, L.P. Detection of whether mobile computing device is pointing to visual code
US10701421B1 (en) * 2017-07-19 2020-06-30 Vivint, Inc. Embedding multiple videos into a video stream
US11032625B2 (en) * 2018-02-03 2021-06-08 Irdeto B.V. Method and apparatus for feedback-based piracy detection
US10678929B2 (en) * 2018-03-09 2020-06-09 Citrix Systems, Inc. Systems and methods for embedding data in remote session displays
CN108537945B (zh) * 2018-03-09 2020-09-15 深圳怡化电脑股份有限公司 票据水印检测方法、系统及自助设备
US11468149B2 (en) 2018-04-17 2022-10-11 Verance Corporation Device authentication in collaborative content screening
US10951859B2 (en) 2018-05-30 2021-03-16 Microsoft Technology Licensing, Llc Videoconferencing device and method
US11025900B2 (en) * 2018-07-18 2021-06-01 Universal City Studios Llc System and method for identifying b-roll conditions in live streams or live rendered content
CN108989816B (zh) * 2018-09-03 2021-05-14 广州海格通信集团股份有限公司 一种基于小波变换的编码信道信息隐藏方法
CN110111232A (zh) * 2019-05-07 2019-08-09 绍兴聚量数据技术有限公司 一种基于核心张量的灰度视频水印算法
CN112151048B (zh) * 2019-06-11 2024-04-02 李庆成 音视图数据生成以及处理的方法
US11659123B2 (en) * 2019-06-28 2023-05-23 Rakuten Group, Inc. Information processing device, information processing system, information processing method and program for extracting information of a captured target image based on a format of the captured image
CN110611784B (zh) * 2019-10-17 2021-07-23 江苏省水利科学研究院 一种可防篡改的多摄像头记录仪的拍摄存储方法
US11176746B2 (en) * 2019-11-08 2021-11-16 Msg Entertainment Group, Llc Modulated display AR tracking systems and methods
US11734784B2 (en) * 2019-11-14 2023-08-22 Sony Interactive Entertainment Inc. Metadata watermarking for ‘nested spectating’
CN111340677B (zh) * 2020-02-27 2023-10-27 北京百度网讯科技有限公司 视频水印检测方法、装置、电子设备、计算机可读介质
US11474799B2 (en) * 2020-07-31 2022-10-18 Snowflake Inc. Providing code translation related to resilient distributed datasets in database systems
US11722741B2 (en) 2021-02-08 2023-08-08 Verance Corporation System and method for tracking content timeline in the presence of playback rate changes
US20230186421A1 (en) * 2021-12-09 2023-06-15 Huawei Technologies Co., Ltd. Devices, methods, and computer readable media for screen-capture communication
TWI796265B (zh) 2022-07-27 2023-03-11 友達光電股份有限公司 顯示裝置以及影像顯示方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11341452A (ja) * 1998-03-24 1999-12-10 Internatl Business Mach Corp <Ibm> 動画像電子透かしシステム
JP2000175161A (ja) * 1998-12-01 2000-06-23 Kdd Corp 動画像に対する透かしデータ埋め込み装置および検出装置
JP2000350002A (ja) * 1999-06-01 2000-12-15 Matsushita Electric Ind Co Ltd データに透かし情報を埋め込む方法およびプログラム記録媒体
JP2001257865A (ja) * 2000-03-10 2001-09-21 Hitachi Ltd 電子透かしを用いた情報埋め込み方法および抽出方法
JP2003259319A (ja) * 2002-03-05 2003-09-12 Oki Electric Ind Co Ltd 電子透かし埋め込み装置および検出装置
JP2003304389A (ja) * 2002-04-11 2003-10-24 Sony Corp 付加情報重畳処理装置、付加情報検出処理装置、および方法、並びにコンピュータ・プログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6614914B1 (en) * 1995-05-08 2003-09-02 Digimarc Corporation Watermark embedder and reader
KR100583359B1 (ko) * 1997-09-02 2006-05-25 코닌클리케 필립스 일렉트로닉스 엔.브이. 워터마크의 검출방법 및 검출장치
US6404926B1 (en) * 1997-09-02 2002-06-11 Sony Corporation Apparatus and method of processing image data, transmission medium, and recording medium
JP4064506B2 (ja) * 1997-09-17 2008-03-19 パイオニア株式会社 電子透かし重畳方法及び検出方法並びに装置
JPH11164235A (ja) * 1997-11-26 1999-06-18 Sony Corp 付加情報の重畳伝送方法、付加情報の重畳伝送装置
KR100302436B1 (ko) * 1998-03-24 2001-09-26 포만 제프리 엘 동화상 전자 워터마크 시스템
JP3642956B2 (ja) * 1998-06-22 2005-04-27 ソニー株式会社 画像データ処理装置及び方法、並びに記録装置及び方法
JP4026933B2 (ja) * 1998-06-24 2007-12-26 キヤノン株式会社 情報処理装置及び方法並びに記録媒体
JP2000035002A (ja) 1998-07-22 2000-02-02 Toyota Autom Loom Works Ltd 作動油タンク
JP3678084B2 (ja) * 1998-12-02 2005-08-03 株式会社日立製作所 電子透かし情報の抽出方法および電子透かし情報のビット値判定方法
JP3636915B2 (ja) * 1999-02-22 2005-04-06 ソニー株式会社 付加情報重畳方法、付加情報検出方法、付加情報重畳装置および付加情報検出装置
JP2000244725A (ja) * 1999-02-22 2000-09-08 Sony Corp 付加情報重畳方法、付加情報検出方法、付加情報重畳装置および付加情報検出装置
GB2349536B (en) * 1999-03-23 2003-03-12 Ibm Motion picture electronic watermark system
TW538636B (en) 2000-09-01 2003-06-21 Matsushita Electric Ind Co Ltd Reproduction equipment, reproduction equipment specifying equipment, reproduction equipment specifying system and methods and recording media for said equipment and system
US6563936B2 (en) * 2000-09-07 2003-05-13 Sarnoff Corporation Spatio-temporal channel for images employing a watermark and its complement
JP2002112210A (ja) * 2000-09-28 2002-04-12 Sony Corp 付加情報埋め込み装置及び方法、並びに記憶媒体
US7058201B2 (en) * 2001-03-28 2006-06-06 Lg Electronics Inc. Method of embedding watermark into digital image
JP3736379B2 (ja) * 2001-04-19 2006-01-18 ソニー株式会社 電子透かし埋め込み処理装置、電子透かし検出処理装置、および電子透かし埋め込み処理方法、電子透かし検出処理方法、並びにプログラム記憶媒体、およびプログラム
JP3576993B2 (ja) * 2001-04-24 2004-10-13 株式会社東芝 電子透かし埋め込み方法及び装置
EP1402737B1 (en) 2001-06-21 2007-04-25 Koninklijke Philips Electronics N.V. Embedding and detection of watermark in a motion image signal
US7203335B2 (en) * 2001-08-07 2007-04-10 Gabriel Fielding System and method for extracting a watermark signal in a digital image sequence
US7114071B1 (en) * 2001-09-13 2006-09-26 Dts Canada, Ulc Method and apparatus for embedding digital watermarking into compressed multimedia signals
JP2003174631A (ja) 2001-12-05 2003-06-20 Nippon Hoso Kyokai <Nhk> 電子透かし埋込方法、電子透かし検出方法および電子透かし埋込装置、電子透かし検出装置ならびに電子透かし埋込プログラム、電子透かし検出プログラム
JP4541632B2 (ja) * 2002-05-13 2010-09-08 パナソニック株式会社 電子透かし埋め込み装置、その方法及び記録媒体
JP4268377B2 (ja) 2002-06-10 2009-05-27 日本放送協会 電子透かし埋込装置、その検出装置および電子透かし埋込プログラム
JP4127636B2 (ja) * 2002-08-30 2008-07-30 株式会社東芝 電子透かし埋め込み装置及び方法
KR100948381B1 (ko) * 2003-05-15 2010-03-22 삼성전자주식회사 인간시각시스템을 이용한 영상 워터마킹 방법
JP4258283B2 (ja) 2003-06-18 2009-04-30 三菱電機株式会社 電子透かし埋め込み方法および電子透かし検出方法
JP2005142836A (ja) * 2003-11-06 2005-06-02 Hitachi Ltd 電子透かし埋め込みプログラム及び情報処理装置
TWI228376B (en) * 2003-12-23 2005-02-21 Ind Tech Res Inst Watermark encoding method and recording medium thereof
JP4534530B2 (ja) 2004-03-08 2010-09-01 三菱電機株式会社 電子透かし検出方法および電子透かし検出装置
CN101401429B (zh) 2006-03-07 2012-06-27 日本电信电话株式会社 电子水印嵌入方法、装置以及电子水印检测方法、装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11341452A (ja) * 1998-03-24 1999-12-10 Internatl Business Mach Corp <Ibm> 動画像電子透かしシステム
JP2000175161A (ja) * 1998-12-01 2000-06-23 Kdd Corp 動画像に対する透かしデータ埋め込み装置および検出装置
JP2000350002A (ja) * 1999-06-01 2000-12-15 Matsushita Electric Ind Co Ltd データに透かし情報を埋め込む方法およびプログラム記録媒体
JP2001257865A (ja) * 2000-03-10 2001-09-21 Hitachi Ltd 電子透かしを用いた情報埋め込み方法および抽出方法
JP2003259319A (ja) * 2002-03-05 2003-09-12 Oki Electric Ind Co Ltd 電子透かし埋め込み装置および検出装置
JP2003304389A (ja) * 2002-04-11 2003-10-24 Sony Corp 付加情報重畳処理装置、付加情報検出処理装置、および方法、並びにコンピュータ・プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NAKAMURA T. ET AL.: "Camera Nyuryoku Gazo kara no Real Time Denshi Sukashi Kenshutsu Hoshiki", FIT2004, DAI 3 KAI FORUM ON INFORMATION TECHNOLOGY IPPAN KOEN RONBUNSHU, vol. J-036, 2004, pages 285 - 286, XP003008202 *
NAKAMURA T. ET AL.: "Camera Tsuki Keitai Denwaki o Mochiita Analog Gazo kara no Kosoku Denshi Sukashi Kenshutsu Hoshiki", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. J87-D-II, no. 12, 2004, pages 2145 - 2155, XP003008201 *

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008146353A1 (ja) * 2007-05-28 2008-12-04 Mitsubishi Electric Corporation 電子透かし埋め込み装置および方法、及び、電子透かし検出装置および方法
US8218812B2 (en) 2007-05-28 2012-07-10 Mitsubishi Electric Corporation Digital watermark embedding device and method, and digital watermark detection device and method
CN101682683B (zh) * 2007-05-28 2013-01-30 三菱电机株式会社 电子水印埋入装置及方法、以及电子水印检测装置及方法
JPWO2009025019A1 (ja) * 2007-08-17 2010-11-18 Sbiネットシステムズ株式会社 電子透かし埋め込み方法、電子透かし検出方法、電子透かし埋め込み装置、電子透かし検出装置、プログラムおよびコンピューター読み取り可能な記録媒体
WO2009025019A1 (ja) * 2007-08-17 2009-02-26 C4 Technology, Inc. 電子透かし埋め込み方法、電子透かし検出方法、電子透かし埋め込み装置、電子透かし検出装置、プログラムおよびコンピューター読み取り可能な記録媒体
US20110007160A1 (en) * 2008-03-10 2011-01-13 Nec Corporation Communication system, control device, and reception device
US8648911B2 (en) 2008-03-10 2014-02-11 Nec Corporation Communication system, control device, and reception device
US8587680B2 (en) 2008-03-10 2013-11-19 Nec Corporation Communication system, transmission device and reception device
JP5488457B2 (ja) * 2008-03-10 2014-05-14 日本電気株式会社 通信システム及び受信装置
JPWO2009113415A1 (ja) * 2008-03-10 2011-07-21 日本電気株式会社 通信システム、制御装置及び受信装置
JPWO2009113416A1 (ja) * 2008-03-10 2011-07-21 日本電気株式会社 通信システム、送信装置及び受信装置
WO2009113415A1 (ja) * 2008-03-10 2009-09-17 日本電気株式会社 通信システム、制御装置及び受信装置
WO2009113416A1 (ja) * 2008-03-10 2009-09-17 日本電気株式会社 通信システム、送信装置及び受信装置
JP5541153B2 (ja) * 2008-03-10 2014-07-09 日本電気株式会社 通信システム、送信装置及び受信装置
WO2009123106A1 (ja) * 2008-03-31 2009-10-08 株式会社バンダイナムコゲームス 位置検出システム、位置検出方法、プログラム、情報記憶媒体及び画像生成装置
JP2011015210A (ja) * 2009-07-02 2011-01-20 Mitsubishi Electric Corp 電子透かし埋込装置、検出装置及びそれらの方法
US8891815B2 (en) 2009-12-08 2014-11-18 Shiseido Company, Ltd. Invisible information embedding apparatus, invisible information detecting apparatus, invisible information embedding method, invisible information detecting method, and storage medium
WO2011071081A1 (ja) 2009-12-08 2011-06-16 株式会社資生堂 非可視化情報埋込装置、非可視化情報認識装置、非可視化情報埋込方法、非可視化情報認識方法、及び記録媒体
US9582842B2 (en) 2011-03-22 2017-02-28 Fujitsu Limited Position information adding apparatus, position information adding method, and computer program for adding position information and position detection apparatus
WO2012127611A1 (ja) * 2011-03-22 2012-09-27 富士通株式会社 位置情報付加装置、位置情報付加方法及び位置情報付加用コンピュータプログラムならびに位置検出装置
JPWO2012127611A1 (ja) * 2011-03-22 2014-07-24 富士通株式会社 位置情報付加装置、位置情報付加方法及び位置情報付加用コンピュータプログラムならびに位置検出装置
US9607348B2 (en) 2011-03-22 2017-03-28 Fujitsu Limited Position information adding apparatus, position information adding method, and computer program for adding position information and position detection apparatus
JP5729464B2 (ja) * 2011-03-22 2015-06-03 富士通株式会社 位置情報付加装置、位置情報付加方法及び位置情報付加用コンピュータプログラムならびに位置検出装置
JP2012244601A (ja) * 2011-05-24 2012-12-10 Sharp Corp 情報取得装置、情報出力装置、情報通信システム、情報取得方法、情報出力方法、制御プログラムおよび記録媒体
JP2013030974A (ja) * 2011-07-28 2013-02-07 Fujitsu Ltd 電子透かし埋め込み装置、電子透かし埋め込み方法、及びプログラム
WO2013080739A1 (ja) * 2011-12-02 2013-06-06 ソニー株式会社 画像処理装置、画像認識装置、画像認識方法およびプログラム
US9025082B2 (en) 2011-12-02 2015-05-05 Sony Corporation Image processing device, image recognition device, image recognition method, and program
US10013857B2 (en) 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
JP2015509308A (ja) * 2011-12-21 2015-03-26 クアルコム,インコーポレイテッド 強化されたメディアエクスペリエンスを提供するための触覚技術の使用
JP2014103583A (ja) * 2012-11-21 2014-06-05 Nippon Telegr & Teleph Corp <Ntt> 情報提示装置、情報入力装置、識別情報埋め込み方法、及びプログラム
US9646358B2 (en) 2013-09-20 2017-05-09 Infosys Limited Methods for scene based video watermarking and devices thereof
US9760965B2 (en) 2013-11-29 2017-09-12 Fujitsu Limited Information embedding device, information detecting device, information embedding method, and information detecting method
US10325338B2 (en) 2013-11-29 2019-06-18 Fujitsu Limited Information embedding device, information detecting device, information embedding method, and information detecting method
JP2015192389A (ja) * 2014-03-28 2015-11-02 日本電信電話株式会社 マーカ埋め込み装置、マーカ検出装置、及びプログラム
JP2016051157A (ja) * 2014-09-02 2016-04-11 国立大学法人 奈良先端科学技術大学院大学 情報取得装置及び情報伝達システム
JP2016163064A (ja) * 2015-02-26 2016-09-05 国立大学法人 鹿児島大学 撮像装置、電子透かしの抽出方法、電子透かし及び開閉パターンの最適化方法
JP2019009747A (ja) * 2017-06-28 2019-01-17 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2019009743A (ja) * 2017-06-28 2019-01-17 キヤノン株式会社 情報処理装置、その制御方法およびプログラム
US10992837B2 (en) 2017-06-28 2021-04-27 Canon Kabushiki Kaisha Information processing apparatus, control method thereof, and storage medium
JP7182858B2 (ja) 2017-06-28 2022-12-05 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2020079750A (ja) * 2018-11-13 2020-05-28 富士通株式会社 赤外線検出器の制御回路、撮像素子及び赤外線検出器の制御方法
JP7180299B2 (ja) 2018-11-13 2022-11-30 富士通株式会社 赤外線検出器の制御回路、撮像素子及び赤外線検出器の制御方法

Also Published As

Publication number Publication date
CN101866475A (zh) 2010-10-20
KR20070073839A (ko) 2007-07-10
KR20080087047A (ko) 2008-09-29
TW200733001A (en) 2007-09-01
JP5425115B2 (ja) 2014-02-26
TWI480842B (zh) 2015-04-11
JP2011078141A (ja) 2011-04-14
US20110228972A1 (en) 2011-09-22
JPWO2007015452A1 (ja) 2009-02-19
JP5550760B2 (ja) 2014-07-16
EP1928180A1 (en) 2008-06-04
CN101866475B (zh) 2012-11-21
KR100876006B1 (ko) 2008-12-26
US7970164B2 (en) 2011-06-28
CN101609546A (zh) 2009-12-23
US20080089552A1 (en) 2008-04-17
KR100901142B1 (ko) 2009-06-04
TW201203188A (en) 2012-01-16
CN101609546B (zh) 2012-05-23
CN101053256B (zh) 2010-09-01
JP2013179640A (ja) 2013-09-09
TWI351000B (ja) 2011-10-21
US8126202B2 (en) 2012-02-28
CN101053256A (zh) 2007-10-10
JP4809840B2 (ja) 2011-11-09

Similar Documents

Publication Publication Date Title
WO2007015452A1 (ja) 電子透かし埋め込み方法、電子透かし埋め込み装置、電子透かし検出方法、電子透かし検出装置、及びプログラム
US10176545B2 (en) Signal encoding to reduce perceptibility of changes over time
US8620018B2 (en) Electronic watermark embedding method, device, and program, and electronic watermark detecting method, device, and program
KR100841848B1 (ko) 전자 워터마크 검출 방법, 장치 및 프로그램을 기록한 기록 매체
US20080226125A1 (en) Method of Embedding Data in an Information Signal
US10664940B2 (en) Signal encoding to reduce perceptibility of changes over time
JP2000232609A (ja) 特殊効果処理方法及び画像処理装置
JP2014022972A (ja) 電子透かし埋め込み装置、電子透かし検出装置、及び電子透かし埋め込み方法、電子透かし検出方法、並びにプログラム
JP5121639B2 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2007529252

Country of ref document: JP

REEP Request for entry into the european phase

Ref document number: 2006782004

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2006782004

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11666311

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200680001135.3

Country of ref document: CN

Ref document number: 1020077009763

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE