WO2015115294A1 - Transmission device, reception device, and information processing system - Google Patents

Transmission device, reception device, and information processing system Download PDF

Info

Publication number
WO2015115294A1
WO2015115294A1 PCT/JP2015/051642 JP2015051642W WO2015115294A1 WO 2015115294 A1 WO2015115294 A1 WO 2015115294A1 JP 2015051642 W JP2015051642 W JP 2015051642W WO 2015115294 A1 WO2015115294 A1 WO 2015115294A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
data
code
timing
Prior art date
Application number
PCT/JP2015/051642
Other languages
French (fr)
Japanese (ja)
Inventor
孝介 八木
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2015559897A priority Critical patent/JP5976240B2/en
Publication of WO2015115294A1 publication Critical patent/WO2015115294A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10861Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing of data fields affixed to objects or articles, e.g. coded labels
    • G06K7/10871Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing of data fields affixed to objects or articles, e.g. coded labels randomly oriented data-fields, code-marks therefore, e.g. concentric circles-code
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/116Visible light communication

Definitions

  • the present invention relates to a transmission device, a reception device, and an information processing system, and more particularly to transmission of information performed by imaging a code image displayed on the transmission device with the reception device.
  • QR code registered trademark
  • Patent Documents 1 to 3 a method of increasing the amount of transfer data by color multiplexing or time multiplexing is considered.
  • a data transmission device converts data to be transmitted into a code, generates a frame including cells in which the code is two-dimensionally arranged, and uses the frame as a display screen. it's shown.
  • the data receiving apparatus captures the displayed frame, and returns the code of the two-dimensional array corresponding to the cells constituting the captured frame to the data before conversion. That is, the data receiving apparatus captures the displayed frame and returns the code of the two-dimensional array to the data before conversion.
  • a method of inserting a correction cell into a cell constituting a frame, or a method of inserting a correction frame made up of correction cells reduces the influence of the characteristics of background light or variations thereof, or an optical device. This makes it possible to accurately decode data by reducing the influence of the characteristics or variations thereof.
  • binary data that the data transmission side wants to transfer is converted into a concentric color component code whose color changes with time, and is displayed on a monitor as a moving image.
  • the data receiving side continuously photographs concentric color component codes with the camera of the camera-equipped mobile terminal device, and extracts binary data from the color information of each track.
  • the first information processing apparatus generates and sequentially displays a plurality of first graphic images (for example, two-dimensional codes).
  • the first information processing apparatus detects second graphic images that are sequentially displayed in other information processing apparatuses, and acquires input data represented by the second graphic image.
  • the detection area for detecting the second graphic image is formed in a part of the display area for displaying the first graphic image.
  • Japanese Patent No. 4749856 paragraphs 0033 to 0036, FIGS. 1 and 2) JP 2007-13786 (paragraphs 0032 to 0044, FIG. 8) Japanese Patent No. 4400355 (paragraphs 0088 to 0099, FIG. 7)
  • the display screen refresh rate and camera scan rate may vary depending on the device. Even if the refresh rate is the same, the phases are not always the same during actual use. For this reason, the screen in the middle of the display rewriting may be shot and the code may not be read accurately. Therefore, in the methods shown in Patent Documents 1 to 3, transfer may fail, and a more reliable transfer method is desired.
  • Patent Documents 1 to 3 the user needs to hold the camera for a certain period of time. However, when the user does not know the shooting period or the shooting timing, the timing of holding over is not appropriate, and the data may not be read accurately.
  • an object of the present invention is to efficiently transfer information from a transmission device to a reception device, and to enable a user to easily read data.
  • a transmission device includes: A transmission data storage unit for storing a series of data; The series of data stored in the transmission data storage unit is divided into a plurality of data parts, each of the data parts obtained by the division is converted into a code image, and each data part generated by the conversion
  • a code generator that sequentially outputs code images corresponding to An identification image generator for generating and outputting an identification image
  • a combining unit that combines the code image generated by the code generation unit with the identification image output from the identification image generation unit to generate a combined image
  • An image connecting unit that connects the composite images generated by the combining unit to create a moving image corresponding to the series of data
  • a video playback unit that plays back and outputs the video created by the image connection unit
  • a display unit that displays the video played by the video playback unit on a screen; In the moving image output from the moving image reproducing unit, the code images are sequentially switched, and the identification image appears at a timing other than the switching timing.
  • a transmission device includes: A transmission data storage unit for storing a series of data; The series of data stored in the transmission data storage unit is divided into a plurality of data parts, each of the data parts obtained by the division is converted into a code image, and each data part generated by the conversion
  • a code generator that sequentially outputs code images corresponding to A first image connecting unit that connects the code images generated by the code generating unit to create a moving image; A first moving image reproduction unit that reproduces and outputs the moving image created by the first image connection unit; An identification image generator for generating and outputting an identification image; A second image connecting unit that connects the identification images generated by the identification image generating unit to create a moving image; A second moving image reproduction unit that reproduces and outputs the moving image created by the second image connecting unit; A synthesis unit that synthesizes the video created by the first video playback unit and the video created by the second video playback unit to generate and output a composite video; A display unit that displays the synthesized video generated by the synthesis unit on
  • a transmission device provides: A transmission data storage unit for storing a series of data; The series of data stored in the transmission data storage unit is divided into a plurality of data parts, each of the data parts obtained by the division is converted into a code image, and each data part generated by the conversion
  • a code generator that sequentially outputs code images corresponding to An image connecting unit that connects the code images generated by the code generating unit to create a moving image
  • a video playback unit that plays back and outputs the video created by the image connection unit
  • the moving image displayed on the display unit includes a light emitting unit that emits light at a timing other than a timing at which the code image is switched.
  • a receiving apparatus includes: An imaging unit that sequentially switches the code image, captures a screen displaying a video in which the identification image appears at a timing other than the switching timing, and sequentially acquires the image of the screen; A video buffer for storing images sequentially acquired by the imaging unit; A reading unit for sequentially reading out images stored in the video buffer; An identification image detection unit for sequentially detecting the identification images in images sequentially read by the reading unit; A code decoding unit that decodes the code image that appears at the same timing as the identification image detected by the identification image detection unit, and sequentially acquires corresponding data portions; And a reception data storage unit that sequentially writes data portions sequentially acquired by the code decoding unit and connects the sequentially written data portions to form a series of data.
  • a receiving apparatus includes: A screen that displays code images that are switched in sequence, The light from the light emitting unit that is arranged adjacent to the screen and emits light at a timing other than the switching timing is captured, and the image displayed on the screen and the light image from the light emitting unit are sequentially acquired.
  • An imaging unit A video buffer for accumulating images sequentially acquired by the imaging unit; A reading unit for sequentially reading out images stored in the video buffer; A detection unit for detecting an image portion by light from the light emitting unit in images sequentially read by the reading unit; A code decoding unit that decodes the code image that appears at the same timing as the image portion by the light sequentially detected by the detection unit, and sequentially obtains the corresponding data portion; And a reception data storage unit that sequentially writes data portions sequentially acquired by the code decoding unit and connects the sequentially written data portions to form a series of data.
  • the present invention it is possible to improve the transfer efficiency when transferring information from the transmission device to the reception device with simple handling of the reception device.
  • FIG. 1 is an overview diagram schematically showing a configuration of an information processing system according to a first embodiment of the present invention.
  • FIG. 3 is a block diagram schematically showing a configuration of a transmission apparatus in the first embodiment.
  • 6 is a schematic diagram for explaining synthesis of a code image and a mark indicating timing according to Embodiment 1.
  • FIG. (A) to (C) are timings showing the display timing of the timing mark assigned to the green channel, the first code assigned to the red channel, and the second code assigned to the blue channel in the first embodiment. It is a chart.
  • FIG. 3 is a block diagram schematically showing a configuration of a receiving apparatus in the first embodiment. It is a figure which shows an example of the dimension of each part of the image of a timing mark.
  • FIG. 6 is a flowchart illustrating an operation of displaying a video based on transfer data in the transmission device according to the first embodiment. It is a flowchart which shows the detail of step S12 of FIG. 4 is a flowchart illustrating an operation of acquiring and storing transfer data from a captured image in the receiving device according to the first embodiment.
  • (A) to (M) are schematic views showing modifications of the timing mark in the first embodiment.
  • (A) And (B) is a figure which shows the example of a display image and a captured image in case the frame period of the display in a display part and the frame period of the imaging in an imaging part have shifted
  • (A)-(D) are figures which show the change of the display image within a display frame period.
  • (A)-(C) are figures which show the change of the display image within a display frame period.
  • (A)-(C) are figures which show the change of the display image within a display frame period.
  • FIG. 10 is a block diagram schematically showing a configuration of a receiving apparatus in a third embodiment. It is a block diagram which shows roughly the structure of the transmitter in Embodiment 4 of this invention.
  • FIG. 10 is a block diagram schematically showing a configuration of a receiving apparatus in a fourth embodiment. It is a block diagram which shows roughly the structure of the transmitter in Embodiment 5 of this invention.
  • FIG. 10 is a block diagram schematically showing a configuration of a receiving apparatus in a fifth embodiment. It is the schematic which shows the layout of a timing mark and a code image used in Embodiment 5 and 6 of this invention.
  • (A) to (C) are schematic diagrams illustrating temporal changes in video displayed on the display unit of the transmission device in the fifth and sixth embodiments.
  • FIG. 20 is a block diagram schematically showing a configuration of a receiving apparatus in a sixth embodiment. It is a block diagram which shows roughly the structure of the transmitter in Embodiment 7 of this invention.
  • FIG. 20 is a block diagram schematically showing a configuration of a receiving apparatus in a seventh embodiment. It is a figure which shows an example of the sequence of QR Code which attached
  • FIG. 20 is a block diagram schematically showing a configuration of a transmission apparatus in an eighth embodiment.
  • FIG. 20 is a block diagram schematically showing a configuration of a receiving apparatus in an eighth embodiment.
  • FIG. 1 shows an example of an information processing system 1 according to the present invention.
  • An information processing system 1 illustrated in FIG. 1 includes a transmission device 100 and a reception device 200.
  • the information processing system 1 transfers the data file D 0 from the transmission device 100 to the reception device 200.
  • the transmission device 100 displays an image on the display screen 131.
  • the receiving device 200 captures the image.
  • Data file D 0 to be transferred, the document files, image files, video files may be either a voice file or executable file.
  • the audio file or the execution file is converted into image data such as a QR code, for example. That is, any data is converted into image data such as a QR code.
  • the transmission device 100 the data file D 0 to be transferred is divided into a plurality of data portions are converted into the data portion of one or more code image D 3, are sequentially displayed on the display screen 131
  • the Receiving apparatus 200 sequentially captures the code image D 3 to be displayed on the display screen 131 of the transmitting apparatus 100. Then, the receiving apparatus 200 restores the data portion by decoding a code image D 3. Receiving apparatus 200, by connecting the recovered data to restore the original data file D 0.
  • Code image D 3 above for example, two-dimensional bar code such as a QR code, or what is called a one-dimensional bar code.
  • the display frame rate of the transmission apparatus 100 and the imaging frame rate of the reception apparatus 200 may be the same or different from each other.
  • FIG. 2 is a block diagram schematically showing a configuration of transmitting apparatus 100 in the first embodiment.
  • the transmission apparatus 100 illustrated in FIG. 2 includes a mark generation unit 106, a data processing unit 110, a synthesis unit 122, and a display unit 130. Further, the transmission device 100 can include a transmission data storage unit 102, a reference clock generation unit 104, a video buffer 126, and a moving image reproduction unit 128.
  • Transmission data storage unit 102 stores a plurality of data files D 0.
  • the “data file” is a piece of data, for example. Incidentally, when the capacity of the data file D 0 is large, for example, it is sent to the receiving apparatus 200 from the transmitting apparatus 100 the data of the data file D 0 by using a plurality of QR code or the like.
  • the transmission data storage unit 102 gives the stored transmission data D 1 to the data processing unit 110.
  • the transmission data D 1 is, for example, a data file D 0 stored in the transmission data storage unit 102. Further, the transmission data D 1 are, for example, the greater the capacity of the data file D 0 stored in the transmission data storage unit 102 may divide the data file D 0 in volume suitable for transmission to the data processing unit 110 It has been done.
  • the reference clock generation unit 104 generates a clock signal CL. Then, the reference clock generation unit 104 provides the clock signal CL to the mark generation unit 106 and the data processing unit 110.
  • Mark generation unit 106 in synchronization with the generated clock signal CL at the reference clock generator 104, the mark showing the timing (timing mark) to produce a D 2. Further, the mark generating unit 106 includes an image storage unit 107 for storing the timing mark D 2.
  • Timing mark D 2 is an identification image.
  • the timing mark D 2 in the image if it is displayed, for example, is recognized as an image, such as a QR code being displayed at the same time is intended to include the appropriate information.
  • the timing mark D 2 is not visible in the image, for example, it is recognized as an image, such as a QR code being displayed at the same time are those which do not contain adequate information. “Not including appropriate information” means that data cannot be correctly decoded.
  • Image storage unit 107 stores an image plane including timing mark D 2.
  • the image storage unit 107 for frame not including the timing mark D 2, and stores the image plane which does not include a timing mark D 2.
  • Timing mark D 2 is synthesized with the code image D 3 as described later. Timing mark D 2 is used as an identification image for the code image D 3 combined by the combining unit 122 to identify whether or not suitable for decoding. For this reason, the mark generation unit 106 is also referred to as an “identification image generation unit”.
  • “compositing” refers to handling different data as one image data. For example, it is to represent a code image D 3 and the timing mark D 2 as an image in one frame.
  • Timing mark D 2 is, for example, an image composed of pixels having the pixel and the minimum value takes the maximum value of the gradation values (pixel values) of possible values. When the gradation value is expressed by 8 bits, the maximum value is “255” and the minimum value is “0”.
  • Figure 3 is a schematic view for explaining a combination of the code image D 3 and the timing mark D 2.
  • Code image D 3 is, for example, an image representing the QR code or the like. That is, a coded data file D 0.
  • Code image D 3 is produced from the transmission data D 1.
  • the timing mark D ⁇ b > 2 is configured by a rectangular area (shown by cross-hatching) composed of pixels whose gradation values have the above maximum values.
  • the timing mark D 2 shown in FIG. 3 is a rectangular image of the maximum tone value. In that case, the gradation value of the pixel outside the above region becomes the minimum value.
  • a timing mark D 2 it is composed of only the data of green (G).
  • the code image D 3 is composed of data of the data and blue red (R) (B).
  • the code image D 3 of the green timing marks D 2 and red (G) (R) and blue (B) is synthesized as an image of one frame.
  • the data processing unit 110 selects one of the plurality of data files D 0 stored in the transmission data storage unit 102.
  • the data processing unit 110 divides the data file D 0 that was selected plurality of data portions. That is, the data processing unit 110 divides the data easily accepts data file D 0 selected volume. Then, the data processing unit 110 receives the divided data (transmission data D 1 ).
  • the data processing unit 110 converts each divided data portion into two graphic codes.
  • each divided data portion is converted into a graphic code displayed in red (R) and a graphic code displayed in blue (B).
  • the data processing unit 110 generates a code image D 3 from the graphic code. Code image D 3 is obtained by converting so that the image when drawing a graph code.
  • Code image D 3 is, for example, an image composed of pixels having a pixel and a minimum value taking the maximum value of the values that can take the tone values (pixel values).
  • the data processing unit 110 includes a code generation unit 116.
  • the code generation unit 116 may include a first code generation unit 116A and a second code generation unit 116B.
  • the data processing unit 110 can include a reading unit 112 and a data dividing unit 114.
  • the reading unit 112 divides the data file D 0 stored in the transmission data storage unit 102 into a plurality of data portions (herein referred to as “shots”).
  • the divided data portion (shot) is obtained by dividing the data file D 0 into a capacity suitable for transmission to the data processing unit 110 as described above. That is, one data portion divided into a capacity suitable for transmission is called a “shot”.
  • Transmission data D 1 is one shot.
  • the data for the image displayed in the one-shot period Td shown in FIG. 4A will be described as “one shot”. That is, when two QR codes or the like are displayed separately for color images as described in FIG. 3, one shot is displayed as an image of two QR codes or the like.
  • the reading unit 112 sequentially sends a plurality of shots (shot data D 4 ) generated by dividing the data file D 0 to the data dividing unit 114. Further, the reading unit 112 sends a synchronization signal SY described later to the mark generation unit 106.
  • the data dividing unit 114 further divides the data D 4 of each shot read by the reading unit 112 into two data parts (herein referred to as “data unit D 5 ”).
  • “two data portions” are different data portions displayed for each color channel. In the first embodiment, the first data unit D 51 displayed in the red channel and the second data unit D 52 displayed in the blue channel.
  • the data dividing unit 114 gives the first data portion (first data unit D 51 ) to the first code generating unit 116A.
  • the data dividing unit 114 gives the second data portion (second data unit D 52 ) to the second code generating unit 116B.
  • the first code generating unit 116A converts the first data unit D 51 supplied from the data dividing unit 114, the corresponding code image (first code image) D 31. That is, the first data unit D 51 is converted into a graphic code, and this graphic code is further converted into a corresponding code image (first code image) D 31 .
  • the first code generating unit 116A the code image (first code image) to the D 31. Incidentally, actually it outputs an image plane including a first code image D 31. However, in FIG. 2, simplified to describe the output of the first code generating unit 116A as the first code image D 31.
  • the second code generating unit 116B converts the second data unit D 52 supplied from the data dividing unit 114, the corresponding code image (second code image) D 32. That is, the second data unit D 52 is converted into a graphic code, and the graphic code is further converted into a code image (second code image) D 32 corresponding thereto.
  • the second code generating unit 116B outputs the code image (first code image) D 32. Incidentally, actually it outputs an image plane including a first code image D 31. However, in FIG. 2, simplified to describe the output of the first code generating unit 116A as the first code image D 31.
  • Data unit D 5 is the data of the chunk numbers.
  • the code image D 3 is in the form of data that can be displayed as an image.
  • Code image D 3 for example, is represented by bitmap data. Conversion to code image data units D 5 referred to as "drawing.”
  • the rules for conversion of each data unit D 51 , D 52 into graphic codes are determined in advance.
  • the rules for converting the data units D 51 and D 52 into graphic codes are shared by the transmission device 100 and the reception device 200.
  • Examples of the first code image D 31 and the second code image D 32 is shown in FIG.
  • images of red (R) is the first code image D 31.
  • an image of blue (B) is the second code image D 32.
  • the first code image D 31 and the second code image D 32 are formed in the same region as the timing mark D 2 in the frame. Accordingly, the first code image D 31 , the second code image D 32 and the timing mark D 2 are formed so as to overlap each other.
  • a plurality of shot data D 4 read by the reading unit 112 are sequentially input to the data dividing unit 114.
  • First data unit D 51 supplied from the data dividing unit 114 in the first code generating unit 116A is switched in association with the shot data D 4 input to the data dividing unit 114 is switched. Therefore, the code image D 31 outputted from the first code generating unit 116A is switched each time the switches are available for the data D 4 that is read by the reading unit 112. Similarly, the code image D 32 outputted from the second code generating unit 116B is switched each time the switches are available for the data D 4 that is read by the reading unit 112.
  • Both the output of the first code image D 31 by the first code generation unit 116A and the output of the second code image D 32 by the second code generation unit 116B are performed in synchronization with the clock signal CL from the reference clock generation unit 104. Is called.
  • the output of the timing marks D 2 by the mark generation unit 106 is performed in synchronization with the clock signal CL.
  • Mark generation unit 106 receives the (signal indicating to read the data D 4 of a shot) above synchronizing signal SY from the reading unit 112 determines the timing of the output of the timing mark D 2.
  • the combining unit 122 assigns the timing mark D 2 , the first code image D 31, and the second code image D 32 to independent color channels. Then, the synthesizing unit 122 synthesizes the timing mark D 2 , the first code image D 31, and the second code image D 32 to generate a synthesized image (color image) D 61 .
  • the timing mark D2 is output from the mark generation unit 106.
  • the first code image D 31 is outputted from the first code generating unit 116A.
  • Second code image D 32 is outputted from the second code generating unit 116B.
  • Synthesis by combining unit 122 includes an image plane comprising a timing mark D 2, and an image plane including a first code image D 31, is performed by superimposing an image plane including a second code image D 32.
  • “Plain” is like a transparent plate on which an image is pasted. Generally, an image is composed of a plurality of screens (planes) called planes. There are three planes that express red, green, and blue in the plane, and colors are expressed by combining them. An image plane expressed by a plurality of planes is called a frame.
  • the color channel for example, three primary color channels of red (R), blue (B), and green (G) light are employed.
  • a “color channel” is information obtained by separating colors by components. Specifically, there are a red channel, a green channel, a blue channel, and the like.
  • the composition unit 122 assigns a timing mark D 2 of FIG. 3 in green (G) channel, a first code image D 31 assigned to the red (R) channel, the second code image D 32 blue (B ) Assign to the channel and compose.
  • the synthesizing unit 122 synthesizes the tone values of the timing mark D 2 , the first code image D 31, and the second code image D 32 as the tone values of the respective color channels.
  • the maximum value of the timing mark D 2 has a maximum value of the gradation values of the green channel (green component value).
  • the timing mark D ⁇ b > 2 is shown in a portion indicated by cross hatching.
  • the maximum value of the first code image D 31 has a maximum value of the gradation values of the red channel (red component values).
  • the maximum value of the first code image D 31 is a portion which is shown in black.
  • the maximum value of the second code image D 32 has a maximum value of the gradation values of the blue channel (blue component value).
  • the maximum value of the second code image D 32 is a portion which is shown in black.
  • the synthesizer 122 synthesizes the timing mark D 2 , the first code image D 31, and the second code image D 32 to generate an image for one frame displayed on the display unit 130.
  • the video buffer 126 stores the composite image D 61 generated by the combining unit 122.
  • the video buffer 126 couples the combined image D 61 that has accumulated.
  • the video buffer 126 connects a plurality of synthesized one-frame images so that the display unit 130 can display them as “moving images”. Connecting a plurality of images for one frame is called “connection”.
  • Video buffer 126 the synthesized images are sequentially connected to the generating a combined image D 62.
  • An “image” is a still image displayed in one frame.
  • a “video” is an image in which several frames of images are connected and displayed continuously. That is, when the “image” of each frame is different, the “video” is a moving image.
  • the image for one frame combined by the combining unit 122 is the same image. Therefore, the viewer even display unit 130 displays the combined image D 62 recognizes the one shown the same image.
  • the video buffer 126 connects the accumulated composite video D62 to each other.
  • the composite video D62 is image data obtained by combining several frames of the same image.
  • the composite video D 62 combined with the video buffer 126 is of different images. For this reason, as will be described later, when an image displayed on the display unit 130 is captured by the receiving device 200, the receiving device 200 may capture two different images.
  • the composite video D 63 obtained as a result of the connection of the composite video D 62 is a video in which the content of the image is switched.
  • the composite video D 63 obtained as a result of the concatenation of the composite video D 62 is a video whose contents are switched at a cycle of 4 frames.
  • Accumulation of the image in the video buffer 126 is continued until the conversion of all data (data portion) of the data file D 0 to be transferred into the code image D 3 is completed. That is, when the capacity of the data file D 0 is large, for example, to create a combined image D 63 formed by coupling a plurality of QR codes.
  • a composite video D 63 obtained by connecting two types of composite video D 62 can transmit four types of QR codes.
  • the video buffer 126 functions as a connecting unit that connects the composite image D 61 to generate the composite video D 62 .
  • the video buffer 126 functions as a connecting unit that generates a composite video D 63 (moving image) by connecting the composite video D 62 .
  • the step of connecting the composite image D 61 generates a combined image D 62 may be synthesized unit 122 performs.
  • the moving image reproducing unit 128 stores the data (the image including the code image D 3 and the timing mark D 2) stored in the video buffer 126.
  • a sequence of frames is sequentially read out for each frame and reproduced as a moving image.
  • the “sequence of image frames” refers to the composite video D 63 .
  • the display unit 130 displays a color image according to the output of the moving image playback unit 128.
  • first code image D 31 is red
  • the second code image D 32 are respectively displayed in blue.
  • the display unit 130 is configured by a liquid crystal display device that performs display by a dot sequential scanning method or a line sequential scanning method and a progressive display method.
  • the timing marks D 2 is generated in synchronization with the clock signal CL.
  • the output of the first code image D 31 and the output of the second code image D 32 are both performed in synchronization with the clock signal CL from the reference clock generation unit 104. Therefore, the first code image D 31 and the second code image D 32 is switched simultaneously. It carried out as appears timing mark D 2 at the timing just before and except immediately after the timing of the changeover. For example, so that appears timing mark D 2 in switched immediately before and after the non-Framed frame. That is, immediately before and frame after the switching of the frame timing mark D 2 is not synthesized.
  • FIG. 4 (A) represents a timing mark D 2.
  • FIG. 4 (B) represents the first code image D 31.
  • FIG. 4 (C) represents a second code image D 32.
  • Figure 4 (A) ⁇ FIG 4 (C) shows in an example of the combined image D 63, the switching of the code image D 3, and the period in which the timing mark D 2 appears.
  • the vertical axis indicates whether or not each signal is output. A signal is output at “H”, and no signal is output at “L”.
  • the horizontal axis represents time.
  • a dotted line in the vertical direction indicates a break of a frame period of display by the display unit 130.
  • the symbol T t represents one frame period (one frame period) at the display frame rate.
  • a period (one-shot period) T d in which the composite video D 62 generated from one-shot data D 4 is displayed is four frame periods T. t .
  • the contents of the code image D 3 to be displayed for each 4-frame period is switched.
  • the first frame period T t1 of does not display timing mark D 2.
  • Code images D 31 and D 32 are displayed in a period T t1 of the first one frame in one shot period T d .
  • the timing marks D 2 is the switching of the immediately following frame of the code image D 3 (the first frame period of each shot), it does not appear in the frame immediately before the changeover (last frame of each shot) .
  • Timing mark D 2 appears at their other frames (second and third frame periods of each shot).
  • the contents of the code image D 3 is sometimes disturbed part. Meanwhile, in the second frame and the third frame after a certain time from the switched contents of the code image D 3 it is estimated to be stable. Therefore, in the invention according to the first embodiment, using the code image D 3 of the second frame and the third frame to the decoding in the receiving device 200. Then, in order to distinguish the code image D 3 of the second frame and the third frame from the code image D 3 of the first frame and the fourth frame, it is denoted by the timing mark D 2 in the transmitting apparatus 100. Then, the receiving apparatus 200, and whether the determination is a code image D 3 of the first frame and the fourth frame or a code image D 3 of the second frame and third frame based on the timing mark D 2 .
  • the second frame and the third frame are used for decoding by the receiving apparatus 200. Therefore, these frames are called “body frames”.
  • the front and rear frames (first frame and second frame) of the body frame are referred to as front and rear “guard frames”, respectively.
  • the period in which the body frame appears is called the body period.
  • a period in which the guard frame appears is called a guard period.
  • the body period is a period T e of the two frames.
  • the guard period is the first one frame period T t1 and the last one frame period T t2 .
  • FIG. 5 is a block diagram schematically showing a configuration of receiving apparatus 200 in the first embodiment.
  • the receiving apparatus 200 illustrated in FIG. 5 includes an imaging unit 202, a mark recognition unit 210, an image cutout unit 220, and a code decoding unit 230.
  • the receiving device 200 can include a video buffer 204, a reading unit 206, a separating unit 208, a combining unit 242, and a received data storage unit 244.
  • the imaging unit 202 images the display screen 131 of the display unit 130 of the transmission device 100. Then, the imaging unit 202 generates video data D 7 representing red, green, and blue component values of the video displayed on the display screen 131. That is, the imaging unit 202 generates red component video data, green component video data, and blue component video data of the video (composite video D 63 ) displayed on the display screen 131.
  • the video data D 7 generated by the imaging unit 202 is a series of frame data corresponding to the composite video D 63 .
  • the video data D 7 of each frame generated by the imaging unit 202 includes data representing a red component value, a green component value, and a blue component value. Data representing the red component value, the green component value, and the blue component value is generated by, for example, a photoelectric conversion element including a red color filter, a green color filter, and a blue color filter, respectively.
  • an image displayed on the display unit 130 of the transmission device 100 is formed on the imaging surface of the imaging unit 202.
  • the distance to the display screen 131 of the display unit 130 is known and the display screen 131 of the display unit 130 is focused.
  • the imaging unit 202 has an autofocus function.
  • the video buffer 204 stores video data D 7 composed of a series of frames output from the imaging unit 202.
  • the accumulation of the video data D 7 is performed by imaging all the frames (all frames of the composite video D 63 ) constituting the video corresponding to one data file D 0 displayed on the display unit 130 of the transmission device 100. Continue until the end. At the time of storing the image data D 7 is finished, the state where data of a series of frames constituting the data file D 0 (all frames of the composite video D 63) is stored.
  • the reading unit 206 sequentially reads out and outputs a series of frames of data D 8 constituting a video corresponding to one data file D 0 stored in the video buffer 204. That is, the reading unit 206 outputs one data of the data file D 0 as data D 8 of the frame is read from one frame by the video buffer 204.
  • the separation unit 208 converts the data D 8 of each frame read by the reading unit 206 into green component value data D 9G (green channel data) and red component value data D 9R (red channel data). ) And blue component value data D 9B (blue channel data).
  • the separation unit 208 gives the green component value data D 9G to the mark recognition unit 210.
  • the separation unit 208 supplies the image component 220 with red component value data D 9R and blue component value data D 9B .
  • the mark recognizing unit 210 detects the timing mark D 2 from the green component image (green component data D 9G ) given from the separating unit 208.
  • Mark recognition unit 210 functions as a detection unit for detecting a timing mark D 2.
  • Mark recognition unit 210 recognizes that the timing of the timing mark D 2 is detected, a timing that can read the code image D 3 correctly. That is, the mark recognition unit 210 recognizes detects the timing mark D 2, and read the code image D 3 correctly.
  • the “timing” here may be, for example, a timing for each frame. Moreover, the timing for each line of the display screen may be used.
  • “line” means a column of pixels extending in the main scanning line direction in the dot sequential scanning method, and means a line in the line sequential scanning method.
  • Mark recognition unit 210 at the timing of the timing mark D 2 is detected, it instructs the cutout image in the image clipping unit 220.
  • Mark recognition unit 210 provides the image clipping signal D 10 of the image clipping unit 220.
  • Image clipping unit 220 in response to an instruction from the mark recognition unit 210 (cut signal D 10 of the image), cut out the code image D 3 from a video of a predetermined color component.
  • the code image D 3 is represented in the red component data D 9R and the blue component value data D 9B .
  • the red component data D 9R and the blue component value data D 9B representing the code image D 3 are images of predetermined color components. That is, the image clipping unit 220, at the timing when the mark recognition unit 210 detects the timing mark D 2, cuts out the code image D 3 from a video color components determined in advance.
  • the image cutout unit 220 includes a first cutout unit 222A and a second cutout unit 222B.
  • the first cutout portion 222A receives the data D 9R red components from the mark recognition unit 210.
  • the first cutout unit 222A cuts out the first code image from the red component data (video) D9R given from the separation unit 208 at the timing instructed by the mark recognition unit 210.
  • the second cutout portion 222B receives the data D 9B of the blue component from the mark recognition unit 210.
  • the second cutout unit 222B cuts out the second code image from the blue component data (video) D9B given from the separation unit 208 at the timing instructed by the mark recognition unit 210.
  • Code decoder 230 decodes the code image D 3 cut out by the image clipping unit 220 to restore the original data. That is, the code decoder 230, from the code image D 3, and generates a graphic code corresponding thereto. The code decoding unit 230 further converts the graphic code into data corresponding thereto. As a result, the code decoding unit 230 acquires data (data file D 0 ) represented by the captured code image D 3 .
  • the code decoding unit 230 includes a first decoding unit 232A and a second decoding unit 232B.
  • the first decoding unit 232A receives the first code image D 11R from the first cutout portion 222A.
  • the first decryption unit 232A decrypts the first code image D 11R cut out by the first cutout portion 222A, restores the decoded data D 12R of the corresponding color units. That is, the first decoding unit 232A generates a first graphic code corresponding to the first code image D11R .
  • the decoded data D12R in units of color is data for one frame.
  • the first decoding unit 232A converts the generated first graphic code into decoded data D12R in color units corresponding thereto.
  • Second decoding unit 232B receives the second code image D 11B from the second cutout portion 222B. Second decoding unit 232B decodes the second code image D 11B cut out in the second cutout portion 222B, restores the decoded data D 12B of the corresponding color units. That is, the second decoding unit 232B generates a second graphic code corresponding to the second code image D 11B. Here, the decoded data D12B in units of color is data for one frame. Then, the second decoding unit 232B converts the generated second graphic code into decoded data D12B in color units corresponding thereto.
  • the second data unit D 52 input to the second code generation unit 116B. Will produce the same.
  • the first decoding unit 232A and the second decoding unit 232B are configured to generate the code images D 31 and D 32 in the first code generation unit 116A and the second code generation unit 116B of the transmission device 100.
  • the conversion rules used in the above are applied to the decoding of the decoded data D 12R and D 12B .
  • the synthesizing unit 242 combines the decoded data D 12R and D 12B in units of colors output from the first decoding unit 232A and the second decoding unit 232B.
  • the synthesizing unit 242 synthesizes the decoded data D 12R and D 12B in units of colors and restores the transfer data D 13 for one shot.
  • the reception data storage unit 244 stores the transfer data D 13 for one shot (one frame) restored by the combining unit 242. Transfer data D 13 to be stored may be connected to the transfer data D 13 to which it was previously stored in the same data file D 0. By the above process is repeated, the received data storage unit 244, one of all the data in the data file D 0 is stored.
  • FIG. Figure 6 is a diagram showing an example of the dimensions of each part of the timing mark D 2 of the image.
  • FIG. 3 but showing the image of the timing mark D 2 to an image of a color component, in FIG. 6 represent the image of the timing mark D 2 to an image of all color components. Also, it represents one of the code image D 11 to an image of all color components. Therefore, the image and the code image D 11 of the timing mark D 2, for example, is displayed on the display unit 130 as a black image.
  • the transmission apparatus 100 may have only one code generation unit 116. Further, the image cutout unit 220 of the receiving apparatus 200 only needs to have one cutout unit 222.
  • the timing mark D ⁇ b> 2 is shown by two mutually parallel black belt-shaped areas St a and St b located on both sides of the code area Acd.
  • the widths of the regions St a and St b are equal to each other and have the dimension Wst.
  • the interval Sep between the regions St a and St b is 6 times the width Wst of the region.
  • the height direction of the band-shaped regions St a and St b coincides with the sub-scanning direction of the dot sequential scanning method or the scanning direction (direction orthogonal to the line) of the line sequential scanning method.
  • the height Hgh of the regions St a and St b is four times the width Wst.
  • the mark recognition unit 210 the timing marks D 2 in the image obtained by the photographing, whether they have the same dimensional relationships as the (difference Or not).
  • the receiving apparatus 200 can determine whether the whole of the timing mark D 2 has been correctly acquired. For example, in an image obtained by photographing of the receiving device 200, strip-shaped area St a, is shorter than 4 times the height of the St b is the width, mark recognition unit 210, the overall timing mark D 2 is correct shooting It can be determined that it has not been done.
  • FIG. 7A shows the same thing as FIG. FIG. 7 (B) shows what corresponds to FIG. 4 (B) and FIG. 4 (C). That is, FIG. 7 (A) represents a timing mark D 2.
  • FIG. 7 (B) represents a code image D 3. That is, in the description of FIGS. 7A to 7C, description will be made using the image of FIG. Therefore, the code image D 3 (code area Acd) and the timing mark D 2 (areas St a , St b ) are displayed in the data of each color component.
  • FIG. 7C shows a frame shot by the imaging unit 202.
  • a reference symbol P n is attached to each frame photographed by the imaging unit 202.
  • “N” represents a frame number, which is indicated by 1 to 14 in FIG.
  • the dotted line in the vertical direction in FIG. 7A indicates a break of the frame period T t of the display by the display unit 130 as in FIGS. 4A to 4C.
  • a vertical dotted line in FIGS. 7B and 7C indicates a break of the frame period Tr of the imaging by the imaging unit 202. Accordingly, the interval Tr between the vertical lines in FIGS. 7B and 7C represents the length of the imaging frame period (cycle).
  • the period of the frames taken by the imaging unit 202 is the frame period of display by the display unit 130 (frame period T t of display). It is assumed that the length is 0.9 times as large as.
  • the timing mark D 201 is displayed over the entire display period. Therefore, the code image D 301 of the corresponding period of the frame P 3 is cut out.
  • the timing mark D 202 is displayed over all the display periods. For this reason, the code image D 302 in the period of the corresponding frames P 7 and P 8 is cut out.
  • a timing mark D 203 are displayed. For this reason, the first code image D 313 in the period of the corresponding frame P 12 is cut out.
  • composite video D 62 is for synthesizing unit 122 is created by connecting a plurality of synthetic images D61.
  • Composite video D 62 is an image for displaying a single code image D 3.
  • the decoded decode data of the color unit obtained by decoding the code image D 11 For D 12 data representing the pixel value of each pixel
  • processing such as selecting either one (for example, the top one).
  • FIG. 8 is a flowchart showing an operation of displaying video based on transfer data in the transmission apparatus 100.
  • FIG. 9 is a flowchart showing details of step S12.
  • the process shown in FIG. 8 is started in transmission apparatus 100 based on a predetermined program. For example, in the process shown in FIG. 8, a transmission program for transmitting data to the receiving device 200 is activated, and one of the plurality of data files D 0 stored in the transmission data storage unit 102 is selected. Will start when.
  • step S11 the read unit 112 divides the data file D 0 that was selected plurality of data portions (shots).
  • step S12 one of the plurality of data parts generated by the division in step S11 is selected, and the selected data part (data for one shot) is processed.
  • “Processing” here refers to processing performed by the data dividing unit 114, the mark generation unit 106, the code generation unit 116, and the synthesis unit 122 described above. The processing performed by the data dividing unit 114, the mark generating unit 106, the code generating unit 116, and the combining unit 122 will be described with reference to FIG.
  • step S13 the read unit 112, it is determined whether or not finished reading of all the data portions of the data file D 0 that is selected. Determining that the reading of all the data portions ended data file D 0 of the read unit 112 is, for example, sequentially reads out the data of one shot from the data file D 0, it is when it reaches the end of the data file D 0 . Alternatively, the determination that all the data portions of the data file D 0 of the reading unit 112 have been read is performed by dividing the data file D 0 and temporarily storing it in a memory or the like, for example. The data that has been read out is erased, and all the data in the temporary storage location is lost.
  • erasing data can be replaced by moving the data or adding a processed mark to the data. If it is determined in step S13 that reading of all data portions has not been completed (YES in S13), the process returns to step S11 to select the next data portion, and thereafter the processing in steps S12 and S13 is performed. repeat. By repeating such processing, a series of frame data constituting the video is accumulated in the video buffer 126.
  • step S13 when the processing for all the data portions is determined over, the process proceeds to step S14, moving image playback unit 128 performs the output of data D 63 stored in the video buffer 126.
  • the “data portion” is data for one shot. That is, the moving image reproducing unit 128 sequentially displays the data D 63 of a series of frames constituting the video from the video buffer 126 on the display unit 130 as a moving image.
  • FIG. 9 shows details of step S12 of FIG.
  • the data dividing unit 114 a single (one shot data) of a plurality of data portions generated by the division of the data file D 0 in step S11, data of the first color channel (first 1 data unit D 51 ) and second color channel data (second data unit D 52 ).
  • the data units D 51 and D 52 of each color channel become data having a data amount that can be expressed by one graphic code.
  • the plurality of color channels for example, a red (R) channel and a blue (B) channel are used.
  • Data dividing unit 114 provides the first data unit D 51 to the first code generating unit 116A. Then, the data dividing unit 114 provides a second data unit D 52 to the second code generating unit 116B.
  • step S22 the first code generation unit 116A converts the first data unit D 51 given from the data division unit 114 into the first code image D 31 , and outputs an image plane including the first code image D 31.
  • step S23 the second code generating unit 116B converts the second data unit D 52 supplied from the data dividing unit 114 to the second code image D 32, the image plane containing the second code image D 32 Output.
  • the combining unit 122 includes an image plane comprising a first code image D 31 generated in step S22, and an image plane comprising a second code image D 32 generated in step S23, each red channel and Assign to the blue channel and combine to generate a color image. That is, in the step S24, the combining unit 122 assigns image plane including a first code image D 31 generated in step S22 to the red channel. Then, the composition unit 122 assigns image plane comprising a second code image D 32 generated in step S23 to the blue channel. Further, the combining unit 122 assigns image plane which does not include a timing mark D 2 stored in the image storage unit 107 in the green channel.
  • composition unit 122 an image plane including a first code image D 31 assigned to the red channel, the timing mark D assigned to the image plane and the green channel comprises a second code image D 32 assigned to the blue channel
  • An image plane not including 2 is synthesized to generate a color image.
  • step S25 the color image created in step S24 is repeated a predetermined number of times, for example, once, an image for one frame is generated, sent to the video buffer 126, and written into the video buffer 126.
  • a color image obtained by combining the image plane of the first code image D 31 , the image plane of the second code image D 32 , and the image plane not including the timing mark D 2 written in the video buffer 126 is shown in FIG. This corresponds to the image of the first one frame period T t1 shown in A).
  • the “predetermined number of times” is one in the example of FIG.
  • step S26 performs image generation timing mark D 2.
  • mark generation unit 106 previously generates an image plane containing the advance timing mark D 2.
  • the mark generator 106 allowed to store the image plane including timing mark D 2 in the image storage unit 107.
  • the mark generation unit 106 reads out an image plane including the timing mark D ⁇ b > 2 stored in the image storage unit 107 and gives it to the synthesis unit 122.
  • the mark generator 106 allowed to store the image plane which does not include a timing mark D 2 in the image storage unit 107.
  • the combining unit 122 includes an image plane comprising a first code image D 31 generated in step S22, the second code image D 32 generated in Step S23 including an image plane and an image plane including timing mark D 2 generated in step S26, each red channel synthesizes assigned to the blue channel and the green channel, the image D 3 of the timing mark D 2 with code A color image (synthesized image D 61 ) is generated. That is, the combining unit 122 assigns image plane including a first code image D 31 in the red channel. Combining unit 122 assigns image plane comprising a second code image D 32 in the blue channel. Combining unit 122 assigns image plane including timing mark D 2 in the green channel. The combining unit 122 combines the color channels. Then, the composition unit 122 generates a composite image D 61.
  • step S28 the image created in step S27 is repeated a predetermined number of times, for example, twice, and two frames of video are generated, sent to the video buffer 126, and written into the video buffer 126. These two frames are written as a frame subsequent to one frame written in step S25. That is, the color image obtained by combining the image plane of the first code image D 31 , the image plane of the second code image D 32 , and the image plane of the timing mark D 2 written in the video buffer 126 is shown in FIG. It corresponds to the image of the period T e of the two frames indicated by.
  • the “specified number of times” is two in the example of FIG.
  • step S29 it erases the timing mark D 2. Since this process, the mark generator 106 previously generates an image plane that does not include the pre-timing mark D 2. For example, the mark generation unit 106 stores an image plane that does not include the timing mark D 2 in the image storage unit 107. In step S ⁇ b > 29, the mark generation unit 106 reads an image plane that does not include the timing mark D ⁇ b > 2 stored in the image storage unit 107, and provides the image plane to the synthesis unit 122.
  • the combining unit 122 includes an image plane comprising a first code image D 31 generated in step S22, an image plane comprising a second code image D 32 generated in step S23, step S29 in generated, respectively red channel and an image plane in which the timing mark D 2 is erased, synthesized by assigning the blue channel, and green channel, free of timing marks D 2, first code image D 31 and a second generating a color image including a code image D 32. That is, in the step S30, the combining unit 122, an image plane of the first code image D 31, the image plane where the image plane and the timing marks D 2 has been erased in the second code image D 32 synthesizes.
  • step S24 it is also possible to synthesize an image plane in which the timing mark D 2 is erased. That is, it is also possible to synthesize an image plane that does not include a timing mark D 2 stored in the image storage unit 107.
  • step S31 the image created in step S30 is repeated a predetermined number of times, for example, once to generate an image for one frame. Then, the generated image for one frame is sent to the video buffer 126 and written into the video buffer 126. The image for one frame is written as a frame following the video for two frames written in step S28. In other words, the color image obtained by combining the image plane of the first code image D 31 , the image plane of the second code image D 32 , and the image plane from which the timing mark D 2 is erased is written in the video buffer 126 here. This corresponds to the image of the last one frame period T t2 shown in (A).
  • the “predetermined number of times” is one in the example of FIG.
  • the process in step S30 is the same as the process in step S25.
  • the video buffer 126 has, for example, a management area including the number of frames or reference information to actual image data, and a buffer area in which image data is actually stored.
  • the end address of the image stored in the current buffer area is read from the management area information. Then, the data of the frame to be added is copied after the stored image. Thereafter, the data in the management area is updated by adding one frame.
  • the composite video D 63 written in the video buffer 126 is read and displayed as described above, a plurality of shots constituting the data file D 0 are each displayed over a period of 4 frames.
  • one shot is image data of one QR code, for example.
  • the data is sent by the image data of a plurality of QR codes. That is, when the capacity of the data file D 0 is large, the data file D 0 data is sent by the image data of a plurality of QR codes, each QR code is displayed over 4-frame period.
  • the display content changes as follows during the display of one shot. In the first frame period T t1, only the first code image D 31 and the second code image D 32 is displayed.
  • the receiving apparatus 200 acquires transfer data D 13 from the video data D 7 imaged is a flowchart showing the operation of storing.
  • the process shown in FIG. 10 is started in receiving apparatus 200 based on a predetermined program. For example, the process illustrated in FIG. 10 is started when a reception program for receiving data (synthesized video D 63 ) transmitted from the transmission device 100 is activated.
  • step S41 the imaging unit 202 captures a moving image. That is, the image (synthesized image D 63 ) displayed on the display unit 130 is imaged by the imaging unit 202.
  • step S42 the sequence of frames constituting the video data D 7 obtained by the imaging, will be stored sequentially in the video buffer 204. After the end of recording, reading the frames constituting the video data D 7 stored in the video buffer 204 sequentially performs processing to be described later.
  • step S43 the reading unit 206 selects one of the frames from the video buffer 204 and reads the image data of the selected frame.
  • step S44 the separation unit 208, a frame of data D 8 read in step S43, the separated data D 9 color component values (step S44).
  • mark recognition unit 210 detects the timing mark D 2 (step S45). In the case where the timing mark D 2 is not detected, if there are remaining frames in the video buffer 204, reading unit 206 repeats from 1 frame read from the video buffer 204 (step S43). Reading unit 206 performs a frame read (step S43) from the video buffer 204 to the timing mark D 2 is detected.
  • step S44 the separation unit 208, the data D 8 of one frame read in step S43, the separated data for each color channel.
  • three primary colors of red (R), blue (B), and green (G) are adopted as color channels.
  • the separation unit 208 provides the red component image data to the first cutout unit 222A, the blue component image data to the second cutout unit 222B, and the green component image data to the mark recognition unit 210.
  • step S45 the mark recognition unit 210 determines whether the timing mark D 2 is detected. That is, the mark recognition unit 210, and determines whether contains timing marks D 2 to the image represented by the data D 9G of the separated green component value at step S44. In the case where the image represented by the data D 9G of the separated green component value in step S44 does not include a timing mark D 2 (NO in step S45), the process proceeds to step S57.
  • step S47, S49 the image clipping unit 220 is included in each color channel code image (color component values of the data D 9R, D 9B) is Cut out the area.
  • step S48 and S50 the code decoding unit 230 executes code decoding.
  • step S47 the first cutout unit 222A cuts out the first code image D11R from the image represented by the red component value data D9R separated in step S44.
  • step S48 the first decoding unit 232A decodes the first code image D11R included in the image cut out in step S47. As a result, the decoded decoded data D 12R in color units corresponding to the first data unit D 51 is extracted.
  • step S49 the second cutout portion 222B from the image represented by the data D 9B of the separated blue component value at step S44, cut a second code image D 11B.
  • step S50 the second decoding unit 232B decodes the second code image D11B included in the image cut out in step S49. As a result, the decoded decoded data D 12B in color units corresponding to the second data unit D 52 is extracted.
  • step S51 the combining unit 242 combines the decoded data D 12R and D 12B in units of colors.
  • the received data storage unit 244 the decoded decode data D 12R color unit, stores the transfer data D 13 obtained as a result of synthesis of D 12B.
  • step S51 the synthesizer 242 decodes the color-unit decoded decoded data D 12R (first data unit D 51 ) extracted in step S48 and the color-unit decoded decoded data D extracted in step S48. 12B (second data unit D 52 ) is combined to restore the transfer data D 13 .
  • step S52 the combining unit 242 sends the transfer data D 13 that is restored to the received data storage unit 244.
  • the received data storage unit 244 stores the transfer data D 13 received.
  • the red channel is the preceding data D 12R and the blue channel is the succeeding data D 12B .
  • the red channel data D 12R acquired this time is added, and then the blue channel data D 12B is added and stored.
  • step S52 the process proceeds to step S53, where it is determined whether there are any remaining frames in the video buffer 204. If there are no remaining frames (NO in step S50), the process is terminated. Any remaining frame (YES at step S50), in step S54, the reading unit 206 further reads out data D 8 for one frame from the video buffer 204.
  • step S55 the separation unit 208, the data D 8 of the frame read in step S54, the image of each color channel (data D 9G color component values, D 9R, D 9B) to separate.
  • step S56 the mark recognition unit 210, (or erased) Timing mark D 2 is either detected to determine whether.
  • step S56 the timing mark D 2 which has been detected to verify no longer detected.
  • step S57 it is determined whether there are any remaining frames in the video buffer 204. If there are remaining frames, the process returns to step S43. If there are no remaining frames, the process ends. In this way, by performing processing until the video data D 7 in the video buffer 204 is exhausted, the receiving device 200 can restore the transferred data (transfer data D 13 ).
  • the amount of information represented by each code is reduced, and each point constituting the code image is increased. Can be displayed.
  • a high-density QR code is obtained.
  • the “cell” indicates the smallest monochrome pattern.
  • blurring or blurring when taking a QR code is likely to occur.
  • the cell If the cell is large, the occurrence of blurring or blurring when taking a QR code is suppressed. The probability of successful decoding of the QR code increases. For this reason, it is possible to improve resistance to defocusing and resistance to camera shake during shooting. In other words, the tolerance at the time of shooting with respect to defocus and camera shake is improved. Then, when the transmission device 100 is held up toward the reception device 200, the workability of the user can be improved.
  • the timing mark D 2 is at least drawing code image D 3 It can be represented as an image that occupies the entire range (code region).
  • the timing mark D 2 can be expressed as a uniform image. “Uniform image” is, for example, an image represented by the maximum gradation value in the entire rectangular area (area shown by cross-hatching) shown in FIG. In the example shown in FIG. 3, the drawing range of the code images D 31 and D 32 and the range occupied by the timing mark D 2 are the same.
  • the timing mark D 2 is represented as a uniform image including the entire code images D 31 and D 32 , and the entire timing mark D 2 is read without being lost, the code images D 31 and D 32 can be regarded as being read correctly.
  • the period (body period) in which the code images D 31 and D 32 with the timing mark D 2 are continuously displayed is a two-frame period.
  • a period (guard period) during which the code images D 31 and D 32 without the timing mark D 2 are displayed before and after the body period is one frame period.
  • the length of the body period (number of frames) and the length of the guard period (number of frames) should be determined according to various conditions, and the invention of Embodiment 1 is not limited to the above example.
  • Timing mark D 2 is not limited to those described above. Further, if there is room in the timing to check chipping timing mark D 2 (overall timing mark D 2 is a confirmation of whether or captured) it becomes unnecessary. Then, further, the degree of freedom relating to the determination of the shape of the timing mark D 2 is higher.
  • the timing margin increases as the imaging frame rate increases with respect to the display frame rate. Also, the larger the number of guard frames and the number of body frames, the larger. Further, for example, the timing mark D 2 are marks fills the entire screen in a certain color, it marks fill a uniform pattern, a circular mark, the mark of multiple circles, a further square around the square marks or square It is possible to adopt a mark with an enclosed edge.
  • timing mark D 2 In the case of using a plurality of timing marks D 2, it can have different meanings in different timing mark D 2. In other words, it is possible to add a timing mark D 2 which differs depending on data portion to the data file D 0. For example, a plurality of timing marks D 2, it can be shown a series of delimited data, termination, etc. of the start or data of the data.
  • FIG 11 (A) ⁇ FIG 11 (M) show an example of a different timing mark D 2 of the combination they have different meanings.
  • a timing mark D 2 it can be shown that the leading data part of the data file D 0 by a circular timing mark D 2A shown in Figure 11 (A).
  • FIG. 11 (A) ⁇ FIG 11 (C) is preferably displayed on the position corresponding to the code image D 3. That is, the circular depicted in FIG. 11 (A) ⁇ FIG 11 (C) is preferably encoded image D 3 is displayed in the area to be displayed.
  • timing mark D 2 it can be shown that the leading data part of the data file D 0 by rectangular timing mark D 2D shown in FIG. 11 (D).
  • rectangle depicted in FIG. 11 (D) ⁇ FIG 11 (F) drawn with a size corresponding to the code image D 3, it is desirable to be displayed in the corresponding position in the code image. That is, the rectangle depicted in FIG. 11 (D) ⁇ FIG 11 (F) is preferably encoded image D 3 is displayed in the area to be displayed.
  • “Segment” is a set of one or more “shots”. Even if an error occurs in one shot, the file transfer is divided so as not to fail as a whole. That is, the “segment” is divided so that the file transfer can be said to be “partially successful”. When applied to signage, etc., the same data is repeatedly displayed. Even if a part of shots becomes an error in the first round, if the transfer including the shot is successful in the second round, the file transfer can be successful as a whole. Considering camera shake at the time of photographing, it is difficult to photograph a plurality of shots necessary for one transfer without error.
  • the “segment” is a mechanism for relieving such an error.
  • the rectangular timing mark D 2G shown in FIG. 11 (G) it can be shown that the leading data part of the data file D 0.
  • the timing mark D 2H arranged one smaller rectangle than the rectangle, that the data portion of the intermediate (non-head and tail) of the data file D 0 Can be shown.
  • a smaller rectangle than the rectangle by two arranged the timing mark D 2I can be shown to be the last data portion of the data file D 0.
  • a timing mark D2J in which three rectangles smaller than the rectangle are arranged on the left side of the rectangle shown in FIG.
  • FIG. 11 (J) can indicate the data portion at the beginning or end of each segment. “The data portion at the beginning or end of each segment” means, for example, the first shot or the tenth shot of one segment when one segment is composed of ten shots.
  • large rectangle depicted in FIG. 11 (G) ⁇ FIG 11 (J) is preferably encoded image D 3 is displayed in the area to be displayed.
  • timing mark D 2 it can be shown that the leading data part of the data file D 0 by rectangular timing mark D 2K shown in FIG. 11 (K).
  • the timing mark D 2M depicting each of the two rectangles on each side of the rectangle shown in Fig. 11 (M), can also be shown to be the last data portion of the data file D 0.
  • large rectangle depicted in FIG. 11 (K) ⁇ FIG 11 (M), drawn with a size corresponding to the code image D 3 may be displayed at a position corresponding to the code image D 3 desirable.
  • large rectangle depicted in FIG. 11 (K) ⁇ FIG 11 (M) it is desirable that the code image D 3 is displayed in the area to be displayed.
  • mark generation unit 106 may generate a corresponding timing mark D 2.
  • the video imaged by the imaging unit 202 is stored in the video buffer 204 as moving image data. Then, after taking a picture, the decoding process is taken out the video data D 7 frame by frame from the video buffer 204 is performed. Therefore, the receiving apparatus 200 can also be configured with a terminal having a low computing capability.
  • the code image D 3 has been described as being switched between one frame and the next frame.
  • a liquid crystal display device that is a hold-type display device
  • the “timing immediately before and after the switching” is set to “the frame in which the switching is performed and the immediately preceding frame and the immediately following frame”
  • the timing mark D 2 is set for a period of 3 frames per shot. In some cases, it is not added and is not subject to decoding.
  • FIGS. 12A, 12B, 13A, 13B, 13C, 13D, 14A, and 14 B), FIG. 14C, FIG. 15A, FIG. 15B, and FIG. FIG. 12A and FIG. 12B are diagrams illustrating changes in the display image within the display frame period.
  • FIG. 13A to FIG. 13D are diagrams showing changes in the display image within the display frame period.
  • FIGS. 14A to 14C are diagrams showing changes in the display image within the display frame period.
  • FIGS. 15A to 15C are diagrams showing changes in the display image within the display frame period.
  • FIG. 12A shows a change in the display image displayed on the display unit 130.
  • Upper symbols Fd 1 to Fd 7 represent display frame numbers.
  • FIG. 12B shows a change in an image (captured image) obtained by imaging by the imaging unit 202.
  • Upper symbols Fp 1 to Fp 7 represent imaging frame numbers.
  • FIGS. 13A to 15C show changes in the display image within the display frame period.
  • the display frame rate (display frame period T t ) and the imaging frame rate (imaging frame period T r ) are the same. However, it is assumed that the imaging frame is shifted from the display frame by a half frame period. In addition, the imaging screen is not inclined with respect to the display screen. That is, it is assumed that the horizontal direction of the imaging screen matches the horizontal direction of the display screen.
  • the update of the image within each frame is indicated by an oblique line SC that is sequentially performed from the top to the bottom of the screen over one frame period (display frame period T t ).
  • the code image D 3 is assumed to be located in the center of the screen.
  • the code image D 3 replaces sequentially cut code D 3A, by the symbol D 3B and code D 3C.
  • the code image D 3A, D 3B, the upper half of the D 3C respectively D 3AU, D 3BU, at D 3 CU.
  • the lower half of the code images D 3A , D 3B , D 3C is indicated by D 3AL , D 3BL , D 3CL .
  • the lower half of the timing mark D 2 indicated by D 2L.
  • the image update will be described with reference to the display frame Fd 1 .
  • the time point at which the screen is updated is indicated by a time point t ns (n is a natural number representing a frame number).
  • a time point t 1b indicates a time point when the update of the screen of the display frame Fd 1 proceeds to the upper end of the code image.
  • a time point when the screen update of the display frame Fd 1 has advanced to the center of the screen is indicated by a time point t 1m .
  • a time point t 1e indicates a time point when the update of the screen of the display frame Fd 1 proceeds to the lower end of the code image.
  • the code image D 3A is displayed in the display frame Fd 1 .
  • D 3BU is displayed on the upper side of the code image D 3 of the display frame Fd 1 .
  • D 3AL is displayed below the code image D 3 of the display frame Fd 1 .
  • the code image D 3B is displayed in the display frame Fd 1 .
  • Figure 12 (A) and the timing mark D 2 in the example shown in and FIG. 12 (B) is located only on the left side of and the code image D 3 intended strip. It is assumed that the imaging unit 202 is open for the entire imaging period of each imaging frame.
  • the code image D 3 is switched in 6 frame periods. Among them, the switching of the code image D 3 in the first frame Fd 1 is performed. Switching of the image due to the addition of the timing mark D 2 is Okonawaru in the third frame Fd 3. Switching of the image by erasing timing mark D 2 is carried out in the fifth frame Fd 5.
  • the update of the screen of the display frame Fd 1 will be described with reference to FIG.
  • the code image D 3 being displayed is displayed.
  • the lower half the lower half D 3AL of the code image D 3A before switching is displayed.
  • the upper half of the code image D 3 being displayed the upper half D 3BU code image D 3B after switched is displayed.
  • the lower half of the displayed code image D 3 is also switched as shown in FIG. 13B. It becomes the lower half D 3BL of 3B . From time t 1m to time t 1e, the lower half of the displayed code image D 3 gradually changes from the image D 3A before switching to the image D 3B after switching.
  • timing marks D 2 are not displayed at all.
  • Image update as shown in the advanced time t 3m to the center of the screen FIG. 14 (B), the displayed upper half D 2U timing mark D 2 is, the lower half D 2L timing mark D 2 are displayed Not.
  • advanced time t 3e update image to the lower end of the timing mark D 2 as shown in FIG. 14 (C), the overall timing mark D 2 are displayed. In other words, gradually appeared to lower the timing mark D 2 over a period of from time t 3b to time t 3e is from the upper side of the screen.
  • timing marks D 2 is displayed in its entirety.
  • Image update as shown in the advanced time t 5 m to the center of the screen FIG. 15 (B), the display lower half D 2L timing mark D 2 is the upper half D 2U timing mark D 2 is erased ing.
  • the overall timing mark D 2 is erased. In other words, it will be erased gradually to the lower timing mark D 2 over a period of from time t 5b to the time point t 5e from the upper side.
  • the code image D 3 to be displayed are all switched-previous image D 3B.
  • advanced time t 7m update image to the center of the code image D 3 as shown in FIG. 13 (D)
  • the upper half of the code image D 3 is the upper half of the code image D 3C after switched is D 3 CU.
  • the upper half of the code image D 3 is the same as the upper half D 3BU of the image D 3B after switching.
  • the lower half of the code image D 3 is an image D 3ABL where the lower half D 3BL mixed image D 3B after switches the lower half D 3AL of switched previous image D 3A.
  • the mixing ratio varies depending on the position in the vertical direction in the imaging screen, and is equal to the ratio of the time during which the image D 3A is displayed and the time during which the image D 3B is displayed at each position on the corresponding display screen.
  • the entire code image D 3 is the same as the code image D 3B.
  • the timing mark D 2 is not added, whereas in the first half of the display frame Fd 3 (a period until the update reaches the center of the screen), the timing mark D 2 gradually increases from the top. appear. Therefore, in the image obtained by the imaging in the imaging frame Fp 2, the lower half of the timing mark D 2 D 2L it does not appear. Also, half of D 2U on the timing mark D 2 is an image D 2U0 of the image that do not appear half D 2U appears images on the timing mark D 2 are mixed.
  • the ratio of the mixture in each location of the corresponding display screen, the time and the timing mark D 2 appearing equal to the ratio of the time when the timing mark D 2 does not appear.
  • the timing marks D 2 in the captured image as the direction of the upper darker (the gradation value is large), becomes thinner toward the lower side (gradation values is small).
  • the entire code image D 3 is the same as the code image D 3B.
  • the second half in update period after the time of reaching the center of the screen
  • the timing mark D 2 of the display frame Fd 3 is gradually extended progressively further downward from the state appeared to the center. That is, the lower half D 2L of the timing mark D 2 also gradually appears.
  • the display frame Fd 4 timing marks D 2 in its entirety has appeared. Therefore, in the image obtained by the imaging in the imaging frame Fp 3, timing marks D 2 entirety appears that.
  • the lower half of the image obtained by the imaging in the imaging frame Fp 3 the image D 2L0 of the image the bottom half of the timing mark D 2 does not appear as images D 2L appear are mixed.
  • the ratio of the mixture in each location, time and the timing mark D 2 appearing equal to the ratio of the time when the timing mark D 2 does not appear. Therefore, the lower half D 2L of the timing mark D 2 in the captured image is thinner toward the lower side and darker toward the upper side.
  • timing mark D 2 is displayed in the second half of the display frame Fd 4 (a period after the time when the update reaches the center of the screen).
  • timing mark D 2 is going to disappear gradually from the upper side in order. Therefore, in the image obtained by the imaging in the imaging frame Fp 4, timing marks D 2 entirety appears that.
  • the upper half image and image upper half D 2U image and timing marks D 2 of the upper half D 2U timing mark D 2 appears does not appear is mixed D of the image obtained by the imaging in the imaging frame Fp 4 2U0 It becomes.
  • the ratio of the mixture in each location, time and the timing mark D 2 appearing equal to the ratio of the time when the timing mark D 2 does not appear. Accordingly, the upper half D 2U of the timing mark D 2 in the captured image is thinner toward the upper side and darker toward the lower side.
  • the entire code image D 3 is the same as the code image D 3B.
  • the second half (the period after the time when the update has reached the center of the screen) of the display frame Fd 5 timing marks D 2 fades gradually from the upper side in this order.
  • the upper half D 2U of the timing mark D 2 does not appear in the image obtained by imaging in the imaging frame Fp 5 .
  • the lower half of the timing mark D 2 is an image D 2L0 to the image lower half D 2L image and timing marks D 2 of lower half D 2L timing mark D 2 appears does not appear have been mixed.
  • the timing marks D 2 in the captured image is darker towards the bottom, it becomes thinner toward the upper side.
  • the lower half of the imaging frame Fp 6 is the same as the lower half D 3BL of the image D 3B before switching.
  • the code image D 3 obtained by the image pickup frame Fp 4 it can be seen is suitable for decoding.
  • density of the timing marks D 2 varies depending longitudinal position. In this case, it is assumed that it is determined whether or not the timing mark D 2 appearing in each line of the display screen. For example, if the threshold than the predetermined density, may be determined code image D 3 of the line and suitable for decoding.
  • the threshold value is a medium value
  • the lower half D 3L of the code image D 3 of the imaging frame Fp 3 and a part of the upper half D 3U of the code image D 3 are suitable for decoding.
  • density is medium value is the density in the case where the timing mark D 2 over all imaging period of the image frame is displayed, not displayed timing mark D 2 over all imaging period of the image frame It is an intermediate value of the darkness of the case.
  • All of the upper half D 3U of the code image D 3 of the imaging frame Fp 5 and a part of the lower half D 3L of the code image D 3 are determined to be suitable for decoding.
  • the line density of the timing marks D 2 is equal to or greater than the threshold is, the code image D 3 of the frame is determined to be more than a predetermined number, even be determined to be in its entirety suitable for decoding good.
  • the lower half of the timing mark D 2 D 2L does not appear. Then, the upper half D 2U of the timing mark D 2 appears. Therefore, in the imaging frame Fp 2, density of the timing marks D 2 depends longitudinal position. In such a case, the code image D3B as a whole may be determined to be unsuitable for decoding. Alternatively , by lowering the threshold, a part of the upper half D 3BU of the code image D 3B may be suitable for decoding. Furthermore, in a predetermined number or more of lines, when the density of the timing marks D 2 is determined to be equal to or greater than the threshold value, it may be determined to be suitable for decoding the entire code image D 3B .
  • the upper half D 2U of the timing mark D 2 does not appear in the imaging frame Fp 5 .
  • the lower half D 2L of the timing mark D 2 appears. Therefore, density of the timing marks D 2 depends longitudinal position. In such a case, the code image D3B as a whole may be determined to be unsuitable for decoding. Alternatively , by lowering the threshold value, a part of the lower half D 3BL of the code image D 3B may be suitable for decoding. Furthermore, in a predetermined number or more of lines, when the density of the timing marks D 2 is determined to be equal to or greater than the threshold value, it may be determined to be suitable for decoding the entire code image D 3B .
  • the timing mark D 2 does not appear at all.
  • the upper half D 3BU of the code image D 3B is equal to the image D 3BU after switching.
  • the lower half D 3BL code image D 3B is an image D 3ABL that the image D 3BL after switches the switched previous image D 3AL have been mixed. Therefore, the code image D 3B of the imaging frame Fp 1 is not suitable for decoding.
  • timing marks D 2 does not appear.
  • the lower half of the code image D 3B is equal to the image D 3BL before switching.
  • the upper half of the code image D 3B is an image D 3BCU in which the image D 3 CU of switches and switched preceding image D 3BU mixed. Therefore, the code image D 3B of the imaging frame Fp 6 is not suitable for decoding.
  • the code image D 3 is not suitable for decoding, can be determined based on the timing mark D 2 does not appear at all.
  • the shutter opening time (exposure time) of the imaging unit 202 extends over the entire frame period Tr of each imaging has been described above. However, when the shutter opening time indicates only a part of the frame period Tr of each imaging, the above mixing ratio is switched to the period during which the image before switching is displayed within the shutter opening time. It becomes a ratio with the period in which a subsequent image is displayed.
  • the display screen of the display unit 130 may be tilted in an image obtained by imaging by the imaging unit 202. Therefore, when it is determined whether or not the code image D 3 for each line of the display screen suitable for decoding, in the image obtained by the imaging (image data D 7), the display unit 130 of the line Need to specify direction.
  • each line of the display screen may each range of longitudinal positions comprising a plurality of successive lines from each other, that it is determined whether or not those codes image D 3 is suitable for decoding.
  • each band-shaped area composed of a plurality of lines can be performed is determined whether or not those codes image D 3 is suitable for decoding.
  • the code image and the timing mark are composed of data of the three primary colors of red (R), blue (B), and green (G).
  • R red
  • B blue
  • G green
  • the present invention is not limited to this, It may be configured by data of a color different from the above. However, it is easier to configure with the data of the three primary colors when multiplexing by combining by the combining unit 122 as shown in FIG. 2, for example, and when separating by the separating unit 208 as shown in FIG. And efficient. The same applies to the following embodiments.
  • Embodiment 2 FIG.
  • the combining unit 122, the timing marks D 2 and code image D 3 are synthesized assigned to each color channel. Then, the composition unit 122, and generates a composite image D 61 of the collar.
  • the present invention is not limited to such an example.
  • the images D 2 , D 31 , and D 32 output from the mark generation unit 106, the first code generation unit 116A, and the second code generation unit 116B can be separately connected to generate separate videos. . Then, the synthesis unit 122 may synthesize these videos by assigning them to the respective color channels.
  • FIG. 16 shows the configuration in that case.
  • FIG. 16 is a block diagram schematically showing a configuration of transmitting apparatus 100a in the second embodiment.
  • a transmitting apparatus 100a illustrated in FIG. 16 includes a first video buffer 126A, a second video buffer 126B, a third video buffer 126C, a first video buffer 126A, a video playback unit 128, and a synthesis unit 122 instead of the video buffer 126, the video playback unit 128, and the synthesis unit 122 illustrated in FIG. It has a 1 video playback unit 128A, a second video playback unit 128B, a third video playback unit 128C, and a synthesis unit 122b.
  • Constituent elements similar to those of the transmitting apparatus 100 described in Embodiment 1 are assigned the same reference numerals, and descriptions thereof are omitted.
  • Constituent elements similar to those of the transmission device 100 are a transmission data storage unit 102, a data processing unit 110, a reference clock generation unit 104, a mark generation unit 106, and a display unit 130.
  • the reading unit 112, the data division unit 114, the first code generation unit 116A, and the second code generation unit 116B of the data processing unit 110 are the same components as those in the first embodiment.
  • the image storage unit 107 of the mark generation unit 106 is a component similar to that of the first embodiment.
  • First video buffer 126A stores the first code image D 31 generated by the first code generating unit 116A in this order.
  • First video buffer 126A stores the first code image D 31 in sequence.
  • the first video buffer 126A is, these are connected to generate a first code image D 64. That is, the first image buffer 126A connects the first code image D 64 accumulated.
  • the first video buffer 126A generates a first code image D 64.
  • Second video buffer 126B stores the second code image D 32 generated by the second code generating unit 116B in this order.
  • Second video buffer 126B stores the second code image D 32 in sequence.
  • the second video buffer 126B is these ligated to generate a second code image D 65. In other words, the second image buffer 126B connects the second code image D 65 accumulated.
  • the second video buffer 126B generates a second code image D 65.
  • Third image buffer 126C stores the timing mark D 2 generated by the mark generation unit 106 in order.
  • Third image buffer 126C stores the timing mark D 2 in order.
  • the third image buffer 126C is these ligated to generate a timing mark image D 21. That is, the third image buffer 126C connects the accumulated timing mark D 2.
  • the third image buffer 126C generates the timing mark image D 21.
  • the first video playback unit 128A among the data file D 0, when the connection code image D 31 of the first video buffer 126A is processing is completed, the data stored in the video buffer 126A (first code image D 64 ) Are sequentially read for each frame and reproduced as a moving image. That is, the first moving image reproduction unit 128A reproduces a moving image sequentially reads the first code image D 64. The first video playback unit 128A reads the first code image D 64 for each frame. The timing at which the first video playback unit 128A reads out the first code image D 64 is the time the connection is complete code image D 31 in the first image buffer 126A.
  • the second moving image reproduction unit 128B of the data file D 0, when the connection code image D 32 of the second image buffer 126B to process is completed, the data stored in the video buffer 126B (second code image D 65 ) Are sequentially read for each frame and reproduced as a moving image. That is, the second moving image reproduction unit 128B is reproduced as sequentially reads video a second code image D 65. The second moving image reproduction unit 128B reads the second code image D 65 for each frame. Timing when the second moving image reproduction unit 128B reads the second code image D 65 is the time the connection is complete code image D 32 in the second image buffer 126B.
  • the third moving image playback unit 128C receives the data (timing mark video D 21 ) stored in the video buffer 126C when the conversion of all data of the data file D 0 to the code video D 64 and D 65 is completed. It reads out every frame sequentially and reproduces it as a moving picture. That is, the third moving image reproduction unit 128C is reproduced as video sequentially reads the timing marks image D 21.
  • the third video playback unit 128C reads the timing marks video D 21 for each frame. Timing the third moving image reproduction unit 128C reads the timing marks image D 21 is the time when the video buffer 126A, the connection code image D 31, D 32 at 126B has been completed.
  • the video D 21 is synthesized by being assigned to independent color channels.
  • the synthesis unit 122b generates a synthesized video D 66 (color video) for one data file D 0 .
  • Data (synthesized video D 66 ) transmitted from the transmission device 100a in FIG. 16 can be received by the reception device 200 in FIG. 5 described in the first embodiment.
  • FIG. 17 shows a transmitting apparatus 100c according to the third embodiment of the present invention.
  • FIG. 18 illustrates a receiving device 200c according to the third embodiment.
  • the transmission device 100 c includes a light emitting unit 156 instead of the mark generation unit 106. Further, the transmission device 100 c includes a combining unit 122 c instead of the combining unit 122.
  • the receiving device 200 c includes a light emission detection unit 260 instead of the mark recognition unit 210.
  • Constituent elements similar to those of the transmitting apparatus 100 described in Embodiment 1 are assigned the same reference numerals, and descriptions thereof are omitted.
  • the same components as the transmission apparatus 100 are a transmission data storage unit 102, a data processing unit 110, a reference clock generation unit 104, a video buffer 126, a moving image reproduction unit 128, and a display unit 130.
  • the reading unit 112, the data division unit 114, the first code generation unit 116A, and the second code generation unit 116B of the data processing unit 110 are the same components as those in the first embodiment.
  • Constituent elements similar to those of receiving apparatus 200 described in Embodiment 1 are assigned the same reference numerals, and descriptions thereof are omitted.
  • Constituent elements similar to those of the receiving apparatus 200 are an imaging unit 202, a video buffer 204, a reading unit 206, a separating unit 208, an image clipping unit 220, a code decoding unit 230, a combining unit 242, and a received data storage unit 244.
  • the first cutout part 222A and the second cutout part 222B of the image cutout part 220 are the same constituent elements as those in the first embodiment.
  • the first decoding unit 232A and the second decoding unit 232B of the code decoding unit 230 are the same constituent elements as those in the first embodiment.
  • the transmission device 100c in FIG. 17 is generally the same as the transmission device 100 in FIG. 2, but includes a light emitting unit 156 instead of the mark generation unit 106. Further, a synthesis unit 122 c is provided instead of the synthesis unit 122.
  • Combining section 122c is combined with the first code image D 31 from the first code generating unit 116A of the second code image D 32 from the second code generating unit 116B. Unlike the synthesis unit 122 of FIG. 2, the timing mark D 2 I am not synthesized.
  • the transmission data (transfer data)
  • the combined image D 67 assigned to the red channel and blue channel is obtained.
  • Video buffer 126 sequentially connecting the composite image D 67. Also in the synthesized video D 68 obtained by linking, the content of the code image D 3 is switched every one shot period T d (four frame periods) as in the first embodiment.
  • the light emitting unit 156 is disposed adjacent to the display screen 131 of the display unit 130. That is, the light emitting unit 156 is arranged so that the imaging unit 202 of the receiving device 200c can shoot with the same field of view as the display screen 131 of the display unit 130.
  • the light emitting unit 156 is configured by an LED or the like. Emitting unit 156, in synchronization with the generated clock signal CL at the reference clock generator 104, to emit light only just before and the period other than the period immediately after the timing of switching the code image D 3 in the synthesis image D 68. For example, the period during which the light emitting unit 156 to emit light is switched immediately before and the frame period immediately after the code image D 3 (guard period) other periods (body period). The light emitting unit 156 emits green light, for example.
  • a monitor lamp having another role in the transmission device 100c may be used as the light emitting unit 156. For example, a monitor lamp used to indicate power on / off may be used as the light emitting unit 156.
  • the reading unit 112 uses one shot data (the code image D 3 displayed in one shot period T d). ) Is read each time a signal (synchronization signal SY) is output.
  • the light emitting unit 156 receives the signal (synchronization signal SY) from the reading unit 112 and determines the timing of light emission.
  • the receiving apparatus 200c shown in FIG. 18 is generally the same as the receiving apparatus 200 of FIG. 5, but differs in that a light emission detecting unit 260 is provided instead of the mark recognizing unit 210.
  • the imaging unit 202 images the display screen 131 of the display unit 130 and the light emitting unit 156 of the transmission device 100c on which the video (the synthesized video D 68 ) is displayed with the same field of view. Then, the imaging unit 202 acquires an image including the image (synthesized image D 68 ) displayed on the display screen 131 and the light from the light emitting unit 156 by imaging.
  • data (video data D 7 ) obtained by imaging by the imaging unit 202 is accumulated in the video buffer 204.
  • the reading unit 206 reads the data one frame (frame data D 8 ) at a time.
  • the frame data D 8 is separated by the separation unit 208.
  • the green component value data is supplied to the light emission detection unit 260.
  • the red component value data is supplied to the first cutout unit 222A.
  • the blue component value data is supplied to the second cutout unit 222B.
  • the light emission detection unit 260 determines whether or not the light emission unit 156 is reflected in each frame. Luminescent detection unit 260 (when the detection of luminescence) when it is determined that the reflected light-emitting state, it is determined that the code image D 3 in the frame are those that can be correctly decoded. The light emission detection unit 260 transmits this determination result to the image cutout unit 220. Luminescent detection unit 260 instructs the extraction of the code image D 3 to the image clipping unit 220. Image clipping unit 220 performs extraction of the code image D 3 in accordance with the instruction (image clipping signal D 10). Thus, light emission code image D 3 from the detected frame is cut. Except for the above, the third embodiment is the same as the first embodiment.
  • Embodiment 4 FIG.
  • the light emitting unit 156 to emit different colors of light from the code image D 3.
  • the light emission from the light emitting unit 156 is separated by the color of the image portion in the captured image.
  • the light from the light emitting unit 156 may be separated based on the position of the light emitting unit 156 or the blinking timing.
  • FIG. 19 shows a transmitting apparatus 100d according to the fourth embodiment of the present invention.
  • FIG. 20 illustrates a receiving device 200d according to the fourth embodiment.
  • the transmission device 100d in FIG. 19 is generally the same as the transmission device 100 in FIG. However, the transmission device 100d includes a light emitting unit 158 instead of the mark generation unit 106, similarly to the transmission device 100c of FIG.
  • the transmission device 100d includes a data processing unit 110d instead of the data processing unit 110.
  • the transmission device 100d includes a combining unit 122d instead of the combining unit 122.
  • the data processing unit 110d is generally the same as the data processing unit 110 of FIG. 2, but includes a data dividing unit 114d instead of the data dividing unit 114.
  • the data processing unit 110d includes a third code generation unit 116C in addition to the first code generation unit 116A and the second code generation unit 116B.
  • Constituent elements similar to those of the transmitting apparatus 100 described in Embodiment 1 are assigned the same reference numerals, and descriptions thereof are omitted.
  • Constituent elements similar to those of the transmission device 100 are a transmission data storage unit 102, a reference clock generation unit 104, a video buffer 126, a moving image reproduction unit 128, and a display unit 130.
  • the reading unit 112, the first code generation unit 116A, and the second code generation unit 116B of the data processing unit 110 are the same components as those in the first embodiment.
  • Constituent elements similar to those of receiving apparatus 200 described in Embodiment 1 are assigned the same reference numerals, and descriptions thereof are omitted.
  • the same components as the receiving apparatus 200 are an imaging unit 202, a video buffer 204, a reading unit 206, a separation unit 208, and a reception data storage unit 244. Further, the first cutout part 222A and the second cutout part 222B of the image cutout part 220d are the same constituent elements as those in the first embodiment. Further, the first decoding unit 232A and the second decoding unit 232B of the code decoding unit 230d are the same constituent elements as those in the first embodiment.
  • the data dividing unit 114d divides the data of each shot read by the reading unit 112 into three data parts. Then, the data dividing unit 114d gives the first data portion (first data unit D 51 ) to the first code generating unit 116A. The data dividing unit 114d gives the second data portion (second data unit D 52 ) to the second code generating unit 116B. The data dividing unit 114d gives the third data portion (third data unit D 53 ) to the third code generating unit 116C.
  • the third code generation unit 116C converts the third data unit D 53 given from the data division unit 114 into a corresponding code image (third code image D 33 ). That is, the third code generation unit 116C converts the third data unit D 53 into a graphic code. The third code generation unit 116C further converts the graphic code into a code image (third code image D 33 ) corresponding to the graphic code. The third code generating unit 116C outputs the third code image D 33.
  • the third code generating unit 116C divides one shot data D 4 into three channels. Therefore, the third code generating unit 116C is the amount of data D 4 in 1 shot, it can be made larger than that of the first embodiment.
  • Combining unit 122d includes a first code image D 31 outputted from the first code generating unit 116A, and the second code image D 32 outputted from the second code generating unit 116B, output from the third code generating unit 116C and a third code image D 33 that is synthesized assigned to each independent color channel. Then, the synthesis unit 122d generates a synthesized image D 61 (color image). For example, the composition unit 122d performs composition by assigning the first code image to the red (R) channel. Then, the combining unit 122d performs the combining by assigning the second code image to the blue (B) channel. Then, the combining unit 122d performs the combining by assigning the third code image to the green (G) channel. As a result of such processing, a composite image D 61 assigned to the red, blue and green channels is obtained.
  • the contents of the code image D 3 are switched every one shot period T d (4 frame periods) as in the first embodiment.
  • the light emitting unit 158 is disposed adjacent to the display screen 131 of the display unit 130, similarly to the light emitting unit 156 of the third embodiment. And the light emission part 158 is arrange
  • the light emitting unit 158 is configured by an LED or the like, similar to the light emitting unit 156 of the third embodiment.
  • Emitting unit 158 in synchronization with the reference clock generator 104 generates clock signals CL, emits light only immediately before and the period other than the period immediately after the timing of switching the code image D 3 in the synthesis image.
  • a monitor lamp having another role in the transmission device 100d may be used as the light emitting unit 158.
  • the transmission device 100d may use a monitor lamp used to indicate power on / off as the light emitting unit 158.
  • Emitting portion 156 of the third embodiment has been to emit a different color from the color assigned to the first code image D 31 and the second code image D 32. That is, the light emitting unit 156 emits green light in the above example. However, the light emitting unit 158 of Embodiment 4 does not have the above restriction on the color of the emitted light.
  • the reading unit 112 performs one shot of data every time reading the D 4, and outputs a signal (synchronization signal SY) indicating that.
  • the light emitting unit 158 receives the signal (synchronization signal SY) from the reading unit 112 and determines the timing of light emission.
  • a receiving device 200d shown in FIG. 20 is generally the same as the receiving device 200 of FIG. 5, but includes a light emission detection unit 262 instead of the mark recognition unit 210.
  • the receiving device 200d includes an image cutout unit 220d instead of the image cutout unit 220.
  • the receiving apparatus 200d includes a code decoding unit 230d instead of the code decoding unit 230.
  • the image cutout unit 220d is different from the image cutout unit 220 in that it includes a third cutout unit 222C in addition to the first cutout unit 222A and the second cutout unit 222B.
  • the code decoding unit 230d is different from the code decoding unit 230 in that it includes a third decoding unit 232C in addition to the first decoding unit 232A and the second decoding unit 232B.
  • the imaging unit 202 images the display screen 131 of the display unit 130 and the light emitting unit 158 of the transmission device 100d on which an image is displayed with the same field of view.
  • the imaging unit 202 acquires a video including light from the composite video D 63 and the light emitting unit 158 displayed on the display screen 131 by imaging.
  • data obtained by imaging by the imaging unit 202 is accumulated in the video buffer 204.
  • the reading unit 206 reads the data one frame at a time.
  • the frame data D 8 read by the reading unit 206 is supplied to the separation unit 208.
  • the frame data D 8 read by the reading unit 206 is also supplied to the light emission detection unit 262.
  • the separation unit 208, the data D 8 frames from the read unit 206, the red component data D 9R, is separated into data D 9G data D 9B and green component and blue component. Then, they are supplied to the first cutout part 222A, the second cutout part 222B, and the third cutout part 222C, respectively. That is, the red component data D 9R is supplied to the first cutout unit 222A.
  • Data D 9B of the blue component is supplied to the second cutout portion 222B.
  • Data D 9G green component is supplied to a third cutout portion 222C.
  • Luminescent detection unit 262 sequentially receives the data D 8 of each frame supplied from the reading unit 206. Luminescent detection unit 262 analyzes the image composed of data D 8 frames sequentially received. Then, the light emitting detection unit 262, a code image D 3 included in the image of each frame, to identify the position of the light from the light emitting portion 158 in the image.
  • the “light position” is an image portion corresponding to the light from the light emitting unit 158.
  • the light emission detection unit 262 identifies the position of the light from the light emitting unit 158 in the video from the positional relationship of the light from the light emitting unit 158 and the blinking timing of the light emitting unit 158 in the video.
  • the light emission detection unit 262 determines whether or not the light emission unit 158 is reflected in the data D 8 of each frame. When it is determined that the image is captured in a light-emitting state (when light emission is detected), the light emission detection unit 262 determines that the code image in that frame can be correctly decoded. The light emission detection unit 262 transmits the determination result to the image cutout unit 220d. Then, the light emission detecting unit 262 instructs the extraction of the code image D 3 to the image clipping unit 220d (image clipping signal D 10).
  • Image clipping unit 220d performs extraction of the code image D 3 in accordance with the instruction (image clipping signal D 10).
  • image clipping signal D 10 image clipping signal
  • the first cutout unit 222A cuts out the first code image D11R from the red component image of the frame in which the light emission is detected.
  • the second cutout unit 222B cuts out the second code image D11B from the blue component image of the frame in which the light emission is detected.
  • the third cutout unit 222C cuts out the third code image D11G from the green component image of the frame in which the light emission is detected.
  • Code decoder 230d decodes the code image D 11 contained in the cut out images in the image clipping unit 220d.
  • the code decoder 230d obtains the decoded if already decoded data D 12 color units corresponding to the code image D 11 which is the decoded.
  • the first decoding unit 232A and the second decoding unit 232B are the same as the first decoding unit 232A and the second decoding unit 232B shown in FIG.
  • Third decoding unit 232C decodes the third code image D 11G contained in the cut out images in the third cutout portion 239C. Then, the third decoding unit 232C generates decoded data D 12C that has been decoded in units of colors.
  • the synthesizing unit 242d combines the decoded data D 12R , D 12B , and D 12C in units of colors output from the first decoding unit 232A, the second decoding unit 232B, and the third decoding unit 232C. Then, the synthesizing unit 242d synthesizes the decoded data D 12R , D 12B , and D 12C of these color units to restore the transfer data D 13 for one shot. Except for the above, the fourth embodiment is the same as the first embodiment.
  • Embodiment 5 the data D 4 of each shot is divided into a plurality of data portions (data units D 5 ), each of which is assigned to a different color channel, and a code image D 3 of a different color is generated and displayed. Yes.
  • color channel used to generate the code image D 3 may be one.
  • FIG. 21 shows a transmitting apparatus 100e according to the fifth embodiment of the present invention.
  • FIG. 22 shows a receiving apparatus 200e of the fifth embodiment.
  • the transmission device 100 of FIG. 21 is generally the same as the transmission device 100 of FIG. 2, but includes a data processing unit 110e instead of the data processing unit 110.
  • the transmission device 100e includes a combining unit 122e instead of the combining unit 122.
  • the receiving device 200e includes an image cutout unit 220e instead of the image cutout unit 220.
  • the receiving device 200e includes a code decoding unit 230e instead of the code decoding unit 230.
  • the receiving device 200e is not provided with the combining unit 242.
  • Constituent elements similar to those of the transmitting apparatus 100 described in the first embodiment are denoted by the same reference numerals and description thereof is omitted.
  • Constituent elements similar to those of the transmission device 100 are a transmission data storage unit 102, a reference clock generation unit 104, a mark generation unit 106, a video buffer 126, a moving image reproduction unit 128, and a display unit 130.
  • the image storage unit 107 of the mark generation unit 106 is a component similar to that of the first embodiment.
  • Constituent elements similar to those of the receiving apparatus 200 are an imaging unit 202, a video buffer 204, a reading unit 206, a mark recognition unit 210, a combining unit 242, and a received data storage unit 244.
  • the data processing unit 110 e includes a single code generation unit 116. Further, the data processing unit 110e is not provided with the data dividing unit 114. Without data D 4 of each shot from the reading unit 112e is divided into a plurality of channels, supplied to the code generator 116.
  • the code generator 116 is the same as the first code generator 116A or the second code generator 116B in FIG. That is, the code generation unit 116 has the same function as the first code generation unit 116A or the second code generation unit 116B in FIG.
  • Combining section 122e includes a timing mark D 2 from the mark generator 106, and a code image D 3 from the code generation unit 116, respectively synthesized allocated to green (G) channel, and red (R) channel.
  • the output of the combining unit 122e (the combined image D 61 ) is supplied to the video buffer 126. Except for the above, the operation of the transmission device 100e in FIG. 21 is the same as that of the transmission device 100 in FIG.
  • Separation unit 208e includes data D 8 of frames read by the reading unit 206, separates the red channel, the green channel.
  • the image cutout unit 220e has a single image cutout unit 222.
  • Image clipping unit 222 cuts out a code image D 11R from the data D9 R of the red component values of the red channel from the separation unit 208e.
  • the code decoding unit 230e has a decoding unit 232.
  • Code decoder 232 decodes the code image D 11R cut out by the image cutting out unit 222.
  • the output of the code decoding unit 232 (decoded decoded data D 12R in color units) is supplied to the received data storage unit 244. Except for the above, the operation of the receiving device 200e in FIG. 22 is the same as that of the receiving device 200 in FIG.
  • Embodiment 6 FIG. In the first embodiment, and to send a timing mark D 2 with different color channels and the code image D 3.
  • a method is not suitable. For example, such a method cannot be performed when either the display unit 130 or the imaging unit 202 is monochrome.
  • such a method cannot be performed in the case of a system in which colors are separated using a rotary color filter and read sequentially for each color. Further, even when the color channel can more available, there is a case you want to assign all the color channels in the code image D 3.
  • FIGS. 23, 24A, 24B, and 24C are schematic diagrams illustrating temporal changes in video displayed on the display unit 130 of the transmission device 100.
  • FIG. FIG. 24 (A) represents a timing mark D 2.
  • FIG. 24 (B) represents a code image D 3.
  • FIG. 14 (C) represents the layout of the timing mark D 2 and the code image D 3 in each period.
  • the vertical axis indicates whether or not each signal is output. A signal is output at “H” and no signal is output at “L”.
  • the horizontal axis represents time.
  • the frame code image D 3 taken at the moment of switching, the code image D 3 is sometimes incomplete. However, if the entire timing mark D 2 is taken it can be regarded as being read even code image located inside the timing mark D 2 correctly. By using such timing marks D 2, it can be read automatically and efficiently code image D 3 which is continuously and sequentially displayed.
  • FIG. 25 shows a transmission device 100f according to the sixth embodiment.
  • FIG. 26 illustrates a receiving device 200f according to the sixth embodiment.
  • a transmission apparatus 100f shown in FIG. 25 is generally the same as the transmission apparatus 100e of FIG. 21, but includes a mark generation unit 106f instead of the mark generation unit 106.
  • the transmission device 100f includes a combining unit 122f instead of the combining unit 122e.
  • the receiving device 200f shown in FIG. 26 is generally the same as the receiving device 200e in FIG. 22, but includes a separating unit 208f instead of the separating unit 208e.
  • the receiving device 200f includes a mark recognition unit 210f instead of the mark recognition unit 210.
  • Constituent elements similar to those of the transmitting apparatus 100 described in the first embodiment are denoted by the same reference numerals and description thereof is omitted.
  • Constituent elements similar to those of the transmission device 100 are a transmission data storage unit 102, a reference clock generation unit 104, a video buffer 126, a moving image reproduction unit 128, and a display unit 130.
  • the image storage unit 107 of the mark generation unit 106f is the same component as that in the first embodiment.
  • the same components as those of the receiving apparatus 200 described in Embodiment 1 are denoted by the same reference numerals, and the description thereof is omitted.
  • the same components as the receiving apparatus 200 are an imaging unit 202, a video buffer 204, a reading unit 206, and a received data storage unit 244.
  • Mark generation unit 106f generates a shape surrounding the code image D 3 generated by the code generation unit 116 as a timing mark D 2. For example, as shown in FIG. 23, to generate a frame-like timing mark D 2 which is formed to surround the code image D 3.
  • Combining unit 122f synthesizes the timing mark D 2 and code image D 3 of the frame-shaped.
  • it is assigned a code image D 3 and the timing mark D 2 in different color channels.
  • the code image D 3 and the timing mark D 2 represented by the pixel values of the same color.
  • both are shown as representing the luminance value Y.
  • the operation of the transmission device 100f in FIG. 25 is the same as that of the transmission device 100e in FIG.
  • the separation unit 208f analyzes the composite image (frame data D 8 ), and separates the code image D 3 located in the center and the timing mark D 2 located around the code image D 3 . Separation unit 208f on the basis of the shape and relative position, separated from the code image D 3, and a timing mark D 2. Separation unit 208f supplies the timing mark D 2 generated by the separation in the mark recognition unit 210f (data D 91Y). Separation unit 208f supplies the code image D 3 in cutout section 222 (data D 92Y). The image clipping unit 222, the code image D 92Y from the separation unit 208f, cuts out a code image D 93Y. The code decoding unit 232 decodes the code image D93Y cut out by the image cutout unit 222. The output (decoded data D 94Y ) of the code decoding unit 232 is supplied to the received data storage unit 244.
  • the mark recognition unit 210f receives data D 91Y (timing mark D 2 ) from the separation unit 208f. Mark recognition unit 210f confirms that there is no lack of timing marks D 2 supplied from the separation unit 208f. Mark recognition unit 210f, the code image D 3 in the same frame that was contained timing mark D 2 is determined to be suitable for decoding. Mark recognition unit 210f instructs the extraction of the code image D 3 to clipping unit 222 (image clipping signal D 10). In other respects, the operation of the receiving device 200f in FIG. 26 is the same as that of the receiving device 200e in FIG.
  • FIG. 27 shows a configuration of transmitting apparatus 100g according to the seventh embodiment.
  • FIG. 28 shows a configuration of receiving apparatus 200g according to the seventh embodiment.
  • the transmission device 100 of FIG. 27 is generally the same as the transmission device 100 of FIG. 2, but includes a mark generation unit 106A and a mark generation unit 106B instead of the mark generation unit 106.
  • the transmission device 100g includes a combining unit 122g instead of the combining unit 122.
  • Constituent elements similar to those of the transmitting apparatus 100 described in the first embodiment are denoted by the same reference numerals and description thereof is omitted.
  • Constituent elements similar to those of the transmission device 100 include a transmission data storage unit 102, a reading unit 112, a data division unit 114, a first code generation unit 116A, a second code generation unit 116B, a reference clock generation unit 104, a video buffer 126, a moving image A playback unit 128 and a display unit 130.
  • the image storage units 107A and 107B of the mark generation units 106A and 106B are the same components as the image storage unit 107 of the first embodiment.
  • the timing mark D 2 is assigned a code image D 31, D 32 to a different color channels.
  • the timing mark D 24 is assigned to the same color channel as the code image D 31 .
  • the timing mark D 25 is assigned the same color channel as the code image D 32.
  • the seventh embodiment is the same as the sixth embodiment.
  • Mark generating unit 106A generates a shape surrounding the code image D 31 generated by the first code generating unit 116A as a timing mark D 24. For example, when the code image D 31 generated by the first code generation unit 116A is indicated by the code D 3 (code image D 3 ) in FIG. 23, the mark generation unit 106A displays the code image D 3 generating a frame-like timing mark D 24 which is formed to surround.
  • Mark generation unit 106B generates a shape surrounding the code image D 32 generated by the second code generating unit 116B as a timing mark D 25. For example, when the code image D 32 generated by the second code generation unit 116B is indicated by the code D 3 (code image D 3 ) in FIG. 23, the mark generation unit 106B converts the code image D 3 into the code image D 3 . generating a frame-like timing mark D 25 which is formed to surround.
  • timing mark D 24 generated by the mark generation unit 106A and the timing mark D 25 generated by the mark generation unit 106B may have the same shape and size. Further, the timing mark D 24 generated by the mark generation unit 106A and the timing mark D 25 generated by the mark generation unit 106B may have different shapes or sizes.
  • Combining section 122g generates a first combined image D 69 by combining a frame-like timing mark D 24 from the mark generating unit 106A and the code image D 31 from the first code generating unit 116A. This first composite image D69 is assigned to the first color channel. For example, the first composite image D69 is assigned to the red channel.
  • Combining section 122g generates a second composite image D 70 by combining a frame-like timing mark D 25 from the mark generating unit 106B and the code image D 32 from the second code generating unit 116B. Assigning the second combined image D 70 to a second color channel. For example, assigning a second combined image D 70 in the blue channel. Then, the composition unit 122g synthesizes a composite image D 69 and the composite image D 70. Combining unit 122g outputs the combined image D 71 of the composite image D 69 and the composite image D 70 synthesized color image.
  • the video buffer 126 stores the composite image D 71 generated by the combining unit 122. Then, the video buffer 126 connects the accumulated composite image D 71 to generate a composite video D 73 (moving image).
  • the operation of the transmission device 100g in FIG. 27 is the same as that of the transmission device 100 in FIG.
  • the receiving device 200g shown in FIG. 28 is generally the same as the receiving device 200 in FIG. However, the receiving device 200g includes a separation unit 208g instead of the separation unit 208.
  • the receiving device 200g includes mark recognition units 210A and 210B instead of the mark recognition unit 210.
  • the same components as those of the receiving apparatus 200 described in Embodiment 1 are denoted by the same reference numerals, and the description thereof is omitted.
  • Constituent elements similar to those of the receiving apparatus 200 are an imaging unit 202, a video buffer 204, a reading unit 206, an image cutout unit 220, a code decoding unit 230, a combining unit 242, and a received data storage unit 244.
  • the first cutout part 222A and the second cutout part 222B of the image cutout part 220 are the same constituent elements as those in the first embodiment.
  • the first decoding unit 232A and the second decoding unit 232B of the code decoding unit 230 are the same constituent elements as those in the first embodiment.
  • Separation unit 208g has data D 8 of each frame is read by the reading unit 206, and the red component value of the data D 9R (data of red channel), a blue component value data D 9B (blue channel data ) And separated.
  • the separation unit 208g further analyzes the red channel data (red component value data D 9R ). Then, the separation unit 208g includes a code image D 3 located in the center, separating the timing mark D 2 positioned therearound. Separation of the code image D 3 and the timing mark D 2 is carried out based on the shape and relative position. Separation unit 208g supplies the timing mark D 2 generated by the separation mark recognition unit 210A (data D 91R color component values). Separation unit 208g supplies the code image D 3 produced by the separation in the first cutout portion 222A (data D 92R color component values).
  • the separation unit 208g also analyzes the blue channel data (blue component value data D 9B ). Then, the separation unit 208g includes a code image D 3 located in the center, separating the timing mark D 2 positioned therearound. Separation of the code image D 3 and the timing mark D 2 is carried out based on the shape and relative position. Separation unit 208g supplies the timing mark D 2 generated by the separation mark recognition unit 210B (data D 91B color component values). Separation unit 208g supplies the code image D 3 produced by the separation in the second cutout portion 222B (data D 92B color component values).
  • the mark recognition unit 210A Upon receipt of the color component value data D 91R (timing mark D 2 ) from the separation unit 208g, the mark recognition unit 210A confirms that the timing mark D 2 supplied from the separation unit 208g is not missing. Then, when there is no lack of timing mark D 2 are mark recognition unit 210A instructs the extraction of the image with respect to cutout portion 222A (image clipping signal D 10R).
  • the mark recognition unit 210B confirms that the timing mark D 2 supplied from the separation unit 208g is not missing. Then, when there is no lack of timing mark D 2 are mark recognition unit 210B instructs the extraction of the image with respect to cutout portion 222B (image clipping signal D 10B).
  • the first cutout portion 222A receives the data D 10R of the red component from the mark recognition unit 210A.
  • the first cutout unit 222A cuts out the first code image from the red component data (video) D 92R given from the separation unit 208g at the timing instructed by the mark recognition unit 210A.
  • the second cutout portion 222B receives the data D 10B of the blue component from the mark recognition unit 210B.
  • the second cutout unit 222B cuts out the second code image from the blue component data (video) D 92B given from the separation unit 208g at the timing instructed by the mark recognition unit 210B.
  • the operation of the receiving device 200g in FIG. 28 is the same as that of the receiving device 200 in FIG.
  • a separate mark generator (106A, 106B) is provided for each color channel.
  • a single mark generating unit for a plurality of color channels, it is also possible to add a timing mark D 2 generated by the single mark generation unit to the plurality of code image D 3.
  • the transmission apparatus 100 g transmits given the timing mark D 2 in the code image D 3 of the one of the plurality of color channels. Then, the receiving apparatus 200 g, by detecting the timing mark D 2 attached to the code image D 3 of one color channel may be also be used for extraction of the code image D 3 of the other color channels.
  • timing mark D 2 in each color channel when generating a timing mark D 2 in each color channel, the communication using the plurality of color channels, is not necessarily performed in synchronization. Timing of switching of the code image D 3 to be transmitted may be used as the different between the color channels each other.
  • FIG. 29 shows an example for enabling such use.
  • Figure 29 is a diagram showing an example of a sequence of QR codes marked with different kinds of timing marks D 2.
  • the first mark is a timing mark D 2h with start mark to be used at the start of the transfer of the series of data (data file D 0). That is, it is a first identification image representing the head portion of a series of data (data file D 0 ) to be transferred.
  • the second mark is a timing mark D 2m used in the middle part.
  • the third mark is a timing mark D2t with an end mark used at the end of a series of data transfer. That is, it is an identification image representing the end portion of a series of transferred data (data file D 0 ).
  • the transmission device 100 divides the data file D 0 stored in the transmission data storage unit 102 and repeatedly displays it.
  • Combining unit 242 of the receiving apparatus 200 combines the divided data to reconstruct the original data file D 0.
  • the starting point and end point of the data file D 0 is required. From among the divided data is repeatedly displayed, by combining the data from the start point to the end point, it is possible to reproduce the original data file D 0.
  • “divided data” is described as a QR code in the first embodiment. And a user's operation can be simplified.
  • the time (transfer time) required to transfer a series of data is 2 seconds
  • a time that is twice or more of 2 seconds, which is the transfer time is determined in advance.
  • a time of 5 seconds is determined in advance.
  • the "transfer time” is that time that the display unit 130 all of the code image D 3 representing the data file D 0 is displayed.
  • the transmission device 100h is made to repeat the transfer of a series of data (data file D 0 ). Then, a message “Please shoot for 5 seconds” is displayed to the user.
  • the receiving apparatus 200 starts photographing by a user's operation
  • the start mark to the end mark are stored as a series of data for the repeatedly displayed video. Decoding is started after a series of data is stored in receiving apparatus 200.
  • storage can be started immediately in response to user operation.
  • the receiving apparatus 200 ends the storage when the start mark is detected and then the end mark is detected. Then, the receiving apparatus 200 may decode the stored data from the start mark to the end mark.
  • timing marks D 2 and end indicate the start of a whole in addition to the timing mark D 2 showing the timing mark D 2 and end indicating the beginning of individual data it may be used timing mark D 2.
  • timing marks D 2 in the sub-scanning direction, begins before the start of the coding region, from the end point of the coding region It is desirable to use what ends later.
  • the timing mark D 2 in the scanning direction (direction perpendicular to the line), begins before the start of the coding region, the end of the coding region It is desirable to use one that ends after the point. It may be adapted to draw a timing mark D 2 in accordance with the scan mode of the display unit 130.
  • Timing mark D 2 as shown in FIG. 29 is drawn as a figure ending the above coding region below the start coding region. In other words, the timing marks D 2 is drawn from above the coding region, a figure drawn to below the coding region.
  • “drawing” means drawing a picture.
  • FIG. 30 is a block diagram schematically showing the configuration of the transmission device 100h.
  • FIG. 31 is a block diagram schematically showing the configuration of the receiving device 200h.
  • a head portion of a set of data, and the end portion, in the other portions, and generates a different timing mark D 2 shown in Figure 30 an example of the transmission device 100h for combining a code image D 3.
  • the head portion of the series of data, and the end portion, in the other portions, and receives the image generated by concatenating the code image D 3 that is added is different from timing mark D 2, the recording
  • An example of a receiving device 200h that performs control is shown in FIG.
  • the transmission device 100 of FIG. 2 includes a data processing unit 110h instead of the data processing unit 110.
  • the data processing unit 110 h is generally the same as the data processing unit 110 in FIG. 2, but includes a reading unit 112 h instead of the reading unit 112.
  • the data processing unit 110h includes a mark generation unit 106h instead of the mark generation unit 106.
  • Constituent elements similar to those of the transmitting apparatus 100 described in the first embodiment are denoted by the same reference numerals and description thereof is omitted.
  • Constituent elements similar to those of the transmission device 100 are a transmission data storage unit 102, a reference clock generation unit 104, a synthesis unit 122, a video buffer 126, a moving image reproduction unit 128, and a display unit 130.
  • the data dividing unit 114, the first code generation unit 116A, and the second code generation unit 116B of the data processing unit 110h are the same constituent elements as those in the first embodiment.
  • the image storage unit 107 of the mark generation unit 106 is a component similar to that of the first embodiment.
  • the reading unit 112h supplies a signal (synchronization signal SY h ) indicating that when reading the head of a series of data (data file D 0 ) from the transmission data storage unit 102 to the mark generation unit 106h. Further, the reading unit 112h supplies a signal (synchronization signal SY t ) indicating that when reading the end portion of a series of data (data file D 0 ) from the transmission data storage unit 102 to the mark generation unit 106h.
  • the mark generation unit 106 h is configured to include a head portion, a tail portion, and other portions of a series of data (data file D 0 ). generating different timing mark D 2 in.
  • the mark generating unit 106h generates a first timing mark D 2h corresponding to the beginning of the data portion of the series of data (data file D 0).
  • First timing mark D 2h is combined with the first code image D 31 and the second code image D 32 of the first set of data (data file D 0).
  • An example of the first timing mark D 2h is indicated with D 2h in Figure 29.
  • Mark generating unit 106h generates a second timing mark D 2t corresponding to the end of the data part of the series of data (data file D 0).
  • the second timing mark D 2t is combined with the first code image D 31 and the second code image D 32 at the end of the series of data (data file D 0 ).
  • the second timing mark D 2t is a mark different from the first timing mark D 2h .
  • An example of the second timing marks D 2h is indicated with D 2t Figure 29.
  • Mark generating unit 106h generates a third timing mark D 2m corresponding to the head and a data portion other than the end of the series of data (data file D 0).
  • the third timing mark D 2m is combined with the first code image D 31 other than the beginning and end of a series of data (data file D 0 ).
  • the third timing mark D 2m is combined with the second code image D 32 top and non-end of the series of data (data file D 0).
  • the third timing mark D 2m is a mark different from the first timing mark D 2h .
  • the third timing mark D2m is a mark different from the second timing mark D2t .
  • An example of the third timing mark D 2m is indicated by a symbol D 2m in FIG.
  • FIG. 31 is generally the same as the receiving apparatus 200 of FIG. 5, but includes a mark recognizing unit 210h instead of the mark recognizing unit 210.
  • Constituent elements similar to those of receiving apparatus 200 described in Embodiment 1 are assigned the same reference numerals, and descriptions thereof are omitted.
  • the same components as the receiving apparatus 200 are an imaging unit 202, a reading unit 206, a separation unit 208, an image clipping unit 220, a code decoding unit 230, a combining unit 242, and a received data storage unit 244.
  • the first cutout part 222A and the second cutout part 222B of the image cutout part 220 are the same constituent elements as those in the first embodiment.
  • first decoding unit 232A and the second decoding unit 232B of the code decoding unit 230 are the same constituent elements as those in the first embodiment.
  • Mark recognition unit 210h receives the video data D 7 which are sequentially output from the imaging unit 202.
  • Mark recognition unit 210h upon detecting a first timing mark D 2h indicating the beginning to start stored in the video buffer 204 (memory start signal D 14h).
  • Mark recognition unit 210h ends the stored in the video buffer 204 when it detects the second timing mark D 2t indicating the end (storage completion signal D 14t).
  • the video buffer 204 stores a series of data (data file D 0 ) from the beginning to the end.
  • the storage start signal D 14h and storing end signal D 14t collectively called a memory timing signal D 14.
  • the second embodiment has been described as a modification of the first embodiment, similar modifications can be made to the third to eighth embodiments.
  • the same modifications can be applied to the second to eighth embodiments.
  • the timing mark D 2 when the display unit 130 is of the progressive scanning point, in the sub-scanning direction, begins before the start of the coding region, the end point of the coding region He said it would be desirable to use something that ends later.
  • the timing mark D 2 when the display unit 130 is of the line-sequential scanning scheme, in the scanning direction (direction perpendicular to the line), begins before the start of the coding region, the end of the coding region He stated that it would be desirable to use something that ends after the point. However, this is the same for the first, second, fifth, and seventh embodiments.
  • the display unit 130 of the transmission devices 100, 100a, 100c, 100d, 100e, 100f, 100g, and 110h is a liquid crystal display device that performs display by a dot sequential scanning method or a line sequential scanning method and a progressive display method. explained. However, the present invention can also be applied to the case where the display unit 130 is of the frame sequential scanning method, or can be applied to the case of the interlaced display method.
  • Each of the transmission devices 100, 100a, 100c, 100d, 100e, 100f, 100g, and 110h and the reception devices 200, 200c, 200d, 200e, 200f, 200g, and 200h can be partially realized by software. That is, each of the transmission devices 100, 100a, 100c, 100d, 100e, 100f, 100g, and 110h and the reception devices 200, 200c, 200d, 200e, 200f, 200g, and 200h can be realized by a programmed computer.
  • the processing performed by a part of the transmission devices 100, 100a, 100c, 100d, 100e, 100f, 100g, 110h and the reception devices 200, 200c, 200d, 200e, 200f, 200g, 200h is performed by a computer.
  • a program for causing the program to be executed is also part of the present invention.
  • a computer-readable recording medium that records such a program also forms part of the present invention.

Abstract

A system for transferring data by having a reception device receive code images displayed by a transmission device, wherein at the transmission device, a series of data is divided into multiple data portions, and each of the data portions obtained by the division is converted into a code image and output. Identification images are added at timing other than code image switching timing. Strings of the generated code images are connected together and transmitted in the form of a moving picture. At the reception device, images obtained by image capture are accumulated, the accumulated images are read in sequence, and the code images that appear simultaneously with the identification images are decoded. Transfer failures due to inappropriate image switching timing and image capture timing can be reduced.

Description

送信装置、受信装置及び情報処理システムTransmission device, reception device, and information processing system
 本発明は送信装置、受信装置及び情報処理システムに関し、特に送信装置で表示されたコード画像を受信装置で撮像することで行われる情報の伝達に関する。 The present invention relates to a transmission device, a reception device, and an information processing system, and more particularly to transmission of information performed by imaging a code image displayed on the transmission device with the reception device.
 携帯機器の高性能化に伴い、携帯電話回線、無線ネットワークを通じた情報の交換が行われるようになってきた。一方で、病院、飛行機内又は混雑した場所などの電波の使用を避けるべき状況も存在する。また、機器の不対応又はネットワーク設定の煩雑さからネットワークを使用しない場合もあり、ネットワークへの抵抗感又は懸念からネットワークを使用しない場合もある。ネットワークを使用しない簡便な情報の取得手段としてバーコード又は2次元コードの読み取りも良く使われている。
 現在良く使われているQRコード(登録商標)では1つのコードでおよそ2000文字を転送することが可能であるが、写真や図形情報を転送するには転送可能なデータ量が十分でない。
As mobile devices become more sophisticated, information has been exchanged through mobile phone lines and wireless networks. On the other hand, there are situations where it should be avoided to use radio waves such as in hospitals, airplanes, or crowded places. In some cases, the network may not be used due to device incompatibility or complicated network settings, and there may be cases where the network is not used due to resistance to the network or concerns. Bar code or two-dimensional code reading is often used as a simple information acquisition means that does not use a network.
The QR code (registered trademark) that is often used at present can transfer approximately 2000 characters with one code, but the amount of data that can be transferred is not sufficient for transferring photographs and graphic information.
 そこで、特許文献1~3に示したように、色多重又は時間多重により転送データ量を増大する方法が考えられている。 Therefore, as shown in Patent Documents 1 to 3, a method of increasing the amount of transfer data by color multiplexing or time multiplexing is considered.
 特許文献1に開示された可視光無線通信システムでは、データ送信装置が、送信すべきデータをコードに変換し、そのコードを2次元配列したセルから成るフレームを生成し、そのフレームを表示画面に表示している。データ受信装置は、表示されたフレームを撮影し、撮影したフレームを構成するセルに対応する2次元配列のコードを、変換前のデータに戻す。つまり、データ受信装置は、表示されたフレームを撮影して、2次元配列のコードを変換前のデータに戻す。そのような処理において、フレームを構成するセルの中に補正セルを挿入する方法、又は補正セルからなる補正フレームを挿入する方法で、背景光の特性又はそのばらつきの影響を低減し、又は光学デバイスの特性又はそのばらつきの影響を低減することで正確なデータ復号を可能にしている。 In the visible light wireless communication system disclosed in Patent Document 1, a data transmission device converts data to be transmitted into a code, generates a frame including cells in which the code is two-dimensionally arranged, and uses the frame as a display screen. it's shown. The data receiving apparatus captures the displayed frame, and returns the code of the two-dimensional array corresponding to the cells constituting the captured frame to the data before conversion. That is, the data receiving apparatus captures the displayed frame and returns the code of the two-dimensional array to the data before conversion. In such processing, a method of inserting a correction cell into a cell constituting a frame, or a method of inserting a correction frame made up of correction cells, reduces the influence of the characteristics of background light or variations thereof, or an optical device. This makes it possible to accurately decode data by reducing the influence of the characteristics or variations thereof.
 特許文献2に開示された通信方法では、データ送信側が転送したい2進数データを時間とともに色が変化する同心円色成分コードに変換し、動画としてモニタに表示している。データ受信側は、カメラ付き携帯端末装置のカメラで同心円色成分コードを連続撮影し、各トラックの色情報から2進数データを取り出す。 In the communication method disclosed in Patent Document 2, binary data that the data transmission side wants to transfer is converted into a concentric color component code whose color changes with time, and is displayed on a monitor as a moving image. The data receiving side continuously photographs concentric color component codes with the camera of the camera-equipped mobile terminal device, and extracts binary data from the color information of each track.
 特許文献3に開示された情報処理装置では、第1の情報処理装置が、複数の第1の図形画像(例えば2次元コード)を生成して順次表示する。また、第1の情報処理装置は、他の情報処理装置において順次表示される第2の図形画像を検出し、第2の図形画像で表される入力データを取得する。第2の図形画像を検出するための検出領域は、第1の図形画像の表示のための表示領域の一部に形成されている。 In the information processing apparatus disclosed in Patent Document 3, the first information processing apparatus generates and sequentially displays a plurality of first graphic images (for example, two-dimensional codes). In addition, the first information processing apparatus detects second graphic images that are sequentially displayed in other information processing apparatuses, and acquires input data represented by the second graphic image. The detection area for detecting the second graphic image is formed in a part of the display area for displaying the first graphic image.
特許第4749856号公報(段落0033~0036、図1、図2)Japanese Patent No. 4749856 (paragraphs 0033 to 0036, FIGS. 1 and 2) 特開2007-13786号公報(段落0032~0044、図8)JP 2007-13786 (paragraphs 0032 to 0044, FIG. 8) 特許第4200435号公報(段落0088~0099、図7)Japanese Patent No. 4400355 (paragraphs 0088 to 0099, FIG. 7)
 表示画面のリフレッシュレートとカメラの走査レートとは、機器によって異なる場合がある。また、リフレッシュレートが同じであっても、実際の使用時には位相がそろっているとは限らない。そのため、表示書き換え途中の画面が撮影されてしまいコードを正確に読み取れないことがある。そのため、特許文献1~3に示した方式では転送に失敗する事があり、より信頼性の高い転送方式が望まれる。 The display screen refresh rate and camera scan rate may vary depending on the device. Even if the refresh rate is the same, the phases are not always the same during actual use. For this reason, the screen in the middle of the display rewriting may be shot and the code may not be read accurately. Therefore, in the methods shown in Patent Documents 1 to 3, transfer may fail, and a more reliable transfer method is desired.
 また、手振れ、撮影期間の不足などで一部のデータが破損した場合に、すべてのデータが無効となってしまう。そこで、より堅牢性が高い仕組み、即ちデータの破損時にデータを部分的に取り出したり、再読込みしたりできる仕組みが必要となる。 Also, if some data is damaged due to camera shake or lack of shooting period, all data will be invalid. Therefore, a mechanism having higher robustness, that is, a mechanism capable of partially extracting or rereading data when data is damaged is required.
 また、特許文献1~3の方式では、利用者がカメラをある程度の時間かざす必要がある。しかし、撮影期間又は撮影タイミング等が利用者にわからない場合には、かざすタイミングが適切でなく、データの読み取りを的確に行うことができないことがある。 In the methods of Patent Documents 1 to 3, the user needs to hold the camera for a certain period of time. However, when the user does not know the shooting period or the shooting timing, the timing of holding over is not appropriate, and the data may not be read accurately.
 そこで、本発明では送信装置から受信装置に効率よく情報を転送し、また利用者が簡単にデータ読み取りを行うことが出来るようにすることを目的とする。 Therefore, an object of the present invention is to efficiently transfer information from a transmission device to a reception device, and to enable a user to easily read data.
 本発明の一つの態様の送信装置は、
 一連のデータを記憶する送信データ記憶部と、
 前記送信データ記憶部に記憶されている前記一連のデータを複数のデータ部分に分割し、該分割により得られたデータ部分の各々をコード画像に変換し、当該変換により生成されたそれぞれのデータ部分に対応するコード画像を順次切り換えながら出力するコード生成部と、
 識別画像を生成して出力する識別画像生成部と、
 前記コード生成部で生成された前記コード画像と、前記識別画像生成部から出力された前記識別画像とを合成して合成画像を生成する合成部と、
 前記合成部で生成された合成画像を連結して前記一連のデータに対応する動画を作成する画像連結部と、
 前記画像連結部で作成された動画を再生して出力する動画再生部と、
 前記動画再生部で再生された動画を画面に表示する表示部とを備え、
 前記動画再生部から出力される前記動画においては、前記コード画像が順次切り換わり、該切り換わりのタイミング以外のタイミングに前記識別画像が現れる
 ことを特徴とする。
A transmission device according to one aspect of the present invention includes:
A transmission data storage unit for storing a series of data;
The series of data stored in the transmission data storage unit is divided into a plurality of data parts, each of the data parts obtained by the division is converted into a code image, and each data part generated by the conversion A code generator that sequentially outputs code images corresponding to
An identification image generator for generating and outputting an identification image;
A combining unit that combines the code image generated by the code generation unit with the identification image output from the identification image generation unit to generate a combined image;
An image connecting unit that connects the composite images generated by the combining unit to create a moving image corresponding to the series of data;
A video playback unit that plays back and outputs the video created by the image connection unit;
A display unit that displays the video played by the video playback unit on a screen;
In the moving image output from the moving image reproducing unit, the code images are sequentially switched, and the identification image appears at a timing other than the switching timing.
 本発明の別の態様の送信装置は、
 一連のデータを記憶する送信データ記憶部と、
 前記送信データ記憶部に記憶されている前記一連のデータを複数のデータ部分に分割し、該分割により得られたデータ部分の各々をコード画像に変換し、当該変換により生成されたそれぞれのデータ部分に対応するコード画像を順次切り換えながら出力するコード生成部と、
 前記コード生成部で生成されたコード画像を連結して動画を作成する第1の画像連結部と、
 前記第1の画像連結部で作成された動画を再生して出力する第1の動画再生部と、
 識別画像を生成して出力する識別画像生成部と、
 前記識別画像生成部で生成された識別画像を連結して動画を作成する第2の画像連結部と、
 前記第2の画像連結部で作成された動画を再生して出力する第2の動画再生部と、
 前記第1の動画再生部で作成された動画と前記第2の動画再生部で作成された動画を合成して、合成映像を生成して出力する合成部と、
 前記合成部で生成された合成映像を画面に表示する表示部とを備え、
 前記合成部から出力される前記合成映像においては、前記コード画像が順次切り換わり、該切り換わりのタイミング以外のタイミングに前記識別画像が現れる
 ことを特徴とする。
A transmission device according to another aspect of the present invention includes:
A transmission data storage unit for storing a series of data;
The series of data stored in the transmission data storage unit is divided into a plurality of data parts, each of the data parts obtained by the division is converted into a code image, and each data part generated by the conversion A code generator that sequentially outputs code images corresponding to
A first image connecting unit that connects the code images generated by the code generating unit to create a moving image;
A first moving image reproduction unit that reproduces and outputs the moving image created by the first image connection unit;
An identification image generator for generating and outputting an identification image;
A second image connecting unit that connects the identification images generated by the identification image generating unit to create a moving image;
A second moving image reproduction unit that reproduces and outputs the moving image created by the second image connecting unit;
A synthesis unit that synthesizes the video created by the first video playback unit and the video created by the second video playback unit to generate and output a composite video;
A display unit that displays the synthesized video generated by the synthesis unit on a screen;
In the synthesized video output from the synthesizing unit, the code images are sequentially switched, and the identification image appears at a timing other than the timing of the switching.
 本発明のさらに別の態様の送信装置は、
 一連のデータを記憶する送信データ記憶部と、
 前記送信データ記憶部に記憶されている前記一連のデータを複数のデータ部分に分割し、該分割により得られたデータ部分の各々をコード画像に変換し、当該変換により生成されたそれぞれのデータ部分に対応するコード画像を順次切り換えながら出力するコード生成部と、
 前記コード生成部で生成されたコード画像を連結して動画を作成する画像連結部と、
 前記画像連結部で作成された動画を再生して出力する動画再生部と、
 前記動画再生部で再生された動画を画面に表示する表示部と、
 前記表示部において表示される動画において、前記コード画像が切り換わるタイミング以外のタイミングで発光する発光部と
 を備えることを特徴とする。
A transmission device according to yet another aspect of the present invention provides:
A transmission data storage unit for storing a series of data;
The series of data stored in the transmission data storage unit is divided into a plurality of data parts, each of the data parts obtained by the division is converted into a code image, and each data part generated by the conversion A code generator that sequentially outputs code images corresponding to
An image connecting unit that connects the code images generated by the code generating unit to create a moving image;
A video playback unit that plays back and outputs the video created by the image connection unit;
A display unit for displaying the video played by the video playback unit on a screen;
The moving image displayed on the display unit includes a light emitting unit that emits light at a timing other than a timing at which the code image is switched.
 本発明の一つの態様の受信装置は、
 コード画像が順次切り換わり、該切り換わりのタイミング以外のタイミングに識別画像が現れる映像を表示した画面を撮像し、当該画面の画像を順次取得する撮像部と、
 前記撮像部により順次取得された画像を蓄積する映像バッファと、
 前記映像バッファに蓄積された画像を順次読み出す読出し部と、
 前記読出し部により順次読み出される画像中の前記識別画像を順次検出する識別画像検出部と、
 前記識別画像検出部により検出される前記識別画像と同じタイミングで現れた前記コード画像を復号し、対応するデータ部分を順次取得するコード復号部と、
 前記コード復号部により順次取得されるデータ部分を順次書き込み、順次書き込まれるデータ部分を連結して一連のデータを構成する受信データ記憶部と
 を備えることを特徴とする。
A receiving apparatus according to one aspect of the present invention includes:
An imaging unit that sequentially switches the code image, captures a screen displaying a video in which the identification image appears at a timing other than the switching timing, and sequentially acquires the image of the screen;
A video buffer for storing images sequentially acquired by the imaging unit;
A reading unit for sequentially reading out images stored in the video buffer;
An identification image detection unit for sequentially detecting the identification images in images sequentially read by the reading unit;
A code decoding unit that decodes the code image that appears at the same timing as the identification image detected by the identification image detection unit, and sequentially acquires corresponding data portions;
And a reception data storage unit that sequentially writes data portions sequentially acquired by the code decoding unit and connects the sequentially written data portions to form a series of data.
 本発明の別の態様の受信装置は、
 コード画像が順次切り換わり、該切り換わる映像を表示した画面と、
 前記画面に隣接して配置され、前記切り換わりのタイミング以外のタイミングで発光する発光部からの光とを撮像し、前記画面に表示される映像及び前記発光部からの光の画像を順次取得する撮像部と、
 前記撮像部により順次取得される画像を蓄積する映像バッファと、
 前記映像バッファに蓄積された画像を順次読み出す読出し部と、
 前記読出し部により順次読み出される画像中の、前記発光部からの光による画像部分を検出する検出部と、
 前記検出部により順次検出される前記光による画像部分と同じタイミングで現れた前記コード画像を復号し、対応するデータ部分を順次取得するコード復号部と、
 前記コード復号部により順次取得されるデータ部分を順次書き込み、順次書き込まれるデータ部分を連結して一連のデータを構成する受信データ記憶部と
 を備えることを特徴とする。
A receiving apparatus according to another aspect of the present invention includes:
A screen that displays code images that are switched in sequence,
The light from the light emitting unit that is arranged adjacent to the screen and emits light at a timing other than the switching timing is captured, and the image displayed on the screen and the light image from the light emitting unit are sequentially acquired. An imaging unit;
A video buffer for accumulating images sequentially acquired by the imaging unit;
A reading unit for sequentially reading out images stored in the video buffer;
A detection unit for detecting an image portion by light from the light emitting unit in images sequentially read by the reading unit;
A code decoding unit that decodes the code image that appears at the same timing as the image portion by the light sequentially detected by the detection unit, and sequentially obtains the corresponding data portion;
And a reception data storage unit that sequentially writes data portions sequentially acquired by the code decoding unit and connects the sequentially written data portions to form a series of data.
 本発明によれば、受信装置の簡単な取り扱いで、送信装置から受信装置に情報を転送する際の転送効率を向上することができる。 According to the present invention, it is possible to improve the transfer efficiency when transferring information from the transmission device to the reception device with simple handling of the reception device.
本発明の実施の形態1に係る情報処理システムの構成を概略的に示す概観図である。1 is an overview diagram schematically showing a configuration of an information processing system according to a first embodiment of the present invention. 実施の形態1における送信装置の構成を概略的に示すブロック図である。FIG. 3 is a block diagram schematically showing a configuration of a transmission apparatus in the first embodiment. 実施の形態1におけるコード画像とタイミングを示すマークとの合成を説明するための模式図である。6 is a schematic diagram for explaining synthesis of a code image and a mark indicating timing according to Embodiment 1. FIG. (A)~(C)は、実施の形態1において、緑チャンネルに割り当てられたタイミングマーク、赤チャンネルに割り当てられた第1コード、及び青チャンネルに割り当てられた第2コードの表示タイミングを示すタイミングチャートである。(A) to (C) are timings showing the display timing of the timing mark assigned to the green channel, the first code assigned to the red channel, and the second code assigned to the blue channel in the first embodiment. It is a chart. 実施の形態1における受信装置の構成を概略的に示すブロック図である。FIG. 3 is a block diagram schematically showing a configuration of a receiving apparatus in the first embodiment. タイミングマークの画像の各部の寸法の一例を示す図である。It is a figure which shows an example of the dimension of each part of the image of a timing mark. (A)~(C)は、実施の形態1において、送信装置の表示部によるタイミングマーク及びコード画像の表示のタイミングと、受信装置の撮像部の撮像のフレーム期間の一例を示すタイミングチャートである。(A) to (C) are timing charts showing an example of timing mark and code image display timing by the display unit of the transmission device and an imaging frame period of the imaging unit of the reception device in the first embodiment. . 実施の形態1における送信装置において、転送データに基づいて映像を表示する動作を示すフローチャートである。6 is a flowchart illustrating an operation of displaying a video based on transfer data in the transmission device according to the first embodiment. 図8のステップS12の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S12 of FIG. 実施の形態1における受信装置において、撮像された映像から転送データを取得して、記憶する動作を示すフローチャートである。4 is a flowchart illustrating an operation of acquiring and storing transfer data from a captured image in the receiving device according to the first embodiment. (A)~(M)は、実施の形態1におけるタイミングマークの変形例を示す概略図である。(A) to (M) are schematic views showing modifications of the timing mark in the first embodiment. (A)及び(B)は、表示部における表示のフレーム期間と、撮像部における撮像のフレーム期間とがずれている場合の、表示画像及び撮像画像の例を示す図である。(A) And (B) is a figure which shows the example of a display image and a captured image in case the frame period of the display in a display part and the frame period of the imaging in an imaging part have shifted | deviated. (A)~(D)は、表示フレーム期間内の表示画像の変化を示す図である。(A)-(D) are figures which show the change of the display image within a display frame period. (A)~(C)は、表示フレーム期間内の表示画像の変化を示す図である。(A)-(C) are figures which show the change of the display image within a display frame period. (A)~(C)は、表示フレーム期間内の表示画像の変化を示す図である。(A)-(C) are figures which show the change of the display image within a display frame period. 本発明の実施の形態2における送信装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the transmitter in Embodiment 2 of this invention. 本発明の実施の形態3における送信装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the transmitter in Embodiment 3 of this invention. 実施の形態3における受信装置の構成を概略的に示すブロック図である。FIG. 10 is a block diagram schematically showing a configuration of a receiving apparatus in a third embodiment. 本発明の実施の形態4における送信装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the transmitter in Embodiment 4 of this invention. 実施の形態4における受信装置の構成を概略的に示すブロック図である。FIG. 10 is a block diagram schematically showing a configuration of a receiving apparatus in a fourth embodiment. 本発明の実施の形態5における送信装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the transmitter in Embodiment 5 of this invention. 実施の形態5における受信装置の構成を概略的に示すブロック図である。FIG. 10 is a block diagram schematically showing a configuration of a receiving apparatus in a fifth embodiment. 本発明の実施の形態5及び6で用いられる、タイミングマークとコード画像とのレイアウトを示す概略図である。It is the schematic which shows the layout of a timing mark and a code image used in Embodiment 5 and 6 of this invention. (A)~(C)は、実施の形態5及び6において、送信装置の表示部に表示される映像の時間的な変化を示す概略図である。(A) to (C) are schematic diagrams illustrating temporal changes in video displayed on the display unit of the transmission device in the fifth and sixth embodiments. 本発明の実施の形態6における送信装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the transmitter in Embodiment 6 of this invention. 実施の形態6における受信装置の構成を概略的に示すブロック図である。FIG. 20 is a block diagram schematically showing a configuration of a receiving apparatus in a sixth embodiment. 本発明の実施の形態7における送信装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the transmitter in Embodiment 7 of this invention. 実施の形態7における受信装置の構成を概略的に示すブロック図である。FIG. 20 is a block diagram schematically showing a configuration of a receiving apparatus in a seventh embodiment. 本発明の実施の形態8における、異なる種類のタイミングマークを付したQRコードのシーケンスの一例を示す図である。It is a figure which shows an example of the sequence of QR Code which attached | subjected the different kind of timing mark in Embodiment 8 of this invention. 実施の形態8における送信装置の構成を概略的に示すブロック図である。FIG. 20 is a block diagram schematically showing a configuration of a transmission apparatus in an eighth embodiment. 実施の形態8における受信装置の構成を概略的に示すブロック図である。FIG. 20 is a block diagram schematically showing a configuration of a receiving apparatus in an eighth embodiment.
 図1は、本発明に係る情報処理システム1の一例を示す。
 図1に示す情報処理システム1は、送信装置100と受信装置200とを備える。
情報処理システム1は、送信装置100から受信装置200にデータファイルDを転送する。送信装置100は表示画面131に画像を表示する。そして、受信装置200はその画像を撮影する。転送されるデータファイルDは、文書ファイル、画像ファイル、動画ファイル、音声ファイル又は実行ファイルなどのいずれであっても良い。音声ファイル又は実行ファイルは、例えば、QRコード等の画像データに変換されている。つまり、どのようなデータも、例えば、QRコード等の画像データに変換される。
FIG. 1 shows an example of an information processing system 1 according to the present invention.
An information processing system 1 illustrated in FIG. 1 includes a transmission device 100 and a reception device 200.
The information processing system 1 transfers the data file D 0 from the transmission device 100 to the reception device 200. The transmission device 100 displays an image on the display screen 131. Then, the receiving device 200 captures the image. Data file D 0 to be transferred, the document files, image files, video files, may be either a voice file or executable file. The audio file or the execution file is converted into image data such as a QR code, for example. That is, any data is converted into image data such as a QR code.
 本発明では、送信装置100において、転送されるデータファイルDが複数のデータ部分に分割され、各データ部分が1又は2以上のコード画像Dに変換されて、表示画面131に順次表示される。
 受信装置200は、送信装置100の表示画面131に表示されるコード画像Dを順次撮像する。そして、受信装置200は、コード画像Dを復号化することでデータ部分を復元する。受信装置200は、復元されたデータを連結することで、元のデータファイルDを復元する。
In the present invention, the transmission device 100, the data file D 0 to be transferred is divided into a plurality of data portions are converted into the data portion of one or more code image D 3, are sequentially displayed on the display screen 131 The
Receiving apparatus 200 sequentially captures the code image D 3 to be displayed on the display screen 131 of the transmitting apparatus 100. Then, the receiving apparatus 200 restores the data portion by decoding a code image D 3. Receiving apparatus 200, by connecting the recovered data to restore the original data file D 0.
 上記のコード画像Dは、例えば、QRコード等の二次元バーコード、又は一次元のバーコードと呼ばれるものである。
 送信装置100の表示のフレームレートと、受信装置200の撮像のフレームレートとは互いに同じであっても良く、異なっていても良い。
Code image D 3 above, for example, two-dimensional bar code such as a QR code, or what is called a one-dimensional bar code.
The display frame rate of the transmission apparatus 100 and the imaging frame rate of the reception apparatus 200 may be the same or different from each other.
実施の形態1.
<送信装置100の構成>
 図2は、実施の形態1における送信装置100の構成を概略的に示すブロック図である。
 図2に示す送信装置100は、マーク生成部106、データ処理部110、合成部122及び表示部130を備える。また、送信装置100は、送信データ記憶部102、基準クロック発生部104、映像バッファ126及び動画再生部128を備えることができる。
Embodiment 1 FIG.
<Configuration of Transmitting Device 100>
FIG. 2 is a block diagram schematically showing a configuration of transmitting apparatus 100 in the first embodiment.
The transmission apparatus 100 illustrated in FIG. 2 includes a mark generation unit 106, a data processing unit 110, a synthesis unit 122, and a display unit 130. Further, the transmission device 100 can include a transmission data storage unit 102, a reference clock generation unit 104, a video buffer 126, and a moving image reproduction unit 128.
 送信データ記憶部102は、複数のデータファイルDを記憶している。
 「データファイル」とは、例えば、1かたまりのデータ等である。なお、データファイルDの容量が大きい場合には、例えば、複数のQRコード等を用いてデータファイルDのデータを送信装置100から受信装置200に送ることがある。
 送信データ記憶部102は、記憶している送信データDをデータ処理部110に与える。送信データDは、例えば、送信データ記憶部102の記憶しているデータファイルDである。また、送信データDは、例えば、送信データ記憶部102の記憶されているデータファイルDの容量が大きい場合には、データファイルDをデータ処理部110への送信に適した容量に分割されたものである。
 基準クロック発生部104は、クロック信号CLを発生する。そして、基準クロック発生部104は、クロック信号CLをマーク生成部106及びデータ処理部110に与える。
Transmission data storage unit 102 stores a plurality of data files D 0.
The “data file” is a piece of data, for example. Incidentally, when the capacity of the data file D 0 is large, for example, it is sent to the receiving apparatus 200 from the transmitting apparatus 100 the data of the data file D 0 by using a plurality of QR code or the like.
The transmission data storage unit 102 gives the stored transmission data D 1 to the data processing unit 110. The transmission data D 1 is, for example, a data file D 0 stored in the transmission data storage unit 102. Further, the transmission data D 1 are, for example, the greater the capacity of the data file D 0 stored in the transmission data storage unit 102 may divide the data file D 0 in volume suitable for transmission to the data processing unit 110 It has been done.
The reference clock generation unit 104 generates a clock signal CL. Then, the reference clock generation unit 104 provides the clock signal CL to the mark generation unit 106 and the data processing unit 110.
 マーク生成部106は、基準クロック発生部104で発生されたクロック信号CLに同期して、タイミングを示すマーク(タイミングマーク)Dを生成する。また、マーク生成部106は、タイミングマークDを記憶する画像記憶部107を有している。 Mark generation unit 106, in synchronization with the generated clock signal CL at the reference clock generator 104, the mark showing the timing (timing mark) to produce a D 2. Further, the mark generating unit 106 includes an image storage unit 107 for storing the timing mark D 2.
 タイミングマークDは、識別画像である。つまり、画像中にタイミングマークDが表示されている場合には、例えば、同時に表示されているQRコード等の画像は適切な情報を含むものであると認識される。逆に、画像中にタイミングマークDが表示されていない場合には、例えば、同時に表示されているQRコード等の画像は適切な情報を含まないものであると認識される。「適切な情報を含まない」とは、正しくデータを復号できないことである。 Timing mark D 2 is an identification image. In other words, the timing mark D 2 in the image if it is displayed, for example, is recognized as an image, such as a QR code being displayed at the same time is intended to include the appropriate information. Conversely, if the timing mark D 2 is not visible in the image, for example, it is recognized as an image, such as a QR code being displayed at the same time are those which do not contain adequate information. “Not including appropriate information” means that data cannot be correctly decoded.
 画像記憶部107は、タイミングマークDを含む画像プレーンを記憶する。
また、画像記憶部107は、タイミングマークDを含まないフレームのために、タイミングマークDを含まない画像プレーンを記憶する。
Image storage unit 107 stores an image plane including timing mark D 2.
The image storage unit 107 for frame not including the timing mark D 2, and stores the image plane which does not include a timing mark D 2.
 タイミングマークDは後述のようにコード画像Dと合成される。タイミングマークDは、合成部122で合成されたコード画像Dが復号するのに適したものであるか否かを識別するための識別画像として用いられる。このため、マーク生成部106は、「識別画像生成部」とも呼ばれる。ここで、「合成」とは、異なるデータを1つの画像データとして扱うことをいう。例えば、コード画像DとタイミングマークDとを1つのフレームに画像として表わすことである。 Timing mark D 2 is synthesized with the code image D 3 as described later. Timing mark D 2 is used as an identification image for the code image D 3 combined by the combining unit 122 to identify whether or not suitable for decoding. For this reason, the mark generation unit 106 is also referred to as an “identification image generation unit”. Here, “compositing” refers to handling different data as one image data. For example, it is to represent a code image D 3 and the timing mark D 2 as an image in one frame.
 タイミングマークDは、例えば、階調値(画素値)が取り得る値の最大値を取る画素及び最小値を取る画素から成る画像である。階調値が8ビットで表される場合には、上記の最大値は「255」であり、最小値は「0」である。
 図3は、コード画像DとタイミングマークDとの合成を説明するための模式図である。コード画像Dは、例えば、QRコード等を表わした画像である。つまり、データファイルDをコード化したものである。コード画像Dは、送信データDから生成される。
 タイミングマークDは、例えば図3に示されるように、階調値が上記の最大値を有する画素から成る矩形の領域(クロスハッチングで示す)で構成されたものである。つまり、図3に示すタイミングマークDは、最大階調値の矩形の画像である。その場合には、上記の領域外の画素の階調値は最小値となる。図3では、タイミングマークDは、緑色(G)のデータのみで構成されている。
また、コード画像Dは、赤色(R)のデータ及び青色(B)のデータで構成されている。図3に示す例では、緑色(G)のタイミングマークDと赤色(R)及び青色(B)のコード画像Dとが1フレームの画像として合成されている。
Timing mark D 2 is, for example, an image composed of pixels having the pixel and the minimum value takes the maximum value of the gradation values (pixel values) of possible values. When the gradation value is expressed by 8 bits, the maximum value is “255” and the minimum value is “0”.
Figure 3 is a schematic view for explaining a combination of the code image D 3 and the timing mark D 2. Code image D 3 is, for example, an image representing the QR code or the like. That is, a coded data file D 0. Code image D 3 is produced from the transmission data D 1.
For example, as shown in FIG. 3, the timing mark D < b > 2 is configured by a rectangular area (shown by cross-hatching) composed of pixels whose gradation values have the above maximum values. In other words, the timing mark D 2 shown in FIG. 3 is a rectangular image of the maximum tone value. In that case, the gradation value of the pixel outside the above region becomes the minimum value. In Figure 3, a timing mark D 2 it is composed of only the data of green (G).
Also, the code image D 3 is composed of data of the data and blue red (R) (B). In the example shown in FIG. 3, the code image D 3 of the green timing marks D 2 and red (G) (R) and blue (B) is synthesized as an image of one frame.
 図3で示すように、色データでコード画像Dを示す場合には、赤色(R)のデータ(コード画像D)と青色(B)のデータ(コード画像D)とを異なるコードとすることができる。つまり、1つの画像(表示フレーム)で、2個のデータを送ることができる。これにより、データファイルDの転送を高速化することができる。 As shown in FIG. 3, when the code image D 3 is indicated by color data, the red (R) data (code image D 3 ) and the blue (B) data (code image D 3 ) are different from each other. can do. That is, two pieces of data can be sent with one image (display frame). Thus, it is possible to speed up the transfer of data file D 0.
 データ処理部110は、送信データ記憶部102に記憶されている複数のデータファイルDのうちのいずれかを選択する。データ処理部110は、選択したデータファイルDを複数のデータ部分に分割する。つまり、データ処理部110は、選択したデータファイルDを受け取りやすい容量のデータに分割する。そして、データ処理部110は、分割されたデータ(送信データD)を受け取る。 The data processing unit 110 selects one of the plurality of data files D 0 stored in the transmission data storage unit 102. The data processing unit 110 divides the data file D 0 that was selected plurality of data portions. That is, the data processing unit 110 divides the data easily accepts data file D 0 selected volume. Then, the data processing unit 110 receives the divided data (transmission data D 1 ).
 データ処理部110は、分割された各データ部分を2つの図形コードに変換する。
図3では、分割された各データ部分は赤色(R)で表示される図形コードと青色(B)で表示される図形コードとに変換されている。データ処理部110は、図形コードからコード画像Dを生成する。コード画像Dは、図形コードを描画した際に画像となるように変換したものである。
The data processing unit 110 converts each divided data portion into two graphic codes.
In FIG. 3, each divided data portion is converted into a graphic code displayed in red (R) and a graphic code displayed in blue (B). The data processing unit 110 generates a code image D 3 from the graphic code. Code image D 3 is obtained by converting so that the image when drawing a graph code.
 コード画像Dは、例えば、階調値(画素値)が取り得る値の最大値を取る画素と最小値を取る画素から成る画像である。 Code image D 3 is, for example, an image composed of pixels having a pixel and a minimum value taking the maximum value of the values that can take the tone values (pixel values).
 データ処理部110は、コード生成部116を備える。コード生成部116は、第1コード生成部116A及び第2コード生成部116Bを備えることができる。
データ処理部110は、読出し部112及びデータ分割部114を備えることができる。
The data processing unit 110 includes a code generation unit 116. The code generation unit 116 may include a first code generation unit 116A and a second code generation unit 116B.
The data processing unit 110 can include a reading unit 112 and a data dividing unit 114.
 読出し部112は、送信データ記憶部102に記憶されているデータファイルDを複数のデータ部分(ここでは「ショット」という)に分割する。この分割されたデータ部分(ショット)は、上述のように、データファイルDをデータ処理部110への送信に適した容量に分割されたものである。つまり、送信に適した容量に分割された1データ部分を「ショット」とよぶ。送信データDは、1ショットである。なお、以下では、説明を簡単にするために、図4(A)で示す1ショット期間Tで表示される画像分のデータを「1ショット」として説明する。つまり、図3で説明するように色の画像に分けて2つのQRコード等を表示する場合には、1ショットは、2つのQRコード等の画像で表示される。また、図6で説明するように色の画像に分けずに1つのQRコード等を表示する場合には、1ショットは、1つのQRコード等の画像で表示される。
 読出し部112は、データファイルDの分割により生成された複数のショット(ショットのデータD)を、順にデータ分割部114に送る。また、読出し部112は、後述する同期信号SYをマーク生成部106に送る。
 データ分割部114は、読出し部112により読み出された各ショットのデータDを、さらに2つのデータ部分(ここでは「データユニットD」という)に分割する。ここで「2つのデータ部分」とは、色チャンネルごとで表示される異なるデータ部分である。実施の形態1では、赤チャンネルで表示される第1データユニットD51と、青チャンネルで表示される第2データユニットD52とである。データ分割部114は、第1のデータ部分(第1データユニットD51)を第1コード生成部116Aに与える。データ分割部114は、第2のデータ部分(第2データユニットD52)を第2コード生成部116Bに与える。
The reading unit 112 divides the data file D 0 stored in the transmission data storage unit 102 into a plurality of data portions (herein referred to as “shots”). The divided data portion (shot) is obtained by dividing the data file D 0 into a capacity suitable for transmission to the data processing unit 110 as described above. That is, one data portion divided into a capacity suitable for transmission is called a “shot”. Transmission data D 1 is one shot. Hereinafter, in order to simplify the description, the data for the image displayed in the one-shot period Td shown in FIG. 4A will be described as “one shot”. That is, when two QR codes or the like are displayed separately for color images as described in FIG. 3, one shot is displayed as an image of two QR codes or the like. Further, when one QR code or the like is displayed without being divided into color images as described in FIG. 6, one shot is displayed as an image such as one QR code.
The reading unit 112 sequentially sends a plurality of shots (shot data D 4 ) generated by dividing the data file D 0 to the data dividing unit 114. Further, the reading unit 112 sends a synchronization signal SY described later to the mark generation unit 106.
The data dividing unit 114 further divides the data D 4 of each shot read by the reading unit 112 into two data parts (herein referred to as “data unit D 5 ”). Here, “two data portions” are different data portions displayed for each color channel. In the first embodiment, the first data unit D 51 displayed in the red channel and the second data unit D 52 displayed in the blue channel. The data dividing unit 114 gives the first data portion (first data unit D 51 ) to the first code generating unit 116A. The data dividing unit 114 gives the second data portion (second data unit D 52 ) to the second code generating unit 116B.
 第1コード生成部116Aは、データ分割部114から与えられた第1データユニットD51を、対応するコード画像(第1コード画像)D31に変換する。即ち、第1データユニットD51を図形コードに変換し、さらにこの図形コードを、これに対応するコード画像(第1コード画像)D31に変換する。第1コード生成部116Aは、コード画像(第1コード画像)D31を出力する。なお、実際には第1コード画像D31を含む画像プレーンを出力する。しかし、図2では、簡略して、第1コード生成部116Aの出力を第1コード画像D31として記載する。 The first code generating unit 116A converts the first data unit D 51 supplied from the data dividing unit 114, the corresponding code image (first code image) D 31. That is, the first data unit D 51 is converted into a graphic code, and this graphic code is further converted into a corresponding code image (first code image) D 31 . The first code generating unit 116A, the code image (first code image) to the D 31. Incidentally, actually it outputs an image plane including a first code image D 31. However, in FIG. 2, simplified to describe the output of the first code generating unit 116A as the first code image D 31.
 第2コード生成部116Bは、データ分割部114から与えられた第2データユニットD52を、対応するコード画像(第2コード画像)D32に変換する。即ち、第2データユニットD52を図形コードに変換し、さらにこの図形コードを、これに対応するコード画像(第2コード画像)D32に変換する。第2コード生成部116Bは、コード画像(第1コード画像)D32を出力する。なお、実際には第1コード画像D31を含む画像プレーンを出力する。しかし、図2では、簡略して、第1コード生成部116Aの出力を第1コード画像D31として記載する。 The second code generating unit 116B converts the second data unit D 52 supplied from the data dividing unit 114, the corresponding code image (second code image) D 32. That is, the second data unit D 52 is converted into a graphic code, and the graphic code is further converted into a code image (second code image) D 32 corresponding thereto. The second code generating unit 116B outputs the code image (first code image) D 32. Incidentally, actually it outputs an image plane including a first code image D 31. However, in FIG. 2, simplified to describe the output of the first code generating unit 116A as the first code image D 31.
 データユニットDは数値の塊としてのデータである。一方、コード画像Dは、画像として表示可能な形のデータである。コード画像Dは、例えば、ビットマップデータで表されるものである。データユニットDのコード画像への変換を「描画」と言う。各データユニットD51,D52の図形コードへの変換の規則は予め定められている。各データユニットD51,D52の図形コードへの変換の規則は、送信装置100と受信装置200とで共有されている。 Data unit D 5 is the data of the chunk numbers. On the other hand, the code image D 3 is in the form of data that can be displayed as an image. Code image D 3, for example, is represented by bitmap data. Conversion to code image data units D 5 referred to as "drawing." The rules for conversion of each data unit D 51 , D 52 into graphic codes are determined in advance. The rules for converting the data units D 51 and D 52 into graphic codes are shared by the transmission device 100 and the reception device 200.
 第1コード画像D31及び第2コード画像D32の例が図3に示されている。例えば、赤色(R)の画像が第1コード画像D31である。例えば、青色(B)の画像が第2コード画像D32である。
 図3の例では、第1コード画像D31及び第2コード画像D32は、フレーム内のタイミングマークDと同じ領域に形成されている。従って、第1コード画像D31、第2コード画像D32及びタイミングマークDは、互いに重なるように形成される。
Examples of the first code image D 31 and the second code image D 32 is shown in FIG. For example, images of red (R) is the first code image D 31. For example, an image of blue (B) is the second code image D 32.
In the example of FIG. 3, the first code image D 31 and the second code image D 32 are formed in the same region as the timing mark D 2 in the frame. Accordingly, the first code image D 31 , the second code image D 32 and the timing mark D 2 are formed so as to overlap each other.
 データ分割部114には読出し部112で読み出される複数のショットのデータDが順次入力される。データ分割部114から第1コード生成部116Aに供給される第1データユニットD51は、データ分割部114に入力されるショットのデータDが切り換わることに伴って切り換わる。このため、第1コード生成部116Aから出力されるコード画像D31は、読出し部112により読み出されるショットのデータDが切り換わるごとに切り換わる。同様に、第2コード生成部116Bから出力されるコード画像D32は、読出し部112により読み出されるショットのデータDが切り換わるごとに切り換わる。 A plurality of shot data D 4 read by the reading unit 112 are sequentially input to the data dividing unit 114. First data unit D 51 supplied from the data dividing unit 114 in the first code generating unit 116A is switched in association with the shot data D 4 input to the data dividing unit 114 is switched. Therefore, the code image D 31 outputted from the first code generating unit 116A is switched each time the switches are available for the data D 4 that is read by the reading unit 112. Similarly, the code image D 32 outputted from the second code generating unit 116B is switched each time the switches are available for the data D 4 that is read by the reading unit 112.
 第1コード生成部116Aによる第1コード画像D31の出力及び第2コード生成部116Bによる第2コード画像D32の出力は、いずれも基準クロック発生部104からのクロック信号CLに同期して行われる。また、マーク生成部106によるタイミングマークDの出力は、クロック信号CLに同期して行われる。マーク生成部106におけるタイミングマークDの生成を、コード生成部116A,116Bにおけるコード画像D31,D32の出力と同期させるため、読出し部112は1つのショットのデータDを読み出す度に、そのことを示す同期信号SYを出力する。マーク生成部106は、読出し部112からの上記の同期信号SY(1つのショットのデータDを読み出すことを示す信号)を受けて、タイミングマークDの出力のタイミングを決める。 Both the output of the first code image D 31 by the first code generation unit 116A and the output of the second code image D 32 by the second code generation unit 116B are performed in synchronization with the clock signal CL from the reference clock generation unit 104. Is called. The output of the timing marks D 2 by the mark generation unit 106 is performed in synchronization with the clock signal CL. The generation of the timing mark D 2 in the mark generating unit 106, the code generating unit 116A, to synchronize with the output of the code image D 31, D 32 in 116B, the read unit 112 each time the read data D 4 of a shot, A synchronization signal SY indicating this is output. Mark generation unit 106 receives the (signal indicating to read the data D 4 of a shot) above synchronizing signal SY from the reading unit 112 determines the timing of the output of the timing mark D 2.
 合成部122は、タイミングマークD、第1コード画像D31及び第2コード画像D32を、それぞれ独立した色チャンネルに割り当てる。そして、合成部122は、タイミングマークD、第1コード画像D31及び第2コード画像D32を合成し、合成画像(カラー画像)D61を生成する。タイミングマークD2は、マーク生成部106から出力される。第1コード画像D31は、第1コード生成部116Aから出力される。第2コード画像D32は、第2コード生成部116Bから出力される。
 合成部122による合成は、タイミングマークDを含む画像プレーンと、第1コード画像D31を含む画像プレーンと、第2コード画像D32を含む画像プレーンとを重ね合わせることで行われる。「プレーン」とは、画像イメージを貼り付ける透明な板のようなものある。一般に、画像はプレーンと呼ばれる複数のスクリーン(平面)から構成される。プレーンには赤色、緑色及び青色を表現する3つのプレーンがあり,それらを組み合わせることで色が表現される。複数のプレーンにより表現される画像平面をフレームと呼ぶ。
The combining unit 122 assigns the timing mark D 2 , the first code image D 31, and the second code image D 32 to independent color channels. Then, the synthesizing unit 122 synthesizes the timing mark D 2 , the first code image D 31, and the second code image D 32 to generate a synthesized image (color image) D 61 . The timing mark D2 is output from the mark generation unit 106. The first code image D 31 is outputted from the first code generating unit 116A. Second code image D 32 is outputted from the second code generating unit 116B.
Synthesis by combining unit 122 includes an image plane comprising a timing mark D 2, and an image plane including a first code image D 31, is performed by superimposing an image plane including a second code image D 32. “Plain” is like a transparent plate on which an image is pasted. Generally, an image is composed of a plurality of screens (planes) called planes. There are three planes that express red, green, and blue in the plane, and colors are expressed by combining them. An image plane expressed by a plurality of planes is called a frame.
 上記の色チャンネルとして、例えば、赤色(R)、青色(B)及び緑色(G)の光の三原色のチャンネルが採用されている。「色チャンネル」とは、色を成分で分離した情報のことである。具体的には、赤チャンネル、緑チャンネル、青チャンネル等がある。そして、合成部122は、図3のタイミングマークDを緑(G)チャンネルに割り当てて、第1コード画像D31を赤(R)チャンネルに割り当てて、第2コード画像D32を青(B)チャンネルに割り当てて合成を行う。例えば、合成部122は、タイミングマークD、第1コード画像D31及び第2コード画像D32のそれぞれの階調値を、それぞれの色チャンネルの階調値として合成を行う。 As the color channel, for example, three primary color channels of red (R), blue (B), and green (G) light are employed. A “color channel” is information obtained by separating colors by components. Specifically, there are a red channel, a green channel, a blue channel, and the like. Then, the composition unit 122 assigns a timing mark D 2 of FIG. 3 in green (G) channel, a first code image D 31 assigned to the red (R) channel, the second code image D 32 blue (B ) Assign to the channel and compose. For example, the synthesizing unit 122 synthesizes the tone values of the timing mark D 2 , the first code image D 31, and the second code image D 32 as the tone values of the respective color channels.
 合成画像D61においては、タイミングマークDの最大値が緑チャンネルの階調値(緑成分値)の最大値を有する。図3ではタイミングマークDは、クロスハッチングで示された部分に表わされている。第1コード画像D31の最大値が赤チャンネルの階調値(赤成分値)の最大値を有する。図3では、第1コード画像D31の最大値は、黒で示された部分である。第2コード画像D32の最大値が青チャンネルの階調値(青成分値)の最大値を有する。図3では、第2コード画像D32の最大値は、黒で示された部分である。 In the composite image D 61, the maximum value of the timing mark D 2 has a maximum value of the gradation values of the green channel (green component value). In FIG. 3, the timing mark D < b > 2 is shown in a portion indicated by cross hatching. The maximum value of the first code image D 31 has a maximum value of the gradation values of the red channel (red component values). In Figure 3, the maximum value of the first code image D 31 is a portion which is shown in black. The maximum value of the second code image D 32 has a maximum value of the gradation values of the blue channel (blue component value). In Figure 3, the maximum value of the second code image D 32 is a portion which is shown in black.
 合成部122は、タイミングマークD、第1コード画像D31及び第2コード画像D32を合成して表示部130が表示する1フレーム分の画像を生成する。 The synthesizer 122 synthesizes the timing mark D 2 , the first code image D 31, and the second code image D 32 to generate an image for one frame displayed on the display unit 130.
 映像バッファ126は、合成部122で生成された合成画像D61を蓄積する。そして、映像バッファ126は、蓄積した合成画像D61を連結する。つまり、映像バッファ126は、合成された1フレーム分の画像を複数つなげて、表示部130が「動画」として表示できるようにする。この1フレーム分の画像を複数つなげることを「連結」という。
 映像バッファ126は、合成した画像を順次連結して合成映像D62を生成する。
 「画像」とは、1フレームに表示される静止画のことである。「映像」とは、数フレームの画像がつながったもので、連続で表示されるものである。つまり、各フレームの「画像」が異なる場合には、「映像」は動画となる。
 合成部122が結合する1フレーム分の画像は、同じ画像である。このため、表示部130が合成映像D62を表示しても観察者は同じ画像が表示されているものと認識する。
The video buffer 126 stores the composite image D 61 generated by the combining unit 122. The video buffer 126 couples the combined image D 61 that has accumulated. In other words, the video buffer 126 connects a plurality of synthesized one-frame images so that the display unit 130 can display them as “moving images”. Connecting a plurality of images for one frame is called “connection”.
Video buffer 126, the synthesized images are sequentially connected to the generating a combined image D 62.
An “image” is a still image displayed in one frame. A “video” is an image in which several frames of images are connected and displayed continuously. That is, when the “image” of each frame is different, the “video” is a moving image.
The image for one frame combined by the combining unit 122 is the same image. Therefore, the viewer even display unit 130 displays the combined image D 62 recognizes the one shown the same image.
 また、映像バッファ126は、蓄積した合成映像D62を互いに連結する。上述のように、合成映像D62は、同じ画像が数フレーム結合された画像データである。映像バッファ126が結合する合成映像D62は、互いに異なる画像のものである。このため、後述するように、受信装置200で表示部130の表示する画像を撮影すると、受信装置200は、異なる2つの画像を撮影する場合がある。このように、合成映像D62の連結の結果得られる合成映像D63は、画像の内容が切り換わる映像である。後述するように、例えば、図4(A)~図4(C)では、合成映像D62の連結の結果得られる合成映像D63は、4フレーム周期で内容が切り換わる映像である。 The video buffer 126 connects the accumulated composite video D62 to each other. As described above, the composite video D62 is image data obtained by combining several frames of the same image. The composite video D 62 combined with the video buffer 126 is of different images. For this reason, as will be described later, when an image displayed on the display unit 130 is captured by the receiving device 200, the receiving device 200 may capture two different images. Thus, the composite video D 63 obtained as a result of the connection of the composite video D 62 is a video in which the content of the image is switched. As will be described later, for example, in FIGS. 4A to 4C, the composite video D 63 obtained as a result of the concatenation of the composite video D 62 is a video whose contents are switched at a cycle of 4 frames.
 映像バッファ126での画像の蓄積は、転送しようとするデータファイルDのすべてのデータ(データ部分)のコード画像Dへの変換が終了するまで続けられる。つまり、データファイルDの容量が大きい場合には、例えば、複数のQRコードを連結した合成映像D63を作成する。図3に示す例では、2種類の合成映像D62を連結した合成映像D63は、4種類のQRコードを送ることができる。映像バッファ126での画像の蓄積が終了した時点では、1つのデータファイルDに対応する映像を構成する一連のフレームのコード画像D及びこれに付加されたタイミングマークDが記憶された状態となる。
 以上のように、映像バッファ126は、合成画像D61を連結して合成映像D62を生成する連結部として作用する。また、映像バッファ126は、合成映像D62を連結して合成映像D63(動画)を生成する連結部として作用する。なお、合成画像D61を連結して合成映像D62を生成する工程を、合成部122が行うようにしてもよい。
Accumulation of the image in the video buffer 126 is continued until the conversion of all data (data portion) of the data file D 0 to be transferred into the code image D 3 is completed. That is, when the capacity of the data file D 0 is large, for example, to create a combined image D 63 formed by coupling a plurality of QR codes. In the example illustrated in FIG. 3, a composite video D 63 obtained by connecting two types of composite video D 62 can transmit four types of QR codes. State accumulation of image in the image buffer 126 at the time ended, one data file timing mark D 2 that is added code image D 3 and to a series of frames constituting an image corresponding to the D 0 is stored It becomes.
As described above, the video buffer 126 functions as a connecting unit that connects the composite image D 61 to generate the composite video D 62 . In addition, the video buffer 126 functions as a connecting unit that generates a composite video D 63 (moving image) by connecting the composite video D 62 . Incidentally, the step of connecting the composite image D 61 generates a combined image D 62, may be synthesized unit 122 performs.
 動画再生部128は、1つのデータファイルDのすべてのデータのコード画像Dへの変換が終了した後に、映像バッファ126に蓄積されたデータ(コード画像D及びタイミングマークDを含む画像フレームの列)を、フレーム毎に順次読み出して動画として再生する。ここで「画像フレームの列」とは、合成映像D63のことである。 After the conversion of all data of one data file D 0 to the code image D 3 is completed, the moving image reproducing unit 128 stores the data (the image including the code image D 3 and the timing mark D 2) stored in the video buffer 126. A sequence of frames) is sequentially read out for each frame and reproduced as a moving image. Here, the “sequence of image frames” refers to the composite video D 63 .
 表示部130は、動画再生部128の出力に応じてカラー映像を表示する。
 図3では、表示部130で表示される映像においては、タイミングマークDが緑色で、第1コード画像D31が赤色で、第2コード画像D32が青色でそれぞれ表示される。
The display unit 130 displays a color image according to the output of the moving image playback unit 128.
In Figure 3, in the image displayed on the display unit 130 at the timing mark D 2 green, first code image D 31 is red, the second code image D 32 are respectively displayed in blue.
 以下では、例えば、表示部130が、点順次走査方式或いは線順次走査方式で、かつプログレッシブ表示方式で表示を行なう液晶表示装置で構成されているものとして説明する。 Hereinafter, for example, it is assumed that the display unit 130 is configured by a liquid crystal display device that performs display by a dot sequential scanning method or a line sequential scanning method and a progressive display method.
<送信装置100の表示処理>
 上述のように、タイミングマークDは、クロック信号CLに同期して生成される。また、第1コード画像D31の出力及び第2コード画像D32の出力は、いずれも基準クロック発生部104からのクロック信号CLに同期して行われる。そのため、第1コード画像D31及び第2コード画像D32は同時に切り換わる。この切り換わりのタイミングの直前及び直後以外のタイミングでタイミングマークDが現れるように行われる。例えば、フレームの切り換わりの直前及び直後のフレーム以外のフレームでタイミングマークDが現れるようにする。つまり、フレームの切り換わりの直前及び直後のフレームには、タイミングマークDが合成されない。
<Display processing of transmitting apparatus 100>
As described above, the timing marks D 2 is generated in synchronization with the clock signal CL. The output of the first code image D 31 and the output of the second code image D 32 are both performed in synchronization with the clock signal CL from the reference clock generation unit 104. Therefore, the first code image D 31 and the second code image D 32 is switched simultaneously. It carried out as appears timing mark D 2 at the timing just before and except immediately after the timing of the changeover. For example, so that appears timing mark D 2 in switched immediately before and after the non-Framed frame. That is, immediately before and frame after the switching of the frame timing mark D 2 is not synthesized.
 図4(A)~図4(C)は、タイミングマークD、第1コード画像D31、及び第2コード画像D32の表示タイミングを示すタイミングチャートである。図4(A)は、タイミングマークDを表わしている。図4(B)は、第1コード画像D31を表わしている。図4(C)は、第2コード画像D32を表わしている。図4(A)~図4(C)は、合成映像D63の一例において、コード画像Dの切り換わり、及びタイミングマークDが現れる期間を示す。図4(A)~図4(C)において、縦軸は各信号の出力の有無を示し、「H」で信号は出力され、「L」で信号は出力されない。図4(A)~図4(C)において、横軸は時間を示している。図4(A)~図4(C)において、縦方向の点線は、表示部130による表示のフレーム期間の区切りを示す。符号Tは、表示のフレームレートにおける1フレーム期間(1フレーム周期)を表す。 4A to 4C are timing charts showing display timings of the timing mark D 2 , the first code image D 31 , and the second code image D 32 . FIG. 4 (A) represents a timing mark D 2. FIG. 4 (B) represents the first code image D 31. FIG. 4 (C) represents a second code image D 32. Figure 4 (A) ~ FIG 4 (C) shows in an example of the combined image D 63, the switching of the code image D 3, and the period in which the timing mark D 2 appears. In FIG. 4A to FIG. 4C, the vertical axis indicates whether or not each signal is output. A signal is output at “H”, and no signal is output at “L”. In FIGS. 4A to 4C, the horizontal axis represents time. 4A to 4C, a dotted line in the vertical direction indicates a break of a frame period of display by the display unit 130. The symbol T t represents one frame period (one frame period) at the display frame rate.
 図4(A)~図4(C)に示される例では、1ショットのデータDから生成された合成映像D62が表示される期間(1ショット期間)Tは、4つのフレーム期間Tである。4フレーム期間ごとに表示されるコード画像Dの内容が切り換わる。1ショット期間Tのうち、最初の1フレームの期間Tt1には、タイミングマークDが表示されない。1ショット期間Tのうち、最初の1フレームの期間Tt1には、コード画像D31,D32が表示される。つまり、1ショット期間Tのうち、最初の1フレームの期間Tt1には、タイミングマークDが表示されず、1ショット期間Tのうち、最初の1フレームの期間Tt1には、コード画像D31,D32のみが表示される。次の2フレームの期間Tには、タイミングマークDとコード画像D31,D32とがともに表示される。最後の1フレームの期間Tt2には、タイミングマークDが表示されず、コード画像D31,D32のみが表示される。このように、タイミングマークDはコード画像Dの切り換わりの直後のフレーム(各ショットの期間の最初のフレーム)と、切り換わりの直前のフレーム(各ショットの最後のフレーム)には現れない。タイミングマークDは、それら以外のフレーム(各ショットの期間の2番目及び3番目のフレーム)に現れる。 In the example shown in FIGS. 4A to 4C, a period (one-shot period) T d in which the composite video D 62 generated from one-shot data D 4 is displayed is four frame periods T. t . The contents of the code image D 3 to be displayed for each 4-frame period is switched. Of the one-shot period T d, the first frame period T t1 of, does not display timing mark D 2. Code images D 31 and D 32 are displayed in a period T t1 of the first one frame in one shot period T d . That is, of the one-shot period T d, the period T t1 of the first frame, without displaying the timing mark D 2, of the one-shot period T d, the period T t1 of the first frame, the code Only the images D 31 and D 32 are displayed. The period T e of the next two frames, the timing mark D 2 and the code image D 31, D 32 is displayed together. The period T t2 of the last 1 frame is not displayed timing mark D 2, only the code image D 31, D 32 is displayed. Thus, the timing marks D 2 is the switching of the immediately following frame of the code image D 3 (the first frame period of each shot), it does not appear in the frame immediately before the changeover (last frame of each shot) . Timing mark D 2 appears at their other frames (second and third frame periods of each shot).
 コード画像Dの切り換わりの直前及び直後のフレーム(第4フレーム及び第1フレーム)では、コード画像Dの内容が一部乱れる場合がある。一方、切り換わりからある程度の時間が経過した第2フレーム及び第3フレームではコード画像Dの内容が安定していることが推定される。そこで、実施の形態1に係る発明では、第2フレーム及び第3フレームのコード画像Dを受信装置200での復号に用いる。そして、第2フレーム及び第3フレームのコード画像Dを第1フレーム及び第4フレームのコード画像Dから区別するために、送信装置100でタイミングマークDを付している。そして、受信装置200では、タイミングマークDに基づいて第2フレーム及び第3フレームのコード画像Dであるか第1フレーム及び第4フレームのコード画像Dであるかの判別をしている。 In switched immediately before and immediately after the frame of the code image D 3 (the fourth frame and the first frame), the contents of the code image D 3 is sometimes disturbed part. Meanwhile, in the second frame and the third frame after a certain time from the switched contents of the code image D 3 it is estimated to be stable. Therefore, in the invention according to the first embodiment, using the code image D 3 of the second frame and the third frame to the decoding in the receiving device 200. Then, in order to distinguish the code image D 3 of the second frame and the third frame from the code image D 3 of the first frame and the fourth frame, it is denoted by the timing mark D 2 in the transmitting apparatus 100. Then, the receiving apparatus 200, and whether the determination is a code image D 3 of the first frame and the fourth frame or a code image D 3 of the second frame and third frame based on the timing mark D 2 .
 上記のように、第2フレーム及び第3フレームは受信装置200での復号に用いられるものである。そのため、これらのフレームを「ボディフレーム」とよぶ。ボディフレームの前後のフレーム(第1フレーム及び第2フレーム)を、それぞれ前側及び後側の「ガードフレーム」とよぶ。また、ボディフレームが現れる期間をボディ期間とよぶ。また、ガードフレームが現れる期間をガード期間とよぶ。図4(A)では、ボディ期間は2フレームの期間Tである。また、ガード期間は、最初の1フレーム期間Tt1及び最後の1フレーム期間Tt2である。 As described above, the second frame and the third frame are used for decoding by the receiving apparatus 200. Therefore, these frames are called “body frames”. The front and rear frames (first frame and second frame) of the body frame are referred to as front and rear “guard frames”, respectively. The period in which the body frame appears is called the body period. A period in which the guard frame appears is called a guard period. In FIG. 4 (A), the body period is a period T e of the two frames. The guard period is the first one frame period T t1 and the last one frame period T t2 .
<受信装置200の構成>
 図5は、実施の形態1における受信装置200の構成を概略的に示すブロック図である。図5で示す受信装置200は、撮像部202、マーク認識部210、画像切出し部220及びコード復号部230を備える。また、受信装置200は、映像バッファ204、読出し部206、分離部208、合成部242及び受信データ記憶部244を備えることができる。
<Configuration of receiving apparatus 200>
FIG. 5 is a block diagram schematically showing a configuration of receiving apparatus 200 in the first embodiment. The receiving apparatus 200 illustrated in FIG. 5 includes an imaging unit 202, a mark recognition unit 210, an image cutout unit 220, and a code decoding unit 230. In addition, the receiving device 200 can include a video buffer 204, a reading unit 206, a separating unit 208, a combining unit 242, and a received data storage unit 244.
 撮像部202は、送信装置100の表示部130の表示画面131を撮像する。そして、撮像部202は、この表示画面131に表示された映像の、赤色、緑色及び青色の成分値を表す映像データDを生成する。つまり、撮像部202は、この表示画面131に表示された映像(合成映像D63)の、赤色の成分の映像データ、緑色の成分の映像データ及び青色の成分の映像データを生成する。撮像部202により生成される映像データDは、合成映像D63に対応した一連のフレームのデータである。撮像部202により生成される各フレームの映像データDは、赤色の成分値、緑色の成分値及び青色の成分値を表すデータから成る。
 赤色の成分値、緑色の成分値及び青色の成分値を表すデータは、例えば、それぞれ赤色の色フィルタ、緑色の色フィルタ及び青色の色フィルタを備えた光電変換素子によって生成される。
The imaging unit 202 images the display screen 131 of the display unit 130 of the transmission device 100. Then, the imaging unit 202 generates video data D 7 representing red, green, and blue component values of the video displayed on the display screen 131. That is, the imaging unit 202 generates red component video data, green component video data, and blue component video data of the video (composite video D 63 ) displayed on the display screen 131. The video data D 7 generated by the imaging unit 202 is a series of frame data corresponding to the composite video D 63 . The video data D 7 of each frame generated by the imaging unit 202 includes data representing a red component value, a green component value, and a blue component value.
Data representing the red component value, the green component value, and the blue component value is generated by, for example, a photoelectric conversion element including a red color filter, a green color filter, and a blue color filter, respectively.
 なお、送信装置100の表示部130に表示される画像は、撮像部202の撮像面に結像しているものとする。例えば、表示部130の表示画面131までの距離が分かっており、表示部130の表示画面131に合焦されている。或いは、撮像部202にオートフォーカス機能が備わっているものとする。 Note that an image displayed on the display unit 130 of the transmission device 100 is formed on the imaging surface of the imaging unit 202. For example, the distance to the display screen 131 of the display unit 130 is known and the display screen 131 of the display unit 130 is focused. Alternatively, it is assumed that the imaging unit 202 has an autofocus function.
 映像バッファ204は、撮像部202から出力される一連のフレームから成る映像データDを蓄積する。この映像データDの蓄積は、送信装置100の表示部130に表示された、1つのデータファイルDに対応する映像を構成するすべてのフレーム(合成映像D63の全てのフレーム)の撮像が終わるまで続けられる。映像データDの蓄積が終わった時点では、データファイルDを構成する一連のフレームのデータ(合成映像D63の全てのフレーム)が記憶された状態となる。 The video buffer 204 stores video data D 7 composed of a series of frames output from the imaging unit 202. The accumulation of the video data D 7 is performed by imaging all the frames (all frames of the composite video D 63 ) constituting the video corresponding to one data file D 0 displayed on the display unit 130 of the transmission device 100. Continue until the end. At the time of storing the image data D 7 is finished, the state where data of a series of frames constituting the data file D 0 (all frames of the composite video D 63) is stored.
 読出し部206は、映像バッファ204に蓄積された1つのデータファイルDに対応する映像を構成する一連のフレームのデータDを順次読み出して出力する。即ち、読出し部206は、1つのデータファイルDのデータを1フレームずつ映像バッファ204から読み出してフレームのデータDとして出力する。 The reading unit 206 sequentially reads out and outputs a series of frames of data D 8 constituting a video corresponding to one data file D 0 stored in the video buffer 204. That is, the reading unit 206 outputs one data of the data file D 0 as data D 8 of the frame is read from one frame by the video buffer 204.
 分離部208は、読出し部206により読み出された各フレームのデータDを、緑色の成分値のデータD9G(緑チャンネルのデータ)と、赤色の成分値のデータD9R(赤チャンネルのデータ)と、青色の成分値のデータD9B(青チャンネルのデータ)とに分離する。分離部208は、緑色の成分値のデータD9Gをマーク認識部210に与える。分離部208は、赤色の成分値のデータD9R及び青色の成分値のデータD9Bを画像切出し部220に与える。 The separation unit 208 converts the data D 8 of each frame read by the reading unit 206 into green component value data D 9G (green channel data) and red component value data D 9R (red channel data). ) And blue component value data D 9B (blue channel data). The separation unit 208 gives the green component value data D 9G to the mark recognition unit 210. The separation unit 208 supplies the image component 220 with red component value data D 9R and blue component value data D 9B .
 マーク認識部210は、分離部208から与えられた緑色の成分の映像(緑色の成分のデータD9G)からタイミングマークDを検出する。マーク認識部210は、タイミングマークDを検出する検出部として機能する。
 マーク認識部210は、タイミングマークDが検出されたタイミングを、コード画像Dを正しく読み込むことができるタイミングであると認識する。つまり、マーク認識部210は、タイミングマークDを検出すると、コード画像Dを正しく読み込めると認識する。
The mark recognizing unit 210 detects the timing mark D 2 from the green component image (green component data D 9G ) given from the separating unit 208. Mark recognition unit 210 functions as a detection unit for detecting a timing mark D 2.
Mark recognition unit 210 recognizes that the timing of the timing mark D 2 is detected, a timing that can read the code image D 3 correctly. That is, the mark recognition unit 210 recognizes detects the timing mark D 2, and read the code image D 3 correctly.
 ここで言う「タイミング」は、例えば、フレーム毎のタイミングであっても良い。
また、表示画面のライン毎のタイミングであっても良い。ここで「ライン」とは、点順次走査方式における主走査線方向に延びた画素の列を意味し、線順次走査方式におけるラインを意味する。
The “timing” here may be, for example, a timing for each frame.
Moreover, the timing for each line of the display screen may be used. Here, “line” means a column of pixels extending in the main scanning line direction in the dot sequential scanning method, and means a line in the line sequential scanning method.
 マーク認識部210は、タイミングマークDが検出されたタイミングで、画像切出し部220に画像の切り出しを指示する。マーク認識部210は、画像切出し部220に画像の切り出し信号D10を与える。 Mark recognition unit 210 at the timing of the timing mark D 2 is detected, it instructs the cutout image in the image clipping unit 220. Mark recognition unit 210 provides the image clipping signal D 10 of the image clipping unit 220.
 画像切出し部220は、マーク認識部210からの指示(画像の切り出し信号D10)に応じて、予め定められた色成分の映像からコード画像Dを切り出す。例えば、実施の形態1では、赤色の成分のデータD9R及び青色の成分値のデータD9Bにコード画像Dが表わされている。この、コード画像Dが表わされている赤色の成分のデータD9R及び青色の成分値のデータD9Bが、予め定められた色成分の映像である。即ち、画像切出し部220は、マーク認識部210がタイミングマークDを検出したタイミングで、予め定められた色成分の映像からコード画像Dを切り出す。画像切出し部220は、第1切出し部222Aと、第2切出し部222Bとを備える。
 第1切出し部222Aは、マーク認識部210から赤色の成分のデータD9Rを受け取る。第1切出し部222Aは、マーク認識部210から指示されたタイミングで、分離部208から与えられた赤色の成分のデータ(映像)D9Rから、第1コード画像を切り出す。
 第2切出し部222Bは、マーク認識部210から青色の成分のデータD9Bを受け取る。第2切出し部222Bは、マーク認識部210から指示されたタイミングで、分離部208から与えられた青色の成分のデータ(映像)D9Bから、第2コード画像を切り出す。
Image clipping unit 220, in response to an instruction from the mark recognition unit 210 (cut signal D 10 of the image), cut out the code image D 3 from a video of a predetermined color component. For example, in the first embodiment, the code image D 3 is represented in the red component data D 9R and the blue component value data D 9B . The red component data D 9R and the blue component value data D 9B representing the code image D 3 are images of predetermined color components. That is, the image clipping unit 220, at the timing when the mark recognition unit 210 detects the timing mark D 2, cuts out the code image D 3 from a video color components determined in advance. The image cutout unit 220 includes a first cutout unit 222A and a second cutout unit 222B.
The first cutout portion 222A receives the data D 9R red components from the mark recognition unit 210. The first cutout unit 222A cuts out the first code image from the red component data (video) D9R given from the separation unit 208 at the timing instructed by the mark recognition unit 210.
The second cutout portion 222B receives the data D 9B of the blue component from the mark recognition unit 210. The second cutout unit 222B cuts out the second code image from the blue component data (video) D9B given from the separation unit 208 at the timing instructed by the mark recognition unit 210.
 コード復号部230は、画像切出し部220で切り出されたコード画像Dを復号して元のデータを復元する。即ち、コード復号部230は、コード画像Dから、これに対応する図形コードを生成する。そして、コード復号部230は、さらに図形コードを、これに対応するデータに変換する。これにより、コード復号部230は、撮像されたコード画像Dで表されているデータ(データファイルD)を取得する。コード復号部230は、第1復号部232Aと、第2復号部232Bとを備える。 Code decoder 230 decodes the code image D 3 cut out by the image clipping unit 220 to restore the original data. That is, the code decoder 230, from the code image D 3, and generates a graphic code corresponding thereto. The code decoding unit 230 further converts the graphic code into data corresponding thereto. As a result, the code decoding unit 230 acquires data (data file D 0 ) represented by the captured code image D 3 . The code decoding unit 230 includes a first decoding unit 232A and a second decoding unit 232B.
 第1復号部232Aは、第1切出し部222Aから第1コード画像D11Rを受け取る。第1復号部232Aは、第1切出し部222Aで切り出された第1コード画像D11Rを復号して、対応する色単位の復号済みデータD12Rを復元する。即ち、第1復号部232Aは、第1コード画像D11Rに対応する第1図形コードを生成する。ここで、色単位の復号済みデータD12Rは、1フレーム分のデータである。そして、第1復号部232Aは、生成された第1図形コードを、これに対応する色単位の復号済みデータD12Rに変換する。この復元により、第1コード生成部116Aにおけるコード画像D31の生成から第1復号部232Aにおける復号までの処理に誤りがなければ、第1コード生成部116Aに入力された第1データユニットD51と同じものが生成される。 The first decoding unit 232A receives the first code image D 11R from the first cutout portion 222A. The first decryption unit 232A decrypts the first code image D 11R cut out by the first cutout portion 222A, restores the decoded data D 12R of the corresponding color units. That is, the first decoding unit 232A generates a first graphic code corresponding to the first code image D11R . Here, the decoded data D12R in units of color is data for one frame. Then, the first decoding unit 232A converts the generated first graphic code into decoded data D12R in color units corresponding thereto. This restoration, the first data unit D 51 entered if there is no error, the first code generating unit 116A to the process from the generation of the code image D 31 in the first code generating unit 116A to decoding in the first decoding unit 232A Will produce the same.
 第2復号部232Bは、第2切出し部222Bから第2コード画像D11Bを受け取る。第2復号部232Bは、第2切出し部222Bで切り出された第2コード画像D11Bを復号して、対応する色単位の復号済みデータD12Bを復元する。即ち、第2復号部232Bは、第2コード画像D11Bに対応する第2図形コードを生成する。ここで、色単位の復号済みデータD12Bは、1フレーム分のデータである。そして、第2復号部232Bは、生成された第2図形コードを、これに対応する色単位の復号済みデータD12Bに変換する。この復元により、第2コード生成部116Bにおけるコード画像D32の生成から第2復号部232Bにおける復号までの処理に誤りがなければ、第2コード生成部116Bに入力された第2データユニットD52と同じものが生成される。 Second decoding unit 232B receives the second code image D 11B from the second cutout portion 222B. Second decoding unit 232B decodes the second code image D 11B cut out in the second cutout portion 222B, restores the decoded data D 12B of the corresponding color units. That is, the second decoding unit 232B generates a second graphic code corresponding to the second code image D 11B. Here, the decoded data D12B in units of color is data for one frame. Then, the second decoding unit 232B converts the generated second graphic code into decoded data D12B in color units corresponding thereto. If there is no error in the process from the generation of the code image D 32 in the second code generation unit 116B to the decoding in the second decoding unit 232B by this restoration, the second data unit D 52 input to the second code generation unit 116B. Will produce the same.
 このような変換のため、第1復号部232A及び第2復号部232Bは、送信装置100の第1コード生成部116A及び第2コード生成部116Bにおいて、コード画像D31,D32の生成の際に用いられる変換の規則を復号データD12R,D12Bの復号に適用する。 For such conversion, the first decoding unit 232A and the second decoding unit 232B are configured to generate the code images D 31 and D 32 in the first code generation unit 116A and the second code generation unit 116B of the transmission device 100. The conversion rules used in the above are applied to the decoding of the decoded data D 12R and D 12B .
 合成部242は、第1復号部232A及び第2復号部232Bから出力される色単位の復号済みデータD12R,D12Bを組み合わせる。合成部242は、これらの色単位の復号済みデータD12R,D12Bを合成し、1ショット分の転送データD13を復元する。
 受信データ記憶部244は、合成部242で復元された1ショット分(1フレーム分)の転送データD13を記憶する。記憶される転送データD13は、同じデータファイルDのそれ以前に記憶された転送データD13と連結される。
 上記の処理が繰り返されることで、受信データ記憶部244には、1つのデータファイルDのすべてのデータが蓄積される。
The synthesizing unit 242 combines the decoded data D 12R and D 12B in units of colors output from the first decoding unit 232A and the second decoding unit 232B. The synthesizing unit 242 synthesizes the decoded data D 12R and D 12B in units of colors and restores the transfer data D 13 for one shot.
The reception data storage unit 244 stores the transfer data D 13 for one shot (one frame) restored by the combining unit 242. Transfer data D 13 to be stored may be connected to the transfer data D 13 to which it was previously stored in the same data file D 0.
By the above process is repeated, the received data storage unit 244, one of all the data in the data file D 0 is stored.
<受信装置200の撮像処理>
 以下では簡単のため、フレーム毎に判定を行うものとし、タイミングマークDの全体が正しく検出されたフレーム内のコード画像Dのみを復号に用いるものとして説明する。また、以下では、図6に示す画像を読み取る例で受信装置200の動作を説明する。
<Imaging Process of Receiving Device 200>
For simplicity in the following, it is assumed for determining for each frame will be described only the code image D 3 in the frame overall timing mark D 2 has been correctly detected as being used in decoding. In the following, the operation of the receiving apparatus 200 will be described using an example of reading the image shown in FIG.
 タイミングマークD全体を正しく判別することは、タイミングマークDの形状に関する規則を予め送信装置100と受信装置200とで共有しておくことで可能である。
 以下この点を図6の一例に関して説明する。図6は、タイミングマークDの画像の各部の寸法の一例を示す図である。なお、図3では、色成分の画像にタイミングマークDの画像を表わしたが、図6では、全ての色成分の画像にタイミングマークDの画像を表わしている。また、全ての色成分の画像に1つのコード画像D11を表わしている。このため、タイミングマークDの画像及びコード画像D11は、例えば、黒色の画像として表示部130に表示される。図6のように黒色の画像を用いる場合には、送信装置100のコード生成部116は1つでよい。また、受信装置200の画像切出し部220は、1つの切出し部222を有するだけでよい。
It is possible by keeping shared by the previously transmitting apparatus 100 the rules relating to the shape of the timing mark D 2 and the reception apparatus 200 to correctly determine the overall timing mark D 2.
This point will be described below with reference to an example of FIG. Figure 6 is a diagram showing an example of the dimensions of each part of the timing mark D 2 of the image. In FIG. 3, but showing the image of the timing mark D 2 to an image of a color component, in FIG. 6 represent the image of the timing mark D 2 to an image of all color components. Also, it represents one of the code image D 11 to an image of all color components. Therefore, the image and the code image D 11 of the timing mark D 2, for example, is displayed on the display unit 130 as a black image. When a black image is used as illustrated in FIG. 6, the transmission apparatus 100 may have only one code generation unit 116. Further, the image cutout unit 220 of the receiving apparatus 200 only needs to have one cutout unit 222.
 図6の例では、タイミングマークDは、コード領域Acdの両側に位置する、2本の互いに並行な黒色の帯状の領域St,Stで示されている。この領域St,Stの幅は、互いに等しく寸法Wstである。また領域St,Stの相互間の間隔Sepは、領域の幅Wstの6倍である。また、帯状の領域St,Stの高さ方向は、点順次走査方式の副走査方向、或いは線順次走査方式の走査方向(ラインに直交する方向)に一致する。さらに、領域St,Stの高さHghは、幅Wstの4倍である。表示される画像がこのような寸法関係を有する場合には、マーク認識部210は、撮影によって得られた画像中のタイミングマークDが、上記と同じ寸法関係を有するか否か(違いが許容範囲内か否か)を判定する。これにより、受信装置200はタイミングマークDの全体が正しく取得されたか否かの判定することができる。例えば、受信装置200の撮影により得られた画像において、帯状の領域St,Stの高さが幅の4倍よりも短ければ、マーク認識部210は、タイミングマークDの全体が正しく撮影されていないと判定することができる。 In the example of FIG. 6, the timing mark D <b> 2 is shown by two mutually parallel black belt-shaped areas St a and St b located on both sides of the code area Acd. The widths of the regions St a and St b are equal to each other and have the dimension Wst. The interval Sep between the regions St a and St b is 6 times the width Wst of the region. Further, the height direction of the band-shaped regions St a and St b coincides with the sub-scanning direction of the dot sequential scanning method or the scanning direction (direction orthogonal to the line) of the line sequential scanning method. Furthermore, the height Hgh of the regions St a and St b is four times the width Wst. Acceptable if the image to be displayed has such a dimensional relationship, the mark recognition unit 210, the timing marks D 2 in the image obtained by the photographing, whether they have the same dimensional relationships as the (difference Or not). Thus, the receiving apparatus 200 can determine whether the whole of the timing mark D 2 has been correctly acquired. For example, in an image obtained by photographing of the receiving device 200, strip-shaped area St a, is shorter than 4 times the height of the St b is the width, mark recognition unit 210, the overall timing mark D 2 is correct shooting It can be determined that it has not been done.
 図7(A)、図7(B)及び図7(C)は、上記のようにマーク認識部210がタイミングマークDを検出したタイミングで画像切出し部220が画像の切出しを行なう処理を示す。図7(A)は、図4(A)と同じものを示す。図7(B)は、図4(B)及び図4(C)に対応するものを示す。つまり、図7(A)は、タイミングマークDを表わしている。図7(B)は、コード画像Dを表わしている。つまり、図7(A)~図7(C)の説明では、図6の画像を用いて説明する。このため、各色成分のデータにはコード画像D(コード領域Acd)及びタイミングマークD(領域St,St)が表示されている。図7(C)は、撮像部202によって撮影されたフレームを表わしている。図7(C)には、撮像部202により撮影された各フレームに対して、説明のための符号Pを付している。「n」はフレームの番号を表わし、図7(C)では1~14で示している。
 図7(A)における縦方向の点線は、図4(A)~図4(C)と同じく、表示部130による表示のフレーム期間Tの区切りを示す。一方、図7(B)及び図7(C)における縦方向の点線は、撮像部202による撮像のフレーム期間Tの区切りを示している。従って、図7(B)及び図7(C)における縦方向の線相互間の間隔Tは、撮像のフレーム期間(周期)の長さを表す。
Figure 7 (A), FIG. 7 (B) and FIG. 7 (C) showing a process of the image clipping unit 220 at the timing when the mark recognition unit 210 as described above detects the timing mark D 2 performs the clipping of the image . FIG. 7A shows the same thing as FIG. FIG. 7 (B) shows what corresponds to FIG. 4 (B) and FIG. 4 (C). That is, FIG. 7 (A) represents a timing mark D 2. FIG. 7 (B) represents a code image D 3. That is, in the description of FIGS. 7A to 7C, description will be made using the image of FIG. Therefore, the code image D 3 (code area Acd) and the timing mark D 2 (areas St a , St b ) are displayed in the data of each color component. FIG. 7C shows a frame shot by the imaging unit 202. In FIG. 7C, a reference symbol P n is attached to each frame photographed by the imaging unit 202. “N” represents a frame number, which is indicated by 1 to 14 in FIG.
The dotted line in the vertical direction in FIG. 7A indicates a break of the frame period T t of the display by the display unit 130 as in FIGS. 4A to 4C. On the other hand, a vertical dotted line in FIGS. 7B and 7C indicates a break of the frame period Tr of the imaging by the imaging unit 202. Accordingly, the interval Tr between the vertical lines in FIGS. 7B and 7C represents the length of the imaging frame period (cycle).
 図7(A)~図7(C)に示す例では、撮像部202による撮像のフレームの周期(撮像のフレーム期間T)が表示部130による表示のフレーム周期(表示のフレーム期間T)に対して長さが0.9倍である場合を想定している。
 図7(C)の撮像のフレーム期間Tのうち、3番目のフレームPの期間では、その全ての表示期間にわたり、タイミングマークD201が表示されている。このため、対応するフレームPの期間のコード画像D301が切り出される。同様に、第7番目のフレームP及び第8番目のフレームPでは、それらの全ての表示期間にわたり、タイミングマークD202が表示されている。このため、対応するフレームP,Pの期間のコード画像D302が切り出される。同様に、第12番目のフレームP12では、その全ての表示期間にわたり、タイミングマークD203が表示されている。このため、対応するフレームP12の期間の第1コード画像D313が切り出される。
In the example shown in FIGS. 7A to 7C, the period of the frames taken by the imaging unit 202 (frame period T r of imaging) is the frame period of display by the display unit 130 (frame period T t of display). It is assumed that the length is 0.9 times as large as.
In the period of the third frame P 3 in the imaging frame period Tr of FIG. 7C, the timing mark D 201 is displayed over the entire display period. Therefore, the code image D 301 of the corresponding period of the frame P 3 is cut out. Similarly, in the seventh frame P 7 and the eighth frame P 8 , the timing mark D 202 is displayed over all the display periods. For this reason, the code image D 302 in the period of the corresponding frames P 7 and P 8 is cut out. Similarly, in the 12-th frame P 12, over all of the display periods, a timing mark D 203 are displayed. For this reason, the first code image D 313 in the period of the corresponding frame P 12 is cut out.
 上記の例のように、撮像のフレーム期間T(周期)が表示のフレーム期間T(周期)と異なる場合には、表示の各フレームのうちのどのフレームの画像が切出されるかは一定しない。つまり、どの表示のフレーム期間Ttの画像が切出されるかは一定しない。
 どのコード画像D301,D302,D303も確実に読み出されるようにするには、各合成映像D62において、タイミングマークD201,D202,D203を付したコード画像D301,D302,D303が表示されるフレーム(ボディフレーム)の数を2以上とするのが望ましい。表示フレームのフレームレート(1/T)よりも撮像フレームのフレームレート(1/T)のほうが低い場合には、各合成映像D62におけるボディフレームの数を一層多くするのが望ましい。なお、合成映像D62は、合成部122が複数の合成画像D61を連結して作成したものである。合成映像D62は、1つのコード画像Dを表示する映像である。
As in the above example, when the imaging frame period T r (cycle) is different from the display frame period T t (cycle), it is constant which frame image of each display frame is cut out. do not do. That is, it is not constant which display frame period Tt image is cut out.
In order to ensure that any code image D 301 , D 302 , D 303 is read out reliably, in each synthesized video D 62 , code images D 301 , D 302 , D 203 with timing marks D 201 , D 202 , D 203 are added. It is desirable that the number of frames (body frames) in which D 303 is displayed be two or more. When the frame rate (1 / T r ) of the imaging frame is lower than the frame rate (1 / T t ) of the display frame, it is desirable to increase the number of body frames in each composite video D 62 . Incidentally, composite video D 62 is for synthesizing unit 122 is created by connecting a plurality of synthetic images D61. Composite video D 62 is an image for displaying a single code image D 3.
 上記の一例のコード画像D302のように、複数の撮像のフレームPnのコード画像D11が切出された場合には、コード画像D11を復号することで得られる色単位の復号済み復号データD12(各画素の画素値を表すデータ)は、例えば、その平均を取る処理を行うことができる。また、いずれか一方(例えば先頭のもの)を選択するなどの処理を行うことができる。 As in the above example of the code image D 302, if the code image D 11 of the frame Pn of the plurality of captured were cut out, the decoded decode data of the color unit obtained by decoding the code image D 11 For D 12 (data representing the pixel value of each pixel), for example, a process of taking an average thereof can be performed. In addition, it is possible to perform processing such as selecting either one (for example, the top one).
<送信装置100の表示処理方法>
 次に、図8及び図9を参照して、送信装置100において行われる、送信データDに基づいて映像を表示する処理の手順を説明する。図8は、送信装置100において、転送データに基づいて映像を表示する動作を示すフローチャートである。図9は、ステップS12の詳細を示すフローチャートである。
 図8に示される処理は、送信装置100において、予め定められたプログラムに基づいて開始される。例えば、図8に示される処理は、受信装置200にデータの送信を行うための送信プログラムが起動され、送信データ記憶部102に記憶されている複数のデータファイルDのうちの一つが選択されたときに開始される。
<Display processing method of transmitting apparatus 100>
Next, with reference to FIGS. 8 and 9, it is performed in the transmitting apparatus 100, the procedure of the processing for displaying an image based on the transmission data D 1. FIG. 8 is a flowchart showing an operation of displaying video based on transfer data in the transmission apparatus 100. FIG. 9 is a flowchart showing details of step S12.
The process shown in FIG. 8 is started in transmission apparatus 100 based on a predetermined program. For example, in the process shown in FIG. 8, a transmission program for transmitting data to the receiving device 200 is activated, and one of the plurality of data files D 0 stored in the transmission data storage unit 102 is selected. Will start when.
 図8の処理が開始されると、ステップS11において、読出し部112は、選択したデータファイルDを複数のデータ部分(ショット)に分割する。
 次にステップS12において、ステップS11における分割で生成された複数のデータ部分の一つを選択し、選択したデータ部分(1ショット分のデータ)に対する処理を行う。ここで言う「処理」とは、上述のデータ分割部114、マーク生成部106、コード生成部116及び合成部122で行われる処理のことである。
データ分割部114、マーク生成部106、コード生成部116及び合成部122で行われる処理に関しては、図9で説明する。
When the process of FIG. 8 is started, in step S11, the read unit 112 divides the data file D 0 that was selected plurality of data portions (shots).
Next, in step S12, one of the plurality of data parts generated by the division in step S11 is selected, and the selected data part (data for one shot) is processed. “Processing” here refers to processing performed by the data dividing unit 114, the mark generation unit 106, the code generation unit 116, and the synthesis unit 122 described above.
The processing performed by the data dividing unit 114, the mark generating unit 106, the code generating unit 116, and the combining unit 122 will be described with reference to FIG.
 次にステップS13において、読出し部112は、選択されたデータファイルDのすべてのデータ部分の読出しが終わったか否かの判定を行う。読出し部112のデータファイルDのすべてのデータ部分の読出しが終わったとの判定は、例えば、データファイルDから1ショット分のデータを順次読み出し、データファイルDの終端に達した時にされる。または、読出し部112のデータファイルDのすべてのデータ部分の読出しが終わったとの判定は、例えば、データファイルDを分割して、メモリ上などに一時的に格納しておき、データ部分の読出し処理が済んだデータは消去し、一時的な格納場所のデータが全て無くなった時にされる。なお、データの消去は、データを移動させること、又はデータに処理済マークを付けること等で代替できる。
 ステップS13で、すべてのデータ部分の読出しが終わっていないと判定されたとき(S13でYESのとき)は、ステップS11に戻り、次のデータ部分を選択し、それ以降ステップS12、ステップS13の処理を繰り返す。
 このような処理の繰り返しにより、映像バッファ126に映像を構成する一連のフレームのデータが蓄積されていく。
In step S13, the read unit 112, it is determined whether or not finished reading of all the data portions of the data file D 0 that is selected. Determining that the reading of all the data portions ended data file D 0 of the read unit 112 is, for example, sequentially reads out the data of one shot from the data file D 0, it is when it reaches the end of the data file D 0 . Alternatively, the determination that all the data portions of the data file D 0 of the reading unit 112 have been read is performed by dividing the data file D 0 and temporarily storing it in a memory or the like, for example. The data that has been read out is erased, and all the data in the temporary storage location is lost. Note that erasing data can be replaced by moving the data or adding a processed mark to the data.
If it is determined in step S13 that reading of all data portions has not been completed (YES in S13), the process returns to step S11 to select the next data portion, and thereafter the processing in steps S12 and S13 is performed. repeat.
By repeating such processing, a series of frame data constituting the video is accumulated in the video buffer 126.
 ステップS13で、すべてのデータ部分に対する処理が終わったと判定されたときは、ステップS14に進み、動画再生部128は、映像バッファ126に蓄積されたデータD63の出力を行う。ここで「データ部分」とは、1ショット分のデータのことである。即ち、動画再生部128が映像バッファ126から、映像を構成する一連のフレームのデータD63を順次、表示部130に動画として表示する。 In step S13, when the processing for all the data portions is determined over, the process proceeds to step S14, moving image playback unit 128 performs the output of data D 63 stored in the video buffer 126. Here, the “data portion” is data for one shot. That is, the moving image reproducing unit 128 sequentially displays the data D 63 of a series of frames constituting the video from the video buffer 126 on the display unit 130 as a moving image.
 図9は図8のステップS12の詳細を示す。
 まず、ステップS21において、データ分割部114は、ステップS11におけるデータファイルDの分割により生成された複数のデータ部分の一つ(1ショット分のデータ)を、第1の色チャンネルのデータ(第1データユニットD51)及び第2の色チャンネルのデータ(第2データユニットD52)に分割する。この分割により、各色チャンネルのデータユニットD51,D52は、一つの図形コードで表現可能なデータ量のデータとなる。
 複数の色チャンネルとしては、例えば、赤色(R)チャンネルと青色(B)チャンネルとが使用される。データ分割部114は、第1データユニットD51を第1コード生成部116Aに与える。そして、データ分割部114は、第2データユニットD52を第2コード生成部116Bに与える。
FIG. 9 shows details of step S12 of FIG.
First, in step S21, the data dividing unit 114, a single (one shot data) of a plurality of data portions generated by the division of the data file D 0 in step S11, data of the first color channel (first 1 data unit D 51 ) and second color channel data (second data unit D 52 ). By this division, the data units D 51 and D 52 of each color channel become data having a data amount that can be expressed by one graphic code.
As the plurality of color channels, for example, a red (R) channel and a blue (B) channel are used. Data dividing unit 114 provides the first data unit D 51 to the first code generating unit 116A. Then, the data dividing unit 114 provides a second data unit D 52 to the second code generating unit 116B.
 ステップS22において、第1コード生成部116Aは、データ分割部114から与えられた第1データユニットD51を第1コード画像D31に変換し、第1コード画像D31を含む画像プレーンを出力する。
 一方、ステップS23では、第2コード生成部116Bは、データ分割部114から与えられた第2データユニットD52を第2コード画像D32に変換し、第2コード画像D32を含む画像プレーンを出力する。
In step S22, the first code generation unit 116A converts the first data unit D 51 given from the data division unit 114 into the first code image D 31 , and outputs an image plane including the first code image D 31. .
On the other hand, in step S23, the second code generating unit 116B converts the second data unit D 52 supplied from the data dividing unit 114 to the second code image D 32, the image plane containing the second code image D 32 Output.
 ステップS24では、合成部122は、ステップS22で生成された第1コード画像D31を含む画像プレーンと、ステップS23で生成された第2コード画像D32を含む画像プレーンとを、それぞれ赤チャンネル及び青チャンネルに割り当てて合成し、カラー画像を生成する。つまり、ステップS24では、合成部122は、ステップS22で生成された第1コード画像D31を含む画像プレーンを赤チャンネルに割り当てる。そして、合成部122は、ステップS23で生成された第2コード画像D32を含む画像プレーンを青チャンネルに割り当てる。また、合成部122は、画像記憶部107に記憶されているタイミングマークDを含まない画像プレーンを緑チャンネルに割り当てる。そして、合成部122は、赤チャンネルに割り当てられた第1コード画像D31を含む画像プレーン、青チャンネルに割り当てられた第2コード画像D32を含む画像プレーン及び緑チャンネルに割り当てられたタイミングマークDを含まない画像プレーンを合成し、カラー画像を生成する。 In step S24, the combining unit 122 includes an image plane comprising a first code image D 31 generated in step S22, and an image plane comprising a second code image D 32 generated in step S23, each red channel and Assign to the blue channel and combine to generate a color image. That is, in the step S24, the combining unit 122 assigns image plane including a first code image D 31 generated in step S22 to the red channel. Then, the composition unit 122 assigns image plane comprising a second code image D 32 generated in step S23 to the blue channel. Further, the combining unit 122 assigns image plane which does not include a timing mark D 2 stored in the image storage unit 107 in the green channel. Then, the composition unit 122, an image plane including a first code image D 31 assigned to the red channel, the timing mark D assigned to the image plane and the green channel comprises a second code image D 32 assigned to the blue channel An image plane not including 2 is synthesized to generate a color image.
 次に、ステップS25では、ステップS24で作成されたカラー画像を、予め定められた回数、例えば1回繰り返し、1フレーム分の画像を生成して、映像バッファ126に送り、映像バッファ126に書込む。つまり、ここで映像バッファ126に書込まれる第1コード画像D31の画像プレーン、第2コード画像D32の画像プレーン及びタイミングマークDを含まない画像プレーンを合成したカラー画像は、図7(A)で示した最初の1フレーム期間Tt1の画像に相当する。ここで「定められた回数」は、図7(A)の例では1回となる。 Next, in step S25, the color image created in step S24 is repeated a predetermined number of times, for example, once, an image for one frame is generated, sent to the video buffer 126, and written into the video buffer 126. . That is, a color image obtained by combining the image plane of the first code image D 31 , the image plane of the second code image D 32 , and the image plane not including the timing mark D 2 written in the video buffer 126 is shown in FIG. This corresponds to the image of the first one frame period T t1 shown in A). Here, the “predetermined number of times” is one in the example of FIG.
 ステップS21~S25の処理と並行して、ステップS26で、タイミングマークDの画像作成を行う。 In parallel with the processing of steps S21 ~ S25, in step S26, performs image generation timing mark D 2.
 この処理のため、例えば、マーク生成部106は、予めタイミングマークDを含む画像プレーンを生成しておく。例えば、マーク生成部106は、タイミングマークDを含む画像プレーンを画像記憶部107に記憶させておく。
 そして、ステップS26では、マーク生成部106は、画像記憶部107に記憶されているタイミングマークDを含む画像プレーンを読み出して、合成部122に与える。また、タイミングマークDを含まないフレームのために、マーク生成部106は、タイミングマークDを含まない画像プレーンを画像記憶部107に記憶させておく。
For this process, for example, mark generation unit 106 previously generates an image plane containing the advance timing mark D 2. For example, the mark generator 106, allowed to store the image plane including timing mark D 2 in the image storage unit 107.
In step S < b > 26, the mark generation unit 106 reads out an image plane including the timing mark D < b > 2 stored in the image storage unit 107 and gives it to the synthesis unit 122. Also, for frame not including the timing mark D 2, the mark generator 106, allowed to store the image plane which does not include a timing mark D 2 in the image storage unit 107.
 ステップS25及びステップS26の次に、ステップS27において、合成部122は、ステップS22で生成された第1コード画像D31を含む画像プレーンと、ステップS23で生成された第2コード画像D32を含む画像プレーンと、ステップS26で生成されたタイミングマークDを含む画像プレーンとを、それぞれ赤チャンネル、青チャンネル及び緑チャンネルに割り当てて合成して、タイミングマークD付きのコードの画像Dを含むカラー画像(合成画像D61)を生成する。つまり、合成部122は、第1コード画像D31を含む画像プレーンを赤チャンネルに割り当てる。合成部122は、第2コード画像D32を含む画像プレーンを青チャンネルに割り当てる。合成部122は、タイミングマークDを含む画像プレーンを緑チャンネルに割り当てる。合成部122は、各色チャンネルを合成する。そして、合成部122は、合成画像D61を生成する。 The next step S25 and step S26, in step S27, the combining unit 122 includes an image plane comprising a first code image D 31 generated in step S22, the second code image D 32 generated in Step S23 including an image plane and an image plane including timing mark D 2 generated in step S26, each red channel synthesizes assigned to the blue channel and the green channel, the image D 3 of the timing mark D 2 with code A color image (synthesized image D 61 ) is generated. That is, the combining unit 122 assigns image plane including a first code image D 31 in the red channel. Combining unit 122 assigns image plane comprising a second code image D 32 in the blue channel. Combining unit 122 assigns image plane including timing mark D 2 in the green channel. The combining unit 122 combines the color channels. Then, the composition unit 122 generates a composite image D 61.
 次にステップS28では、ステップS27で作成された画像を予め定められた回数、例えば2回繰り返し、2フレーム分の映像を生成して、映像バッファ126に送り、映像バッファ126に書込む。この2フレームは、ステップS25で書き込まれた1フレーム分の後に続くフレームとして書き込まれる。つまり、ここで映像バッファ126に書込まれる第1コード画像D31の画像プレーン、第2コード画像D32の画像プレーン及びタイミングマークDの画像プレーンを合成したカラー画像は、図7(A)で示した2フレームの期間Tの画像に相当する。ここで「定められた回数」は、図7(A)の例では2回となる。 Next, in step S28, the image created in step S27 is repeated a predetermined number of times, for example, twice, and two frames of video are generated, sent to the video buffer 126, and written into the video buffer 126. These two frames are written as a frame subsequent to one frame written in step S25. That is, the color image obtained by combining the image plane of the first code image D 31 , the image plane of the second code image D 32 , and the image plane of the timing mark D 2 written in the video buffer 126 is shown in FIG. It corresponds to the image of the period T e of the two frames indicated by. Here, the “specified number of times” is two in the example of FIG.
 次に、ステップS29では、タイミングマークDを消去する。なお、この処理のため、マーク生成部106は、予めタイミングマークDを含まない画像プレーンを生成しておく。例えば、マーク生成部106は、タイミングマークDを含まない画像プレーンを画像記憶部107に記憶させておく。そして、ステップS29では、マーク生成部106は、画像記憶部107に記憶されているタイミングマークDを含まない画像プレーンを読み出して、合成部122に与える。 Next, in step S29, it erases the timing mark D 2. Since this process, the mark generator 106 previously generates an image plane that does not include the pre-timing mark D 2. For example, the mark generation unit 106 stores an image plane that does not include the timing mark D 2 in the image storage unit 107. In step S < b > 29, the mark generation unit 106 reads an image plane that does not include the timing mark D < b > 2 stored in the image storage unit 107, and provides the image plane to the synthesis unit 122.
 次に、ステップS30では、合成部122は、ステップS22で生成された第1コード画像D31を含む画像プレーンと、ステップS23で生成された第2コード画像D32を含む画像プレーンと、ステップS29で生成された、タイミングマークDが消去された画像プレーンとをそれぞれ赤チャンネル、青チャンネル、及び緑チャンネルに割り当てて合成し、タイミングマークDを含まず、第1コード画像D31及び第2コード画像D32を含むカラー画像を生成する。つまり、ステップS30では、合成部122は、第1コード画像D31の画像プレーン、第2コード画像D32の画像プレーン及びタイミングマークDが消去された画像プレーンを合成する。
 なお、ステップS24における合成においても、タイミングマークDが消去された画像プレーンを合成することとしても良い。つまり、画像記憶部107に記憶されているタイミングマークDを含まない画像プレーンを合成することとしても良い。
Next, in step S30, the combining unit 122 includes an image plane comprising a first code image D 31 generated in step S22, an image plane comprising a second code image D 32 generated in step S23, step S29 in generated, respectively red channel and an image plane in which the timing mark D 2 is erased, synthesized by assigning the blue channel, and green channel, free of timing marks D 2, first code image D 31 and a second generating a color image including a code image D 32. That is, in the step S30, the combining unit 122, an image plane of the first code image D 31, the image plane where the image plane and the timing marks D 2 has been erased in the second code image D 32 synthesizes.
Also in synthesis in the step S24, it is also possible to synthesize an image plane in which the timing mark D 2 is erased. That is, it is also possible to synthesize an image plane that does not include a timing mark D 2 stored in the image storage unit 107.
 次に、ステップS31では、ステップS30で作成された画像を、予め定められた回数、例えば1回繰り返し、1フレーム分の画像を生成する。そして、生成された1フレーム分の画像を映像バッファ126に送り、映像バッファ126に書込む。
この1フレーム分の画像は、ステップS28で書き込まれた2フレーム分の映像の後に続くフレームとして書き込まれる。つまり、ここで映像バッファ126に書込まれる第1コード画像D31の画像プレーン、第2コード画像D32の画像プレーン及びタイミングマークDが消去された画像プレーンを合成したカラー画像は、図7(A)で示した最後の1フレーム期間Tt2の画像に相当する。ここで「定められた回数」は、図7(A)の例では1回となる。このステップS30の処理は上記のステップS25の処理と同様である。
Next, in step S31, the image created in step S30 is repeated a predetermined number of times, for example, once to generate an image for one frame. Then, the generated image for one frame is sent to the video buffer 126 and written into the video buffer 126.
The image for one frame is written as a frame following the video for two frames written in step S28. In other words, the color image obtained by combining the image plane of the first code image D 31 , the image plane of the second code image D 32 , and the image plane from which the timing mark D 2 is erased is written in the video buffer 126 here. This corresponds to the image of the last one frame period T t2 shown in (A). Here, the “predetermined number of times” is one in the example of FIG. The process in step S30 is the same as the process in step S25.
 合成画像D61の映像バッファ126上への格納方式はいくつかある。ここでは、映像バッファ126は、例えば、フレーム数又は実際の画像データへの参照情報等を含む管理領域と画像データが実際に格納されるバッファ領域とを持っている。 There are several methods for storing the composite image D 61 on the video buffer 126. Here, the video buffer 126 has, for example, a management area including the number of frames or reference information to actual image data, and a buffer area in which image data is actually stored.
 フレームを連結する場合には、管理領域の情報から現在のバッファ領域に格納済みの画像の終端アドレスを読み出す。そして、その格納済みの画像の後ろに追加するフレームのデータをコピーする。その後、管理領域内のデータを1フレーム分追加した形で更新する。 When linking frames, the end address of the image stored in the current buffer area is read from the management area information. Then, the data of the frame to be added is copied after the stored image. Thereafter, the data in the management area is updated by adding one frame.
 以上のようにして映像バッファ126に書き込まれた合成映像D63を読み出して表示すると、データファイルDを構成する複数のショットは、各々4フレーム期間をかけて表示される。
 なお、上述のように、1ショットは、例えば、1つのQRコードの画像データである。また、データファイルDの容量が大きい場合には、複数のQRコードの画像データでデータが送られる。つまり、データファイルDの容量が大きい場合には、データファイルDは複数のQRコードの画像データでデータが送られ、各QRコードは、4フレーム期間をかけて表示される。
 1ショット分の表示の間に表示内容が以下のように変化する。最初の1フレーム期間Tt1では、第1コード画像D31及び第2コード画像D32のみが表示される。
それに続く2フレームの期間Tにおいては、第1コード画像D31、第2コード画像D32及びタイミングマークDが表示される。それに続く最後の1フレーム期間Tt2においては、第1コード画像D31及び第2コード画像D32のみが表示される。
When the composite video D 63 written in the video buffer 126 is read and displayed as described above, a plurality of shots constituting the data file D 0 are each displayed over a period of 4 frames.
As described above, one shot is image data of one QR code, for example. Also, when the capacity of the data file D 0 is large, the data is sent by the image data of a plurality of QR codes. That is, when the capacity of the data file D 0 is large, the data file D 0 data is sent by the image data of a plurality of QR codes, each QR code is displayed over 4-frame period.
The display content changes as follows during the display of one shot. In the first frame period T t1, only the first code image D 31 and the second code image D 32 is displayed.
In a period T e of the two frames that follows, the first code image D 31, the second code image D 32 and timing marks D 2 is displayed. In the end of one frame period T t2 subsequent, only the first code image D 31 and the second code image D 32 is displayed.
<受信装置200の撮像処理方法>
 次に、図10を参照して、受信装置200において行われる、撮像された映像データDから転送データD13を取得して、記憶する処理の手順を説明する。
<Imaging Processing Method of Receiving Device 200>
Next, with reference to FIG. 10, a procedure of processing for acquiring and storing the transfer data D 13 from the captured video data D 7 performed in the receiving apparatus 200 will be described.
 図10は、受信装置200において、撮像された映像データDから転送データD13を取得して、記憶する動作を示すフローチャートである。図10に示される処理は、受信装置200において、予め定められたプログラムに基づいて開始される。例えば、図10に示される処理は、送信装置100から送信されたデータ(合成映像D63)の受信を行うための受信プログラムが起動された場合に開始される。 10, in the receiving apparatus 200 acquires transfer data D 13 from the video data D 7 imaged is a flowchart showing the operation of storing. The process shown in FIG. 10 is started in receiving apparatus 200 based on a predetermined program. For example, the process illustrated in FIG. 10 is started when a reception program for receiving data (synthesized video D 63 ) transmitted from the transmission device 100 is activated.
 最初に、ステップS41では、撮像部202は、動画の撮影を行う。即ち、撮像部202で表示部130に表示される映像(合成映像D63)を撮影する。
 次に、ステップS42では、撮像により得られた映像データDを構成するフレームの列を、順次映像バッファ204に格納していく。撮影を終了した後、映像バッファ204に蓄積された映像データDを構成するフレームを順に読み出して、後述する処理を行う。
First, in step S41, the imaging unit 202 captures a moving image. That is, the image (synthesized image D 63 ) displayed on the display unit 130 is imaged by the imaging unit 202.
Next, in step S42, the sequence of frames constituting the video data D 7 obtained by the imaging, will be stored sequentially in the video buffer 204. After the end of recording, reading the frames constituting the video data D 7 stored in the video buffer 204 sequentially performs processing to be described later.
 まず、ステップS43において、読出し部206は、映像バッファ204から、フレームの一つを選択して、選択したフレームの画像データを読み出す。
 次にステップS44において、分離部208は、ステップS43で読み出された1フレームのデータDを、色の成分値のデータDに分離する(ステップS44)。そして、マーク認識部210は、タイミングマークDの検出を行う(ステップS45)。タイミングマークDが検出されない場合で、映像バッファ204に残りのフレームがある場合には、読出し部206は、映像バッファ204からの1フレーム読み出し(ステップS43)から繰り返す。読出し部206は、タイミングマークDが検出されるまで映像バッファ204からの1フレーム読み出し(ステップS43)を行う。
First, in step S43, the reading unit 206 selects one of the frames from the video buffer 204 and reads the image data of the selected frame.
Next, in step S44, the separation unit 208, a frame of data D 8 read in step S43, the separated data D 9 color component values (step S44). Then, mark recognition unit 210 detects the timing mark D 2 (step S45). In the case where the timing mark D 2 is not detected, if there are remaining frames in the video buffer 204, reading unit 206 repeats from 1 frame read from the video buffer 204 (step S43). Reading unit 206 performs a frame read (step S43) from the video buffer 204 to the timing mark D 2 is detected.
 即ち、ステップS44では、分離部208は、ステップS43で読み込まれた1フレームのデータDを、色チャンネル毎のデータに分離する。本実施の形態1では、赤色(R)、青色(B)及び緑色(G)の三原色が色チャンネルとして採用されている。このため、分離部208は、フレームのデータDを、赤チャンネルの画像データ(赤成分の画像データ)、青チャンネルの画像データ(青成分の画像データ)及び緑チャンネルの画像データ(緑成分の画像データ)に分離する。そして、分離部208は、赤成分の画像データを第1切出し部222Aに与え、青成分の画像データを第2切出し部222Bに与え、緑成分の画像データをマーク認識部210に与える。 That is, in step S44, the separation unit 208, the data D 8 of one frame read in step S43, the separated data for each color channel. In the first embodiment, three primary colors of red (R), blue (B), and green (G) are adopted as color channels. Thus, the separation unit 208, the data D 8 of the frame, the image data of the red channel (image data of the red component), (image data of the blue component) image data of the blue channel and the image data of the green channel (green component Image data). Then, the separation unit 208 provides the red component image data to the first cutout unit 222A, the blue component image data to the second cutout unit 222B, and the green component image data to the mark recognition unit 210.
 ステップS45では、マーク認識部210は、タイミングマークDが検出されたか否かを判断する。即ち、マーク認識部210は、ステップS44で分離された緑色の成分値のデータD9Gで表される画像にタイミングマークDが含まれているか否かの判断を行なう。ステップS44で分離された緑色の成分値のデータD9Gで表される画像にタイミングマークDが含まれていない場合(ステップS45でNO)には、ステップS57に進む。 In step S45, the mark recognition unit 210 determines whether the timing mark D 2 is detected. That is, the mark recognition unit 210, and determines whether contains timing marks D 2 to the image represented by the data D 9G of the separated green component value at step S44. In the case where the image represented by the data D 9G of the separated green component value in step S44 does not include a timing mark D 2 (NO in step S45), the process proceeds to step S57.
 タイミングマークDが検出されると(ステップS45でYES)、ステップS47,S49で、画像切出し部220は、色チャンネルごとにコード画像(色の成分値のデータD9R,D9B)が含まれるエリアを切り出す。そして、ステップSS48,S50で、コード復号部230は、コード復号を実行する。 When the timing marks D 2 is detected (YES at step S45), in step S47, S49, the image clipping unit 220 is included in each color channel code image (color component values of the data D 9R, D 9B) is Cut out the area. In steps SS48 and S50, the code decoding unit 230 executes code decoding.
 即ち、ステップS47では、第1切出し部222Aは、ステップS44で分離された赤色の成分値のデータD9Rで表される画像から、第1コード画像D11Rを切り出す。そして、ステップS48において、第1復号部232Aは、ステップS47で切り出された画像に含まれている第1コード画像D11Rを復号する。これにより、第1データユニットD51に相当する色単位の復号済み復号データD12Rを取り出す。 That is, in step S47, the first cutout unit 222A cuts out the first code image D11R from the image represented by the red component value data D9R separated in step S44. In step S48, the first decoding unit 232A decodes the first code image D11R included in the image cut out in step S47. As a result, the decoded decoded data D 12R in color units corresponding to the first data unit D 51 is extracted.
 ステップS49では、第2切出し部222Bは、ステップS44で分離された青色の成分値のデータD9Bで表される画像から、第2コード画像D11Bを切り出す。そして、ステップS50において、第2復号部232Bは、ステップS49で切り出された画像に含まれている第2コード画像D11Bを復号する。これにより、第2データユニットD52に相当する色単位の復号済み復号データD12Bを取り出す。 At step S49, the second cutout portion 222B from the image represented by the data D 9B of the separated blue component value at step S44, cut a second code image D 11B. In step S50, the second decoding unit 232B decodes the second code image D11B included in the image cut out in step S49. As a result, the decoded decoded data D 12B in color units corresponding to the second data unit D 52 is extracted.
 ステップS48及びステップS50における復号が完了すると、ステップS51で、合成部242は、色単位の復号済み復号データD12R,D12Bの合成を行う。
ステップS52で、受信データ記憶部244は、色単位の復号済み復号データD12R,D12Bの合成の結果得られた転送データD13を保存する。
When the decoding in step S48 and step S50 is completed, in step S51, the combining unit 242 combines the decoded data D 12R and D 12B in units of colors.
In step S52, the received data storage unit 244, the decoded decode data D 12R color unit, stores the transfer data D 13 obtained as a result of synthesis of D 12B.
 即ち、ステップS51では、合成部242は、ステップS48で取り出された色単位の復号済み復号データD12R(第1データユニットD51)と、ステップS48で取り出された色単位の復号済み復号データD12B(第2データユニットD52)とを合成して、転送データD13を復元する。
 ステップS52では、合成部242は、復元された転送データD13を受信データ記憶部244に送る。そして、受信データ記憶部244は、受け取った転送データD13を記憶する。
That is, in step S51, the synthesizer 242 decodes the color-unit decoded decoded data D 12R (first data unit D 51 ) extracted in step S48 and the color-unit decoded decoded data D extracted in step S48. 12B (second data unit D 52 ) is combined to restore the transfer data D 13 .
In step S52, the combining unit 242 sends the transfer data D 13 that is restored to the received data storage unit 244. The received data storage unit 244 stores the transfer data D 13 received.
 合成部242における色単位の復号済み復号データD12R,D12Bの合成においては、たとえば赤チャンネルが先行のデータD12Rであり、青チャンネルが後続のデータD12Bだとすると、すでに保存済みのデータの後ろに今回取得した赤チャンネルのデータD12Rを追加し、その後に青チャンネルデータD12Bを追加して保存する。 In the synthesis of the decoded data D 12R and D 12B in units of color in the synthesis unit 242, for example, assuming that the red channel is the preceding data D 12R and the blue channel is the succeeding data D 12B , The red channel data D 12R acquired this time is added, and then the blue channel data D 12B is added and stored.
 ステップS52の次に、ステップS53に進み、映像バッファ204に残りのフレームがあるか否かの判定を行う。残りのフレームがなければ(ステップS50でNO)、処理を終了する。残りのフレームがあれば(ステップS50でYES)、ステップS54で、読出し部206は、さらに映像バッファ204から1フレーム分のデータDを読み出す。 After step S52, the process proceeds to step S53, where it is determined whether there are any remaining frames in the video buffer 204. If there are no remaining frames (NO in step S50), the process is terminated. Any remaining frame (YES at step S50), in step S54, the reading unit 206 further reads out data D 8 for one frame from the video buffer 204.
 次に、ステップS55では、分離部208は、ステップS54で読み込まれたフレームのデータDを、色チャンネル毎の画像(色の成分値のデータD9G,D9R,D9B)に分離する。 Next, in step S55, the separation unit 208, the data D 8 of the frame read in step S54, the image of each color channel (data D 9G color component values, D 9R, D 9B) to separate.
 ステップS56では、マーク認識部210は、タイミングマークDが検出されるか(消去されたか)否かを判断する。ステップS56では、検出されていたタイミングマークDが検出されなくなったかを確認する。例えば、マーク認識部210は、ステップS55で分離された緑色の成分値のデータD9GからタイミングマークDが消去されているか否かを判断する。つまり、図7(A)で示した最後の1フレーム期間Tt2を検出する。緑色の成分値のデータD9GにタイミングマークDが残っている場合(S56でYES)には、コード画像D11R,D11Bがまだ変化していないため、分離部208は、読み出した1フレーム分のデータを廃棄して、ステップS53に戻る。
 緑色の成分値のデータD9GにタイミングマークDが残っていない場合(S56でNO)には、ステップS57に進む。
In step S56, the mark recognition unit 210, (or erased) Timing mark D 2 is either detected to determine whether. In step S56, the timing mark D 2 which has been detected to verify no longer detected. For example, the mark recognition unit 210, the timing marks D 2 from the data D 9G of the separated green component value in step S55, it is determined whether or not it is erased. That is, the last one frame period T t2 shown in FIG. 7A is detected. Because if the green is left timing mark D 2 data D 9G component values (YES in S56), the code image D 11R, is D 11B not yet changed, the separation unit 208, 1 frame read Minute data is discarded, and the process returns to step S53.
If there are no remaining timing mark D 2 (NO in S56) the data D 9G green component value, control is passed to step S57.
 ステップS57では、映像バッファ204に残りのフレームがあるか否か判定を行う。残りのフレームがあれば、ステップS43に戻る。残りのフレームが無ければ、処理を終了する。
 このようにして、映像バッファ204の映像データDがなくなるまで処理することにより、受信装置200は、転送されてきたデータ(転送データD13)を復元することができる。
In step S57, it is determined whether there are any remaining frames in the video buffer 204. If there are remaining frames, the process returns to step S43. If there are no remaining frames, the process ends.
In this way, by performing processing until the video data D 7 in the video buffer 204 is exhausted, the receiving device 200 can restore the transferred data (transfer data D 13 ).
 上記の処理により、1フレームを構成する1ショット(フレームのデータD)のうち、複数のフレームでタイミングマークDが検出された場合には、最初にタイミングマークDが検出されたフレームに含まれるコード画像D11R,D11Bのみが復号されることになる。 The above processing, of the one shot constituting one frame (data D 8 frames), if the timing mark D 2 was detected in the plurality of frames, the first frame timing mark D 2 is detected Only the included code images D 11R and D 11B are decoded.
 実施の形態1における送信装置100及び受信装置200は、以上のように構成されているため、図1に示されているように、送信装置100の表示部130と、受信装置200の撮像部202とを対向させることにより、表示部130に順次表示されるコード画像(合成画像D61)を利用して自動的に、効率よく送信データDを受信装置200に取り込ませることができる。 Since the transmission device 100 and the reception device 200 in the first embodiment are configured as described above, as illustrated in FIG. 1, the display unit 130 of the transmission device 100 and the imaging unit 202 of the reception device 200. by facing the door, can be automatically using the code image are sequentially displayed on the display unit 130 (the combined image D 61), efficiently capture the transmission data D 1 to the receiving device 200.
 また、実施の形態1においては、読み込みを自動的に行う手段を実現することによって、1つ1つのコードで表される情報の量を少なくし、コード画像を構成する一つ一つの点を大きく表示させることができる。つまり、限られたサイズの画面内で、1つのQRコードで転送しようとすると、高密度のQRコードとなってしまう。そして、一つ一つのセルを小さくする必要がある。ここで、「セル」とは、白黒パターンの最小のものを示す。そのため、QRコードを撮影する際のボケ又はブレが発生しやすくなる。複数のQRコードに分割して順次送ることにより、1つのQRコードの密度を下げることができる。このQRコードを画面に大きく表示すると、一つ一つのセルを大きくすることができる。セルが大きいと、QRコードを撮影する際のボケ又はブレの発生が抑えられる。そして、QRコードのデコードに成功する確率が高くなる。このため、撮影時の焦点のずれに対する耐性と手振れに対する耐性とを向上させることができる。言い換えると、焦点のずれ及び手振れに対する撮影時の許容度が向上する。そして、送信装置100を受信装置200に向かってかざす場合に、利用者の作業性を向上させることができる。 Further, in the first embodiment, by realizing means for automatically reading, the amount of information represented by each code is reduced, and each point constituting the code image is increased. Can be displayed. In other words, if an attempt is made to transfer with one QR code within a limited size screen, a high-density QR code is obtained. And it is necessary to make each cell small. Here, the “cell” indicates the smallest monochrome pattern. As a result, blurring or blurring when taking a QR code is likely to occur. By dividing and transmitting sequentially to a plurality of QR codes, the density of one QR code can be lowered. When this QR code is displayed large on the screen, each cell can be enlarged. If the cell is large, the occurrence of blurring or blurring when taking a QR code is suppressed. The probability of successful decoding of the QR code increases. For this reason, it is possible to improve resistance to defocusing and resistance to camera shake during shooting. In other words, the tolerance at the time of shooting with respect to defocus and camera shake is improved. Then, when the transmission device 100 is held up toward the reception device 200, the workability of the user can be improved.
 実施の形態1のように、複数の色チャンネルを利用して、コード画像Dと独立してタイミングマークDを送る場合には、例えば、タイミングマークDは、少なくともコード画像Dの描画範囲(コード領域)の全体を占める画像として表すことができる。そして、タイミングマークDは、均一な画像として表すことができる。「均一な画像」とは、例えば、図3に示す矩形の領域(クロスハッチングで示す領域)全体に最大の階調値で表わした画像である。図3に示した例では、コード画像D31,D32の描画範囲と、タイミングマークDの占める範囲とが一致している。送信装置100の表示部130と、受信装置200の撮像部202との走査方式の関係で、撮影された1枚1枚のフレームでは、表示部130の画面が切り換わる瞬間等で、部分的に前後の画像が混ざってしまう等の不完全な映像が撮影されてしまうことがある。このため、タイミングマークDをコード画像D31,D32の全体を含む均一な画像として表すことで、タイミングマークD全体が欠けることなく読み込まれている場合には、コード画像D31,D32も全体が正しく読み込まれているとみなすことができる。 As in the first embodiment, by using a plurality of color channels, when independently of the code image D 3 sends to the timing mark D 2, for example, the timing mark D 2 is at least drawing code image D 3 It can be represented as an image that occupies the entire range (code region). The timing mark D 2 can be expressed as a uniform image. “Uniform image” is, for example, an image represented by the maximum gradation value in the entire rectangular area (area shown by cross-hatching) shown in FIG. In the example shown in FIG. 3, the drawing range of the code images D 31 and D 32 and the range occupied by the timing mark D 2 are the same. Due to the scanning system relationship between the display unit 130 of the transmission device 100 and the imaging unit 202 of the reception device 200, a part of the captured frame is displayed at the moment when the screen of the display unit 130 is switched. An incomplete video such as a mixture of previous and subsequent images may be taken. For this reason, when the timing mark D 2 is represented as a uniform image including the entire code images D 31 and D 32 , and the entire timing mark D 2 is read without being lost, the code images D 31 and D 32 can be regarded as being read correctly.
 なお、上記の例では、タイミングマークD付きのコード画像D31,D32が連続して表示される期間(ボディ期間)が2フレーム期間である。そして、ボディ期間の前後の、タイミングマークD無しのコード画像D31,D32が表示される期間(ガード期間)がそれぞれ1フレーム期間である。しかし、ボディ期間の長さ(フレーム数)及びガード期間の長さ(フレーム数)は、種々の条件に応じて決められるべきであり、実施の形態1の発明は、上記の例に限定されない。 In the above example, the period (body period) in which the code images D 31 and D 32 with the timing mark D 2 are continuously displayed is a two-frame period. A period (guard period) during which the code images D 31 and D 32 without the timing mark D 2 are displayed before and after the body period is one frame period. However, the length of the body period (number of frames) and the length of the guard period (number of frames) should be determined according to various conditions, and the invention of Embodiment 1 is not limited to the above example.
 タイミングマークDは、上記のものに限られるわけではない。また、タイミングに余裕があれば、タイミングマークDの欠けをチェックする(タイミングマークDの全体が撮像されたか否かの確認をする)必要はなくなる。そして、さらに、タイミングマークDの形状の決定に関する自由度は高くなる。タイミングの余裕は、表示のフレームレートに対して撮像のフレームレートが高いほど大きくなる。また、ガードフレームの数及びボディフレームの数が多いほど大きくなる。また、例えば、タイミングマークDは、画面全体を一定の色に塗りつぶしたマーク、一様な模様で埋め尽くしたマーク、円形のマーク、多重円のマーク、四角のマーク又は四角形の周りをさらに四角く囲んだ縁取りつきのマーク等を採用することができる。 Timing mark D 2 is not limited to those described above. Further, if there is room in the timing to check chipping timing mark D 2 (overall timing mark D 2 is a confirmation of whether or captured) it becomes unnecessary. Then, further, the degree of freedom relating to the determination of the shape of the timing mark D 2 is higher. The timing margin increases as the imaging frame rate increases with respect to the display frame rate. Also, the larger the number of guard frames and the number of body frames, the larger. Further, for example, the timing mark D 2 are marks fills the entire screen in a certain color, it marks fill a uniform pattern, a circular mark, the mark of multiple circles, a further square around the square marks or square It is possible to adopt a mark with an enclosed edge.
 複数のタイミングマークDを用いる場合には、異なるタイミングマークDに異なる意味を持たせることができる。言い換えると、データファイルDに対するデータ部分に応じて異なるタイミングマークDを付加することができる。例えば、複数のタイミングマークDで、一連のデータの区切り、データの開始又はデータの終了等を示すことができる。 In the case of using a plurality of timing marks D 2, it can have different meanings in different timing mark D 2. In other words, it is possible to add a timing mark D 2 which differs depending on data portion to the data file D 0. For example, a plurality of timing marks D 2, it can be shown a series of delimited data, termination, etc. of the start or data of the data.
 図11(A)~図11(M)は、異なる意味を持つ異なるタイミングマークDの組合せの例を示す。
 例えば、タイミングマークDとして、図11(A)に示されている円形のタイミングマークD2AによりデータファイルDの先頭のデータ部分であることを示すことができる。図11(B)に示されている円形の外側に1つの輪を描いたタイミングマークD2Bにより、データファイルDの中間(先頭及び末尾以外)のデータ部分であることを示すことができる。図11(C)に示されている円形の外側に2つの輪を描いたタイミングマークD2Cにより、データファイルDの末尾のデータ部分を示すことができる。ここで、図11(A)~図11(C)に描かれている円形は、コード画像Dに対応する位置に表示されることが望ましい。つまり、図11(A)~図11(C)に描かれている円形は、コード画像Dが表示される領域に表示されることが望ましい。
Figure 11 (A) ~ FIG 11 (M) show an example of a different timing mark D 2 of the combination they have different meanings.
For example, as a timing mark D 2, it can be shown that the leading data part of the data file D 0 by a circular timing mark D 2A shown in Figure 11 (A). The timing mark D 2B depicting one wheel on the outside of the circular shown in FIG. 11 (B), it can be shown that the data portion of the intermediate (non-head and tail) of the data file D 0. The timing mark D 2C depicting two wheels on the outside of the circular shown in FIG. 11 (C), it is possible to indicate the end of the data portion of the data file D 0. Here, circular depicted in FIG. 11 (A) ~ FIG 11 (C) is preferably displayed on the position corresponding to the code image D 3. That is, the circular depicted in FIG. 11 (A) ~ FIG 11 (C) is preferably encoded image D 3 is displayed in the area to be displayed.
 また、タイミングマークDとして、図11(D)に示されている矩形のタイミングマークD2DによりデータファイルDの先頭のデータ部分であることを示すことができる。図11(E)に示されている矩形の外側に1つの枠を描いたタイミングマークD2Eにより、データファイルDの中間(先頭及び末尾以外)のデータ部分であることを示すことができる。図11(F)に示されている矩形の外側に2つの枠を描いたタイミングマークD2Fにより、データファイルDの末尾のデータ部分であることを示すことができる。ここで、図11(D)~図11(F)に描かれている矩形は、コード画像Dに対応する大きさで描画され、コード画像に対応する位置に表示されることが望ましい。つまり、図11(D)~図11(F)に描かれている矩形は、コード画像Dが表示される領域に表示されることが望ましい。 Further, as the timing mark D 2, it can be shown that the leading data part of the data file D 0 by rectangular timing mark D 2D shown in FIG. 11 (D). The timing mark D 2E depicting one frame outside the rectangle shown in FIG. 11 (E), it can be shown that the data portion of the intermediate (non-head and tail) of the data file D 0. The timing mark D 2F depicting two frames on the outside of the rectangle shown in FIG. 11 (F), can be shown to be the last data portion of the data file D 0. Here, rectangle depicted in FIG. 11 (D) ~ FIG 11 (F), drawn with a size corresponding to the code image D 3, it is desirable to be displayed in the corresponding position in the code image. That is, the rectangle depicted in FIG. 11 (D) ~ FIG 11 (F) is preferably encoded image D 3 is displayed in the area to be displayed.
 さらに、データファイルDを、それぞれ複数の部分(ここでは「セグメント」と言う)に区切ることができる場合について説明する。「セグメント」は、「ショット」が1つ又は複数あつまったものである。1ショットでエラーが発生した場合でも、ファイル転送が全体で失敗とならないように区切ったものである。つまり、「セグメント」は、ファイル転送が「部分的に成功した」と言えるように区切ったものである。サイネージなどに応用した場合には、同じデータを何度も繰り返して表示される。1巡目で一部のショットがエラーとなっても、2巡目でそのショットを含むセグメントの転送が成功すれば、全体としてファイル転送を成功とできる。撮影する際の手ぶれ等を考えると、1回の転送に必要な複数のショットを、全てエラーなしで撮影するのは困難である。「セグメント」は、このようなエラーを救済する仕組みである。
 図11(G)に示されている矩形のタイミングマークD2Gにより、データファイルDの先頭のデータ部分であることを示すことができる。
 図11(H)に示されている矩形の左側に、その矩形よりも小さい矩形を1つ配置したタイミングマークD2Hにより、データファイルDの中間(先頭及び末尾以外)のデータ部分であることを示すことができる。
 図11(I)に示されている矩形の左側に、その矩形よりも小さい矩形を2つ配置したタイミングマークD2Iにより、データファイルDの末尾のデータ部分であることを示すことができる。
 図11(J)に示されている矩形の左側に、その矩形よりも小さい矩形を3つ配置したタイミングマークD2Jにより、各セグメントの先頭又は末尾のデータ部分であることを示すことができる。
 「各セグメントの先頭又は末尾のデータ部分」とは、例えば、1セグメントが10ショットで構成されている場合には、1セグメントの1ショット目又は10ショット目のことである。
 ここで、図11(G)~図11(J)に描かれている大きな矩形は、コード画像Dに対応する大きさで描画され、コード画像Dに対応する位置に表示されることが望ましい。つまり、図11(G)~図11(J)に描かれている大きな矩形は、コード画像Dが表示される領域に表示されることが望ましい。
Furthermore, the data file D 0, a plurality of portions (referred to herein as "segment") will be described which can be separated into. “Segment” is a set of one or more “shots”. Even if an error occurs in one shot, the file transfer is divided so as not to fail as a whole. That is, the “segment” is divided so that the file transfer can be said to be “partially successful”. When applied to signage, etc., the same data is repeatedly displayed. Even if a part of shots becomes an error in the first round, if the transfer including the shot is successful in the second round, the file transfer can be successful as a whole. Considering camera shake at the time of photographing, it is difficult to photograph a plurality of shots necessary for one transfer without error. The “segment” is a mechanism for relieving such an error.
The rectangular timing mark D 2G shown in FIG. 11 (G), it can be shown that the leading data part of the data file D 0.
On the left side of the rectangle shown in FIG. 11 (H), the timing mark D 2H arranged one smaller rectangle than the rectangle, that the data portion of the intermediate (non-head and tail) of the data file D 0 Can be shown.
On the left side of the rectangle shown in FIG. 11 (I), a smaller rectangle than the rectangle by two arranged the timing mark D 2I, can be shown to be the last data portion of the data file D 0.
A timing mark D2J in which three rectangles smaller than the rectangle are arranged on the left side of the rectangle shown in FIG. 11 (J) can indicate the data portion at the beginning or end of each segment.
“The data portion at the beginning or end of each segment” means, for example, the first shot or the tenth shot of one segment when one segment is composed of ten shots.
Here, large rectangle depicted in FIG. 11 (G) ~ FIG 11 (J), drawn with a size corresponding to the code image D 3, it may be displayed at a position corresponding to the code image D 3 desirable. In other words, large rectangle depicted in FIG. 11 (G) ~ FIG 11 (J) is preferably encoded image D 3 is displayed in the area to be displayed.
 なお、タイミングマークDとして、図11(K)に示されている矩形のタイミングマークD2KによりデータファイルDの先頭のデータ部分であることを示すことができる。
 図11(L)に示されている矩形の両側にそれぞれ1つの長方形を描いたタイミングマークD2Eにより、データファイルDの中間(先頭及び末尾以外)のデータ部分であることを示すことができる。
 図11(M)に示されている矩形の両側にそれぞれ2つの長方形を描いたタイミングマークD2Mにより、データファイルDの末尾のデータ部分であることを示すこともできる。
 ここで、図11(K)~図11(M)に描かれている大きな矩形は、コード画像Dに対応する大きさで描画され、コード画像Dに対応する位置に表示されることが望ましい。つまり、図11(K)~図11(M)に描かれている大きな矩形は、コード画像Dが表示される領域に表示されることが望ましい。
Incidentally, as a timing mark D 2, it can be shown that the leading data part of the data file D 0 by rectangular timing mark D 2K shown in FIG. 11 (K).
The timing mark D 2E depicting each one rectangular sides of the rectangle shown in Figure 11 (L), it can be shown that the data portion of the intermediate (non-head and tail) of the data file D 0 .
The timing mark D 2M depicting each of the two rectangles on each side of the rectangle shown in Fig. 11 (M), can also be shown to be the last data portion of the data file D 0.
Here, large rectangle depicted in FIG. 11 (K) ~ FIG 11 (M), drawn with a size corresponding to the code image D 3, may be displayed at a position corresponding to the code image D 3 desirable. In other words, large rectangle depicted in FIG. 11 (K) ~ FIG 11 (M), it is desirable that the code image D 3 is displayed in the area to be displayed.
 これらのような場合には、例えば、読出し部112からマーク生成部106にデータファイルD中の各データ部分の位置(例えば、先頭、中間又は末尾)を示す情報を与えることができる。また、各データ部分が属するセグメントの先頭、中間又は末尾を示す情報を与えることができる。これらのような情報に基づいて、マーク生成部106は、対応するタイミングマークDを生成すればよい。 If these as, for example, it can be given a position of each data portion in the data file D 0 from the read unit 112 to the mark generating unit 106 (e.g., the beginning, in the middle or end) information indicating. Also, information indicating the head, middle or end of the segment to which each data part belongs can be given. Based on these such information, mark generation unit 106 may generate a corresponding timing mark D 2.
 以上のように、実施の形態1では、データファイルD全体をコード画像Dに変換して、その後で、コード画像Dを動画として表示している。これにより、演算能力の低い端末でも効率よく転送用の映像を表示することが出来る。 As described above, in the first embodiment, by converting the entire data file D 0 in the code image D 3, subsequently, displaying the code image D 3 as a moving image. As a result, a video for transfer can be efficiently displayed even on a terminal having a low calculation capability.
 一方、撮像部202で撮影された映像は、動画データとして映像バッファ204に格納されていく。そして、映像を撮影した後に、映像バッファ204から1フレームずつ映像データDが取り出されて復号処理が行われる。従って、受信装置200も演算能力の低い端末で構成することができる。 On the other hand, the video imaged by the imaging unit 202 is stored in the video buffer 204 as moving image data. Then, after taking a picture, the decoding process is taken out the video data D 7 frame by frame from the video buffer 204 is performed. Therefore, the receiving apparatus 200 can also be configured with a terminal having a low computing capability.
 以上では、コード画像Dが1つのフレームと次のフレームの間で切り換えられるものとして説明した。しかし、ホールド型の表示装置である液晶表示装置で、点順次走査方式又は線順次走査方式で表示画像を切り替える場合には、表示される画像の切り換わりには1フレーム期間を要する。この場合には、「切り換わりの直前及び直後のタイミング」を、「切り換わりが行われたフレーム及びその直前のフレーム及び直後のフレーム」とし、1ショットについて3フレームの期間はタイミングマークDが付加されず、復号の対象とされないこととする場合もある。 In the above, the code image D 3 has been described as being switched between one frame and the next frame. However, in a liquid crystal display device that is a hold-type display device, when a display image is switched by a dot sequential scanning method or a line sequential scanning method, it takes one frame period to switch the displayed image. In this case, the “timing immediately before and after the switching” is set to “the frame in which the switching is performed and the immediately preceding frame and the immediately following frame”, and the timing mark D 2 is set for a period of 3 frames per shot. In some cases, it is not added and is not subject to decoding.
 以下この点に関し、図12(A)、図12(B)、図13(A)、図13(B)、図13(C)、図13(D)、図14(A)、図14(B)、図14(C)、図15(A)、図15(B)及び図15(C)を参照して説明する。図12(A)及び図12(B)は、表示フレーム期間内の表示画像の変化を示す図である。図13(A)~図13(D)は、表示フレーム期間内の表示画像の変化を示す図である。
図14(A)~図14(C)は、表示フレーム期間内の表示画像の変化を示す図である。図15(A)~図15(C)は、表示フレーム期間内の表示画像の変化を示す図である。
Hereinafter, in this regard, FIGS. 12A, 12B, 13A, 13B, 13C, 13D, 14A, and 14 B), FIG. 14C, FIG. 15A, FIG. 15B, and FIG. FIG. 12A and FIG. 12B are diagrams illustrating changes in the display image within the display frame period. FIG. 13A to FIG. 13D are diagrams showing changes in the display image within the display frame period.
FIGS. 14A to 14C are diagrams showing changes in the display image within the display frame period. FIGS. 15A to 15C are diagrams showing changes in the display image within the display frame period.
 図12(A)には、表示部130で表示される表示画像の変化を示す。上部の符号Fd~Fdは表示フレームの番号を表す。図12(B)には、撮像部202による撮像で得られる画像(撮像画像)の変化を示す。上部の符号Fp~Fpは、撮像フレームの番号を表す。図13(A)~図15(C)は、表示フレーム期間内における表示画像の変化を示す。
 図12(A)及び(B)に示す例では、表示のフレームレート(表示のフレーム期間T)と撮像のフレームレート(撮像のフレーム期間T)は同じである。しかし、撮像のフレームが表示のフレームに対して、半フレーム期間だけずれているものとしている。また、撮像画面が表示画面に対して傾いていないものとしている。即ち、撮像画面の水平方向と表示画面の水平方向とが一致しているものとしている。
FIG. 12A shows a change in the display image displayed on the display unit 130. Upper symbols Fd 1 to Fd 7 represent display frame numbers. FIG. 12B shows a change in an image (captured image) obtained by imaging by the imaging unit 202. Upper symbols Fp 1 to Fp 7 represent imaging frame numbers. FIGS. 13A to 15C show changes in the display image within the display frame period.
In the example shown in FIGS. 12A and 12B, the display frame rate (display frame period T t ) and the imaging frame rate (imaging frame period T r ) are the same. However, it is assumed that the imaging frame is shifted from the display frame by a half frame period. In addition, the imaging screen is not inclined with respect to the display screen. That is, it is assumed that the horizontal direction of the imaging screen matches the horizontal direction of the display screen.
 図12(A)において、各フレーム内における画像の更新は、1フレーム期間(表示のフレーム期間T)をかけて画面の上から下へと順に行われることを斜めの線SCで示す。
 簡単のため、コード画像Dが画面の中央に位置するものとする。また、順次切り換わるコード画像Dを符号D3A、符号D3B及び符号D3Cで示す。さらに、コード画像D3A,D3B,D3Cの上半分をそれぞれD3AU,D3BU,D3CUで示す。コード画像D3A,D3B,D3Cの下半分をD3AL,D3BL,D3CLで示す。また、コード画像Dに付加されるタイミングマークをDで示す。タイミングマークDの上半分をD2Uで示す。タイミングマークDの下半分をD2Lで示す。
In FIG. 12A, the update of the image within each frame is indicated by an oblique line SC that is sequentially performed from the top to the bottom of the screen over one frame period (display frame period T t ).
For simplicity, the code image D 3 is assumed to be located in the center of the screen. Also shows the code image D 3 replaces sequentially cut code D 3A, by the symbol D 3B and code D 3C. Further shows the code image D 3A, D 3B, the upper half of the D 3C respectively D 3AU, D 3BU, at D 3 CU. The lower half of the code images D 3A , D 3B , D 3C is indicated by D 3AL , D 3BL , D 3CL . Also shows the timing marks to be added to the code image D 3 in D 2. The upper half of the timing mark D 2 shown in D 2U. The lower half of the timing mark D 2 indicated by D 2L.
 画像の更新について、表示フレームFdで説明する。画面を更新した時点を時点tns(nはフレームの番号を表す自然数)で示す。表示フレームFdの画面の更新がコード画像の上端まで進んだ時点を時点t1bで示す。表示フレームFdの画面の更新が画面の中央まで進んだ時点を時点t1mで示す。表示フレームFdの画面の更新がコード画像の下端まで進んだ時点を時点t1eで示す。t1bでは、表示フレームFdには、コード画像D3Aが表示されている。時点t1mでは、表示フレームFdのコード画像Dの上側にはD3BUが表示されている。そして、時点t1mでは、表示フレームFdのコード画像Dの下側にはD3ALが表示されている。時点t1eでは、表示フレームFdには、コード画像D3Bが表示されている。 The image update will be described with reference to the display frame Fd 1 . The time point at which the screen is updated is indicated by a time point t ns (n is a natural number representing a frame number). A time point t 1b indicates a time point when the update of the screen of the display frame Fd 1 proceeds to the upper end of the code image. A time point when the screen update of the display frame Fd 1 has advanced to the center of the screen is indicated by a time point t 1m . A time point t 1e indicates a time point when the update of the screen of the display frame Fd 1 proceeds to the lower end of the code image. At t 1b , the code image D 3A is displayed in the display frame Fd 1 . At the time point t 1m , D 3BU is displayed on the upper side of the code image D 3 of the display frame Fd 1 . At time t 1m , D 3AL is displayed below the code image D 3 of the display frame Fd 1 . At the time point t 1e , the code image D 3B is displayed in the display frame Fd 1 .
 図12(A)及び図12(B)で示す例ではタイミングマークDは帯状のものでありコード画像Dの左側にのみ位置している。
 撮像部202は、各撮像フレームの全ての撮像期間にわたりシャッターが開放されているものとする。
Figure 12 (A) and the timing mark D 2 in the example shown in and FIG. 12 (B) is located only on the left side of and the code image D 3 intended strip.
It is assumed that the imaging unit 202 is open for the entire imaging period of each imaging frame.
 図12(A)の例では、コード画像Dは6フレーム周期で切り換わる。そのうち、最初のフレームFdでコード画像Dの切り換わりが行われる。タイミングマークDの付加による画像の切り換わりは3番目のフレームFdで行わる。タイミングマークDの消去による画像の切り換わりは、5番目のフレームFdで行なわれる。 In the example of FIG. 12 (A), the code image D 3 is switched in 6 frame periods. Among them, the switching of the code image D 3 in the first frame Fd 1 is performed. Switching of the image due to the addition of the timing mark D 2 is Okonawaru in the third frame Fd 3. Switching of the image by erasing timing mark D 2 is carried out in the fifth frame Fd 5.
 表示フレームFdの画面の更新について、図13を用いて説明する。コード画像Dの切り換わりが行われる表示フレームFdにおいて、画像の更新が画面の中央まで進んだ時点t1mでは、図13(A)に示すように、表示されているコード画像Dの下半分は、切り換わり前のコード画像D3Aの下半分D3ALが表示されている。また、表示されているコード画像Dの上半分は、切り換わり後のコード画像D3Bの上半分D3BUが表示されている。表示フレームFdにおいて、画像の更新がコード画像の下端まで進んだ時点t1eでは、図13(B)に示すように、表示されているコード画像Dの下半分も切り換わり後の画像D3Bの下半分D3BLとなる。時点t1mから時点t1eまでの間は、表示されるコード画像Dの下半分が次第に切り換わり前の画像D3Aから切り換わり後の画像D3Bに変化していく。 The update of the screen of the display frame Fd 1 will be described with reference to FIG. In the display frame Fd 1 in which the switching of the code image D 3 is performed, at the time t 1m when the update of the image proceeds to the center of the screen, as shown in FIG. 13A, the code image D 3 being displayed is displayed. In the lower half, the lower half D 3AL of the code image D 3A before switching is displayed. Further, the upper half of the code image D 3 being displayed, the upper half D 3BU code image D 3B after switched is displayed. In the display frame Fd 1 , at the time t 1e when the update of the image proceeds to the lower end of the code image, the lower half of the displayed code image D 3 is also switched as shown in FIG. 13B. It becomes the lower half D 3BL of 3B . From time t 1m to time t 1e, the lower half of the displayed code image D 3 gradually changes from the image D 3A before switching to the image D 3B after switching.
 次の表示フレームFdにおいては、その全ての表示期間にわたりコード画像D3Bの全体が表示されている。 In the next display frame Fd 2, the entire code image D 3B is displayed over the entire display period.
 表示フレームFdの画面の更新について、図14を用いて説明する。次の表示フレームFdにおいて、タイミングマークDの付加のための画像の切り換わりが行なわれる。画像の更新がタイミングマークDの上端の位置まで進んだ時点t3b(上端の更新が始まる直前)では、図14(A)に示すように、タイミングマークDは一切表示されていない。
 画像の更新が、画面の中央まで進んだ時点t3mでは図14(B)に示すように、タイミングマークDの上半分D2Uが表示され、タイミングマークDの下半分D2Lは表示されていない。
 画像の更新がタイミングマークDの下端まで進んだ時点t3eでは、図14(C)に示すように、タイミングマークDの全体が表示されている。
 即ち、時点t3bから時点t3eまでの時間をかけてタイミングマークDが画面の上側から下側へと次第に現れていく。
The update of the screen of the display frame Fd 3 will be described with reference to FIG. In the next display frame Fd 3, switching of the image for the addition of timing marks D 2 is performed. At time t 3b which advanced to the position of the upper end of the update timing mark D 2 of the image (just before the upper end of the update begins), as shown in FIG. 14 (A), timing marks D 2 are not displayed at all.
Image update, as shown in the advanced time t 3m to the center of the screen FIG. 14 (B), the displayed upper half D 2U timing mark D 2 is, the lower half D 2L timing mark D 2 are displayed Not.
In advanced time t 3e update image to the lower end of the timing mark D 2, as shown in FIG. 14 (C), the overall timing mark D 2 are displayed.
In other words, gradually appeared to lower the timing mark D 2 over a period of from time t 3b to time t 3e is from the upper side of the screen.
 表示フレームFdにおいては、その全ての表示期間にわたり、コード画像D3BとタイミングマークDが表示されている。 In the display frame Fd 4, over all of the display periods, the code image D 3B and the timing mark D 2 are displayed.
 次の表示フレームFdにおいては、タイミングマークDの消去のための画像の切り換わりが行なわれる。画像の更新がタイミングマークDの上端の位置まで進んだ時点t5bでは、図15(A)に示すように、タイミングマークDはその全体が表示されている。
 画像の更新が、画面の中央まで進んだ時点t5mでは図15(B)に示すように、タイミングマークDの下半分D2Lが表示され、タイミングマークDの上半分D2Uが消去されている。
 画像の更新がタイミングマークDの下端まで進んだ時点t5eでは、図15(C)に示すように、タイミングマークDの全体が消去されている。
 即ち、時点t5bから時点t5eまでの時間をかけてタイミングマークDが上側から下側へと次第に消去されていく。
In the next display frame Fd 5, switching of the image for erasing timing mark D 2 is performed. At time t 5b advanced to the position of the upper end of the update timing mark D 2 of the image, as shown in FIG. 15 (A), timing marks D 2 is displayed in its entirety.
Image update, as shown in the advanced time t 5 m to the center of the screen FIG. 15 (B), the display lower half D 2L timing mark D 2 is the upper half D 2U timing mark D 2 is erased ing.
In the lower end until advanced time t 5e update image timing mark D 2, as shown in FIG. 15 (C), the overall timing mark D 2 is erased.
In other words, it will be erased gradually to the lower timing mark D 2 over a period of from time t 5b to the time point t 5e from the upper side.
 次の表示フレームFdにおいては、その全ての表示期間にわたりコード画像D3Bが表示され、タイミングマークDが表示されない。 In the next display frame Fd 6, all of the code image D 3B over the display period are displayed, not displayed timing mark D 2.
 次にコード画像Dの切り換わりが行われる表示フレームFdにおいて、画像の更新がコード画像Dの上端まで進んだ時点t7b(上端の更新が始まる直前)では、図13(C)に示すように、表示されるコード画像Dはすべて切り換わり前の画像D3Bである。
 画像の更新がコード画像Dの中心まで進んだ時点t7mでは、図13(D)に示すように、表示されるコード画像Dの下半分は、切り換わり前のコード画像D3Bの下半分D3BLである。また、コード画像Dの上半分は、切り換わり後のコード画像D3Cの上半分D3CUである。時点t7bから時点t7mまでの間では、表示されるコード画像Dの上半分が次第に切り換わり前の画像D3Bから切り換わり後の画像D3Cに変化していく。
Next, in the display frame Fd 7 in which the switching of the code image D 3 is performed, at the time t 7b (immediately before the update of the upper end starts) when the image update proceeds to the upper end of the code image D 3 , FIG. as shown, the code image D 3 to be displayed are all switched-previous image D 3B.
In advanced time t 7m update image to the center of the code image D 3, as shown in FIG. 13 (D), the lower half of the code image D 3 to be displayed under the switched before the code image D 3B Half D 3BL . Further, the upper half of the code image D 3 is the upper half of the code image D 3C after switched is D 3 CU. In between the time t 7b to time t 7m, it will change the image D 3C after switched the upper half of the code image D 3 to be displayed from the gradually switched previous image D 3B.
 表示フレームFdと表示フレームFdとに跨る撮像フレームFpにおける撮像で得られる画像においては、コード画像Dの上半分は、切り換わり後の画像D3Bの上半分D3BUと同じである。しかし、コード画像Dの下半分は、切り換わり前の画像D3Aの下半分D3ALと切り換わり後の画像D3Bの下半分D3BLとが混合された画像D3ABLとなる。この混合の割合は、撮像画面内の縦方向位置によって異なり、対応する表示画面の各位置において、画像D3Aが表示される時間と、画像D3Bが表示される時間の割合に等しい。 In an image obtained by imaging in the imaging frame Fp 1 straddling the display frame Fd 1 and the display frame Fd 2 , the upper half of the code image D 3 is the same as the upper half D 3BU of the image D 3B after switching. . However, the lower half of the code image D 3 is an image D 3ABL where the lower half D 3BL mixed image D 3B after switches the lower half D 3AL of switched previous image D 3A. The mixing ratio varies depending on the position in the vertical direction in the imaging screen, and is equal to the ratio of the time during which the image D 3A is displayed and the time during which the image D 3B is displayed at each position on the corresponding display screen.
 次の撮像フレームFpにおける撮像で得られる画像においては、コード画像Dは全体として、コード画像D3Bと同じものとなる。一方、表示フレームFdでは、タイミングマークDが付加されていないのに対し、表示フレームFdの前半(更新が画面の中央に達するまでの期間)では、タイミングマークDが上から順に次第に現れる。このため、撮像フレームFpにおける撮像で得られる画像においては、タイミングマークDの下半分D2Lは現れない。また、タイミングマークDの上半分D2Uは、タイミングマークDの上半分D2Uが現れる画像と現れない画像とが混合された画像D2U0となる。この混合の割合は、対応する表示画面の各位置において、タイミングマークDが現れる時間と、タイミングマークDが現れない時間との割合に等しい。従って、撮像画像におけるタイミングマークDは、上側の方ほど濃く(階調値が大きく)、下側の方ほど薄い(階調値が小さい)ものとなる。 In the image obtained by imaging in the next imaging frame Fp 2, the entire code image D 3 is the same as the code image D 3B. On the other hand, in the display frame Fd 2 , the timing mark D 2 is not added, whereas in the first half of the display frame Fd 3 (a period until the update reaches the center of the screen), the timing mark D 2 gradually increases from the top. appear. Therefore, in the image obtained by the imaging in the imaging frame Fp 2, the lower half of the timing mark D 2 D 2L it does not appear. Also, half of D 2U on the timing mark D 2 is an image D 2U0 of the image that do not appear half D 2U appears images on the timing mark D 2 are mixed. The ratio of the mixture in each location of the corresponding display screen, the time and the timing mark D 2 appearing, equal to the ratio of the time when the timing mark D 2 does not appear. Thus, the timing marks D 2 in the captured image, as the direction of the upper darker (the gradation value is large), becomes thinner toward the lower side (gradation values is small).
 次の撮像フレームFpにおける撮像で得られる画像においては、コード画像Dは全体として、コード画像D3Bと同じものとなる。一方、表示フレームFdの後半(更新が画面の中央に達した時点以降の期間)では、タイミングマークDは、中央まで現れた状態からさらに下方へ次第に伸びていく。つまり、タイミングマークDの下半分D2Lも次第に現れてくる。一方、表示フレームFdでは、タイミングマークDは、その全体が現れている。このため、撮像フレームFpにおける撮像で得られる画像においては、タイミングマークDはその全体が現れる。但し、撮像フレームFpにおける撮像で得られる画像の下半分は、タイミングマークDの下半分D2Lが現れる画像と現れない画像とが混合された画像D2L0となる。この混合の割合は、各位置において、タイミングマークDが現れる時間と、タイミングマークDが現れない時間との割合に等しい。従って、撮像画像におけるタイミングマークDの下半分D2Lは、下側の方ほど薄く、上側の方ほど濃いものとなる。 In the image obtained by imaging in the next imaging frame Fp 3, the entire code image D 3 is the same as the code image D 3B. On the other hand, the second half in (update period after the time of reaching the center of the screen), the timing mark D 2 of the display frame Fd 3 is gradually extended progressively further downward from the state appeared to the center. That is, the lower half D 2L of the timing mark D 2 also gradually appears. On the other hand, the display frame Fd 4, timing marks D 2 in its entirety has appeared. Therefore, in the image obtained by the imaging in the imaging frame Fp 3, timing marks D 2 entirety appears that. However, the lower half of the image obtained by the imaging in the imaging frame Fp 3, the image D 2L0 of the image the bottom half of the timing mark D 2 does not appear as images D 2L appear are mixed. The ratio of the mixture in each location, time and the timing mark D 2 appearing, equal to the ratio of the time when the timing mark D 2 does not appear. Therefore, the lower half D 2L of the timing mark D 2 in the captured image is thinner toward the lower side and darker toward the upper side.
 次の撮像フレームFpにおける撮像で得られる画像においても、コード画像Dは全体として、コード画像D3Bと同じものとなる。一方、表示フレームFdの後半(更新が画面の中央に達した時点以降の期間)では、タイミングマークDはその全体が表示されている。しかし、表示フレームFdの前半(更新が画面の中央に達するまでの期間)では、タイミングマークDが上側から順に次第に消えて行く。このため、撮像フレームFpにおける撮像で得られる画像においては、タイミングマークDはその全体が現れる。但し、撮像フレームFpにおける撮像で得られる画像の上半分はタイミングマークDの上半分D2Uが現れる画像とタイミングマークDの上半分D2Uが現れない画像とが混合された画像D2U0となる。この混合の割合は、各位置において、タイミングマークDが現れる時間と、タイミングマークDが現れない時間との割合に等しい。従って、撮像画像におけるタイミングマークDの上半分D2Uは、上側の方ほど薄く、下側の方ほど濃いものとなる。 Even in an image obtained by imaging in the next imaging frame Fp 4, the entire code image D 3 is the same as the code image D 3B. On the other hand, in the second half of the display frame Fd 4 (a period after the time when the update reaches the center of the screen), the entire timing mark D 2 is displayed. However, in the first half (the period of until the update reaches the center of the screen) of the display frame Fd 5, timing mark D 2 is going to disappear gradually from the upper side in order. Therefore, in the image obtained by the imaging in the imaging frame Fp 4, timing marks D 2 entirety appears that. However, the upper half image and image upper half D 2U image and timing marks D 2 of the upper half D 2U timing mark D 2 appears does not appear is mixed D of the image obtained by the imaging in the imaging frame Fp 4 2U0 It becomes. The ratio of the mixture in each location, time and the timing mark D 2 appearing, equal to the ratio of the time when the timing mark D 2 does not appear. Accordingly, the upper half D 2U of the timing mark D 2 in the captured image is thinner toward the upper side and darker toward the lower side.
 次の撮像フレームFpにおける撮像で得られる画像においては、コード画像Dは全体として、コード画像D3Bと同じものとなる。一方、表示フレームFdの後半(更新が画面の中央に達した時点以降の期間)では、タイミングマークDが上側から順に次第に消えていく。そして、表示フレームFdでは、タイミングマークDが付加されていないので、撮像フレームFpにおける撮像で得られる画像においては、タイミングマークDの上半分D2Uは現れない。そして、タイミングマークDの下半分は、タイミングマークDの下半分D2Lが現れる画像とタイミングマークDの下半分D2Lが現れない画像とが混合された画像D2L0となる。この混合の割合は、対応する表示画面の各位置において、タイミングマークDが現れる時間と、タイミングマークDが現れない時間との割合に等しい。従って、撮像画像におけるタイミングマークDは、下側の方ほど濃く、上側の方ほど薄いものとなる。 In the image obtained by imaging in the next imaging frame Fp 5, the entire code image D 3 is the same as the code image D 3B. On the other hand, in the second half (the period after the time when the update has reached the center of the screen) of the display frame Fd 5, timing marks D 2 fades gradually from the upper side in this order. In the display frame Fd 6 , since the timing mark D 2 is not added, the upper half D 2U of the timing mark D 2 does not appear in the image obtained by imaging in the imaging frame Fp 5 . The lower half of the timing mark D 2 is an image D 2L0 to the image lower half D 2L image and timing marks D 2 of lower half D 2L timing mark D 2 appears does not appear have been mixed. The ratio of the mixture in each location of the corresponding display screen, the time and the timing mark D 2 appearing, equal to the ratio of the time when the timing mark D 2 does not appear. Thus, the timing marks D 2 in the captured image is darker towards the bottom, it becomes thinner toward the upper side.
 表示フレームFdと表示フレームFdとに跨る撮像フレームFpにおける撮像で得られる画像においては、撮像フレームFpの下半分は、切り換わり前の画像D3Bの下半分D3BLと同じである。しかし、撮像フレームFpの上半分は、切り換わり前の画像D3Bの上半分D3BUと切り換わり後の画像D3Cの上半分D3CUとが、画面内の縦方向位置における、画像D3Bと画像D3Cの表示時間の割合に応じて混合された画像D3BCUとなる。 In an image obtained by imaging in the imaging frame Fp 6 straddling the display frame Fd 6 and the display frame Fd 7 , the lower half of the imaging frame Fp 6 is the same as the lower half D 3BL of the image D 3B before switching. . However, upper half of the image pickup frame Fp 6, and the upper half D 3 CU image D 3C after switched the upper half D 3BU of switched previous image D 3B, the longitudinal position of the screen, the image D 3B And the image D 3BCU mixed according to the display time ratio of the image D 3C .
 以上の検討から分かる通り、撮像フレームFpにおいては、タイミングマークDの全体が濃く写っている。このため、撮像フレームFpで得られたコード画像Dは復号に適したものであることが分かる。
 撮像フレームFp及びFpでは、タイミングマークDの濃さが縦方向位置によって異なる。この場合には、タイミングマークDが現れているか否かの判断を表示画面のライン毎に行なうこととする。例えば、濃さが予め定められた閾値以上であれば、そのラインのコード画像Dは復号に適したものと判断することとしても良い。
As can be seen from the discussion above, in the imaging frame Fp 4, the overall timing mark D 2 is captured dark. Therefore, the code image D 3 obtained by the image pickup frame Fp 4 it can be seen is suitable for decoding.
In the imaging frame Fp 3 and Fp 5, density of the timing marks D 2 varies depending longitudinal position. In this case, it is assumed that it is determined whether or not the timing mark D 2 appearing in each line of the display screen. For example, if the threshold than the predetermined density, may be determined code image D 3 of the line and suitable for decoding.
 例えば、濃さが中程度の値を閾値とすれば、撮像フレームFpのコード画像Dの下半分D3Lの全部とコード画像Dの上半分D3Uの一部とは、復号に適したものと判定される。ここで「濃さが中程度の値」とは、撮像フレームの全ての撮像期間にわたりタイミングマークDが表示された場合の濃さと、撮像フレームの全ての撮像期間にわたりタイミングマークDが表示されない場合の濃さの中間の値である。撮像フレームFpのコード画像Dの上半分D3Uの全部とコード画像Dの下半分D3Lの一部とは、復号に適したものと判定されることになる。
 このように判定する場合には、例えば、撮像フレームFpのコード画像Dの下半分D3Lと、撮像フレームFpのコード画像Dの上半分D3Uとを組み合わせたものを一つのコード画像Dの全体として、復号を行なうこととしても良い。
For example, if the threshold value is a medium value, the lower half D 3L of the code image D 3 of the imaging frame Fp 3 and a part of the upper half D 3U of the code image D 3 are suitable for decoding. It is determined that Here, "density is medium value" is the density in the case where the timing mark D 2 over all imaging period of the image frame is displayed, not displayed timing mark D 2 over all imaging period of the image frame It is an intermediate value of the darkness of the case. All of the upper half D 3U of the code image D 3 of the imaging frame Fp 5 and a part of the lower half D 3L of the code image D 3 are determined to be suitable for decoding.
When determining in this way, for example, one encoding a combination of a lower half D 3L code image D 3 of the imaging frame Fp 3, the upper half D 3U code image D 3 of the imaging frame Fp 5 overall image D 3, it is also possible to perform decoding.
 なお、タイミングマークDの濃さが閾値以上であるラインが、所定の数以上あると判定されたフレームのコード画像Dは、その全体が復号に適したものであると判定することとしても良い。 Incidentally, the line density of the timing marks D 2 is equal to or greater than the threshold is, the code image D 3 of the frame is determined to be more than a predetermined number, even be determined to be in its entirety suitable for decoding good.
 撮像フレームFpにおいては、タイミングマークDの下半分D2Lは現れない。そして、タイミングマークDの上半分D2Uは現れる。そのため、撮像フレームFpにおいては、タイミングマークDの濃さは縦方向位置によって異なる。
 このような場合には、コード画像D3Bを全体として、復号に適さないものと判定することとしても良い。または、閾値を低くすることで、コード画像D3Bの上半分D3BUの一部を復号に適したものとしても良い。さらにまた、予め定められた数以上のラインにおいて、タイミングマークDの濃さが閾値以上と判定された場合には、コード画像D3Bの全体を復号に適したものと判定することとしても良い。
In the imaging frame Fp 2, the lower half of the timing mark D 2 D 2L does not appear. Then, the upper half D 2U of the timing mark D 2 appears. Therefore, in the imaging frame Fp 2, density of the timing marks D 2 depends longitudinal position.
In such a case, the code image D3B as a whole may be determined to be unsuitable for decoding. Alternatively , by lowering the threshold, a part of the upper half D 3BU of the code image D 3B may be suitable for decoding. Furthermore, in a predetermined number or more of lines, when the density of the timing marks D 2 is determined to be equal to or greater than the threshold value, it may be determined to be suitable for decoding the entire code image D 3B .
 同様に撮像フレームFpにおいては、タイミングマークDの上半分D2Uは現れない。また、タイミングマークDの下半分D2Lは現れる。そのため、タイミングマークDの濃さは縦方向位置によって異なる。
 このような場合には、コード画像D3Bを全体として、復号に適さないものと判定することとしても良い。または、閾値を低くすることで、コード画像D3Bの下半分D3BLの一部を復号に適したものとしても良い。さらにまた、予め定められた数以上のラインにおいて、タイミングマークDの濃さが閾値以上と判定された場合には、コード画像D3Bの全体を復号に適したものと判定することとしても良い。
Similarly, the upper half D 2U of the timing mark D 2 does not appear in the imaging frame Fp 5 . In addition, the lower half D 2L of the timing mark D 2 appears. Therefore, density of the timing marks D 2 depends longitudinal position.
In such a case, the code image D3B as a whole may be determined to be unsuitable for decoding. Alternatively , by lowering the threshold value, a part of the lower half D 3BL of the code image D 3B may be suitable for decoding. Furthermore, in a predetermined number or more of lines, when the density of the timing marks D 2 is determined to be equal to or greater than the threshold value, it may be determined to be suitable for decoding the entire code image D 3B .
 撮像フレームFpにおいては、タイミングマークDがまったく現れない。コード画像D3Bの上半分D3BUは、切り換わり後の画像D3BUに等しい。また、コード画像D3Bの下半分D3BLは、切り換わり前の画像D3ALと切り換わり後の画像D3BLとが混合された画像D3ABLである。従って、撮像フレームFpのコード画像D3Bは、復号に適さない。
 同様に、撮像フレームFpにおいては、タイミングマークDは現れない。コード画像D3Bの下半分は、切り換わり前の画像D3BLに等しい。また、コード画像D3Bの上半分は、切り換わり前の画像D3BUと切り換わりの画像D3CUとが混合された画像D3BCUである。従って、撮像フレームFpのコード画像D3Bは復号に適さない。
 コード画像Dが復号に適さないことは、タイミングマークDが全く現れないことに基づいて判断することができる。
In the imaging frame Fp 1, the timing mark D 2 does not appear at all. The upper half D 3BU of the code image D 3B is equal to the image D 3BU after switching. Also, the lower half D 3BL code image D 3B is an image D 3ABL that the image D 3BL after switches the switched previous image D 3AL have been mixed. Therefore, the code image D 3B of the imaging frame Fp 1 is not suitable for decoding.
Similarly, in the imaging frame Fp 6, timing marks D 2 does not appear. The lower half of the code image D 3B is equal to the image D 3BL before switching. Further, the upper half of the code image D 3B is an image D 3BCU in which the image D 3 CU of switches and switched preceding image D 3BU mixed. Therefore, the code image D 3B of the imaging frame Fp 6 is not suitable for decoding.
The code image D 3 is not suitable for decoding, can be determined based on the timing mark D 2 does not appear at all.
 以上、撮像部202のシャッターの開放時間(露光時間)が各撮像のフレーム期間Trの全体にわたる場合について説明した。しかし、シャッターの開放時間が、各撮像のフレーム期間Tの一部のみを示す場合には、上記の混合割合はシャッターの開放時間内における、切り換わり前の画像が表示される期間と切り換わり後の画像が表示される期間との割合となる。 The case where the shutter opening time (exposure time) of the imaging unit 202 extends over the entire frame period Tr of each imaging has been described above. However, when the shutter opening time indicates only a part of the frame period Tr of each imaging, the above mixing ratio is switched to the period during which the image before switching is displayed within the shutter opening time. It becomes a ratio with the period in which a subsequent image is displayed.
 なお、撮像部202による撮像により得られる画像において、表示部130の表示画面が傾いている場合がある。このため、表示画面のライン毎にコード画像Dが復号に適したものか否かの判定を行う場合には、撮像により得られた画像(映像データD)において、表示部130のラインの方向を特定する必要がある。 Note that the display screen of the display unit 130 may be tilted in an image obtained by imaging by the imaging unit 202. Therefore, when it is determined whether or not the code image D 3 for each line of the display screen suitable for decoding, in the image obtained by the imaging (image data D 7), the display unit 130 of the line Need to specify direction.
 また、表示画面のライン毎の判定の代わりに、互いに連続する複数のラインからなる縦方向位置の範囲ごとに、コード画像Dが復号に適したものか否かの判定を行うこともできる。言い換えると、複数のラインからなる帯状の領域ごとに、コード画像Dが復号に適したものか否かの判定を行うこともできる。 Further, instead of the determination for each line of the display screen, may each range of longitudinal positions comprising a plurality of successive lines from each other, that it is determined whether or not those codes image D 3 is suitable for decoding. In other words, for each band-shaped area composed of a plurality of lines, can be performed is determined whether or not those codes image D 3 is suitable for decoding.
 なお、上記の実施の形態1では、コード画像及びタイミングマークを赤色(R)、青色(B)及び緑色(G)の三原色のデータで構成しているが、本発明はこれに限定されず、上記とは異なる色のデータで構成することとしても良い。但し、三原色のデータで構成する方が、例えば図2に示すように合成部122で合成することにより多重化する場合、及び図5に示すように分離部208で分離を行う場合の処理が簡単であり、効率が良い。以下の実施の形態についても同様である。 In the first embodiment, the code image and the timing mark are composed of data of the three primary colors of red (R), blue (B), and green (G). However, the present invention is not limited to this, It may be configured by data of a color different from the above. However, it is easier to configure with the data of the three primary colors when multiplexing by combining by the combining unit 122 as shown in FIG. 2, for example, and when separating by the separating unit 208 as shown in FIG. And efficient. The same applies to the following embodiments.
実施の形態2.
 上記の実施の形態1では、合成部122は、タイミングマークD及びコード画像Dを、それぞれの色チャンネルに割り当てて合成している。そして、合成部122は、カラーの合成画像D61を生成している。しかし、本発明はこのような例に限定されるものではない。例えば、マーク生成部106、第1コード生成部116A及び第2コード生成部116Bから出力される画像D,D31,D32をそれぞれ別個に連結して、別個の映像を作成することができる。そして、合成部122でこれら映像をそれぞれの色チャンネルに割り当てて合成してもよい。
Embodiment 2. FIG.
In the first embodiment described above, the combining unit 122, the timing marks D 2 and code image D 3, are synthesized assigned to each color channel. Then, the composition unit 122, and generates a composite image D 61 of the collar. However, the present invention is not limited to such an example. For example, the images D 2 , D 31 , and D 32 output from the mark generation unit 106, the first code generation unit 116A, and the second code generation unit 116B can be separately connected to generate separate videos. . Then, the synthesis unit 122 may synthesize these videos by assigning them to the respective color channels.
 その場合の構成を図16に示す。図16は、実施の形態2における送信装置100aの構成を概略的に示すブロック図である。図16に示される送信装置100aは、図2の映像バッファ126と、動画再生部128と、合成部122の代わりに、第1映像バッファ126A、第2映像バッファ126B、第3映像バッファ126C、第1動画再生部128A、第2動画再生部128B、第3動画再生部128C及び合成部122bを有する。実施の形態1で説明した送信装置100の構成要素と同様の構成要素には、同一符号を付し、その説明を省略する。送信装置100と同様の構成要素は、送信データ記憶部102、データ処理部110、基準クロック発生部104、マーク生成部106及び表示部130である。また、データ処理部110の読出し部112、データ分割部114、第1コード生成部116A及び第2コード生成部116Bも実施の形態1と同様の構成要素である。また、マーク生成部106の画像記憶部107も実施の形態1と同様の構成要素である。 FIG. 16 shows the configuration in that case. FIG. 16 is a block diagram schematically showing a configuration of transmitting apparatus 100a in the second embodiment. A transmitting apparatus 100a illustrated in FIG. 16 includes a first video buffer 126A, a second video buffer 126B, a third video buffer 126C, a first video buffer 126A, a video playback unit 128, and a synthesis unit 122 instead of the video buffer 126, the video playback unit 128, and the synthesis unit 122 illustrated in FIG. It has a 1 video playback unit 128A, a second video playback unit 128B, a third video playback unit 128C, and a synthesis unit 122b. Constituent elements similar to those of the transmitting apparatus 100 described in Embodiment 1 are assigned the same reference numerals, and descriptions thereof are omitted. Constituent elements similar to those of the transmission device 100 are a transmission data storage unit 102, a data processing unit 110, a reference clock generation unit 104, a mark generation unit 106, and a display unit 130. In addition, the reading unit 112, the data division unit 114, the first code generation unit 116A, and the second code generation unit 116B of the data processing unit 110 are the same components as those in the first embodiment. Further, the image storage unit 107 of the mark generation unit 106 is a component similar to that of the first embodiment.
 第1映像バッファ126Aは、第1コード生成部116Aで生成された第1コード画像D31を順に蓄積する。第1映像バッファ126Aは、第1コード画像D31を順に蓄積する。そして、第1映像バッファ126Aは、これらを連結し、第1コード映像D64を生成する。つまり、第1映像バッファ126Aは、蓄積した第1コード映像D64を連結する。そして、第1映像バッファ126Aは、第1コード映像D64を生成する。
 第2映像バッファ126Bは、第2コード生成部116Bで生成された第2コード画像D32を順に蓄積する。第2映像バッファ126Bは、第2コード画像D32を順に蓄積する。そして、第2映像バッファ126Bは、これらを連結し、第2コード映像D65を生成する。つまり、第2映像バッファ126Bは、蓄積した第2コード映像D65を連結する。そして、第2映像バッファ126Bは、第2コード映像D65を生成する。
 第3映像バッファ126Cは、マーク生成部106で生成されたタイミングマークDを順に蓄積する。第3映像バッファ126Cは、タイミングマークDを順に蓄積する。そして、第3映像バッファ126Cは、これらを連結し、タイミングマーク映像D21を生成する。つまり、第3映像バッファ126Cは、蓄積したタイミングマークDを連結する。そして、第3映像バッファ126Cは、タイミングマーク映像D21を生成する。
First video buffer 126A stores the first code image D 31 generated by the first code generating unit 116A in this order. First video buffer 126A stores the first code image D 31 in sequence. The first video buffer 126A is, these are connected to generate a first code image D 64. That is, the first image buffer 126A connects the first code image D 64 accumulated. The first video buffer 126A generates a first code image D 64.
Second video buffer 126B stores the second code image D 32 generated by the second code generating unit 116B in this order. Second video buffer 126B stores the second code image D 32 in sequence. The second video buffer 126B is these ligated to generate a second code image D 65. In other words, the second image buffer 126B connects the second code image D 65 accumulated. The second video buffer 126B generates a second code image D 65.
Third image buffer 126C stores the timing mark D 2 generated by the mark generation unit 106 in order. Third image buffer 126C stores the timing mark D 2 in order. The third image buffer 126C is these ligated to generate a timing mark image D 21. That is, the third image buffer 126C connects the accumulated timing mark D 2. The third image buffer 126C generates the timing mark image D 21.
 第1動画再生部128Aは、データファイルDのうち、第1映像バッファ126Aが処理するコード画像D31の連結が終了した時点で、映像バッファ126Aに蓄積されたデータ(第1コード映像D64)を、フレーム毎に順次読み出して動画として再生する。つまり、第1動画再生部128Aは、第1コード映像D64を順次読み出して動画として再生する。第1動画再生部128Aは、フレーム毎に第1コード映像D64を読み出す。第1動画再生部128Aが第1コード映像D64を読み出すタイミングは、第1映像バッファ126Aでコード画像D31の連結が終了した時点である。
 第2動画再生部128Bは、データファイルDのうち、第2映像バッファ126Bが処理するコード画像D32の連結が終了した時点で、映像バッファ126Bに蓄積されたデータ(第2コード映像D65)を、フレーム毎に順次読み出して動画として再生する。つまり、第2動画再生部128Bは、第2コード映像D65を順次読み出して動画として再生する。第2動画再生部128Bは、フレーム毎に第2コード映像D65を読み出す。第2動画再生部128Bが第2コード映像D65を読み出すタイミングは、第2映像バッファ126Bでコード画像D32の連結が終了した時点である。
 第3動画再生部128Cは、データファイルDのすべてのデータのコード映像D64,D65への変換が終了した時点で、映像バッファ126Cに蓄積されたデータ(タイミングマーク映像D21)を、フレーム毎に順次読み出して動画として再生する。つまり、第3動画再生部128Cは、タイミングマーク映像D21を順次読み出して動画として再生する。第3動画再生部128Cは、フレーム毎にタイミングマーク映像D21を読み出す。第3動画再生部128Cがタイミングマーク映像D21を読み出すタイミングは、映像バッファ126A,126Bでコード画像D31,D32の連結が終了した時点である。
The first video playback unit 128A, among the data file D 0, when the connection code image D 31 of the first video buffer 126A is processing is completed, the data stored in the video buffer 126A (first code image D 64 ) Are sequentially read for each frame and reproduced as a moving image. That is, the first moving image reproduction unit 128A reproduces a moving image sequentially reads the first code image D 64. The first video playback unit 128A reads the first code image D 64 for each frame. The timing at which the first video playback unit 128A reads out the first code image D 64 is the time the connection is complete code image D 31 in the first image buffer 126A.
The second moving image reproduction unit 128B, of the data file D 0, when the connection code image D 32 of the second image buffer 126B to process is completed, the data stored in the video buffer 126B (second code image D 65 ) Are sequentially read for each frame and reproduced as a moving image. That is, the second moving image reproduction unit 128B is reproduced as sequentially reads video a second code image D 65. The second moving image reproduction unit 128B reads the second code image D 65 for each frame. Timing when the second moving image reproduction unit 128B reads the second code image D 65 is the time the connection is complete code image D 32 in the second image buffer 126B.
The third moving image playback unit 128C receives the data (timing mark video D 21 ) stored in the video buffer 126C when the conversion of all data of the data file D 0 to the code video D 64 and D 65 is completed. It reads out every frame sequentially and reproduces it as a moving picture. That is, the third moving image reproduction unit 128C is reproduced as video sequentially reads the timing marks image D 21. The third video playback unit 128C reads the timing marks video D 21 for each frame. Timing the third moving image reproduction unit 128C reads the timing marks image D 21 is the time when the video buffer 126A, the connection code image D 31, D 32 at 126B has been completed.
 合成部122bは、第1動画再生部128Aから与えられる第1コード映像D64と、第2動画再生部128Bから与えられる第2コード映像D65と、第3動画再生部128Cから与えられるタイミングマーク映像D21とを、それぞれ独立した色チャンネルに割り当てて合成する。そして、合成部122bは、1データファイルD分の合成映像D66(カラー映像)を生成する。
 図16の送信装置100aから送信されるデータ(合成映像D66)は実施の形態1で説明した図5の受信装置200で受信できる。
Combining unit 122b, a first code image D 64 given from the first moving image reproduction unit 128A, and the second code image D 65 supplied from the second moving image reproduction unit 128B, the timing marks provided from the third moving image reproduction unit 128C The video D 21 is synthesized by being assigned to independent color channels. Then, the synthesis unit 122b generates a synthesized video D 66 (color video) for one data file D 0 .
Data (synthesized video D 66 ) transmitted from the transmission device 100a in FIG. 16 can be received by the reception device 200 in FIG. 5 described in the first embodiment.
実施の形態3.
 実施の形態1では、復号に適したコード画像Dを、タイミングマークDで示すこととしている。しかし、タイミングマークDの代わりに、表示部130とは別個の発光部からの光で復号に適したコード画像Dを示すようにしても良い。以下ではそのような実施の形態3を説明する。
 図17は、本発明の実施の形態3の送信装置100cを示す。図18は、実施の形態3の受信装置200cを示す。送信装置100cは、マーク生成部106の代わりに発光部156を備える。また、送信装置100cは、合成部122の代わりに合成部122cを備えている。受信装置200cは、マーク認識部210の代わりに発光検出部260を備える。実施の形態1で説明した送信装置100の構成要素と同様の構成要素には、同一符号を付し、その説明を省略する。送信装置100と同様の構成要素は、送信データ記憶部102、データ処理部110、基準クロック発生部104、映像バッファ126、動画再生部128及び表示部130である。また、データ処理部110の読出し部112、データ分割部114、第1コード生成部116A及び第2コード生成部116Bも実施の形態1と同様の構成要素である。
 実施の形態1で説明した受信装置200の構成要素と同様の構成要素には、同一符号を付し、その説明を省略する。受信装置200と同様の構成要素は、撮像部202、映像バッファ204、読出し部206、分離部208、画像切出し部220、コード復号部230、合成部242及び受信データ記憶部244である。また、画像切出し部220の第1切出し部222A及び第2切出し部222Bも実施の形態1と同様の構成要素である。また、コード復号部230の第1復号部232A及び第2復号部232Bも実施の形態1と同様の構成要素である。
Embodiment 3 FIG.
In the first embodiment, the code image D 3 suitable for decoding, and the fact indicated by the timing mark D 2. However, instead of the timing mark D 2 , a code image D 3 suitable for decoding may be indicated by light from a light emitting unit separate from the display unit 130. Such Embodiment 3 will be described below.
FIG. 17 shows a transmitting apparatus 100c according to the third embodiment of the present invention. FIG. 18 illustrates a receiving device 200c according to the third embodiment. The transmission device 100 c includes a light emitting unit 156 instead of the mark generation unit 106. Further, the transmission device 100 c includes a combining unit 122 c instead of the combining unit 122. The receiving device 200 c includes a light emission detection unit 260 instead of the mark recognition unit 210. Constituent elements similar to those of the transmitting apparatus 100 described in Embodiment 1 are assigned the same reference numerals, and descriptions thereof are omitted. The same components as the transmission apparatus 100 are a transmission data storage unit 102, a data processing unit 110, a reference clock generation unit 104, a video buffer 126, a moving image reproduction unit 128, and a display unit 130. In addition, the reading unit 112, the data division unit 114, the first code generation unit 116A, and the second code generation unit 116B of the data processing unit 110 are the same components as those in the first embodiment.
Constituent elements similar to those of receiving apparatus 200 described in Embodiment 1 are assigned the same reference numerals, and descriptions thereof are omitted. Constituent elements similar to those of the receiving apparatus 200 are an imaging unit 202, a video buffer 204, a reading unit 206, a separating unit 208, an image clipping unit 220, a code decoding unit 230, a combining unit 242, and a received data storage unit 244. Further, the first cutout part 222A and the second cutout part 222B of the image cutout part 220 are the same constituent elements as those in the first embodiment. Further, the first decoding unit 232A and the second decoding unit 232B of the code decoding unit 230 are the same constituent elements as those in the first embodiment.
 上述のように、図17の送信装置100cは、図2の送信装置100と概して同じであるが、マーク生成部106の代わりに、発光部156を備えている。また、合成部122の代わりに合成部122cを備えている。 As described above, the transmission device 100c in FIG. 17 is generally the same as the transmission device 100 in FIG. 2, but includes a light emitting unit 156 instead of the mark generation unit 106. Further, a synthesis unit 122 c is provided instead of the synthesis unit 122.
 合成部122cは、第1コード生成部116Aからの第1コード画像D31と第2コード生成部116Bからの第2コード画像D32を合成する。図2の合成部122とは異なり、タイミングマークDは合成されない。 Combining section 122c is combined with the first code image D 31 from the first code generating unit 116A of the second code image D 32 from the second code generating unit 116B. Unlike the synthesis unit 122 of FIG. 2, the timing mark D 2 I am not synthesized.
 合成部122cによる合成の結果、送信用データ(転送データ)が、赤チャンネル及び青チャンネルに割り当てられた合成画像D67が得られる。 Result of synthesis by the synthesis unit 122c, the transmission data (transfer data), the combined image D 67 assigned to the red channel and blue channel is obtained.
 映像バッファ126は、この合成画像D67を順次連結する。連結することで得られた合成映像D68においても、実施の形態1と同様に、1ショット期間T(4フレーム期間)毎にコード画像Dの内容が切り換わる。 Video buffer 126 sequentially connecting the composite image D 67. Also in the synthesized video D 68 obtained by linking, the content of the code image D 3 is switched every one shot period T d (four frame periods) as in the first embodiment.
 発光部156は、表示部130の表示画面131に隣接して配置されている。つまり、発光部156は、受信装置200cの撮像部202により、表示部130の表示画面131と同一視野で撮影できるように配置されている。 The light emitting unit 156 is disposed adjacent to the display screen 131 of the display unit 130. That is, the light emitting unit 156 is arranged so that the imaging unit 202 of the receiving device 200c can shoot with the same field of view as the display screen 131 of the display unit 130.
 発光部156は、LED等で構成されたものである。発光部156は、基準クロック発生部104で発生されたクロック信号CLに同期して、合成映像D68においてコード画像Dが切り換わるタイミングの直前及び直後の期間以外の期間のみ光を発光する。例えば、発光部156が光を発光する期間は、コード画像Dの切り換わりの直前及び直後のフレーム期間(ガード期間)以外の期間(ボディ期間)である。発光部156は、例えば、緑色の光を発光する。送信装置100cにおいて別の役割を持つモニターランプを発光部156として利用しても良い。例えば、電源のオンオフを示すために用いられているモニターランプを発光部156として利用しても良い。 The light emitting unit 156 is configured by an LED or the like. Emitting unit 156, in synchronization with the generated clock signal CL at the reference clock generator 104, to emit light only just before and the period other than the period immediately after the timing of switching the code image D 3 in the synthesis image D 68. For example, the period during which the light emitting unit 156 to emit light is switched immediately before and the frame period immediately after the code image D 3 (guard period) other periods (body period). The light emitting unit 156 emits green light, for example. A monitor lamp having another role in the transmission device 100c may be used as the light emitting unit 156. For example, a monitor lamp used to indicate power on / off may be used as the light emitting unit 156.
 発光部156における発光を、コード生成部116A及び116Bにおけるコード画像D31,D32の出力と同期させるため、読出し部112は1ショットのデータ(1ショット期間Tで表示されるコード画像D)を読み出す度に、そのことを示す信号(同期信号SY)を出力する。そして、発光部156は、読出し部112からの上記の信号(同期信号SY)を受けて、発光のタイミングを決める。 In order to synchronize the light emission in the light emitting unit 156 with the output of the code images D 31 and D 32 in the code generating units 116A and 116B, the reading unit 112 uses one shot data (the code image D 3 displayed in one shot period T d). ) Is read each time a signal (synchronization signal SY) is output. The light emitting unit 156 receives the signal (synchronization signal SY) from the reading unit 112 and determines the timing of light emission.
 上述のように、図18に示される受信装置200cは、図5の受信装置200と概して同じであるが、マーク認識部210の代わりに、発光検出部260を備えている点で異なる。
 撮像部202は、映像(合成映像D68)が表示された送信装置100cの表示部130の表示画面131と発光部156とを同一視野で撮像する。そして、撮像部202は、撮像により、表示画面131に表示された映像(合成映像D68)及び発光部156からの光を含む映像を取得する。
As described above, the receiving apparatus 200c shown in FIG. 18 is generally the same as the receiving apparatus 200 of FIG. 5, but differs in that a light emission detecting unit 260 is provided instead of the mark recognizing unit 210.
The imaging unit 202 images the display screen 131 of the display unit 130 and the light emitting unit 156 of the transmission device 100c on which the video (the synthesized video D 68 ) is displayed with the same field of view. Then, the imaging unit 202 acquires an image including the image (synthesized image D 68 ) displayed on the display screen 131 and the light from the light emitting unit 156 by imaging.
 実施の形態1と同様に、撮像部202による撮像で得られるデータ(映像データD)は映像バッファ204に蓄積される。1データファイルDのデータがすべて映像バッファ204に蓄積された後に、読出し部206で1フレーム(フレームのデータD)ずつ読み出される。フレームのデータDは、分離部208で分離される。緑色の成分値のデータは、発光検出部260に供給される。赤色の成分値のデータは、第1切出し部222Aに供給される。青色の成分値のデータは、第2切出し部222Bに供給される。 As in the first embodiment, data (video data D 7 ) obtained by imaging by the imaging unit 202 is accumulated in the video buffer 204. After all the data of one data file D 0 is accumulated in the video buffer 204, the reading unit 206 reads the data one frame (frame data D 8 ) at a time. The frame data D 8 is separated by the separation unit 208. The green component value data is supplied to the light emission detection unit 260. The red component value data is supplied to the first cutout unit 222A. The blue component value data is supplied to the second cutout unit 222B.
 発光検出部260は、分離部208から与えられる緑色の成分値のデータに基づき、各フレームにおいて発光部156が発光した状態で写っているか否かを判定する。発光検出部260は、発光した状態で写っていると判定したとき(発光を検出したとき)は、そのフレームにおけるコード画像Dは正しく復号することが可能なものであると判定する。発光検出部260は、この判定結果を画像切出し部220に伝達する。発光検出部260は、画像切出し部220に対してコード画像Dの切出しを指示する。
 画像切出し部220は、この指示(画像切り出し信号D10)に応じてコード画像Dの切出しを行なう。これにより、発光が検出されたフレームからコード画像Dが切出される。
 上記以外の点で、実施の形態3は、実施の形態1と同じである。
Based on the green component value data provided from the separation unit 208, the light emission detection unit 260 determines whether or not the light emission unit 156 is reflected in each frame. Luminescent detection unit 260 (when the detection of luminescence) when it is determined that the reflected light-emitting state, it is determined that the code image D 3 in the frame are those that can be correctly decoded. The light emission detection unit 260 transmits this determination result to the image cutout unit 220. Luminescent detection unit 260 instructs the extraction of the code image D 3 to the image clipping unit 220.
Image clipping unit 220 performs extraction of the code image D 3 in accordance with the instruction (image clipping signal D 10). Thus, light emission code image D 3 from the detected frame is cut.
Except for the above, the third embodiment is the same as the first embodiment.
実施の形態4.
 実施の形態3では、発光部156がコード画像Dとは異なる色の光を発光するものである。受信装置200cでは撮像画像中の画像部分の色で発光部156からの発光を分離している。しかし、発光部156の位置又は明滅のタイミングなどに基づいて、発光部156からの光を分離するようにしても良い。以下ではそのような実施の形態4を説明する。
Embodiment 4 FIG.
In the third embodiment, in which the light emitting unit 156 to emit different colors of light from the code image D 3. In the receiving device 200c, the light emission from the light emitting unit 156 is separated by the color of the image portion in the captured image. However, the light from the light emitting unit 156 may be separated based on the position of the light emitting unit 156 or the blinking timing. Such a fourth embodiment will be described below.
 図19は、本発明の実施の形態4の送信装置100dを示す。図20は、実施の形態4の受信装置200dを示す。 FIG. 19 shows a transmitting apparatus 100d according to the fourth embodiment of the present invention. FIG. 20 illustrates a receiving device 200d according to the fourth embodiment.
 図19の送信装置100dは、図2の送信装置100と概して同じである。しかし、送信装置100dは、マーク生成部106の代わりに、図17の送信装置100cと同様に、発光部158を備えている。そして、送信装置100dは、データ処理部110の代わりに、データ処理部110dを備えている。そして、送信装置100dは、合成部122の代わりに合成部122dを備えている。 The transmission device 100d in FIG. 19 is generally the same as the transmission device 100 in FIG. However, the transmission device 100d includes a light emitting unit 158 instead of the mark generation unit 106, similarly to the transmission device 100c of FIG. The transmission device 100d includes a data processing unit 110d instead of the data processing unit 110. The transmission device 100d includes a combining unit 122d instead of the combining unit 122.
 データ処理部110dは、図2のデータ処理部110と概して同じであるが、データ分割部114の代わりに、データ分割部114dを備えている。そして、データ処理部110dは、第1コード生成部116A及び第2コード生成部116Bに加えて第3コード生成部116Cを備えている。 The data processing unit 110d is generally the same as the data processing unit 110 of FIG. 2, but includes a data dividing unit 114d instead of the data dividing unit 114. The data processing unit 110d includes a third code generation unit 116C in addition to the first code generation unit 116A and the second code generation unit 116B.
 実施の形態1で説明した送信装置100の構成要素と同様の構成要素には、同一符号を付し、その説明を省略する。送信装置100と同様の構成要素は、送信データ記憶部102、基準クロック発生部104、映像バッファ126、動画再生部128及び表示部130である。また、データ処理部110の読出し部112、第1コード生成部116A及び第2コード生成部116Bも実施の形態1と同様の構成要素である。
 実施の形態1で説明した受信装置200の構成要素と同様の構成要素には、同一符号を付し、その説明を省略する。受信装置200と同様の構成要素は、撮像部202、映像バッファ204、読出し部206、分離部208及び受信データ記憶部244である。また、画像切出し部220dの第1切出し部222A及び第2切出し部222Bも実施の形態1と同様の構成要素である。また、コード復号部230dの第1復号部232A及び第2復号部232Bも実施の形態1と同様の構成要素である。
Constituent elements similar to those of the transmitting apparatus 100 described in Embodiment 1 are assigned the same reference numerals, and descriptions thereof are omitted. Constituent elements similar to those of the transmission device 100 are a transmission data storage unit 102, a reference clock generation unit 104, a video buffer 126, a moving image reproduction unit 128, and a display unit 130. Further, the reading unit 112, the first code generation unit 116A, and the second code generation unit 116B of the data processing unit 110 are the same components as those in the first embodiment.
Constituent elements similar to those of receiving apparatus 200 described in Embodiment 1 are assigned the same reference numerals, and descriptions thereof are omitted. The same components as the receiving apparatus 200 are an imaging unit 202, a video buffer 204, a reading unit 206, a separation unit 208, and a reception data storage unit 244. Further, the first cutout part 222A and the second cutout part 222B of the image cutout part 220d are the same constituent elements as those in the first embodiment. Further, the first decoding unit 232A and the second decoding unit 232B of the code decoding unit 230d are the same constituent elements as those in the first embodiment.
 データ分割部114dは、読出し部112により読み出された各ショットのデータを、3つのデータ部分に分割する。そして、データ分割部114dは、第1のデータ部分(第1データユニットD51)を第1コード生成部116Aに与える。データ分割部114dは、第2のデータ部分(第2データユニットD52)を第2コード生成部116Bに与える。データ分割部114dは、第3のデータ部分(第3データユニットD53)を第3コード生成部116Cに与える。 The data dividing unit 114d divides the data of each shot read by the reading unit 112 into three data parts. Then, the data dividing unit 114d gives the first data portion (first data unit D 51 ) to the first code generating unit 116A. The data dividing unit 114d gives the second data portion (second data unit D 52 ) to the second code generating unit 116B. The data dividing unit 114d gives the third data portion (third data unit D 53 ) to the third code generating unit 116C.
 上述のように、第1コード生成部116A及び第2コード生成部116Bは、実施の形態1における第1コード生成部116A及び第2コード生成部116Bと同様である。
 第3コード生成部116Cは、データ分割部114から与えられた第3データユニットD53を、対応するコード画像(第3コード画像D33)に変換する。即ち、第3コード生成部116Cは、第3データユニットD53を、図形コードに変換する。そして、第3コード生成部116Cは、さらにこの図形コードを、これに対応するコード画像(第3コード画像D33)に変換する。そして、第3コード生成部116Cは、第3コード画像D33を出力する。
 このように、第3コード生成部116Cは、1ショットのデータDを3つのチャンネルに分割する。このため、第3コード生成部116Cは、1ショットのデータDの量を、実施の形態1の場合よりも多くすることができる。
As described above, the first code generation unit 116A and the second code generation unit 116B are the same as the first code generation unit 116A and the second code generation unit 116B in the first embodiment.
The third code generation unit 116C converts the third data unit D 53 given from the data division unit 114 into a corresponding code image (third code image D 33 ). That is, the third code generation unit 116C converts the third data unit D 53 into a graphic code. The third code generation unit 116C further converts the graphic code into a code image (third code image D 33 ) corresponding to the graphic code. The third code generating unit 116C outputs the third code image D 33.
Thus, the third code generating unit 116C divides one shot data D 4 into three channels. Therefore, the third code generating unit 116C is the amount of data D 4 in 1 shot, it can be made larger than that of the first embodiment.
 合成部122dは、第1コード生成部116Aから出力される第1コード画像D31と、第2コード生成部116Bから出力される第2コード画像D32と、第3コード生成部116Cから出力される第3コード画像D33とを、それぞれ独立した色チャンネルに割り当てて合成する。そして、合成部122dは、合成画像D61(カラー画像)を生成する。
 例えば、合成部122dは、第1コード画像を赤(R)チャンネルに割り当てて合成を行う。そして、合成部122dは、第2コード画像を青(B)チャンネルに割り当てて合成を行う。そして、合成部122dは、第3コード画像を緑(G)チャンネルに割り当てて合成を行う。このような処理の結果、赤色、青色及び緑色のチャンネルに割り当てられた合成画像D61が得られる。
Combining unit 122d includes a first code image D 31 outputted from the first code generating unit 116A, and the second code image D 32 outputted from the second code generating unit 116B, output from the third code generating unit 116C and a third code image D 33 that is synthesized assigned to each independent color channel. Then, the synthesis unit 122d generates a synthesized image D 61 (color image).
For example, the composition unit 122d performs composition by assigning the first code image to the red (R) channel. Then, the combining unit 122d performs the combining by assigning the second code image to the blue (B) channel. Then, the combining unit 122d performs the combining by assigning the third code image to the green (G) channel. As a result of such processing, a composite image D 61 assigned to the red, blue and green channels is obtained.
 この合成画像D61を順次連結することで得られる合成映像D63においても、実施の形態1と同様に、1ショット期間T(4フレーム期間)毎にコード画像Dの内容が切り換わる。 Also in the composite video D 63 obtained by sequentially connecting the composite images D 61 , the contents of the code image D 3 are switched every one shot period T d (4 frame periods) as in the first embodiment.
 発光部158は、実施の形態3の発光部156と同様に、表示部130の表示画面131に隣接して配置される。そして、発光部158は、受信装置200dの撮像部202により、表示部130の表示画面131と同一視野で撮影できるように配置されている。 The light emitting unit 158 is disposed adjacent to the display screen 131 of the display unit 130, similarly to the light emitting unit 156 of the third embodiment. And the light emission part 158 is arrange | positioned so that it can image | photograph with the same visual field as the display screen 131 of the display part 130 by the imaging part 202 of the receiver 200d.
 また、発光部158は、実施の形態3の発光部156と同様に、LED等で構成されたものである。発光部158は、基準クロック発生部104で発生されたクロック信号CLに同期して、合成映像においてコード画像Dが切り換わるタイミングの直前及び直後の期間以外の期間のみ発光する。例えば、発光部158は、コード画像Dの切り換わりの直前及び直後のフレーム期間(ガード期間)以外の期間(ボディ期間)のみ発光する。実施の形態3について述べたのと同様に、送信装置100dにおいて別の役割を持つモニターランプを発光部158として利用しても良い。
例えば、送信装置100dは、電源のオンオフを示すために用いられているモニターランプを発光部158として利用しても良い。
The light emitting unit 158 is configured by an LED or the like, similar to the light emitting unit 156 of the third embodiment. Emitting unit 158 in synchronization with the reference clock generator 104 generates clock signals CL, emits light only immediately before and the period other than the period immediately after the timing of switching the code image D 3 in the synthesis image. For example, the light emitting unit 158, immediately before and frame period (guard period) other periods (body period) immediately after the switching of the code image D 3 only emits light. As described in the third embodiment, a monitor lamp having another role in the transmission device 100d may be used as the light emitting unit 158.
For example, the transmission device 100d may use a monitor lamp used to indicate power on / off as the light emitting unit 158.
 実施の形態3の発光部156は、第1コード画像D31及び第2コード画像D32に割り当てられる色とは異なる色を発光するものであった。即ち、発光部156は、上記の例では緑色の光を発光するものであった。しかし、実施の形態4の発光部158は、発光する光に色についての上記のような制約はない。 Emitting portion 156 of the third embodiment has been to emit a different color from the color assigned to the first code image D 31 and the second code image D 32. That is, the light emitting unit 156 emits green light in the above example. However, the light emitting unit 158 of Embodiment 4 does not have the above restriction on the color of the emitted light.
 発光部158における発光を、コード生成部116A、コード生成部116B及びコード生成部116Cにおけるコード画像D31,画像D32,画像D33の出力と同期させるため、読出し部112は、1ショットのデータDを読み出す度に、そのことを示す信号(同期信号SY)を出力する。そして、発光部158は、読出し部112からの上記の信号(同期信号SY)を受けて、発光のタイミングを決める。 In order to synchronize the light emission in the light emitting unit 158 with the output of the code image D 31 , the image D 32 , and the image D 33 in the code generation unit 116A, the code generation unit 116B, and the code generation unit 116C, the reading unit 112 performs one shot of data every time reading the D 4, and outputs a signal (synchronization signal SY) indicating that. The light emitting unit 158 receives the signal (synchronization signal SY) from the reading unit 112 and determines the timing of light emission.
 図20に示される受信装置200dは、図5の受信装置200と概して同じであるが、マーク認識部210の代わりに、発光検出部262を備えている。また、受信装置200dは、画像切出し部220の代わりに画像切出し部220dを備えている。また、受信装置200dは、コード復号部230の代わりにコード復号部230dを備えている。
 画像切出し部220dは、第1切出し部222A及び第2切出し部222Bのほかに、第3切出し部222Cを備える点で、画像切出し部220と異なる。
 コード復号部230dは、第1復号部232A及び第2復号部232Bのほかに、第3復号部232Cを備える点で、コード復号部230と異なる。
A receiving device 200d shown in FIG. 20 is generally the same as the receiving device 200 of FIG. 5, but includes a light emission detection unit 262 instead of the mark recognition unit 210. The receiving device 200d includes an image cutout unit 220d instead of the image cutout unit 220. The receiving apparatus 200d includes a code decoding unit 230d instead of the code decoding unit 230.
The image cutout unit 220d is different from the image cutout unit 220 in that it includes a third cutout unit 222C in addition to the first cutout unit 222A and the second cutout unit 222B.
The code decoding unit 230d is different from the code decoding unit 230 in that it includes a third decoding unit 232C in addition to the first decoding unit 232A and the second decoding unit 232B.
 撮像部202は、映像が表示された送信装置100dの表示部130の表示画面131と発光部158とを同一視野で撮像するものである。撮像部202は、撮像により、表示画面131に表示された合成映像D63及び発光部158からの光を含む映像を取得する。 The imaging unit 202 images the display screen 131 of the display unit 130 and the light emitting unit 158 of the transmission device 100d on which an image is displayed with the same field of view. The imaging unit 202 acquires a video including light from the composite video D 63 and the light emitting unit 158 displayed on the display screen 131 by imaging.
 実施の形態1と同様に、撮像部202による撮像で得られるデータは、映像バッファ204に蓄積される。1データファイルDのデータがすべて映像バッファ204に蓄積された後に、読出し部206で1フレームずつ読み出される。読出し部206に読み出されたフレームのデータDは、分離部208に供給される。また、読出し部206に読み出されたフレームのデータDは、発光検出部262にも供給される。
 分離部208では、読出し部206からのフレームのデータDが、赤色成分のデータD9R、青色成分のデータD9B及び緑色成分のデータD9Gに分離される。そして、それぞれ第1切出し部222A、第2切出し部222B及び第3切出し部222Cに供給される。つまり、赤色成分のデータD9Rは、第1切出し部222Aに供給される。青色成分のデータD9Bは、第2切出し部222Bに供給される。緑色成分のデータD9Gは、第3切出し部222Cに供給される。
As in the first embodiment, data obtained by imaging by the imaging unit 202 is accumulated in the video buffer 204. After all the data of one data file D 0 is accumulated in the video buffer 204, the reading unit 206 reads the data one frame at a time. The frame data D 8 read by the reading unit 206 is supplied to the separation unit 208. The frame data D 8 read by the reading unit 206 is also supplied to the light emission detection unit 262.
The separation unit 208, the data D 8 frames from the read unit 206, the red component data D 9R, is separated into data D 9G data D 9B and green component and blue component. Then, they are supplied to the first cutout part 222A, the second cutout part 222B, and the third cutout part 222C, respectively. That is, the red component data D 9R is supplied to the first cutout unit 222A. Data D 9B of the blue component is supplied to the second cutout portion 222B. Data D 9G green component is supplied to a third cutout portion 222C.
 発光検出部262は、読出し部206から供給される各フレームのデータDを順次受信する。発光検出部262は、順次受信したフレームのデータDで構成される映像を解析する。そして、発光検出部262は、各フレームの画像に含まれるコード画像Dと、映像内での発光部158からの光の位置とを特定する。ここで「光の位置」とは、発光部158からの光に対応する画像部分である。発光検出部262は、映像内での発光部158からの光の位置を、発光部158からの光の位置関係及び映像中の発光部158の明滅のタイミングから特定する。そして、発光検出部262は、各フレームのデータDにおいて発光部158が発光した状態で写っているか否かを判定する。発光した状態で写っていると判定したとき(発光を検出したとき)には、発光検出部262は、そのフレームにおけるコード画像は正しく復号することが可能なものであると判定する。発光検出部262は、この判定結果を画像切出し部220dに伝達する。そして、発光検出部262は、画像切出し部220dに対してコード画像Dの切出しを指示する(画像切り出し信号D10)。 Luminescent detection unit 262 sequentially receives the data D 8 of each frame supplied from the reading unit 206. Luminescent detection unit 262 analyzes the image composed of data D 8 frames sequentially received. Then, the light emitting detection unit 262, a code image D 3 included in the image of each frame, to identify the position of the light from the light emitting portion 158 in the image. Here, the “light position” is an image portion corresponding to the light from the light emitting unit 158. The light emission detection unit 262 identifies the position of the light from the light emitting unit 158 in the video from the positional relationship of the light from the light emitting unit 158 and the blinking timing of the light emitting unit 158 in the video. Then, the light emission detection unit 262 determines whether or not the light emission unit 158 is reflected in the data D 8 of each frame. When it is determined that the image is captured in a light-emitting state (when light emission is detected), the light emission detection unit 262 determines that the code image in that frame can be correctly decoded. The light emission detection unit 262 transmits the determination result to the image cutout unit 220d. Then, the light emission detecting unit 262 instructs the extraction of the code image D 3 to the image clipping unit 220d (image clipping signal D 10).
 画像切出し部220dは、この指示(画像切り出し信号D10)に応じてコード画像Dの切出しを行なう。これにより、発光が検出されたフレームからコード画像Dが切出される。即ち、第1切出し部222Aは、発光が検出されたフレームの赤色成分の画像から、第1コード画像D11Rを切り出す。
 第2切出し部222Bは、発光が検出されたフレームの青色成分の画像から、第2コード画像D11Bを切り出す。
 第3切出し部222Cは、発光が検出されたフレームの緑色成分の画像から、第3コード画像D11Gを切り出す。
Image clipping unit 220d performs extraction of the code image D 3 in accordance with the instruction (image clipping signal D 10). Thus, light emission code image D 3 from the detected frame is cut. That is, the first cutout unit 222A cuts out the first code image D11R from the red component image of the frame in which the light emission is detected.
The second cutout unit 222B cuts out the second code image D11B from the blue component image of the frame in which the light emission is detected.
The third cutout unit 222C cuts out the third code image D11G from the green component image of the frame in which the light emission is detected.
 コード復号部230dは、画像切出し部220dで切り出された画像に含まれているコード画像D11を復号する。そして、コード復号部230dは、この復号されたコード画像D11に対応する色単位の復号合済み復号データD12を取得する。
 第1復号部232A及び第2復号部232Bは、図5に示されている第1復号部232A及び第2復号部232Bと同様である。
 第3復号部232Cは、第3切出し部239Cで切り出された画像に含まれている第3コード画像D11Gを復号する。そして、第3復号部232Cは、色単位の復号済み復号データD12Cを生成する。
Code decoder 230d decodes the code image D 11 contained in the cut out images in the image clipping unit 220d. The code decoder 230d obtains the decoded if already decoded data D 12 color units corresponding to the code image D 11 which is the decoded.
The first decoding unit 232A and the second decoding unit 232B are the same as the first decoding unit 232A and the second decoding unit 232B shown in FIG.
Third decoding unit 232C decodes the third code image D 11G contained in the cut out images in the third cutout portion 239C. Then, the third decoding unit 232C generates decoded data D 12C that has been decoded in units of colors.
 合成部242dは、第1復号部232A、第2復号部232B及び第3復号部232Cから出力される色単位の復号済み復号データD12R,D12B,D12Cを組み合わせる。そして、合成部242dは、これらの色単位の復号済み復号データD12R,D12B,D12Cを合成し、1ショット分の転送データD13を復元する。
 上記以外の点で、実施の形態4は、実施の形態1と同じである。
The synthesizing unit 242d combines the decoded data D 12R , D 12B , and D 12C in units of colors output from the first decoding unit 232A, the second decoding unit 232B, and the third decoding unit 232C. Then, the synthesizing unit 242d synthesizes the decoded data D 12R , D 12B , and D 12C of these color units to restore the transfer data D 13 for one shot.
Except for the above, the fourth embodiment is the same as the first embodiment.
実施の形態5.
 実施の形態1では、各ショットのデータDを複数のデータ部分(データユニットD)に分け、それぞれを別の色チャンネルに割り当てて、異なる色のコード画像Dを生成して表示している。しかし、コード画像Dの生成に用いられる色チャンネルは一つであっても良い。以下ではそのような実施の形態5を説明する。
 図21は、本発明の実施の形態5の送信装置100eを示す。図22は、実施の形態5の受信装置200eを示す。
Embodiment 5 FIG.
In the first embodiment, the data D 4 of each shot is divided into a plurality of data portions (data units D 5 ), each of which is assigned to a different color channel, and a code image D 3 of a different color is generated and displayed. Yes. However, color channel used to generate the code image D 3 may be one. Such a fifth embodiment will be described below.
FIG. 21 shows a transmitting apparatus 100e according to the fifth embodiment of the present invention. FIG. 22 shows a receiving apparatus 200e of the fifth embodiment.
 図21の送信装置100eは、図2の送信装置100と概して同じであるが、データ処理部110の代わりに、データ処理部110eを備えている。また、送信装置100eは、合成部122の代わりに合成部122eを備えている。 21 is generally the same as the transmission device 100 of FIG. 2, but includes a data processing unit 110e instead of the data processing unit 110. The transmission device 100e includes a combining unit 122e instead of the combining unit 122.
 図22の受信装置200eは、図5の受信装置200と概して同じであるが、分離部208の代わりに分離部208eを備えている。受信装置200eは、画像切出し部220の代わりに画像切出し部220eを備えている。受信装置200eは、コード復号部230の代わりにコード復号部230eを備えている。そして、受信装置200eには、合成部242が設けられていない。 22 is generally the same as the receiving apparatus 200 of FIG. 5, but includes a separating unit 208e instead of the separating unit 208. The receiving device 200e includes an image cutout unit 220e instead of the image cutout unit 220. The receiving device 200e includes a code decoding unit 230e instead of the code decoding unit 230. The receiving device 200e is not provided with the combining unit 242.
 実施の形態1で説明した送信装置100の構成要素と同様の構成要素には、同一符号を付し、その説明を省略する。送信装置100と同様の構成要素は、送信データ記憶部102、基準クロック発生部104、マーク生成部106、映像バッファ126、動画再生部128及び表示部130である。また、マーク生成部106の画像記憶部107も実施の形態1と同様の構成要素である。 Constituent elements similar to those of the transmitting apparatus 100 described in the first embodiment are denoted by the same reference numerals and description thereof is omitted. Constituent elements similar to those of the transmission device 100 are a transmission data storage unit 102, a reference clock generation unit 104, a mark generation unit 106, a video buffer 126, a moving image reproduction unit 128, and a display unit 130. Further, the image storage unit 107 of the mark generation unit 106 is a component similar to that of the first embodiment.
 受信装置200と同様の構成要素は、撮像部202、映像バッファ204、読出し部206、マーク認識部210、合成部242及び受信データ記憶部244である。 Constituent elements similar to those of the receiving apparatus 200 are an imaging unit 202, a video buffer 204, a reading unit 206, a mark recognition unit 210, a combining unit 242, and a received data storage unit 244.
 データ処理部110eは、図2のデータ処理部110とは異なり、単一のコード生成部116を備えている。また、データ処理部110eは、データ分割部114が設けられていない。読出し部112eからの各ショットのデータDが複数のチャンネルに分割されることなく、コード生成部116に供給される。 Unlike the data processing unit 110 in FIG. 2, the data processing unit 110 e includes a single code generation unit 116. Further, the data processing unit 110e is not provided with the data dividing unit 114. Without data D 4 of each shot from the reading unit 112e is divided into a plurality of channels, supplied to the code generator 116.
 コード生成部116は、図2の第1コード生成部116A又は第2コード生成部116Bと同じものである。つまり、コード生成部116は、図2の第1コード生成部116A又は第2コード生成部116Bと同じ機能を有する。
 合成部122eは、マーク生成部106からのタイミングマークDと、コード生成部116からのコード画像Dとを、それぞれ緑(G)チャンネル及び赤(R)チャンネルに割り当てて合成する。
 合成部122eの出力(合成画像D61)は、映像バッファ126に供給される。
 上記以外の点では、図21の送信装置100eの動作は図2の送信装置100と同じである。
The code generator 116 is the same as the first code generator 116A or the second code generator 116B in FIG. That is, the code generation unit 116 has the same function as the first code generation unit 116A or the second code generation unit 116B in FIG.
Combining section 122e includes a timing mark D 2 from the mark generator 106, and a code image D 3 from the code generation unit 116, respectively synthesized allocated to green (G) channel, and red (R) channel.
The output of the combining unit 122e (the combined image D 61 ) is supplied to the video buffer 126.
Except for the above, the operation of the transmission device 100e in FIG. 21 is the same as that of the transmission device 100 in FIG.
 分離部208eは、読出し部206で読み出されたフレームのデータDを、赤チャンネルと、緑チャンネルとに分離する。
 画像切出し部220eは単一の画像切出し部222を有する。画像切出し部222は、分離部208eからの赤チャンネルの赤色の成分値のデータD9からコード画像D11Rを切出す。
 コード復号部230eは復号部232を有する。コード復号部232は、画像切出し部222で切出されたコード画像D11Rを復号する。
 コード復号部232の出力(色単位の復号済み復号データD12R)は受信データ記憶部244に供給される。
 上記以外の点では、図22の受信装置200eの動作は図5の受信装置200と同じである。
Separation unit 208e includes data D 8 of frames read by the reading unit 206, separates the red channel, the green channel.
The image cutout unit 220e has a single image cutout unit 222. Image clipping unit 222 cuts out a code image D 11R from the data D9 R of the red component values of the red channel from the separation unit 208e.
The code decoding unit 230e has a decoding unit 232. Code decoder 232 decodes the code image D 11R cut out by the image cutting out unit 222.
The output of the code decoding unit 232 (decoded decoded data D 12R in color units) is supplied to the received data storage unit 244.
Except for the above, the operation of the receiving device 200e in FIG. 22 is the same as that of the receiving device 200 in FIG.
実施の形態6.
 実施の形態1では、タイミングマークDをコード画像Dと別の色チャンネルを用いて送るようにした。しかし、このような方法が適さない場合もある。例えば、表示部130又は撮像部202のどちらかがモノクロである場合には、このような方法を行うことができない。また、回転式カラーフィルターを用いて色を分離し、色毎に順次読み込む方式の場合には、このような方法を行うことができない。また、色チャンネルを複数利用できる場合でも、すべての色チャンネルをコード画像Dに割り当てたい場合もある。
Embodiment 6 FIG.
In the first embodiment, and to send a timing mark D 2 with different color channels and the code image D 3. However, there are cases where such a method is not suitable. For example, such a method cannot be performed when either the display unit 130 or the imaging unit 202 is monochrome. In addition, such a method cannot be performed in the case of a system in which colors are separated using a rotary color filter and read sequentially for each color. Further, even when the color channel can more available, there is a case you want to assign all the color channels in the code image D 3.
 これらの場合、タイミングマークDとしてコード画像Dを囲む図形を使用することもできる。図23、図24(A)、図24(B)及び図24(C)にこの場合の例を示す。図23は、タイミングマークDとコード画像Dとのレイアウトを示す概略図である。図24(A)、図24(B)及び図24(C)は、送信装置100の表示部130に表示される映像の時間的な変化を示す概略図である。図24(A)は、タイミングマークDを表わしている。図24(B)は、コード画像Dを表わしている。図14(C)は、各期間におけるタイミングマークDとコード画像Dとのレイアウトを表わしている。図24(A)及び図24(B)において、縦軸は各信号の出力の有無を示し、「H」で信号は出力され、「L」で信号は出力されない。図24(A)及び図24(B)において、横軸は時間を示している。 In these cases, it is also possible to use a figure enclosing the code image D 3 as a timing mark D 2. Examples of this case are shown in FIGS. 23, 24A, 24B, and 24C. Figure 23 is a schematic diagram showing a layout of a timing mark D 2 and code image D 3. 24A, 24B, and 24C are schematic diagrams illustrating temporal changes in video displayed on the display unit 130 of the transmission device 100. FIG. FIG. 24 (A) represents a timing mark D 2. FIG. 24 (B) represents a code image D 3. FIG. 14 (C) represents the layout of the timing mark D 2 and the code image D 3 in each period. 24A and 24B, the vertical axis indicates whether or not each signal is output. A signal is output at “H” and no signal is output at “L”. In FIGS. 24A and 24B, the horizontal axis represents time.
  図23に示される例では、タイミングマークDがコード画像Dを囲む枠状の図形で構成されている。
 図24(A)、図24(B)及び図24(C)は、送信装置100の表示部130に表示される映像の時間的な変化を示す概略図である。図24(A)及び図24(B)に示されているように、期間T,T,T,Tにおいては、タイミングマークDが表示されていない。このため、これら期間T,T,T,Tでは、コード画像Dの復号が行われない。一方、期間T及び期間Tにおいては、タイミングマークDが表示されている。このため、これらの期間T,Tに、コード画像Dの復号が行われる。
In the example shown in FIG. 23, and a frame-shaped figure timing mark D 2 surrounds the code image D 3.
24A, 24B, and 24C are schematic diagrams illustrating temporal changes in video displayed on the display unit 130 of the transmission device 100. FIG. Figure 24 (A) and as shown in FIG. 24 (B), in a period T 1, T 3, T 4 , T 6, the timing mark D 2 is not displayed. Therefore, in these periods T 1, T 3, T 4 , T 6, the decoded code image D 3 is not performed. On the other hand, in a period T 2 and time T 5, the timing mark D 2 are displayed. Therefore, during these periods T 2, T 5, the decoded code image D 3 is performed.
 コード画像Dが切り換わる瞬間に撮影されたフレームでは、コード画像Dが不完全なことがある。しかし、タイミングマークD全体が撮影されている場合には、タイミングマークDの内側に位置するコード画像も正しく読み込めているとみなすことができる。
 このようなタイミングマークDを用いることによって、連続的に順次表示されるコード画像Dを自動的に効率よく読み込むことができる。
The frame code image D 3 taken at the moment of switching, the code image D 3 is sometimes incomplete. However, if the entire timing mark D 2 is taken it can be regarded as being read even code image located inside the timing mark D 2 correctly.
By using such timing marks D 2, it can be read automatically and efficiently code image D 3 which is continuously and sequentially displayed.
 以下に説明する実施の形態6及び7は、図23及び図24(A)~図24(C)に示されるタイミングマークDを用いて、コード画像Dの切出しを行なうものである。 Sixth and seventh embodiments to be described below are those with reference to the timing mark D 2 shown in FIG. 23 and FIG. 24 (A) ~ FIG 24 (C), performs clipping of the code image D 3.
 図25は、実施の形態6における送信装置100fを示す。図26は、実施の形態6における受信装置200fを示す。 FIG. 25 shows a transmission device 100f according to the sixth embodiment. FIG. 26 illustrates a receiving device 200f according to the sixth embodiment.
 図25に示される送信装置100fは、図21の送信装置100eと概して同じであるが、マーク生成部106の代わりに、マーク生成部106fを備えている。
送信装置100fは、合成部122eの代わりに合成部122fを備えている。
A transmission apparatus 100f shown in FIG. 25 is generally the same as the transmission apparatus 100e of FIG. 21, but includes a mark generation unit 106f instead of the mark generation unit 106.
The transmission device 100f includes a combining unit 122f instead of the combining unit 122e.
 図26に示される受信装置200fは、概して図22の受信装置200eと同じであるが、分離部208eの代わりに分離部208fを備えている。受信装置200fは、マーク認識部210の代わりに、マーク認識部210fを備えている。 The receiving device 200f shown in FIG. 26 is generally the same as the receiving device 200e in FIG. 22, but includes a separating unit 208f instead of the separating unit 208e. The receiving device 200f includes a mark recognition unit 210f instead of the mark recognition unit 210.
 実施の形態1で説明した送信装置100の構成要素と同様の構成要素には、同一符号を付し、その説明を省略する。送信装置100と同様の構成要素は、送信データ記憶部102、基準クロック発生部104、映像バッファ126、動画再生部128及び表示部130である。また、マーク生成部106fの画像記憶部107は実施の形態1と同様の構成要素である。 Constituent elements similar to those of the transmitting apparatus 100 described in the first embodiment are denoted by the same reference numerals and description thereof is omitted. Constituent elements similar to those of the transmission device 100 are a transmission data storage unit 102, a reference clock generation unit 104, a video buffer 126, a moving image reproduction unit 128, and a display unit 130. The image storage unit 107 of the mark generation unit 106f is the same component as that in the first embodiment.
 実施の形態1で説明した受信装置200の構成要素と同様の構成要素には、同一符号を付し、その説明を省略する。受信装置200と同様の構成要素は、撮像部202、映像バッファ204、読出し部206及び受信データ記憶部244である。 The same components as those of the receiving apparatus 200 described in Embodiment 1 are denoted by the same reference numerals, and the description thereof is omitted. The same components as the receiving apparatus 200 are an imaging unit 202, a video buffer 204, a reading unit 206, and a received data storage unit 244.
 マーク生成部106fは、タイミングマークDとしてコード生成部116で生成されるコード画像Dを取り囲む形状のものを生成する。例えば、図23に示すように、コード画像Dを取り囲むように形成された枠状のタイミングマークDを生成する。 Mark generation unit 106f generates a shape surrounding the code image D 3 generated by the code generation unit 116 as a timing mark D 2. For example, as shown in FIG. 23, to generate a frame-like timing mark D 2 which is formed to surround the code image D 3.
 合成部122fは、枠状のタイミングマークDとコード画像Dを合成する。
 図21の構成では、コード画像DとタイミングマークDを異なる色チャンネルに割り当てている。しかし、図25の構成では使用される色チャンネルが一つである。コード画像DとタイミングマークDとは同じ色の画素値で表される。図25ではともに輝度値Yを表すものとして示している。
 上記以外の点では、図25の送信装置100fの動作は図21の送信装置100eと同じである。
Combining unit 122f synthesizes the timing mark D 2 and code image D 3 of the frame-shaped.
In the configuration of FIG. 21, it is assigned a code image D 3 and the timing mark D 2 in different color channels. However, in the configuration of FIG. 25, only one color channel is used. The code image D 3 and the timing mark D 2 represented by the pixel values of the same color. In FIG. 25, both are shown as representing the luminance value Y.
In other respects, the operation of the transmission device 100f in FIG. 25 is the same as that of the transmission device 100e in FIG.
 分離部208fは、合成画像(フレームのデータD)を解析し、中央に位置するコード画像Dと、その周囲に位置するタイミングマークDとを分離する。分離部208fは、形状及びその相対位置に基づいて、コード画像Dと、タイミングマークDとを分離する。分離部208fは、分離により生成されたタイミングマークDをマーク認識部210fに供給する(データD91Y)。分離部208fは、コード画像Dを切出し部222に供給する(データD92Y)。
 画像切出し部222は、分離部208fからのコード画像D92Yから、コード画像D93Yを切出す。コード復号部232は、画像切出し部222で切出されたコード画像D93Yを復号する。コード復号部232の出力(復号データD94Y)は受信データ記憶部244に供給される。
The separation unit 208f analyzes the composite image (frame data D 8 ), and separates the code image D 3 located in the center and the timing mark D 2 located around the code image D 3 . Separation unit 208f on the basis of the shape and relative position, separated from the code image D 3, and a timing mark D 2. Separation unit 208f supplies the timing mark D 2 generated by the separation in the mark recognition unit 210f (data D 91Y). Separation unit 208f supplies the code image D 3 in cutout section 222 (data D 92Y).
The image clipping unit 222, the code image D 92Y from the separation unit 208f, cuts out a code image D 93Y. The code decoding unit 232 decodes the code image D93Y cut out by the image cutout unit 222. The output (decoded data D 94Y ) of the code decoding unit 232 is supplied to the received data storage unit 244.
 マーク認識部210fは、分離部208fからデータD91Y(タイミングマークD)を受けとる。マーク認識部210fは、分離部208fから供給されたタイミングマークDに欠けがないことを確認する。マーク認識部210fは、タイミングマークDが含まれていたのと同じフレーム内のコード画像Dは復号に適したものであると判断する。マーク認識部210fは、切出し部222に対しコード画像Dの切出しを指示する(画像切り出し信号D10)。
 上記以外の点では、図26の受信装置200fの動作は図22の受信装置200eと同じである。
The mark recognition unit 210f receives data D 91Y (timing mark D 2 ) from the separation unit 208f. Mark recognition unit 210f confirms that there is no lack of timing marks D 2 supplied from the separation unit 208f. Mark recognition unit 210f, the code image D 3 in the same frame that was contained timing mark D 2 is determined to be suitable for decoding. Mark recognition unit 210f instructs the extraction of the code image D 3 to clipping unit 222 (image clipping signal D 10).
In other respects, the operation of the receiving device 200f in FIG. 26 is the same as that of the receiving device 200e in FIG.
実施の形態7.
 図27は、実施の形態7の送信装置100gの構成を示す。図28は、実施の形態7の受信装置200gの構成を示す。
Embodiment 7 FIG.
FIG. 27 shows a configuration of transmitting apparatus 100g according to the seventh embodiment. FIG. 28 shows a configuration of receiving apparatus 200g according to the seventh embodiment.
 図27に示される送信装置100gは、図2の送信装置100と概して同じであるが、マーク生成部106の代わりに、マーク生成部106A及びマーク生成部106Bを備える。また、送信装置100gは、合成部122の代わりに合成部122gを備える。 27 is generally the same as the transmission device 100 of FIG. 2, but includes a mark generation unit 106A and a mark generation unit 106B instead of the mark generation unit 106. In addition, the transmission device 100g includes a combining unit 122g instead of the combining unit 122.
 実施の形態1で説明した送信装置100の構成要素と同様の構成要素には、同一符号を付し、その説明を省略する。送信装置100と同様の構成要素は、送信データ記憶部102、読出し部112、データ分割部114、第1コード生成部116A、第2コード生成部116B、基準クロック発生部104、映像バッファ126、動画再生部128及び表示部130である。また、マーク生成部106A,106Bの画像記憶部107A,107Bは、実施の形態1の画像記憶部107と同様の構成要素である。 Constituent elements similar to those of the transmitting apparatus 100 described in the first embodiment are denoted by the same reference numerals and description thereof is omitted. Constituent elements similar to those of the transmission device 100 include a transmission data storage unit 102, a reading unit 112, a data division unit 114, a first code generation unit 116A, a second code generation unit 116B, a reference clock generation unit 104, a video buffer 126, a moving image A playback unit 128 and a display unit 130. Further, the image storage units 107A and 107B of the mark generation units 106A and 106B are the same components as the image storage unit 107 of the first embodiment.
 実施の形態1では、タイミングマークDは、コード画像D31,D32と異なる色チャンネルに割り当てられている。実施の形態7では、タイミングマークD24は、コード画像D31と同じ色チャンネルに割り当てられる。また、タイミングマークD25は、コード画像D32と同じ色チャンネルに割り当てられる。この点で、実施の形態7は、実施の形態6と同様である。 In the first embodiment, the timing mark D 2 is assigned a code image D 31, D 32 to a different color channels. In the seventh embodiment, the timing mark D 24 is assigned to the same color channel as the code image D 31 . The timing mark D 25 is assigned the same color channel as the code image D 32. In this respect, the seventh embodiment is the same as the sixth embodiment.
 マーク生成部106Aは、タイミングマークD24として第1コード生成部116Aで生成されるコード画像D31を取り囲む形状のものを生成する。例えば、第1コード生成部116Aで生成されるコード画像D31が図23に符号D(コード画像D)で示されるものである場合に、マーク生成部106Aは、このコード画像Dを取り囲むように形成された枠状のタイミングマークD24を生成する。
 マーク生成部106Bは、タイミングマークD25として第2コード生成部116Bで生成されるコード画像D32を取り囲む形状のものを生成する。例えば、第2コード生成部116Bで生成されるコード画像D32が図23に符号D(コード画像D)で示されるものである場合に、マーク生成部106Bは、このコード画像Dを取り囲むように形成された枠状のタイミングマークD25を生成する。
Mark generating unit 106A generates a shape surrounding the code image D 31 generated by the first code generating unit 116A as a timing mark D 24. For example, when the code image D 31 generated by the first code generation unit 116A is indicated by the code D 3 (code image D 3 ) in FIG. 23, the mark generation unit 106A displays the code image D 3 generating a frame-like timing mark D 24 which is formed to surround.
Mark generation unit 106B generates a shape surrounding the code image D 32 generated by the second code generating unit 116B as a timing mark D 25. For example, when the code image D 32 generated by the second code generation unit 116B is indicated by the code D 3 (code image D 3 ) in FIG. 23, the mark generation unit 106B converts the code image D 3 into the code image D 3 . generating a frame-like timing mark D 25 which is formed to surround.
 なお、マーク生成部106Aで生成されるタイミングマークD24とマーク生成部106Bで生成されるタイミングマークD25とは、同じ形状及び大きさのものであっても良い。また、マーク生成部106Aで生成されるタイミングマークD24とマーク生成部106Bで生成されるタイミングマークD25とは、形状又は大きさが互いに異なっていても良い。 Note that the timing mark D 24 generated by the mark generation unit 106A and the timing mark D 25 generated by the mark generation unit 106B may have the same shape and size. Further, the timing mark D 24 generated by the mark generation unit 106A and the timing mark D 25 generated by the mark generation unit 106B may have different shapes or sizes.
 合成部122gは、マーク生成部106Aからの枠状のタイミングマークD24と第1コード生成部116Aからのコード画像D31とを合成して第1の合成画像D69を生成する。この第1の合成画像D69を第1の色チャンネルに割り当てる。例えば、第1の合成画像D69を赤のチャンネルに割り当てる。
 合成部122gは、マーク生成部106Bからの枠状のタイミングマークD25と第2コード生成部116Bからのコード画像D32とを合成して第2の合成画像D70を生成する。この第2の合成画像D70を第2の色チャンネルに割り当てる。例えば、第2の合成画像D70を青のチャンネルに割り当てる。
 そして、合成部122gは、合成画像D69及び合成画像D70を合成する。合成部122gは、合成画像D69及び合成画像D70を合成したカラー画像の合成画像D71を出力する。
Combining section 122g generates a first combined image D 69 by combining a frame-like timing mark D 24 from the mark generating unit 106A and the code image D 31 from the first code generating unit 116A. This first composite image D69 is assigned to the first color channel. For example, the first composite image D69 is assigned to the red channel.
Combining section 122g generates a second composite image D 70 by combining a frame-like timing mark D 25 from the mark generating unit 106B and the code image D 32 from the second code generating unit 116B. Assigning the second combined image D 70 to a second color channel. For example, assigning a second combined image D 70 in the blue channel.
Then, the composition unit 122g synthesizes a composite image D 69 and the composite image D 70. Combining unit 122g outputs the combined image D 71 of the composite image D 69 and the composite image D 70 synthesized color image.
 映像バッファ126は、合成部122で生成された合成画像D71を蓄積する。そして、映像バッファ126は、蓄積した合成画像D71を連結して、合成映像D73(動画)を生成する。 The video buffer 126 stores the composite image D 71 generated by the combining unit 122. Then, the video buffer 126 connects the accumulated composite image D 71 to generate a composite video D 73 (moving image).
 上記以外の点では、図27の送信装置100gの動作は図2の送信装置100と同じである。 Other than the above, the operation of the transmission device 100g in FIG. 27 is the same as that of the transmission device 100 in FIG.
 図28に示される受信装置200gは、概して図5の受信装置200と同じである。しかし、受信装置200gは、分離部208の代わりに分離部208gを備える。また、受信装置200gは、マーク認識部210の代わりに、マーク認識部210A及び210Bを備える。 The receiving device 200g shown in FIG. 28 is generally the same as the receiving device 200 in FIG. However, the receiving device 200g includes a separation unit 208g instead of the separation unit 208. The receiving device 200g includes mark recognition units 210A and 210B instead of the mark recognition unit 210.
 実施の形態1で説明した受信装置200の構成要素と同様の構成要素には、同一符号を付し、その説明を省略する。受信装置200と同様の構成要素は、撮像部202、映像バッファ204、読出し部206、画像切出し部220、コード復号部230、合成部242及び受信データ記憶部244である。画像切出し部220の第1切出し部222A及び第2切出し部222Bも実施の形態1と同様の構成要素である。コード復号部230の第1復号部232A及び第2復号部232Bも実施の形態1と同様の構成要素である。 The same components as those of the receiving apparatus 200 described in Embodiment 1 are denoted by the same reference numerals, and the description thereof is omitted. Constituent elements similar to those of the receiving apparatus 200 are an imaging unit 202, a video buffer 204, a reading unit 206, an image cutout unit 220, a code decoding unit 230, a combining unit 242, and a received data storage unit 244. The first cutout part 222A and the second cutout part 222B of the image cutout part 220 are the same constituent elements as those in the first embodiment. The first decoding unit 232A and the second decoding unit 232B of the code decoding unit 230 are the same constituent elements as those in the first embodiment.
 分離部208gは、読出し部206により読み出された各フレームのデータDを、赤色の成分値のデータD9R(赤チャンネルのデータ)と、青色の成分値のデータD9B(青チャンネルのデータ)とに分離する。 Separation unit 208g has data D 8 of each frame is read by the reading unit 206, and the red component value of the data D 9R (data of red channel), a blue component value data D 9B (blue channel data ) And separated.
 分離部208gは、さらに、赤チャンネルのデータ(赤色の成分値のデータD9R)を解析する。そして、分離部208gは、中央に位置するコード画像Dと、その周囲に位置するタイミングマークDとを分離する。コード画像DとタイミングマークDとの分離は、形状及びその相対位置に基づいて行われる。分離部208gは、この分離により生成されたタイミングマークDをマーク認識部210Aに供給する(色の成分値のデータD91R)。分離部208gは、この分離により生成されたコード画像Dを第1切出し部222Aに供給する(色の成分値のデータD92R)。 The separation unit 208g further analyzes the red channel data (red component value data D 9R ). Then, the separation unit 208g includes a code image D 3 located in the center, separating the timing mark D 2 positioned therearound. Separation of the code image D 3 and the timing mark D 2 is carried out based on the shape and relative position. Separation unit 208g supplies the timing mark D 2 generated by the separation mark recognition unit 210A (data D 91R color component values). Separation unit 208g supplies the code image D 3 produced by the separation in the first cutout portion 222A (data D 92R color component values).
 分離部208gはまた、青チャンネルのデータ(青色の成分値のデータD9B)を解析する。そして、分離部208gは、中央に位置するコード画像Dと、その周囲に位置するタイミングマークDとを分離する。コード画像DとタイミングマークDとの分離は、形状及びその相対位置に基づいて行われる。分離部208gは、この分離により生成されたタイミングマークDをマーク認識部210Bに供給する(色の成分値のデータD91B)。分離部208gは、この分離により生成されたコード画像Dを第2切出し部222Bに供給する(色の成分値のデータD92B)。 The separation unit 208g also analyzes the blue channel data (blue component value data D 9B ). Then, the separation unit 208g includes a code image D 3 located in the center, separating the timing mark D 2 positioned therearound. Separation of the code image D 3 and the timing mark D 2 is carried out based on the shape and relative position. Separation unit 208g supplies the timing mark D 2 generated by the separation mark recognition unit 210B (data D 91B color component values). Separation unit 208g supplies the code image D 3 produced by the separation in the second cutout portion 222B (data D 92B color component values).
 マーク認識部210Aは、分離部208gから色の成分値のデータD91R(タイミングマークD)を受けると、分離部208gから供給されたタイミングマークDに欠けがないことを確認する。そして、タイミングマークDに欠けがない場合には、マーク認識部210Aは、切出し部222Aに対して画像の切出しを指示する(画像切り出し信号D10R)。
 マーク認識部210Bは、分離部208gから色の成分値のデータD91B(タイミングマークD)を受けると、分離部208gから供給されたタイミングマークDに欠けがないことを確認する。そして、タイミングマークDに欠けがない場合には、マーク認識部210Bは、切出し部222Bに対して画像の切出しを指示する(画像切り出し信号D10B)。
Upon receipt of the color component value data D 91R (timing mark D 2 ) from the separation unit 208g, the mark recognition unit 210A confirms that the timing mark D 2 supplied from the separation unit 208g is not missing. Then, when there is no lack of timing mark D 2 are mark recognition unit 210A instructs the extraction of the image with respect to cutout portion 222A (image clipping signal D 10R).
Upon receipt of the color component value data D 91B (timing mark D 2 ) from the separation unit 208g, the mark recognition unit 210B confirms that the timing mark D 2 supplied from the separation unit 208g is not missing. Then, when there is no lack of timing mark D 2 are mark recognition unit 210B instructs the extraction of the image with respect to cutout portion 222B (image clipping signal D 10B).
 第1切出し部222Aは、マーク認識部210Aから赤色の成分のデータD10Rを受け取る。第1切出し部222Aは、マーク認識部210Aから指示されたタイミングで、分離部208gから与えられた赤色の成分のデータ(映像)D92Rから、第1コード画像を切り出す。
 第2切出し部222Bは、マーク認識部210Bから青色の成分のデータD10Bを受け取る。第2切出し部222Bは、マーク認識部210Bから指示されたタイミングで、分離部208gから与えられた青色の成分のデータ(映像)D92Bから、第2コード画像を切り出す。
The first cutout portion 222A receives the data D 10R of the red component from the mark recognition unit 210A. The first cutout unit 222A cuts out the first code image from the red component data (video) D 92R given from the separation unit 208g at the timing instructed by the mark recognition unit 210A.
The second cutout portion 222B receives the data D 10B of the blue component from the mark recognition unit 210B. The second cutout unit 222B cuts out the second code image from the blue component data (video) D 92B given from the separation unit 208g at the timing instructed by the mark recognition unit 210B.
 上記以外の点では、図28の受信装置200gの動作は図26の受信装置200と同じである。 Other than the above, the operation of the receiving device 200g in FIG. 28 is the same as that of the receiving device 200 in FIG.
 なお、上記の例では、色チャンネル毎に別個のマーク生成部(106A,106B)を設けている。しかし、複数の色チャンネルに対して単一のマーク生成部を設け、この単一のマーク生成部で生成されたタイミングマークDを複数のコード画像Dに付加することとしても良い。 In the above example, a separate mark generator (106A, 106B) is provided for each color channel. However, provided a single mark generating unit for a plurality of color channels, it is also possible to add a timing mark D 2 generated by the single mark generation unit to the plurality of code image D 3.
 また、上記の例では、複数の色チャンネルに対して別個のタイミングマークDを生成して付加している。しかし、送信装置100gでは、複数の色チャンネルのいずれか1つにおいてのコード画像DにタイミングマークDを付して送信する。そして、受信装置200gでは、一つの色チャンネルのコード画像Dに付されたタイミングマークDを検出して、他の色チャンネルのコード画像Dの切出しにも利用することとしても良い。 Further, in the above example, it is added to generate a separate timing mark D 2 with respect to a plurality of color channels. However, in the transmission apparatus 100 g, transmits given the timing mark D 2 in the code image D 3 of the one of the plurality of color channels. Then, the receiving apparatus 200 g, by detecting the timing mark D 2 attached to the code image D 3 of one color channel may be also be used for extraction of the code image D 3 of the other color channels.
 一方、図27及び図28に示すように、色チャンネル毎にタイミングマークDを生成する場合には、複数の色チャンネルを用いた通信は、必ずしも同期して行う必要はない。送信されるコード画像Dの切り換わりのタイミングを色チャンネル相互間で異なるものとしても良い。 On the other hand, as shown in FIGS. 27 and 28, when generating a timing mark D 2 in each color channel, the communication using the plurality of color channels, is not necessarily performed in synchronization. Timing of switching of the code image D 3 to be transmitted may be used as the different between the color channels each other.
実施の形態8.
 サイネージなどへの応用を考えた場合には、利用者の操作により転送を開始するのではなく、常時繰り返し表示しておき、利用者が任意のタイミングで撮影を行うことができるようにしておけば便利である。図29に示したのは、そのような利用を可能にするための例である。図29は、異なる種類のタイミングマークDを付したQRコードのシーケンスの一例を示す図である。図29の例では、タイミングマークDとして3種類使用している。第1のマークは、一連のデータ(データファイルD)の転送の開始時に使用する開始マーク付きのタイミングマークD2hである。つまり、転送される一連のデータ(データファイルD)の先頭部分を表す第1の識別画像である。第2のマークは、中間部で利用するタイミングマークD2mである。つまり、転送される一連のデータ(データファイルD)の先頭部分及び末尾部分以外を表す識別画像である。そして、第3のマークは、一連のデータの転送の終了時に使用する終了マーク付きのタイミングマークD2tである。つまり、転送される一連のデータ(データファイルD)の末尾部分を表す識別画像である。図29には示していないが、1回の表示で転送が完了するような小さなデータ用に別のタイミングマークDを用意してもよい。これにより、1ショットでデータファイルDの転送が完了する場合には、開始マーク及び終了マークを送ると、データファイルDの転送に時間がかかってしまう。このため、1ショットでデータファイルDを転送する際の専用のマークを作ることで、小さなデータを転送する場合の転送時間を短縮することができる。
Embodiment 8 FIG.
When considering application to signage etc., instead of starting transfer by user's operation, it should be displayed repeatedly so that the user can shoot at any timing. Convenient. FIG. 29 shows an example for enabling such use. Figure 29 is a diagram showing an example of a sequence of QR codes marked with different kinds of timing marks D 2. In the example of FIG. 29, are three types used as timing marks D 2. The first mark is a timing mark D 2h with start mark to be used at the start of the transfer of the series of data (data file D 0). That is, it is a first identification image representing the head portion of a series of data (data file D 0 ) to be transferred. The second mark is a timing mark D 2m used in the middle part. That is, it is an identification image representing a portion other than the beginning portion and the ending portion of a series of transferred data (data file D 0 ). The third mark is a timing mark D2t with an end mark used at the end of a series of data transfer. That is, it is an identification image representing the end portion of a series of transferred data (data file D 0 ). Although not shown in FIG. 29, it may have a separate timing mark D 2 for small data as transferred in one of the display is completed. As a result, when the transfer of the data file D 0 is completed in one shot, it takes time to transfer the data file D 0 if the start mark and the end mark are sent. Thus, by creating a dedicated mark when transferring data file D 0 in one shot, it is possible to shorten the transfer time of transferring the small data.
 このような構成にすることにより、受信装置200ではデータファイルDの開始点及び終了点を自動的に認識することができる。送信装置100は、送信データ記憶部102に記憶されていたデータファイルDを分割して、繰り返し表示する。受信装置200の合成部242は、分割されたデータを結合して、元のデータファイルDを再構築する。このデータファイルDの再構築の際に、データファイルDの開始点と終了点が必要となる。繰り返し表示される分割されたデータの中から、開始点から終了点までのデータを結合することで、元のデータファイルDを再現することができる。ここで、「分割されたデータ」は、実施の形態1では、QRコードとして説明している。そして、利用者の操作を簡単にすることができる。
 例えば、一連のデータ(データファイルD)の転送に掛かる時間(転送時間)が2秒である場合には、この転送時間である2秒の2倍以上の時間をあらかじめ決めておく。例えば、5秒という時間をあらかじめ決めておく。ここで「転送時間」とは、データファイルDを表わす全てのコード画像Dを表示部130が表示する時間のことである。送信装置100hに一連のデータ(データファイルD)の転送を繰り返させる。そして、利用者に対し「5秒間撮影してください」というメッセージを表示する。利用者の操作によって受信装置200が撮影を開始すると、繰り返して表示される映像に対して、開始マークから終了マークまでが一連のデータとして記憶される。受信装置200での一連のデータの記憶が終わってから復号が開始される。
With such a configuration, it is possible to automatically recognize the start and end points of the receiving apparatus 200 in the data file D 0. The transmission device 100 divides the data file D 0 stored in the transmission data storage unit 102 and repeatedly displays it. Combining unit 242 of the receiving apparatus 200 combines the divided data to reconstruct the original data file D 0. At the time of reconstruction of the data file D 0, the starting point and end point of the data file D 0 is required. From among the divided data is repeatedly displayed, by combining the data from the start point to the end point, it is possible to reproduce the original data file D 0. Here, “divided data” is described as a QR code in the first embodiment. And a user's operation can be simplified.
For example, when the time (transfer time) required to transfer a series of data (data file D 0 ) is 2 seconds, a time that is twice or more of 2 seconds, which is the transfer time, is determined in advance. For example, a time of 5 seconds is determined in advance. Here, the "transfer time" is that time that the display unit 130 all of the code image D 3 representing the data file D 0 is displayed. The transmission device 100h is made to repeat the transfer of a series of data (data file D 0 ). Then, a message “Please shoot for 5 seconds” is displayed to the user. When the receiving apparatus 200 starts photographing by a user's operation, the start mark to the end mark are stored as a series of data for the repeatedly displayed video. Decoding is started after a series of data is stored in receiving apparatus 200.
 また、利用者の操作が応じて直ちに記憶を開始することもできる。受信装置200は、開始マークが検出されてからその次に終了マークが検出されたら記憶を終了する。そして、受信装置200は、記憶されたデータのうちの開始マークから終了マークまでを復号することとしても良い。 Also, storage can be started immediately in response to user operation. The receiving apparatus 200 ends the storage when the start mark is detected and then the end mark is detected. Then, the receiving apparatus 200 may decode the stored data from the start mark to the end mark.
 また、同じデータを繰り返し表示する場合だけではなく、複数のデータを順次転送する場合にも便利である。その場合には、タイミングマークDの種類を増やして、個々のデータの開始を示すタイミングマークD及び終了を示すタイミングマークDの他に全体の開始を示すタイミングマークD及び終了を示すタイミングマークDを用いてもよい。 Further, it is convenient not only when the same data is repeatedly displayed, but also when transferring a plurality of data sequentially. In this case, indicates increase the type of timing mark D 2, the timing marks D 2 and end indicate the start of a whole in addition to the timing mark D 2 showing the timing mark D 2 and end indicating the beginning of individual data it may be used timing mark D 2.
 図29に示す例ではコード領域の外部に線状または矩形形状で表わされたタイミングマークDを使用している。このような場合には、表示部130が点順次走査方式のものである場合には、タイミングマークDは、副走査方向において、コード領域の開始点より前に始まり、コード領域の終了点より後で終わるものを用いるのが望ましい。また、表示部130が線順次走査方式のものである場合には、タイミングマークDは、その走査方向(ラインに直交する方向)において、コード領域の開始点より前に始まり、コード領域の終了点より後で終わるものを用いるのが望ましい。表示部130の走査方式に合わせてタイミングマークDを描画するようにするとよい。これは、表示のフレームと撮影のフレームとのずれにより、表示の書き換え途中の映像が撮影されてしまうことがあるためである。このようにタイミングマークDを描画することにより、タイミングマークD全体が正しく撮影されていれば、コード領域も正しく撮影されていると期待することができる。
 図29の例では、点順次走査方式の副走査方向が上側から下側の方向である場合を想定している。或いは、線順次走査方式の走査方向が上側から下側の方向である場合を想定している。図29のようにタイミングマークDは、コード領域より上から始まりコード領域より下で終わる図形として描画される。つまり、タイミングマークDは、コード領域より上から描画され、コード領域より下まで描画される図形である。ここで、「描画」とは、絵を描くことである。
In the example shown in FIG. 29 using the timing marks D 2 expressed outside the coding region in the linear or rectangular shape. In such a case, when the display unit 130 is of the progressive scanning point, timing marks D 2, in the sub-scanning direction, begins before the start of the coding region, from the end point of the coding region It is desirable to use what ends later. Further, when the display unit 130 is of the line-sequential scanning scheme, the timing mark D 2, in the scanning direction (direction perpendicular to the line), begins before the start of the coding region, the end of the coding region It is desirable to use one that ends after the point. It may be adapted to draw a timing mark D 2 in accordance with the scan mode of the display unit 130. This is because a video during the rewriting of the display may be shot due to a difference between the display frame and the shooting frame. By drawing this way the timing mark D 2, if it is the entire timing marks D 2 is captured correctly, it can be expected that coding region is properly captured.
In the example of FIG. 29, it is assumed that the sub-scanning direction of the dot sequential scanning method is from the upper side to the lower side. Alternatively, it is assumed that the scanning direction of the line sequential scanning method is from the upper side to the lower side. Timing mark D 2 as shown in FIG. 29 is drawn as a figure ending the above coding region below the start coding region. In other words, the timing marks D 2 is drawn from above the coding region, a figure drawn to below the coding region. Here, “drawing” means drawing a picture.
 図30は、送信装置100hの構成を概略的に示すブロック図である。図31は、受信装置200hの構成を概略的に示すブロック図である。
 以下、一連のデータの先頭部分と、末尾部分と、それ以外の部分とで、異なるタイミングマークDを生成して、コード画像Dと合成する送信装置100hの例を図30に示す。
 また、一連のデータの先頭部分と、末尾部分と、それ以外の部分とで、異なるタイミングマークDが付加されたコード画像Dを連結することで生成された映像を受信して、記録の制御を行う受信装置200hの例を図31に示す。
FIG. 30 is a block diagram schematically showing the configuration of the transmission device 100h. FIG. 31 is a block diagram schematically showing the configuration of the receiving device 200h.
Hereinafter, a head portion of a set of data, and the end portion, in the other portions, and generates a different timing mark D 2, shown in Figure 30 an example of the transmission device 100h for combining a code image D 3.
Further, the head portion of the series of data, and the end portion, in the other portions, and receives the image generated by concatenating the code image D 3 that is added is different from timing mark D 2, the recording An example of a receiving device 200h that performs control is shown in FIG.
 図30に示される送信装置100hは、図2の送信装置100と概して同じであるが、データ処理部110の代わりにデータ処理部110hを備える。データ処理部110hは、図2のデータ処理部110と概して同じであるが、読出し部112の代わりに、読出し部112hを備える。また、データ処理部110hは、マーク生成部106の代わりに、マーク生成部106hを備える。 30 is generally the same as the transmission device 100 of FIG. 2, but includes a data processing unit 110h instead of the data processing unit 110. The data processing unit 110 h is generally the same as the data processing unit 110 in FIG. 2, but includes a reading unit 112 h instead of the reading unit 112. The data processing unit 110h includes a mark generation unit 106h instead of the mark generation unit 106.
 実施の形態1で説明した送信装置100の構成要素と同様の構成要素には、同一符号を付し、その説明を省略する。送信装置100と同様の構成要素は、送信データ記憶部102、基準クロック発生部104、合成部122、映像バッファ126、動画再生部128及び表示部130である。また、データ処理部110hのデータ分割部114、第1コード生成部116A及び第2コード生成部116Bも実施の形態1と同様の構成要素である。また、マーク生成部106の画像記憶部107も実施の形態1と同様の構成要素である。 Constituent elements similar to those of the transmitting apparatus 100 described in the first embodiment are denoted by the same reference numerals and description thereof is omitted. Constituent elements similar to those of the transmission device 100 are a transmission data storage unit 102, a reference clock generation unit 104, a synthesis unit 122, a video buffer 126, a moving image reproduction unit 128, and a display unit 130. The data dividing unit 114, the first code generation unit 116A, and the second code generation unit 116B of the data processing unit 110h are the same constituent elements as those in the first embodiment. Further, the image storage unit 107 of the mark generation unit 106 is a component similar to that of the first embodiment.
 読出し部112hは、送信データ記憶部102から一連のデータ(データファイルD)の先頭を読出すときにそのことを示す信号(同期信号SY)をマーク生成部106hに供給する。また、読出し部112hは、送信データ記憶部102から一連のデータ(データファイルD)の末尾部分を読み出すときにそのことを示す信号(同期信号SY)をマーク生成部106hに供給する。
 マーク生成部106hは、読出し部112hからの上記の信号(同期信号SY,SY)に基づいて、一連のデータ(データファイルD)の先頭部分と、末尾部分と、それ以外の部分とで異なるタイミングマークDを生成する。
The reading unit 112h supplies a signal (synchronization signal SY h ) indicating that when reading the head of a series of data (data file D 0 ) from the transmission data storage unit 102 to the mark generation unit 106h. Further, the reading unit 112h supplies a signal (synchronization signal SY t ) indicating that when reading the end portion of a series of data (data file D 0 ) from the transmission data storage unit 102 to the mark generation unit 106h.
Based on the above-mentioned signals (synchronization signals SY h , SY t ) from the reading unit 112 h , the mark generation unit 106 h is configured to include a head portion, a tail portion, and other portions of a series of data (data file D 0 ). generating different timing mark D 2 in.
 即ち、マーク生成部106hは、一連のデータ(データファイルD)の先頭のデータ部分に対応する第1のタイミングマークD2hを生成する。第1のタイミングマークD2hは、一連のデータ(データファイルD)の先頭の第1コード画像D31及び第2コード画像D32と合成される。第1のタイミングマークD2hの一例は、図29に符号D2hで示されている。 That is, the mark generating unit 106h generates a first timing mark D 2h corresponding to the beginning of the data portion of the series of data (data file D 0). First timing mark D 2h is combined with the first code image D 31 and the second code image D 32 of the first set of data (data file D 0). An example of the first timing mark D 2h is indicated with D 2h in Figure 29.
 マーク生成部106hは、一連のデータ(データファイルD)の末尾のデータ部分に対応する第2のタイミングマークD2tを生成する。第2のタイミングマークD2tは、一連のデータ(データファイルD)の末尾の第1コード画像D31及び第2コード画像D32と合成される。第2のタイミングマークD2tは、第1のタイミングマークD2hと異なるマークである。第2のタイミングマークD2hの一例は、図29に符号D2tで示されている。 Mark generating unit 106h generates a second timing mark D 2t corresponding to the end of the data part of the series of data (data file D 0). The second timing mark D 2t is combined with the first code image D 31 and the second code image D 32 at the end of the series of data (data file D 0 ). The second timing mark D 2t is a mark different from the first timing mark D 2h . An example of the second timing marks D 2h is indicated with D 2t Figure 29.
 マーク生成部106hは、一連のデータ(データファイルD)の先頭及び末尾以外のデータ部分に対応する第3のタイミングマークD2mを生成する。第3のタイミングマークD2mは、一連のデータ(データファイルD)の先頭及び末尾以外の第1コード画像D31と合成される。また、第3のタイミングマークD2mは、一連のデータ(データファイルD)の先頭及び末尾以外の第2コード画像D32と合成される。第3のタイミングマークD2mは、第1のタイミングマークD2hと異なるマークである。また、第3のタイミングマークD2mは、第2のタイミングマークD2tと異なるマークである。第3のタイミングマークD2mの一例は、図29に符号D2mで示されている。 Mark generating unit 106h generates a third timing mark D 2m corresponding to the head and a data portion other than the end of the series of data (data file D 0). The third timing mark D 2m is combined with the first code image D 31 other than the beginning and end of a series of data (data file D 0 ). The third timing mark D 2m is combined with the second code image D 32 top and non-end of the series of data (data file D 0). The third timing mark D 2m is a mark different from the first timing mark D 2h . The third timing mark D2m is a mark different from the second timing mark D2t . An example of the third timing mark D 2m is indicated by a symbol D 2m in FIG.
 図31の受信装置200hは、図5の受信装置200と概して同じであるが、マーク認識部210の代わりに、マーク認識部210hを備える。
 実施の形態1で説明した受信装置200の構成要素と同様の構成要素には、同一符号を付し、その説明を省略する。
 受信装置200と同様の構成要素は、撮像部202、読出し部206、分離部208、画像切出し部220、コード復号部230、合成部242及び受信データ記憶部244である。また、画像切出し部220の第1切出し部222A及び第2切出し部222Bも実施の形態1と同様の構成要素である。
また、コード復号部230の第1復号部232A及び第2復号部232Bも実施の形態1と同様の構成要素である。
 マーク認識部210hは、撮像部202から順次出力される映像データDを受ける。マーク認識部210hは、先頭を示す第1のタイミングマークD2hを検出したときに、映像バッファ204に記憶を開始させる(記憶開始信号D14h)。マーク認識部210hは、末尾を示す第2のタイミングマークD2tを検出したときに映像バッファ204に記憶を終了させる(記憶終了信号D14t)。これにより、映像バッファ204には、一連のデータ(データファイルD)が、その先頭から末尾までが記憶されることとなる。なお、記憶開始信号D14h及び記憶終了信号D14tをまとめて記憶タイミング信号D14とよぶ。
31 is generally the same as the receiving apparatus 200 of FIG. 5, but includes a mark recognizing unit 210h instead of the mark recognizing unit 210.
Constituent elements similar to those of receiving apparatus 200 described in Embodiment 1 are assigned the same reference numerals, and descriptions thereof are omitted.
The same components as the receiving apparatus 200 are an imaging unit 202, a reading unit 206, a separation unit 208, an image clipping unit 220, a code decoding unit 230, a combining unit 242, and a received data storage unit 244. Further, the first cutout part 222A and the second cutout part 222B of the image cutout part 220 are the same constituent elements as those in the first embodiment.
Further, the first decoding unit 232A and the second decoding unit 232B of the code decoding unit 230 are the same constituent elements as those in the first embodiment.
Mark recognition unit 210h receives the video data D 7 which are sequentially output from the imaging unit 202. Mark recognition unit 210h, upon detecting a first timing mark D 2h indicating the beginning to start stored in the video buffer 204 (memory start signal D 14h). Mark recognition unit 210h ends the stored in the video buffer 204 when it detects the second timing mark D 2t indicating the end (storage completion signal D 14t). As a result, the video buffer 204 stores a series of data (data file D 0 ) from the beginning to the end. The storage start signal D 14h and storing end signal D 14t collectively called a memory timing signal D 14.
 実施の形態2を実施の形態1に対する変形例として説明したが、同様の変形を実施の形態3から8までに加えることができる。その他、実施の形態1の送信装置100及び受信装置200について種々の変形を加える旨説明したが、実施の形態2から8までにも同様の変形を加え得ることができる。
 また、実施の形態8に関し、タイミングマークDは、表示部130が点順次走査方式のものである場合には、副走査方向において、コード領域の開始点より前に始まり、コード領域の終了点より後で終わるものを用いるのが望ましいと述べた。また、タイミングマークDは、表示部130が線順次走査方式のものである場合には、その走査方向(ラインに直交する方向)において、コード領域の開始点より前に始まり、コード領域の終了点より後で終わるものを用いるのが望ましいと述べた。しかし、この点は実施の形態1、2、5から7までについても同様である。
Although the second embodiment has been described as a modification of the first embodiment, similar modifications can be made to the third to eighth embodiments. In addition, although it has been described that various modifications are made to the transmission device 100 and the reception device 200 of the first embodiment, the same modifications can be applied to the second to eighth embodiments.
Also relates to the eighth embodiment, the timing mark D 2, when the display unit 130 is of the progressive scanning point, in the sub-scanning direction, begins before the start of the coding region, the end point of the coding region He said it would be desirable to use something that ends later. The timing mark D 2, when the display unit 130 is of the line-sequential scanning scheme, in the scanning direction (direction perpendicular to the line), begins before the start of the coding region, the end of the coding region He stated that it would be desirable to use something that ends after the point. However, this is the same for the first, second, fifth, and seventh embodiments.
 以上、送信装置100,100a,100c,100d,100e,100f,100g,110hの表示部130が点順次走査方式或いは線順次走査方式で、かつプログレッシブ表示方式で表示を行なう液晶表示装置である場合について説明した。しかし、本発明は、表示部130が面順次走査方式のものである場合にも適用可能であり、或いはインターレース表示方式のものである場合にも適用可能である。 As described above, the display unit 130 of the transmission devices 100, 100a, 100c, 100d, 100e, 100f, 100g, and 110h is a liquid crystal display device that performs display by a dot sequential scanning method or a line sequential scanning method and a progressive display method. explained. However, the present invention can also be applied to the case where the display unit 130 is of the frame sequential scanning method, or can be applied to the case of the interlaced display method.
 上記の送信装置100,100a,100c,100d,100e,100f,100g,110h及び受信装置200,200c,200d,200e,200f,200g,200hの各々は、その一部をソフトウェアで実現することができる。即ち、送信装置100,100a,100c,100d,100e,100f,100g,110h及び受信装置200,200c,200d,200e,200f,200g,200hの各々は、プログラムされたコンピュータで実現することができる。その場合には、上記の送信装置100,100a,100c,100d,100e,100f,100g,110h及び受信装置200,200c,200d,200e,200f,200g,200hの一部で行われる処理を、コンピュータに実行させるためのプログラムもまた本発明の一部を成す。また、そのようなプログラムを記録したコンピュータで読み取り可能な記録媒体もまた本発明の一部を成す。 Each of the transmission devices 100, 100a, 100c, 100d, 100e, 100f, 100g, and 110h and the reception devices 200, 200c, 200d, 200e, 200f, 200g, and 200h can be partially realized by software. . That is, each of the transmission devices 100, 100a, 100c, 100d, 100e, 100f, 100g, and 110h and the reception devices 200, 200c, 200d, 200e, 200f, 200g, and 200h can be realized by a programmed computer. In that case, the processing performed by a part of the transmission devices 100, 100a, 100c, 100d, 100e, 100f, 100g, 110h and the reception devices 200, 200c, 200d, 200e, 200f, 200g, 200h is performed by a computer. A program for causing the program to be executed is also part of the present invention. A computer-readable recording medium that records such a program also forms part of the present invention.
 なお、以上のように本発明の実施の形態について説明したが、本発明はこれらの実施の形態に限るものではない。 In addition, although embodiment of this invention was described as mentioned above, this invention is not limited to these embodiment.
 1 情報処理システム、 100、100c、100d、100e、100f、100g、110h 送信装置、 102 送信データ記憶部、 104 基準クロック発生部、 106、106f、106h マーク生成部、 107 画像記憶部、 110、110d、110e データ処理部、 112、112h 読出し部、 114、114d データ分割部、 116A 第1コード生成部、 116B 第2コード生成部、 116C 第3コード生成部、 122、122b、122c、122d、122e、122f、122g 合成部、 126、126A、126B、126C、 映像バッファ、 128、128A、128B、128C 動画再生部、 130 表示部、 131 表示画面、 156、158 発光部、 200、200c、200d、200e、200f、200g、200h 受信装置、 202 撮像部、 204 映像バッファ、 206 読出し部、 208 分離部、 210 レリーズマーク認識部、 220、220d、220e 画像切出し部、 222A 第1切出し部、 222B 第2切出し部、 222C 第3切出し部、 230、230d、230e コード復号部、 232A 第1復号部、 232B 第2復号部、 232C 第3復号部、 242、242d 合成部、 244 受信データ記憶部、 260、262 発光検出部。 1 Information processing system, 100, 100c, 100d, 100e, 100f, 100g, 110h Transmission device, 102 Transmission data storage unit, 104 Reference clock generation unit, 106, 106f, 106h Mark generation unit, 107 Image storage unit, 110, 110d , 110e data processing unit, 112, 112h reading unit, 114, 114d data dividing unit, 116A first code generation unit, 116B second code generation unit, 116C third code generation unit, 122, 122b, 122c, 122d, 122e, 122f, 122g composition unit, 126, 126A, 126B, 126C, video buffer, 128, 128A, 128B, 128C video playback unit, 130 display unit, 131 display screen, 156, 158 Light emitting unit, 200, 200c, 200d, 200e, 200f, 200g, 200h receiving device, 202 imaging unit, 204 video buffer, 206 reading unit, 208 separation unit, 210 release mark recognition unit, 220, 220d, 220e image cutout unit, 222A first cutout unit, 222B second cutout unit, 222C third cutout unit, 230, 230d, 230e code decoding unit, 232A first decoding unit, 232B second decoding unit, 232C third decoding unit, 242, 242d combining unit 244 reception data storage unit 260, 262 light emission detection unit.

Claims (14)

  1.  一連のデータを記憶する送信データ記憶部と、
     前記送信データ記憶部に記憶されている前記一連のデータを複数のデータ部分に分割し、該分割により得られたデータ部分の各々をコード画像に変換し、当該変換により生成されたそれぞれのデータ部分に対応するコード画像を順次切り換えながら出力するコード生成部と、
     識別画像を生成して出力する識別画像生成部と、
     前記コード生成部で生成された前記コード画像と、前記識別画像生成部から出力された前記識別画像とを合成して合成画像を生成する合成部と、
     前記合成部で生成された合成画像を連結して前記一連のデータに対応する動画を作成する画像連結部と、
     前記画像連結部で作成された動画を再生して出力する動画再生部と、
     前記動画再生部で再生された動画を画面に表示する表示部とを備え、
     前記動画再生部から出力される前記動画においては、前記コード画像が順次切り換わり、該切り換わりのタイミング以外のタイミングに前記識別画像が現れる
     ことを特徴とする送信装置。
    A transmission data storage unit for storing a series of data;
    The series of data stored in the transmission data storage unit is divided into a plurality of data parts, each of the data parts obtained by the division is converted into a code image, and each data part generated by the conversion A code generator that sequentially outputs code images corresponding to
    An identification image generator for generating and outputting an identification image;
    A combining unit that combines the code image generated by the code generation unit with the identification image output from the identification image generation unit to generate a combined image;
    An image connecting unit that connects the composite images generated by the combining unit to create a moving image corresponding to the series of data;
    A video playback unit that plays back and outputs the video created by the image connection unit;
    A display unit that displays the video played by the video playback unit on a screen;
    In the moving image output from the moving image reproducing unit, the code images are sequentially switched, and the identification image appears at a timing other than the switching timing.
  2.  前記動画において、前記コード画像と前記識別画像とが互いに異なる色の画像であることを特徴とする請求項1に記載の送信装置。 The transmission apparatus according to claim 1, wherein in the moving image, the code image and the identification image are images of different colors.
  3.  一連のデータを記憶する送信データ記憶部と、
     前記送信データ記憶部に記憶されている前記一連のデータを複数のデータ部分に分割し、該分割により得られたデータ部分の各々をコード画像に変換し、当該変換により生成されたそれぞれのデータ部分に対応するコード画像を順次切り換えながら出力するコード生成部と、
     前記コード生成部で生成されたコード画像を連結して動画を作成する第1の画像連結部と、
     前記第1の画像連結部で作成された動画を再生して出力する第1の動画再生部と、
     識別画像を生成して出力する識別画像生成部と、
     前記識別画像生成部で生成された識別画像を連結して動画を作成する第2の画像連結部と、
     前記第2の画像連結部で作成された動画を再生して出力する第2の動画再生部と、
     前記第1の動画再生部で作成された動画と前記第2の動画再生部で作成された動画を合成して、合成映像を生成して出力する合成部と、
     前記合成部で生成された合成映像を画面に表示する表示部とを備え、
     前記合成部から出力される前記合成映像においては、前記コード画像が順次切り換わり、該切り換わりのタイミング以外のタイミングに前記識別画像が現れる
     ことを特徴とする送信装置。
    A transmission data storage unit for storing a series of data;
    The series of data stored in the transmission data storage unit is divided into a plurality of data parts, each of the data parts obtained by the division is converted into a code image, and each data part generated by the conversion A code generator that sequentially outputs code images corresponding to
    A first image connecting unit that connects the code images generated by the code generating unit to create a moving image;
    A first moving image reproduction unit that reproduces and outputs the moving image created by the first image connection unit;
    An identification image generator for generating and outputting an identification image;
    A second image connecting unit that connects the identification images generated by the identification image generating unit to create a moving image;
    A second moving image reproduction unit that reproduces and outputs the moving image created by the second image connecting unit;
    A synthesis unit that synthesizes the video created by the first video playback unit and the video created by the second video playback unit to generate and output a composite video;
    A display unit that displays the synthesized video generated by the synthesis unit on a screen;
    In the synthesized video output from the synthesizing unit, the code images are sequentially switched, and the identification image appears at a timing other than the timing of the switching.
  4.  前記合成映像において、前記コード画像と前記識別画像とが互いに異なる色の画像であることを特徴とする請求項3に記載の送信装置。 The transmission apparatus according to claim 3, wherein, in the synthesized video, the code image and the identification image are images of different colors.
  5.  前記識別画像生成部は、
     前記一連のデータの先頭又は末尾の前記データ部分を変換することで得られる前記コード画像との合成に用いられる前記識別画像として、第1の識別画像を生成し、
     前記一連のデータの先頭又は末尾以外の前記データ部分を変換することで得られる前記コード画像との合成に用いられる前記識別画像として、前記第1の識別画像とは異なる第2の識別画像を生成する
     ことを特徴とする請求項1から4のいずれか一項に記載の送信装置。
    The identification image generation unit
    As the identification image used for the synthesis with the code image obtained by converting the data portion at the beginning or the end of the series of data, a first identification image is generated,
    A second identification image different from the first identification image is generated as the identification image used for synthesis with the code image obtained by converting the data portion other than the head or tail of the series of data. The transmission device according to any one of claims 1 to 4, wherein:
  6.  前記画面における表示が、点順次走査方式又は線順次走査方式で行われ、
     前記識別画像が、前記点順次走査方式における副走査方向又は前記線順次走査方式における走査方向において、当該識別画像と合成された前記コード画像よりも前に始まり後に終わる図形である
     ことを特徴とする請求項1から5のいずれか一項に記載の送信装置。
    The display on the screen is performed by a dot sequential scanning method or a line sequential scanning method,
    The identification image is a figure that starts before and ends after the code image combined with the identification image in the sub-scanning direction in the dot sequential scanning method or the scanning direction in the line sequential scanning method. The transmission device according to any one of claims 1 to 5.
  7.  一連のデータを記憶する送信データ記憶部と、
     前記送信データ記憶部に記憶されている前記一連のデータを複数のデータ部分に分割し、該分割により得られたデータ部分の各々をコード画像に変換し、当該変換により生成されたそれぞれのデータ部分に対応するコード画像を順次切り換えながら出力するコード生成部と、
     前記コード生成部で生成されたコード画像を連結して動画を作成する画像連結部と、
     前記画像連結部で作成された動画を再生して出力する動画再生部と、
     前記動画再生部で再生された動画を画面に表示する表示部と、
     前記表示部において表示される動画において、前記コード画像が切り換わるタイミング以外のタイミングで発光する発光部と
     を備えることを特徴とする送信装置。
    A transmission data storage unit for storing a series of data;
    The series of data stored in the transmission data storage unit is divided into a plurality of data parts, each of the data parts obtained by the division is converted into a code image, and each data part generated by the conversion A code generator that sequentially outputs code images corresponding to
    An image connecting unit that connects the code images generated by the code generating unit to create a moving image;
    A video playback unit that plays back and outputs the video created by the image connection unit;
    A display unit for displaying the video played by the video playback unit on a screen;
    A transmission device comprising: a light emitting unit that emits light at a timing other than a timing at which the code image is switched in a moving image displayed on the display unit.
  8.  前記発光部は、前記表示部に表示される動画に含まれる前記コード画像の色とは異なる色の光を発光することを特徴とする請求項7に記載の送信装置。 The transmission device according to claim 7, wherein the light emitting unit emits light having a color different from a color of the code image included in the moving image displayed on the display unit.
  9.  コード画像が順次切り換わり、該切り換わりのタイミング以外のタイミングに識別画像が現れる映像を表示した画面を撮像し、当該画面の画像を順次取得する撮像部と、
     前記撮像部により順次取得された画像を蓄積する映像バッファと、
     前記映像バッファに蓄積された画像を順次読み出す読出し部と、
     前記読出し部により順次読み出される画像中の前記識別画像を順次検出する識別画像検出部と、
     前記識別画像検出部により検出される前記識別画像と同じタイミングで現れた前記コード画像を復号し、対応するデータ部分を順次取得するコード復号部と、
     前記コード復号部により順次取得されるデータ部分を順次書き込み、順次書き込まれるデータ部分を連結して一連のデータを構成する受信データ記憶部と
     を備えることを特徴とする受信装置。
    An imaging unit that sequentially switches the code image, captures a screen displaying a video in which the identification image appears at a timing other than the switching timing, and sequentially acquires the image of the screen;
    A video buffer for storing images sequentially acquired by the imaging unit;
    A reading unit for sequentially reading out images stored in the video buffer;
    An identification image detection unit for sequentially detecting the identification images in images sequentially read by the reading unit;
    A code decoding unit that decodes the code image that appears at the same timing as the identification image detected by the identification image detection unit, and sequentially acquires corresponding data portions;
    A reception apparatus comprising: a reception data storage unit configured to sequentially write data portions sequentially acquired by the code decoding unit and to connect the sequentially written data portions to form a series of data.
  10.  前記画面に表示される映像が、前記一連のデータを複数のデータ部分に分割し、各データ部分をコード画像に変換することで生成されたものであり、
     前記識別画像として、
     前記一連のデータの先頭又は末尾のデータ部分を変換することで得られるコード画像とともに第1の識別画像が表示され、
     前記一連のデータの先頭又は末尾以外のデータ部分を変換することで得られるコード画像とともに、前記第1の識別画像とは異なる第2の識別画像が表示され、
     前記識別画像検出部は、前記識別画像として前記第1の識別画像が検出されたときに、前記一連のデータの復号の開始又は終了を制御する
     ことを特徴とする請求項9に記載の受信装置。
    The video displayed on the screen is generated by dividing the series of data into a plurality of data parts and converting each data part into a code image,
    As the identification image,
    A first identification image is displayed together with a code image obtained by converting the data portion at the beginning or end of the series of data,
    A second identification image different from the first identification image is displayed together with a code image obtained by converting a data portion other than the beginning or end of the series of data,
    The receiving apparatus according to claim 9, wherein the identification image detection unit controls start or end of decoding of the series of data when the first identification image is detected as the identification image. .
  11.  前記表示部が点順次走査方式又は線順次走査方式で表示を行なうものであり、
     前記識別画像検出部は、前記識別画像が、前記点順次走査方式における副走査方向又は前記線順次走査方式における走査方向において、当該識別画像と合成されている前記コード画像よりも前に始まり後に終わる図形であると判定したときに、当該識別画像と合成されているコード画像が復号に適したものであると判定する
     ことを特徴とする請求項9又は10に記載の受信装置。
    The display unit performs display by a dot sequential scanning method or a line sequential scanning method,
    The identification image detection unit starts and ends after the code image combined with the identification image in the sub-scanning direction in the dot sequential scanning method or the scanning direction in the line sequential scanning method. The receiving apparatus according to claim 9 or 10, wherein, when it is determined to be a figure, it is determined that the code image combined with the identification image is suitable for decoding.
  12.  コード画像が順次切り換わり、該切り換わる映像を表示した画面と、
     前記画面に隣接して配置され、前記切り換わりのタイミング以外のタイミングで発光する発光部からの光とを撮像し、前記画面に表示される映像及び前記発光部からの光の画像を順次取得する撮像部と、
     前記撮像部により順次取得される画像を蓄積する映像バッファと、
     前記映像バッファに蓄積された画像を順次読み出す読出し部と、
     前記読出し部により順次読み出される画像中の、前記発光部からの光による画像部分を検出する検出部と、
     前記検出部により順次検出される前記光による画像部分と同じタイミングで現れた前記コード画像を復号し、対応するデータ部分を順次取得するコード復号部と、
     前記コード復号部により順次取得されるデータ部分を順次書き込み、順次書き込まれるデータ部分を連結して一連のデータを構成する受信データ記憶部と
     を備えることを特徴とする受信装置。
    A screen that displays code images that are switched in sequence,
    The light from the light emitting unit that is arranged adjacent to the screen and emits light at a timing other than the switching timing is captured, and the image displayed on the screen and the light image from the light emitting unit are sequentially acquired. An imaging unit;
    A video buffer for accumulating images sequentially acquired by the imaging unit;
    A reading unit for sequentially reading out images stored in the video buffer;
    A detection unit for detecting an image portion by light from the light emitting unit in images sequentially read by the reading unit;
    A code decoding unit that decodes the code image that appears at the same timing as the image portion by the light sequentially detected by the detection unit, and sequentially obtains the corresponding data portion;
    A reception apparatus comprising: a reception data storage unit configured to sequentially write data portions sequentially acquired by the code decoding unit and to connect the sequentially written data portions to form a series of data.
  13.  請求項1又は3に記載の送信装置と請求項9に記載の受信装置とを備える情報処理システム。 An information processing system comprising: the transmission device according to claim 1 or 3; and the reception device according to claim 9.
  14.  請求項7に記載の送信装置と請求項12に記載の受信装置とを備える情報処理システム。 An information processing system comprising the transmission device according to claim 7 and the reception device according to claim 12.
PCT/JP2015/051642 2014-01-31 2015-01-22 Transmission device, reception device, and information processing system WO2015115294A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015559897A JP5976240B2 (en) 2014-01-31 2015-01-22 Transmission device, reception device, and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-017559 2014-01-31
JP2014017559 2014-01-31

Publications (1)

Publication Number Publication Date
WO2015115294A1 true WO2015115294A1 (en) 2015-08-06

Family

ID=53756870

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/051642 WO2015115294A1 (en) 2014-01-31 2015-01-22 Transmission device, reception device, and information processing system

Country Status (2)

Country Link
JP (1) JP5976240B2 (en)
WO (1) WO2015115294A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210122541A (en) * 2020-04-01 2021-10-12 삼성전자주식회사 Method of providing data and electronic device supporting same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309756A (en) * 2004-04-21 2005-11-04 Mitsubishi Electric Corp Information transfer system, information conversion apparatus, information reproduction device and display device
JP2006067085A (en) * 2004-08-25 2006-03-09 Nec Viewtechnology Ltd Transmitter and receiver for spatial optical communication system
JP2007156969A (en) * 2005-12-07 2007-06-21 Sharp Corp Information transfer system and information transfer method
JP2010117871A (en) * 2008-11-13 2010-05-27 Sony Ericsson Mobile Communications Ab Method of reading pattern image, apparatus for reading pattern image, information processing method, and program for reading pattern image
JP2011119820A (en) * 2009-12-01 2011-06-16 Konica Minolta Business Technologies Inc Image forming device and image reader
JP2013045293A (en) * 2011-08-24 2013-03-04 Fujitsu Mobile Communications Ltd Data transmission method, terminal device, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309756A (en) * 2004-04-21 2005-11-04 Mitsubishi Electric Corp Information transfer system, information conversion apparatus, information reproduction device and display device
JP2006067085A (en) * 2004-08-25 2006-03-09 Nec Viewtechnology Ltd Transmitter and receiver for spatial optical communication system
JP2007156969A (en) * 2005-12-07 2007-06-21 Sharp Corp Information transfer system and information transfer method
JP2010117871A (en) * 2008-11-13 2010-05-27 Sony Ericsson Mobile Communications Ab Method of reading pattern image, apparatus for reading pattern image, information processing method, and program for reading pattern image
JP2011119820A (en) * 2009-12-01 2011-06-16 Konica Minolta Business Technologies Inc Image forming device and image reader
JP2013045293A (en) * 2011-08-24 2013-03-04 Fujitsu Mobile Communications Ltd Data transmission method, terminal device, and program

Also Published As

Publication number Publication date
JP5976240B2 (en) 2016-08-23
JPWO2015115294A1 (en) 2017-03-23

Similar Documents

Publication Publication Date Title
CN102771109B (en) The method, apparatus and system of delivery of video and control are carried out by overwrite video data
US7679616B2 (en) Image data generation apparatus for adding attribute information regarding image pickup conditions to image data, image data reproduction apparatus for reproducing image data according to added attribute information, and image data recording medium related thereto
JP3746506B2 (en) Stereoscopic parameter embedding device and stereoscopic image reproducing device
JP4877852B2 (en) Image encoding apparatus and image transmitting apparatus
US10313009B2 (en) Coded light
US10075236B2 (en) Coded light
JP2004357156A (en) Video reception apparatus and video playback apparatus
JP2005519534A (en) Dynamic range video recording and playback system and method
JP6206559B2 (en) Decoding device, decoding method, program, and recording medium
JP2010245618A (en) Digital television broadcast receiver, and method of controlling the same
JP5156196B2 (en) Imaging device
JP5976240B2 (en) Transmission device, reception device, and information processing system
JP2006295835A (en) Image transmission system
WO2011134373A1 (en) Method, device and system for synchronous transmmision of multi-channel videos
JP5808485B2 (en) Mobile terminal recording method, related apparatus and system
JP2007201862A (en) Communication terminal device
JP7209195B2 (en) Display device and display method
JP2006054550A (en) Transmission system
EP1463333A1 (en) Apparatus and method for image, video and audio processing
JP3938019B2 (en) Recording apparatus and recording method
JP6147161B2 (en) Imaging apparatus, information display apparatus, and information processing system
JP2008211491A (en) Closed-captioned video display system, server device, and terminal apparatus
JP2007174207A (en) Moving image processing apparatus
JP2006129463A (en) Stereoscopic viewing parameter storage medium
EP3249912A1 (en) Method and device for transmitting and receiving broadcast signal for restoring pulled-down signal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15743709

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015559897

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15743709

Country of ref document: EP

Kind code of ref document: A1