WO2010119742A2 - 情報読取出力装置 - Google Patents

情報読取出力装置 Download PDF

Info

Publication number
WO2010119742A2
WO2010119742A2 PCT/JP2010/054354 JP2010054354W WO2010119742A2 WO 2010119742 A2 WO2010119742 A2 WO 2010119742A2 JP 2010054354 W JP2010054354 W JP 2010054354W WO 2010119742 A2 WO2010119742 A2 WO 2010119742A2
Authority
WO
WIPO (PCT)
Prior art keywords
content
output
code
information
mode
Prior art date
Application number
PCT/JP2010/054354
Other languages
English (en)
French (fr)
Other versions
WO2010119742A3 (ja
Inventor
吉田 健治
Original Assignee
Yoshida Kenji
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yoshida Kenji filed Critical Yoshida Kenji
Priority to CN201080011645.5A priority Critical patent/CN102369503B/zh
Priority to EP10764328.0A priority patent/EP2439621A4/en
Publication of WO2010119742A2 publication Critical patent/WO2010119742A2/ja
Publication of WO2010119742A3 publication Critical patent/WO2010119742A3/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers

Definitions

  • the present invention relates to an information reading / output device that optically reads dot pattern information formed on a printed material or the like, converts the dot pattern information into code information, and outputs a plurality of contents.
  • the conventional method of outputting sound or the like using the two-dimensional code has a problem that the two-dimensional code printed on the printed matter is annoying.
  • the two-dimensional code is large and occupies a part of the paper surface, if the two-dimensional code is large in this way, a character having a meaning that appears in a part of a sentence or sentence, or a photograph, picture, or graphic image.
  • the voice assigned to the two-dimensional code is fixed, and when the same two-dimensional code is read, only the same voice information can always be output. This is because the number of pieces of information that can be output from one printed matter using one code reader is limited by the reading area of the code reader, the area of the printing area of the two-dimensional code, the printable area of the printed matter, etc. It is synonymous with it. For example, if the number of two-dimensional codes that can be printed on one printed material is limited to 10 due to the above-mentioned restrictions, the number of information that can be output from one printed material by one code reader is also limited to 10. It becomes. Further, it is impossible to output a plurality of contents including not only voice but also text, video, URL, multimedia, and various commands.
  • an object of the present invention is to relate a plurality of contents to one code information and propose a mechanism capable of outputting a content desired by a user, thereby associating a plurality of contents with one code information, text, voice, It is an object of the present invention to provide an information reading / output device capable of automatically or arbitrarily selecting a plurality of contents including video, URL, multimedia, etc. and various commands and outputting them to an output device.
  • the information reading / output apparatus employs the following means in order to solve the above problems.
  • the information reading / output device includes any one of a storage unit that stores a plurality of contents, a content code including a content ID and a plurality of subcodes, and a mode code corresponding to the content ID and the output mode.
  • Reading means for optically reading a dot pattern in which information is defined from a medium surface on which the dot pattern is printed in advance, and conversion for converting the optically read dot pattern into a content code or a mode code as code information Means, an output mode link table in which the content ID and the output mode are registered in association with each other, and when the dot pattern is converted into a content code, the content ID is referred to, and the output mode link table is supported. Based on the registered output mode.
  • Control means for selecting one of the codes and outputting the content corresponding to the subcode to a predetermined output device; and when the dot pattern is converted into a mode code, the content ID and output And mode setting / switching means for associating the mode with each other and registering it in the output mode link table.
  • the information reading / output device can select and output one content by setting / switching the output mode even if the same content code is associated with a plurality of content. Therefore, the number of contents that can be output from one medium is not limited by the number of dot patterns that can be printed on one medium surface. Further, the output mode can be set / switched for each content ID.
  • An information reading / output device includes one content code, a plurality of contents including text, sound, video, URL, multimedia, and / or various instructions, and an output mode corresponding to the plurality of contents,
  • a link table registered in association with each other, storage means for storing the plurality of contents, reading means for optically reading a dot pattern previously printed on the medium surface, and an optically read dot pattern
  • Content code or mode code conversion means for converting to code information, mode setting / switching means for setting and switching the output mode based on the mode code, and storing, and the content code
  • the link table is read out, and a small number of contents are registered from the plurality of contents registered in the link table. Both selected based one content to the mode output mode setting and switching means is stored, characterized by comprising a control means for controlling output to a predetermined output device.
  • the information reading / output device can select and output one content by setting / switching the output mode even if the same content code is associated with a plurality of content. Therefore, the number of contents that can be output from one medium is not limited by the number of dot patterns that can be printed on one medium surface.
  • the conversion unit further converts the dot pattern read by the reading unit into coordinate information, and predetermined coordinate information is registered in the link table in association with the plurality of contents instead of the content code.
  • the control means further retrieves the predetermined coordinate information registered in the link table at a position closest within a predetermined distance from the coordinate information, and the plurality of contents related to the predetermined coordinate information Therefore, it is preferable that at least one content is selected based on the output mode stored by the mode setting / switching means, and the output of the content is controlled.
  • the link table and / or the storage means are set in a predetermined server on the network.
  • the link table stores, for each one content code, the registration order of the plurality of contents, the rank of AIUE, the ABC order, or the contents content / attributes as a mode according to a predetermined method.
  • a sub-table wherein the plurality of contents are allocated and registered according to any one of the respective ranks in the first sub-table, and the conversion means further ranks the dot patterns read by the reading means.
  • the control means instead of the output mode stored by the mode setting / switching means, selects one rank from the sub-table based on the rank code, and selects the selected one It is preferable to further control the order of outputting the plurality of contents based on the order.
  • the link table further includes a second sub-table in which the plurality of contents are allocated and registered according to an output time or a predetermined elapsed time
  • the control means includes a reading time when the reading means reads a dot pattern or Timing means for measuring a predetermined reading elapsed time, and comparing the second reading time or the predetermined reading elapsed time with an output time of the second sub-table or a predetermined elapsed time, Preferably, at least one content assigned to the table is selected to control the output.
  • the link table further includes a third sub-table in which the one code information is divided into a plurality of sub-codes, and the plurality of contents are respectively registered in association with the plurality of sub-codes.
  • control means controls the simultaneous output of at least two contents.
  • content output command information for instructing the order in which a plurality of contents are output is registered in association with the content code and the output mode as one of the various commands. Is preferably controlled to output to a predetermined output device in the order in which a plurality of contents are output based on the output command information.
  • the mode setting / switching unit sets / switches the output mode based on an instruction input by an input unit that receives an instruction from a user instead of the mode code and stores the mode.
  • the storage means stores text, audio, video, URL, multimedia, etc. and / or various commands input by an input means for receiving an instruction from a user as new contents, and the information reading / output device
  • the link table It is preferable to further include a link means for newly registering.
  • the present invention by associating one piece of code information with a plurality of contents and proposing a mechanism capable of outputting the contents desired by the user, the plurality of contents are associated with one piece of code information, and text, audio, video It is possible to provide an information reading / output device capable of selecting and outputting a plurality of contents including URL, multimedia, and various commands to an output device.
  • the figure which shows the table 2 which shows the relationship between code information and audio
  • the figure which shows an English study book The block diagram which shows the system configuration
  • indication board read with a scanner.
  • the figure for demonstrating the method to link a content and a content code The figure for demonstrating the method of switching an output mode separately for every content code. The figure for demonstrating the method of switching an output mode separately for every content code. The figure for demonstrating the format of the code
  • chord for registering newly matching with content ID and output mode.
  • FIG. 1 shows an external configuration of a voice recorder (information reading / output device) 1 in which a scanner of the present invention is integrated.
  • FIG. 1 (a) shows the side of the voice recorder 1, and a sensor unit 2 is built in at the tip (upper end in the figure), and a dot pattern can be read as will be described in detail later.
  • a speaker 3 is provided on the side of the voice recorder 1 so that content information can be displayed and audio can be output.
  • FIG. 1B shows the front (operation surface) of the voice recorder 1, and includes a scan button 4, a record button 5, a volume 6, a mode setting switch button 7, an LED 8, an on / off switch 9, a microphone 10, and a card.
  • the insertion ports 11 are respectively arranged.
  • the scan button 4 is a button that is pressed when reading a dot pattern from a picture book, a photograph, a magazine, or the like on which a dot pattern is printed, or when linking content.
  • the recording button 5 is a button that is pressed when recording a sound.
  • Volume 6 adjusts the volume when outputting audio information.
  • the mode setting switching button 7 is a button that is pressed when setting the mode or switching the mode.
  • LED 8 is lit (flashes) when the voice recorder 1 is operating.
  • the on / off switch 9 is a switch for turning on / off the power of the voice recorder 1.
  • the microphone 10 is for recording sound.
  • a memory card 20 incorporating an IC chip as a memory is inserted.
  • the memory card 20 has contact-type electrodes (not shown) constituting signal pins and power pins and is connected to a connector (not shown) of the voice recorder 1.
  • a non-contact wireless communication type RFID card may be used.
  • a standard type memory card such as an SD card (trade name), a mini SD card (trade name), a Memory Stick (trade name), or a Memory Stick Duo (trade name) may be used. May be.
  • FIG. 2 shows an example of the circuit configuration of the voice recorder 1.
  • the sensor unit 2 is provided with a CMOS image sensor (CMOSS), and irradiates light from an LED (IRLED) onto a printed surface of a dot pattern, and the reflected light passes through a visible light filter (not shown).
  • CMOS image sensor CMOS image sensor
  • IRLED LED
  • a visible light filter not shown
  • Light is received as wavelength light only in the infrared region, and this is photographed by a CMOS image sensor through a lens, the photographed image is analyzed by a central processing unit (MPU) 21, and code information (32-bit dot code) of the analysis result is analyzed. ) Or coordinate information is transmitted to the central processing unit (MPU) 22.
  • Analysis software is stored in the ROM or the like in the sensor unit 2, and the central processing unit 21 reads the software from the ROM to analyze the captured image (recognizes a dot pattern and stores code information). , Processing for converting into XY coordinate values).
  • the central processing unit 22 When reproducing the audio information, the central processing unit 22 reads the digital audio information from the memory card (storage means) 20 via the connector, reverse-compresses (decompresses) it with a compression circuit, and converts it into analog information with an A / D converter. And it outputs from the speaker 3 via amplifier (AMP).
  • the speaker 3 is provided with an earphone jack so that the reproduced sound can be heard with an earphone or headphones.
  • audio information input from the microphone 10 is processed by an A / D converter and a compression circuit via an amplifier, and recorded as digital audio information in the memory card 20 via a connector.
  • the central processing unit 22 is connected to the volume 6 and the LED 8 as described above, and controls each of them.
  • the drive current of the voice recorder 1 is supplied from the battery to the sensor unit 2, the central processing unit 22, the compression circuit, and the amplifier (AMP) via the DC-DC converter.
  • the dot pattern on the medium surface is printed with carbon ink or stealth ink (invisible ink) that absorbs infrared rays, and the portions other than the dot pattern are printed with ink that reflects or transmits infrared rays, such as non-carbon ink.
  • ink that reflects or transmits infrared rays, such as non-carbon ink.
  • the carbon ink and the stealth ink have a characteristic of absorbing infrared rays, in the image captured by the CMOS image sensor, the reflected light cannot be obtained only at the dot portion, so that the black image is captured. Become.
  • the irradiation light has been described in the present embodiment using a dot pattern printed with carbon ink and stealth ink (invisible ink) using infrared rays, but the characteristics of the irradiation light and ink are
  • the dot pattern may be printed using, for example, an ultraviolet ray or a light beam having a specific frequency, and an ink having a characteristic of absorbing the ultraviolet ray or a characteristic of changing the optical characteristic.
  • the captured image of the dot pattern read in this way is obtained code information (code value) and / or coordinate value by a dot pattern analysis program operating on the central processing unit 21 in the voice recorder 1.
  • the voice recorder 1 not only reads a dot pattern, but also selects and plays back a stored voice file by pressing a scroll button as provided in a conventional voice recorder or voice player.
  • the selected audio file may be played back by pressing a button.
  • FIG. 3 is an enlarged view showing an example of the arrangement of the key dots 102, the reference grid point dots 103, and the information dots 104 of the dot pattern 101.
  • FIG. 4 is an explanatory diagram showing information dots 104 representing vector information and encoding.
  • the information input / output method using the dot pattern includes generation of the dot pattern 101, recognition of the dot pattern 101, analysis of the dot pattern 101, and output of information and a program. That is, the central processing unit 21 captures the dot pattern 101 as a captured image by the CMOS image sensor of the sensor unit 2, extracts the reference grid point dot 103 based on the analysis software, and then should originally have the reference grid point dot 103.
  • a dot is not arranged at a position but a dot is arranged at a position shifted in a predetermined direction, whereby a key dot 102 is extracted, and a dot pattern 101 for one block and its direction are specified.
  • the central processing unit 21 extracts the information dots 104 surrounded by the four reference grid point dots 103 or the key dots 102, encodes them with a predetermined algorithm, and arranges the information dots 104 in the dot pattern 101 for one block.
  • the set of information dots 104 is decoded into a predetermined code value and / or coordinate value, and the code value and / or coordinate value is sent to the central processing unit 12.
  • the dot pattern 101 is generated by using a dot code generation algorithm to make fine dots, that is, at least one key dot 102, a reference grid point dot 103, and an information dot 104 in order to recognize vector information for encoding. Arrange according to a predetermined rule.
  • the block of the dot pattern 101 has 5 ⁇ 5 reference grid point dots 103 arranged around the virtual center point 105 surrounded by the four reference grid point dots 103 or the reference grid points.
  • Information dots 104 representing vector information are arranged.
  • the arrangement and configuration of the blocks are determined by the key dots 102.
  • the key dot 102 is a dot that is not arranged on a reference grid point at one corner of the block but is shifted in a predetermined direction from the dot, and the size of the block is determined.
  • the direction of the block, that is, the dot pattern 101 is defined. Arbitrary numerical information is defined in this block.
  • FIG. 3 shows a state in which four blocks (inside the thick line frame) of the dot pattern 101 are arranged in parallel.
  • the dot pattern 101 is not limited to four blocks.
  • the key dots 102 are not limited to the corners of the block, and may be arranged at any position inside or outside the block.
  • the dot code analysis algorithm uses the lens distortion of the sensor unit 2 and imaging from an oblique direction, the expansion and contraction of the paper surface, the curvature of the medium surface, and the reference grid points during printing.
  • the distortion of the arrangement of the dots 103 can be corrected.
  • the dot 104 is corrected, and vector information is obtained from the correct position of the information dot 104.
  • the information dot 104 is a dot for recognizing various vector information.
  • the information dot 104 is arranged in the dot pattern 101 for one block constituted by the key dots 102, and is a virtual center point 105 surrounded by four reference grid point dots 103. It is arranged at the end point expressed by.
  • FIG. 4B is a method of encoding 2 bits for each information dot 104 in the dot pattern 101 of FIG. 3.
  • the dots are shifted in the + direction and the X direction to encode each 2 bits.
  • 2 bits ⁇ 16 32 bits are expressed.
  • 48-bit numerical information can be originally defined by the dot pattern 101 for one block, but numerical information can be given every 32 bits by dividing according to use.
  • a maximum of 2 16 (about 65000) information dot arrangement patterns can be realized by combining the + direction and the X direction.
  • the present invention is not limited to this, and it is possible to encode 4 bits by arranging in 16 directions, and of course, the encoding can be changed by arranging in various directions.
  • the dot diameters of the key dot 102, the reference grid dot 103, and the information dot 104 are 0.03 to 0.06 mm in consideration of appearance, paper quality, printing accuracy, resolution of the sensor unit 2 and optimal digitization. It is desirable to be in the range of the degree.
  • the interval between the reference grid point dots 103 is in the range of about 0.3 to 0.6 mm in both the vertical and horizontal directions. Is desirable.
  • the shift of the key dot 102 is preferably about 20% of the grid interval.
  • the distance between the information dot 104 and the virtual center point 105 surrounded by the four reference grid point dots 103 is about 15 to 30% of the distance between the adjacent reference grid point dot 103 and the virtual center point 105. It is desirable that This is because if the distance between the information dot 104 and the virtual center point 105 is larger than this distance, the reference grid point dot 103 and the information dot 104 are easily recognized as a lump, and the dot pattern 101 looks unsightly as a pattern.
  • the distance between the information dot 104 and the virtual center point 105 is smaller than this distance, it is difficult to recognize in which direction the information dot 104 having vector information centered on the virtual center point 105 is located. Because it becomes.
  • one dot pattern 101 is a dot pattern 101 composed of 4 ⁇ 4 block areas, and 2-bit information dots 104 are arranged in each block.
  • FIG. 5 shows the dot code format of the dot pattern 101 for one block constituting the set of information dots 104.
  • a parity check and a code value are recorded.
  • (B) in FIG. 5 records a parity check, a code value, and an XY coordinate value.
  • the dot code format can be arbitrarily determined.
  • FIG. 6 is an example showing information dots 104 having vector information and other forms of encoding.
  • the long and short are used from the reference grid point dot 103 or the virtual center point 105 surrounded by the reference grid points, and the vector direction is 8 directions, 4 bits are encoded.
  • the longer one is about 25 to 30% of the distance between adjacent virtual center points 105, and the shorter one is about 15 to 20%.
  • the center interval between the long and short information dots 104 is longer than the diameter of these information dots 104 so as not to be mistaken.
  • reference grid point dots 103 or 0 to 8 information dots 104 surrounded by the reference grid points can be encoded in 8 bits, and 16 bits in 8 directions of concentric double circles.
  • 16 bits in 8 directions of concentric double circles In a vector, 0 to 16 information dots 104 in one block can be encoded and 16 bits can be encoded.
  • FIG. 7 is an example of 16 vector information dots 104 in the direction of concentric double circles 8 and encoding.
  • A shows two information dots 104
  • (b) shows four information dots 104
  • (c ) Shows an arrangement of five information dots 104.
  • FIG. 8 shows a modified example of the dot pattern 101.
  • FIG. 8A shows four reference grid dot dots 103 surrounding the information dot 104 or six square or rectangular areas composed of reference grid points.
  • These dot patterns for one block are repeatedly arranged vertically and horizontally in one or an arbitrary area. Arbitrary numerical information is defined in the block.
  • XY coordinate values are defined, XY coordinate values incremented by 1 are recorded in the blocks arranged in the XY coordinate direction.
  • the dot pattern 101 shown in FIG. 3 shows an example in which 16 (4 ⁇ 4) information dots 104 are arranged in one block.
  • the number of information dots 104 is not limited to 16 arranged in one block.
  • four reference grid dots 103 or an area composed of reference grid points surrounding the information dots 104 is used.
  • the encoding of the information dot 104 defined in the area can be variously changed.
  • the code information is first used as a content code defined as corresponding to a plurality of contents including text, audio, video, URL, multimedia, and various commands.
  • the code information is used as a mode code for switching the output mode.
  • the output mode means a generic name of processes necessary for selecting and outputting at least one of a plurality of contents assigned to a content code in the present invention.
  • the code information is used as coordinate information that means XY coordinate values in the area where the dot pattern is printed.
  • the code information is stored in a plurality of sub-tables in which a plurality of contents are registered in the order of registration, Aioio rank, ABC rank, or rank in which contents contents / attributes are distinguished as modes by a predetermined method.
  • Means a rank code for instructing the output order of the content (details will be described later).
  • 9 and 10 show tables for reading voice information using code information stored in advance in the memory card 20 (details will be described later).
  • FIG. 9 shows a mode setting table 1.
  • the mode code “110000” is read by the voice recorder 1, the output mode is switched from mode 1 to mode 2, and the mode code “110000” is read again.
  • setting of mode 1 and mode 2 is repeated (toggle operation).
  • the mode is set, the setting state is stored.
  • FIG. 10 shows a table 2 for content selection.
  • the language of audio information is Japanese.
  • the code information that has been input is the audio output as "good morning” by the Japanese in the "110001", is the audio output as "Hello” code information that has been entered by the Japanese in the "110002".
  • the language of voice information is English.
  • the input code information is “110001”, “Good morning” is output as voice in English, and when the input code information is “110002”, “Hello” is output as audio.
  • FIG. 11 shows an example printed on a medium, in which a dot pattern representing code information corresponding to a character is superimposed and printed in a character area. Since the dot pattern cannot be seen with the naked eye, the dot pattern cannot be shown, but the area printed with “Language Switch” in the figure is overprinted with a dot pattern that means a mode code. There you “,” Good morning “,” Hello “,” Hello “,” Good evening “, in an area that has been printed with” Good evening “is a set of” Good morning “and” Good morning “,” Hello " A dot pattern representing three different content codes, one set of “Hello” and “Good evening” and one set of “Good evening”, are superimposed and printed.
  • step 1 When the on / off switch 9 is turned on (step 1), the central processing unit 22 checks whether or not the output mode is set to mode 1 (step 2). To step 8.
  • the central processing unit 21 converts the dot pattern into code information based on the analysis software when the dot pattern is read from the medium by the sensor unit 2 (step 3). Output to the device 22 (step 4).
  • Step 5 When the code information input with reference to the table 2 stored in the memory card 10 is “110000”, the central processing unit 22 switches from mode 1 to mode 2 because the code information is a mode code. (Step 5).
  • the central processing unit 22 reads the audio information corresponding to the content code in mode 1 and outputs the audio from the speaker 3 (Ste 6). For example, when the code information is “110001”, “Good morning” is output in Japanese. In this case, since the same dot pattern is overlaid on the character area “Good morning” and the character area “Good morning” shown in FIG. 11, even if the character area “Good morning” is read, the character area “Good morning” Even if “morning” is read, “Good morning” is output in Japanese.
  • the central processing unit 21 reads the dot pattern from the medium based on the analysis software when the sensor unit 2 reads the dot pattern from the medium (step 8). The information is converted and output to the central processing unit 22 (step 9).
  • the central processing unit 22 switches from mode 2 to mode 1 because the code information is a mode code. (Step 10).
  • the central processing unit 22 reads the audio information corresponding to the content code in mode 2 and outputs the audio from the speaker 3 (Ste 11). For example, when the code information is “110001”, “Good morning” is output as a voice in English. In this case, since the same dot pattern is overlaid on the character area “Good morning” and the character area “Good morning” shown in FIG. 11, even if the character area “Good morning” is read, the character area “Good morning” Even if “morning” is read, “Good morning” is output in English.
  • step 7 when the on / off switch 9 is turned off (step 7), the power of the voice recorder 1 is turned off.
  • different audio information for example, English and Japanese
  • Word can be set by switching the output mode. Word
  • FIG. 13 shows a table stored in advance in a memory card 30 (not shown) having a different storage content from the memory card 20.
  • the memory card 30 is provided with an English learning link table.
  • FIG. 14 shows an example of a print medium as an English study book used for English learning.
  • Code information (for example, “130000”), which is a mode code, is printed as a dot pattern in the character area of “mode switching” for switching the mode at the upper right of the English study book.
  • Code information “130001” as a content code is printed as a dot pattern in the character area of “English 1”. The same applies to “English 2” and below.
  • the content code “130001” is reproduced in the mode 1 by the teacher's voice modeled on English 1 English.
  • mode 2 the recorded voice is played.
  • mode 3 the teacher's voice and his / her voice are played simultaneously or continuously.
  • the learner turns on the on / off switch 9 of the voice recorder 1 (mode 1 is set as a default), and reads the dot pattern from the character area “English 1” of the study book.
  • the central processing unit 21 of the voice recorder 1 executes analysis processing of the read image (processing for recognizing a dot pattern and converting it into code information and XY coordinate values) and outputs the content code “130001” to the central processing unit 22. To do.
  • the central processing unit 22 refers to the table of FIG. 13 using the input content code “130001” and outputs the English 1 teacher's voice, which is the content corresponding to mode 1, from the speaker 3.
  • the learner inserts headphones (not shown) into the earphone jack and wears the headphones, and once again reads the dot pattern from the character area “English 1” of the English study book.
  • the learner presses the record button 5 and pronounces the English sentence in accordance with the voice of the English 1 teacher who listens to the microphone 10 from the headphones.
  • the central processing unit 22 as the link means records the learner's voice information from the microphone 10 in a recording area provided corresponding to the content code 130001 of the memory card 30, and newly registers it in the link table.
  • the link between the content and the content code by means will be described in detail. There are several ways to link content and content code.
  • FIG. 22 is a diagram showing a first linking method among the linking methods.
  • the user starts recording the user's own voice “I'm fine.Thank you” on the voice recorder 1 and stores it in a recording means (not shown).
  • the user's own voice “I'm fine. Thank you” is linked.
  • the user presses a recording button 5 (not shown) of the voice recorder 1 to start recording, and after recording the user's own voice, the dot pattern is ditched to stop recording, and the content defined by the dot pattern There is a way to link the chord and the recorded audio file.
  • the user presses the recording button 5 of the voice coder 1 to start recording the voice, presses the recording button 5 again to end the recording, and within a predetermined time (for example, 10 seconds), the voice recorder 1 performs a dot pattern.
  • a predetermined time for example, 10 seconds
  • the dot pattern There is a method of linking the content code defined by, and the recorded audio file.
  • the above configuration relates to a voice recorder.
  • the information reading / output device according to the present invention is not limited to the voice recorder, and can be implemented in various ways.
  • the scanner of the present invention may be connected to or integrated with a video camera, and an image captured by the video camera may be linked to a content code by the various methods described above, or the scanner of the present invention may be connected to a personal computer to Of course, the URL being browsed by the computer may be linked to the content code.
  • a second link method for creating a link table in which content and content codes are linked by an application on the personal computer may be adopted. Good.
  • FIG. 23 and FIG. 24 are diagrams for explaining a second link method for explaining an application executed on the personal computer for creating the link table.
  • FIG. 23 is a diagram illustrating a state in which an application is being executed
  • FIG. 24 is a diagram illustrating a link table created by executing the application.
  • each content (including an address indicating content on the network) stored in advance in the computer is displayed on the left side of the screen on the display device (DISP).
  • the content code is displayed on the right side of the screen, and the link table is displayed in the center of the screen (of course, the layout is not limited to the above).
  • the user inserts the displayed content or content code into the link table at the center of the screen by dragging and dropping by an operation with a mouse (not shown).
  • the association between the new content and the content code is registered in the link table in the center of the screen, the content code is displayed in the code column, and the file name of the content is displayed in the content column.
  • the link table can also be created on a personal computer using a dedicated application.
  • the learner After the recording is completed, the learner is set by default by reading the dot pattern of the character area “mode change” of the English study book by the voice recorder 1 or pressing the mode setting change button 7 of the voice recorder 1. Switch from mode 1 to mode 2. Then, the learner reads the dot pattern of the character area “English 1” of the English study book by the voice recorder 1.
  • the central processing unit 21 executes analysis processing of the read image (processing for recognizing a dot pattern and converting it into code information and XY coordinate values) and outputs the content code “130001” to the central processing unit 22.
  • the central processing unit 22 refers to the table of FIG. 13 using the input content code “130001”, and the recorded learner's voice, which is the content corresponding to the mode 2, is displayed on the speaker 3 or headphones (not shown). Output from.
  • the learner reads a dot pattern that means a mode code superimposed on the character area “mode switch” of the English study book by the voice recorder 1 or presses the mode setting switch button 7 of the voice recorder 1, Switch from mode 2 to mode 3. Then, the learner reads the dot pattern of the character area “English 1” of the English study book by the voice recorder 1.
  • the central processing unit 21 executes analysis processing of the read image (processing for recognizing a dot pattern and converting it into code information and XY coordinate values) and outputs the content code “130001” to the central processing unit 22.
  • the central processing unit 22 refers to the table of FIG. 13 using the input content code “130001”, and transmits the teacher's voice and the recorded learner's voice corresponding to the mode 3 to the speaker 3 or Output from headphones (not shown).
  • the teacher's voice is played, the recorded voice is played, or the teacher's voice and the recorded voice are played simultaneously or continuously. Can do.
  • a liquid crystal display unit may be provided on the side surface of the voice recorder 1 shown in FIG. 1, and the content name shown by the link table in FIG. 13 may be displayed.
  • the information reading / output device includes not only the above-described recording means but also a conventional OCR and video camera inside and outside the device, thereby inputting multimedia information other than audio. Can be registered in the link table.
  • FIG. 15 shows the configuration of a personal computer and a scanner.
  • a personal computer is mainly composed of a central processing unit (CPU), a main memory (MM), a hard disk device (HD) connected by a bus, a display device (DISP), a speaker (SP), a keyboard ( KBD) and a mouse.
  • the central processing unit (CPU) has time measuring means 50 and controls the output of content according to the time described later.
  • USB I / F USB interface
  • the bus (BUS) is connected to a general-purpose network (NW) such as the Internet via a network interface (NW I / F).
  • NW general-purpose network
  • NW I / F network interface
  • HD hard disk
  • OS operating system
  • application programs such as a dot pattern analysis program used in the present embodiment, electronic map data, character information, image information, audio information, video information, various tables, etc. Is registered.
  • the central processing unit sequentially reads and executes application programs in the hard disk (HD) via the bus (BUS) and the main memory (MM), reads out the data, and outputs it to the display device (DISP). To do.
  • the scanner includes an infrared irradiation means (red LED), an IR filter, an optical image sensor such as a CMOS sensor and a CCD sensor, and functions to capture the reflected light of the irradiation light irradiated on the medium surface.
  • the scanner may be provided with the mode setting switching button shown in FIG.
  • the dot pattern on the medium surface is printed with carbon ink, and the portion other than the dot pattern is printed with non-carbon ink. Since the carbon ink has a characteristic of absorbing infrared light, only the dot portion is photographed black in the image captured by the optical image sensor.
  • the captured image of the dot pattern read in this way is analyzed by a central processing unit (not shown) in the scanner, converted into a content code, and transmitted to a personal computer via a USB cable.
  • the central processing unit (CPU) of the personal computer refers to a link table (described later) indicating the received content code, and displays a plurality of contents corresponding to one code information from the display device (DISP) and the speaker (SP). Output.
  • FIG. 16 shows an example of a link table provided in the hard disk (HD), and a plurality of contents are registered in one content code.
  • one content code “120001” has “Momotaro” text as the content name, “Text Information” as the content, “Recitation“ Momotaro ”as the content name, and“ Speech ”as the content. “Information”, “Momotaro” video as the content name, “Video / audio information” as the content, “Momotaro” related ”as the content name, and“ URL ”as the content are linked.
  • FIG. 17 shows an example of an “output instruction board” that is a medium for inputting code information for searching the link table described above, and a dot pattern representing a content code corresponding to a character is superimposed and printed in a character area. .
  • a dot pattern meaning the content code “120001” is superimposed and printed on the character region “Momotaro”, and the content code “120002” is meant on the character region “novel“ XX ””.
  • the dot pattern to be superimposed is printed, the dot pattern meaning the content code “120003” is superimposed and printed on the character area “Scarecrow”, and the others are similarly superimposed and printed.
  • the central processing unit CPU analyzes the read image (recognizes the dot pattern, converts the code information, and the XY coordinate value).
  • the content code “120001” is obtained by executing the conversion process.
  • the central processing unit CPU refers to the link table of FIG. 16 by the content code “120001”, and ““ Momotaro ”sentence”, ““ Momotaro ”reading”, ““ Momotaro ”animation”, ““ Momotaro “related” is displayed on the display device DISP.
  • the central processing unit CPU reads the “text information” as the content by referring to the link table and displays the display device. Display on DISP. The user can read the text (story) of “Momotaro” displayed on the display device DISP while scrolling.
  • the central processing unit CPU When "" Momotaro "reading” displayed on the display device DISP by the keyboard (KBD) or the mouse is selected, the central processing unit CPU reads the "voice information" as the content by referring to the link table, and the speaker SP To output audio. The user can listen to the sound (story) of “Momotaro” from the speaker SP.
  • the central processing unit CPU reads the “video / audio information” as the content by referring to the link table.
  • the video is shown on the display device DISP, and sound is output from the speaker SP.
  • the user can view the moving image (story) of “Momotaro”.
  • the central processing unit CPU When “related to“ Momotaro ”” displayed on the display device DISP by the keyboard (KBD) or the mouse is selected, the central processing unit CPU reads the “URL” as the content by referring to the link table, and the network interface ( It connects to a general-purpose network (NW) such as the Internet via NW I / F), downloads information related to “Momotaro” and displays it on the display device DISP. The user can obtain information related to “Momotaro”.
  • NW general-purpose network
  • “Momotaro” text and “Momotaro” readings displayed on the display device DISP by the keyboard (KBD) or mouse are selected, and “simultaneous output” (not shown) displayed in advance on the display device DISP. ) Is selected, the central processing unit CPU refers to the link table and selects “text information” as content corresponding to ““ Momotaro ”text” and “speech” as content corresponding to “Momotaro” reading. "Information” is read out. Then, the central processing unit CPU displays “text information” on the display device DISP and simultaneously outputs “voice information” from the speaker SP. The user can read the sentence (story) of “Momotaro” displayed on the display device DISP while scrolling, and can simultaneously listen to the sound (story) of “Momotaro” from the speaker SP.
  • a plurality of content names and a plurality of contents corresponding to each may be downloaded from the server 40. Only a plurality of contents may be downloaded from the server.
  • one content code “120003” has “Scarlet story” as the content name, “Content output command information” as the content, and “Scarlet child” introduction part as the content name.
  • the content name is “Reading Scarlet” text, and “Text information and voice information” are linked as content.
  • the central processing unit CPU analyzes the read image (recognizes the dot pattern, converts the code information, and the XY coordinate value).
  • the content code “120003” is obtained by executing the conversion process.
  • the central processing unit CPU refers to the link table of FIG. 16 with the content code “120003”, and as the content name “Scarlet Story”, “Scarlet” introduction part, “Scarlet Video”, “Scarlet” “Reading” and “Reading Scarlet” text are displayed on the display device DISP.
  • the central processing unit CPU reads “content output command information” as content with reference to the link table. In accordance with this information output instruction, the central processing unit CPU first executes the content of the “introduction” section, and then executes the content of the “introduction” video, Execute the content, and execute the content of “Reading Scarlet” text.
  • the central processing unit CPU executes the corresponding audio information when the “Draft child” introduction unit is selected, and executes the corresponding video / audio information when the “Draft child” video is selected. If ““ Scarecrow ”reading” is selected, the corresponding speech information is executed, and if “Scarice” reading is selected, the corresponding text information and speech information are executed.
  • FIG. 18 shows a surface printing state of a map (medium) used in the present embodiment.
  • a map portion of the map symbols for displaying tourist facilities and the like in addition to roads and tracks are printed.
  • a dot pattern that means XY coordinates corresponding to the position of the road or track is printed.
  • the dot pattern as a mode code is overprinted on each icon outside the map.
  • the “information” icon defines a mode code for switching from XY coordinate information to an output mode for outputting a movie describing the facility, and the “map” icon outputs latitude / longitude information from the XY coordinate information.
  • a mode code for switching to the output mode is defined.
  • FIG. 19 shows an example of a coordinate information link table provided in the hard disk (HD), and a plurality of contents are registered in one coordinate information.
  • the output mode is switched to the “information” mode as described above.
  • the central processing unit CPU executes an analysis process of the read image (a process of recognizing a dot pattern and converting it into code information and XY coordinate values). Obtain coordinate information (XY coordinate values). Then, the central processing unit CPU refers to the coordinate information link table of FIG. 19 based on the XY coordinate values, and among the plurality of contents registered in the XY coordinate values closest to the XY coordinate values, here the XY coordinate values of the castle The content corresponding to the output mode is output. In this case, since the output mode is “information”, a moving image explaining the castle is output.
  • content selection may be performed by the user operating a keyboard (KBD) or a mouse instead of the output mode.
  • KD keyboard
  • mouse mouse
  • FIG. 20 shows an example of the configuration of a sub-table that stores the ranks of outputting contents corresponding to a plurality of contents names linked to one rank code by the link table described above.
  • the rank code “120001” is stored as “registration order”
  • the rank code “120002” is stored as “Aiueo rank”
  • the rank code “120003” is stored as “ABC rank”. Yes.
  • a first sub-table for registering the order of registration of a plurality of contents, the rank of AIUEO, ABC order, or the order in which the content contents / attributes are distinguished as modes by a predetermined method.
  • content may be allocated and registered in the sub-table according to output time or predetermined elapsed time (second sub-table).
  • the central processing unit CPU uses the time measuring means 50 as shown in FIG. 15 to measure the time (reading time) when the scanner reads the dot pattern, and collates it with the output time of the sub-table.
  • the content allocated to the sub table is selected, and the output of the content corresponding to the content name is controlled by time.
  • the output time means absolute time, and in the afternoon, it means the actual time, such as outputting content that matches the afternoon.
  • the predetermined elapsed time is the time that has elapsed since the program started, the time that has elapsed since the output of one of a plurality of contents, or the time that has elapsed since touching related code information Means.
  • FIG. 21 shows code information defined in 32 bits from C 0 to C 31 of the dot pattern. This code information is divided into a plurality of subcodes by dividing the code information into a predetermined number of bits. An example in which contents are assigned to each subcode and a subtable is configured is shown (third subtable).
  • the code information includes a content code in addition to the subcode, and at least one content can be selected by the content code & subcode. Of course, it is not necessary to match the mode code with the subcode.
  • the subcode is obtained from the current mode, and if there is a corresponding subcode from the code information, the code information
  • the content associated with the content code & subcode defined in the above may be output. If there is no corresponding subcode, no response, sound effects such as “boo”, or predetermined default content may be output.
  • the output mode is common and temporary for each content code.
  • an output mode unique to each content code can be set in advance.
  • FIG. 25 is a diagram showing content codes used in the above embodiment.
  • the upper 4 bits are defined as a content ID indicating the subject of the content, and the remaining 28 bits are divided into 4 to form subcodes corresponding to the respective contents.
  • the scanner reads a dot pattern defining such a content code, the upper 4 bits of the content ID are always analyzed, but only the subcode corresponding to the set mode is selected and analyzed.
  • FIG. 26 is a diagram showing a table in which associations between content IDs and output modes for selecting one content from the content code in FIG. 25 are registered.
  • FIG. 27 is a diagram illustrating a code format for newly registering a correspondence between a content ID and an output mode.
  • the subcode corresponding to mode 1 in the content code is analyzed, and the corresponding information is output.
  • the subcodes C 27 to C 21 corresponding to the mode 1 are analyzed, so that the content ““ Kachikachiyama ”sentence” is output.
  • the output mode corresponding to the content ID is registered according to the link table of FIG. Information is not output.
  • a dot pattern (not shown) superimposed and printed on the portion “Fast text” in FIG. 27C is read by a scanner, the dot pattern is defined as shown in FIG.
  • the output mode for the content ID “Fast” can be set. Then, as shown in FIG. 26B, the association between the content ID “Faust” and the output mode 1 is newly registered in the link table.
  • the association between a plurality of content IDs and output modes may be changed by reading one dot pattern.
  • the association between the plurality of content IDs and the output mode is changed according to the format of FIG. 27 (d).
  • the central processing unit CPU shown in FIG. 15 refers to the above-described sub-table provided in the hard disk (HD), displays a content name on the display device DISP with a plurality of contents as selection candidates, and is selected by the user.
  • the content corresponding to the selected content name is read from the hard disk (HD) and output.
  • the information reading / output device has industrial applicability as a teaching material for foreign language learning first, and secondly as an industrial device for use in publications such as picture books that produce sound. Has availability.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Toxicology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Educational Technology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Studio Devices (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

 1つのコード情報と複数のコンテンツとを関係付け、ユーザが所望するコンテンツを選択して出力装置に出力させる。本発明のボイスレコーダ1は、たとえば、オンオフスイッチ9がオンされて英語学習帳の文字領域「英語1」からドットパターンを読み取った際、読み込んだ画像の解析処理を実行してコード情報を出力し、入力されたコード情報を用いて参照し、モード1に対応するコンテンツとして英語の先生の音声をスピーカ3から出力する。モード2の場合は、同一コード情報の入力で学習者の録音した音声を出力し、モード3の場合は、同一コード情報の入力で英語の先生の音声と学習者の録音した音声とを同時再生する。

Description

情報読取出力装置
 本発明は、印刷物等に形成されたドットパターン情報を光学的に読み取り、このドットパターン情報からコード情報に変換して複数のコンテンツを出力させる情報読取出力装置に関するものである。
 従来より、印刷物等に印刷された2次元コードを読み取り、この2次元コードに対応する音声等の情報をメモリから読み出して出力させる情報読取出力装置がある。たとえば、あらかじめ記憶手段に与えられたキー情報に一致する情報を記憶させておき、コードリーダにより読み込まれたキーから検索して情報等を出力する方法が提案されている(たとえば、特許文献1)。また、多彩な音声情報を出力できるように、微細なドットを所定の法則で並べたドットコード(ドットパターン)を生成し、印刷物等に印刷したドットコード(ドットパターン)をカメラにより画像データとして取り込み、デジタル化して音声情報を出力させる技術も提案されている(たとえば、特許文献2)。
特開2002-41192号公報 特開2002-366180号公報
 しかし、上記従来の2次元コードにより音声等を出力させる方法は、印刷物等に印刷された2次元コードが目障りであるという問題を有していた。また、2次元コードが大きく、紙面の一部を占有するため、このように2次元コードが大きいと、一部分の文章やセンテンスまたは、写真、絵、グラフィックの画像の中に登場する意味を有するキャラクタや対象物毎に分り易く数多くの2次元コードを割り当てることはレイアウト上不可能であるという問題を有していた。
 さらには、2次元コードに割り当てられた音声は固定的なものであり、同一の2次元コードを読み取った場合には常に同一の音声情報しか出力できなかった。これは、1つのコードリーダを用いて、1つの印刷物等から出力できる情報の数が、コードリーダの読み取り領域面積、2次元コードの印刷領域の面積、印刷物等の印刷可能面積等の制約を受けることとなるのと同義である。例えば、上記の制約により1つの印刷物に印刷できる2次元コードの数が10個に限られるとすれば、この1つの印刷物から1つのコードリーダにより出力できる情報の数も10個に制限されることとなる。また、音声だけでなくテキスト、映像、URL、マルチメディア等や各種命令からなる複数のコンテンツを出力することもできなかった。
 本発明は、かかる問題点を解決するために創案されたものである。すなわち、本発明の目的は、1つのコード情報に複数のコンテンツを関係付け、ユーザが所望するコンテンツを出力できる仕組みを提案することにより、1つのコード情報に複数のコンテンツを関連付け、テキスト、音声、映像、URL、マルチメディア等や各種命令からなる複数のコンテンツを自動的にまたは任意に選択して出力装置に出力させることが可能な情報読取出力装置を提供することを技術的課題とする。
 本発明にかかる情報読取出力装置は、前記課題を解決するために以下の手段を採用した。
 本発明にかかる情報読取出力装置は、複数のコンテンツを記憶する記憶手段と、コンテンツIDおよび複数のサブコードからなるコンテンツコードと、コンテンツIDおよび出力モードと対応するモードコードと、のいずれかのコード情報が定義されたドットパターンを、該ドットパターンが予め印刷された媒体面より光学的に読み取る読取手段と、光学的に読み取られたドットパターンをコード情報であるコンテンツコードまたはモードコードに変換する変換手段と、該コンテンツIDと該出力モードとが対応付けて登録された出力モードリンクテーブルと、該ドットパターンがコンテンツコードに変換されたときは該コンテンツIDを参照し、該出力モードリンクテーブルに対応付けて登録された出力モードに基づいて、該複数のサブコードの1つを選択して、該サブコードと対応するコンテンツを所定の出力装置に出力する制御を行なう制御手段と、該ドットパターンがモードコードに変換されたときは、該コンテンツIDと出力モードとを対応付けて該出力モードリンクテーブルに登録するモード設定・切替手段と、を備えたことを特徴とする。
 上記の特徴によれば、本発明にかかる情報読取出力装置は、複数のコンテンツに同じ1つのコンテンツコードが関係付けられていても、出力モードの設定・切替により1つのコンテンツを選択して出力できるため、1つの媒体から出力できるコンテンツの数が、1つの媒体面上に印刷できるドットパターンの数の制約を受けずにすむ。さらに、出力モードの設定・切替はコンテンツID毎に行なうことが可能である。
 本発明にかかる情報読取出力装置は、1つのコンテンツコードと、テキスト、音声、映像、URL、マルチメディア等および/または各種命令からなる複数のコンテンツと、該複数のコンテンツと対応する出力モードと、が関係付けられて登録されるリンクテーブルと、前記複数のコンテンツを記憶する記憶手段と、予め媒体面に印刷されたドットパターンを光学的に読み取る読取手段と、光学的に読み取られたドットパターンをコンテンツコードまたはモードコードの、いずれかのコード情報に変換する変換手段と、該モードコードに基づいて出力モードを設定・切替して、記憶するモード設定・切替手段と、該コンテンツコードに関係付けられた該リンクテーブルを読み出し、該リンクテーブルに登録された複数のコンテンツから少なくとも1つのコンテンツを該モード設定・切替手段が記憶した該出力モードに基づいて選択して、所定の出力装置に出力する制御を行う制御手段と、を備えたことを特徴とする。
 上記の特徴によれば、本発明にかかる情報読取出力装置は、複数のコンテンツに同じ1つのコンテンツコードが関係付けられていても、出力モードの設定・切替により1つのコンテンツを選択して出力できるため、1つの媒体から出力できるコンテンツの数が、1つの媒体面上に印刷できるドットパターンの数の制約を受けずにすむ。
 前記変換手段は、さらに前記読取手段により読み取られた前記ドットパターンを座標情報に変換し、前記リンクテーブルには、前記コンテンツコードに代えて所定座標情報が前記複数のコンテンツと関係付けられて登録されており、前記制御手段は、さらに該座標情報から所定距離内で最も近い位置の、前記リンクテーブルに登録された前記所定座標情報を検索し、該所定座標情報に関係付けられた該複数のコンテンツから、少なくとも1つのコンテンツを該モード設定・切替手段が記憶した該出力モードに基づいて選択し、該コンテンツの出力を制御することが好ましい。
 前記リンクテーブルおよび/または前記記憶手段は、ネットワーク上の所定のサーバに設定されることが好ましい。
 前記リンクテーブルには、前記1つのコンテンツコード毎に、前記複数のコンテンツの登録順位、あいうえお順位、ABC順位、または所定の方法によりコンテンツの内容・属性をモードとして区別した順位で記憶する第一のサブテーブルを備え、該複数のコンテンツが該第一のサブテーブルにおいて前記各順位のいずれかの順位により割り振られて登録され、前記変換手段は、さらに前記読取手段により読み取られた前記ドットパターンを順位コードに変換し、前記制御手段は、前記モード設定・切替手段が記憶した前記出力モードに代えて、該順位コードに基づいて該サブテーブルから1つの順位を選択して、該選択された1つの順位に基づいて該複数のコンテンツを出力する順位をさらに制御することが好ましい。
 前記リンクテーブルは、出力時間または所定の経過時間により前記複数のコンテンツが割り振られて登録された第二のサブテーブルをさらに備え、前記制御手段は、前記読取手段がドットパターンの読み取った読取時間または所定の読取経過時間を計測する計時手段を備え、該読取時間または所定の読取経過時間と、該第二のサブテーブルの出力時間または所定の経過時間とを照合することにより、該第二のサブテーブルに割り振られたコンテンツを少なくとも1つ選択して、出力を制御することが好ましい。
前記リンクテーブルは、前記1つのコード情報が複数のサブコードに分割され、前記複数のコンテンツは該複数のサブコードにそれぞれ関係付けられて登録された第三のサブテーブルをさらに備え、前記制御手段は、前記出力モード、または該第三のサブテーブルを参照して該複数のコンテンツの選択画面を表示手段に出力し、ユーザからの指示を受け付ける入力手段により入力された指示のいずれかに基づいて該第三のサブテーブルから該1つのサブコードに対応する少なくとも1つのコンテンツを選択して所定の出力装置に出力する制御を行うことが好ましい。
 前記制御手段は、少なくとも2以上のコンテンツの同時出力を制御することが好ましい。
 前記リンクテーブルは、複数のコンテンツの出力する順序を指示する、コンテンツの出力命令情報が、前記各種命令の1つとして前記コンテンツコードおよび出力モードとさらに関係付けられて登録されており、前記制御手段は、該出力命令情報に基づいて、複数のコンテンツの出力する順序により所定の出力装置に出力する制御を行うことが好ましい。 前記モード設定・切替手段は、前記モードコードに代えて、ユーザからの指示を受け付ける入力手段により入力された指示に基づいて出力モードを設定・切替して、記憶することが好ましい。
 前記記憶手段は、ユーザからの指示を受け付ける入力手段により入力されたテキスト、音声、映像、URL、マルチメディア等および/または各種命令を新たなコンテンツとして記憶し、前記情報読取出力装置は、該新たなコンテンツを、該記憶手段による該新たなコンテンツの記憶に前後して前記読取手段により読み取られたドットパターンを前記変換手段が変換した1つのコンテンツコード、および出力モードに関係付けて前記リンクテーブルに新たに登録するリンク手段をさらに備えることが好ましい。
 本発明によれば、1つのコード情報と複数のコンテンツとを関係付け、ユーザが所望するコンテンツを出力できる仕組みを提案することにより、1つのコード情報に複数のコンテンツを関連付けてテキスト、音声、映像、URL、マルチメディア等や各種命令からなる複数のコンテンツを選択して出力装置に出力させることが可能な情報読取出力装置を提供することができる。
本実施形態に係るボイスレコーダの外観構成を示す図。 ボイスレコーダの回路構成を示す図。 ドットパターンを説明するための図。 ドットパターンを説明するための図。 ドットパターンを説明するための図。 ドットパターンを説明するための図。 ドットパターンを説明するための図。 ドットパターンを説明するための図。 モードを切り替えるためのテーブル1を示す図。 コード情報と音声情報の関係を示すテーブル2を示す図。 ドットパターンを重畳印刷した媒体例を示す図。 ボイスレコーダを用いた読み込み動作を説明するためのフローチャート。 1つのコンテンツコードに複数のモードをリンクさせたテーブルを示す図。 英語学習帳を示す図。 本発明の他の実施例に係るスキャナとコンピュータのシステム構成を示すブロック図。 1つのコンテンツコードに複数のコンテンツをリンクさせたリンクテーブルを示す図。 スキャナにより読み取る出力指示ボードを示す図。 地図(媒体)の表面印刷状態を示す図。 座標情報リンクテーブルの構成例を示す図。 サブテーブルの構成例を示す図。 コード情報を分割して複数のコンテンツコードにし、各々のコードにコンテンツをリンクさせる構成を説明するための図。 コンテンツとコンテンツコードをリンクする方法を説明するための図。 コンテンツとコンテンツコードをリンクする方法を説明するための図。 コンテンツとコンテンツコードをリンクする方法を説明するための図。 出力モードをコンテンツコード毎に個別に切り替える方法を説明するための図。 出力モードをコンテンツコード毎に個別に切り替える方法を説明するための図。 コンテンツIDと出力モードとの対応付けを新規に登録するためのコードのフォーマットを説明するための図。
 図1は、本発明のスキャナを一体化したボイスレコーダ(情報読取出力装置)1の外観構成を示すものである。
 図1の(a)はボイスレコーダ1の側面を示すものであり、先端(図上で上端)にセンサユニット2が内蔵され、詳しくは後述するがドットパターンを読み取ることができる。また、ボイスレコーダ1の側面にはスピーカ3が設けられ、コンテンツ情報の表示や音声出力ができるようになっている。
 図1の(b)はボイスレコーダ1の正面(操作面)を示すものであり、スキャンボタン4、録音ボタン5、ボリューム6、モード設定切替ボタン7、LED8、オンオフスイッチ9、マイク10、およびカード挿入口11がそれぞれ配置されている。
 スキャンボタン4は、ドットパターンが印刷された絵本、写真、雑誌等からドットパターンの読み取り、またはコンテンツのリンクの際に押下されるボタンである。
 録音ボタン5は、音声を録音する際に押下されるボタンである。
 ボリューム6は、音声情報を出力する際に音量を調整する。
 モード設定切替ボタン7は、モードの設定、またはモードの切り替えの際に押下されるボタンである。
 LED8は、ボイスレコーダ1の動作時に点灯(点滅)する。
 オンオフスイッチ9は、ボイスレコーダ1の電源のオン/オフを行うスイッチである。
 マイク10は、音声を録音するためのものである。
 カード挿入口11は、例えばメモリとしてのICチップを内蔵したメモリカード20が挿入されている。なお、メモリカード20には、信号ピン、電源ピンを構成する接触型の電極(図示しない)を有してボイスレコーダ1のコネクタ(図示しない)に接続される。なお、非接触の無線通信型のRFIDカードであってもよい。また、このようなメモリカード20の他、SDカード(商標名)、ミニSDカード(商標名)、メモリースティック(商標名)、メモリースティック・デュオ(商標名)等の規格型のメモリカードを用いるようにしてもよい。
 図2は、ボイスレコーダ1の回路構成の例を示すものである。
 まず、センサユニット2は、CMOS撮像素子(CMOSS)が配置されており、LED(IRLED)からの照射光をドットパターンの印刷面に照射し、その反射光が可視光フィルタ(図示せず)を介することによって赤外線領域のみの波長光として受光し、これがレンズを介してCMOS撮像素子によって撮影され、該撮影画像が中央処理装置(MPU)21によって解析され、解析結果のコード情報(32bitのドットコード)または座標情報として中央処理装置(MPU)22に送信される。
 なお、センサユニット2内には解析ソフトウエアがROM等に格納されており、中央処理装置21は、当該ROMから当該ソフトウエアを読み込むことによって撮影画像の解析処理(ドットパターンを認識し、コード情報、XY座標値に変換する処理)を実行する。
 中央処理装置22は、音声情報を再生する際、デジタル音声情報をメモリカード(記憶手段)20からコネクタを介して読み込み、圧縮回路により逆圧縮(展開)し、A/Dコンバータによりアナログ情報に変換してアンプ(AMP)を介してスピーカ3から出力する。なお、スピーカ3にはイヤホンやヘッドフォンで再生音を聴けるようにイヤホンジャックが設けられている。
 また、中央処理装置22の制御によって、マイク10から入力された音声情報は、アンプを介してA/Dコンバータ、圧縮回路によって処理され、デジタル音声情報として、コネクタを介してメモリカード20に記録される。
 なお、中央処理装置22は、上述したようにボリューム6とLED8とが接続され、それぞれを制御する。
 また、ボイスレコーダ1の駆動電流は、電池からDC-DCコンバータを介して、センサユニット2、中央処理装置22、圧縮回路、アンプ(AMP)に供給されるようになっている。
 上述したボイスレコーダ1によりドットパターンが印刷された媒体の読み込みについて説明する。
 媒体面のドットパターンはカーボンインクまたは赤外線を吸収するステルスインク(不可視インク)で印刷されており、ドットパターン以外の部分はノンカーボンインク等の赤外線を反射または透過する特性を有するインクにより印刷される。なお、透過性のインクを用いた場合は、透過した赤外線が媒体面で反射し、再度当該インクを透過してCMOS撮像素子により撮像される。
 このカーボンインクおよびステルスインク(不可視インク)は赤外線を吸収する特性を有しているため、前記CMOS撮像素子での撮像画像では、ドットの部分のみ反射光を得られないため黒く撮影されることになる。
 ここで、照射光については、本実施形態では赤外線を用いてカーボンインクおよびステルスインク(不可視インク)により印刷されたドットパターンを用いた場合で説明したが、照射光とインクの特性については、これに限らず、たとえば紫外線や特定の周波数を有する光線を用いて、紫外線を吸収する特性や、光特性が変化する特性を有するインクを用いてドットパターンを印刷してもよい。
 このようにして読み取ったドットパターンの撮像画像は、ボイスレコーダ1内の中央処理装置21で動作するドットパターンの解析プログラムによってコード情報(コード値)および/または座標値が求められる。
 なお、図示こそしないが、ボイスレコーダ1はドットパターンの読み取りのみならず、従来のボイスレコーダや音声プレーヤーに備えられているようなスクロールボタンを押すことで記憶されている音声ファイルを選択し、再生ボタンを押すことで選択した音声ファイルを再生することができるようにしてもよい。
 次に、媒体に印刷されるドットパターンとコード情報について説明する。
 図3はドットパターン101のキードット102、基準格子点ドット103および情報ドット104の配置の一例を示す拡大図である。図4はベクトル情報を表す情報ドット104と符号化を示す説明図である。
 ドットパターンを用いた情報入出力方法は、ドットパターン101の生成と、そのドットパターン101の認識と、このドットパターン101を解析し、情報およびプログラムを出力する方法とからなる。すなわち、中央処理装置21は、ドットパターン101をセンサユニット2のCMOS撮像素子により撮影画像として取り込み、解析ソフトに基づいて基準格子点ドット103を抽出し、次に本来基準格子点ドット103があるべき位置にドットが配置されず、所定の方向にずれた位置にドットが配置されていることによってキードット102を抽出し、1ブロック分のドットパターン101と、その方向を特定する。
 続いて中央処理装置21は、4つの基準格子点ドット103またはキードット102に囲まれた情報ドット104を抽出して所定のアルゴリズムにより符号化し、1ブロック分のドットパターン101における情報ドット104の配置により、各情報ドット104の集合から所定のコード値および/または座標値に復号し、このコード値および/または座標値を中央処理装置12へ送出する。
 ドットパターン101の生成は、ドットコード生成アルゴリズムにより、符号化するためのベクトル情報を認識させるために微細なドット、すなわち、少なくとも1個のキードット102と、基準格子点ドット103および情報ドット104を所定の規則に則って配列する。
 図3に示すように、ドットパターン101のブロックは、5×5の基準格子点ドット103を配置し、4点の基準格子点ドット103または基準格子点に囲まれた仮想中心点105の周囲にベクトル情報を表す情報ドット104を配置する。
 なお、ブロックの配置・構成は、キードット102によって定められる。本実施形態の場合、当該キードット102はブロックの1コーナーの基準格子点上にはドットを配置せずに、そこから所定方向にずらしてドットを配置したものであり、ブロックの大きさを確定するとともに、当該ブロック、すなわちドットパターン101の方向を定義している。このブロックには任意の数値情報が定義される。
 なお、図3の図示例では、ドットパターン101のブロック(太線枠内)を4個並列させた状態を示している。ただし、ドットパターン101は4ブロックに限定されないことは勿論である。なお、キードット102は、前記ブロックのコーナーに限らず、ブロック内またはブロック外のいかなる位置に配置してもよい。
 センサユニット2でこのドットパターン101を画像データとして取り込む際、ドットコード解析アルゴリズムは、そのセンサユニット2のレンズの歪みや斜めからの撮像、紙面の伸縮、媒体表面の湾曲、印刷時の基準格子点ドット103の配置の歪みを矯正することができる。
 具体的には歪んだ4点の基準格子点ドット103を元の正方形または矩形に変換する補正用の関数(Xn,Yn)=f(Xn’,Yn’)を求め、その同一の関数で情報ドット104を補正して、正しい情報ドット104の位置からベクトル情報を求める。
 情報ドット104は種々のベクトル情報を認識させるドットである。この情報ドット104は、キードット102で構成される1ブロック分のドットパターン101内に配置すると共に、4点の基準格子点ドット103で囲まれた仮想中心点105にして、これを始点としてベクトルにより表現した終点に配置したものである。
 たとえば、この情報ドット104は、4点の基準格子点ドット103または基準格子点に囲まれ、図4の(a)に示すように、その仮想中心点105から離れたドットは、ベクトルで表現される方向と長さを有するために、時計方向に45度ずつ回転させて8方向に配置し、3ビットに符号化する。したがって、1ブロックのドットパターン101で3ビット×16個=48ビットを表現することができる。
 図4の(b)は、図3のドットパターン101において、1個の情報ドット104毎に2ビットに符号化する方法であり、+方向および×方向にドットをずらして各2ビットに符号化し、2ビット×16個=32ビットを表現している。これにより、1ブロック分のドットパターン101で、本来48ビットの数値情報を定義できるが、用途によって分割して32ビット毎に数値情報を与えることができる。+方向および×方向の組み合わせによって最大216(約65000)通りの情報ドットの配置パターンが実現できる。
 なお、これに限定されずに、16方向に配置して4ビットを符号化することも可能であり、種々の方向に配置し、符号化を変更できることは勿論である。
 キードット102、基準格子点ドット103および情報ドット104のドットの径は、見栄えと、紙質、印刷の精度、センサユニット2の解像度および最適なデジタル化を考慮して、0.03~0.06mm程度の範囲にあることが望ましい。
 また、撮像面積に対する必要な情報量と、各種ドット102,103,104の誤認を考慮して基準格子点ドット103の間隔は縦・横それぞれ、0.3~0.6mm程度の範囲にあることが望ましい。基準格子点ドット103および情報ドット104との誤認を考慮して、キードット102のずれは格子間隔の20%前後が望ましい。
 この情報ドット104と、4点の基準格子点ドット103で囲まれた仮想中心点105との間隔は、隣接する基準格子点ドット103と仮想中心点105間の距離の15~30%程度の間隔であることが望ましい。情報ドット104と仮想中心点105間の距離がこの間隔より大きいと、基準格子点ドット103と情報ドット104が塊として視認されやすく、ドットパターン101が模様として見苦しく見えるからである。
 逆に、情報ドット104と仮想中心点105間の距離がこの間隔より小さいと、仮想中心点105を中心にしてベクトル情報を持たせた情報ドット104がどの方向に位置しているかの認識が困難になるためである。
 図3に示すように、1個のドットパターン101は、4×4個のブロック領域で構成されたドットパターン101であり、各ブロック内には2ビットの情報ドット104が配置されている。
 図5は、情報ドット104の集合を構成する1ブロック分のドットパターン101のドットコードフォーマットを示すものである。
 図5の(a)に示すように、1個のドットパターン101中には、パリティチェック、コード値が記録されている。
 図5の(b)は、パリティチェック、コード値、XY座標値が記録されている。なお、ドットコードフォーマットは任意に定めることができる。
 図6は、ベクトル情報を持たせた情報ドット104と、その符号化の他の形態を示す例である。この事例のように、情報ドット104について基準格子点ドット103または基準格子点で囲まれた仮想中心点105から長・短の2種類を使用し、ベクトル方向を8方向とすると、4ビットを符号化することができる。このとき、長い方が隣接する仮想中心点105間の距離の25~30%程度、短い方は同じく15~20%程度が望ましい。ただし、誤認しないよう、長・短の情報ドット104の中心間隔は、これらの情報ドット104の径より長くなることが望ましい。
 4点の基準格子点ドット103または基準格子点で囲まれた情報ドット104が複数あると、隣接するドットが塊として視認されやすく模様が発生するため、見栄えを考慮し1ドットが望ましい。しかし、見栄えを無視し、情報量を多くしたい場合は、1ベクトル毎に、1ビットを符号化し、情報ドット104を複数のドットで表現することにより、多量の情報を有することができる。
 たとえば、同心円8方向の8ベクトルでは、4点の基準格子点ドット103または基準格子点で囲まれた情報ドット104が0~8個で8ビットが符号化でき、同心2重円8方向の16ベクトルでは、1ブロックの情報ドット104が0~16個で16ビットが符号化できる。
 図7は、同心2重円8方向の16ベクトルの情報ドット104と符号化の例であり、(a)は情報ドット104を2個、(b)は情報ドット104を4個、および(c)は情報ドット104を5個配置したものを示すものである。
 図8はドットパターン101の変形例を示すものであり、(a)は情報ドット104を囲む4点の基準格子点ドット103または基準格子点からなる正方形または矩形領域を6個配置型、(b)は前記領域を9個配置型、(c)は前記領域を12個配置型、(d)は前記領域を36個配置型の概略図である。これらの1ブロック分のドットパターンは、1個もしくは任意の領域内で上下・左右に繰り返し配置される。ブロックには任意の数値情報が定義されるが、XY座標値が定義される場合は、XY座標方向に配置されたブロックには1ずつ増分したXY座標値が記録される。
 図3に示すドットパターン101は、1ブロックに16個(4×4)の情報ドット104を配置した例を示している。しかし、この情報ドット104は1ブロックに16個配置することに限定されずに、図7~8に示すように、情報ドット104を囲む4点の基準格子点ドット103または基準格子点からなる領域、および当該領域で定義される情報ドット104の符号化を種々変更することができる。
 本発明においては、コード情報は、第一にテキスト、音声、映像,URL、マルチメディア等や各種命令からなる複数のコンテンツと対応するものとして定義されたコンテンツコードとして用いられる。
 コード情報は、第二に、出力モードを切り替えるためのモードコードとして用いられる。ここで、出力モードとは、本発明において、コンテンツコードに割り当てられた複数のコンテンツのうち、少なくとも1つを選択して出力するために必要な処理の総称を意味する。
 コード情報は、第三に、ドットパターンが印刷された領域におけるXY座標値を意味する座標情報として用いられる。
 コード情報は、第四に、複数のコンテンツの登録順、あいうえお順位、ABC順位、または所定の方法によりコンテンツの内容・属性をモードとして区別した順位のいずれかの順位を登録するサブテーブルにおいて、複数のコンテンツの出力の順位を指示する順位コードを意味する(詳細は後述する)。
 図9、図10は、メモリカード20に予め記憶されているコード情報(詳しくは後述する)を用いて音声情報を読み出すテーブルを示すものである。
 図9はモード設定用のテーブル1を示すもので、ボイスレコーダ1によりモードコード「110000」が読み込まれると、出力モードがモード1からモード2に切り替わり、もう1度モードコード「110000」が読み込まれるとモード2からモード1に切り替わるというように、モードコード「110000」を読み込む毎にモード1とモード2の設定が繰り返される(トグル動作)。モードの設定が行われると、設定状態は記憶される。
 図10はコンテンツ選択用のテーブル2を示すものであり、出力モード1においては音声情報の言語が日本語になる。例えば、入力されたコード情報が「110001」では日本語により「おはようございます」と音声出力され、入力されたコード情報が「110002」では日本語により「こんにちは」と音声出力される。
 一方、出力モード2では音声情報の言語が英語になる。例えば、入力されたコード情報が「110001」では英語により「Good morning」と音声出力され、入力されたコード情報が「110002」では英語により「Hello」と音声出力される。
 すなわち、同一のコンテンツコードを読み込んでも、出力モードを設定・切替することにより出力するコンテンツを選択することが可能となる。
 図11は媒体に印刷された例を示すもので、文字領域に文字に対応するコード情報を意味するドットパターンが重畳印刷されたものである。ドットパターンは肉眼では見ることができないのでドットパターンは図示できないが、同図中の「言語切替」と印刷された領域にはモードコードを意味するドットパターンが重畳印刷され、同図中の「おはようございます」、「Good morning」、「こんにちは」、「Hello」、「こんばんは」、「Good evening」と印刷された領域には、「おはようございます」と「Good morning」の一組、「こんにちは」と「Hello」の一組、「こんばんは」と「Good evening」の一組の三組の異なるコンテンツコードを意味するドットパターンが重畳印刷されている。
 次に、このような構成において図12のフローチャートを参照してボイスレコーダ1を用いた読み込み動作を説明する。
 中央処理装置22は、オンオフスイッチ9がオンになった際(ステップ1)、出力モードの設定がモード1か否かを確認し(ステップ2)、モード1の場合にステップ3、モード2の場合にステップ8へ移行する。
 モード1においてステップ3へ移行した場合、中央処理装置21は、センサユニット2によって媒体からドットパターンが読み込まれた際(ステップ3)、ドットパターンから解析ソフトに基づいてコード情報に変換して中央処理装置22に出力する(ステップ4)。
 中央処理装置22は、メモリカード10に記憶されているテーブル2を参照して入力されたコード情報が「110000」の場合に、かかるコード情報はモードコードであるから、モード1からモード2へ切り替える(ステップ5)。
 ステップ5においてコード情報が「110000」でない場合、かかるコード情報はコンテンツコードであるから、中央処理装置22は、モード1における該コンテンツコードに対応する音声情報を読み出してスピーカ3から音声を出力する(ステップ6)。たとえば、コード情報が「110001」の場合、日本語により「おはようございます」と音声出力される。この場合、図11に示す文字領域「おはようございます」と文字領域「Good morning」には、同じドットパターンが重畳印刷されているため、文字領域「おはようございます」を読み込んでも、文字領域「Good morning」を読み込んでも日本語により「おはようございます」と音声出力される。
 また、ステップ2においてモード2であってステップ8へ移行した場合、中央処理装置21は、センサユニット2によって媒体からドットパターンが読み込まれた際(ステップ8)、ドットパターンから解析ソフトに基づいてコード情報に変換して中央処理装置22に出力する(ステップ9)。
 中央処理装置22は、メモリカード20に記憶されているテーブル2を参照して入力されたコード情報が「110000」の場合に、かかるコード情報はモードコードであるから、モード2からモード1へ切り替える(ステップ10)。
 ステップ10においてコード情報が「110000」でない場合、かかるコード情報はコンテンツコードであるから、中央処理装置22は、モード2における該コンテンツコードに対応する音声情報を読み出してスピーカ3から音声を出力する(ステップ11)。たとえば、コード情報が「110001」の場合、英語により「Good morning」と音声出力される。この場合、図11に示す文字領域「おはようございます」と文字領域「Good morning」には、同じドットパターンが重畳印刷されているため、文字領域「おはようございます」を読み込んでも、文字領域「Good morning」を読み込んでも英語により「Good morning」と音声出力される。
 ここで、オンオフスイッチ9がオフになったとき(ステップ7)、ボイスレコーダ1の電源がオフとなる。
 上述したように、1つのコンテンツコードにモード1とモード2の各々に別の音声情報(コンテンツ)を登録しておくことにより、出力モードの設定・切替により別の音声情報(たとえば、英語と日本語)を出力することが可能となる。
 次に、他の実施形態を説明する。
 図13は、メモリカード20とは記憶内容が異なる図示しないメモリカード30に予め記憶されているテーブルを示すものである。たとえば、メモリカード30には、英語学習のリンクテーブルが設けられている。
 図14は、英語学習に用いられる英語学習帳としての印刷媒体の例を示すものである。英語学習帳の右上にモードを切り替える「モード切替」の文字領域にモードコードたるコード情報(たとえば、「130000」)がドットパターンとして印刷されている。「英語1」の文字領域にはコンテンツコードたるコード情報「130001」がドットパターンとして印刷されている。「英語2」以下も同様である。
 図13において、コンテンツコード「130001」では、モード1のときに英語1の英文がお手本となる先生の音声により再生される。モード2のときは自分の声を録音した音声が再生される。モード3のときは先生の音声と自分の音声が同時もしくは連続して再生される。
 ここで、英語学習者のメモリカード30が挿入されたボイスレコーダ1と英語学習帳とを用いた使用例を説明する。
 まず学習者は、ボイスレコーダ1のオンオフスイッチ9をオンにし(デフォルトとしてモード1が設定されている)、学習帳の文字領域「英語1」からドットパターンを読み取らせる。
 ボイスレコーダ1の中央処理装置21は、読み込んだ画像の解析処理(ドットパターンを認識し、コード情報、XY座標値に変換する処理)を実行してコンテンツコード「130001」を中央処理装置22へ出力する。
 中央処理装置22は、入力されたコンテンツコード「130001」を用いて図13のテーブルを参照し、モード1に対応するコンテンツである英語1の先生の音声をスピーカ3から出力する。
 続いて、学習者は、イヤホンジャックにヘッドフォン(図示しない)を差し込んでヘッドフォンを装着し、もう1度、英語学習帳の文字領域「英語1」からドットパターンを読み取らせる。同時に学習者は、録音ボタン5を押してマイク10に向かってヘッドフォンから聴こえてくる英語1の先生の音声に合わせて英文を発音する。
 この際、リンク手段として中央処理装置22は、マイク10からの学習者の音声情報をメモリカード30のコンテンツコード130001に対応して設けられた録音領域に記録し、リンクテーブルに新たに登録する
 リンク手段によるコンテンツとコンテンツコードのリンクについて詳細を説明する。コンテンツとコンテンツコードのリンクについてはいくつかの方法がある。
 図22は、上記リンク方法のうち、第一のリンク方法を示す図である。第一のリンク方法は、同図(a)に示すようにユーザがボイスレコーダ1にユーザ自身の音声「I’m fine. Thank you.」の録音を開始して図示しない記録手段に記憶し、ボイスレコーダ1によりドットパターンをタッチすることにより、同図(b)に示すように「(登録スペース)」として空欄となっているコンテンツコード「100004」の出力モード「2」に対応するコンテンツとして、同図(c)に示すように、先述のユーザ自身の音声「I’m fine. Thank you.」をリンクさせる方法である。
 ボイスレコーダ1が録音を開始し、終了する過程の操作は何通りか方法がある。
 第一には、ユーザがボイスレコーダ1の図示しない録音ボタン5を押して録音を開始し、ユーザ自身の音声を録音した後に、ドットパターンをダッチして録音を終了し、該ドットパターンが定義するコンテンツコードと、録音していた音声ファイルとをリンクさせる方法がある。
 第二には、ユーザがボイスコーダ1の録音ボタン5を押して音声の録音を開始し、録音ボタン5を再度押して録音終了してから所定時間内に(例:10秒)ボイスレコーダ1によりドットパターンをタッチすることにより、該ドットパターンが定義するコンテンツコードと、録音していた音声ファイルとをリンクさせる方法がある。
 第三には、既にボイスレコーダ1に録音した音声ファイルを再生している最中または再生終了から所定時間内に(例:10秒)ボイスレコーダ1によりドットパターンをタッチすることにより、該ドットパターンが定義するコンテンツコードと、録音していた音声ファイルとをリンクさせる方法がある。
 なお、上記の構成はボイスレコーダに関するものであるが、本発明にかかる情報読取出力装置はボイスレコーダに限るものではなく、種々置き換えて実施することが可能である。
 例えば本発明のスキャナをビデオカメラと接続ないし一体化させ、ビデオカメラにより撮影した映像を上記各種の方法によりコンテンツコードとリンクさせてもよいし、本発明のスキャナをパーソナルコンピュータと接続して、パーソナルコンピュータが閲覧しているURLをコンテンツコードとリンクさせてもよいことは当然である。
 また、パーソナルコンピュータを利用する場合は、上記の各種のリンク方法の他にも、パーソナルコンピュータ上のアプリケーションによりコンテンツとコンテンツコードをリンクさせたリンクテーブルを作成する第二のリンク方法を採用してもよい。
 図23、図24は上記のリンクテーブルを作成するための、パーソナルコンピュータ上において実行するアプリケーションを説明する、第二のリンク方法を説明する図である。図23はアプリケーションを実行中の様子を示す図であり、図24はアプリケーションの実行により作成されたリンクテーブルを示す図である。
 図23に示すように、リンクテーブル作成用のアプリケーションを起動すると、表示装置(DISP)上の画面左側にはコンピュータに予め記憶された各コンテンツ(ネットワーク上のコンテンツを示すアドレスを含む。)を表示するアイコンが表示され、画面右側にはコンテンツコードが表示され、画面中央にはリンクテーブルが表示される(当然ながら、レイアウトは上記のものに限らない。)。ユーザは図示しないマウスによる操作により、表示されたコンテンツないしコンテンツコードを画面中央のリンクテーブルへとドラッグ&ドロップにより挿入する。
 すると、図24に示すように、画面中央のリンクテーブルには新たなコンテンツとコンテンツコードの対応付けが登録され、コード欄にはコンテンツコードが表示され、コンテンツ欄にはコンテンツのファイル名が表示される。
 このように、リンクテーブルは専用のアプリケーションを用いてパーソナルコンピュータ上でも作成することができる。
 録音が終わった後、学習者はボイスレコーダ1により英語学習帳の文字領域「モード切替」のドットパターンを読み込むか、ボイスレコーダ1のモード設定切替ボタン7を押すことにより、デフォルトで設定されているモード1からモード2へ切り替える。そして、学習者は、ボイスレコーダ1により英語学習帳の文字領域「英語1」のドットパターンを読み込む。
 中央処理装置21は、読み込まれた画像の解析処理(ドットパターンを認識し、コード情報、XY座標値に変換する処理)を実行してコンテンツコード「130001」を中央処理装置22へ出力する。
 中央処理装置22は、入力されたコンテンツコード「130001」を用いて図13のテーブルを参照し、モード2に対応するコンテンツである記録された学習者の音声をスピーカ3、またはヘッドフォン(図示しない)から出力する。
 さらに、学習者は、ボイスレコーダ1により英語学習帳の文字領域「モード切替」に重畳印刷されたモードコードを意味するドットパターンを読み込むか、ボイスレコーダ1のモード設定切替ボタン7を押すことにより、モード2からモード3へ切り替える。そして、学習者は、ボイスレコーダ1により英語学習帳の文字領域「英語1」のドットパターンを読み込む。
 中央処理装置21は、読み込まれた画像の解析処理(ドットパターンを認識し、コード情報、XY座標値に変換する処理)を実行してコンテンツコード「130001」を中央処理装置22へ出力する。
 中央処理装置22は、入力されたコンテンツコード「130001」を用いて図13のテーブルを参照し、モード3に対応するコンテンツである先生の音声と記録された学習者の音声とをスピーカ3、またはヘッドフォン(図示しない)から出力する。
 上述したように、1つのコンテンツコードではあるが出力モードに応じて、先生の音声の再生、自分の録音した音声の再生、あるいは先生の音声と自分の録音した音声とを同時または連続再生することができる。
 なお、図1において示したボイスレコーダ1の側面に液晶表示部を設け、図13のリンクテーブルにより示したコンテンツ名を表示するようにしても良い。
 また、図示こそしないが、本発明にかかる情報読取出力装置は上記の録音手段のみならず、従来技術であるOCRやビデオカメラを装置の内外に備えることで、音声以外のマルチメディア情報を入力してリンクテーブルに登録することができる。
 次に、他の実施形態について説明する。
 図15は、パーソナルコンピュータとスキャナの構成を示すものである。
 図に示すように、パーソナルコンピュータは、中央処理装置(CPU)を中心に、メインメモリ(MM)、バスにより接続されたハードディスク装置(HD)、表示装置(DISP)、スピーカ(SP)、キーボード(KBD)、およびマウスとから構成されている。また、中央処理装置(CPU)は、計時手段50を有して後述する時間によるコンテンツの出力も制御する。
 そして、USBインターフェース(USB I/F)を介して撮像手段としてのスキャナが接続されている。
 また、バス(BUS)は、ネットワークインターフェース(NW I/F)を介してインターネット等の汎用ネットワーク(NW)に接続されている。さらに詳しくは後述するが複数のコンテンツがサーバ40よりダウンロード可能となっている。
 ハードディスク(HD)内には、オペレーティングシステム(OS)とともに、本実施形態で用いられるドットパターンの解析プログラム等のアプリケーションプログラム、電子地図データ、文字情報、画像情報、音声情報、動画情報や各種テーブル等のデータが登録されている。
 中央処理装置(CPU)は、ハードディスク(HD)内のアプリケーションプログラムをバス(BUS)およびメインメモリ(MM)を介して順次読み込んで実行処理するとともに、データを読み出して表示装置(DISP)に出力表示する。
 スキャナは、図示を省略するが、赤外線照射手段(赤色LED)とIRフィルタと、CMOSセンサ、CCDセンサ等の光学撮像素子を備えており、媒体面に照射した照射光の反射光を撮像する機能を有している。なお、スキャナに図1において示したモード設定切替ボタンを設けるようにしても良い。
 ここで、媒体面上のドットパターンはカーボンインクで印刷されており、ドットパターン以外の部分はノンカーボンインクで印刷されている。このカーボンインクは赤外光を吸収する特性を有しているため、前記光学撮像素子での撮像画像では、ドットの部分のみ黒く撮影されることになる。
 このようにして読み取られたドットパターンの撮像画像は、スキャナ内の中央処理装置(図示せず)によって解析されてコンテンツコードに変換され、USBケーブルを介してパーソナルコンピュータに送信される。
 パーソナルコンピュータの中央処理装置(CPU)は、受信したコンテンツコードを示すリンクテーブル(後述する)を参照して、1つのコード情報に対応した複数のコンテンツを表示装置(DISP)やスピーカ(SP)から出力する。
 図16は、ハードディスク(HD)に設けられたリンクテーブルの例を示すもので、1つのコンテンツコードに複数のコンテンツが登録されている。
 たとえば、図において、1つのコンテンツコード「120001」には、コンテンツ名として『「桃太郎」文章』があってコンテンツとして「テキスト情報」、コンテンツ名として『「桃太郎」朗読』があってコンテンツとして「音声情報」、コンテンツ名として『「桃太郎」動画』があってコンテンツとして「映像・音声情報」、コンテンツ名として『「桃太郎」関連』があってコンテンツとして「URL」がリンクされている。
 図17は、上述したリンクテーブルを検索するコード情報を入力するための媒体である「出力指示ボード」の例において、文字領域に文字に対応するコンテンツコードを意味するドットパターンが重畳印刷されている。
 同図において「出力指示ボード」には、文字領域「桃太郎」にコンテンツコード「120001」を意味するドットパターンが重畳印刷され、文字領域『小説「○○○」』にコンテンツコード「120002」を意味するドットパターンが重畳印刷され、文字領域「案山子」にコンテンツコード「120003」を意味するドットパターンが重畳印刷され、その他も同様に重畳印刷されている。
 ここで、ユーザがスキャナを用いて出力指示ボードから文字領域「桃太郎」を読み込んだ際、中央処理装置CPUは、読み込まれた画像の解析処理(ドットパターンを認識し、コード情報、XY座標値に変換する処理)を実行してコンテンツコード「120001」を得る。そして、中央処理装置CPUは、コンテンツコード「120001」により図16のリンクテーブルを参照し、コンテンツ名としての『「桃太郎」文章』、『「桃太郎」朗読』、『「桃太郎」動画』、『「桃太郎」関連』を表示装置DISPに表示する。
 キーボード(KBD)あるいはマウスにより表示装置DISPに表示された『「桃太郎」文章』が選択された際、中央処理装置CPUは、リンクテーブルを参照してコンテンツとしての「テキスト情報」を読み出して表示装置DISPに表示する。ユーザは、表示装置DISPに表示された「桃太郎」の文章(物語)をスクロールさせながら読むことができる。
 キーボード(KBD)あるいはマウスにより表示装置DISPに表示された『「桃太郎」朗読』が選択された際、中央処理装置CPUは、リンクテーブルを参照してコンテンツとしての「音声情報」を読み出してスピーカSPから音声を出力する。ユーザは、スピーカSPから「桃太郎」の音声(物語)を聴くことができる。
 キーボード(KBD)あるいはマウスにより表示装置DISPに表示された『「桃太郎」動画』が選択された際、中央処理装置CPUは、リンクテーブルを参照してコンテンツとしての「映像・音声情報」を読み出して映像を表示装置DISPに上映し、スピーカSPから音声を出力する。ユーザは、「桃太郎」の動画(物語)を視聴することができる。
 キーボード(KBD)あるいはマウスにより表示装置DISPに表示された『「桃太郎」関連』が選択された際、中央処理装置CPUは、リンクテーブルを参照してコンテンツとしての「URL」を読み出し、ネットワークインターフェース(NW I/F)を介してインターネット等の汎用ネットワーク(NW)に接続し、「桃太郎」に関連する情報をダウンロードして表示装置DISPに表示する。ユーザは、「桃太郎」に関連する情報を得ることができる。
 また、キーボード(KBD)あるいはマウスにより表示装置DISPに表示された『「桃太郎」文章』と『「桃太郎」朗読』とが選択され、さらに表示装置DISPに予め表示された「同時出力」(図示しない)が選択された際、中央処理装置CPUは、リンクテーブルを参照して『「桃太郎」文章』に対応するコンテンツとしての「テキスト情報」と『「桃太郎」朗読』に対応するコンテンツとしての「音声情報」とを読み出す。そして、中央処理装置CPUは、「テキスト情報」を表示装置DISPに表示し、同時に「音声情報」をスピーカSPから音声出力する。ユーザは、表示装置DISPに表示された「桃太郎」の文章(物語)をスクロールさせながら読むことができ、同時にスピーカSPから「桃太郎」の音声(物語)を聴くことができる。
 なお、複数のコンテンツ名および各々に対応する複数のコンテンツはサーバ40よりダウンロードするようにしても良い。また、複数のコンテンツのみサーバよりダウンロードするようにしても良い。
 なお、上述したコンテンツとは、映画、音楽、演劇、文芸、写真、漫画、アニメーション、コンピュータゲーム、その他の文字、図形、色彩、音声、動作、若しくは映像、若しくはこれらを組み合わせたもの又はこれらに係る情報である。
 さらに、図16に示すリンクテーブルにおいて、1つのコンテンツコード「120003」には、コンテンツ名として『案山子物語』があってコンテンツとして「コンテンツの出力命令情報」、コンテンツ名として『「案山子」導入部』があってコンテンツとして「音声情報」、コンテンツ名として『「案山子」動画』があってコンテンツとして「映像・音声情報」、コンテンツ名として『「案山子」朗読』があってコンテンツとして「音声情報」、コンテンツ名として『「案山子」文章読み上げ』があってコンテンツとして「テキスト情報と音声情報」がリンクされている。
 ここで、ユーザがスキャナを用いて出力指示ボードから文字領域「案山子」を読み込んだ際、中央処理装置CPUは、読み込まれた画像の解析処理(ドットパターンを認識し、コード情報、XY座標値に変換する処理)を実行してコンテンツコード「120003」を得る。そして、中央処理装置CPUは、コンテンツコード「120003」により図16のリンクテーブルを参照し、コンテンツ名としての『案山子物語』、『「案山子」導入部』、『「案山子」動画』、『「案山子」朗読』、『「案山子」文章読み上げ』を表示装置DISPに表示する。
 キーボード(KBD)あるいはマウスにより表示装置DISPに表示された『案山子物語』が選択された際、中央処理装置CPUは、リンクテーブルを参照してコンテンツとしての「コンテンツの出力命令情報」を読み出す。中央処理装置CPUは、この情報の出力命令に従って、たとえば最初に『「案山子」導入部』のコンテンツを実行し、続いて『「案山子」動画』のコンテンツを実行し、『「案山子」朗読』のコンテンツを実行し、『「案山子」文章読み上げ』のコンテンツを実行する。
 そのほか、中央処理装置CPUは、『「案山子」導入部』が選択された場合は対応する音声情報を実行し、『「案山子」動画』が選択された場合は対応する映像・音声情報を実行し、『「案山子」朗読』が選択された場合は対応する音声情報を実行し、『「案山子」文章読み上げ』が選択された場合は対応するテキスト情報と音声情報とを実行する。
 上述したように、1つのコンテンツコードに複数のコンテンツが関係付けられているため、1つのコンテンツコードを読み込むだけで複数のコンテンツをユーザが任意に選択して出力することができる。
 他の実施形態について説明する。
 図18は、本実施形態で用いる地図(媒体)の表面印刷状態を示したものである。地図における地図部には、道路、線路等の他、観光施設等を表示するシンボルが印刷されている。この地図部の領域には、道路や線路の位置に対応したXY座標を意味するドットパターンが印刷されている。
 また、地図欄外のアイコンにはそれぞれモードコードとしてのドットパターンが重畳印刷されている。「情報」のアイコンにはXY座標情報から施設を説明する動画を出力するための出力モードへと切り替わるモードコードが定義され、「地図」のアイコンにはXY座標情報から緯度・経度情報を出力するための出力モードへと切り替わるモードコードが定義されている。図19は、ハードディスク(HD)に設けられた座標情報リンクテーブルの例を示すもので、1つの座標情報に複数のコンテンツが登録されている。
 図18と図19を用いて本発明の実施形態を説明すると、図18の地図欄外のアイコン「情報」をスキャナで読み込むと、前述の通り出力モードは「情報」モードへと切り替わる。この状態から地図上のB点をスキャナにより読み込んだ際、中央処理装置CPUは、読み込まれた画像の解析処理(ドットパターンを認識し、コード情報、XY座標値に変換する処理)を実行して座標情報(XY座標値)を得る。そして、中央処理装置CPUは、XY座標値により図19の座標情報リンクテーブルを参照し、当該XY座標値に最も近いXY座標値、ここでは城のXY座標値に登録された複数のコンテンツのうち、出力モードに対応するコンテンツを出力する。この場合、出力モードは「情報」であるから、城について説明する動画を出力する。
 ただし、コンテンツの選択は出力モードに代えて、ユーザがキーボード(KBD)あるいはマウスを操作することにより行ってもよい。
 他の実施形態について説明する。
 図20は、上述したリンクテーブルにより1つの順位コードにリンクさせた複数のコンテンツ名に各々対応するコンテンツを出力する順位を記憶するサブテーブルの構成例を示すものである。
 たとえば、順位コード「120001」の場合は「登録順」として記憶され、順位コード「120002」の場合は「あいうえお順位」として記憶され、順位コード「120003」の場合は「ABC順位」として記憶されている。
 上述したように、複数のコンテンツの登録順、あいうえお順位、ABC順位、または所定の方法によりコンテンツの内容・属性をモードとして区別した順位のいずれかの順位を登録する第一のサブテーブルを設けることにより、複数のコンテンツの出力の順位を指示することが可能となる。
 また、サブテーブルに出力時間または所定の経過時間によりコンテンツを割り振って登録するようにしても良い(第二のサブテーブル)。この場合、中央処理装置CPUは、図15に示すように計時手段50を用いて、スキャナがドットパターンの読み取った時間(読取時間)を計時して、サブテーブルの出力時間と照合することにより、サブテーブルに割り振られたコンテンツを選択し、当該コンテンツ名に対応するコンテンツの出力を時間により制御する。
 ここで、出力時間とは、絶対時間を意味し、午後だったら、午後に合わせたコンテンツを出力するなど、現実の時刻を意味する。また、所定の経過時間とは、プログラムを開始してから経過した時間や、複数のコンテンツのうち一つを出力してから経過した時間、あるいは、関連するコード情報をタッチしてから経過した時間を意味する。
 他の実施形態について説明する。
 図21は、ドットパターンのC~C31までの32ビットに定義されるコード情報を示すものであって、このコード情報を所定数のビット毎に分割して複数のサブコードにし、複数のサブコードの各々にコンテンツを割り当て、サブテーブルを構成した例を示すものである(第三のサブテーブル)。
 複数のサブコードはモードコードにそれぞれ関係付けられ、もしくは、モードコードが1つのコード情報を分割したサブコードとして割り当てられていれば、モード設定・切り替えによって、そのモードコードと同一のサブコードを照合して、対応するコンテンツの出力を制御できる。この場合、当然、コード情報には、サブコードの他に、コンテンツコードが存在し、そのコンテンツコード&サブコードで少なくとも1つのコンテンツを選択できる。もちろん、モードコードとサブコードを一致させる必要はなく、モードコード-サブコードテーブルを備えることにより、現状のモードからサブコードを得て、コード情報から該当するサブコードがあれば、そのコード情報内に定義されたコンテンツコード&サブコードに関連付けられたコンテンツを出力するようにしてもよい。該当するサブコードが存在しない場合、無反応や、「ブー」等の効果音や、所定のデフォルトコンテンツを出力させてもよい。
 上記までの説明においては、出力モードとは各コンテンツコードに共通かつ一時的なものであったが、コンテンツコード毎に固有の出力モードを予め設定しておくことも可能である。
 図25は上記この実施例において用いるコンテンツコードを示す図である。同図に示すように、かかるコンテンツコードは上位4ビットがコンテンツの題材を示すコンテンツIDとして定義されており、残りの28ビットが4分割されて各コンテンツと対応したサブコードとなっている。このようなコンテンツコードを定義したドットパターンをスキャナが読み取ると、上位4ビットのコンテンツIDは必ず解析するが、サブコードは設定されているモードと対応するサブコードだけを選択して解析する。
 図26は、図25のコンテンツコードから1のコンテンツを選択するための、コンテンツIDと出力モードとの対応付けを登録したテーブルを示す図である。図27は、コンテンツIDと出力モードとの対応付けを新規に登録するためのコードのフォーマットを示す図である。
 図26のテーブルによれば、例えば図26(a)によればスキャナが読み取ったコンテンツコードの上位4ビットがコンテンツID「かちかち山」を意味するコード0000である場合、このコンテンツIDと対応する出力モードとして「モード1」が登録されているため、コンテンツコード内のモード1に対応するサブコードが解析され、対応する情報が出力される。例えば、図25(a)のコンテンツコードによればモード1と対応するサブコードC27~C21が解析されることにより、コンテンツ「『かちかち山』文章」が出力される。
 また、スキャナが読み取ったコンテンツコードの上位4ビットがコンテンツID「Faust」を意味するコード0100である場合、図26(a)のリンクテーブルによれば、かかるコンテンツIDと対応する出力モードが登録されていないため、情報は出力されない。この場合、図27(c)の「『Faust』文章」と記載の部分に重畳印刷された図示しないドットパターンをスキャナにより読み取ると、同図(a)に示すようにこのドットパターンに定義されたモードコードを解析して、コンテンツID「Faust」における出力モードを設定することができる。すると、図26(b)に示すように、コンテンツID「Faust」と出力モード1との対応付けが新たにリンクテーブルに登録される。
 また、図27(c)の「『Faust』動画」と記載の部分に重畳印刷された図示しないドットパターンをスキャナにより読み取ると、同図(b)に示すようにこのドットパターンに定義されたモードコードを解析して、この場合は図26(c)に示すようにコンテンツID「Faust」と出力モード4との対応付けに変更してリンクテーブルに登録することができる。
 さらに、図27(d)に示すように、複数のコンテンツIDと出力モードとの対応付けを、1つのドットパターンを読み取ることにより変更することができるものとしてもよい。この場合、図26(d)に示すように複数のコンテンツIDと出力モードとの対応付けが、図27(d)のフォーマットに従い変更される。
 図15に示す中央処理装置CPUは、ハードディスク(HD)に設けられた上述したサブテーブルを参照し、複数のコンテンツを選択候補として表示装置DISPにコンテンツ名を表示し、ユーザに選択されることにより、選択されたコンテンツ名に対応するコンテンツをハードディスク(HD)から読み出して出力する。
 なお、上記実施形態では分割した複数のコンテンツコードの各々に複数のコンテンツを割り当て、サブテーブルを構成することも可能である。
 以上、本発明の主要な実施形態について説明したが、本発明は上記の実施形態を必要に応じて組み合わせて変更実施可能であることは言うまでもない。例えば、図13に説明した実施形態と、図20に説明した実施形態または図21に説明した実施形態とを組み合わせて、ユーザ自らの音声をコンテンツとして、コンテンツコードおよび順位コードまたはサブコードと関係付けてリンクテーブルに登録することも可能である。
 本発明にかかる情報読取出力装置は、第一に外国語学習用の教材としての産業上の利用可能性を有し、第二に音の出る絵本等の出版物に供するものとしての産業上の利用可能性を有する。
1   ボイスレコーダ
2   センサユニット
3   スピーカ
4   スキャンボタン
5   録音ボタン
6   ボリューム
7   モード設定切替ボタン
9   オンオフスイッチ
10  マイク
20  メモリカード(記憶手段)
21  中央処理装置(MPU)
22  中央処理装置(MPU)
40  サーバ
50  計時手段
CPU 中央処理装置
MM  メインメモリ
USB I/F USBインタフェース
HD  ハードディスク装置
DISP 表示装置(表示手段)
NW  ネットワーク

Claims (11)

  1.  複数のコンテンツを記憶する記憶手段と、
     コンテンツIDおよび複数のサブコードからなるコンテンツコードと、コンテンツIDおよび出力モードと対応するモードコードと、のいずれかのコード情報が定義されたドットパターンを、該ドットパターンが予め印刷された媒体面より光学的に読み取る読取手段と、
     光学的に読み取られたドットパターンをコード情報であるコンテンツコードまたはモードコードに変換する変換手段と、
     該コンテンツIDと該出力モードとが対応付けて登録された出力モードリンクテーブルと、
     該ドットパターンがコンテンツコードに変換されたときは該コンテンツIDを参照し、該出力モードリンクテーブルに対応付けて登録された出力モードに基づいて、該複数のサブコードの1つを選択して、該サブコードと対応するコンテンツを所定の出力装置に出力する制御を行なう制御手段と、
     該ドットパターンがモードコードに変換されたときは、該コンテンツIDと出力モードとを対応付けて該出力モードリンクテーブルに登録するモード設定・切替手段と、を備えた
    ことを特徴とする情報読取出力装置。
  2.  1つのコンテンツコードと、テキスト、音声、映像、URL、マルチメディア等および/または各種命令からなる複数のコンテンツと、該複数のコンテンツと対応する出力モードと、が関係付けられて登録されるリンクテーブルと、
     前記複数のコンテンツを記憶する記憶手段と、
     予め媒体面に印刷されたドットパターンを光学的に読み取る読取手段と、
     光学的に読み取られたドットパターンをコンテンツコードまたはモードコードの、いずれかのコード情報に変換する変換手段と、
     該モードコードに基づいて出力モードを設定・切替して、記憶するモード設定・切替手段と、
     該コンテンツコードに関係付けられた該リンクテーブルを読み出し、該リンクテーブルに登録された複数のコンテンツから少なくとも1つのコンテンツを該モード設定・切替手段が記憶した該出力モードに基づいて選択して、所定の出力装置に出力する制御を行う制御手段と、を備えた
    ことを特徴とする情報読取出力装置。
  3.  前記変換手段は、さらに前記読取手段により読み取られた前記ドットパターンを座標情報に変換し、
     前記リンクテーブルには、前記コンテンツコードに代えて所定座標情報が前記複数のコンテンツと関係付けられて登録されており、
     前記制御手段は、さらに該座標情報から所定距離内で最も近い位置の、前記リンクテーブルに登録された前記所定座標情報を検索し、該所定座標情報に関係付けられた該複数のコンテンツから、少なくとも1つのコンテンツを該モード設定・切替手段が記憶した該出力モードに基づいて選択し、該コンテンツの出力を制御する
    ことを特徴とする請求項2記載の情報読取出力装置。
  4.  前記リンクテーブルおよび/または前記記憶手段は、ネットワーク上の所定のサーバに設定される
    ことを特徴とする請求項2記載の情報読取出力装置。
  5.  前記リンクテーブルには、前記1つのコンテンツコード毎に、前記複数のコンテンツの登録順位、あいうえお順位、ABC順位、または所定の方法によりコンテンツの内容・属性をモードとして区別した順位で記憶する第一のサブテーブルを備え、該複数のコンテンツが該第一のサブテーブルにおいて前記各順位のいずれかの順位により割り振られて登録され、
     前記変換手段は、さらに前記読取手段により読み取られた前記ドットパターンを順位コードに変換し、
     前記制御手段は、前記モード設定・切替手段が記憶した前記出力モードに代えて、該順位コードに基づいて該サブテーブルから1つの順位を選択して、該選択された1つの順位に基づいて該複数のコンテンツを出力する順位をさらに制御する
    ことを特徴とする請求項2記載の情報読取出力装置。
  6.  前記リンクテーブルは、出力時間または所定の経過時間により前記複数のコンテンツが割り振られて登録された第二のサブテーブルをさらに備え、
     前記制御手段は、前記読取手段がドットパターンの読み取った読取時間または所定の読取経過時間を計測する計時手段を備え、
     該読取時間または所定の読取経過時間と、該第二のサブテーブルの出力時間または所定の経過時間とを照合することにより、該第二のサブテーブルに割り振られたコンテンツを少なくとも1つ選択して、出力を制御する
    ことを特徴とする請求項2に記載の情報読取出力装置。
  7.  前記リンクテーブルは、前記1つのコード情報が複数のサブコードに分割され、前記複数のコンテンツは該複数のサブコードにそれぞれ関係付けられて登録された第三のサブテーブルをさらに備え、
     前記制御手段は、
     前記出力モード、または該第三のサブテーブルを参照して該複数のコンテンツの選択画面を表示手段に出力し、ユーザからの指示を受け付ける入力手段により入力された指示のいずれかに基づいて該第三のサブテーブルから該1つのサブコードに対応する少なくとも1つのコンテンツを選択して所定の出力装置に出力する制御を行う
    ことを特徴とする請求項2記載の情報読取出力装置。
  8.  前記制御手段は、
    少なくとも2以上のコンテンツの同時出力を制御する
    ことを特徴とする請求項1または2に記載の情報読取出力装置。
  9.  前記リンクテーブルは、複数のコンテンツの出力する順序を指示する、コンテンツの出力命令情報が、前記各種命令の1つとして前記コンテンツコードおよび出力モードとさらに関係付けられて登録されており、
     前記制御手段は、
    該出力命令情報に基づいて、複数のコンテンツの出力する順序により所定の出力装置に出力する制御を行う
    ことを特徴とする請求項2に記載の情報読取出力装置。
  10.  前記モード設定・切替手段は、前記モードコードに代えて、ユーザからの指示を受け付ける入力手段により入力された指示に基づいて出力モードを設定・切替して、記憶する
    ことを特徴とする請求項2に記載の情報読取出力装置。
  11.  前記記憶手段は、ユーザからの指示を受け付ける入力手段により入力されたテキスト、音声、映像、URL、マルチメディア等および/または各種命令を新たなコンテンツとして記憶し、
     前記情報読取出力装置は、
     該新たなコンテンツを、該記憶手段による該新たなコンテンツの記憶に前後して前記読取手段により読み取られたドットパターンを前記変換手段が変換した1つのコンテンツコード、および出力モードに関係付けて前記リンクテーブルに新たに登録するリンク手段をさらに備えた
    ことを特徴とする請求項2に記載の情報読取出力装置。
PCT/JP2010/054354 2009-03-13 2010-03-15 情報読取出力装置 WO2010119742A2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201080011645.5A CN102369503B (zh) 2009-03-13 2010-03-15 信息读取输出装置
EP10764328.0A EP2439621A4 (en) 2009-03-13 2010-03-15 DEVICE FOR READING / EXITTING INFORMATION

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-060897 2009-03-13
JP2009060897A JP5608847B2 (ja) 2009-03-13 2009-03-13 情報読取出力装置および情報読取出力システム

Publications (2)

Publication Number Publication Date
WO2010119742A2 true WO2010119742A2 (ja) 2010-10-21
WO2010119742A3 WO2010119742A3 (ja) 2010-12-23

Family

ID=42976807

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/054354 WO2010119742A2 (ja) 2009-03-13 2010-03-15 情報読取出力装置

Country Status (5)

Country Link
EP (1) EP2439621A4 (ja)
JP (1) JP5608847B2 (ja)
KR (1) KR20110132593A (ja)
CN (1) CN102369503B (ja)
WO (1) WO2010119742A2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104461062A (zh) * 2013-09-24 2015-03-25 深圳富泰宏精密工业有限公司 多功能触摸指套
CN105654081A (zh) * 2015-12-31 2016-06-08 田雪松 一种监考方法
CN110162598B (zh) * 2019-04-12 2022-07-12 北京搜狗科技发展有限公司 一种数据处理方法和装置、一种用于数据处理的装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041192A (ja) 2000-07-21 2002-02-08 Toshiba Corp バーコードによる入力システム及びバーコードによる入力方法
JP2002366180A (ja) 2001-06-04 2002-12-20 Olympus Optical Co Ltd 記録媒体及び情報再生装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6594406B1 (en) * 1996-12-20 2003-07-15 Xerox Corporation Multi-level selection methods and apparatus using context identification for embedded data graphical user interfaces
CN102982298B (zh) * 2002-09-26 2016-12-07 Ip解决方案株式会社 跟踪装置、信息输入输出装置、光学读取装置、以及信息记录/重放装置
FR2856473B1 (fr) * 2003-06-23 2005-12-09 Groupe Silicomp Procede de navigation, dispositif, systeme et programmes d'ordinateur correspondants
US8082271B2 (en) * 2005-08-25 2011-12-20 Raymond Chan Data retrieval apparatus for selecting geographical location information on a globe
US7738674B2 (en) * 2005-09-19 2010-06-15 Silverbrook Research Pty Ltd Retrieving location data by sensing coded data on a surface
JP4042066B1 (ja) * 2006-03-10 2008-02-06 健治 吉田 情報処理装置への入力処理システム
JP2009119655A (ja) * 2007-11-13 2009-06-04 Gld Publishing:Kk 印刷物及びペン型読取発声装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041192A (ja) 2000-07-21 2002-02-08 Toshiba Corp バーコードによる入力システム及びバーコードによる入力方法
JP2002366180A (ja) 2001-06-04 2002-12-20 Olympus Optical Co Ltd 記録媒体及び情報再生装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2439621A4

Also Published As

Publication number Publication date
CN102369503A (zh) 2012-03-07
JP5608847B2 (ja) 2014-10-15
CN102369503B (zh) 2015-11-25
EP2439621A2 (en) 2012-04-11
EP2439621A4 (en) 2013-11-27
KR20110132593A (ko) 2011-12-08
JP2010217977A (ja) 2010-09-30
WO2010119742A3 (ja) 2010-12-23

Similar Documents

Publication Publication Date Title
US7726570B2 (en) Method for producing indicators and processing apparatus and system utilizing the indicators
JP5489118B2 (ja) 入出力装置、情報入出力システム
JP3930891B2 (ja) ドットパターンを用いた情報再生装置
WO2011027853A1 (ja) 情報入出力装置、情報処理装置、情報入出力システム、印刷媒体および情報入出力方法
CN103348338A (zh) 文件格式、服务器、数字漫画的观看器设备、数字漫画产生设备
KR101789057B1 (ko) 시각 장애인을 위한 자동 오디오 북 시스템 및 그 운영 방법
JP4268667B2 (ja) 音声情報記録装置
JP5608847B2 (ja) 情報読取出力装置および情報読取出力システム
JP4818415B2 (ja) 電子漫画製造装置及び電子漫画製造方法
JP2009503628A (ja) マルチメディア・デジタルコード印刷装置及び印刷方法
JP2007073057A (ja) コンピュータ実行可能なプログラム
JP5915118B2 (ja) アーカイブシステム、第一の端末及びプログラム
WO2019059207A1 (ja) 表示制御装置及びコンピュータプログラム
JP4686405B2 (ja) 電子ペンを用いた電子楽器の演奏指示システム、方法、コンピュータプログラム、および、楽譜
KR20100052023A (ko) 교습용 디지털 스케치북
JP5489122B2 (ja) 情報入出力装置、情報処理装置、印刷媒体および情報入出力方法
CN113535289A (zh) 页面呈现、移动端交互及音频编辑的方法与装置
JP2845202B2 (ja) 音声出力制御装置及び方法
KR20030013790A (ko) 디지털 보이스 레코딩을 통한 정보 제공 장치 및 그 방법
JP2009222782A (ja) 楽曲再生システムおよび楽曲再生位置の指定方法
JPS63189976A (ja) プログラム図入力装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080011645.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10764328

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 7370/CHENP/2011

Country of ref document: IN

ENP Entry into the national phase

Ref document number: 20117024080

Country of ref document: KR

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2010764328

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010764328

Country of ref document: EP