WO2009122756A1 - 携帯電話用クレードル、tv電話システム、カラオケシステム、カーナビゲーションシステム、および緊急情報通知システム - Google Patents

携帯電話用クレードル、tv電話システム、カラオケシステム、カーナビゲーションシステム、および緊急情報通知システム Download PDF

Info

Publication number
WO2009122756A1
WO2009122756A1 PCT/JP2009/001566 JP2009001566W WO2009122756A1 WO 2009122756 A1 WO2009122756 A1 WO 2009122756A1 JP 2009001566 W JP2009001566 W JP 2009001566W WO 2009122756 A1 WO2009122756 A1 WO 2009122756A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile phone
cradle
information
voice
output
Prior art date
Application number
PCT/JP2009/001566
Other languages
English (en)
French (fr)
Inventor
吉田健治
Original Assignee
Yoshida Kenji
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2008300118A external-priority patent/JP4385169B1/ja
Application filed by Yoshida Kenji filed Critical Yoshida Kenji
Priority to CN2009801112961A priority Critical patent/CN101981941A/zh
Priority to EP09728609.0A priority patent/EP2268052A4/en
Priority to US12/936,250 priority patent/US8873722B2/en
Priority to JP2010505409A priority patent/JP4691741B2/ja
Publication of WO2009122756A1 publication Critical patent/WO2009122756A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0241Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for telephones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0258Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for navigation systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1632External expansion units, e.g. docking stations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C23/00Non-electrical signal transmission systems, e.g. optical systems
    • G08C23/04Non-electrical signal transmission systems, e.g. optical systems using light waves, e.g. infrared
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/04Supports for telephone transmitters or receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • H04Q9/04Arrangements for synchronous operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0042Arrangements for holding or mounting articles, not otherwise provided for characterised by mounting means
    • B60R2011/0049Arrangements for holding or mounting articles, not otherwise provided for characterised by mounting means for non integrated articles
    • B60R2011/0064Connection with the article
    • B60R2011/0075Connection with the article using a containment or docking space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces

Definitions

  • the present invention relates to a scanner remote controller that reads a dot pattern representing information on a medium and transmits the read information, a mobile phone, and a mobile phone cradle used together with an AV device.
  • the screen of the mobile phone used with the pen-type scanner is small, and in order for the user to perform processing while visually recognizing the screen, the mobile phone is placed at hand and the screen is close It was necessary to be able to see.
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to read a dot pattern representing information on a medium and transmit a data of the read information, a mobile phone, and an AV device. It is to realize a mobile phone cradle used together with the mobile phone.
  • the cradle for a mobile phone reads a dot pattern in which a code and / or XY coordinate value associated with information or an operation instruction is recorded on a medium, and a scanner remote controller that transmits the information.
  • a mobile phone cradle to be used on which the mobile phone can be placed, communicates with the placed mobile phone, and receives data from the scanner remote control, thereby allowing the scanner remote control to
  • the AV device is caused to function as an output unit of the mobile phone by functioning as an input unit, communicating with the AV device, and controlling the AV device.
  • FIG. 1 showing an embodiment of the present invention, is a diagram showing an overall configuration of a system using a mobile phone cradle.
  • FIG. It is a figure which shows the modification of embodiment of this invention, and shows a mode that G remote control communicates with a mobile telephone directly.
  • FIG. (2) explaining the dot pattern used for the handwriting input / output system which is one Embodiment of this invention.
  • FIG. (3) explaining the dot pattern used for the handwriting input / output system which is one Embodiment of this invention.
  • FIG. (4) explaining the dot pattern used for the handwriting input / output system which is one Embodiment of this invention. It is a figure (5) explaining the dot pattern used for the handwriting input / output system which is one Embodiment of this invention. It is a figure (6) explaining the dot pattern used for the handwriting input / output system which is one Embodiment of this invention. It is a figure explaining the direction dot used for the handwriting input / output system which is one Embodiment of this invention. It is a figure (7) explaining the dot pattern used for the handwriting input / output system which is one Embodiment of this invention.
  • FIG. 1 explaining the 1st operation in the handwriting input / output system which is one embodiment of the present invention.
  • a network block diagram in the voice mail system which is one Embodiment of this invention. It is a figure which shows the arrangement
  • FIG. 4 is a diagram for explaining an embodiment in which a mobile phone cradle communicates with an input device such as a mouse or a keyboard to input to the mobile phone 3;
  • FIG. It is a figure for demonstrating the cradle for mobile phones provided with the port which communicates with external storage media, such as a USB memory and an SD card, which is one embodiment of the present invention.
  • FIG. 4 is a diagram for explaining an embodiment in which a mobile phone cradle communicates with an input device such as a mouse or a keyboard to input to the mobile phone 3;
  • FIG. It is a figure for demonstrating the cradle for mobile phones provided with the port which communicates with external storage media, such as a USB memory and an SD card, which is one embodiment of the present invention.
  • FIG. 5 is a diagram for explaining an embodiment in which a mobile phone cradle is connected to a printer to print output video of an AV device, mobile phone recording information / output information, and cradle recording information. It is a figure for demonstrating the car navigation system which is one Embodiment of this invention.
  • FIGS. 1 and 2 An embodiment of the present invention will be described with reference to FIGS. 1 and 2 as follows.
  • FIG. 1 shows a schematic configuration of a system using a mobile phone cradle according to the present invention.
  • the user has a medium 1 and a scanner remote controller 2 (hereinafter referred to as a G remote controller as a remote controller for reading a grid-type dot pattern).
  • the mobile phone 3 is placed on a mobile phone cradle 4 (hereinafter abbreviated as a cradle), and the cradle 4 is connected to an AV device 5.
  • the medium 1 is a paper medium or the like in which a dot pattern representing information is formed on the surface by printing or the like.
  • a paper controller in which a dot pattern representing an execution command and an icon image representing a function corresponding to the execution command are superimposed and arranged on the surface of the paper, and a paper in which the icon image represents a normal keyboard key A keyboard, a paper touch panel on which a dot pattern representing XY coordinate values is printed, a tablet, or the like can be used.
  • a mail order catalog or a cable guide in which a dot pattern is superimposed and printed with an image representing one function or meaning to the user may be used.
  • This information is used in the mobile phone 3 and / or the AV device 5, and this operation instruction is for the mobile phone 3, the cradle 4, and / or the AV device 5.
  • the G remote control 2 includes a battery, a scanner that reads a dot pattern, an analysis unit that analyzes an image of the read dot pattern, decodes XY coordinate values and code values from the dot pattern, and a transmission unit that transmits an analysis result. Prepare.
  • the G remote controller 2 may not have an analysis unit, and the analysis may be performed by an analysis unit provided in the mobile phone 3 or the cradle 4.
  • the mobile phone 3 needs to be able to communicate with the cradle 4 for operation / control signals, input data, and image / audio signals by being placed on the cradle 4.
  • a configuration in which the battery of the mobile phone 3 is charged when placed on the cradle 4 is desirable.
  • it is desirable that power for performing various processes in the mobile phone 3 is supplied from the cradle 4.
  • the cradle 4 has a structure in which the mobile phone 3 can be placed, and supplies power for charging the battery of the mobile phone 3 and for use in processing in the mobile phone 3.
  • the cradle 4 communicates with the mobile phone 3 placed thereon for operation / control signals, input data, and image / audio signals.
  • the cradle 4 communicates with the G remote controller 2, and obtains, from the G remote controller 2, operation / control / processing commands and input data for the mobile phone 3 input by the user using the medium 1 and the G remote controller 2. , To the mobile phone 3 placed.
  • the cradle 4 communicates with the AV device 5 and outputs the video output and audio output, which are the results of processing by the mobile phone 3, and the control signal of the AV device from the mounted mobile phone 3. Receive and output to the AV device 5.
  • the cradle 4 is required to be able to supply power to the cellular phone 3 placed for a long time, it is desirable to use a household power source or the like as a power source.
  • a special connector with a small volume must be used to connect a large number of cables and the like to the mobile phone 3 with a small housing, but via a cradle 4. Therefore, the connector of the cable used for connection can be of a normal size. Many connectors can also be provided on the cradle 4 side.
  • a television receiver can be used.
  • infrared For communication between the G remote control 2 and the cradle 4, infrared, Bluetooth, weak radio waves, or other radio can be used. Although infrared rays may be used in the same way as a conventional remote controller, it is desirable to use Bluetooth or weak radio waves in order to improve the degree of freedom when using the G remote controller 2.
  • FIG. 1 shows a state in which radio waves and infrared rays transmitted from the transmission unit of the G remote control 2 are received by the reception unit of the cradle 4.
  • the receiving unit is illustrated on the surface of the cradle 4. This is a configuration in which at least a part of the light receiving unit is provided on the surface of the housing when the member constituting the housing of the cradle 4 does not transmit infrared rays or the like. Need not be provided on the surface.
  • the IEEE 1394 standard i. LINK, FireWire, etc.
  • infrared rays i. LINK, FireWire, etc.
  • Bluetooth infrared rays
  • weak radio waves other wired communication means
  • other wireless communication means i. LINK, FireWire, etc.
  • the cradle 4 and the AV device 5 are connected by a cable, and data is transmitted to the AV device 5 via the cable and controlled.
  • FIG. 1 shows an example in which the cradle 4 and the AV device 5 are connected using a cable whose side to be connected to the AV device 5 is divided into three connectors, it is not limited to this shape. Absent.
  • the cradle 4 when infrared rays are used for communication between the cradle 4 and the AV device 5, if three infrared light emitting LEDs are provided on the outer periphery of the cradle 4, the front side of the monitor surface of the AV device 5 such as a television receiver is provided. By arranging the cradle 4 in the control device, the control signal of the AV device 5 can be appropriately transmitted. ⁇ About the structure of the cradle 4>
  • the cradle 4 transfers a signal between each communication unit, a normal mobile phone charging unit, a communication unit with the AV device 5, a communication unit with the mobile phone 3, a communication unit with the G remote controller 2, And a control unit for performing processing and conversion processing.
  • the function of the mobile phone charging unit is a normal mobile phone charging function, description thereof is omitted.
  • control unit is an information processing function by a normal microcomputer and is a design item that can be realized by normal programming, and thus detailed description thereof is omitted.
  • control unit defines in advance a signal identification unit for identifying a signal input from the G remote control 2, the mobile phone 3, and the AV device 5, and how to process the identified signal.
  • the storage unit storing the table or program, the signal identified by the signal identification unit, the storage unit is searched, and the process determination unit that determines the predetermined process, and the input of the process determination unit according to the determination.
  • Processing unit that processes and processes data (data that can be processed by a computer including video data, audio data, etc.) and outputs the processing result of the processing unit to an appropriate output destination (each communication unit described above) And an output unit.
  • a camera may be provided as in the following application example.
  • the control unit processing unit acquires an external video via the camera, processes the acquired image, and outputs the acquired image to the mobile phone 3 and / or the AV device 5.
  • the mobile phone 3 since the G remote controller 2 is configured to communicate with the cradle 4, the mobile phone 3 itself has an advantage that it is not necessary to have means for communicating with the G remote controller 2.
  • the G remote controller 2 and the mobile phone 3b may be configured to directly communicate with each other.
  • the user touches the G remote controller 2 with an icon representing a command for turning on the power of the television receiver 5 of the paper controller 1.
  • the G remote controller 2 reads an image including the dot pattern at the touch position, extracts the dot pattern, and decodes the dot pattern into a code for turning on the power of the television receiver 5.
  • the G remote controller 2 transmits the decrypted code to the cradle 4.
  • the cradle 4 passes the code received from the G remote controller 2 to the mobile phone 3 or directly transmits it to the television receiver 5.
  • the mobile phone 3 When the mobile phone 3 receives a code from the cradle 4, it may pass the code to the cradle 4 again after performing a predetermined process.
  • the cradle 4 transmits the code to the television receiver 5.
  • the television receiver 5 that has received the code is turned on in the same manner as when the power is turned on by a normal remote controller.
  • control code may be sent directly from the G remote control 2 to the television receiver 5, but various code conversion processes such as the conversion of the meaning of the code can be performed by interposing the cradle 4 or the mobile phone 3 between them. Can be done.
  • code conversion processes such as the conversion of the meaning of the code can be performed by interposing the cradle 4 or the mobile phone 3 between them. Can be done.
  • a microphone (voice input means) is attached to the G remote control 2, and the voice input by the microphone is also configured to be transmitted to the mobile phone 3 directly or via the cradle 4, and the karaoke function is provided on the mobile phone 3. It is possible to realize karaoke using a mobile phone.
  • the user when selecting a song, the user selects a song using the G remote controller 2 while referring to a printed song list at hand, and then sings a song using the microphone of the G remote controller 2.
  • the video and lyrics output from the mobile phone 3 are output to the AV device 5, and the user's voice input to the microphone is also output from the AV device 5 via at least the G remote control 2 and the cradle 4.
  • a microphone can be attached to the G remote controller 2, and voice information input by the microphone can be converted into normal operation / control instructions and / or input data processed by the mobile phone 3 by voice recognition processing.
  • Processing the input data in the mobile phone 3 means that the program executed on the mobile phone 3 processes the input data, and that the data input as an instruction for controlling the mobile phone 3 is interpreted and the instruction Is executed.
  • the audio information “Telebi-den-on-on” is the same as when the character string “TV power ON” is input from another input means, such as a paper keyboard or pen handwriting input. Then, it is processed by the mobile phone 3 and transmitted from the mobile phone 3 to the television receiver 5 through the cradle 4 as an instruction to turn on the power of the television receiver 5 that is the AV device 5.
  • the processed character string is sent to the cradle 4 or the mobile phone 3.
  • the cradle 4 includes voice recognition processing means
  • the voice information is sent from the G remote controller 2 to the cradle 4, converted into a character string by the cradle 4, and sent to the mobile phone 3.
  • the mobile phone 3 includes voice recognition processing means
  • the voice information is sent from the G remote controller 2 directly or via the cradle 4 to the mobile phone 3 and converted into a character string in the mobile phone 3. And processed.
  • the current mobile phone 3 Since the current mobile phone 3 has a videophone function, video and audio from the other party are output from the television receiver 5 via the cradle 4, and the audio from here is provided in the G remote control 2. It is possible to input from a microphone and input an image from the camera of the mobile phone 3 or a camera provided in the cradle 4.
  • the other party's video can be viewed on a large monitor, the other party's voice can be heard with a high-performance speaker, and this voice can be input with an easy-to-hold microphone. Since it is possible to shoot, the quality of the input / output part of the videophone can be improved.
  • Multimedia content played back on the AV device 5 may be transmitted to the mobile phone 3 via the cradle 4. Since some mobile phones 3 have a function as a music player, the content can be carried by transferring the content from the AV device 5.
  • Application Example 6 Automatic control of AV equipment>
  • a pen-shaped G remote controller 2 draws characters on the paper and reads XY coordinate values representing the trajectory of the characters, thereby allowing handwriting input. Can be done.
  • the cradle 4 outputs a monitor screen from the display of the content being viewed to the mobile phone 3 when a user receives a call to the mobile phone 3 while watching a TV program, or when a signal is detected by the mobile phone 3. It may be configured to automatically switch to content display.
  • the instruction from the cradle 4 to the AV device 5 can use the IEEE 1394 standard or infrared rays.
  • the content to be switched and displayed may be stored in advance in the mobile phone 3 or may be stored in the television receiver 5 in advance, or the mobile phone 3 using a new channel selected at the time of switching. Alternatively, the content received by the television receiver 5 may be used.
  • the cradle 4 automatically turns on the power of the television receiver 5 by the incoming call to the mobile phone 3 even when the power of the television receiver 5 is OFF, and the monitor screen displays the mobile phone 3 on the monitor screen.
  • the output may be displayed.
  • it has a configuration with a fixed camera and a large speaker, it can also be used to check the safety of elderly people living alone. If it is a fixed camera, the elderly person will not move carelessly, and if there is a large speaker, information can be transmitted to the elderly person who is far away by using a large volume.
  • the use environment can be customized for each of a plurality of users.
  • All the family members have their own G remote control 2 as their own remote control, and using the ID assigned to each G remote control to prioritize and process, so that the father's choice is always given priority in the channel battle. Can be made.
  • collation between the assigned ID and the ID unique to the mobile phone can be applied to medical treatment.
  • a car navigation system can be considered as an embodiment in which the above application examples are combined.
  • the car navigation system 5 is controlled by the G remote controller 2 as the AV device 5. It can also be used as a karaoke system.
  • data input by voice recognition is also possible.
  • a videophone can be made by anyone other than the driver when driving.
  • the configuration may be such that travel data and peripheral facility information recorded in the car navigation system is input to the mobile phone.
  • data input to the car navigation system 5 can be made more efficient.
  • the one-segment broadcasting content received by the mobile phone 3 may be output on the screen of the car navigation system 5.
  • the system 5 can also be controlled so as not to interfere with driving by touching a paper controller that has been printed largely using the G remote controller 2 and performing a response from the system 5 by voice.
  • a configuration in which a navigation system realized on the mobile phone 3 is connected to a monitor 5 provided in the car may be used.
  • the mobile phone 3 can be easily carried as compared with the case where an expensive car navigation system is installed in an automobile that is not frequently used, so that the frequency of use of the navigation system can be increased.
  • the shape of the cradle 4 may be configured to be placed by inserting the mobile phone 3 into the dashboard as the shape of a dashboard of an automobile.
  • a mobile phone has been described as an example.
  • the present invention is not limited to a mobile phone but is also effective for a mobile device such as a PDA having a communication function.
  • the AV apparatus 5 having a large screen monitor has been described as an example.
  • a medium-sized monitor may be connected and the mobile phone 3 may be used instead of the PC.
  • FIG. 3 is an external view showing an example of a usage state of the handwriting input / output system using the G remote control 2 according to the present invention.
  • the document as written is displayed on the display 6.
  • the G remote controller 2 captures the dot pattern on the written locus and the personal computer 8 analyzes it (accesses the server 7 as necessary).
  • the personal computer 8 may be built in the G remote controller 2.
  • GRID1> 4 to 11 are explanatory diagrams showing GRID1 which is an example of a dot pattern formed on the medium 1 in the present invention.
  • the key dots 102, information dots 103, reference grid point dots 104, and the like constituting the dot pattern 101 are invisible ink or carbon that absorbs infrared light when the G remote control 2 that is imaging means has infrared irradiation means. It is desirable to print with ink.
  • FIG. 4 is an enlarged view showing an example of the information dot of the dot pattern 101 and the bit display of data defined therein.
  • FIGS. 5A and 5B are explanatory diagrams showing information dots 103 arranged around key dots 102.
  • FIG. 5A and 5B are explanatory diagrams showing information dots 103 arranged around key dots 102.
  • the information input / output method using a dot pattern includes generation of a dot pattern 101, recognition of the dot pattern 101, and means for outputting information and a program from the dot pattern 101. That is, the dot pattern 101 is captured as image data by the imaging unit 7 built in the G remote controller 2, first the reference grid dot 104 is extracted, and then the dot is not originally placed at the position where the reference grid dot 104 is located. The key dot 102 is extracted, and then the information dot 103 is extracted and digitized to extract the information area and digitize the information. From the numerical information, the information and program are output from the dot pattern 101. Let For example, information such as voice or a program is output from the dot pattern 101 to an information output device, a personal computer, a PDA, a mobile phone, or the like.
  • fine dots that is, key dots 102, information dots 103, and reference grid point dots 104 are arranged in accordance with a predetermined rule in order to recognize numerical information by a dot code generation algorithm.
  • the block of the dot pattern 101 representing the information includes a 5 ⁇ 5 reference grid point dot 104 with the key dot 102 as a reference, and a central block surrounded by the four reference grid point dots 104.
  • Information dots 103 are arranged around the virtual grid point 105.
  • Arbitrary numerical information is defined in this block.
  • a state is shown in which four blocks (within the bold line frame) of the dot pattern 101 are arranged in parallel. Needless to say, the dot pattern 101 is not limited to four blocks and may be repeatedly arranged in the vertical and horizontal directions.
  • the image data obtained by capturing the dot pattern 101 by the imaging unit 9 corrects the distortion caused by the imaging unit 9, so a lens with a high distortion rate is attached. Even when the image data of the dot pattern 101 is captured by a popular camera, it can be accurately recognized. Further, even when the image pickup unit 9 is tilted and read with respect to the surface of the dot pattern 101, the dot pattern 101 can be accurately recognized.
  • the key dot 102 is a dot in which four reference lattice point dots 104 at the corners of the four corners of the block are shifted in a certain direction.
  • This key dot 102 is a representative point of the dot pattern 101 for one block representing the information dot 103.
  • the reference grid point dots 104 at the corners of the four corners of the block of the dot pattern 101 are shifted upward by 0.1 mm.
  • this numerical value is not limited to this, and can be changed according to the size of the block of the dot pattern 101.
  • the information dot 103 is a dot for recognizing various information.
  • FIG. 5B is a method of defining information dots 103 having 2 bits for each grid in the dot pattern of FIG. 4, and each 2-bit information is shifted by shifting the dots in the + direction and the x direction. Defined. Thus, although 48-bit information can be originally defined, data can be given every 32 bits by dividing according to usage. A maximum of 2 16 (about 65000) dot pattern formats can be realized by combining the + direction and the X direction.
  • the present invention is not limited to this, and it is possible to express 4 bits by arranging in 16 directions, and it is needless to say that various changes can be made.
  • the dot diameter of the key dot 102, the information dot 103 or the reference grid point dot 104 is preferably about 0.05 mm in consideration of appearance, printing accuracy with respect to paper quality, resolution of the imaging unit 9 and optimal digitization.
  • the interval between the reference grid point dots 104 is preferably around 0.5 mm in length and width.
  • the shift of the key dot 102 is preferably about 20% of the grid interval.
  • the interval between the information dot 103 and the virtual lattice point surrounded by the four reference lattice point dots 104 is preferably about 15 to 30% of the distance between the adjacent virtual lattice points 105. This is because if the distance between the information dot 103 and the virtual lattice point 105 is shorter than this distance, the dots are easily recognized as a large lump, and are difficult to see as the dot pattern 101. On the other hand, if the distance between the information dot 103 and the virtual grid point 105 is longer than this distance, it is difficult to identify which of the adjacent virtual grid points 105 is the information dot 103 having vector directionality. Because it becomes.
  • one dot pattern is a dot pattern composed of 4 ⁇ 4 block areas, and 2-bit information dots 103 are arranged in each block.
  • An example of the dot code format of the information dots 103 is shown in FIG.
  • parity check, code value, X coordinate, and Y coordinate are recorded in one dot pattern. Details of the format will be described later.
  • FIG. 7 is an example of the information dot 103 and the bit display of the data defined therein, and shows another form.
  • the information dot 103 surrounded by the four reference grid point dots 104 is preferably one dot in consideration of appearance. However, if it is desired to ignore the appearance and increase the amount of information, one bit is assigned to each vector, and the information dot 103 is expressed by a plurality of dots, so that a large amount of information can be provided.
  • the vector of concentric eight directions, an information dot 103 surrounded by reference grid point dots 104 of 4 points can represent information of 2 8, and 16 pieces of information dots of one block 2 128.
  • FIG. 8 shows an example of information dot and bit display of data defined therein.
  • (A) shows two dots,
  • (b) shows four dots, and
  • (c) shows five dots arranged. It is shown.
  • FIG. 9 shows a modification of the dot pattern 101, where (a) is a six information dot placement type, (b) is a nine information dot placement type, (c) is a 12 information dot placement type, (d ) Is a schematic diagram of a 36 information dot arrangement type.
  • the information dots 103 are not limited to being arranged in 16 blocks, but can be variously changed.
  • the information dots 103 are not limited to being arranged in 16 blocks, but can be variously changed.
  • six (2 ⁇ 3) information dots 103 are arranged in one block (a) and nine information dots 103 in one block (a) according to the amount of information required or the resolution of the imaging unit 9 ( 3 ⁇ 3) arranged (b), 12 information dots 103 arranged in one block (3 ⁇ 4) (c), or 36 arranged information dots 103 in one block (d) .
  • This dot pattern defines the direction of the dot pattern depending on the shape of the block.
  • reference points 201a to 201e are first arranged.
  • a shape indicating the direction of the block (here, a pentagon facing upward) is defined by a line connecting the reference points 201a to 201e.
  • virtual reference points 201f, 201g, and 201h are arranged, and information dots 203 are arranged at vector end points having directions and lengths starting from this virtual reference point.
  • the direction of the block can be defined by the way the reference points are arranged.
  • the size of the entire block is also defined by the direction dot that defines the direction of the block. Of course, this block may be repeatedly arranged in the vertical and horizontal directions.
  • the reference points 201a to 201e and the information dots 203 are all described as having the same shape. However, the reference points 201a to 201e may be larger than the information dots 203.
  • the reference points 201a to 201e and the information dots 203 may have any shape as long as they can be identified, and may be a triangle, a quadrilateral or more polygons.
  • FIG. 10B defines information depending on whether or not there is an information dot on the virtual lattice point of the block.
  • FIG.10 (c) connects the block shown to Fig.10 (a) 2 each in the vertical / horizontal direction.
  • the dot pattern formed on the medium 1 is not limited to GRID1, but may be anything that defines XY coordinate information and code information.
  • Japanese Patent No. 3766678 (GRID2)
  • Japanese Patent No. 3858051 (GRID3)
  • Japanese Patent No. 3858052 (GRID4)
  • FIG. 11 is a diagram for explaining the format of the dot pattern formed on the medium 1 in the present invention.
  • the dot pattern is a dot pattern composed of 4 ⁇ 4 block areas, and is partitioned into C 1-0 to C 31-30 within this block.
  • the dot code format of each area is shown in (a) and (b).
  • (A) is a format in which page code, X coordinate, and Y coordinate are registered.
  • the page code means the number of pages of the medium 1 when the medium 1 is in a booklet shape, and the X coordinate and the Y coordinate mean positions (coordinate values) on the medium, respectively. Is. Thereby, when the user reads the medium 1 with the G remote controller 2, the number of pages of the medium and the coordinate position of the read position are simultaneously recognized by one reading operation.
  • (B) is a format in which page code, action code, X coordinate and Y coordinate are registered.
  • the action code means an operation instruction. For example, it means operations such as “enlargement” and “reduction”, and is included in a dot pattern mainly used in an icon area described later.
  • the dot pattern of the present invention can register various code information such as page code and action code and XY coordinates in one format.
  • various code information such as page code and action code and XY coordinates in one format.
  • Imaging unit> 12 to 15 are diagrams for explaining the imaging unit 9 used in the handwriting input / output system.
  • the imaging unit 9 preferably has a size and shape suitable for a person to hold in his / her hand, and most preferably has a pen shape as shown in FIG.
  • FIG. (A) of the figure shows the most basic embodiment of the imaging unit 9 having a pen shape.
  • an instruction projection 10 and a transmission unit 11 are provided, and a C-MOS sensor or the like (not shown) is generally built on the axis of the pen.
  • the transmission unit 11 is for the imaging unit 9 to transmit a signal to another member using a method such as infrared communication or wireless communication, and is illustrated for convenience of explanation. It is not necessary to provide it at the position.
  • FIG. 6B is a diagram showing another embodiment of the imaging unit 9 having a pen shape.
  • two buttons for accepting an operation by the user are provided.
  • the two buttons are a transmission button 12 and a re-transmission button 13, and the user can instruct the user to send a signal from the imaging unit 9 to another member.
  • the retransmit button 13 is used to transmit the same signal again when the transmission of the signal by the transmission button 12 cannot be transmitted to the receiving member due to the presence of a shield or the like.
  • FIG. (C) is a diagram showing another embodiment of the imaging unit 9 having a pen shape.
  • a microphone 14 that receives a voice input by the user and a voice playback button 15 are further provided.
  • the microphone 14 is used for recording a voice used for voice recognition described later, and the voice playback button 15 is used for playing a voice guide described later.
  • FIG. 4D is a diagram showing another embodiment of the imaging unit 9 having a pen shape.
  • the pen 16 is stored in the internal space of the instruction projection 10, and the pen 16 comes out when the pen storage button 17 is pressed.
  • FIG. 13A is a cross-sectional view showing the distal end portion of the G remote controller 2 which is one embodiment of the imaging unit 9.
  • the G remote controller 2 includes a light guide 18 having a hollow portion formed therein and having an opening at the tip thereof, a lens 19 disposed at a position facing the opening of the light guide 18, and the same surface as the lens 19.
  • An LED 20 (irradiation unit) serving as a light source for irradiating light of a predetermined wavelength onto the medium surface on which the dot pattern is formed, and a C-MOS sensor 21 (imaging device) disposed at a position retracted from the lens 19
  • a PCB 22 and a CPU (not shown) installed in the PCB 22 at a further retracted position.
  • the hollow portion of the light guide 18 is formed in a tapered shape having a gradually increasing diameter from the lens 19 toward the opening.
  • the CPU has any or all of the above-described dot pattern analysis unit, locus recognition unit, processing command unit, and information processing unit.
  • the light guide 18 is made of transparent or milky white resin, and the inside functions as a light guide. Irradiation light from the LED 20 travels inside the light guide 18 and is irradiated onto the medium 1 from the opening. When the light guide 18 is made of milky white resin, the irradiation light from the LED 20 is appropriately diffused as it travels through the light guide 18, so that the light irradiating the medium 1 from the opening is made more uniform. I can do it.
  • FIG. 2B is a diagram showing the light emission timing of the LED 20 for each hour.
  • the LED 20 instantaneously emits light with a predetermined intensity at a predetermined timing to expose the medium 1.
  • the C-MOS sensor 21 captures the reflected light from the medium 1 and transmits it as image data to the dot pattern analysis unit.
  • FIG. 2C shows the reaction state of the elements of the C-MOS sensor 21 over time.
  • An afterimage of the medium 1 is burned onto the element of the C-MOS sensor 21 when the LED 20 emits light with a predetermined intensity to expose the medium 1.
  • the predetermined time t k Indicates the time required to maintain the afterimage state that can be analyzed by the dot pattern analysis unit within the time until the afterimage of the image sensor disappears.
  • Such an imaging method is particularly effective when a C-MOS sensor is used, but there is no problem even if a CCD camera is used instead of the above imaging method.
  • FIG. 14 explains the functions of the light control unit and the dot pattern analysis unit used in the present invention.
  • FIG. 5A illustrates the light emission timing of the LED 20 by the light control unit, the timing at which the dot pattern is imaged by the imaging device and transmitted to the storage device, and the first pattern of the image data analysis timing by the dot pattern analysis unit. It is time series to do.
  • the first pattern light emission f t n , imaging r t n , and analysis a t n are sequentially performed.
  • the analysis a t n ends, the next light emission f t n + 1 is obtained until a predetermined time t s elapses. Is not done.
  • the predetermined time t in which the imaging element of the expected value of the time required for imaging, transmitting, analyzing a dot pattern, and defines the maximum value as the predicted imaging, transmission and analysis time.
  • FIG. 4B is a time series for explaining the second pattern of the light emission timing of the LED 20 by the light control unit, the dot pattern imaging / transmission timing by the image sensor, and the image data analysis timing by the dot pattern analysis unit.
  • the light control unit detects the end of the analysis, and immediately performs the next light emission f t n + 1 to capture the next dot pattern r t n + 1. Analysis a t n + 1 is performed.
  • FIG. 4C is a time series illustrating the third pattern of the light emission timing of the LED 20 by the light control unit, the dot pattern imaging / transmission timing by the image sensor, and the image data analysis timing by the dot pattern analysis unit. .
  • the dot pattern imaging r t n for the next analysis is performed simultaneously with the analysis a t n ⁇ 1 , and the analysis a t immediately emission when n-1 is completed f t n + 1 is performed, followed by already analyzed a t n of the image data captured by the image capturing r t n is performed.
  • the analysis a t n may be started simultaneously with the light emission f t n + 1, but since the light emission time of the LED 20 is extremely short, the dot pattern analysis unit finishes the analysis of the image data after the LED 20 emits light. There is almost no change in the total time until.
  • the dot pattern analysis unit obtains XY coordinate information and code information defined by the dot pattern by performing code analysis on the image data in accordance with the information input / output method using the dot pattern in GRID1 described above.
  • the dot pattern analysis unit sequentially analyzes the trajectory written (traced) on the medium by the imaging unit 9, the XY coordinate information and the code information represent the trajectory (trajectory information). ).
  • the trajectory recognition unit recognizes characters and figures written on the medium based on changes in trajectory information.
  • the trajectory recognition method is a method that considers characters and figures as graphics, and refers to the XY coordinate patterns of the characters and figures in the database, like a general OCR (optical character reader).
  • the contents to be written in the writing area can be designated in advance by code information. That is, the trajectory information can be recognized with high accuracy by referring to the character and / or graphic information pattern table classified in advance. As a specific example, if it is instructed in advance to describe only Arabic numerals, the recognition rate increases because the trajectory recognition unit refers to only the Arabic numeral table. If recognition is not possible, all characters and figures in the database can be referenced as usual.
  • the semantic information of a character and / or figure written in the writing area or a phrase composed of one or more characters is defined as predefined semantic information corresponding to the code information.
  • the code table (dictionary) it can be converted into a semantic information code. That is, for example, when the word “Bunkyo-ku, Tokyo” is written, the trajectory recognition unit first performs pattern recognition one character at a time: Referring to the semantic information code table (dictionary), the semantic information code defined as corresponding to “Tokyo” and the semantic information code defined as corresponding to “Bunkyo-ku” are converted. Thus, the information processing unit can recognize that the place names “Tokyo” and “Bunkyo-ku” have been input.
  • semantic information code table (dictionary) also assists character pattern recognition. For example, if the user has written the word “east” of “Tokyo” dirty and it is difficult for the trajectory recognition unit to recognize whether the user wrote “east” or “car”, the semantic information code If the idiom "Tokyo” is defined in the table and the idiom "Kakkyo” is not defined (the idiom "Kakkyo" usually does not exist), it is assumed that the user wrote the word "east” The trajectory recognition unit 9 can perform recognition.
  • the processing command unit transmits a processing command based on the information recognized by the trajectory recognition unit to the information processing unit along with the trajectory information.
  • the processing command section defines a command for specifying a page based on a page code, a command for specifying a writing area based on a specific code, and various commands based on an action code defined by a dot pattern printed on a medium surface.
  • the processing instruction unit instructs the information processing unit to execute various operations in the handwriting input / output application, details of which will be described later.
  • the information processing unit receives various processing instructions performed by the handwriting input / output system and executes various processes.
  • the handwriting input / output system may access the server 7 in which various information is recorded as necessary.
  • the server 7 can store information for locus recognition, for example.
  • information for locus recognition for example.
  • OCR optical character reader
  • XY coordinate patterns are defined and stored in a plurality of characters and figures.
  • meaning information code for outputting a phrase or figure consisting of one or a plurality of characters, or a combination thereof is defined and stored in the characters and figures by referring to the meaning information code table (dictionary). Has been.
  • the writing area can be specified using not only the XY coordinate information but also the code information, it can be easily managed even if the amount (number) of the writing area is enormous. . This is particularly effective when writing information is stored in a shared global server that anyone can use.
  • the server 7 can store voice, document, image, video, application, and other various information in addition to the information for recognizing the trajectory.
  • a handwriting input / output application can be stored. That is, when the information processing unit does not have an application for handwriting input / output, it can search the server and execute the application for handwriting input / output on the server. However, the handwriting input / output application on the server may be executed with priority.
  • server 7 can be implemented with various modifications other than the above embodiments.
  • the writing operation is performed by writing the character or figure to be input into the writing area on the medium surface using the imaging unit 9.
  • the imaging unit 9 images a dot pattern printed in a superimposed manner at a predetermined time interval while the imaging unit 9 is moving on the medium surface.
  • the subsequent steps are as already described.
  • FIG. 15 is an image diagram for explaining a first operation for handwriting input of text characters.
  • the image pickup unit 9 When characters are written in the writing area using the image pickup unit 9 as shown in FIG. 9A, the image pickup unit 9 sequentially picks up dot patterns on the locus as shown in FIG. The unit acquires trajectory information including XY coordinate information and code information.
  • the interval between the imaging positions of the dot pattern on the locus is wide in FIG. 5B, but actually it is narrower.
  • the information processing unit executes the first operation and outputs the result to the display 6.
  • the XY coordinate information obtained by the dot pattern analysis unit may be directly input / output without performing recognition of characters and figures.
  • the handwriting input / output system functions as a pen tablet.
  • 16 to 22 illustrate a voice mail system using the G remote controller 2 according to the present invention.
  • FIG. 16 is a network configuration diagram in the present embodiment.
  • the personal computer 8 is connected to another personal computer 8 via a network such as the Internet, and data can be transmitted and received.
  • These personal computers 8 can communicate with the G remote controller 2 by a short-range wireless communication system such as Bluetooth.
  • the communication between the G remote controller 2 and the personal computer is not limited to such Bluetooth, but may be any communication such as infrared communication, wireless LAN, or wired connection using a USB cable.
  • FIG. 17 is a diagram illustrating the paper controller 23 used when the user performs registration, transmission / reception, and the like of voice mail.
  • a symbol for recording, reproducing, and linking voice is printed on the left part of the paper controller 23, and a symbol for performing voice mail transmission / reception is printed on the right side.
  • FIG. 18 is a diagram for explaining the voice mail database.
  • This figure shows a system in which the G remote controllers 2 transmit and receive voice mails, that is, voice data, inputted by the G remote controller 2 while communicating with the voice mail control unit via the Bluetooth interface (I / F).
  • the voice mail control unit is configured by a general-purpose server or personal computer 8 that can be connected to a network, and a voice data storage unit is provided in a hard disk device connected to the server or personal computer 8.
  • the voice data storage unit is provided with a reception index table and a transmission index table.
  • the reception index table the reception ID (the transmission source address or the ID number of the receiving side G remote controller 2) and the data storage address are registered in association with each other.
  • the transmission index table a transmission ID (a transmission destination address or an ID number of the transmission destination G remote controller 2) and a data storage address are registered in association with each other.
  • the voice mail control unit registers the ID of the G remote controller 2 to be managed by the voice mail control unit in the reception index table, and the voice mail addressed to the reception ID defined in the G remote control 2 Is registered in the reception index table of its own voice data storage unit.
  • the transmission ID (the transmission destination address or the transmission destination G remote control 2 ID) is once registered in the transmission index table.
  • the voice mail control unit periodically accesses the transmission index table, and when there is unsent voice mail here, the voice mail data is sent via the network interface (NW I / F) and the network. The data is transmitted to a voice mail control unit (not shown) that manages the transmission ID.
  • FIG. 19 is a flowchart for explaining data transmission / reception between the G remote controller 2 and the personal computer 8 (voice mail control unit).
  • the G remote controller 2 determines whether or not there is a G remote control 2 in the communicable area (1901).
  • the G remote controller ID is transmitted to the personal computer 8 by a short-range wireless communication system such as Bluetooth.
  • the G remote controller ID is transmitted, it is determined that the G remote controller 2 is in the communicable area.
  • the personal computer 8 reads the G remote control ID via the Bluetooth I / F.
  • the control unit determines whether there is a matching ID in the reception index table (1903).
  • the control unit determines whether an ID that matches the read G remote control ID exists in the reception index table in the voice data database. If it is determined that the received ID exists, the data storage address corresponding to the received ID is accessed, and the received data is read (1904). Then, the read received data is transferred to the G remote controller 2 via the Bluetooth I / F (1905), and this process is terminated.
  • the transmission data that is, the destination address and voice data are read and registered in the transmission data index table in the database (1907). When registration is completed, this process is terminated.
  • FIG. 20 shows a specific example in which voice mail is transmitted and received between users.
  • this figure is a system in which a voice mail management server is connected to the network to manage voice mail centrally.
  • the voice data is stored as digital data in the memory via the microphone of the G remote controller 2.
  • user A determines the destination of the voice mail. That is, the destination address is input using the paper controller 23. The input address is registered in the memory of the G remote controller 2.
  • User A enters indoors such as at home or work, and when performing voice mail transmission processing, first, the user places the voice mail in the vicinity of the personal computer 8. Then, with the Bluetooth communication function, the personal computer 8 reads the device ID defined for each G remote controller 2, that is, the G remote controller ID. Next, the voice data and mail address stored in the memory are transmitted to the personal computer 8.
  • the personal computer 8 When the personal computer 8 (voice mail control unit) receives the voice data and the mail address, the personal computer 8 displays a message “Receiving voice mail” on the monitor (display device). Then, the voice data and the mail address are transmitted to the voice mail management server.
  • the voice mail management server registers the received voice data and address in a database in the server. Then, the voice data is transmitted to the corresponding mail address via the network I / F.
  • the personal computer 8 that has received the voice mail displays “acquire / send voice mail” on the monitor (display device). Then, the voice data is transmitted to the G remote controller 2 of the user B through the Bluetooth I / F.
  • the G remote controller 2 receives the voice data
  • the G remote controller 2 notifies the user B of the voice and / or the monitor of the G remote controller 2 that “voice mail has arrived”. Thereby, the user B receives the message transmitted by the user A.
  • FIG. 21 shows an example in which the G remote controller 2 is used in conjunction with the voice mail management server by a control program (voice mail manager) installed in the personal computer 8 (PC).
  • a control program voice mail manager
  • the user accesses the CD-ROM or Internet distribution server, executes the downloaded installation program on the personal computer 8 (PC), and registers the voice mail manager as a resident program on the OS (operating system).
  • PC personal computer 8
  • OS operating system
  • the G remote controller ID is transmitted to the personal computer 8 (PC) by a short-range wireless communication system such as Bluetooth.
  • a central processing unit (CPU) in the personal computer 8 (PC) authenticates the G remote control ID in the voice mail management server. That is, it is authenticated whether or not the transmitted G remote control ID is the ID of the G remote control 2 that can transmit and receive data using the personal computer 8 (PC).
  • the voice mail transmitted to the G remote controller ID is stored with reference to the voice mail management table (dot code management table) in the personal computer 8 (PC). To see if it is.
  • the central processing unit reads the voice mail and transmits it to the G remote controller by a short-range wireless communication system such as Bluetooth.
  • the voice data received (downloaded) from the personal computer 8 is reproduced by the G remote controller 2 so that the receiver can hear the voice mail.
  • the voice mail management server on the Internet is referred to.
  • the voice mail transmitted to the G remote control ID is stored in the voice mail management table of the voice mail management server, the voice mail is read and downloaded into the personal computer 8 (PC).
  • the voice mail management server on the Internet is not accessed again, and the personal computer is based on the voice mail management table including the newly added data.
  • the voice mail downloaded in the hard disk device (HD) 8 is read out.
  • the personal computer 8 When performing transmission processing using the G remote 2, the personal computer 8 performs Bluetooth communication with the G remote 2 when the G remote 2 managed by the personal computer 8 is arranged nearby. 2 ID (device ID) is read, and voice mail accumulated from the memory of the G remote controller 2 is read. At this time, the dot code when the dot pattern is scanned during recording by the G remote controller 2 is registered in association with the device ID.
  • the personal computer 8 periodically accesses the voice mail management server and transmits the data of the voice mail management table to the voice mail management server.
  • the voice mail management server receives the data
  • the voice mail management server updates its own voice mail management table based on the data.
  • the voice mail addressed to the user received by the personal computer 8 can be reproduced or downloaded.
  • voice mail can be created / registered and uploaded to the personal computer 8.
  • the mobile phone cradle 4 not only uses an AV device as an output means of the mobile phone placed, but also stores video or audio information output from the AV device 5 as shown in FIG. May be.
  • a plurality of mobile phone cradle 4 share information recorded in a DLNA server (Digital Living Network Alliance Server) by LAN connection, and the shared information is any cradle. It may be possible to output to an AV device even from the beginning.
  • DLNA server Digital Living Network Alliance Server
  • the mobile phone cradle 4 of the present invention may also be used as a DLNA server as shown in FIG.
  • the mobile phone cradle 4 can record and reproduce the output video of the AV device 5 and the record information / output information of the mobile phone 3.
  • the mobile phone cradle 4 may be configured to be able to input to the mobile phone 3 by communicating with an input device such as a mouse or a keyboard as shown in FIG.
  • the mobile phone cradle 4 of the present invention may include a port for communicating with an external storage medium such as a USB memory or an SD card as shown in FIG.
  • the mobile phone cradle can record and reproduce the output video of the AV device 5 and the recording information / output information of the mobile phone 3 on an external storage medium.
  • the mobile phone cradle 4 of the present invention is connected to a printer and can print output video of the AV device 5, recording information / output information of the mobile phone, and recording information of the cradle. It is good.
  • the mobile phone cradle 4 of the present invention may include a microphone and a camera, and may use a TV phone or a voice mail system.
  • Wired means may be used for communication between the G remote control 2 and the cradle 4.
  • the AV device 5 may be a cable TV or IPTV set-top box, or an audio device.
  • all processing performed by the mobile phone 3 is performed by transmitting information transmitted from the G remote control 2 or the mobile phone cradle 4 to the mobile phone 3 by the mobile phone 3 communicating with the server.
  • the mobile phone 3 may receive the processing result at the server.
  • the mobile phone 3 only needs to receive only the result processed on the server from the server and output it to the AV device 5 via the cradle.
  • the G remote controller 2 reads a dot pattern superimposed and printed on a map (medium 1), and the destination such as latitude / longitude defined by the dot pattern is read.
  • the information may be converted into an input format of the car navigation system and transmitted from the mobile phone 3 to the car navigation system via the cradle 4 so as to be registered.
  • the destination information When touching an area where there is no feature, the destination information is registered based on the latitude / longitude and XY coordinate values defined by the dot pattern, but when touching an area where the feature is present, the feature information It is usual to register destination information based on the latitude and longitude associated with.
  • the destination information may be registered based on the latitude / longitude of the touched region regardless of the latitude / longitude associated with the feature information.
  • the mobile phone cradle reads a dot pattern in which a code and / or an XY coordinate value associated with information or an operation instruction is recorded on a medium, and the information is
  • a mobile phone cradle used together with a scanner remote controller for transmitting data, wherein the mobile phone can be placed, communicates with the placed mobile phone, and receives data from the scanner remote controller,
  • the scanner remote controller functions as an input unit of the mobile phone, communicates with an AV device, and controls the AV device, thereby causing the AV device to function as an output unit of the mobile phone.
  • the mobile phone cradle in order to solve the above-described problem, may have a function of charging the mounted mobile phone. .
  • the communication between the scanner remote controller and the mobile phone cradle is infrared, Bluetooth, weak radio wave, or other This may be performed by the wireless means.
  • communication between the mobile phone cradle and the AV device is performed according to IEEE 1394 standard, infrared, Bluetooth, weak radio wave, It may be carried out by other wired means or other wireless means.
  • the AV device may be a television receiver in order to solve the above problems.
  • the mobile phone cradle in order to solve the above-mentioned problem, is connected to the television receiver with power ON / OFF, input switching, TV program selection. It may be characterized in that a control instruction is issued from a station or the like.
  • the scanner remote controller includes voice input means, and the voice information input by the voice input means is directly or
  • the karaoke function is transmitted to the mobile phone through the mobile phone cradle, and the video and lyrics output by the execution of the karaoke function are output to the AV device together with the audio information. It is good also as a feature.
  • the scanner remote controller includes voice input means and voice recognition processing means, and the voice input by the voice input means.
  • Information is converted into information such as input data and / or operation / control instructions by the voice recognition processing means, transmitted to the mobile phone directly or via the mobile phone cradle, and processed in the mobile phone. This may be a feature.
  • the scanner remote controller includes voice input means
  • the mobile phone cradle includes voice recognition processing means
  • the voice information input by the voice input means is transmitted to the mobile phone cradle, converted into information such as input data and / or operation / control instructions by the voice recognition processing means, transmitted to the mobile phone, and Processing may be performed in a mobile phone.
  • the scanner remote controller includes a voice input unit, and the mobile phone includes a voice recognition processing unit.
  • the voice information input by the means is transmitted to the mobile phone directly or via the mobile phone cradle.
  • information such as input data and / or operation / control instructions by the voice recognition processing means. It is good also as a characteristic that it is converted into and processed.
  • the videophone system according to the present invention uses the mobile phone cradle in order to solve the above-described problems.
  • the karaoke system according to the present invention uses the mobile phone cradle to solve the above problems.
  • the car navigation system according to the present invention uses the mobile phone cradle in order to solve the above problems.
  • the mobile phone cradle according to the present invention can be mounted with a mobile phone, communicate with the mounted mobile phone, communicate with an AV device, and A mobile phone cradle that controls the device to cause the AV device to function as an output means of the mobile phone, and is turned on based on a disaster information and / or an alarm signal received by the mobile phone.
  • the AV apparatus is controlled such as power off and channel selection.
  • the emergency information notification system uses the mobile phone cradle to solve the above problems.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Selective Calling Equipment (AREA)

Abstract

ドットパターンが印刷された媒体と、ドットパターンを読み込むスキャナリモコンと、クレードルと、携帯電話と、AV機器とが融合したシステムを提供する。 本発明の携帯電話用クレードルは、印刷された、情報を記録したドットパターンを読み取り、該情報をデータ送信するスキャナリモコンと共に用いられる携帯電話用クレードルであって、携帯電話を載置可能であり、載置された該携帯電話と通信し、該スキャナリモコンからのデータを受信することにより、該スキャナリモコンを該携帯電話の入力手段として機能させ、AV機器と通信し、該AV機器を制御することにより、該AV機器を該携帯電話の出力手段として機能させることを特徴とする。

Description

携帯電話用クレードル、TV電話システム、カラオケシステム、カーナビゲーションシステム、および緊急情報通知システム
 本発明は、媒体上の、情報を表すドットパターンを読み取り、読み取った情報をデータ送信するスキャナリモコンと、携帯電話と、AV機器と共に用いられる携帯電話用クレードルに関するものである。
 従来から、携帯電話の機能を拡張したり、携帯電話の機能を有効に利用したりするための入出力機器として、携帯電話と共に用いる様々な機器が提案されている。
 フルサイズのキーボードを持たない携帯電話に対して、容易に文字入力できる様にするために、ペン型のスキャナを携帯電話と共に用いる技術がある。(例えば、非特許文献1参照)。
 この技術では、ドットパターンが印刷された専用の紙に対して、ペン型のスキャナを用いてユーザが操作を行うと、行った操作が該スキャナからブルートゥース(登録商標)により携帯電話に送信され、携帯電話において処理が行われる。
 また、携帯電話では、VGAクラスの解像度を有する携帯電話が利用されるようになっている。(例えば、非特許文献2参照)。
「ノキア デジタルペン」http://www.nokia.co.jp/about/release_071218.shtml (2008年3月31日確認) 「3.0インチワイドVGA液晶を搭載した携帯電話」http://journal.mycom.co.jp/news/2007/01/16/004.html (2008年3月31日確認)
 しかしながら、ペン型スキャナを用いる上記従来の技術では、ペン型スキャナと共に用いる携帯電話の画面が小さく、ユーザが画面を視認しながら処理を行うためには、携帯電話を手元に置き、近くで画面が見られるようにしておく必要があった。
 そのため、棚や机の上などに置かれた充電用クレードル上に携帯電話を置いたまま、操作を行うことが困難であり、処理を行える時間は携帯電話の電池容量に依存するという問題点があった。
 また、携帯電話において、VGAクラスの解像度の映像を扱うには、画面が小さすぎるため、家庭用の大型テレビモニタに接続出来る機種が出てきているが、携帯電話とモニタとを直接接続するため、ケーブルの着脱が手間であるという問題点があった。
 本発明は、上記の問題点に鑑みてなされたものであり、その目的は、媒体上の、情報を表すドットパターンを読み取り、読み取った情報をデータ送信するスキャナリモコンと、携帯電話と、AV機器と共に用いられる携帯電話用クレードルを実現することにある。
 以上のように、本発明に係る携帯電話用クレードルは、媒体上の、情報または操作指示を関連付けたコードおよび/またはXY座標値を記録したドットパターンを読み取り、該情報をデータ送信するスキャナリモコンと共に用いられる携帯電話用クレードルであって、携帯電話を載置可能であり、載置された該携帯電話と通信し、該スキャナリモコンからのデータを受信することにより、該スキャナリモコンを該携帯電話の入力手段として機能させ、AV機器と通信し、該AV機器を制御することにより、該AV機器を該携帯電話の出力手段として機能させることを特徴とする。
 それ故、携帯電話の小さい画面や入力用ボタンに代わり、大きい画面を用いて、画像を大きく表示することが出来るという効果を奏する。
 また、携帯電話の小さいボタンに代わり、スキャナリモコンと適切なサイズとした媒体とを用いて、入力を容易に行う事が出来るという効果を奏する。
 また、お茶の間等で、一つの携帯電話を用いるにもかかわらず、複数人が一つの携帯電話の機能(ショッピング、ビデオオンデマンド、ゲーム、ネットサーフィン等)を共有して利用することが出来るという効果を奏する。
 また、携帯電話の携帯性を活かして外で写してきた写真やメールを大画面で鑑賞したりすることが出来るという効果を奏する。
 また、外での携帯電話、書斎でのPC、お茶の間でのインターネットテレビ・ケーブルテレビという使い分けを無くし、全ての場所において携帯電話一つで用が足りる形とすることが出来るという効果を奏する。
本発明の実施形態を示すものであり、携帯電話用クレードルを用いるシステムの全体構成を示す図である。 本発明の実施形態の変形例を示すものであり、Gリモコンが直接携帯電話と通信する様子を示す図である。 本発明の一実施形態である手書き入出力システムの使用状態を示す外観図である。 本発明の一実施形態である手書き入出力システムに用いるドットパターンを説明する図(1)である。 本発明の一実施形態である手書き入出力システムに用いるドットパターンを説明する図(2)である。 本発明の一実施形態である手書き入出力システムに用いるドットパターンを説明する図(3)である。 本発明の一実施形態である手書き入出力システムに用いるドットパターンを説明する図(4)である。 本発明の一実施形態である手書き入出力システムに用いるドットパターンを説明する図(5)である。 本発明の一実施形態である手書き入出力システムに用いるドットパターンを説明する図(6)である。 本発明の一実施形態である手書き入出力システムに用いるディレクションドットを説明する図である。 本発明の一実施形態である手書き入出力システムに用いるドットパターンを説明する図(7)である。 本発明の一実施形態である手書き入出力システムに用いる撮像部の全体の構成を示す外観図である。 本発明の一実施形態である手書き入出力システムに用いる撮像部の機能を説明する図(1)である。 本発明の一実施形態である手書き入出力システムに用いる撮像部の機能を説明する図(2)である。 本発明の一実施形態である手書き入出力システムにおける第一のオペレーションを説明する図である。 本発明の一実施形態であるボイスメールシステムにおけるネットワーク構成図である。 ボイスメールシステムにおいて使用するペーパーコントローラのシンボルの配置状態を示す図である。 ボイスメールデータベースについて説明するための図である。 ボイスメールを送受信する処理を示すフローチャートである。 ボイスメールの送受信について説明するための図である。 ボイスメールシステムの一実施例であるボイスメールマネージャについて説明するための図である。 ボイスメールマネージャにおいて使用するペーパーコントローラのシンボルの配置状態を示す図である。 本発明の一実施形態である、携帯電話用クレードルを用いた手書き入出力システムについて説明するための図である。 本発明の一実施形態である、AV機器から出力された映像ないし音声情報の記憶について説明するための図である。 複数の携帯電話用クレードルがLAN接続によりDLNAサーバに記録された情報を共有している状態を説明するための図である。 携帯電話用クレードルがDLNAサーバを兼用している実施形態について説明するための図である。 携帯電話用クレードルがマウスやキーボードなどの入力用デバイスと通信して、携帯電話3への入力をする実施形態について説明するための図である。 本発明の一実施形態である、USBメモリやSDカード等の外部記憶メディアと通信するポートを備えた携帯電話用クレードルについて説明するための図である。 携帯電話用クレードルをプリンタと接続して、AV機器の出力映像や携帯電話の記録情報・出力情報、クレードルの記録情報を印刷する実施形態について説明するための図である。 本発明の一実施形態であるカーナビゲーションシステムについて説明するための図である。
1  媒体
2  Gリモコン(スキャナリモコン)
3  携帯電話
3b 携帯電話
4  クレードル(携帯電話用クレードル)
4b クレードル(携帯電話用クレードル)
5  AV機器、テレビジョン受像機、カーナビゲーションシステム6 ディスプレイ
7  サーバ
8  パーソナルコンピュータ
9  撮像部
10 指示用突起部
11 送信部
12 送信ボタン
13 再送信ボタン
14 マイク
15 音声再生ボタン
16 ペン
17 ペン格納ボタン
18 ライトガイド
19 レンズ
20 LED
21 C-MOSセンサ
22 PCB
23 ペーパーコントローラ
101 ドットパターン
102 キードット
103 情報ドット
104 基準格子点ドット
105 仮想格子点
 本発明の一実施形態について図1および図2に基づいて説明すると以下の通りである。
 <システム構成の概要1>
 図1において、本発明にかかる携帯電話用クレードルを用いたシステムの構成概要を示す。
 ユーザの手元には、媒体1およびスキャナリモコン2(以下、グリッド型のドットパターンを読むリモコンとして、Gリモコンと略す)がある。携帯電話3は、携帯電話用クレードル4(以下、クレードルと略す)の上に載置されており、クレードル4は、AV機器5に接続されている。
 媒体1としては、情報を表すドットパターンが表面に、印刷等により形成された、紙媒体等である。
 例えば、紙の表面に、実行命令を表すドットパターンと、その実行命令に対応した機能を表すアイコン画像とを重畳印刷して並べたペーパーコントローラ、アイコン画像が通常のキーボードのキーを表しているペーパーキーボード、表面にXY座標値を表すドットパターンも印刷したペーパータッチパネル、タブレットなどを用いることが出来る。
 また、媒体1として、例えば、ドットパターンが、ユーザに一つの機能や意味を表す画像と重畳印刷された、通販カタログやケーブルガイドなどでもよい。
 なお、ドットパターンとしては、特許3706385号や特許3771252号などに記載のドットパターンを用いればよい。これらのドットパターンには、情報および/または操作指示(制御指示)を関連付けた、コードおよび/またはXY座標値が記録されている。
 この情報は、携帯電話3および/またはAV機器5において用いられるものであり、この操作指示は、携帯電話3、クレードル4、および/またはAV機器5に対するものである。
 Gリモコン2は、電池と、ドットパターンを読み取るスキャナと、読み取ったドットパターンの画像を解析し、ドットパターンからXY座標値やコード値を復号する解析部と、解析結果を送信する送信部とを備える。なお、Gリモコン2には、解析部を持たせず、解析は、携帯電話3またはクレードル4に備えさせた解析部において行う構成でも良い。
 携帯電話3は、クレードル4上に載置されることにより、クレードル4と操作・制御信号、入力データ、および画像・音声信号の通信が行えるものである必要がある。クレードル4上に載置されている際は、携帯電話3の電池が充電される構成が望ましい。また、携帯電話3において様々な処理を行うための電力は、クレードル4から供給される構成が望ましい。
 クレードル4は、携帯電話3を載置可能な構造であり、携帯電話3の電池を充電するため、また、携帯電話3における処理に用いるため、電力を供給する。
 また、クレードル4は、載置された携帯電話3と、操作・制御信号、入力データ、および画像・音声信号の通信を行う。
 また、クレードル4は、Gリモコン2と通信を行い、ユーザが、媒体1およびGリモコン2を用いて入力した、携帯電話3に対する操作・制御・処理命令や入力データを、Gリモコン2から取得し、載置された携帯電話3に渡す。
 また、クレードル4は、AV機器5と通信を行い、携帯電話3が処理した結果である、映像出力および音声出力等を、また、AV機器の制御信号等を、載置された携帯電話3から受け取り、AV機器5に対して出力する。
 なお、クレードル4は、載置された携帯電話3に対し、長時間に渡り電力供給可能であることが求められるので、家庭用電源等を電源とすることが望ましい。
 また、ノートPCと共に用いられるドッキングステーションと同様に、筐体の小さい携帯電話3に多くのケーブル等を接続するには、容積の小さい特殊なコネクタを用いたりしなければならないが、クレードル4を介することにより、接続に用いるケーブルのコネクタは通常の大きさのものを用いることが出来る。クレードル4側にも数多くのコネクタを設けることが出来る。
 AV機器5は、例えば、テレビジョン受像機を用いることが出来る。
 Gリモコン2とクレードル4との間の通信には、赤外線、ブルートゥース、微弱電波、または他の無線を用いることが出来る。なお、従来から有るリモコンと同じように赤外線を用いても良いが、Gリモコン2を用いる際の自由度を向上させる為には、ブルートゥースまたは微弱電波を用いることが望ましい。
 図1においては、Gリモコン2の送信部から発信された電波や赤外線が、クレードル4の受信部において受信される様子を示している。この図では、理解のし易さを考慮し、クレードル4の表面に受信部がある構成として図示している。これは、クレードル4の筐体を構成する部材が赤外線等を透過しない場合に、受光部の少なくとも一部を筐体表面に設ける構成であり、筐体を透過する電波を用いる場合は、受信部を表面に設ける必要は無い。
 また、クレードル4とAV機器5との間の通信には、IEEE1394規格(i.LINK、FireWire等)、赤外線、ブルートゥース、微弱電波、他の有線通信手段、または他の無線通信手段を用いることが出来る。なお、IEEE1394規格に対応したシステムでは、クレードル4とAV機器5とがケーブルで接続され、ケーブルを介してAV機器5にデータが送信され制御される。
 図1においては、AV機器5に接続する側が3個のコネクタに分かれたケーブルを用いて、クレードル4とAV機器5とが接続されている例を示しているが、この形状に限られるものではない。
 なお、クレードル4とAV機器5との間の通信に赤外線を用いる場合、クレードル4の外周に3箇所程度、赤外線発光LEDを設ければ、テレビジョン受像機など、AV機器5のモニタ面より前面にクレードル4を配置することにより、AV機器5の制御信号を適切に送信することが出来る。

 <クレードル4の構造について>
 クレードル4は、通常の携帯電話充電部と、AV機器5との通信部と、携帯電話3との通信部と、Gリモコン2との通信部と、各通信部間の信号を転送したり、加工処理したり、変換処理したりするための制御部とを備えている。
 携帯電話充電部の機能は、通常の携帯電話充電機能であるので、説明を省略する。
 また、制御部が行う機能は、通常のマイコンによる情報処理機能であり、通常のプログラミングにより実現可能な設計事項であるので、詳細な説明は省略する。基本的には、制御部は、Gリモコン2、携帯電話3、およびAV機器5から入力された信号を識別する信号識別部と、識別された信号をどのように処理すればよいかが予め定義されたテーブルやプログラムが記憶された記憶部と、信号識別部が識別した信号を用いて、記憶部を検索し、定められた処理を判断する処理判断部と、処理判断部の判断に従い、入力されたデータ(映像データ、音声データ等を含むコンピュータで処理可能なデータ)の加工・処理等を行う処理部と、処理部の処理結果を、適切な出力先(上記の各通信部)に出力する出力部とから構成される。
 なお、下記適用例にあるように、カメラを備えてもよい。その場合、制御部(処理部)は、外部の映像をカメラを介して取得し、取得画像を処理し、携帯電話3および/またはAV機器5に出力する。

 <システム構成の変形例>
 上記システム構成では、Gリモコン2がクレードル4と通信する構成とした為、携帯電話3自体には、Gリモコン2との通信手段を備える必要がないという利点があった。
 しかし、現在流通している携帯電話3では、ブルートゥースを利用する携帯電話3bが少なからず存在する為、図2に示すように、Gリモコン2と携帯電話3bとが直接通信する構成としてもよい。
 この構成を用いることにより、クレードル4bにおいて、Gリモコン2との通信を行うための通信手段を省略することが出来るため、そのぶん、クレードル4の製造コストを低減させることが出来る。

 <適用例1:AV機器制御>
 ユーザが、Gリモコン2を用いて、AV機器5を制御する方法を説明する。
 まず、ユーザは、ペーパーコントローラ1の、テレビジョン受像機5の電源をONにするコマンドを意味するアイコンを、Gリモコン2でタッチする。
 Gリモコン2は、タッチ位置のドットパターンを含んだ画像を読み込み、ドットパターンを抽出し、そのドットパターンを、テレビジョン受像機5の電源をONにするコードに復号する。
 Gリモコン2は、次に、復号したコードをクレードル4に送信する。
 クレードル4は、Gリモコン2から受信したコードを、携帯電話3に渡すか、直接、テレビジョン受像機5に送信する。
 携帯電話3は、クレードル4からコードを渡された場合は、予め決められた処理を行った後、再度コードをクレードル4に渡してもよい。
 クレードル4は、コードをテレビジョン受像機5に送信する。
 コードを受信したテレビジョン受像機5は、通常のリモコンによる電源ONと同じように、電源が入る。
 上記の説明では、電源ONの場合を説明したが、電源OFF、テレビジョン受像機5の入力切り替え、TV番組の選局等の指示も同様である。
 Gリモコン2から直接、テレビジョン受像機5に制御コードを送っても良いが、間に、クレードル4や携帯電話3を介在させることにより、コードの意味の変換など、様々なコードの変換処理を行うことが出来る。

 <適用例2:カラオケ>
 Gリモコン2にマイク(音声入力手段)を付け、マイクにより入力された音声も、携帯電話3に、直接、または、クレードル4を介して送信される様に構成し、携帯電話3上でカラオケ機能を実行する様に構成することにより、携帯電話によるカラオケを実現させることが出来る。
 例えば、ユーザは、選曲にあたり、手元の印刷された曲リストを参照しながら、Gリモコン2を用いて選曲を行い、その後、Gリモコン2のマイクを用いて、歌を歌う。
 携帯電話3から出力された映像と歌詞とは、AV機器5に出力され、マイクに入力されたユーザの声も、少なくともGリモコン2およびクレードル4を介して、AV機器5から出力される。
 ユーザは、出力された映像と歌詞とをTVモニタ5上で視認しながら、カラオケを楽しむことが出来る。

 <適用例3:音声認識によるデータ入力>
 Gリモコン2にマイクを付け、マイクにより入力された音声情報を、音声認識処理により、携帯電話3において処理される、通常の操作・制御指示および/または入力データとすることが出来る。携帯電話3において入力データを処理するとは、携帯電話3上において実行されるプログラムが入力されたデータを処理する場合と、携帯電話3を制御するための指示として入力されたデータが解釈されその指示が実行される場合とを含む。
 この場合、例えば「てれびでんげんおん」という音声情報は、他の入力手段である、ペーパーキーボードや、ペン手書き入力等からの「テレビ電源ON」という文字列が入力された場合と同じように、携帯電話3において処理され、携帯電話3からクレードル4を介して、AV機器5であるテレビジョン受像機5の電源ONの指示として、テレビジョン受像機5に送信される。
 なお、Gリモコン2が音声認識処理手段を備えている場合は、処理後の文字列がクレードル4または携帯電話3に送られる。クレードル4が音声認識処理手段を備えている場合は、音声情報が、Gリモコン2からクレードル4に送られ、クレードル4において、文字列に変換後、携帯電話3に送られる。携帯電話3が音声認識処理手段を備えている場合は、音声情報が、Gリモコン2から、直接、または、クレードル4を介して、携帯電話3に送られ、携帯電話3において、文字列に変換され、処理される。

 <適用例4:テレビ電話>
 現在の携帯電話3は、テレビ電話機能を有するので、電話相手からの映像および音声を、クレードル4を介して、テレビジョン受像機5から出力させ、こちらからの音声を、Gリモコン2の備えたマイクから入力し、こちらからの映像を、携帯電話3のカメラまたはクレードル4に設けたカメラから入力することが出来る。
 相手の映像を大きなモニタ上で見ることが出来、相手の音声を性能のよいスピーカーで聞くことが出来、こちらの音声を持ちやすいマイクで入力することが出来、こちらの映像を固定されたカメラにより撮影することが出来るので、テレビ電話の入出力部分の質を向上させることが出来る。
 なお、こちらからの映像を撮影する為には、携帯電話3のカメラを使用する場合と、クレードル4に取り付けたカメラを使用する場合とがある。携帯電話3の機種によっては、クレードル4上に載置した際に、カメラの撮影方向が適切にユーザを捕らえられない場合があり、このような場合にクレードル4にカメラを設けると最適なTV通話を行うことが出来る。

 <適用例5:AV機器から携帯電話への入力>
 AV機器5において再生されるマルチメディアコンテンツは、クレードル4を介して、携帯電話3に送信されてもよい。携帯電話3は、音楽プレーヤとしての機能を持つものもあるので、AV機器5からコンテンツを移すことにより、コンテンツを携帯することが出来る。

 <適用例6:AV機器自動制御>
 クレードル4をAV機器5と接続しておくことにより、クレードル4に自動制御機能を持たせれば、自動的にAV機器5を制御することが出来る。

 <適用例7:クレードルからGリモコンへの送信>
 クレードル4からGリモコン2へのデータ等送信機能があれば、送信されたデータに基づいた、Gリモコン2の制御等が行える。

 <適用例8:ワンセグ>
 携帯電話3がワンセグ放送を受信できるものであれば、クレードル4を介して、映像をAV機器5から出力させることが出来る。ビデオに関しても同様である。

 <適用例9:携帯電話オペレーション>
 Gリモコン2とペーパーコントローラを用いることにより、全ての携帯電話オペレーションを、携帯電話3をクレードル4に載置したまま行うことが出来る。

 <適用例10:オンデマンドサービス>
 AV機器5のモニタ画面は大きいので、携帯電話3のオンデマンドサービスも快適に利用することが出来る。Webの閲覧、携帯電話に格納された写真・動画や音声の視聴・閲覧、ゲームのプレイ、ショッピングなども同様である。

 <適用例11:地図との連動>
 媒体1として、XY座標値が記録された地図を用いることにより、地図と携帯コンテンツとを連動させ、さらに大画面モニタ等で楽しむことが出来る。

 <適用例12:文字認識による入力>
 図23に示すように、ドットパターンが予め印刷された用紙を用いて、ペン型のGリモコン2により、用紙上に文字を描き、文字の軌跡を表すXY座標値を読み取ることにより、手書き入力を行うことが出来る。

 <適用例13:キーワード検索>
 ペーパーコントローラや、TVガイドから、「メロドラマ」や「スポーツ番組」などのキーワードを指定することにより、自分の好みに合った番組を検索したり、録画予約したりすることが出来る。
 放送時間や、日時による検索が出来る構成でもよい。

 <適用例14:TV画面自動切り替え・自動ON>
 クレードル4は、ユーザがTV番組の視聴中に、携帯電話3への着呼により、また、携帯電話3による信号の検知により、モニタ画面を、視聴中のコンテンツの表示から携帯電話3の出力するコンテンツの表示へ、自動的に切り替える構成でもよい。クレードル4からAV機器5への指示は、IEEE1394規格や赤外線を用いることが出来る。
 切り替えて表示するコンテンツは、予め携帯電話3に保存されていたものでもよいし、予めテレビジョン受像機5に保存されていたものでもよいし、切り替え時に選択された新しいチャンネルを用いて携帯電話3またはテレビジョン受像機5が受信したコンテンツでもよい。
 また、クレードル4は、テレビジョン受像機5の電源がOFFの場合でも、携帯電話3への着呼により、自動的にテレビジョン受像機5の電源がONになり、モニタ画面に携帯電話3からの出力が表示される構成でもよい。
 この様な構成とすることにより、災害情報受信時の即時切り替えや、テレビジョン受像機5など、大音量を再生可能なAV機器5からの、大音響によるアラームの発報などを行うことが出来る。
 固定カメラや大型スピーカーを備えた構成であれば、独居老人の安否確認等に利用することも出来る。固定カメラであれば、老人が不用意に移動してしまうこともなく、また大型スピーカーがあれば、耳の遠い老人に対しても大音量を用いて、情報を伝達することが出来る。
 地方の両親が、都会に出てきて一人暮らしをしている子供を起こすために、朝電話をかけ、その着信がAV機器5を介して大音響のアラームとなることにより、確実に遅刻を防止するという用途にも適用可能である。

 <適用例15:ID付きGリモコンの複数利用>
 IDを割り当てた、複数のGリモコン2を用いることにより、複数のユーザそれぞれに利用環境をカスタマイズすることが出来る。
 家族全員が、各自のGリモコン2をマイリモコンとして持ち、各Gリモコンに割り当てられたIDを用いて、優先順位を付けて処理する事により、チャンネル争いにおいて、常にお父さんの選択が優先されるようにすることが出来る。
 地上デジタル放送などの、視聴者参加型番組では、各自が、クイズやQ&Aにおいて、「はい」、「いいえ」、「その他」の回答を入力することが出来る。
 個人情報の入力を行う際に、割り当てられたIDと、携帯電話固有のIDとの照合を行うことにより、診療等においても応用することが出来る。
 集会所でアンケートをとるような用途にも向いている。

 <適用例16:カーナビゲーションシステム>
 上記の適用例を組み合わせた実施形態として、カーナビゲーションシステムが考えられる。この場合、AV機器5として、カーナビゲーションシステム5がGリモコン2により制御される。また、カラオケシステムとしても利用出来る。もちろん音声認識によるデータ入力も可能である。テレビ電話は、運転時は、ドライバー以外が可能とすればよい。
 カーナビゲーションシステムに記録された、走行データや周辺施設情報を携帯電話へ入力する構成でもよい。また、予め携帯電話にナビゲーションに必要な情報を入力しておき、その携帯電話をクレードル4に装着することにより、カーナビゲーションシステム5へのデータ入力を効率化することも出来る。携帯電話3により受信したワンセグの放送内容を、カーナビゲーションシステム5の画面に出力する構成でもよい。
 冬の朝に、クレードル4に載置された携帯電話3に電話をかけることにより、AV機器5に接続されたエンジンを始動させ、暖気しておくことも考えられる。
 Gリモコン2を用いて大きく印刷されたペーパーコントローラをタッチし、システム5からの応答は音声で行うことにより、運転の妨げにならないように、システム5を制御することも出来る。
 自動車にカーナビゲーションシステムが予め搭載された構成以外に、携帯電話3上において実現されたナビゲーションシステムを、自動車に備えられたモニタ5に接続する構成でもよい。この場合、高価なカーナビゲーションシステムを、あまり使用頻度が高くない自動車に装備する場合に較べ、携帯電話3は容易に携帯できるので、ナビゲーションシステムの利用頻度を上げることが出来る。
 なお、クレードル4の形状は、自動車のダッシュボードの形状として、携帯電話3をダッシュボードに差し込むことにより載置する構成としてもよい。

 <その他>
 上記説明では、携帯電話を例に説明したが、本発明は、携帯電話に限らず、通信機能を有する、PDAなどの携帯機器に対しても有効である。
 また、大画面モニタを備えたAV機器5を例に説明したが、書斎等において、中規模程度のモニタを接続し、PCの代わりに携帯電話3を用いる構成でもよい。
 本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。

<手書き入力>
 また、図3は、本発明にかかるGリモコン2を用いた手書き入出力システムの使用状態の一例を示す外観図である。同図によれば、媒体1にGリモコン2を用いて書き込みをすると、書き込んだとおりの文書がディスプレイ6に表示される。これは、Gリモコン2が、書き込んだ軌跡上のドットパターンを撮像して、パーソナルコンピュータ8が解析する(必要に応じてサーバ7にアクセスする)ことにより、実現する。ただし、パーソナルコンピュータ8がGリモコン2に内蔵されていてもよい。
<ドットパターン>
 以下に、本発明にかかる手書き入出力システム1において用いるドットパターンについて、図4~図11を用いて説明する。
<ドットパターンの説明GRID1>
 図4~図11は本発明において媒体1に形成されるドットパターンの一例であるGRID1を示す説明図である。
 なお、これらの図において、縦横方向の格子線は説明の便宜のために付したものであり実際の印刷面には存在していない。ドットパターン101を構成するキードット102、情報ドット103、基準格子点ドット104等は撮像手段であるGリモコン2が赤外線照射手段を有している場合、当該赤外光を吸収する不可視インクまたはカーボンインクで印刷されていることが望ましい。
 図4はドットパターン101の情報ドットおよびそれに定義されたデータのビット表示の一例を示す拡大図である。図5(a)、(b)はキードット102を中心に配置した情報ドット103を示す説明図である。
 ドットパターンを用いた情報入出力方法は、ドットパターン101の生成と、そのドットパターン101の認識と、このドットパターン101から情報およびプログラムを出力する手段とからなる。すなわち、ドットパターン101をGリモコン2に内蔵する撮像部7により画像データとして取り込み、まず、基準格子点ドット104を抽出し、次に本来基準格子点ドット104がある位置にドットが打たれていないことによってキードット102を抽出し、次に情報ドット103を抽出することによりデジタル化して情報領域を抽出して情報の数値化を図り、その数値情報より、このドットパターン101から情報およびプログラムを出力させる。たとえば、このドットパターン101から音声等の情報やプログラムを、情報出力装置、パーソナルコンピュータ、PDAまたは携帯電話等に出力させる。
 ドットパターン101の生成は、ドットコード生成アルゴリズムにより、数値情報を認識させるために微細なドット、すなわち、キードット102、情報ドット103、基準格子点ドット104を所定の規則に則って配列する。図4に示すように、情報を表すドットパターン101のブロックは、キードット102を基準に5×5の基準格子点ドット104を配置し、4点の基準格子点ドット104に囲まれた中心の仮想格子点105の周囲に情報ドット103を配置する。このブロックには任意の数値情報が定義される。なお、図4の図示例では、ドットパターン101のブロック(太線枠内)を4個並列させた状態を示している。なお、ドットパターン101は4ブロックに限定されず、上下・左右方向に、何度でも繰り返して配置されてもよいことは勿論である。
 基準格子点ドット104は、撮像部9でこのドットパターン101を画像データとして取り込む際に、その撮像部9のレンズの歪みや斜めからの撮像、紙面の伸縮、媒体表面の湾曲、印刷時の歪みを矯正することができる。具体的には歪んだ4点の基準格子点ドット104を元の正方形に変換する補正用の関数(X,Y)=f(Xn’,Yn’)を求め、その同一の関数で情報ドット103を補正して、正しい情報ドット103のベクトルを求める。
 ドットパターン101に基準格子点ドット104を配置してあると、このドットパターン101を撮像部9で取り込んだ画像データは、撮像部9が原因する歪みを補正するので、歪み率の高いレンズを付けた普及型のカメラでドットパターン101の画像データを取り込むときにも正確に認識することができる。また、ドットパターン101の面に対して撮像部9を傾けて読み取っても、そのドットパターン101を正確に認識することができる。
 キードット102は、図4に示すように、ブロックの四隅の角部にある4個の基準格子点ドット104を一定方向にずらして配置したドットである。このキードット102は、情報ドット103を表す1ブロック分のドットパターン101の代表点である。たとえば、ドットパターン101のブロックの四隅の角部にある基準格子点ドット104を上方に0.1mmずらしたものである。ただし、この数値はこれに限定されずに、ドットパターン101のブロックの大小に応じて可変し得るものである。
情報ドット103は種々の情報を認識させるドットである。この情報ドット103は、キードット102を代表点にして、その周辺に配置すると共に、4点の基準格子点ドット104で囲まれた中心を仮想格子点105にして、これを始点としてベクトルにより表現した終点に配置したものである。たとえば、この情報ドット103は、基準格子点ドット104に囲まれ、図5(a)に示すように、その仮想格子点105から0.1mm離れたドットは、ベクトルで表現される方向と長さを有するために、時計方向に45度ずつ回転させて8方向に配置し、3ビットを表現する。したがって、1ブロックのドットパターン101で3ビット×16個=48ビットを表現することができる。
 図5(b)は、図4のドットパターンにおいて、1個の格子毎に2ビットを有する情報ドット103の定義の方法であり、+方向および×方向にドットをずらして各2ビットの情報を定義している。これにより、本来48ビットの情報を定義できるが、用途によって分割して32ビット毎にデータを与えることができる。+方向および×方向の組み合わせによって最大216(約65000)通りのドットパターンフォーマットが実現できる。
 なお、これに限定されずに、16方向に配置して4ビットを表現することも可能であり、種々変更できることは勿論である。
 キードット102、情報ドット103または基準格子点ドット104のドットの径は、見栄えと、紙質に対する印刷の精度、撮像部9の解像度および最適なデジタル化を考慮して、0.05mm程度が望ましい。
 また、撮像面積に対する必要な情報量と、各種ドット102,103,104の誤認を考慮して基準格子点ドット104の間隔は縦・横0.5mm前後が望ましい。基準格子点ドット104および情報ドット103との誤認を考慮して、キードット102のずれは格子間隔の20%前後が望ましい。
 この情報ドット103と、4点の基準格子点ドット104で囲まれた仮想格子点との間隔は、隣接する仮想格子点105間の距離の15~30%程度の間隔であることが望ましい。情報ドット103と仮想格子点105間の距離がこの間隔より近いと、ドット同士が大きな塊と視認されやすく、ドットパターン101として見苦しくなるからである。逆に、情報ドット103と仮想格子点105間の距離がこの間隔より遠いと、隣接するいずれの仮想格子点105を中心にしてベクトル方向性を持たせた情報ドット103であるかの認定が困難になるためである。
 図4に示すように、1個のドットパターンは、4×4個のブロック領域で構成されたドットパターンであり、各ブロック内には2ビットの情報ドット103が配置されている。この情報ドット103のドットコードフォーマットの一例を示したものが図6である。
 図6に示すように、1個のドットパターン中には、パリティチェック、コード値、X座標、Y座標が記録されている。なお、フォーマットの詳細については後述する。
 図7は情報ドット103およびそこに定義されたデータのビット表示の例であり、他の形態を示すものである。
 また、情報ドット103について基準格子点ドット104で囲まれた仮想格子点105から長・短の2種類を使用し、ベクトル方向を8方向とすると、4ビットを表現することができる。このとき、長い方が隣接する仮想格子点105間の距離の25~30%程度、短い方は15~20%程度が望ましい。ただし、長・短の情報ドット103の中心間隔は、これらのドットの径より長くなることが望ましい。
 4点の基準格子点ドット104で囲まれた情報ドット103は、見栄えを考慮し、1ドットが望ましい。しかし、見栄えを無視し、情報量を多くしたい場合は、1ベクトル毎に、1ビットを割り当て、情報ドット103を複数のドットで表現することにより、多量の情報を有することができる。たとえば、同心円8方向のベクトルでは、4点の基準格子点ドット104に囲まれた情報ドット103で2の情報を表現でき、1ブロックの情報ドット16個で2128となる。
 図8は情報ドットおよびそこに定義されたデータのビット表示の例であり、(a)はドットを2個、(b)はドットを4個および(c)はドットを5個配置したものを示すものである。
 図9はドットパターン101の変形例を示すものであり、(a)は情報ドット6個配置型、(b)は情報ドット9個配置型、(c)は情報ドット12個配置型、(d)は情報ドット36個配置型の概略図である。
 図4に示すドットパターン101は、1ブロックに16個(4×4)の情報ドット103を配置した例を示している。しかし、この情報ドット103は1ブロックに16個配置することに限定されずに、種々変更することができる。たとえば、必要とする情報量の大小または撮像部9の解像度に応じて、情報ドット103を1ブロックに6個(2×3)配置したもの(a)、情報ドット103を1ブロックに9個(3×3)配置したもの(b)、情報ドット103を1ブロックに12個(3×4)配置したもの(c)、または情報ドット103を1ブロックに36個配置したもの(d)がある。
 <ドットパターンの説明 ディレクションドット>
 次に、ドットパターンの他の形態であるディレクションドットについて図10を用いて説明する。
 本ドットパターンは、ブロックの形状によって、ドットパターンの方向を定義したものである。図10(a)において、まず基準点201a~201eが配置されている。この基準点201a~201eを結ぶ線によってブロックの向きを示す形状(ここでは上方を向いた5角形)が定義されている。そして、この基準点に基づいて仮想基準点201f、201g、201hが配置され、この仮想基準点を始点として方向と長さを有するベクトル終点に情報ドット203が配置されている。このように、同図では、ブロックの向きを基準点の配置の仕方によって定義することができる。そしてブロックの向きが定義されるディレクションドットによって、ブロック全体の大きさも定義されることになる。また、このブロックは、上下・左右方向に、何度でも繰り返して配置されてもよいことは勿論である。
 なお、図10(a)においては、基準点201a~201eと情報ドット203は全て同一形状のもので説明したが、基準点201a~201eを情報ドット203よりも大きな形状としてもよい。また、この基準点201a~201eと情報ドット203とは識別可能であればいかなる形状としてもよく、三角形、四角形それ以上の多角形であってもよい。
 図10(b)は、ブロックの仮想格子点上に情報ドットがあるか否かによって、情報を定義したものである。
 なお、図10(c)は、図10(a)に示したブロックを縦横方向に2個ずつ連結したものである。
 本発明において媒体1に形成するドットパターンはGRID1に限らず、XY座標情報およびコード情報を定義したものであればよいものとする。
 たとえば、特許第3766678号(GRID2)、特許第3858051号(GRID3)、特許第3858052号(GRID4)を用いることができる。
 <ドットパターンのフォーマットの説明>
 図11は、本発明において媒体1に形成されるドットパターンのフォーマットについて説明する図である。
 同図(c)に示すように、ドットパターンは、4×4個のブロック領域で構成されたドットパターンであり、このブロック内でC1-0~C31-30に区画されている。各領域のドットコードフォーマットを示したものが(a)および(b)である。
 同図(a)は、ページコードとX座標とY座標が登録されているフォーマットである。ページコードとは、媒体1が冊子状になっている場合等において、媒体1のページ数を意味するものであり、X座標およびY座標は、それぞれ、媒体上における位置(座標値)を意味するものである。これにより、ユーザがGリモコン2で媒体1を読み取ると、その媒体のページ数および読み取った箇所の座標位置が一度の読み取り操作で同時に認識される。
 同図(b)は、ページコードとアクションコードとX座標とY座標が登録されているフォーマットである。アクションコードとは、操作指示を意味するものである。例えば、「拡大」「縮小」等の操作を意味するもので、主に後述するアイコン領域に用いられるドットパターンに含まれている。
 このように、本発明のドットパターンは、ページコードやアクションコード等、種々のコード情報とXY座標を一つのフォーマットに登録することができる。また、その他にも、XY座標のみ、あるいはコード情報のみを登録することもでき、柔軟性に富んだフォーマットが可能である。
<撮像部>
 図12~図15は、手書き入出力システムに用いる撮像部9を説明する図である。
 なお、撮像部9は人が手に持つのに適した大きさ、形状であることが好ましく、中でも図12のようにペン型の形状をしていることが最も好ましい。
 同図(a)はペン型の形状をした撮像部9の最も基本的な実施形態を示す図である。かかる実施形態においては、指示用突起部10、送信部11が設けられており、図示しないC-MOSセンサ等が概ねペンの軸線上に内蔵されている。送信部11は撮像部9が赤外線通信、無線通信等の方法を用いて他の部材に信号を送信するためのものであり、説明の便宜を図るため図示したが、実際には必ずしも外観上見える位置に設ける必要はない。
 同図(b)はペン型の形状をした撮像部9の他の実施形態を示す図である。かかる実施形態においては、ユーザによる操作を受け付ける2つのボタンが設けられている。かかる2つのボタンは送信ボタン12と、再送信ボタン13であり、ユーザは撮像部9から他の部材に信号を送るようボタン操作により指示することができる。ここで、再送信ボタン13とは、送信ボタン12による信号の送信が遮蔽物の存在等により受信先の部材へ送信することができなかった場合に同じ信号を再度送信するのに用いる。
 同図(c)はペン型の形状をした撮像部9の他の実施形態を示す図である。かかる実施形態においては、ユーザによる音声入力を受け付けるマイク14と、音声再生ボタン15がさらに設けられている。マイク14は、後述する音声認識に用いる音声を収録するために用い、音声再生ボタン15は、後述する音声ガイドを再生するために用いる。
 同図(d)はペン型の形状をした撮像部9の他の実施形態を示す図である。かかる実施形態においては、指示用突起部10の内部空間にペン16が格納されており、ペン格納ボタン17を押すことにより、ペン16が出る。
 図13(a)は、撮像部9の実施例の一つであるGリモコン2の先端部を示す断面図である。かかるGリモコン2は、内部に中空部が形成され、その先端に開口部を有するライトガイド18と、このライトガイド18の開口部を臨む位置に配置されたレンズ19と、このレンズ19と同一面上に配置され、ドットパターンが形成された媒体面に所定波長の光を照射する光源としてのLED20(照射部)と、レンズ19から後退した位置に配置されたC-MOSセンサ21(撮像素子)と、さらに後退した位置にPCB22とそれに設置される図示しないCPUとを備えている。ライトガイド18の中空部は、レンズ19から開口部に向かって次第に大径となるテーパ状に形成されている。ここで、CPUは先述のドットパターン解析部、軌跡認識部、処理命令部、情報処理部、のいずれかまたは全ての役割を持つ。
 ライトガイド18は、透明または乳白色の樹脂製であり、その内部が導光路として機能する。LED20からの照射光は、ライトガイド18の内部を進行し、前記開口部より媒体1に対して照射される。ライトガイド18が乳白色の樹脂製である場合は、LED20からの照射光は、ライトガイド18内を進行する際、適度に拡散されるので、開口部から媒体1を照射する光をより均一にすることが出来る。
<LEDの発光タイミングの制御>
 同図(b)は時間毎のLED20の発光タイミングを示す図である。LED20は所定のタイミング毎に瞬間的に所定強度、発光して、媒体1を露光する。C-MOSセンサ21は媒体1からの反射光を撮像し、画像データとしてドットパターン解析部へ送信する。
 同図(c)は時間毎のC-MOSセンサ21の素子の反応状態を示す図である。C-MOSセンサ21の素子にはLED20が所定強度、発光して媒体1を露光した瞬間の媒体1の残像が焼き付けられる。ここで、所定時間t
とは撮像素子の残像が消えるまでの時間内で、ドットパターン解析部による解析可能な残像状態を保持するのに必要とする時間を示している。
 LED20が発光していた時間tが所定の時間α以下である場合、同図(d)に示すとおり、C-MOSセンサ21の素子にはドットの残像がぼけることなく焼き付けられるため、この残像を画像データとしてドットパターン解析部へ送信する。この場合、送信は素子に残像が残っている時間tlの間に行う。
 一方、LED20が発光していた時間tが所定の時間αを大きく超える場合、同図(e)に示すとおり、C-MOSセンサ21の素子にはドットの残像がぼけて焼き付けられ、正しい数値を読み取ることができない。
 かかる撮像方法は、C-MOSセンサを用いる場合において特に有効であるが、上記の撮像方法に代えて、CCDカメラを用いても問題はない。
 図14により、本発明に用いる、光制御部およびドットパターン解析部の働きについて説明する。
 同図(a)は光制御部によるLED20の発光タイミング、および撮像素子によりドットパターンを撮像して記憶素子に送信するタイミング、およびドットパターン解析部による画像データの解析タイミングの第一のパターンを説明する時系列である。第一のパターンにおいては、発光、撮像、解析が順に行われ、解析が終了すると、所定時間tsが経過するまで次の発光n+1は行われない。ここで、所定時間tとは撮像素子がドットパターンの撮像・送信・解析に必要とする時間の予想値のうち、最大の値を予想撮像・送信・解析時間として定義したものである。
 同図(b)は光制御部によるLED20の発光タイミング、および撮像素子によるドットパターンの撮像・送信タイミング、およびドットパターン解析部による画像データの解析タイミングの第二のパターンを説明する時系列である。第二のパターンにおいては、解析が終了すると、光制御部は解析の終了を検知して、直ちに次の発光n+1行われ、次のドットパターンの撮像n+1、解析n+1が行われる。
 同図(c)は光制御部によるLED20の発光タイミング、および撮像素子によるドットパターンの撮像・送信タイミング、およびドットパターン解析部による画像データの解析タイミングの第三のパターンを説明する時系列である。第三のパターンにおいては、タスク処理または光制御部およびドットパターン解析部を複数備えることにより、解析n-1と同時に次の解析のためのドットパターンの撮像を行い、解析n-1が終了すると直ちに発光n+1が行われ、続いて既に撮像において撮像された画像データの解析が行われる。なお、さらに、発光n+1と同時に解析を開始してもよいが、LED20の発光時間は極めて短いため、LED20が発光してからドットパターン解析部が画像データの解析を終えるまでの合計時間には殆ど変化がない。
<ドットパターン解析部>
 ドットパターン解析部は、前述のGRID1におけるドットパターンを用いた情報の入出力方法に従い、画像データをコード解析することにより、ドットパターンが定義するXY座標情報およびコード情報を求める。
 本発明においては、ユーザが撮像部9により媒体上に書き込んだ(トレースした)軌跡をドットパターン解析部が順次コード解析するため、XY座標情報およびコード情報はこの軌跡を表すものである(軌跡情報)。
<軌跡認識部>
 軌跡認識部は、軌跡情報の変化に基づき、媒体上に書き込まれた文字、図形を認識する。
 軌跡認識の方法は、一般的なOCR(光学的文字読取装置)のように、文字、図形をグラフィックとして考え、データベース内の文字、図形のXY座標のパターンを参照することにより行う方法である。
 ここで、本発明においては特に、コード情報によって書き込み領域に書き込む内容を予め指示しておくことができる。すなわち、予め分類された文字および/または図形情報パターンテーブルを参照することで、軌跡情報を高精度で認識することが可能である。具体例としては、予めアラビア数字のみを記載することを指示しておけば、軌跡認識部はアラビア数字のテーブルのみを参照するため認識率は高まる。認識ができない場合は、通常通りデータベース内の全ての文字、図形を参照すればよい。
 さらに、上記の軌跡認識を行った上で、書き込み領域に書き込まれた文字および/または図形、もしくは1または複数の文字からなる語句の、意味情報を、コード情報に対応する予め定義された意味情報コードテーブル(辞書)を参照することで、意味情報コードに変換することもできる。すなわち、軌跡認識部はたとえば「東京都文京区」という書き込みがされた場合、「東」「京」「都」「文」「京」「区」と、まず一文字ずつパターン認識を行うが、さらに、意味情報コードテーブル(辞書)を参照して、「東京都」に予め対応するものとして定義された意味情報コードと、「文京区」に予め対応するものとして定義された意味情報コードに変換することにより、情報処理部は「東京都」「文京区」という地名が入力されたものと認識することができる。
 また、意味情報コードテーブル(辞書)を参照することは、文字のパターン認識を補助することにもなる。たとえば「東京」の「東」の文字をユーザが汚く書いたために、ユーザが「東」と書いたのか「車」と書いたのか軌跡認識部が認識することが困難である場合、意味情報コードテーブルにおいて「東京」という熟語が定義されており、「車京」という熟語が定義されていなければ(「車京」という熟語は通常存在しない)、ユーザは「東」という文字を書いたものとして軌跡認識部9は認識をすることができる。
<処理命令部>
 処理命令部は、軌跡認識部が認識した情報に基づく処理命令を、軌跡情報とともに情報処理部に対して送信する。
 既に説明した、媒体面に印刷したドットパターンが定義する、ページコードに基づく頁を特定する命令、特定コードに基づくある書き込み領域を特定する命令、アクションコードに基づく種々の命令は、処理命令部が実際に情報処理部に対して行う。
 また、処理命令部は、詳細は後述するが、手書き入出力用アプリケーションにおける各種のオペレーションの実行を情報処理部に対して命令する。
<情報処理部>
 情報処理部は、手書き入出力システムが行う処理命令を受けて、各種の処理を実行する。
<サーバ>
 手書き入出力システムは、必要に応じて各種の情報を記録したサーバ7にアクセスしてもよい。
<軌跡認識用サーバ>
 サーバ7には、たとえば軌跡認識用の情報を記憶することができる。一般的なOCR(光学的文字読取装置)で採用されているように複数の文字および図形にXY座標パターンが定義づけられて記憶されている。
 また、文字および図形には、これらを分類するための分類コードが定義づけられて記憶されている。
 さらに、文字および図形には、意味情報コードテーブル(辞書)を参照することにより、1または複数の文字からなる語句または図形、もしくはこれらの組み合わせを出力するための意味情報コードが定義づけられて記憶されている。
 手書き入出力システム1においては、XY座標情報のみならずコード情報を用いて書き込み領域を特定することができるため、書き込み領域の量(数)が膨大であっても、容易に管理することができる。特に、誰もが利用できる共有のグローバルサーバに書き込み情報を記憶する場合に極めて有効である。
<その他のサーバ>
 サーバ7には軌跡認識用の情報以外にも、音声、文書、画像、動画、アプリケーション、その他の様々な情報を記憶することができることは説明するまでもない。たとえば手書き入出力用アプリケーションを記憶することができる。すなわち、情報処理部が手書き入出力用アプリケーションを持たないとき、サーバ内を検索して、サーバ上の手書き入出力用アプリケーションを実行することができる。ただし、サーバ上の手書き入出力用アプリケーションを優先して実行してもよい。
 なお、サーバ7に代えて、他の情報処理部の手書き入出力用アプリケーションを実行してもよい。
 当然ながら、サーバ7は上記の実施例以外にも形態を種々変更して実施することができるものとする。
<書き込み操作>
 以下、本発明にかかるGリモコン2を用いた手書き入出力システムにおける、書き込み操作について説明する。
 書き込み操作は、入力しようとする文字または図形を、撮像部9を用いて媒体面の書き込み領域に書き込むことにより行う。
 撮像部9は、撮像部9が媒体面を移動している間、所定の時間間隔において書き込み領域に重畳的に印刷されたドットパターンを撮像する。後の手順は既に説明したとおりである。
 以下、手書き入出力システムが実行する各オペレーションについて説明する。
<文字および図形の認識方法>
 図15は本文の文字を手書き入力する第一のオペレーションを説明するイメージ図である。
 同図(a)のように、撮像部9を用いて書き込み領域に文字を書くと、同図(b)のように、撮像部9は軌跡上のドットパターンを順次撮像して、ドットパターン解析部はXY座標情報とコード情報からなる軌跡情報を取得する。
 なお、説明の便宜のため同図(b)においては軌跡上のドットパターンの撮像位置の間隔は広くとってあるが、実際にはもっと狭い。
 同図(c)のように、軌跡情報に基づいて認識を行った結果に基づいて、情報処理部は第一のオペレーションを実行し、ディスプレイ6に結果を出力する。
 同図(d)のように、図形を認識する場合も、文字を認識する場合と何ら認識方法に変化はなく、同図(e)のように認識結果がディスプレイ6上には表示される。
 ただし、文字および図形の認識を行わず、ドットパターン解析部が求めたXY座標情報をそのまま入出力してもよい。この場合、手書き入出力システムはペンタブレットとして機能する。

<ボイスメールシステム>
 図16から図22は、本発明におけるGリモコン2を用いたボイスメールシステムについて説明するものである。
 図16は、本実施形態におけるネットワーク構成図である。本発明のボイスメールシステムにおいては、パーソナルコンピュータ8がインターネット等のネットワークを介して他のパーソナルコンピュータ8と接続されており、データの送受信が可能となっている。そしてこれらのパーソナルコンピュータ8は、ブルートゥース等の近距離無線通信システムによって、Gリモコン2との通信が可能となっている。なお、Gリモコン2とパーソナルコンピュータとの通信はこのようなブルートゥースに限らず、赤外線通信、無線LAN、USBケーブルによる有線接続等いかなるものであってもよい。
 図17は、ユーザがボイスメールの登録、送受信等を行うときに用いるペーパーコントローラ23について説明した図である。
 ペーパーコントローラ23の左部には、音声の録音、再生、リンクを行うためのシンボルが印刷され、右側には、ボイスメールの送受信等を行うためのシンボルが印刷されている。
 図18は、ボイスメールデータベースについて説明した図である。
 同図は、Gリモコン2同士がブルートゥースインターフェース(I/F)を介して、ボイスメール制御部と通信を行いながらGリモコン2で入力されたボイスメール、すなわち音声データを送受信するシステムである。
 ボイスメール制御部は、ネットワーク接続可能な汎用のサーバまたはパーソナルコンピュータ8で構成されており、このサーバまたはパーソナルコンピュータ8に接続されたハードディスク装置にボイスデータ格納部が設けられている。
 ボイスデータ格納部には、受信用インデックステーブルと、送信用インデックステーブルが設けられている。ここで受信用インデックステーブルには、受信ID(発信元のアドレスまたは受信側Gリモコン2のID番号)とデータ格納アドレスとが関係付けられて登録されている。また、送信用インデックステーブルには送信ID(送信先のアドレスまたは送信先Gリモコン2のID番号)とデータ格納アドレスとが関係付けられて登録されている。
 すなわち、ボイスメール制御部は、そのボイスメール制御部が管理すべきGリモコン2のIDを受信用インデックステーブルに登録しておき、当該Gリモコン2に定義付けられた受信IDを宛先とするボイスメールを自身のボイスデータ格納部の受信用インデックステーブルに登録するようになっている。
 一方、ボイスメール制御部が管理するGリモコン2よりボイスメールが入力されたときには、送信用インデックステーブルに送信ID(送信先のアドレスや送信先のGリモコン2のID)を一旦登録しておく。その後、ボイスメール制御部は、定期的に送信用インデックステーブルにアクセスして、ここに未送信のボイスメールがある場合には、ネットワークインターフェース(NW I/F)およびネットワークを介してボイスメールデータを送信IDを管理する図示しないボイスメール制御部に対して送信する。
 図19は、Gリモコン2とパーソナルコンピュータ8(ボイスメール制御部)間でのデータの送受信について説明するフローチャートである。
 まず、通信可能エリアにGリモコン2があるかどうかを判断する(1901)。Gリモコン2が、パーソナルコンピュータ8の近傍に配置されると、ブルートゥース等の近距離無線通信システムにより、GリモコンIDがパーソナルコンピュータ8に送信される。このGリモコンIDが送信された場合には、通信可能エリアにGリモコン2があると判断する。
 次に、GリモコンIDが読み込まれたか否かを判断する(1902)。パーソナルコンピュータ8は、ブルートゥースI/Fを介してGリモコンIDを読み込む。
 次に、受信インデックステーブルに一致するIDがあるか否かを判断する(1903)。制御部は、ボイスデータデータベース内の受信インデックステーブルに、読み込んだGリモコンIDに一致するIDが存在するかどうかを判断する。受信IDが存在すると判断した場合には、受信IDに対応するデータ格納アドレスにアクセスし、受信データを読み出す(1904)。そして、読み出した受信データを、ブルートゥースI/Fを介してGリモコン2に転送し(1905)、本処理を終了する。
 一方、受信インデックステーブルに一致するIDがなかった場合には、Gリモコン2内に送信データがあるか否かを判断する(1906)。送信データがある場合には、送信データ、すなわち、送信先のアドレスとボイスデータを読み込み、データベース内の送信データインデックステーブルに登録する(1907)。登録が完了したら、本処理を終了する。
 図20は、ユーザ同士でボイスメールの送受信を行う具体例を示したものである。同図は図21にも示したように、ネットワーク上にボイスメール管理サーバが接続されて、ボイスメールを一元的に管理するシステムとなっている。
 ユーザAが、屋外でGリモコン2のマイクに向かって入力したい音声を発すると、Gリモコン2のマイクを介してそのメモリ内に、ボイスデータがデジタルデータとして蓄積される。
 次にユーザAは、ボイスメールの送信先を決定する。すなわち、ペーパーコントローラ23を用いて、送信先のアドレスを入力する。入力したアドレスは、Gリモコン2のメモリ内に登録される。
 ユーザAは、自宅や職場等の屋内に入り、ボイスメールの送信処理を行うときには、まずユーザは、ボイスメールをパーソナルコンピュータ8の近傍に配置する。すると、ブルートゥース通信機能により、パーソナルコンピュータ8は、Gリモコン2毎に定義された装置ID、すなわちGリモコンIDの読み込みを行う。次に、メモリに蓄積されたボイスデータ及びメールアドレスが、パーソナルコンピュータ8に送信される。
 パーソナルコンピュータ8(ボイスメール制御部)は、ボイスデータ及びメールアドレスを受信すると、モニタ(ディスプレイ装置)に「ボイスメール受信中」の表示を行う。そして、ボイスメール管理サーバに対して前記ボイスデータ及びメールアドレスを送信する。
 ボイスメール管理サーバは、受信したボイスデータ及びアドレスを、サーバ内のデータベースに登録する。そして、ネットワークI/Fを介して、ボイスデータを該当するメールアドレス宛てに送信する。ボイスメールを受信したパーソナルコンピュータ8は、モニタ(ディスプレイ装置)に「ボイスメール取得・送信」の表示を行う。そして、ブルートゥースI/Fを通じて、ボイスデータをユーザBのGリモコン2に送信する。Gリモコン2は、ボイスデータを受信すると、「ボイスメールが届いています」と、音声および/またはGリモコン2のモニタで、ユーザBに通知する。これによりユーザBは、ユーザAが送信したメッセージを受信する。
 図21は、パーソナルコンピュータ8(PC)にインストールされた制御プログラム(ボイスメールマネージャ)によって、ボイスメール管理サーバと連動しつつGリモコン2を使用する場合の例を示したものである。
 ユーザはCD-ROM、もしくはインターネットの配信サーバにアクセスしてダウンロードしたインストールプログラムをパーソナルコンピュータ8(PC)上で実行し、OS(オペレーティングシステム)上にボイスメールマネージャを常駐プログラムとして登録する。
 次に、Gリモコン2が、パーソナルコンピュータ8(PC)の近傍に配置されると、ブルートゥース等の近距離無線通信システムにより、パーソナルコンピュータ8(PC)にGリモコンIDが送信される。パーソナルコンピュータ8(PC)内の中央処理装置(CPU)は、ボイスメール管理サーバにおいて、GリモコンIDの認証を行う。すなわち、送信されたGリモコンIDが、当該パーソナルコンピュータ8(PC)を用いてデータの送受信をすることが可能なGリモコン2のIDであるかどうかの認証を行う。
 ここで、送受信可能なGリモコン2である場合には、パーソナルコンピュータ8(PC)内のボイスメール管理テーブル(ドットコード管理テーブル)を参照し、当該GリモコンID宛てに送信されたボイスメールが格納されているかどうかを確認する。
 ボイスメールが格納されている場合には、中央処理装置(CPU)は、そのボイスメールを読み出し、ブルートゥース等の近距離無線通信システムにより、Gリモコンに送信する。
 次に、パーソナルコンピュータ8から受信した(ダウンロードした)ボイスデータを当該Gリモコン2で再生することによって、受信者はボイスメールを聞くことができるようになっている。
 ボイスメール管理テーブル(ドットコード管理テーブル)にボイスメールが格納されていない場合には、インターネット上のボイスメール管理サーバを参照する。ここで、ボイスメール管理サーバのボイスメール管理テーブルに、当該GリモコンID宛てに送信されたボイスメールが格納されていれば、そのボイスメールを読み出し、パーソナルコンピュータ8(PC)内にダウンロードする。
 Gリモコン2を管理しているパーソナルコンピュータ8毎に必要なボイスメールがパーソナルコンピュータ8(PC)内にダウンロードされたときには、そのボイスメールとともに、そのボイスメールを起動するためのボイスメール管理テーブルの追加データ(ボイスデータ格納アドレス、ドットコード)もダウンロードされ、以後はパーソナルコンピュータ8内のボイスメール管理テーブルのみで管理されるようになっている。
 したがって、その後は前記と同一のGリモコンIDが送信された場合、再度インターネット上のボイスメール管理サーバにアクセスすることはなく、新たに追加されたデータを含むボイスメール管理テーブルに基づいて、パーソナルコンピュータ8のハードディスク装置(HD)内にダウンロードされたボイスメールを読み出すことになる。
 なお、Gリモコン2を使用した送信処理を行う場合には、パーソナルコンピュータ8は、自身が管理するGリモコン2が近傍に配置されたときは、当該Gリモコン2とのブルートゥース通信を行い、Gリモコン2のID(デバイスID)を読み込むとともに、当該Gリモコン2のメモリから蓄積されたボイスメールを読み込む。このとき、Gリモコン2での録音時にドットパターンをスキャンしたときのドットコードをデバイスIDに関係付けて登録しておく。
 そして、バッチ処理により、定期的に当該パーソナルコンピュータ8はボイスメール管理サーバへのアクセスを行い、当該ボイスメール管理テーブルのデータをボイスメール管理サーバに送信する。ボイスメール管理サーバでは、当該データを受信すると、このデータに基づいて自身のボイスメール管理テーブルを更新する。
 さらに、図39のようなペーパーコントローラ23を用いて、パーソナルコンピュータ8で受信された自分宛のボイスメールを再生したり、ダウンロードしたりすることができる。
 また、パーソナルコンピュータ8に対してボイスメールを作成・登録したり、アップロードすることができる。
 また、パーソナルコンピュータ8内のボイスメールとボイスレコーダのメモリの内容をシンクロナイズするモード(PCとシンクロ)のドットパターンが登録された領域も用意されている。

<その他の適用例>
 本発明の携帯電話用クレードル4は、載置された携帯電話の出力手段としてAV機器を使用するだけでなく、図24に示すように、AV機器5から出力された映像ないし音声の情報を記憶してもよい。
 また、本発明においては、図25に示すように、複数の携帯電話用クレードル4がLAN接続によりDLNAサーバ(Digital Living Network Alliance Server)に記録された情報を共有し、共有した情報はいずれのクレードルからでもAV機器へと出力することができるものとしてもよい。
 本発明の携帯電話用クレードル4は、図26に示すように、DLNAサーバを兼用してもよい。この場合、携帯電話用クレードル4はAV機器5の出力映像や携帯電話3の記録情報・出力情報を記録して、再生することができる。
 本発明の携帯電話用クレードル4は、図27に示すように、マウスやキーボードなどの入力用デバイスと通信して、携帯電話3への入力をすることができるものとしてもよい。
 本発明の携帯電話用クレードル4は、図28に示すように、USBメモリやSDカード等の外部記憶メディアと通信するポートを備えてもよい。この場合、携帯電話用クレードルはAV機器5の出力映像や携帯電話3の記録情報・出力情報を外部記憶メディアに記録し、再生することが可能である。
 本発明の携帯電話用クレードル4は、図29に示すように、プリンタと接続して、AV機器5の出力映像や携帯電話の記録情報・出力情報、クレードルの記録情報を印刷することができるものとしてもよい。
 本発明の携帯電話用クレードル4は、マイクとカメラを備え、TV電話、ボイスメールシステムを使用可能としてもよい。
 Gリモコン2とクレードル4との間の通信には、有線手段を用いてもよい。
 AV機器5は、ケーブルTVまたはIPTV用のセットトップボックス、もしくはオーディオ機器であってもよい。
 本発明において、携帯電話3が行なう全ての処理は、Gリモコン2または携帯電話用クレードル4から携帯電話3に対して送信された情報を、携帯電話3がサーバと通信して、サーバ上において情報を処理し、携帯電話3はサーバでの処理結果を受信するものとしてもよい。
 このような構成によれば携帯電話3は、サーバ上において処理された結果のみをサーバより受信して、クレードルを介してAV機器5に出力するだけでよい。
 ただし、情報処理を携帯電話3が行なおうと、サーバが行なおうと、本発明の技術的思想においては何ら変わりなく、両者ともに本発明の技術的範囲に含まれる。
 本発明をカーナビゲーションシステムに用いる場合は、図30に示すように、Gリモコン2により地図(媒体1)に重畳印刷されたドットパターンを読み取って、そのドットパターンが定義する緯度・経度などの行き先情報をカーナビゲーションシステムの入力形式に変換して携帯電話3からクレードル4を介してカーナビゲーションシステムに送信して登録できるようにしてもよい。
 なお、地図よりドットパターンを読み取る際は、地物が何もない領域をタッチする場合と、地物がある領域をタッチする場合とがある。
 地物が何もない領域をタッチする場合は、ドットパターンが定義する緯度・経度やXY座標値に基づいて行き先情報を登録するが、地物がある領域をタッチする場合は、地物の情報と関連付けられた緯度・経度に基づいて行き先情報を登録するのが通常である。
 ただし、地物がある領域をタッチする場合でも、地物の情報と関連づけられた緯度・経度によらず、そのタッチした領域の緯度・経度に基づいて行き先情報を登録してもよい。

<発明の概要>
 (1) 本発明に係る携帯電話用クレードルは、上記の課題を解決するために、媒体上の、情報または操作指示を関連付けたコードおよび/またはXY座標値を記録したドットパターンを読み取り、該情報をデータ送信するスキャナリモコンと共に用いられる携帯電話用クレードルであって、携帯電話を載置可能であり、載置された該携帯電話と通信し、該スキャナリモコンからのデータを受信することにより、該スキャナリモコンを該携帯電話の入力手段として機能させ、AV機器と通信し、該AV機器を制御することにより、該AV機器を該携帯電話の出力手段として機能させることを特徴とする。
 (2) また、本発明に係る携帯電話用クレードルでは、上記の課題を解決するために、前記携帯電話用クレードルは、載置された前記携帯電話を充電する機能を有することを特徴としてもよい。
 (3) また、本発明に係る携帯電話用クレードルでは、上記の課題を解決するために、前記スキャナリモコンと前記携帯電話用クレードルとの間の通信は、赤外線、ブルートゥース、微弱電波、または、他の無線手段により行われることを特徴としてもよい。
 (4) また、本発明に係る携帯電話用クレードルでは、上記の課題を解決するために、前記携帯電話用クレードルと前記AV機器との間の通信は、IEEE1394規格、赤外線、ブルートゥース、微弱電波、他の有線手段、または、他の無線手段により行われることを特徴としてもよい。
 (5) また、本発明に係る携帯電話用クレードルでは、上記の課題を解決するために、前記AV機器は、テレビジョン受像機であることを特徴としてもよい。
 (6) また、本発明に係る携帯電話用クレードルでは、上記の課題を解決するために、前記携帯電話用クレードルは、前記テレビジョン受像機に対し、電源ON/OFF、入力切り替え、TV番組選局等の制御指示を行うことを特徴としてもよい。
 (7) また、本発明に係る携帯電話用クレードルでは、上記の課題を解決するために、前記スキャナリモコンは、音声入力手段を備え、該音声入力手段により入力された音声情報は、直接または前記携帯電話用クレードルを介して、前記携帯電話に送信され、該携帯電話は、カラオケ機能を実行し、該カラオケ機能の実行により出力される映像および歌詞は、該音声情報と共に、前記AV機器に出力されることを特徴としてもよい。
 (8) また、本発明に係る携帯電話用クレードルでは、上記の課題を解決するために、前記スキャナリモコンは、音声入力手段と音声認識処理手段とを備え、該音声入力手段により入力された音声情報は、該音声認識処理手段により入力データおよび/または操作・制御指示などの情報に変換され、直接または前記携帯電話用クレードルを介して、前記携帯電話に送信され、該携帯電話において処理されることを特徴としてもよい。
 (9) また、本発明に係る携帯電話用クレードルでは、上記の課題を解決するために、前記スキャナリモコンは、音声入力手段を備え、前記携帯電話用クレードルは、音声認識処理手段を備え、該音声入力手段により入力された音声情報は、該携帯電話用クレードルに送信され、該音声認識処理手段により入力データおよび/または操作・制御指示などの情報に変換され、該携帯電話に送信され、該携帯電話において処理されることを特徴としてもよい。
 (10) また、本発明に係る携帯電話用クレードルでは、上記の課題を解決するために、前記スキャナリモコンは、音声入力手段を備え、前記携帯電話は、音声認識処理手段を備え、該音声入力手段により入力された音声情報は、直接または前記携帯電話用クレードルを介して、該携帯電話に送信され、該携帯電話において、該音声認識処理手段により入力データおよび/または操作・制御指示などの情報に変換され、処理されることを特徴としてもよい。
 (11) 本発明に係るTV電話システムは、上記の課題を解決するため、前記携帯電話用クレードルを用いる。
 (12) 本発明に係るカラオケシステムは、上記の課題を解決するため、前記携帯電話用クレードルを用いる。
 (13) 本発明に係るカーナビゲーションシステムは、上記の課題を解決するため、前記携帯電話用クレードルを用いる。
 (14) 本発明に係る携帯電話用クレードルは、上記の課題を解決するために、携帯電話を載置可能であり、載置された該携帯電話と通信し、AV機器と通信し、該AV機器を制御することにより、該AV機器を該携帯電話の出力手段として機能させる携帯電話用クレードルであって、該携帯電話により受信された、災害情報および/またはアラーム等の信号に基づき、電源ON、電源OFF、チャンネル選択等、該AV機器の制御を行うことを特徴とする。
 (15) 本発明に係る緊急情報通知システムは、上記の課題を解決するため、前記携帯電話用クレードルを用いる。

Claims (24)

  1.  媒体上の、情報または操作指示を関連付けたコードおよび/またはXY座標値を記録したドットパターンを読み取り、該情報をデータ送信するスキャナリモコンと共に用いられる携帯電話用クレードルであって、
     携帯電話を載置可能であり、載置された該携帯電話と通信し、
     該スキャナリモコンからのデータを受信することにより、該スキャナリモコンを該携帯電話の入力手段として機能させ、
     AV機器と通信し、該AV機器を制御することにより、該AV機器を該携帯電話の出力手段として機能させる
    ことを特徴とする携帯電話用クレードル。
  2.  前記携帯電話用クレードルは、
     載置された前記携帯電話を充電する機能を有する
    ことを特徴とした請求項1に記載の携帯電話用クレードル。
  3.  前記スキャナリモコンと前記携帯電話用クレードルとの間の通信は、
     赤外線、ブルートゥース、微弱電波、または、他の有線手段、他の無線手段により行われる
    ことを特徴とした請求項1または2に記載の携帯電話用クレードル。
  4.  前記携帯電話用クレードルと前記AV機器との間の通信は、
     IEEE1394規格、赤外線、ブルートゥース、微弱電波、他の有線手段、または、他の無線手段により行われる
    ことを特徴とした請求項1から3のいずれか一項に記載の携帯電話用クレードル。
  5.  前記AV機器は、
     テレビジョン受像機、ケーブルTVまたはIPTVのセットトップボックスである
    ことを特徴とした請求項1から4のいずれか一項に記載の携帯電話用クレードル。
  6.  前記AV機器は、
     オーディオ機器である
    ことを特徴とした請求項1から4のいずれか一項に記載の携帯電話用クレードル。
  7.  前記携帯電話用クレードルは、
     前記テレビジョン受像機に対し、
     電源ON/OFF、入力切り替え、TV番組選局等の、制御指示を行う
    ことを特徴とした請求項6に記載の携帯電話用クレードル。
  8.  前記スキャナリモコンは、
     音声入力手段を備え、
     該音声入力手段により入力された音声情報は、
     前記携帯電話用クレードルを介して、前記携帯電話に送信され、
     該携帯電話は、カラオケ機能を実行し、
     該カラオケ機能の実行により出力される映像および歌詞は、該音声情報と共に、前記AV機器に出力される
    ことを特徴とした請求項1から7のいずれか一項に記載の携帯電話用クレードル。
  9.  前記スキャナリモコンは、
     音声入力手段と音声認識処理手段とを備え、
     該音声入力手段により入力された音声情報は、
     該音声認識処理手段により入力データおよび/または操作・制御指示などの情報に変換され、
     直接または前記携帯電話用クレードルを介して、前記携帯電話に送信され、該携帯電話において処理される
    ことを特徴とした請求項1から7のいずれか一項に記載の携帯電話用クレードル。
  10.  前記スキャナリモコンは、
     音声入力手段を備え、
     前記携帯電話用クレードルは、
     音声認識処理手段を備え、
     該音声入力手段により入力された音声情報は、
     該携帯電話用クレードルに送信され、該音声認識処理手段により入力データおよび/または操作・制御指示などの情報に変換され、該携帯電話に送信され、
     該携帯電話において処理される
    ことを特徴とした請求項1から7のいずれか一項に記載の携帯電話用クレードル。
  11.  前記スキャナリモコンは、
     音声入力手段を備え、
     前記携帯電話は、
     音声認識処理手段を備え、
     該音声入力手段により入力された音声情報は、
     直接または前記携帯電話用クレードルを介して、該携帯電話に送信され、
     該携帯電話において、該音声認識処理手段により入力データおよび/または操作・制御指示などの情報に変換され、処理される
    ことを特徴とした請求項1から7のいずれか一項に記載の携帯電話用クレードル。
  12.  前記音声入力手段を用いることによりボイスメールシステムを前記携帯電話において実行する
    ことを特徴とする請求項8から11のいずれか一項に記載の携帯電話用クレードル。
  13.  請求項1から11のいずれか一項に記載の携帯電話用クレードルを用いたTV電話システム。
  14.  請求項8に記載の携帯電話用クレードルを用いたカラオケシステム。
  15.  前記媒体には、地図、写真、グラフィック、テキストが印刷され、
     該媒体には、さらに、地図、写真、グラフィック、テキストが示す行き先情報と行き先情報を関連付けたコードおよび/またはXY座標値を記録したドットパターンが重畳印刷されており、
     前記スキャナリモコンは該ドットパターンを読み取って前記携帯電話用クレードルに送信し、
     前記携帯電話は該携帯電話用クレードルより該ドットパターンを受信して該行き先情報に変換し、カーナビゲーションシステムに送信する
    ことを特徴とする請求項1から11のいずれか一項に記載の携帯電話用クレードルを用いたカーナビゲーションシステム。
  16.  前記携帯電話により受信された、災害情報および/またはアラーム等の信号に基づき、前記AV機器に対し、電源ON、電源OFF、チャンネル選択、該携帯電話に受信された災害情報または、関連する予め記憶された音声または映像の出力等の制御を行う
    ことを特徴とする請求項1に記載の携帯電話用クレードル。
  17.  請求項15に記載の携帯電話用クレードルを用いた緊急情報通知システム。
  18.  前記携帯電話は、前記スキャナリモコンからのデータを直接受信する
    ことを特徴とする請求項1に記載の携帯電話用クレードル。
  19.  前記スキャナリモコンは、
     媒体上に文字を描くことにより文字の軌跡を表すXY座標値を読み取り、
     該スキャナリモコン、前記携帯電話用クレードル、前記携帯電話、または該携帯電話と通信する文字認識用サーバのいずれかが文字認識を行なうことにより、
     文字認識の結果に基づく携帯電話への指示を行なう
    ことを特徴とする請求項1に記載の携帯電話用クレードル。
  20.  前記携帯電話用クレードルは、家庭内LANにより複数接続され、DLNAサーバに記憶した情報を共有し、いずれのクレードルからでも前記AV機器に出力可能な
    ことを特徴とする請求項1に記載の携帯電話用クレードル。
  21.  前記携帯電話用クレードルの少なくとも1つは前記DLNAサーバを兼用し、クレードルを介して出力される前記AV機器の出力映像、または携帯電話の記録情報・出力情報を記録し、再生する
    ことを特徴とする請求項20に記載の携帯電話用クレードル。
  22.  前記携帯電話用クレードルは、プリンターと通信し、
    クレードルを介して出力されるAV機器の出力映像ならびに携帯電話の記録情報・出力情報、クレードルの記憶情報の印刷を可能とした
    ことを特徴とする請求項1に記載の携帯電話用クレードル。
  23.  前記携帯電話用クレードルは、マウス、キーボード等の入力用デバイスと通信し、
    前記携帯電話への該入力用デバイスによる入力を可能とした
    ことを特徴とする請求項1に記載の携帯電話用クレードル。
  24.  前記携帯電話用クレードルは、
     外部記憶媒体と通信し、
    クレードルを介して出力される前記AV機器の出力映像、または携帯電話の記録情報・出力情報を記録し、再生する
    ことを特徴とする請求項1に記載の携帯電話用クレードル。
PCT/JP2009/001566 2008-04-04 2009-04-03 携帯電話用クレードル、tv電話システム、カラオケシステム、カーナビゲーションシステム、および緊急情報通知システム WO2009122756A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN2009801112961A CN101981941A (zh) 2008-04-04 2009-04-03 手机用支座、电视电话系统、卡拉ok系统、汽车导航系统及紧急信息通知系统
EP09728609.0A EP2268052A4 (en) 2008-04-04 2009-04-03 STATION FOR A MOBILE PHONE, VIDEO PHONE SYSTEM, KARAOKESYSTEM, AUTONAVIGATION SYSTEM AND EMERGENCY NOTIFICATION NOTIFICATION SYSTEM
US12/936,250 US8873722B2 (en) 2008-04-04 2009-04-03 Cradle for mobile telephone, videophone system, karaoke system, car navigation system, and emergency information notification system
JP2010505409A JP4691741B2 (ja) 2008-04-04 2009-04-03 携帯電話用クレードル、tv電話システム、カラオケシステム、カーナビゲーションシステム、および緊急情報通知システム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008-097875 2008-04-04
JP2008097875 2008-04-04
JP2008-300118 2008-11-25
JP2008300118A JP4385169B1 (ja) 2008-11-25 2008-11-25 手書き入出力システム、手書き入力シート、情報入力システム、情報入力補助シート

Publications (1)

Publication Number Publication Date
WO2009122756A1 true WO2009122756A1 (ja) 2009-10-08

Family

ID=41135156

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/001566 WO2009122756A1 (ja) 2008-04-04 2009-04-03 携帯電話用クレードル、tv電話システム、カラオケシステム、カーナビゲーションシステム、および緊急情報通知システム

Country Status (6)

Country Link
US (1) US8873722B2 (ja)
EP (1) EP2268052A4 (ja)
JP (1) JP4691741B2 (ja)
KR (1) KR20100138996A (ja)
CN (2) CN101981941A (ja)
WO (1) WO2009122756A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2372500A1 (en) * 2010-03-31 2011-10-05 Vodafone Holding GmbH Computing arrangement
CN102779144A (zh) * 2012-03-20 2012-11-14 北京捷通华声语音技术有限公司 一种手写控制、查询的方法和装置
CN103309445A (zh) * 2013-05-22 2013-09-18 蒋月琴 利用点编码的信息控制薄板
JP2014072866A (ja) * 2012-10-01 2014-04-21 Sharp Corp 端末装置、記録装置および再生装置
WO2014103035A1 (ja) * 2012-12-28 2014-07-03 株式会社レイトロン 音声認識デバイス
JP2014220006A (ja) * 2014-07-22 2014-11-20 グリッドマーク株式会社 手書き入出力システムおよび光学読取装置
JP2014232544A (ja) * 2014-07-22 2014-12-11 グリッドマーク株式会社 手書き入出力システムおよび光学読取装置
JP2016181311A (ja) * 2016-07-22 2016-10-13 グリッドマーク株式会社 手書き入力シート
WO2018105386A1 (ja) * 2016-12-09 2018-06-14 株式会社ソシオネクスト 中継装置

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101555063B1 (ko) * 2009-07-07 2015-09-23 삼성전자주식회사 이동단말기의 다중 화면 서비스를 위한 시스템 및 방법
US9003044B2 (en) * 2010-07-26 2015-04-07 T-Mobile Usa, Inc. Home hub for IP multimedia subsystem (IMS)/Web services interaction
CN102693612A (zh) * 2011-03-22 2012-09-26 昆盈企业股份有限公司 手持装置的远端控制装置及方法
US9736561B2 (en) * 2011-04-20 2017-08-15 Empire Technology Development Llc Smartpen configured for hands free audio recording
JP2013153346A (ja) 2012-01-25 2013-08-08 Funai Electric Co Ltd 遠隔操作システム
CN103248923A (zh) * 2013-04-09 2013-08-14 深圳市泰丰网络设备有限公司 一种机顶盒遥控器及机顶盒
KR102138034B1 (ko) * 2013-10-08 2020-07-27 삼성전자 주식회사 이동 단말기 및 이동 단말기 보조 장치 및 그 제어 방법
KR101770288B1 (ko) * 2014-01-17 2017-08-22 주식회사 쏠리드에듀 전자칠판 시스템 및 그의 제어 방법
JP2015187830A (ja) 2014-03-12 2015-10-29 パナソニックIpマネジメント株式会社 表示制御システム
CN104934832B (zh) * 2014-03-20 2017-09-22 比亚迪股份有限公司 移动终端的底座
CN104053057B (zh) * 2014-06-09 2019-02-19 青岛海信移动通信技术股份有限公司 一种硬件升级的方法、设备及系统
JP6117148B2 (ja) 2014-06-18 2017-04-19 富士フイルム株式会社 光学部材および光学部材を有するディスプレイ
JP6149006B2 (ja) 2014-06-18 2017-06-14 富士フイルム株式会社 反射フィルムおよび反射フィルムを有するディスプレイ
JP6528435B2 (ja) * 2014-08-11 2019-06-12 セイコーエプソン株式会社 クレードル、クレードルの制御方法、及び、制御システム
US9892628B2 (en) 2014-10-14 2018-02-13 Logitech Europe S.A. Method of controlling an electronic device
US20160105539A1 (en) * 2014-10-14 2016-04-14 The Regents Of The University Of Michigan Vehicle interface docking system for dsrc-equipped user devices in a vehicle
US9892634B2 (en) 2016-05-27 2018-02-13 Remotec Technology Limited Remote control docking station and system
US10101771B2 (en) * 2016-05-27 2018-10-16 Remotec Technology Limited Remote control docking station and system
US9922631B2 (en) * 2016-06-24 2018-03-20 Panasonic Automotive Systems Company of America, a division of Panasonic Corporation of North America Car karaoke
US20180122349A1 (en) * 2016-10-27 2018-05-03 Shane Blackburn System for vehicle karaoke
WO2018154946A1 (ja) * 2017-02-24 2018-08-30 シャープ株式会社 制御装置、端末装置、クレードル、通知システム、制御方法、および制御プログラム
CN108515922A (zh) * 2018-03-29 2018-09-11 朱小英 出租车自动抢单装置
DE102018209888A1 (de) * 2018-06-19 2019-12-19 Robert Bosch Gmbh Haltevorrichtung für eine Handrecheneinheit zum Ansteuern einer Maschine
JP7177803B2 (ja) * 2020-07-08 2022-11-24 シャープ株式会社 表示装置

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092543A (ja) * 2000-09-12 2002-03-29 Olympus Optical Co Ltd コード読取装置、記録媒体、電子機器、データ送受信システム、及びデータ送受信方法
JP2002187382A (ja) * 2000-12-21 2002-07-02 Olympus Optical Co Ltd 新聞紙、情報再生システム、及び、ネットワークを介した有料放送番組の視聴申請受付方法
JP2004030257A (ja) * 2002-06-26 2004-01-29 Hitachi Ltd 電子ペンを利用した医療情報入力システムおよびこれに用いられるプログラム
JP2005277632A (ja) * 2004-03-24 2005-10-06 Fuji Photo Film Co Ltd 携帯電話機用車載型クレードル装置、及び自動車、及び自動車のエンジン始動制御システム、及び携帯電話機
JP3706385B2 (ja) 2003-03-17 2005-10-12 健治 吉田 ドットパターンを用いた情報入出力方法
JP3766678B2 (ja) 2003-12-25 2006-04-12 健治 吉田 ドットパターンを用いた情報入出力方法
JP3771251B2 (ja) 2005-05-30 2006-04-26 本田技研工業株式会社 車両用シート構造
JP2006140554A (ja) * 2004-11-10 2006-06-01 Dainippon Printing Co Ltd サーバ、プログラム及び電子ペン用帳票
JP3858051B1 (ja) 2005-04-28 2006-12-13 健治 吉田 ドットパターンを用いた情報入出力方法
JP3858052B1 (ja) 2004-12-28 2006-12-13 健治 吉田 ドットパターンを用いた情報入出力方法
JP2008072420A (ja) * 2006-09-14 2008-03-27 Casio Hitachi Mobile Communications Co Ltd 携帯端末装置及びプログラム
JP2008097875A (ja) 2006-10-06 2008-04-24 Three M Innovative Properties Co コネクタアセンブリ
JP2008300118A (ja) 2007-05-30 2008-12-11 Yoshida Dental Mfg Co Ltd 微小孔焦点x線管および微小孔焦点x線管装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3649602B2 (ja) 1998-10-13 2005-05-18 シャープ株式会社 携帯電話機及び電子機器
US6512919B2 (en) * 1998-12-14 2003-01-28 Fujitsu Limited Electronic shopping system utilizing a program downloadable wireless videophone
US7274931B2 (en) * 2004-02-23 2007-09-25 Harris Arlene J Systems and methods for enhancing the provisioning and functionality of wireless instruments
JP2006033392A (ja) 2004-07-15 2006-02-02 Casio Comput Co Ltd 携帯端末機用充電器、携帯端末機用クレイドル装置及び携帯端末システム
JP2006180012A (ja) 2004-12-21 2006-07-06 Asuka Electron Kk ポータブル電子機器の無接点データ通信装置
WO2006123575A1 (ja) 2005-05-19 2006-11-23 Kenji Yoshida 音声情報記録装置
JP3830956B1 (ja) 2005-09-14 2006-10-11 健治 吉田 情報出力装置
US20090091530A1 (en) 2006-03-10 2009-04-09 Kenji Yoshida System for input to information processing device

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092543A (ja) * 2000-09-12 2002-03-29 Olympus Optical Co Ltd コード読取装置、記録媒体、電子機器、データ送受信システム、及びデータ送受信方法
JP2002187382A (ja) * 2000-12-21 2002-07-02 Olympus Optical Co Ltd 新聞紙、情報再生システム、及び、ネットワークを介した有料放送番組の視聴申請受付方法
JP2004030257A (ja) * 2002-06-26 2004-01-29 Hitachi Ltd 電子ペンを利用した医療情報入力システムおよびこれに用いられるプログラム
JP3706385B2 (ja) 2003-03-17 2005-10-12 健治 吉田 ドットパターンを用いた情報入出力方法
JP3766678B2 (ja) 2003-12-25 2006-04-12 健治 吉田 ドットパターンを用いた情報入出力方法
JP2005277632A (ja) * 2004-03-24 2005-10-06 Fuji Photo Film Co Ltd 携帯電話機用車載型クレードル装置、及び自動車、及び自動車のエンジン始動制御システム、及び携帯電話機
JP2006140554A (ja) * 2004-11-10 2006-06-01 Dainippon Printing Co Ltd サーバ、プログラム及び電子ペン用帳票
JP3858052B1 (ja) 2004-12-28 2006-12-13 健治 吉田 ドットパターンを用いた情報入出力方法
JP3858051B1 (ja) 2005-04-28 2006-12-13 健治 吉田 ドットパターンを用いた情報入出力方法
JP3771251B2 (ja) 2005-05-30 2006-04-26 本田技研工業株式会社 車両用シート構造
JP2008072420A (ja) * 2006-09-14 2008-03-27 Casio Hitachi Mobile Communications Co Ltd 携帯端末装置及びプログラム
JP2008097875A (ja) 2006-10-06 2008-04-24 Three M Innovative Properties Co コネクタアセンブリ
JP2008300118A (ja) 2007-05-30 2008-12-11 Yoshida Dental Mfg Co Ltd 微小孔焦点x線管および微小孔焦点x線管装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2268052A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2372500A1 (en) * 2010-03-31 2011-10-05 Vodafone Holding GmbH Computing arrangement
CN102779144A (zh) * 2012-03-20 2012-11-14 北京捷通华声语音技术有限公司 一种手写控制、查询的方法和装置
JP2014072866A (ja) * 2012-10-01 2014-04-21 Sharp Corp 端末装置、記録装置および再生装置
WO2014103035A1 (ja) * 2012-12-28 2014-07-03 株式会社レイトロン 音声認識デバイス
JPWO2014103035A1 (ja) * 2012-12-28 2017-01-12 株式会社レイトロン 音声認識デバイス
CN103309445A (zh) * 2013-05-22 2013-09-18 蒋月琴 利用点编码的信息控制薄板
JP2014220006A (ja) * 2014-07-22 2014-11-20 グリッドマーク株式会社 手書き入出力システムおよび光学読取装置
JP2014232544A (ja) * 2014-07-22 2014-12-11 グリッドマーク株式会社 手書き入出力システムおよび光学読取装置
JP2016181311A (ja) * 2016-07-22 2016-10-13 グリッドマーク株式会社 手書き入力シート
WO2018105386A1 (ja) * 2016-12-09 2018-06-14 株式会社ソシオネクスト 中継装置
JPWO2018105386A1 (ja) * 2016-12-09 2019-10-24 株式会社ソシオネクスト 中継装置

Also Published As

Publication number Publication date
US20120206555A1 (en) 2012-08-16
JP4691741B2 (ja) 2011-06-01
JPWO2009122756A1 (ja) 2011-07-28
CN101981941A (zh) 2011-02-23
CN104276100A (zh) 2015-01-14
EP2268052A1 (en) 2010-12-29
KR20100138996A (ko) 2010-12-31
US8873722B2 (en) 2014-10-28
EP2268052A4 (en) 2014-07-23

Similar Documents

Publication Publication Date Title
JP4691741B2 (ja) 携帯電話用クレードル、tv電話システム、カラオケシステム、カーナビゲーションシステム、および緊急情報通知システム
JP5489118B2 (ja) 入出力装置、情報入出力システム
US7573593B2 (en) Printer with hardware and software interfaces for media devices
WO2020192394A1 (zh) 笔记显示方法、装置、终端和存储介质
JP2005100409A (ja) 周辺装置のためのハードウェア及びソフトウェアインタフェースを備えるネットワークプリンタ
US8416304B2 (en) Input device of apparatus using dot pattern, receiver of controlled apparatus, terminal, and paper controller
US20060109262A1 (en) Structure of mouse pen
CN101799975A (zh) 一种学习型遥控器及其按键模板创建方法
US20050071520A1 (en) Printer with hardware and software interfaces for peripheral devices
JP4268667B2 (ja) 音声情報記録装置
US20110069032A1 (en) Wireless multi-user touch control system
CN1950790A (zh) 控制应用的方法和系统
JP2010119062A (ja) 放送制御システム
JP2011129969A (ja) 通信装置、通信方法およびプログラム
JP4248589B2 (ja) 音声認識システム
JP2012022424A (ja) ストリームドットを用いた音声情報記録装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980111296.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09728609

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010505409

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 20107022194

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2135/MUMNP/2010

Country of ref document: IN

REEP Request for entry into the european phase

Ref document number: 2009728609

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2009728609

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12936250

Country of ref document: US