WO2017138076A1 - 入力表示制御装置、入力表示制御方法及び入力表示システム - Google Patents

入力表示制御装置、入力表示制御方法及び入力表示システム Download PDF

Info

Publication number
WO2017138076A1
WO2017138076A1 PCT/JP2016/053686 JP2016053686W WO2017138076A1 WO 2017138076 A1 WO2017138076 A1 WO 2017138076A1 JP 2016053686 W JP2016053686 W JP 2016053686W WO 2017138076 A1 WO2017138076 A1 WO 2017138076A1
Authority
WO
WIPO (PCT)
Prior art keywords
curve
character string
unit
character
shape
Prior art date
Application number
PCT/JP2016/053686
Other languages
English (en)
French (fr)
Inventor
平井 正人
晶子 今石
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2016/053686 priority Critical patent/WO2017138076A1/ja
Priority to CN201680080670.6A priority patent/CN108700981B/zh
Priority to CN202210644459.XA priority patent/CN115047997A/zh
Priority to US16/068,459 priority patent/US10884612B2/en
Priority to KR1020187024134A priority patent/KR101981439B1/ko
Priority to JP2017506808A priority patent/JP6355823B2/ja
Priority to KR1020197013942A priority patent/KR102174565B1/ko
Priority to CN202210644398.7A priority patent/CN115061622A/zh
Priority to EP16889778.3A priority patent/EP3407173B1/en
Publication of WO2017138076A1 publication Critical patent/WO2017138076A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/106Display of layout of documents; Previewing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/001Arbitration of resources in a display system, e.g. control of access to frame buffer by video controller and/or main processor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/32Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory with means for controlling the display position
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed

Definitions

  • the present invention relates to an input display control device, an input display control method, and an input display system that generate display information for displaying a character string.
  • Patent Document 1 discloses a display device that displays a character string along a line such as a curve.
  • the conventional display device is configured as described above, if the length of the curve is longer than the length of the character string, the entire character string can be displayed along the curve. However, when the length of the curve is shorter than the length of the character string, there is a problem that a part of the character string cannot be displayed along the curve.
  • the present invention has been made to solve the above-described problems. Even when the length of the acquired curve is shorter than the length of the character string, the input that can display the entire character string along the curve. It is an object to obtain a display control device, an input display control method, and an input display system.
  • the input display control device is provided along a curve indicated by curve information acquired by a curve information acquisition unit that acquires curve information indicating a curve, a character string acquisition unit that acquires a character string, and the curve information acquisition unit.
  • a display control unit that generates display information for displaying the character string acquired by the character string acquisition unit, and the display control unit displays the length of the curve indicated by the curve information acquired by the curve information acquisition unit. If it is determined that a part of the character string acquired by the character string acquisition unit cannot be displayed along the curve because the character is short, the shape of the extended portion of the curve is determined from the shape of the curve.
  • the curve is extended, and display information for displaying a part of the character string is generated along the curve of the extended portion.
  • the display control unit moves a part of the character string acquired by the character string acquisition unit along the curve. If it is determined that it cannot be displayed, the shape of the extended portion of the curve is determined from the shape of the curve, the curve is extended, and a part of the character string is displayed along the curve of the extended portion. Since the display information for generating is generated, even if the length of the acquired curve is shorter than the length of the character string, the entire character string can be displayed along the curve.
  • FIG. 2 is a hardware configuration diagram of a computer when an input display system is realized by software, firmware, or the like. It is a flowchart which shows the input display control method which is the processing content of the input display system by Embodiment 1 of this invention (the 1). It is a flowchart which shows the input display control method which is the processing content of the input display system by Embodiment 1 of this invention (the 2). It is explanatory drawing which shows the character attribute table memorize
  • FIG. 9A is an explanatory diagram showing that if the length of the curve is longer than the length of the character string, all the characters constituting the character string can be displayed on the curve image.
  • FIG. 9B is an explanatory diagram showing that if the length of the curve is shorter than the length of the character string, some characters constituting the character string cannot be displayed superimposed on the curve image.
  • FIG. 10A is an explanatory diagram showing the position coordinates of the front end and the end of the curve used for calculating the length L of the curve when the shape of the curve is a straight line.
  • FIG. 10B is an explanatory diagram showing the position coordinates of the front end, the end, and the intermediate point of the curve used for calculating the length L of the curve when the shape of the curve is bent. It is explanatory drawing which shows the processing content of the extension curve shape determination part 14 of the display control part 12.
  • FIG. FIG. 12A is an explanatory diagram showing an example in which the shape of the extension curve is a tangent shape at the end of the original curve, and FIG.
  • FIG. 12B is an explanatory diagram showing an example in which the shape of the extension curve is the same curvature as the shape of the original curve
  • FIG. 12C is an explanatory diagram showing an example in which the shape of the extension curve is a wavy shape with the same period as the shape of the original curve
  • FIG. 12D is an explanatory diagram showing an example in which the shape of the extension curve is an arc shape. It is explanatory drawing which shows the processing content of the curve extension part 17 of the display control part 12.
  • FIG. It is a block diagram which shows the input display system containing the input display control apparatus by Embodiment 2 of this invention. It is a hardware block diagram of the input display system by Embodiment 2 of this invention.
  • FIG. It is explanatory drawing which shows an example of the display process in the display process part 53 of the display control part 51.
  • FIG. It is explanatory drawing which shows an example of the display process in the display process part 53 of the display control part 51.
  • FIG. It is explanatory drawing which shows the example which displays the character string which shows a translation result.
  • FIG. It is explanatory drawing which shows the example which displays the character string which shows a translation result.
  • It is a block diagram which shows the input display system containing the input display control apparatus by Embodiment 3 of this invention.
  • FIG. FIG. 1 is a block diagram showing an input display system including an input display control apparatus according to Embodiment 1 of the present invention
  • FIG. 2 is a hardware block diagram of the input display system according to Embodiment 1 of the present invention.
  • the operation receiving unit 1 is realized by a pointing device 21 and performs a process of receiving a line drawing operation as a user operation.
  • the pointing device 21 is assumed to use a touch panel.
  • the pointing device 21 is not limited to the touch panel.
  • a joystick, a pointing stick (track point), a touch pad, a stylus, a data glove, A trackball, a pen tablet, a mouse, a light pen, a joypad, or the like can be used.
  • the character management DB 2 is realized by, for example, the storage processing circuit 22 and stores a character attribute table indicating a correspondence relationship between a character type, a character size, a character height, and a character width.
  • the character management unit 3 is realized by the character management processing circuit 23, for example.
  • the character management unit 3 sets the size of characters to be displayed on the display 32 in advance, refers to the character attribute table stored in the character management DB 2, and tracks the character attribute information indicating the character height corresponding to the character size. A process of outputting the character attribute information indicating the character height and the character width corresponding to the character size to the input display control device 100 while outputting to the determination unit 4 is performed.
  • the trajectory discriminating unit 4 is realized by, for example, the image generation processing circuit 24.
  • the trajectory discriminating unit 4 discriminates the trajectory of the line drawn by the operation accepted by the operation accepting unit 1, and the length or shape of the curve representing the trajectory. Then, a process of outputting the curve information indicating the curve to the input display control device 100 is performed.
  • This curve includes lines of any shape such as straight lines and bent lines.
  • the trajectory discriminating unit 4 generates a curve image that is an image of a curve representing the trajectory, and performs a process of outputting the curve image to the input display control device 100.
  • This curve image is included in the curve information and output to the input display control device 100.
  • the line width of the curved image corresponds to the character height indicated by the character attribute information output from the character management unit 3.
  • the character string recognition unit 5 includes a voice detection unit 6, a voice recognition dictionary DB 7, and a voice recognition unit 8, and performs a process of outputting a character string indicating a voice recognition result to the input display control device 100 as a display target character string. carry out.
  • the voice detection unit 6 is realized by, for example, a microphone 25 and detects a user's voice.
  • the speech recognition dictionary DB 7 is realized by, for example, the memory processing circuit 22.
  • the speech recognition dictionary DB 7 is, for example, an acoustic model in which acoustic features of phonemes that are small units of human speech are described, and speech recognition words. It consists of a recognition dictionary that is described.
  • the voice recognition unit 8 is realized by, for example, the voice recognition processing circuit 26 and is equipped with a voice recognition engine that recognizes the voice detected by the voice detection unit 6. That is, the voice recognition unit 8 analyzes the voice detected by the voice detection unit 6, calculates the acoustic feature of the voice, and calculates the voice feature from the words described in the recognition dictionary of the voice recognition dictionary DB 7. A process of searching for a word having an acoustic feature closest to the acoustic feature and outputting a character string indicating the word to the input display control device 100 as a character string indicating a speech recognition result is performed.
  • FIG. 1 shows an example in which the character string recognizing unit 5 includes the speech recognition dictionary DB 7 and the speech recognizing unit 8, but a data transmission / reception unit is mounted instead of the speech recognition dictionary DB 7 and the speech recognizing unit 8. It may be.
  • the data transmission / reception unit is a network communication device such as a network card capable of transmitting / receiving data to / from a voice recognition server (not shown) via a communication path such as the Internet or a LAN.
  • Data indicating the detected voice is transmitted to the voice recognition server.
  • the voice recognition server is equipped with a voice recognition engine that recognizes voice.
  • the voice recognition server recognizes the voice and generates a character string indicating the voice recognition result. It transmits to the data transmission / reception unit.
  • the data transmitting / receiving unit When receiving the character string indicating the speech recognition result transmitted from the speech recognition server, the data transmitting / receiving unit outputs the character string to the input display control device.
  • the input display control device 100 includes a curve information acquisition unit 9, a character string acquisition unit 10, a character attribute information acquisition unit 11, and a display control unit 12.
  • the curve information acquisition unit 9 is realized by the input interface circuit 27 having, for example, a LAN (Local Area Network) port or a USB (Universal Serial Bus) port, and acquires the curve information output from the locus determination unit 4.
  • the character string acquisition unit 10 is realized by, for example, the input interface circuit 27, and performs a process of acquiring the character string output from the character string recognition unit 5.
  • the character attribute information acquisition unit 11 is realized by, for example, the input interface circuit 27, and performs a process of acquiring the character attribute information output from the character management unit 3.
  • the display control unit 12 includes a length comparison unit 13, an extended curve shape determination unit 14, a curve extension unit 17, and a display processing unit 18, and along the curve indicated by the curve information output from the trajectory determination unit 4, characters are displayed.
  • Display information for displaying the character string output from the column recognition unit 5 is generated, and a process of displaying the character string along a curve according to the display information is performed. That is, display information for displaying the character string output from the character string recognition unit 5 on the curve image included in the curve information acquired by the curve information acquisition unit 9 is generated, and according to the display information.
  • a process for displaying the character string on the curved image is performed.
  • the display control unit 12 displays a part of the character string output from the character string recognition unit 5 along the curve because the length of the curve indicated by the curve information acquired by the curve information acquisition unit 9 is short. If it is determined that it is not possible to determine the shape of the extended portion of the curve from the shape of the curve, the curve is extended, and a part of the character string is displayed along the curve of the extended portion Display information is generated, and a part of the character string is displayed according to the display information. Further, the display control unit 12 generates a display information for deleting the display of the curved image after displaying the character string on the curved image, and performs a process of deleting the curved image according to the display information. carry out.
  • the length comparison unit 13 is realized by, for example, the length comparison processing circuit 28, and the length of the curve indicated by the curve information acquired by the curve information acquisition unit 9 and the character string acquired by the character string acquisition unit 10. A process of comparing the length of the file is performed.
  • the extended curve shape determination unit 14 is realized by a shape determination processing circuit 29, for example, and includes a curve storage unit 15 and a shape determination processing unit 16. If the comparison result of the length comparison unit 13 indicates that the length of the curve is shorter than the length of the character string, the extended curve shape determination unit 14 indicates the curve indicated by the curve information acquired by the curve information acquisition unit 9. From the shape, the process of determining the shape of the extension curve that is the curve of the extension portion is performed.
  • the curve storage unit 15 stores a plurality of curves having different shapes in advance.
  • the shape determination processing unit 16 collates the shape of the plurality of curves stored in the curve storage unit 15 with the shape of the curve indicated by the curve information acquired by the curve information acquisition unit 9 and stores it in the curve storage unit 15.
  • the shape of the curve corresponding to the curve indicated by the curve information acquired by the curve information acquisition unit 9 is selected from the plurality of curve shapes, and the shape of the extension curve is determined from the shape of the selected curve. Implement the process.
  • the curve extension unit 17 is realized by, for example, the curve extension processing circuit 30.
  • the extension curve shape A process of adding the extension curve whose shape is determined by the determination unit 14 to the end of the curve indicated by the curve information acquired by the curve information acquisition unit 9 is performed.
  • the display processing unit 18 is realized by, for example, the display processing circuit 31, and displays the character string acquired by the character string acquisition unit 10 along the curve indicated by the curve information acquired by the curve information acquisition unit 9. Display information to be displayed on the display 32 is generated, and a character string is displayed on the display 32 according to the display information. That is, display information for displaying the character string output from the character string acquisition unit 10 on the curve image acquired by the curve information acquisition unit 9 is generated, and the character string is displayed on the display 32 according to the display information. The process of displaying the image superimposed on the curved image is performed. If the comparison result of the length comparison unit 13 indicates that the length of the curve is shorter than the length of the character string, the display processing unit 18 follows the extension curve added by the curve extension unit 17 along the curve.
  • Display information for displaying on the display 32 a part of the character string that cannot be displayed superimposed on the image is generated, and a process of displaying a part of the character string on the display 32 is performed according to the display information. Furthermore, after displaying the character string on the display 32, the display processing unit 18 generates display information for erasing the display of the curved image, and performs processing for causing the display 32 to erase the curved image according to the display information. .
  • the character string temporary storage unit 19 is realized by, for example, the storage processing circuit 22 and temporarily stores the character string acquired by the character string acquisition unit 10.
  • Each of the attribute information acquisition unit 11, the length comparison unit 13, the extended curve shape determination unit 14, the curve extension unit 17, the display processing unit 18, and the character string temporary storage unit 19 includes dedicated hardware as illustrated in FIG. That is, the pointing device 21, the storage processing circuit 22, the character management processing circuit 23, the image generation processing circuit 24, the microphone 25, the voice recognition processing circuit 26, the input interface circuit 27, the length comparison processing circuit 28, the shape determination processing circuit 29, It is assumed to be realized by the curve extension processing circuit 30, the display processing circuit 31, and the display 32.
  • the memory processing circuit 22 may be, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), or an EEPROM (Electrically Memory Erasable Memory).
  • a volatile semiconductor memory a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versatile Disc), or the like is applicable.
  • the character management processing circuit 23, the image generation processing circuit 24, the speech recognition processing circuit 26, the length comparison processing circuit 28, the shape determination processing circuit 29, the curve extension processing circuit 30, and the display processing circuit 31 are, for example, a single circuit. , Composite circuit, programmed processor, parallel programmed processor, ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), or a combination of these.
  • the components of the input display system are not limited to those realized by dedicated hardware, and the input display system may be realized by software, firmware, or a combination of software and firmware.
  • Software and firmware are stored as programs in the memory of the computer.
  • the computer means hardware that executes a program, and includes, for example, a CPU (Central Processing Unit), a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, a DSP (Digital Signal Processor), and the like.
  • FIG. 3 is a hardware configuration diagram of a computer when the input display system is realized by software, firmware, or the like.
  • the character management DB 2, the speech recognition dictionary DB 7 and the character string temporary storage unit 19 are configured on the memory 41 of the computer, and the character management unit 3, locus determination unit 4,
  • the processing procedures of the voice recognition unit 8, the curve information acquisition unit 9, the character string acquisition unit 10, the character attribute information acquisition unit 11, the length comparison unit 13, the extended curve shape determination unit 14, the curve extension unit 17 and the display processing unit 18 are as follows.
  • a program to be executed by the computer may be stored in the memory 41, and the processor 42 may execute the program stored in the memory 41.
  • 4 and 5 are flowcharts showing an input display control method which is the processing content of the input display system according to the first embodiment of the present invention.
  • FIG. 2 shows an example in which each component of the input display system is realized by dedicated hardware
  • FIG. 3 shows an example in which the input display system is realized by software, firmware, etc.
  • Some components in the display system may be realized by dedicated hardware, and the remaining components may be realized by software, firmware, or the like.
  • the operation accepting unit 1 and the character string recognizing unit 5 are realized by dedicated hardware
  • the character management DB 2, the character management unit 3, the trajectory determination unit 4, the input display control device 100, and the character string temporary storage unit 19 are installed in software or It can be realized by firmware or the like.
  • the combination of dedicated hardware and software is arbitrary.
  • FIG. 6 is an explanatory diagram showing a character attribute table stored in the character management DB 2.
  • the character attribute table of FIG. 6 for example, the character height and the character width corresponding to the character size are described for each character type.
  • the character type for example, a Mincho type or a Gothic type can be considered.
  • the character management unit 3 the character type and the character size of the character displayed on the display 32 are set in advance.
  • the character management unit 3 refers to the character attribute table stored in the character management DB 2 and determines the character type.
  • the character attribute information indicating the character height corresponding to the character size is output to the trajectory discriminating unit 4, and the character attribute information indicating the character height and the character width corresponding to the character type and the character size is output to the input display control device 100. (Step ST1 in FIG. 4).
  • the character attribute information indicating that the character height is “5 mm” is output to the trajectory determination unit 4.
  • character attribute information indicating that the character height is “5 mm” and the character width is “5 mm” is output to the input display control device 100.
  • the character type of the preset character is “B” and the character size is “5”
  • character attribute information indicating that the character height is “2 mm” is output to the trajectory discriminating unit 4.
  • character attribute information indicating that the character height is “2 mm” and the character width is “1.25 mm” is output to the input display control device 100.
  • margins are provided at the upper and lower portions of the character, but the character height indicated by the character attribute information and the line width of the curved image may be the same without providing the margin.
  • the pointing device 21 that implements the operation receiving unit 1 is a touch panel. Therefore, the user can draw a line using his / her finger, an input pen for a touch panel, or the like.
  • the operation receiving unit 1 receives an operation of drawing a line and outputs the contents of the operation to the trajectory determining unit 4 (step ST4).
  • the content of the operation for drawing the output line is, for example, time-series data indicating continuous changes in the coordinates of the position of the finger or input pen in contact with the touch panel, that is, the position coordinates on the touch panel.
  • the trajectory determination unit 4 determines the trajectory of the line drawn by the operation from the operation content (step ST5).
  • the content of the line drawing operation indicates a continuous change in the contact position with respect to the touch panel. Therefore, the locus of the drawn line can be determined by connecting the time-series contact positions. it can.
  • the trajectory discriminating unit 4 discriminates the trajectory of the drawn line
  • the trajectory discriminating unit 4 generates curve information indicating the curve such as the length and shape of the curve representing the trajectory.
  • the trajectory determination unit 4 generates a curve image that is an image of a curve representing the trajectory, and outputs curve information including the curve image to the input display control device 100 (step ST6).
  • the line width of the curve image is the line width set in step ST2. In the above example, the line width of the curve image is set to “11 mm”, so that a curve image having a line width of “11 mm” is generated. To do.
  • step ST7 When the voice detection unit 6 detects the user's voice (step ST7: YES), the voice recognition unit 8 of the character string recognition unit 5 performs the voice recognition process using the voice recognition dictionary DB7. Then, a character string indicating the speech recognition result is generated, and the character string is output to the input display control device 100 (step ST8). Since the voice recognition process by the voice recognition unit 8 is a known technique, a detailed description thereof will be omitted.
  • the voice detected by the voice detection unit 6 is analyzed to calculate the acoustic characteristics of the voice, A word having an acoustic feature closest to the calculated acoustic feature is searched from words described in the recognition dictionary of the speech recognition dictionary DB7, and a character string indicating the word is used as a character string indicating a speech recognition result.
  • a method of outputting can be considered.
  • the user utters “Let's go to see cherry blossoms in the spring” and the voice recognition unit 8 says “Let's go to see the cherry blossoms in spring. "Is output.
  • the input display control device 100 displays the curve image on the display 32 and displays the character string output from the character string recognition unit 5 in the curve image. Display overlaid on top.
  • the processing content of the input display control apparatus 100 is demonstrated concretely.
  • FIG. 7 is an explanatory diagram illustrating a display process when a curved image is output before a character string indicating a speech recognition result is output.
  • FIG. 8 is an explanatory diagram illustrating a display process when a character string indicating a speech recognition result is output before a curved image is output.
  • FIG. 9 is an explanatory diagram showing a character string to be displayed over the curve image.
  • FIG. 9A shows that if the length of the curve is longer than the length of the character string, all characters constituting the character string can be displayed on the curve image.
  • FIG. 9B shows that if the length of the curve is shorter than the length of the character string, some characters constituting the character string cannot be displayed over the curve image.
  • FIG. 9A shows that if the length of the curve is longer than the length of the character string, all characters constituting the character string can be displayed on the curve image.
  • FIG. 9B shows that if the length of the curve is shorter than the length of the character string, some characters constituting the character string
  • FIG. 10 is an explanatory diagram showing the processing contents of the length comparison unit 13 of the display control unit 12.
  • FIG. 10A shows the position coordinates of the tip and end of the curve used for calculating the length L of the curve when the shape of the curve is a straight line.
  • FIG. 10B shows the position coordinates of the tip, end, and middle point of the curve used for calculating the length L of the curve when the shape of the curve is bent.
  • FIG. 11 is an explanatory diagram showing the processing contents of the extended curve shape determination unit 14 of the display control unit 12.
  • FIG. 12 is an explanatory diagram illustrating an example of the shape of the extension curve determined by the extension curve shape determination unit 14 of the display control unit 12.
  • FIG. 13 is an explanatory diagram showing the processing contents of the curve extension unit 17 of the display control unit 12.
  • the display processing unit 18 of the display control unit 12 outputs the curve information including the curve image from the trajectory determination unit 4 before the character string is output from the voice recognition unit 8 of the character string recognition unit 5.
  • the information acquisition unit 9 acquires the curve information (step ST11 in FIG. 5: YES)
  • display information for displaying the curve image is generated, and according to the display information, as shown in step A of FIG.
  • the curve image is displayed on the display 32 (step ST12).
  • the length of the line drawn by the user's operation is short, so the length of the curve is shorter than the length of the character string indicating the speech recognition result. Shall.
  • the display processing unit 18 displays the curve image, the entire curve image may be displayed at the same time. However, the curve image is displayed by an animation that is sequentially displayed from the beginning of the character string to be displayed later. You may do it.
  • Step B of FIG. 7 the display processing unit 18 performs an utterance “Let's go to see cherry blossoms when spring comes”, so that the voice recognition unit 8 reads “When spring comes.
  • a character string indicating “Let's go to see cherry blossoms” is received (in the case of step ST13 in FIG. 5: YES)
  • display information for displaying the character string superimposed on the curved image is generated and displayed.
  • the character string is displayed on the curved image so as to overlap (step ST14).
  • the length of the curve is shorter than the length of the character string indicating the speech recognition result. Although it is displayed overlaid on top, “Mayse” is not displayed over the curve image.
  • the length comparison unit 13 of the display control unit 12 acquires the character string indicating that “let's go to see cherry blossoms in the spring” output from the voice recognition unit 8 when the character string acquisition unit 10 acquires the character management unit. 3, the length of the character string is calculated with reference to the character width indicated by the character attribute information acquired by the character attribute information acquisition unit 11 (step ST15 in FIG. 5).
  • the character string output from the voice recognition unit 8 is “Let's go to see cherry blossoms in the spring” and the number of characters in the character string is 16, for example, it is output from the character management unit 3
  • the character width indicated by the character attribute information is “5 mm”
  • the length comparison unit 13 calculates the length of the curve indicated by the curve information acquired by the curve information acquisition unit 9 (step ST16). If the shape of the curve is, for example, a straight line as shown in FIG. 10A, the length L of the curve is the position coordinate (Xs, Ys) of the end of the curve and the position of the end as shown in the following equation (2). It can be calculated from the coordinates (Xe, Ye). In the case of the curve image displayed in Step A of FIG. 7, the left end of the curve is the tip of the curve, and the right end of the curve is the end of the curve. These position coordinates are assumed to be the same unit as the unit representing the character width or the like. Here, mm is a unit.
  • Equation (2) shows a calculation formula for the length L of the curve when the shape of the curve is a straight line.
  • the shape of the curve is such as that shown in FIG.
  • position coordinates (Xn, Yn) of a plurality of intermediate points from the front end to the end of the curve (n 1,..., N: N is an integer equal to or greater than 1
  • the curve length L can be calculated by approximating the shape of the curve with a straight line.
  • N 2
  • N 3 or more and the position coordinates (Xn, Yn) of many intermediate points are used. Needless to say.
  • the length comparison unit 13 compares the length of the curve with the length of the character string (step ST17 in FIG. 5). If the comparison result of the length comparison unit 13 indicates that the length of the curve is shorter than the length of the character string (step ST18 in FIG. 5: YES), the extended curve shape determination unit 14 acquires curve information. From the shape of the curve indicated by the curve information acquired by the unit 9, the shape of the extended curve that is the curve of the extended portion is determined (step ST19). That is, the shape determination processing unit 16 of the extended curve shape determination unit 14 determines the shape of a plurality of curves stored in the curve storage unit 15 and the shape of the curve indicated by the curve information acquired by the curve information acquisition unit 9.
  • the shape of the curve having the highest degree of coincidence with the shape of the curve indicated by the curve information is specified, and the curve having the highest degree of coincidence Select the shape. Since the process of collating the shape of the curve and specifying the shape of the curve having the highest degree of coincidence is a known technique, detailed description thereof is omitted.
  • the shape determination processing unit 16 selects a curve shape as shown in FIG. 11 from the plurality of curve shapes stored in the curve storage unit 15, the shape determination processing unit 16 changes the shape of the extension curve from the selected curve shape. decide. For example, if the length of the plurality of curves stored in the curve storage unit 15 is sufficiently longer than the curve representing the locus of the line drawn by the operation, the curve information indicates the selected curve shape. The shape of the part longer than the curve is determined as the shape of the extended curve.
  • the curve representing the locus of the line drawn by the operation that is, the curve representing the locus determined by the locus determination unit 4 is represented by a broken line, and the selected curve having the highest degree of matching is represented by a solid line.
  • the shape of the extended portion of the curve represented by the broken line is the same as the shape of the curve represented by the solid line.
  • the shape of the curve having the highest degree of coincidence with the shape of the curve representing the trajectory determined by the trajectory discriminating unit 4 is selected from the shapes of the plurality of curves stored in the curve storage unit 15.
  • the shape of the extension curve is determined from the selected curve shape.
  • the extension curve shape that is the curve of the extension portion is determined by another method. There may be. For example, a method of calculating the change tendency of the curvature of the shape of the curve representing the locus determined by the locus determination unit 4 and estimating the shape of the extension curve from the change tendency of the curvature can be considered.
  • FIG. 12 shows an example of determining the shape of the extension curve.
  • the shape of the tangent line at the end of the gently curved curve is the extension curve shape.
  • the curvature of the entire curve is constant, the curvature of the shape of the extended curve is made the same as the curvature of the original curve, which is a curve representing the trajectory determined by the trajectory determination unit 4.
  • the shape of the curve is a periodic wavy shape, the shape of the extended curve is a wavy shape having the same period as the original curve.
  • the shape of the extended curve is the same arc shape as the vicinity of the end of the original curve.
  • the curve extension unit 17 extends the curve by adding the extension curve to the end of the curve indicated by the curve information acquired by the curve information acquisition unit 9. (Step ST20).
  • the length of the curve is 60 mm
  • the length of the character string is 80 mm
  • the length of the curve is 20 mm shorter than the length of the character string, so the curve is extended by 20 mm.
  • the display processing unit 18 displays “let's go” that is a part of the character string that has not been displayed because the curve is short along the curve of the extension part.
  • Display information is generated, and according to the display information, as shown in Step D of FIG. 7, along the curve of the extended portion, “Let ’s be a part of the character string that has not been displayed because the curve is short” Is displayed on the display 32 (step ST21).
  • a part of the character string that has not been displayed is displayed on the display 32 along the extension curve added by the curve extension unit 17, but as shown on the right side in step D of FIG. 7.
  • a curve image indicating an extension curve may be displayed on the display 32, and a part of the character string that has not been displayed may be displayed superimposed on the curve image.
  • the display processing unit 18 generates display information for erasing the curve image after all the characters constituting the character string are displayed on the curve image, and displays the display information on the display 32 according to the display information.
  • the curved image is erased and only the character string is displayed (step ST22).
  • the display processing unit 18 erases the curve image, the entire curve image may be erased at the same time, but the curve image is erased by an animation that sequentially erases from the beginning of the character string. Also good.
  • the display processing unit 18 speaks before the user performs an operation of drawing a line, and before the curve information including the curve image is output from the trajectory determination unit 4, the character is displayed.
  • the character string acquisition unit 10 acquires a character string by outputting a character string from the speech recognition unit 8 of the column recognition unit 5 (in the case of step ST11 in FIG. 5: NO)
  • the character string is temporarily stored. It stores in the part 19 and waits until curve information is output from the locus
  • the curve information is output from the trajectory determination unit 4.
  • the display processing unit 18 receives the character string from the character string temporary storage unit 19. Read and generate display information for displaying the character string on the curve image, and in accordance with the display information, the character string is superimposed on the curve image as shown in Step B of FIG. Display. That is, the display processing unit 18 displays the curved image and the character string so as to overlap each other at the same position (step ST24). However, in the example of FIG. 8, the length of the curve is shorter than the length of the character string indicating the speech recognition result.
  • FIG. 7 shows an example in which the user utters a finger after tracing
  • FIG. 8 shows an example in which the user traces a finger after speaking, but the finger tracing and the utterance are performed simultaneously. Also good.
  • the length comparison unit 13 When the character string acquisition unit 10 acquires the character string indicating “Let's go to see cherry blossoms in the spring” output from the voice recognition unit 8, the length comparison unit 13 outputs the character string from the character management unit 3. After that, the character width indicated by the character attribute information acquired by the character attribute information acquisition unit 11 is referred to, and the length of the character string is calculated according to the above equation (1) (step ST15 in FIG. 5). In addition, when receiving the curve information acquired by the curve information acquisition unit 9, the length comparison unit 13 calculates the length of the curve indicated by the curve information according to the above formula (2) or (3). (Step ST16). When calculating the length of the curve, the length comparison unit 13 compares the length of the curve with the length of the character string (step ST17 in FIG. 5).
  • the extended curve shape determination unit 14 acquires curve information. From the shape of the curve indicated by the curve information acquired by the unit 9, the shape of the extended curve that is the curve of the extended portion is determined (step ST19). When the extension curve shape determination unit 14 determines the shape of the extension curve, the curve extension unit 17 extends the curve by adding the extension curve to the end of the curve indicated by the curve information acquired by the curve information acquisition unit 9. (Step ST20). In the example of FIG. 13, the length of the curve is 60 mm, the length of the character string is 80 mm, and the length of the curve is 20 mm shorter than the length of the character string, so the curve is extended by 20 mm.
  • the display processing unit 18 displays “let's go” that is a part of the character string that has not been displayed because the length of the curve is short along the curve of the extension part.
  • Display information is generated, and according to the display information, as shown in Step C of FIG. 8, along the curve of the extended portion, “let's go” that is a part of the undisplayed character string is displayed. It is displayed on the display 32 (step ST21).
  • a part of the character string that has not been displayed is displayed on the display 32 along the extension curve added by the curve extension unit 17, but as shown on the right side in step C of FIG. 8.
  • a curve image indicating an extension curve may be displayed on the display 32, and a part of the character string that has not been displayed may be displayed superimposed on the curve image.
  • the display processing unit 18 displays all characters constituting the character string superimposed on the curve image, generates display information for deleting the curve image, and displays the display information on the display 32 according to the display information.
  • the curve image is deleted and only the character string is displayed (step ST22).
  • the display processing unit 18 erases the curve image, the entire curve image may be erased at the same time, but the curve image is erased by an animation that sequentially erases from the beginning of the character string. Also good.
  • the length of the curve is shorter than the length of the character string indicating the speech recognition result.
  • the length of the curve is the length of the character string indicating the speech recognition result.
  • the comparison result of the length comparison unit 13 indicates that the length of the curve is equal to or longer than the length of the character string (in the case of step ST18: No in FIG. 5)
  • the processing of steps ST19 to ST21 Without performing the above, the process proceeds to step ST22, the curve image is erased, and only the character string is displayed.
  • the display control unit 12 uses the character string acquisition unit 10 because the length of the curve indicated by the curve information acquired by the curve information acquisition unit 9 is short.
  • the shape of the extended portion of the curve is determined from the shape of the curve indicated by the curve information acquired by the curve information acquisition unit 9 .
  • the length of the curve is longer than the length of the character string because the curve is extended and the display information for displaying a part of the character string is generated along the curve of the extended portion. Even when the character string is short, the entire character string can be displayed along the curve.
  • the curve information including the curve image is received from the trajectory determination unit 4.
  • the curve image is displayed on the display 32, and then the character string output from the voice recognition unit 8 of the character string recognition unit 5 is displayed superimposed on the curve image.
  • the process waits until the curve information is output from the track determination unit 4, and the track determination unit 4.
  • the curve image is displayed on the display 32, and the character string is displayed so as to be superimposed on the curve image.
  • the position which the character string indicating appear can be known in advance. Therefore, there is an effect that the user can grasp the display image of the character string. Also, if the user speaks before performing an operation to draw a line, if the operation to draw a line is performed, the curved image and the character string are displayed in the same position, so that a highly responsive operation feeling is given to the user. The effect which can be given is produced.
  • the input display control apparatus 100 displays the character string superimposed on the curved image, but the character string is not superimposed on the curved image, but around the curved image.
  • the character string may be displayed along the curved image.
  • the curved image may be a colorless and transparent image as long as the user does not need to confirm the curved image.
  • the curved image may be a colored and transparent image.
  • the display processing unit 18 of the display control unit 12 has a width that represents the trajectory determined by the trajectory discriminating unit 4 or a trajectory that is extended by the curve extending unit 17. An uncurved curve may be displayed on the display 32.
  • Embodiment 2 the display of the character string acquired by the character string acquisition unit 10 on the display 32 along the curve indicated by the curve information acquired by the curve information acquisition unit 9 has been described.
  • the character string may be translated and a character string indicating the translation result may be displayed on the display 32.
  • FIG. 14 is a block diagram showing an input display system including an input display control apparatus according to Embodiment 2 of the present invention
  • FIG. 15 is a hardware block diagram of the input display system according to Embodiment 2 of the present invention.
  • the translation unit 52 is realized by the translation processing circuit 34 configured by, for example, a semiconductor integrated circuit mounted with a CPU or a one-chip microcomputer, and translates a character string acquired by the character string acquisition unit 10. Implement the process.
  • the display control unit 51 includes a length comparison unit 13, an extended curve shape determination unit 14, a curve extension unit 17, a translation unit 52, and a display processing unit 53, and performs the same processing as the display control unit 12 in FIG. 1.
  • a curve for displaying a translated character string having a length equal to or longer than the length of the character string indicating the translation result of the translation unit 52 is generated, and the translation result of the translation unit 52 is generated along the curve for displaying the translated character string.
  • the display information for displaying the character string which shows on the display 32 is produced
  • the display processing unit 53 of the display control unit 51 is realized by the display processing circuit 31, for example, and performs the same processing as the display processing unit 18 of FIG. In addition, unlike the display processing unit 18 in FIG. 1, the display processing unit 53 generates a translated character string display curve having a length equal to or longer than the length of the character string indicating the translation result of the translation unit 52, and translates the translated characters. A process of causing the display 32 to display a character string indicating the translation result of the translation unit 52 is also performed along the column display curve.
  • Each of the attribute information acquisition unit 11, the length comparison unit 13, the extended curve shape determination unit 14, the curve extension unit 17, the translation unit 52, the display processing unit 53, and the character string temporary storage unit 19 is dedicated as shown in FIG. Hardware, that is, pointing device 21, storage processing circuit 22, character management processing circuit 23, image generation processing circuit 24, microphone 25, speech recognition processing circuit 26, input interface circuit 27, length comparison processing circuit 28, shape determination It is assumed that the processing circuit 29, the curve extension processing circuit 30, the display processing circuit 31, the display 32, and the translation processing circuit 34 are realized.
  • Software, firmware, or it may be one which is realized by a combination of software and firmware.
  • the character management DB 2, the speech recognition dictionary DB 7, and the character string temporary storage unit 19 are configured on the memory 41 of the computer shown in FIG.
  • a program for causing the computer to execute processing procedures of the management unit 3, the trajectory determination unit 4, the voice detection unit 6, the voice recognition unit 8, and the display control unit 51 is stored in the memory 41, and the processor 42 shown in FIG.
  • the program stored in the program may be executed.
  • the processing contents of the translation unit 52 and the display processing unit 53 will be mainly described here.
  • the character string acquisition unit 10 acquires the character string indicating the speech recognition result output from the character string recognition unit 5
  • the translation unit 52 translates the character string, and compares the character string indicating the translation result with the length.
  • the display unit 13 and the display processing unit 53 If the character string indicating the speech recognition result is “I went to the sea during summer vacation”, for example, the character string indicating the translation result is “I want to the sea in summer vacation”.
  • the display processing unit 53 Similar to the display processing unit 18 of FIG. 1, the display processing unit 53 superimposes the character string indicating the speech recognition result acquired by the character string recognition unit 5 on the curve image acquired by the curve information acquisition unit 9. To display. Further, since the length of the curve indicated by the curve information acquired by the curve information acquisition unit 9 is shorter than the length of the character string, the display processing unit 53 can display a part of the character string along the curve. If not, a part of the character string is displayed on the display 32 along the extension curve added by the curve extension unit 17 as in the display processing unit 18 of FIG.
  • the display processing unit 53 When the display processing unit 53 receives the character string indicating the translation result from the translation unit 52, the display processing unit 53 generates a curve for displaying the translated character string having a length equal to or longer than the length of the character string indicating the translation result.
  • the character attribute information indicating the character width of the characters constituting the character string indicating the translation result is received from the character management unit 3.
  • the character management unit 3 For example, when the character string indicating the translation result is “I want to the sea in summer vacation”, the number of characters is 36 including a space. Therefore, the character width of the characters constituting the character string indicating the translation result is “2 mm. ", The length of the character string indicating the translation result is 72 mm as shown in the following equation (5).
  • the length of the curve for displaying the translated character string is 72 mm or more.
  • the shape of the curve for displaying the translated character string is the same as the shape of the curve representing the locus of the line drawn by the user's operation, that is, the curve information indicated by the curve information acquired by the curve information acquisition unit 9. .
  • the shape is the same as the shape of the curve extended by the curve extension portion 17.
  • the shape of a curve representing the locus of a line drawn by the user's operation is an arc shape
  • the shape of the curve for displaying the translated character string is also an arc shape
  • the locus of the line drawn by the user's operation is If the shape of the curve to be represented is a wavy line shape, the shape of the curve for displaying the translated character string is also a wavy line shape.
  • the curve extension unit 17 sets the curve.
  • the curve indicated by the curve information is extended.
  • the shape of the extended portion of the translated character string display curve is determined from the shape of the translated character string display curve, and the translated character string display curve is extended.
  • FIG. 16 is an explanatory diagram illustrating an example of display processing in the display processing unit 53 of the display control unit 51.
  • step A a curve image representing a curve of a line drawn by a user operation is displayed on the display 32.
  • step B when the user's voice recognition process is performed, in step C, a character string indicating the voice recognition result is displayed superimposed on the curved image. Steps A to C are the same as in the first embodiment.
  • step D a character string indicating the translation result is displayed on the display 32 along a curve for displaying a translated character string having the same shape as the curve representing the locus of the line drawn by the user's operation.
  • the display processing unit 53 arranges the curve for displaying the translated character string below the curve representing the locus of the line drawn by the user's operation, but the line drawn by the user's operation. May be arranged on the upper side of the curve representing the trajectory, or may be arranged on the left side or the right side.
  • step E the curve image of the curve representing the locus of the line drawn by the user's operation is deleted.
  • the display processing unit 53 shows a display for displaying a translated character string display curve on the display 32.
  • the translated character string display curve may be transparent.
  • the character string indicating the speech recognition result and the character string indicating the translation result are displayed side by side.
  • the character string indicating the speech recognition result may be erased from the top, and the character string indicating the translation result may be displayed superimposed on the curve image.
  • the character string finally displayed is only the character string indicating the translation result.
  • the display processing unit 53 displays the character string indicating the result of the back translation side by side with the character string indicating the speech recognition result and the character string indicating the translation result. You may make it make it. Since the second embodiment shows an example of translation from Japanese to English, the back translation in this case means to translate the translated English into Japanese again.
  • step D English, which is a character string indicating a translation result, is displayed below Japanese, which is a character string indicating a speech recognition result. The Japanese column is displayed. Further, as shown in FIG.
  • step D after erasing Japanese which is a character string indicating the recognition result of the voice displayed superimposed on the curved image, English which is a character string indicating the translation result is deleted. While being displayed over the curve image, Japanese, which is a character string indicating folded translation, may be displayed under the English.
  • the translation unit 52 that translates the character string acquired by the character string acquisition unit 10 is provided, and the display processing unit 53 shows the translation result of the translation unit 52.
  • the display processing unit 53 shows the translation result of the translation unit 52.
  • the length of the curve representing the trajectory of the line drawn by the line drawing operation is a character string indicating the translation result of the translation unit 52. Even when the length is shorter, the entire character string can be displayed along the curve.
  • the character string indicating the speech recognition result and the character string indicating the translation result are displayed side by side.
  • the display 32 is composed of two screens.
  • the character string indicating the voice recognition result is displayed on the lower screen of the face-to-face two screens in the figure.
  • a character string indicating the translation result may be displayed on the upper screen of the two screens.
  • the character string indicating the translation result may be displayed on the lower screen of the facing two screens, and the character string indicating the speech recognition result may be displayed on the upper screen of the facing two screens.
  • the character string recognizing unit 5 obtains a character string indicating a speech recognition result as a display target character string. You may acquire the character string which shows the recognition result of the character drawn by the received operation.
  • FIG. 22 is a block diagram showing an input display system including an input display control apparatus according to Embodiment 3 of the present invention
  • FIG. 23 is a hardware block diagram of the input display system according to Embodiment 3 of the present invention. 22 and FIG. 23, the same reference numerals as those in FIG. 1 and FIG.
  • the character string recognition unit 60 includes a character recognition processing unit 61, and performs a process of outputting a character string indicating a recognition result of a character drawn by an operation received by the operation receiving unit 1 as a display target character string. .
  • the character recognition processing unit 61 is realized by, for example, a character recognition processing circuit 35 that implements an OCR (Optical Character Recognition) function that is an optical character recognition process, and is drawn by an operation received by the operation receiving unit 1. A process of recognizing the received character and outputting a character string indicating the recognition result of the character as a display target character string is performed.
  • OCR Optical Character Recognition
  • Each of the attribute information acquisition unit 11, the length comparison unit 13, the extended curve shape determination unit 14, the curve extension unit 17, the display processing unit 18, and the character string temporary storage unit 19 includes dedicated hardware as illustrated in FIG. That is, the pointing device 21, the storage processing circuit 22, the character management processing circuit 23, the image generation processing circuit 24, the microphone 25, the voice recognition processing circuit 26, the input interface circuit 27, the length comparison processing circuit 28, the shape determination processing circuit 29, Although assumed to be realized by the curve extension processing circuit 30, the display processing circuit 31, the display 32, and the character recognition processing circuit 35, the input display system is soft.
  • FIG. 24 is an explanatory diagram showing an example of display processing of a character string indicating a character recognition result.
  • the operation receiving unit 1 since it is assumed that the pointing device 21 that implements the operation receiving unit 1 is a touch panel, the user uses his / her finger, an input pen for a touch panel, or the like to draw a line.
  • the operation receiving unit 1 receives a character drawing operation and outputs the contents of the operation to the trajectory determining unit 4 and the character string recognizing unit 60.
  • the content of the operation for drawing the output character is, for example, time-series data indicating continuous changes in the coordinates of the position of the finger or input pen in contact with the touch panel, that is, the position coordinates on the touch panel.
  • step A the user has handwritten a character string “I want to eat Japanese food”.
  • the character recognition processing unit 61 of the character string recognition unit 60 recognizes a plurality of characters drawn by the operation received by the operation receiving unit 1, acquires a character string indicating a recognition result of the plurality of characters, and the character The sequence is output to the trajectory discriminating unit 4 and the input display control device 100.
  • the trajectory discriminating unit 4 When the trajectory discriminating unit 4 receives the content of the operation of drawing one or more characters from the operation receiving unit 1 and receives the character string from the character recognition processing unit 61, the trajectory determining unit 4 converts the content of the operation of drawing one or more characters into the character A process of sorting is performed every time. Specifically, it is as follows. First, the trajectory discriminating unit 4 calculates a coordinate X LEFT having the smallest X coordinate and a coordinate X RIGHT having the largest X coordinate among the position coordinates on the touch panel indicated by the time-series data that is the content of the operation of drawing a character. Specifically, the length of the character string in the X direction is calculated by subtracting the coordinate X LEFT from the coordinate X RIGHT .
  • the trajectory discriminating unit 4 calculates the length in the X direction per character by dividing the length in the X direction of the character string by the number of characters, and calculates the length in the X direction per character and the coordinate X LEFT. The coordinate range in the X direction where each character exists is calculated.
  • coordinate range in the X direction n th character from the left end of the string is present, (1 character per X direction length ⁇ (n-1) + X LEFT) ⁇ (1 character per X-direction length (S ⁇ n + X LEFT ))
  • the trajectory discriminating unit 4 finds the X-direction coordinate range including each position coordinate indicated by the time-series data, and sets each position coordinate indicated by the time-series data to the corresponding X-direction coordinate range.
  • sorting the contents of the operation of drawing one or more characters are sorted for each character.
  • the trajectory discriminating unit 4 calculates the average of the X coordinates of the position coordinates indicated by the time series data included in the coordinate range as the center coordinate of the character corresponding to the coordinate range in the coordinate range unit in the X direction. The value and the average value of the Y coordinate are calculated.
  • the trajectory discriminating unit 4 calculates the center coordinates of each character constituting the character string, as shown in Step B of FIG. 24, the trajectory discriminating unit 4 generates one line by connecting the center coordinates of the respective characters. The single line is used as a curve representing the trajectory of the character string, and curve information indicating the curve is output to the input display control device 100.
  • the length of the character string in the X direction is calculated by dividing the length of the character string in the X direction by the number of characters. .
  • the size of each character is not always equal, so the coordinate range unit in the X direction may not match each character constituting the character string.
  • the arrangement direction of the character strings can be obtained. Therefore, even when the size of each character is not uniform, the curve can be obtained by the above method.
  • each position coordinate indicated by the time-series data is assigned to the coordinate range unit in the X direction.
  • each position coordinate indicated by the time-series data may be assigned to the coordinate range unit in the Y direction.
  • the curve is obtained from the operation content for drawing the character.
  • the user can perform the operation by drawing the line shown in the first embodiment separately from the operation for drawing the character.
  • the trajectory discriminating unit 4 uses the content of the operation of drawing a line accepted by the operation accepting unit 1 as in the first embodiment. You may make it discriminate
  • the display processing unit 18 of the display control unit 12 obtains the curve information acquired by the curve information acquisition unit 9. Display information for displaying the character string on the display 32 is generated along the curve shown, and the character string is displayed on the display 32 according to the display information.
  • a character string is displayed by drawing a curve representing a locus so as to be arranged in a handwritten character.
  • the present invention is not limited to this. For example, after the handwritten character is erased, A character string may be displayed by drawing a curve at the position. Further, the curve representing the locus may be transparent.
  • a curve can be obtained from the operation contents for drawing a character, but the recognized character string is displayed as a character having a predetermined attribute as in the first embodiment. Therefore, when the length of the obtained curve is shorter than the length of the character string, the display processing unit 18 moves a part of the characters constituting the character string along the curve as in the first embodiment. It cannot be displayed. In this case, as in the first embodiment, a part of the characters that are not displayed is displayed by extending the curve. That is, the length comparison unit 13 compares the length of the curve with the length of the character string, the extension curve shape determination unit 14 determines the shape of the extension curve, and the curve extension unit 17 is acquired by the curve information acquisition unit 9. The curve is extended by adding an extension curve to the curve indicated by the curve information. And the display process part 18 displays a part of character which is not displayed along an extension curve.
  • the character string recognizing unit 60 recognizes a character drawn by the operation accepted by the operation accepting unit 1, and indicates a character string indicating the recognition result of the character. Since the character recognition processing unit 61 that acquires the character string as a display target character string is provided, the same effects as those of the first embodiment can be obtained even when handwritten characters are displayed.
  • FIG. 25 is a block diagram showing an input display system including an input display control apparatus according to Embodiment 4 of the present invention.
  • FIG. 26 is an explanatory diagram illustrating an example of display processing of a character string indicating a translation result.
  • the character string indicating the recognition result of a plurality of characters is displayed on the display 32 along the curve indicated by the curve information acquired by the curve information acquisition unit 9, but this fourth embodiment is described. Then, as shown in Step C of FIG. 26, the display processing unit 53 of the display control unit 51 translates the translation result output from the translation unit 52 along the curve indicated by the curve information acquired by the curve information acquisition unit 9. Is also different in that it is displayed on the display 32.
  • the input display control device, the input display control method, and the input display system according to the present invention are suitable for applications that display character strings.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

表示制御部(12)が、曲線情報取得部(9)により取得された曲線情報が示す曲線の長さが短いために、文字列取得部(10)により取得された文字列の一部を曲線に沿って表示することができないと判断する場合、曲線情報取得部(9)により取得された曲線情報が示す曲線の形状から、その曲線の延長部分の形状を決定して、その曲線を延長し、延長部分の曲線に沿って、その文字列の一部を表示するための表示情報を生成するように構成する。

Description

入力表示制御装置、入力表示制御方法及び入力表示システム
 この発明は、文字列を表示するための表示情報を生成する入力表示制御装置、入力表示制御方法及び入力表示システムに関するものである。
 以下の特許文献1には、曲線などの線に沿って、文字列を表示する表示装置が開示されている。
特開平10-124033号公報
 従来の表示装置は以上のように構成されているので、曲線の長さが、文字列の長さより長ければ、文字列の全部を曲線に沿って表示することができる。しかし、曲線の長さが、文字列の長さより短い場合、文字列の一部を曲線に沿って表示することができないという課題があった。
 この発明は上記のような課題を解決するためになされたもので、取得した曲線の長さが、文字列の長さより短い場合でも、文字列の全部を曲線に沿って表示させることができる入力表示制御装置、入力表示制御方法及び入力表示システムを得ることを目的とする。
 この発明に係る入力表示制御装置は、曲線を示す曲線情報を取得する曲線情報取得部と、文字列を取得する文字列取得部と、曲線情報取得部により取得された曲線情報が示す曲線に沿って、文字列取得部により取得された文字列を表示するための表示情報を生成する表示制御部とを備え、表示制御部が、曲線情報取得部により取得された曲線情報が示す曲線の長さが短いために、文字列取得部により取得された文字列の一部を曲線に沿って表示することができないと判断した場合、その曲線の形状から、その曲線の延長部分の形状を決定して、その曲線を延長し、その延長部分の曲線に沿って、文字列の一部を表示するための表示情報を生成するようにしたものである。
 この発明によれば、表示制御部が、曲線情報取得部により取得された曲線情報が示す曲線の長さが短いために、文字列取得部により取得された文字列の一部を曲線に沿って表示することができないと判断した場合、その曲線の形状から、その曲線の延長部分の形状を決定して、その曲線を延長し、その延長部分の曲線に沿って、文字列の一部を表示するための表示情報を生成するように構成したので、取得した曲線の長さが、文字列の長さより短い場合でも、文字列の全部を曲線に沿って表示させることができる効果がある。
この発明の実施の形態1による入力表示制御装置を含む入力表示システム示す構成図である。 この発明の実施の形態1による入力表示システムのハードウェア構成図である。 入力表示システムがソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。 この発明の実施の形態1による入力表示システムの処理内容である入力表示制御方法を示すフローチャートである(その1)。 この発明の実施の形態1による入力表示システムの処理内容である入力表示制御方法を示すフローチャートである(その2)。 文字管理DB2に記憶されている文字属性表を示す説明図である。 音声の認識結果を示す文字列が出力される前に曲線画像が出力された場合の表示処理を示す説明図である。 曲線画像が出力される前に音声の認識結果を示す文字列が出力された場合の表示処理を示す説明図である。 図9Aは曲線の長さが文字列の長さより長ければ、その文字列を構成している全ての文字を曲線画像の上に重ねて表示できることを示す説明図である。図9Bは曲線の長さが文字列の長さより短ければ、その文字列を構成している一部の文字を曲線画像の上に重ねて表示できないことを示す説明図である。 図10Aは曲線の形状が直線である場合に、曲線の長さLの算出に用いる曲線の先端及び終端の位置座標を示す説明図である。図10Bは曲線の形状が曲がっている場合に、曲線の長さLの算出に用いる曲線の先端、終端及び中間点の位置座標を示す説明図である。 表示制御部12の延長曲線形状決定部14の処理内容を示す説明図である。 図12Aは延長曲線の形状が元の曲線の終端部における接線の形状である例を示す説明図、図12Bは延長曲線の形状が元の曲線の形状と同じ曲率である例を示す説明図、図12Cは延長曲線の形状が元の曲線の形状と同じ周期の波線形状である例を示す説明図、図12Dは延長曲線の形状が円弧形状である例を示す説明図である。 表示制御部12の曲線延長部17の処理内容を示す説明図である。 この発明の実施の形態2による入力表示制御装置を含む入力表示システム示す構成図である。 この発明の実施の形態2による入力表示システムのハードウェア構成図である。 表示制御部51の表示処理部53における表示処理の一例を示す説明図である。 表示制御部51の表示処理部53における表示処理の一例を示す説明図である。 翻訳結果を示す文字列を表示する例を示す説明図である。 翻訳結果を示す文字列を表示する例を示す説明図である。 ディスプレイ32が対面二画面で構成されている場合の表示処理部53における表示処理の一例を示す説明図である。 翻訳結果を示す文字列を表示する例を示す説明図である。 この発明の実施の形態3による入力表示制御装置を含む入力表示システム示す構成図である。 この発明の実施の形態3による入力表示システムのハードウェア構成図である。 文字の認識結果を示す文字列の表示処理の一例を示す説明図である。 この発明の実施の形態4による入力表示制御装置を含む入力表示システム示す構成図である。 翻訳結果を示す文字列の表示処理の一例を示す説明図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面にしたがって説明する。
実施の形態1.
 図1はこの発明の実施の形態1による入力表示制御装置を含む入力表示システム示す構成図であり、図2はこの発明の実施の形態1による入力表示システムのハードウェア構成図である。
 図1及び図2において、操作受付部1はポインティングデバイス21で実現され、ユーザの操作として、線を描く操作を受け付ける処理を実施する。
 この実施の形態1では、ポインティングデバイス21として、タッチパネルを用いるものを想定しているが、タッチパネルに限るものではなく、例えば、ジョイスティック、ポインティング・スティック(トラックポイント)、タッチパッド、スタイラス、データグローブ、トラックボール、ペンタブレット、マウス、ライトペン、ジョイパッドなどを用いることができる。
 文字管理DB2は例えば記憶処理回路22で実現され、文字種と文字サイズと文字高と文字幅との対応関係を示す文字属性表を記憶している。
 文字管理部3は例えば文字管理処理回路23で実現されるものである。文字管理部3は事前にディスプレイ32に表示する文字のサイズが設定され、文字管理DB2に記憶されている文字属性表を参照して、その文字サイズに対応する文字高を示す文字属性情報を軌跡判別部4に出力するとともに、その文字サイズに対応する文字高及び文字幅を示す文字属性情報を入力表示制御装置100に出力する処理を実施する。
 軌跡判別部4は例えば画像生成処理回路24で実現されるものであり、操作受付部1により受け付けられた操作によって描かれた線の軌跡を判別して、その軌跡を表す曲線の長さや形状など、その曲線を示す曲線情報を入力表示制御装置100に出力する処理を実施する。この曲線には、直線や折れ曲がった線など、あらゆる形状の線が含まれるものとする。
 また、軌跡判別部4は軌跡を表す曲線の画像である曲線画像を生成し、その曲線画像を入力表示制御装置100に出力する処理を実施する。この曲線画像は曲線情報に含めて入力表示制御装置100に出力される。
 この曲線画像の線幅は、文字管理部3から出力された文字属性情報が示す文字高に対応している。
 文字列認識部5は音声検出部6、音声認識辞書DB7及び音声認識部8を含んでおり、音声の認識結果を示す文字列を表示対象の文字列として入力表示制御装置100に出力する処理を実施する。
 音声検出部6は例えばマイク25で実現され、ユーザの音声を検出する。
 音声認識辞書DB7は例えば記憶処理回路22で実現されるものであり、音声認識辞書DB7は例えば人間の発声の小さな単位である音素の音響特徴が記述されている音響モデルと、音声認識する言葉が記述されている認識辞書とから構成されている。
 音声認識部8は例えば音声認識処理回路26で実現されるものであり、音声検出部6により検出された音声を認識する音声認識エンジンを搭載している。
 即ち、音声認識部8は音声検出部6により検出された音声を分析して、その音声の音響特徴を算出し、音声認識辞書DB7の認識辞書に記述されている言葉の中から、その算出した音響特徴と最も近い音響特徴を有する言葉を探索し、その言葉を示す文字列を音声の認識結果を示す文字列として入力表示制御装置100に出力する処理を実施する。
 図1では、文字列認識部5が音声認識辞書DB7及び音声認識部8を実装している例を示しているが、音声認識辞書DB7及び音声認識部8の代わりに、データ送受信部が実装されているものであってもよい。
 このデータ送受信部は、例えば、インターネットやLANなどの通信経路を介して、図示せぬ音声認識サーバとデータの送受信を行うことが可能なネットワークカードなどのネットワーク通信機器であり、音声検出部6により検出された音声を示すデータを音声認識サーバに送信する。
 音声認識サーバは、音声を認識する音声認識エンジンを搭載しており、データ送受信部から送信された音声を示すデータを受信すると、その音声を認識して、その音声の認識結果を示す文字列を当該データ送受信部に送信する。
 このデータ送受信部は、音声認識サーバから送信された音声の認識結果を示す文字列を受信すると、その文字列を入力表示制御装置に出力する。
 入力表示制御装置100は、曲線情報取得部9、文字列取得部10、文字属性情報取得部11及び表示制御部12を備えている。
 曲線情報取得部9は例えばLAN(Local Area Network)ポートやUSB(Universal Serial Bus)ポートなどを有する入力インタフェース回路27で実現されるものであり、軌跡判別部4から出力された曲線情報を取得する処理を実施する。
 文字列取得部10は例えば入力インタフェース回路27で実現されるものであり、文字列認識部5から出力された文字列を取得する処理を実施する。
 文字属性情報取得部11は例えば入力インタフェース回路27で実現されるものであり、文字管理部3から出力された文字属性情報を取得する処理を実施する。
 表示制御部12は長さ比較部13、延長曲線形状決定部14、曲線延長部17及び表示処理部18を含んでおり、軌跡判別部4から出力された曲線情報が示す曲線に沿って、文字列認識部5から出力された文字列を表示するための表示情報を生成し、その表示情報にしたがって文字列を曲線に沿って表示させる処理を実施する。即ち、文字列認識部5から出力された文字列を曲線情報取得部9により取得された曲線情報に含まれる曲線画像の上に重ねて表示するための表示情報を生成し、その表示情報にしたがって文字列を曲線画像の上に重ねて表示させる処理を実施する。
 また、表示制御部12は、曲線情報取得部9により取得された曲線情報が示す曲線の長さが短いために、文字列認識部5から出力された文字列の一部を曲線に沿って表示することができないと判断した場合、その曲線の形状から、その曲線の延長部分の形状を決定して、その曲線を延長するとともに、その延長部分の曲線に沿って、文字列の一部を表示するための表示情報を生成し、その表示情報にしたがって文字列の一部を表示させる処理を実施する。
 さらに、表示制御部12は、文字列を曲線画像の上に重ねて表示した後、その曲線画像の表示を消去するための表示情報を生成し、その表示情報にしたがって曲線画像を消去させる処理を実施する。
 長さ比較部13は例えば長さ比較処理回路28で実現されるものであり、曲線情報取得部9により取得された曲線情報が示す曲線の長さと、文字列取得部10により取得された文字列の長さとを比較する処理を実施する。
 延長曲線形状決定部14は例えば形状決定処理回路29で実現されるものであり、曲線記憶部15及び形状決定処理部16を備えている。延長曲線形状決定部14は長さ比較部13の比較結果が、曲線の長さが文字列の長さより短い旨を示していれば、曲線情報取得部9により取得された曲線情報が示す曲線の形状から、延長部分の曲線である延長曲線の形状を決定する処理を実施する。
 曲線記憶部15は事前に形状が異なる複数の曲線を記憶している。
 形状決定処理部16は曲線記憶部15に記憶されている複数の曲線の形状と、曲線情報取得部9により取得された曲線情報が示す曲線の形状とを照合して、曲線記憶部15に記憶されている複数の曲線の形状の中から、曲線情報取得部9により取得された曲線情報が示す曲線に対応する曲線の形状を選択し、その選択した曲線の形状から延長曲線の形状を決定する処理を実施する。
 曲線延長部17は例えば曲線延長処理回路30で実現されるものであり、長さ比較部13の比較結果が、曲線の長さが文字列の長さより短い旨を示していれば、延長曲線形状決定部14により形状が決定された延長曲線を曲線情報取得部9により取得された曲線情報が示す曲線の終端に付加する処理を実施する。
 表示処理部18は例えば表示処理回路31で実現されるものであり、曲線情報取得部9により取得された曲線情報が示す曲線に沿って、文字列取得部10により取得された文字列をディスプレイ32に表示するための表示情報を生成し、その表示情報にしたがってディスプレイ32に文字列を表示させる処理を実施する。即ち、文字列取得部10から出力された文字列を曲線情報取得部9により取得された曲線画像の上に重ねて表示するための表示情報を生成し、その表示情報にしたがってディスプレイ32に文字列を曲線画像の上に重ねて表示させる処理を実施する。
 また、表示処理部18は長さ比較部13の比較結果が、曲線の長さが文字列の長さより短い旨を示していれば、曲線延長部17により付加された延長曲線に沿って、曲線画像の上に重ねて表示できていない文字列の一部をディスプレイ32に表示するための表示情報を生成し、その表示情報にしたがってディスプレイ32に文字列の一部を表示させる処理を実施する。
 さらに、表示処理部18はディスプレイ32に文字列を表示させた後、曲線画像の表示を消去するための表示情報を生成し、その表示情報にしたがってディスプレイ32に曲線画像を消去させる処理を実施する。
 文字列一時保存部19は例えば記憶処理回路22で実現され、文字列取得部10により取得された文字列を一時的に保存する。
 図1では、入力表示システムの構成要素である操作受付部1、文字管理DB2、文字管理部3、軌跡判別部4、文字列認識部5、曲線情報取得部9、文字列取得部10、文字属性情報取得部11、長さ比較部13、延長曲線形状決定部14、曲線延長部17、表示処理部18及び文字列一時保存部19のそれぞれが、図2に示すような専用のハードウェア、即ち、ポインティングデバイス21、記憶処理回路22、文字管理処理回路23、画像生成処理回路24、マイク25、音声認識処理回路26、入力インタフェース回路27、長さ比較処理回路28、形状決定処理回路29、曲線延長処理回路30、表示処理回路31及びディスプレイ32で実現されるものを想定している。
 ここで、記憶処理回路22は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
 また、文字管理処理回路23、画像生成処理回路24、音声認識処理回路26、長さ比較処理回路28、形状決定処理回路29、曲線延長処理回路30及び表示処理回路31は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate array)、または、これらを組み合わせたものが該当する。
 また、入力表示システムの構成要素が専用のハードウェアで実現されるものに限るものではなく、入力表示システムがソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
 ソフトウェアやファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
 図3は入力表示システムがソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
 入力表示システムがソフトウェアやファームウェアなどで実現される場合、文字管理DB2、音声認識辞書DB7及び文字列一時保存部19をコンピュータのメモリ41上に構成するとともに、文字管理部3、軌跡判別部4、音声認識部8、曲線情報取得部9、文字列取得部10、文字属性情報取得部11、長さ比較部13、延長曲線形状決定部14、曲線延長部17及び表示処理部18の処理手順をコンピュータに実行させるためのプログラムをメモリ41に格納し、プロセッサ42がメモリ41に格納されているプログラムを実行するようにすればよい。
 図4及び図5はこの発明の実施の形態1による入力表示システムの処理内容である入力表示制御方法を示すフローチャートである。
 また、図2では入力表示システムの構成要素のそれぞれが専用のハードウェアで実現される例を示し、図3では、入力表示システムがソフトウェアやファームウェアなどで実現される例を示しているが、入力表示システムにおける一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
 例えば、操作受付部1及び文字列認識部5を専用のハードウェアで実現し、文字管理DB2、文字管理部3、軌跡判別部4、入力表示制御装置100及び文字列一時保存部19をソフトウェアやファームウェアなどで実現することが可能である。ただし、専用のハードウェアとソフトウェア等の組み合わせは任意である。
 次に動作について説明する。
 図6は文字管理DB2に記憶されている文字属性表を示す説明図である。
 図6の文字属性表では、例えば、文字種毎に、文字サイズに対応している文字高と文字幅が記述されている。文字種としては、例えば、明朝体、ゴシック体などが考えられる。
 文字管理部3には、ディスプレイ32に表示する文字の文字種及び文字サイズが事前に設定されており、文字管理部3は、文字管理DB2に記憶されている文字属性表を参照して、その文字種及び文字サイズに対応する文字高を示す文字属性情報を軌跡判別部4に出力するとともに、その文字種及び文字サイズに対応する文字高及び文字幅を示す文字属性情報を入力表示制御装置100に出力する(図4のステップST1)。
 例えば、事前に設定されている文字の文字種が“A”で、その文字サイズが“10”であれば、文字高が“5mm”であることを示す文字属性情報が軌跡判別部4に出力され、また、文字高が“5mm”、文字幅が“5mm”であることを示す文字属性情報が入力表示制御装置100に出力される。
 また、事前に設定されている文字の文字種が“B”で、その文字サイズが“5”であれば、文字高が“2mm”であることを示す文字属性情報が軌跡判別部4に出力され、また、文字高が“2mm”、文字幅が“1.25mm”であることを示す文字属性情報が入力表示制御装置100に出力される。
 軌跡判別部4は、文字管理部3から文字属性情報を受けると、生成する曲線画像の線幅を文字属性情報が示す文字高に対応する線幅に設定する(ステップST2)。
 例えば、文字属性情報が示す文字高が“10mm”であるとき、仮に文字の上部及び下部の余白が“0.5mm”に設定されているとすれば、10+0.5+0.5=11=(mm)と計算し、曲線画像の線幅を“11mm”に設定する。
 ここでは、文字の上部及び下部に余白を設ける例を示しているが、余白を設けずに、文字属性情報が示す文字高と曲線画像の線幅が一致するものであってもよい。
 この実施の形態1では、操作受付部1を実現しているポインティングデバイス21がタッチパネルであるものを想定しているので、ユーザが自己の指や、タッチパネル用の入力ペンなどを用いて、線を描く操作をタッチパネルに行うと(ステップST3:YESの場合)、操作受付部1が、線を描く操作を受け付けて、その操作の内容を軌跡判別部4に出力する(ステップST4)。
 出力される線を描く操作の内容は、例えば、タッチパネルに接触している指や入力ペンの位置の座標、即ち、タッチパネル上の位置座標の連続的な変化を示す時系列データである。
 軌跡判別部4は、操作受付部1から線を描く操作の内容を受けると、その操作内容から操作によって描かれた線の軌跡を判別する(ステップST5)。
 線を描く操作の内容は、上述したように、タッチパネルに対する接触位置の連続的な変化を示しているので、時系列の接触位置を繋ぎ合わせることで、描かれた線の軌跡を判別することができる。
 軌跡判別部4は、描かれた線の軌跡を判別すると、その軌跡を表す曲線の長さや形状など、その曲線を示す曲線情報を生成する。
 また、軌跡判別部4は、その軌跡を表す曲線の画像である曲線画像を生成し、その曲線画像を含む曲線情報を入力表示制御装置100に出力する(ステップST6)。
 この曲線画像の線幅は、ステップST2で設定した線幅であり、上記の例では、曲線画像の線幅を“11mm”に設定しているので、線幅が“11mm”の曲線画像を生成する。 
 文字列認識部5の音声認識部8は、音声検出部6がユーザの音声を検出すると(ステップST7:YESの場合)、音声認識辞書DB7を利用して、その音声の認識処理を実施することで、その音声の認識結果を示す文字列を生成し、その文字列を入力表示制御装置100に出力する(ステップST8)。
 音声認識部8による音声の認識処理自体は公知の技術であるため詳細な説明を省略するが、例えば、音声検出部6により検出された音声を分析して、その音声の音響特徴を算出し、音声認識辞書DB7の認識辞書に記述されている言葉の中から、その算出した音響特徴と最も近い音響特徴を有する言葉を探索し、その言葉を示す文字列を音声の認識結果を示す文字列として出力する方法が考えられる。
 この実施の形態1では、説明の便宜上、ユーザが「春になったら桜を見に行きましょう」という発話をしており、音声認識部8が「春になったら桜を見に行きましょう」を示す文字列を出力するものとする。
 入力表示制御装置100は、軌跡判別部4から曲線画像を含む曲線情報が出力されると、その曲線画像をディスプレイ32に表示させるとともに、文字列認識部5から出力された文字列を曲線画像の上に重ねて表示させる。
 以下、入力表示制御装置100の処理内容を具体的に説明する。
 図7は音声の認識結果を示す文字列が出力される前に曲線画像が出力された場合の表示処理を示す説明図である。
 図8は曲線画像が出力される前に音声の認識結果を示す文字列が出力された場合の表示処理を示す説明図である。
 図9は曲線画像の上に重ねて表示する文字列を示す説明図である。図9Aは、曲線の長さが文字列の長さより長ければ、その文字列を構成している全ての文字を曲線画像の上に重ねて表示できることを示している。図9Bは、曲線の長さが文字列の長さより短ければ、その文字列を構成している一部の文字を曲線画像の上に重ねて表示できないことを示している。
 図10は表示制御部12の長さ比較部13の処理内容を示す説明図である。図10Aは、曲線の形状が直線である場合に、曲線の長さLの算出に用いる曲線の先端及び終端の位置座標を示している。図10Bは、曲線の形状が曲がっている場合に、曲線の長さLの算出に用いる曲線の先端、終端及び中間点の位置座標を示している。
 図11は表示制御部12の延長曲線形状決定部14の処理内容を示す説明図である。
 図12は表示制御部12の延長曲線形状決定部14により決定された延長曲線の形状の一例を示す説明図である。
 図13は表示制御部12の曲線延長部17の処理内容を示す説明図である。
 表示制御部12の表示処理部18は、文字列認識部5の音声認識部8から文字列が出力される前に、軌跡判別部4から曲線画像を含む曲線情報が出力されることで、曲線情報取得部9が曲線情報を取得すると(図5のステップST11:YESの場合)、曲線画像を表示するための表示情報を生成し、その表示情報にしたがって、図7のステップAに示すように、その曲線画像をディスプレイ32に表示させる(ステップST12)。
 この実施の形態1では、説明の便宜上、ユーザの操作によって描かれている線の長さが短いために、曲線の長さが、音声の認識結果を示す文字列の長さよりも短くなっているものとする。
 なお、表示処理部18が曲線画像を表示させる際、曲線画像の全体を同時に表示させるようにしてもよいが、後で表示する文字列の先頭側から順次表示するアニメーションで、曲線画像を表示させるようにしてもよい。
 表示処理部18は、例えば、図7のステップBに示すように、ユーザが「春になったら桜を見に行きましょう」という発話を行うことで、音声認識部8から「春になったら桜を見に行きましょう」を示す文字列を受けると(図5のステップST13:YESの場合)、その文字列を曲線画像の上に重ねて表示するための表示情報を生成し、その表示情報にしたがって、図7のステップCに示すように、その文字列を曲線画像の上に重ねて表示させる(ステップST14)。
 ただし、図7の例では、曲線の長さが、音声の認識結果を示す文字列の長さよりも短いため、文字列のうち、「春になったら桜を見に行き」については曲線画像の上に重ねて表示されているが、「ましょう」については曲線画像の上に重ねて表示されていない。
 表示制御部12の長さ比較部13は、文字列取得部10が音声認識部8から出力された「春になったら桜を見に行きましょう」を示す文字列を取得すると、文字管理部3から出力されたのち、文字属性情報取得部11により取得された文字属性情報が示す文字幅を参照して、その文字列の長さを算出する(図5のステップST15)。
 ここでは、音声認識部8から出力された文字列が「春になったら桜を見に行きましょう」であり、その文字列の文字数が16であるため、例えば、文字管理部3から出力された文字属性情報が示す文字幅が“5mm”であれば、文字列の長さは、下記の式(1)に示すように、80mmとなる。
文字列の長さ=5mm×16=80mm         (1)
 次に、長さ比較部13は、曲線情報取得部9により取得された曲線情報が示す曲線の長さを算出する(ステップST16)。
 曲線の長さLは、曲線の形状が例えば図10Aに示すような直線であれば、下記の式(2)に示すように、その曲線の先端の位置座標(Xs,Ys)と終端の位置座標(Xe,Ye)とから算出することができる。図7のステップAに表示している曲線画像の場合、曲線の左端が曲線の先端、曲線の右端が曲線の終端である。これらの位置座標は文字幅等を表す単位と同じ単位であるものとする。ここでは、mmが単位である。
Figure JPOXMLDOC01-appb-I000001
 式(2)では、曲線の形状が直線である場合の曲線の長さLの算出式を示しているが、曲線の形状が例えば図10Bに示すような曲線であれば、その曲線の先端の位置座標(Xs,Ys)及び終端の位置座標(Xe,Ye)と、その曲線の先端から終端に至る複数の中間点の位置座標(Xn,Yn)(n=1,・・・,N:Nは1以上の整数)とを用いて、曲線の形状を直線で近似することで、曲線の長さLを算出することができる。
 曲線の長さLは、例えば、N=2の場合、下記の式(3)に示すように、曲線の先端の位置座標(Xs,Ys)と、中間点の位置座標(X1,Y1)と、中間点の位置座標(X2,Y2)と、終端の位置座標(Xe,Ye)とから算出することができる。
Figure JPOXMLDOC01-appb-I000002
 式(3)において、Xs<X1<X2<Xeである。
 図10Bでは、N=2の例を示しているが、近似精度を高めるために、Nを3以上にして、数多くの中間点の位置座標(Xn,Yn)を用いるようにしてもよいことは言うまでもない。
 長さ比較部13は、曲線の長さを算出すると、その曲線の長さと文字列の長さとを比較する(図5のステップST17)。
 延長曲線形状決定部14は、長さ比較部13の比較結果が、曲線の長さが文字列の長さより短い旨を示していれば(図5のステップST18:YESの場合)、曲線情報取得部9により取得された曲線情報が示す曲線の形状から、延長部分の曲線である延長曲線の形状を決定する(ステップST19)。
 即ち、延長曲線形状決定部14の形状決定処理部16は、曲線記憶部15に記憶されている複数の曲線の形状と、曲線情報取得部9により取得された曲線情報が示す曲線の形状とを照合することで、曲線記憶部15に記憶されている複数の曲線の形状の中で、その曲線情報が示す曲線の形状と最も一致度が高い曲線の形状を特定し、最も一致度が高い曲線の形状を選択する。曲線の形状を照合して、一致度が最も高い曲線の形状を特定する処理自体は公知の技術であるため詳細な説明を省略する。
 形状決定処理部16は、曲線記憶部15に記憶されている複数の曲線の形状の中から、図11に示すような曲線の形状を選択すると、その選択した曲線の形状から延長曲線の形状を決定する。
 例えば、曲線記憶部15に記憶されている複数の曲線の長さが、操作によって描かれた線の軌跡を表す曲線より十分に長ければ、選択した曲線の形状の中で、その曲線情報が示す曲線より長い部分の形状を、延長曲線の形状に決定する。
 図11の例では、操作によって描かれた線の軌跡を表す曲線、即ち、軌跡判別部4により判別された軌跡を表す曲線を破線で表し、最も一致度が高い選択した曲線を実線で表しており、破線で表している曲線の延長部分の形状を、実線で表している曲線の形状と同じにしている。
 この実施の形態1では、曲線記憶部15に記憶されている複数の曲線の形状の中で、軌跡判別部4により判別された軌跡を表す曲線の形状と最も一致度が高い曲線の形状を選択し、その選択した曲線の形状から延長曲線の形状を決定する例を示しているが、これは一例に過ぎず、他の方法で、延長部分の曲線である延長曲線の形状を決定するものであってもよい。
 例えば、軌跡判別部4により判別された軌跡を表す曲線の形状の曲率の変化傾向などを計算し、その曲率の変化傾向から、延長曲線の形状を推定するなどの方法が考えられる。
 図12は延長曲線の形状決定例を示しており、図12Aでは、緩く曲がっている曲線の終端部における接線の形状を延長曲線の形状としている。
 図12Bでは、曲線全体の曲率が一定であるため、延長曲線の形状の曲率を、軌跡判別部4により判別された軌跡を表す曲線である元の曲線の形状の曲率と同じにしている。
 図12Cでは、曲線の形状が周期的な波線形状であるため、延長曲線の形状を元の曲線と同じ周期の波線形状にしている。
 図12Dでは、曲線の終端付近が円弧状に曲がっているため、延長曲線の形状を元の曲線の終端付近と同様の円弧形状にしている。
 曲線延長部17は、延長曲線形状決定部14が延長曲線の形状を決定すると、その延長曲線を曲線情報取得部9により取得された曲線情報が示す曲線の終端に付加することで、曲線を延長する(ステップST20)。
 図13の例では、曲線の長さが60mm、文字列の長さが80mmであり、曲線の長さが文字列の長さより20mm短いため、20mmだけ、曲線を延長している。
 表示処理部18は、曲線延長部17が曲線を延長すると、延長部分の曲線に沿って、曲線が短いために未表示であった文字列の一部である「ましょう」を表示するための表示情報を生成し、その表示情報にしたがって、図7のステップDに示すように、延長部分の曲線に沿って、曲線が短いために未表示であった文字列の一部である「ましょう」をディスプレイ32に表示させる(ステップST21)。
 ここでは、曲線延長部17により付加された延長曲線に沿って、未表示であった文字列の一部をディスプレイ32に表示させるものを示したが、図7のステップDにおける右側の図のように、延長曲線を示す曲線画像をディスプレイ32に表示させ、未表示であった文字列の一部を当該曲線画像の上に重ねて表示させるようにしてもよい。
 表示処理部18は、文字列を構成する全ての文字を曲線画像の上に重ねて表示させた後、曲線画像を消去するための表示情報を生成し、ディスプレイ32に、その表示情報にしたがって、図7のステップEに示すように、曲線画像を消して、文字列のみを表示させる(ステップST22)。
 表示処理部18が曲線画像を消去させる際、曲線画像の全体が同時に消去されるようにしてもよいが、文字列の先頭側から順番に消去するアニメーションで、曲線画像が消去されるようにしてもよい。
 ここでは、曲線画像と文字列が重ねて表示されてから、一定時間後に、曲線画像が消去されるものを想定しているが、文字列の表示が完了すると、直ちに、曲線画像が消去されるものであってもよい。
 表示処理部18は、図8のステップAに示すように、ユーザが線を描く操作を行う前に発話することで、軌跡判別部4から曲線画像を含む曲線情報が出力される前に、文字列認識部5の音声認識部8から文字列が出力されることで、文字列取得部10が文字列を取得すると(図5のステップST11:NOの場合)、その文字列を文字列一時保存部19に格納して、軌跡判別部4から曲線情報が出力されるまで待機する(ステップST23:NOの場合)。
 その後、ユーザが線を描く操作を開始して、その操作が完了すると、軌跡判別部4から曲線情報が出力される。
 表示処理部18は、軌跡判別部4から曲線情報が出力されることで、曲線情報取得部9が曲線情報を取得すると(ステップST23:YESの場合)、文字列一時保存部19から文字列を読み出し、その文字列を曲線画像の上に重ねて表示するための表示情報を生成し、その表示情報にしたがって、図8のステップBに示すように、その文字列を曲線画像の上に重ねて表示させる。即ち、表示処理部18は、曲線画像と文字列を同じ位置に重ねて表示させる(ステップST24)。
 ただし、図8の例では、曲線の長さが、音声の認識結果を示す文字列の長さよりも短いため、文字列のうち、「春になったら桜を見に行き」については曲線画像の上に重ねて表示されているが、「ましょう」については曲線画像の上に重ねて表示されていない。
 表示処理部18が曲線画像と文字列を同じ位置に重ねて表示させる際、曲線画像と文字列の全体を同時に表示させるようにしてもよいが、文字列の先頭側から順次表示するアニメーションで、曲線画像と文字列を表示させるようにしてもよい。
 また、ユーザの指のなぞりにあわせて、曲線画像と文字列が指の下から湧き出てくるように、その曲線画像と文字列を順次表示させるようにしてもよい。
 なお、図7では、ユーザが指をなぞってから発話する例を示し、図8ではユーザが発話してから指をなぞる例を示したが、指のなぞりと発話が同時に行われるものであってもよい。
 長さ比較部13は、文字列取得部10が音声認識部8から出力された「春になったら桜を見に行きましょう」を示す文字列を取得すると、文字管理部3から出力されたのち、文字属性情報取得部11により取得された文字属性情報が示す文字幅を参照し、上記の式(1)にしたがって、その文字列の長さを算出する(図5のステップST15)。
 また、長さ比較部13は、曲線情報取得部9により取得された曲線情報を受けると、上記の式(2)又は式(3)にしたがって、その曲線情報が示す曲線の長さを算出する(ステップST16)。
 長さ比較部13は、曲線の長さを算出すると、その曲線の長さと文字列の長さとを比較する(図5のステップST17)。
 延長曲線形状決定部14は、長さ比較部13の比較結果が、曲線の長さが文字列の長さより短い旨を示していれば(図5のステップST18:YESの場合)、曲線情報取得部9により取得された曲線情報が示す曲線の形状から、延長部分の曲線である延長曲線の形状を決定する(ステップST19)。
 曲線延長部17は、延長曲線形状決定部14が延長曲線の形状を決定すると、その延長曲線を曲線情報取得部9により取得された曲線情報が示す曲線の終端に付加することで、曲線を延長する(ステップST20)。
 図13の例では、曲線の長さが60mm、文字列の長さが80mmであり、曲線の長さが文字列の長さより20mm短いため、20mmだけ、曲線を延長している。
 表示処理部18は、曲線延長部17が曲線を延長すると、延長部分の曲線に沿って、曲線の長さが短いために未表示であった文字列の一部である「ましょう」を表示するための表示情報を生成し、その表示情報にしたがって、図8のステップCに示すように、延長部分の曲線に沿って、未表示であった文字列の一部である「ましょう」をディスプレイ32に表示させる(ステップST21)。
 ここでは、曲線延長部17により付加された延長曲線に沿って、未表示であった文字列の一部をディスプレイ32に表示させるものを示したが、図8のステップCにおける右側の図のように、延長曲線を示す曲線画像をディスプレイ32に表示させ、未表示であった文字列の一部を当該曲線画像の上に重ねて表示させるようにしてもよい。
 表示処理部18は、文字列を構成する全ての文字を曲線画像の上に重ねて表示させた後、曲線画像を消去ための表示情報を生成し、ディスプレイ32に、その表示情報にしたがって、図8のステップDに示すように、曲線画像を消去させて、文字列のみを表示させる(ステップST22)。
 表示処理部18が曲線画像を消去させる際、曲線画像の全体が同時に消去されるようにしてもよいが、文字列の先頭側から順番に消去するアニメーションで、曲線画像が消去されるようにしてもよい。
 ここでは、曲線画像と文字列が重ねて表示させてから、一定時間後に、曲線画像が消去されるものを想定しているが、文字列の表示が完了すると、直ちに、曲線画像が消去されるものであってもよい。
 この実施の形態1では、曲線の長さが、音声の認識結果を示す文字列の長さよりも短い例を示しているが、曲線の長さが、音声の認識結果を示す文字列の長さ以上である場合、曲線の長さを延長することなく、その文字列を構成する全ての文字を曲線画像の上に重ねて表示させることができる。
 このため、長さ比較部13の比較結果が、曲線の長さが文字列の長さ以上である旨を示していれば(図5のステップST18:Noの場合)、ステップST19~ST21の処理を実施せずに、ステップST22の処理に移行し、曲線画像を消去して、文字列のみを表示している状態にする。
 この実施の形態1では、長さ比較部13が、文字列を構成する各文字の間が離れておらず、文字間の長さが0mmであるとして、式(1)によって文字列の長さを計算しているが、文字間の長さが0mmより大きければ、その文字間の長さを考慮して、文字列の長さを算出するようにしてもよい。例えば、文字間の長さが0.5mmであれば、文字列の長さは、下記の式(4)に示すように、87.5mmとなる。
文字列の長さ=(5mm×16)+(0.5mm×15)=87.5mm
                            (4)
 式(4)は、式(1)と同様に、文字列の文字数が16、文字幅が“5mm”である場合を示している。
 以上で明らかなように、この実施の形態1によれば、表示制御部12が、曲線情報取得部9により取得された曲線情報が示す曲線の長さが短いために、文字列取得部10により取得された文字列の一部を曲線に沿って表示することができないと判断する場合、曲線情報取得部9により取得された曲線情報が示す曲線の形状から、その曲線の延長部分の形状を決定して、その曲線を延長し、延長部分の曲線に沿って、その文字列の一部を表示するための表示情報を生成するように構成したので、曲線の長さが、文字列の長さより短い場合でも、文字列の全部を曲線に沿って表示させることができる効果を奏する。
 また、この実施の形態1によれば、入力表示制御装置100が、文字列認識部5の音声認識部8から文字列が出力される前に、軌跡判別部4から曲線画像を含む曲線情報が出力された場合、曲線画像をディスプレイ32に表示させた後、文字列認識部5の音声認識部8から出力された文字列を曲線画像の上に重ねて表示させる一方、軌跡判別部4から曲線画像を含む曲線情報が出力される前に、文字列認識部5の音声認識部8から文字列が出力された場合、軌跡判別部4から曲線情報が出力されるまで待機し、軌跡判別部4から曲線情報が出力されると、曲線画像をディスプレイ32に表示させるとともに、文字列を曲線画像の上に重ねて表示させるように構成したので、ユーザが発話する前に線を描く操作を行った場合、音声の認識結果を示す文字列が表示される位置を事前に把握することができる。したがって、ユーザが文字列の表示イメージをつかむことができる効果を奏する。また、ユーザが線を描く操作を行う前に発話した場合、線を描く操作が行われると、曲線画像と文字列が同じ位置に重ねて表示されるため、応答性が高い操作感をユーザに与えることができる効果を奏する。
 この実施の形態1では、入力表示制御装置100が、文字列を曲線画像の上に重ねて表示させるものを示しているが、文字列を曲線画像の上に重ねずに、曲線画像の周囲において、その曲線画像に沿うように文字列を表示させるようにしてもよい。
 また、曲線画像は、ユーザが曲線画像を確認することができなくてもよければ、無色透明の画像であってもよい。また、曲線画像は有色透明の画像であってもよい。
 曲線画像が無色透明である場合、表示制御部12の表示処理部18が、軌跡判別部4により判別された軌跡を表す幅のない曲線や、曲線延長部17により延長された軌跡を表す幅のない曲線をディスプレイ32に表示させるようにしてもよい。
実施の形態2.
 上記実施の形態1では、曲線情報取得部9により取得された曲線情報が示す曲線に沿って、文字列取得部10により取得された文字列をディスプレイ32に表示させるものを示したが、さらに、その文字列を翻訳し、その翻訳結果を示す文字列をディスプレイ32に表示させるようにしてもよい。
 図14はこの発明の実施の形態2による入力表示制御装置を含む入力表示システム示す構成図であり、図15はこの発明の実施の形態2による入力表示システムのハードウェア構成図である。
 図14及び図15において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
 翻訳部52は例えばCPUを実装している半導体集積回路あるいはワンチップマイコンなどで構成されている翻訳処理回路34で実現されるものであり、文字列取得部10により取得された文字列を翻訳する処理を実施する。
 表示制御部51は長さ比較部13、延長曲線形状決定部14、曲線延長部17、翻訳部52及び表示処理部53を含んでおり、図1の表示制御部12と同様の処理を実施するほかに、翻訳部52の翻訳結果を示す文字列の長さ以上の長さを有する翻訳文字列表示用の曲線を生成し、翻訳文字列表示用の曲線に沿って、翻訳部52の翻訳結果を示す文字列をディスプレイ32に表示するための表示情報を生成し、その表示情報にしたがって翻訳部52の翻訳結果を示す文字列をディスプレイ32に表示させる処理を実施する。
 表示制御部51の表示処理部53は例えば表示処理回路31で実現されるものであり、図1の表示処理部18と同様の処理を実施する。
 また、表示処理部53は、図1の表示処理部18と異なり、翻訳部52の翻訳結果を示す文字列の長さ以上の長さを有する翻訳文字列表示用の曲線を生成し、翻訳文字列表示用の曲線に沿って、翻訳部52の翻訳結果を示す文字列をディスプレイ32に表示させる処理も実施する。
 図14では、入力表示システムの構成要素である操作受付部1、文字管理DB2、文字管理部3、軌跡判別部4、文字列認識部5、曲線情報取得部9、文字列取得部10、文字属性情報取得部11、長さ比較部13、延長曲線形状決定部14、曲線延長部17、翻訳部52、表示処理部53及び文字列一時保存部19のそれぞれが、図15に示すような専用のハードウェア、即ち、ポインティングデバイス21、記憶処理回路22、文字管理処理回路23、画像生成処理回路24、マイク25、音声認識処理回路26、入力インタフェース回路27、長さ比較処理回路28、形状決定処理回路29、曲線延長処理回路30、表示処理回路31、ディスプレイ32及び翻訳処理回路34で実現されるものを想定しているが、入力表示システムがソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
 入力表示システムがソフトウェアやファームウェアなどで実現される場合、文字管理DB2、音声認識辞書DB7及び文字列一時保存部19を図3に示すコンピュータのメモリ41上に構成するとともに、操作受付部1、文字管理部3、軌跡判別部4、音声検出部6、音声認識部8及び表示制御部51の処理手順をコンピュータに実行させるためのプログラムをメモリ41に格納し、図3に示すプロセッサ42がメモリ41に格納されているプログラムを実行するようにすればよい。
 次に動作について説明する。
 ただし、翻訳部52及び表示処理部53以外は、上記実施の形態1と同様であるため、ここでは、主に翻訳部52及び表示処理部53の処理内容について説明する。
 翻訳部52は、文字列取得部10が文字列認識部5から出力された音声の認識結果を示す文字列を取得すると、その文字列を翻訳し、その翻訳結果を示す文字列を長さ比較部13及び表示処理部53に出力する。
 音声の認識結果を示す文字列が「夏休みに海に行ったよ」であれば、例えば、その翻訳結果を示す文字列は「I went to the sea in summer vacation」のようになる。
 表示処理部53は、図1の表示処理部18と同様に、文字列認識部5により取得された音声の認識結果を示す文字列を曲線情報取得部9により取得された曲線画像の上に重ねて表示させる。
 また、表示処理部53は、曲線情報取得部9により取得された曲線情報が示す曲線の長さが文字列の長さより短いために、その文字列の一部を曲線に沿って表示することができなければ、図1の表示処理部18と同様に、曲線延長部17により付加された延長曲線に沿って、その文字列の一部をディスプレイ32に表示させる。
 表示処理部53は、翻訳部52から翻訳結果を示す文字列を受けると、その翻訳結果を示す文字列の長さ以上の長さを有する翻訳文字列表示用の曲線を生成する。
 このとき、翻訳結果を示す文字列を構成する文字の文字幅を示す文字属性情報は、文字管理部3から受けるものとする。
 例えば、翻訳結果を示す文字列が「I went to the sea in summer vacation」である場合、文字数がスペースを含めて36であるため、翻訳結果を示す文字列を構成する文字の文字幅が“2mm”であるとすれば、翻訳結果を示す文字列の長さは、下記の式(5)に示すように、72mmとなる。
翻訳結果を示す文字列の長さ=2mm×36=72mm   (5)
 したがって、この場合には、翻訳文字列表示用の曲線の長さは、72mm以上の長さとなる。
 また、翻訳文字列表示用の曲線の形状は、ユーザの操作によって描かれた線の軌跡を表す曲線、即ち、曲線情報取得部9により取得された曲線情報が示す曲線の形状と同じ形状とする。曲線延長部17によって曲線が延長されている場合には、曲線延長部17により延長された曲線の形状と同じ形状とする。
 例えば、ユーザの操作によって描かれた線の軌跡を表す曲線の形状が円弧形状であれば、翻訳文字列表示用の曲線の形状も円弧形状であり、ユーザの操作によって描かれた線の軌跡を表す曲線の形状が波線形状であれば、翻訳文字列表示用の曲線の形状も波線形状である。
 なお、曲線延長部17によって曲線が延長されていて、翻訳文字列表示用の曲線の長さが、曲線延長部17により延長された曲線の長さより長い場合、あるいは、曲線延長部17によって曲線が延長されていなくて、翻訳文字列表示用の曲線の長さが、曲線情報取得部9により取得された曲線情報が示す曲線の長さより長い場合には、その曲線情報が示す曲線を延長する場合と同様の方法で、翻訳文字列表示用の曲線の形状から、翻訳文字列表示用の曲線の延長部分の形状を決定して、翻訳文字列表示用の曲線を延長するものとする。
 表示処理部53は、翻訳文字列表示用の曲線を生成すると、翻訳文字列表示用の曲線に沿って、その翻訳結果を示す文字列をディスプレイ32に表示するための表示情報を生成し、その表示情報にしたがって翻訳結果を示す文字列をディスプレイ32に表示させる。
 ここで、図16は表示制御部51の表示処理部53における表示処理の一例を示す説明図である。
 ステップAでは、ユーザの操作によって描かれた線の軌跡を表す曲線の曲線画像をディスプレイ32に表示している。
 ステップBにおいて、ユーザの音声の認識処理が実施されると、ステップCでは、その音声の認識結果を示す文字列を曲線画像の上に重ねて表示させている。ステップA~ステップCまでは、上記実施の形態1と同様である。ただし、ここでは、音声の認識結果を示す文字列が出力される前に曲線画像を含む曲線情報が出力された場合の例を示している。
 ステップDでは、ユーザの操作によって描かれた線の軌跡を表す曲線と同形状の翻訳文字列表示用の曲線に沿って、翻訳結果を示す文字列をディスプレイ32に表示させている。
 図16の例では、表示処理部53が、翻訳文字列表示用の曲線を、ユーザの操作によって描かれた線の軌跡を表す曲線の下側に並べているが、ユーザの操作によって描かれた線の軌跡を表す曲線の上側に並べてもよいし、左側や右側に並べてもよい。
 ステップEでは、ユーザの操作によって描かれた線の軌跡を表す曲線の曲線画像を消去している。
 この実施の形態2では、表示処理部53が、翻訳文字列表示用の曲線をディスプレイ32に表示させるものを示したが、翻訳文字列表示用の曲線は透明であってもよい。
 この実施の形態2では、音声の認識結果を示す文字列と、翻訳結果を示す文字列とを並べて表示させるものを示したが、図17に示すように、ステップCで音声の認識結果を示す文字列を表示させたのち、ステップSTDで音声の認識結果を示す文字列を先頭から消去させながら、翻訳結果を示す文字列を先頭から曲線画像の上に重ねて表示させるようにしてもよい。
 この場合、最終的に表示される文字列は、翻訳結果を示す文字列だけになる。
 また、この実施の形態2では、図18に示すように、表示処理部53が、折り返し翻訳の結果を示す文字列を、音声の認識結果を示す文字列及び翻訳結果を示す文字列と並べて表示させるようにしてもよい。
 この実施の形態2では、日本語から英語に翻訳している例を示しているため、この場合の折り返し翻訳は、翻訳した英語を日本語に翻訳し直すことを意味する。
 図18の例では、ステップDにおいて、音声の認識結果を示す文字列である日本語の下に、翻訳結果を示す文字列である英語を表示させ、その英語の下に、折り返し翻訳を示す文字列である日本語を表示させている。
 また、図19に示すように、ステップDにおいて、曲線画像の上に重ねて表示させた音声の認識結果を示す文字列である日本語を消してから、翻訳結果を示す文字列である英語を曲線画像の上に重ねて表示させるとともに、その英語の下に、折り返し翻訳を示す文字列である日本語を表示させるようにしてもよい。
 以上で明らかなように、この実施の形態2によれば、文字列取得部10により取得された文字列を翻訳する翻訳部52を備え、表示処理部53が、翻訳部52の翻訳結果を示す文字列の長さ以上の長さを有する翻訳文字列表示用の曲線を生成し、翻訳文字列表示用の曲線に沿って、翻訳部52の翻訳結果を示す文字列をディスプレイ32に表示するための表示情報を生成するように構成したので、上記実施の形態1と同様に、線を描く操作によって描かれた線の軌跡を表す曲線の長さが、翻訳部52の翻訳結果を示す文字列より短い場合でも、その文字列の全部を曲線に沿って表示させることができる効果を奏する。
 この実施の形態2では、音声の認識結果を示す文字列と、翻訳結果を示す文字列とを並べて表示させるものを示したが、図20に示すように、ディスプレイ32が二画面で構成されており、かつ、その二画面の上面が互い接している対面構成の場合、例えば、図中、対面二画面の下側の画面に、音声の認識結果が示す文字列を表示され、図中、対面二画面の上側の画面に、翻訳結果を示す文字列が表示されるようにしてもよい。
 あるいは、対面二画面の下側の画面に、翻訳結果を示す文字列が表示され、対面二画面の上側の画面に、音声の認識結果を示す文字列が表示されるようにしてもよい。
 ただし、対面二画面であるため、対面二画面の上側の画面では、文字が180度回転している。
 また、対面二画面の場合でも、図21に示すように、折り返し翻訳の結果を示す文字列を表示させるようにしてもよい。
実施の形態3.
 上記実施の形態1では、文字列認識部5が、表示対象の文字列として、音声の認識結果を示す文字列を取得するものを示したが、表示対象の文字列として、操作受付部1により受け付けられた操作によって描かれた文字の認識結果を示す文字列を取得するものであってもよい。
 図22はこの発明の実施の形態3による入力表示制御装置を含む入力表示システム示す構成図であり、図23はこの発明の実施の形態3による入力表示システムのハードウェア構成図である。
 図22及び図23において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
 文字列認識部60は文字認識処理部61を含んでおり、操作受付部1により受け付けられた操作によって描かれた文字の認識結果を示す文字列を表示対象の文字列として出力する処理を実施する。
 文字認識処理部61は、例えば光学文字認識処理であるOCR(Optical Character Recognition)機能を実装している文字認識処理回路35で実現されるものであり、操作受付部1により受け付けられた操作によって描かれた文字を認識し、その文字の認識結果を示す文字列を表示対象の文字列として出力する処理を実施する。
 図22では、入力表示システムの構成要素である操作受付部1、文字管理DB2、文字管理部3、軌跡判別部4、文字列認識部60、曲線情報取得部9、文字列取得部10、文字属性情報取得部11、長さ比較部13、延長曲線形状決定部14、曲線延長部17、表示処理部18及び文字列一時保存部19のそれぞれが、図23に示すような専用のハードウェア、即ち、ポインティングデバイス21、記憶処理回路22、文字管理処理回路23、画像生成処理回路24、マイク25、音声認識処理回路26、入力インタフェース回路27、長さ比較処理回路28、形状決定処理回路29、曲線延長処理回路30、表示処理回路31、ディスプレイ32及び文字認識処理回路35で実現されるものを想定しているが、入力表示システムがソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
 入力表示システムがソフトウェアやファームウェアなどで実現される場合、文字管理DB2及び文字列一時保存部19を図3に示すコンピュータのメモリ41上に構成するとともに、操作受付部1、文字管理部3、軌跡判別部4、文字認識処理部61及び表示制御部12の処理手順をコンピュータに実行させるためのプログラムをメモリ41に格納し、図3に示すプロセッサ42がメモリ41に格納されているプログラムを実行するようにすればよい。
 図24は文字の認識結果を示す文字列の表示処理の一例を示す説明図である。
 次に動作について説明する。
 この実施の形態3では、操作受付部1を実現しているポインティングデバイス21がタッチパネルであるものを想定しているので、ユーザが自己の指や、タッチパネル用の入力ペンなどを用いて、線を描く操作として、文字を描く操作をタッチパネルに行うと、操作受付部1が、文字を描く操作を受け付けて、その操作の内容を軌跡判別部4及び文字列認識部60に出力する。
 出力される文字を描く操作の内容は、例えば、タッチパネルに接触している指や入力ペンの位置の座標、即ち、タッチパネル上の位置座標の連続的な変化を示す時系列データである。
 図24の例では、ステップAにおいて、ユーザが「私は和食が食べたいです」という文字列を手書きしている。
 文字列認識部60の文字認識処理部61は、操作受付部1により受け付けられた操作によって描かれた複数の文字を認識して、複数の文字の認識結果を示す文字列を取得し、その文字列を軌跡判別部4及び入力表示制御装置100に出力する。
 軌跡判別部4は、操作受付部1から1つ以上の文字を描く操作の内容を受けて、文字認識処理部61から文字列を受けると、1つ以上の文字を描く操作の内容を、文字毎に振り分ける処理を実施する。
 具体的には、以下の通りである。
 まず、軌跡判別部4は、文字を描く操作の内容である時系列データが示すタッチパネル上の各位置座標のうち、X座標が最も小さい座標XLEFTと、X座標が最も大きい座標XRIGHTとを特定して、その座標XRIGHTから座標XLEFTを減算することで、文字列のX方向の長さを算出する。
 そして、軌跡判別部4は、文字列のX方向の長さを文字数で除算することで、1文字当りX方向の長さを算出し、また、1文字当りX方向の長さと座標XLEFTから、各々の文字が存在しているX方向の座標範囲を算出する。例えば、文字列の左端からn番目の文字が存在しているX方向の座標範囲は、(1文字当りX方向の長さ×(n-1)+XLEFT)~(1文字当りX方向の長さ×n+XLEFT)のように算出する。
 そして、軌跡判別部4は、時系列データが示す各位置座標のそれぞれが含まれる上記X方向の座標範囲をみつけて、時系列データが示す各位置座標のそれぞれを対応するX方向の座標範囲に振り分けることで、1つ以上の文字を描く操作の内容を、文字毎に振り分けるようにする。
 次に、軌跡判別部4は、X方向の座標範囲単位に、当該座標範囲に対応する文字の中心座標として、当該座標範囲に含まれている時系列データが示す各位置座標のX座標の平均値とY座標の平均値とを算出する。
 軌跡判別部4は、文字列を構成している各文字の中心座標を算出すると、図24のステップBに示すように、各文字の中心座標を繋ぎ合わせることで1本の線を生成し、その1本の線を文字列の軌跡を表す曲線として、その曲線を示す曲線情報を入力表示制御装置100に出力する。
 ここでは、文字列を構成している各文字の大きさが均等であるとして、文字列のX方向の長さを文字数で除算することで、1文字当りX方向の長さを算出している。手書き文字の場合、各文字の大きさが均等であるとは限らないため、X方向の座標範囲単位が、文字列を構成している各文字と一致しない場合がある。
 しかし、この実施の形態3では、各文字の中心座標が厳密に分からなくても、文字列が存在している領域をX方向に分割した各領域の中心座標が分かれば、文字列の並び方向を示す曲線を求めることができる。したがって、各文字の大きさが均等でない場合でも、上記の方法で、曲線を求めることができる。
 また、ここでは、軌跡判別部4が、文字列の並び方向を示す曲線を求める際、X方向の座標範囲単位に、時系列データが示す各位置座標を振り分けるようにしているが、例えば、手書き文字が縦書きであるような場合には、Y方向の座標範囲単位に、時系列データが示す各位置座標を振り分けるようにしてもよい。
 ここで説明している各位置座標を振り分ける方法は一例に過ぎず、他の方法を用いてもよいことは言うまでもない。
 この実施の形態3では、文字を描く操作内容から曲線を求めているが、ユーザが、文字を描く操作とは別に、上記実施の形態1で示している線を描く操作を行うことで、操作受付部1により文字を描く操作及び線を描く操作が受け付けられた場合、軌跡判別部4は、上記実施の形態1と同様に、操作受付部1により受け付けられた線を描く操作の内容から、描かれた線の軌跡を表す曲線を判別するようにしてもよい。
 表示制御部12の表示処理部18は、文字列取得部10が文字列認識部60の文字認識処理部61から出力された文字列を取得すると、曲線情報取得部9により取得された曲線情報が示す曲線に沿って、その文字列をディスプレイ32に表示するための表示情報を生成し、その表示情報にしたがって、その文字列をディスプレイ32に表示させる。
 図24のステップCでは、手書き文字に並べるように軌跡を表す曲線を描いて、文字列を表示させているが、これに限るものではなく、例えば、手書き文字を消去させてから、手書き文字の位置に曲線を描いて、文字列を表示させるようにしてもよい。
 また、軌跡を表す曲線は、透明であってもよい。
 この実施の形態3では、文字を描く操作内容から曲線を求めることができるが、認識された文字列は、上記実施の形態1と同様に、予め決定された属性の文字で表示されることになるため、表示処理部18は、求めた曲線の長さが、文字列の長さより短い場合、上記実施の形態1と同様に、文字列を構成している文字の一部を曲線に沿って表示させることができない。
 この場合は、上記実施の形態1と同様に、曲線を延長することで、表示されていない文字の一部を表示させるようにする。
 即ち、長さ比較部13が曲線の長さと文字列の長さを比較し、延長曲線形状決定部14が延長曲線の形状を決定し、曲線延長部17が曲線情報取得部9により取得された曲線情報が示す曲線に延長曲線を付加することで、曲線を延長する。そして、表示処理部18が、延長曲線に沿って、表示されていない文字の一部を表示させる。
 以上で明らかなように、この実施の形態3によれば、文字列認識部60が、操作受付部1により受け付けられた操作によって描かれた文字を認識し、その文字の認識結果を示す文字列を表示対象の文字列として取得する文字認識処理部61を備えるように構成したので、手書き文字を表示する場合でも、上記実施の形態1と同様の効果を奏する。
実施の形態4.
 上記実施の形態3では、文字認識処理部61を備えた文字列認識部60を上記実施の形態1における図1の入力表示制御装置に適用する例を示したが、文字認識処理部61を備えた文字列認識部60を上記実施の形態2における図14の入力表示制御装置に適用するようにしてもよい。
 図25はこの発明の実施の形態4による入力表示制御装置を含む入力表示システムを示す構成図である。
 図26は翻訳結果を示す文字列の表示処理の一例を示す説明図である。
 上記実施の形態3では、曲線情報取得部9により取得された曲線情報が示す曲線に沿って、複数の文字の認識結果を示す文字列をディスプレイ32に表示させているが、この実施の形態4では、表示制御部51の表示処理部53が、図26のステップCに示すように、曲線情報取得部9により取得された曲線情報が示す曲線に沿って、翻訳部52から出力された翻訳結果を示す文字列もディスプレイ32に表示させている点で相違している。
 この実施の形態4によれば、上記実施の形態2と同様に、曲線情報取得部9により取得された曲線情報が示す曲線の長さが、翻訳部52の翻訳結果を示す文字列より短い場合でも、その文字列の全部を曲線に沿って表示させることができる効果を奏する。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明に係る入力表示制御装置、入力表示制御方法及び入力表示システムは、文字列を表示させる用途に適している。
 1 操作受付部、2 文字管理DB、3 文字管理部、4 軌跡判別部、5 文字列認識部、6 音声検出部、7 音声認識辞書DB、8 音声認識部、9 曲線情報取得部、10 文字列取得部、11 文字属性情報取得部、12 表示制御部、13 長さ比較部、14 延長曲線形状決定部、15 曲線記憶部、16 形状決定処理部、17 曲線延長部、18 表示処理部、19 文字列一時保存部、21 ポインティングデバイス、22 記憶処理回路、23 文字管理処理回路、24 画像生成処理回路、25 マイク、26 音声認識処理回路、27 入力インタフェース回路、28 長さ比較処理回路、29 形状決定処理回路、30 曲線延長処理回路、31 表示処理回路、32 ディスプレイ、34 翻訳処理回路、35 文字認識処理回路、41 メモリ、42 プロセッサ、51 表示制御部、52 翻訳部、53 表示処理部、60 文字列認識部、61 文字認識処理部、100 入力表示制御装置。

Claims (8)

  1.  曲線を示す曲線情報を取得する曲線情報取得部と、
     文字列を取得する文字列取得部と、
     前記曲線情報取得部により取得された曲線情報が示す曲線に沿って、前記文字列取得部により取得された文字列を表示するための表示情報を生成する表示制御部とを備え、
     前記表示制御部は、前記曲線情報取得部により取得された曲線情報が示す曲線の長さが短いために、前記文字列取得部により取得された文字列の一部を前記曲線に沿って表示することができないと判断した場合、前記曲線の形状から、前記曲線の延長部分の形状を決定して、前記曲線を延長し、前記延長部分の曲線に沿って、前記文字列の一部を表示するための表示情報を生成することを特徴とする入力表示制御装置。
  2.  前記表示制御部は、
     前記曲線情報取得部により取得された曲線情報が示す曲線の長さと、前記文字列取得部により取得された文字列の長さとを比較する長さ比較部と、
     前記長さ比較部の比較結果が、前記曲線の長さが前記文字列の長さより短い旨を示していれば、前記曲線の形状から、前記延長部分の曲線である延長曲線の形状を決定する延長曲線形状決定部と、
     前記延長曲線形状決定部により形状が決定された延長曲線を前記曲線情報取得部により取得された曲線情報が示す曲線の終端に付加する曲線延長部と、
     前記曲線延長部により付加された延長曲線に沿って、前記文字列の一部を表示するための表示情報を生成する表示処理部とを備えたことを特徴とする請求項1記載の入力表示制御装置。
  3.  前記延長曲線形状決定部は、
     形状が異なる複数の曲線を記憶している曲線記憶部と、
     前記曲線記憶部に記憶されている複数の曲線の形状と、前記曲線情報取得部により取得された曲線情報が示す曲線の形状とを照合して、前記曲線記憶部に記憶されている複数の曲線の形状の中から、前記曲線情報取得部により取得された曲線情報が示す曲線の形状に対応する曲線の形状を選択し、前記選択した曲線の形状から前記延長曲線の形状を決定する形状決定処理部とを備えたことを特徴とする請求項2記載の入力表示制御装置。
  4.  前記文字列取得部により取得された文字列を翻訳する翻訳部を備え、
     前記表示制御部は、さらに、
     前記翻訳部の翻訳結果を示す文字列の長さ以上の長さを有する翻訳文字列表示用の曲線を生成し、前記翻訳文字列表示用の曲線に沿って、前記翻訳部の翻訳結果を示す文字列を表示するための表示情報を生成することを特徴とする請求項1記載の入力表示制御装置。
  5.  曲線情報取得部が、曲線を示す曲線情報を取得し、
     文字列取得部が、文字列を取得し、
     表示制御部が、前記曲線情報取得部により取得された曲線情報が示す曲線に沿って、前記文字列取得部により取得された文字列を表示するための表示情報を生成する処理を実施し、
     前記表示制御部では、前記曲線情報取得部により取得された曲線情報が示す曲線の長さが短いために、前記文字列取得部により取得された文字列の一部を前記曲線に沿って表示することができないと判断した場合、前記曲線の形状から、前記曲線の延長部分の形状を決定して、前記曲線を延長し、前記延長部分の曲線に沿って、前記文字列の一部を表示するための表示情報を生成することを特徴とする入力表示制御方法。
  6.  線を描く操作を受け付ける操作受付部と、
     前記操作受付部により受け付けられた操作によって描かれた線の軌跡を判別する軌跡判別部と、
     表示対象の文字列を認識する文字列認識部と、
     前記軌跡判別部により判別された軌跡を表す曲線を示す曲線情報を取得する曲線情報取得部と、
     前記文字列認識部により認識された文字列を取得する文字列取得部と、
     前記曲線情報取得部により取得された曲線情報が示す曲線に沿って、前記文字列取得部により取得された文字列を表示するための表示情報を生成する表示制御部とを備え、
     前記表示制御部は、前記曲線情報取得部により取得された曲線情報が示す曲線の長さが短いために、前記文字列取得部により取得された文字列の一部を前記曲線に沿って表示することができないと判断した場合、前記曲線の形状から、前記曲線の延長部分の形状を決定して、前記曲線を延長し、前記延長部分の曲線に沿って、前記文字列の一部を表示するための表示情報を生成することを特徴とする入力表示システム。
  7.  前記文字列認識部は、
     音声を検出する音声検出部と、
     前記音声検出部により検出された音声を認識し、表示対象の文字列として、前記音声の認識結果を示す文字列を取得する音声認識部とを備えたことを特徴とする請求項6記載の入力表示システム。
  8.  前記文字列認識部は、
     前記操作受付部により受け付けられた操作によって描かれた文字を認識し、表示対象の文字列として、前記文字の認識結果を示す文字列を取得する文字認識処理部を備えたことを特徴とする請求項6記載の入力表示システム。
PCT/JP2016/053686 2016-02-08 2016-02-08 入力表示制御装置、入力表示制御方法及び入力表示システム WO2017138076A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
PCT/JP2016/053686 WO2017138076A1 (ja) 2016-02-08 2016-02-08 入力表示制御装置、入力表示制御方法及び入力表示システム
CN201680080670.6A CN108700981B (zh) 2016-02-08 2016-02-08 输入显示控制装置、输入显示控制方法和输入显示系统
CN202210644459.XA CN115047997A (zh) 2016-02-08 2016-02-08 输入显示控制装置、输入显示控制方法和输入显示系统
US16/068,459 US10884612B2 (en) 2016-02-08 2016-02-08 Input display control device, input display control method, and input display system
KR1020187024134A KR101981439B1 (ko) 2016-02-08 2016-02-08 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템
JP2017506808A JP6355823B2 (ja) 2016-02-08 2016-02-08 入力表示制御装置、入力表示制御方法及び入力表示システム
KR1020197013942A KR102174565B1 (ko) 2016-02-08 2016-02-08 표시 제어 장치, 입력 표시 시스템, 표시 제어 방법 및 프로그램
CN202210644398.7A CN115061622A (zh) 2016-02-08 2016-02-08 输入显示控制装置、输入显示控制方法和输入显示系统
EP16889778.3A EP3407173B1 (en) 2016-02-08 2016-02-08 Input display control device, input display control method, and input display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/053686 WO2017138076A1 (ja) 2016-02-08 2016-02-08 入力表示制御装置、入力表示制御方法及び入力表示システム

Publications (1)

Publication Number Publication Date
WO2017138076A1 true WO2017138076A1 (ja) 2017-08-17

Family

ID=59563719

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/053686 WO2017138076A1 (ja) 2016-02-08 2016-02-08 入力表示制御装置、入力表示制御方法及び入力表示システム

Country Status (6)

Country Link
US (1) US10884612B2 (ja)
EP (1) EP3407173B1 (ja)
JP (1) JP6355823B2 (ja)
KR (2) KR102174565B1 (ja)
CN (3) CN115047997A (ja)
WO (1) WO2017138076A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019049312A1 (ja) * 2017-09-08 2019-03-14 三菱電機株式会社 表示制御装置及び表示制御方法
CN109871173A (zh) * 2017-12-01 2019-06-11 富士施乐株式会社 信息处理装置、信息处理系统
CN110209296A (zh) * 2018-02-28 2019-09-06 夏普株式会社 信息处理装置及信息处理方法
JP6641530B1 (ja) * 2018-12-07 2020-02-05 三菱電機株式会社 入力表示制御装置、入力表示制御方法及び入力表示システム
JP6656477B1 (ja) * 2018-12-07 2020-03-04 三菱電機株式会社 入力表示制御装置、入力表示制御方法及び入力表示システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022107282A1 (ja) * 2020-11-19 2022-05-27 三菱電機株式会社 端末、入力表示方法および入力表示システム
KR20230089783A (ko) * 2021-12-14 2023-06-21 삼성전자주식회사 디스플레이 장치 및 그 제어 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010623A (ja) * 2012-06-29 2014-01-20 Toshiba Corp 音声翻訳装置、方法およびプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05197507A (ja) * 1992-01-17 1993-08-06 Hitachi Ltd ポータブルコンピュータ
KR0124033B1 (ko) 1993-03-30 1997-11-24 최병철 전선 피복용 열경화성 수지 조성물
JP3376072B2 (ja) * 1994-02-07 2003-02-10 キヤノン株式会社 文字処理装置及び方法
JPH10124033A (ja) 1996-08-30 1998-05-15 Canon Inc 文字処理装置、文字処理方法、及び、記憶媒体
JP3933449B2 (ja) * 2001-11-22 2007-06-20 株式会社東芝 コミュニケーション支援装置
JP4544587B2 (ja) * 2005-03-09 2010-09-15 株式会社バンダイナムコゲームス プログラム、情報記憶媒体および画像生成システム
JP4569622B2 (ja) * 2007-12-18 2010-10-27 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US8584012B1 (en) * 2008-10-10 2013-11-12 Adobe Systems Incorporated Methods and systems for displaying text on a path
JP4810594B2 (ja) * 2009-06-24 2011-11-09 京セラ株式会社 携帯端末、言語設定プログラムおよび言語設定方法
JP5014449B2 (ja) * 2010-02-26 2012-08-29 シャープ株式会社 会議システム、情報処理装置、会議支援方法、情報処理方法、及びコンピュータプログラム
JP5058280B2 (ja) * 2010-03-12 2012-10-24 シャープ株式会社 翻訳装置、翻訳方法及びコンピュータプログラム
KR101695816B1 (ko) * 2010-07-19 2017-01-13 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP5790070B2 (ja) * 2010-08-26 2015-10-07 カシオ計算機株式会社 表示制御装置およびプログラム
JP5211193B2 (ja) * 2010-11-10 2013-06-12 シャープ株式会社 翻訳表示装置
KR20120092365A (ko) * 2011-02-11 2012-08-21 삼성전자주식회사 정전용량방식 터치스크린패널 표시장치
JP5703125B2 (ja) * 2011-05-20 2015-04-15 シャープ株式会社 表示装置および表示プログラム
JP2013003803A (ja) * 2011-06-15 2013-01-07 Sharp Corp 文字入力装置、文字入力装置の制御方法、制御プログラム、及び記録媒体
KR102023008B1 (ko) * 2012-12-10 2019-09-19 엘지전자 주식회사 음성-텍스트 변환 디스플레이 장치 및 그 방법
US9875017B2 (en) * 2013-04-26 2018-01-23 Kyocera Corporation Device, method, and program
JP6286866B2 (ja) * 2013-05-20 2018-03-07 オムロン株式会社 画像処理装置および画像処理方法
US9116871B2 (en) * 2013-05-20 2015-08-25 Microsoft Technology Licensing, Llc Ink to text representation conversion
JP6120736B2 (ja) * 2013-09-11 2017-04-26 アルパイン株式会社 地図表示装置および地図上における文字列表示方法
EP3306452B1 (en) 2015-05-28 2022-04-20 Mitsubishi Electric Corporation Input display device and input display method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010623A (ja) * 2012-06-29 2014-01-20 Toshiba Corp 音声翻訳装置、方法およびプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KABUSHIKI KAISHA INK POT, PHOTOSHOP & ILLUSTRATOR PURO NO GENBA NO SHIGOTO-JUTSU, 9 April 2012 (2012-04-09), pages 252, XP009507976 *
See also references of EP3407173A4 *
YUKARI OKAMOTO, SUMAHO & TABLET O TSUKAITAOSU! BENRI APURI KATSUYOHO, NIKKEI PC21, vol. 20, no. 7, 24 April 2015 (2015-04-24), pages 120 - 123, XP009507956 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019049312A1 (ja) * 2017-09-08 2019-03-14 三菱電機株式会社 表示制御装置及び表示制御方法
JPWO2019049312A1 (ja) * 2017-09-08 2020-01-16 三菱電機株式会社 表示制御装置及び表示制御方法
CN109871173A (zh) * 2017-12-01 2019-06-11 富士施乐株式会社 信息处理装置、信息处理系统
JP2019101739A (ja) * 2017-12-01 2019-06-24 富士ゼロックス株式会社 情報処理装置、情報処理システムおよびプログラム
JP7006198B2 (ja) 2017-12-01 2022-01-24 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システムおよびプログラム
CN110209296A (zh) * 2018-02-28 2019-09-06 夏普株式会社 信息处理装置及信息处理方法
JP6656477B1 (ja) * 2018-12-07 2020-03-04 三菱電機株式会社 入力表示制御装置、入力表示制御方法及び入力表示システム
WO2020115909A1 (ja) * 2018-12-07 2020-06-11 三菱電機株式会社 入力表示制御装置、入力表示制御方法及び入力表示システム
WO2020115907A1 (ja) 2018-12-07 2020-06-11 三菱電機株式会社 入力表示制御装置、入力表示制御方法及び入力表示システム
KR20210069733A (ko) 2018-12-07 2021-06-11 미쓰비시덴키 가부시키가이샤 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템
KR20210073591A (ko) 2018-12-07 2021-06-18 미쓰비시덴키 가부시키가이샤 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템
JP6641530B1 (ja) * 2018-12-07 2020-02-05 三菱電機株式会社 入力表示制御装置、入力表示制御方法及び入力表示システム
KR20220031770A (ko) 2018-12-07 2022-03-11 미쓰비시덴키 가부시키가이샤 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템
US11393230B2 (en) 2018-12-07 2022-07-19 Mitsubishi Electric Corporation Input display control device, input display control method, and input display system

Also Published As

Publication number Publication date
CN108700981B (zh) 2022-06-28
KR101981439B1 (ko) 2019-05-22
KR20190055273A (ko) 2019-05-22
EP3407173B1 (en) 2020-05-27
US10884612B2 (en) 2021-01-05
CN115047997A (zh) 2022-09-13
KR20180098681A (ko) 2018-09-04
CN115061622A (zh) 2022-09-16
JPWO2017138076A1 (ja) 2018-02-15
KR102174565B1 (ko) 2020-11-05
US20190012075A1 (en) 2019-01-10
EP3407173A4 (en) 2019-01-23
EP3407173A1 (en) 2018-11-28
JP6355823B2 (ja) 2018-07-11
CN108700981A (zh) 2018-10-23

Similar Documents

Publication Publication Date Title
JP6355823B2 (ja) 入力表示制御装置、入力表示制御方法及び入力表示システム
JP3131287B2 (ja) パターン認識装置
JP5897725B2 (ja) ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体
WO2016189735A1 (ja) 入力表示装置及び入力表示方法
US11393230B2 (en) Input display control device, input display control method, and input display system
JP6727279B2 (ja) 表示制御装置、入力表示システム、表示制御方法及びプログラム
JP6448838B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP6656477B1 (ja) 入力表示制御装置、入力表示制御方法及び入力表示システム
JP6987302B1 (ja) 入力表示制御装置、入力表示制御方法および入力表示システム
JP6675472B2 (ja) 入力表示装置
JPH06119498A (ja) 手書き文字認識装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017506808

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16889778

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20187024134

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1020187024134

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2016889778

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016889778

Country of ref document: EP

Effective date: 20180824