WO2002079970A2 - Computer und steuerverfahren dafür - Google Patents

Computer und steuerverfahren dafür Download PDF

Info

Publication number
WO2002079970A2
WO2002079970A2 PCT/DE2002/001035 DE0201035W WO02079970A2 WO 2002079970 A2 WO2002079970 A2 WO 2002079970A2 DE 0201035 W DE0201035 W DE 0201035W WO 02079970 A2 WO02079970 A2 WO 02079970A2
Authority
WO
WIPO (PCT)
Prior art keywords
computer
screen
parameters
computer system
key
Prior art date
Application number
PCT/DE2002/001035
Other languages
English (en)
French (fr)
Other versions
WO2002079970A3 (de
Inventor
Jörg Meyer
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=7679760&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2002079970(A2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to EP02724119A priority Critical patent/EP1374031A2/de
Publication of WO2002079970A2 publication Critical patent/WO2002079970A2/de
Publication of WO2002079970A3 publication Critical patent/WO2002079970A3/de
Priority to US10/673,823 priority patent/US20040133874A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Definitions

  • the invention relates to a method for controlling a computer, in particular when creating programs, and to a suitable computer system with a screen connected to a computer for displaying information.
  • the invention reduces the instruction to a computer to carry out an action on predicate and object or command and data or function and parameters. Then this division becomes one Instructions in grammatical objects made reliably understandable for the computer, for example by pressing a key as the end of the function or the command or predicate and by pressing a key after the parameters, data or objects have been completed. It is now possible to separate commands, in particular function instructions on the one hand, and data, for example variable names on the other hand, and as a result the unlimited set of variable names has been separated from the restricted set of commands.
  • buttons to be operated are displayed on a control screen in terms of programming, the button operation can be registered, for example, by a pressure-sensitive film applied to the screen. This means that switching elements in the narrower sense can be dispensed with.
  • the screen for feedback of the entered information is essential anyway and can therefore also be used for operation.
  • Another feature according to the invention is that selectable objects, functions or parameters are displayed on an operating screen, the selection being registered, for example, by a pressure-sensitive film applied to the screen.
  • This option of directly marking elements from a stored library that can be used as a function object for example, supplements the interactive input by, for example, selecting difficult-to-recognize variable names not by language but by pressing a virtual button assigned to the object in question become.
  • Such a library can be selected and opened, for example, by a subordinate function control of the computer, then, for example, the desired object can be brought to the screen along a hierarchically structured structure and then specified by tapping it.
  • filtering can be carried out to determine whether a library control function or the like has been entered instead of a parameter, and in such a case a branch is made to a subroutine part which, by specifying an object or parameter to be entered, returns to the operating or Input interpretation level is ended.
  • this input method is suitable Particularly good for the graphic creation of programs, whereby individual program segments are stored as objects in their own library and are linked together by voice control until the desired function is realized.
  • the main idea here is to enter a contact plan, which is then converted into an executable program by an automatic translation into the machine language, which precisely implements the function of the entered circuit diagram.
  • the selection of the information to be entered is made by comparing the coordinates of the printing area with the coordinates of displayed keys, objects, functions, parameters, etc., and that the last selected key, object, etc. is processed as information - Processing takes place as soon as no printing area can be determined.
  • Such a clear assignment of a sensed pressure on the pressure-sensitive film to exactly one displayed object or the like is possible, an object recognized by the computer as being selected, for example, being displayed or outlined with a different color on the screen in order to indicate that the computer considers the object in question as selected.
  • the user has not hit the activatable button, for example due to a parallax error when viewing the screen, he can find the activatable button using "buttons" without taking his finger off and therefore knows when releasing the screen that the computer is accurate will use the desired object highlighted by the image marking as a function parameter or the like.
  • a computer system for carrying out the method according to the invention has a screen connected to the computer for displaying information and is distinguished by a connected microphone and by the fact that a manual input option can be connected or connected in the area of the screen.
  • the microphone is essential for speech recognition. This can be followed by an amplifier, a sample and hold element as well as an analog-to-digital converter and a speech recognition module, where by correlating the speech signal with predetermined speech patterns, its content can be detected and then converted into alphanumeric characters which can be converted into corresponding (ASCII- ) Coding can be processed by the computer.
  • a manual input option which can take on a wide variety of forms, for example, an element that can be activated by touch is also conceivable, in which a connected oscillating circuit is detuned by the capacity inherent in the human body and, in this case, the action without mechanical switching elements a user can be determined by the computer.
  • a connected oscillating circuit is detuned by the capacity inherent in the human body and, in this case, the action without mechanical switching elements a user can be determined by the computer.
  • Foot pedal with a connected push button are thought, however, such a training is less suitable due to the increased effort required for actuation as well as the verbal entry of an "END" word, since a constant repetition of such a word is quick when entering a command proves comparatively annoying, which is why an input option that can be operated with the finger was recognized as optimal.
  • a microphone which can be coupled to the computer via a serial interface, can be connected to any commercially available computer, so that it can carry out the method according to the invention after loading a corresponding program.
  • an amplifier that may be required and an analog-digital conversion circuit should be provided in the microphone housing at the same time. The supply voltage for this is supplied via the interface.
  • the entire human-machine interface can be used can be realized as a single part with an integrated screen and microphone.
  • the additionally required key can either also be built into the housing or can be displayed as a button on the screen.
  • the manual input option it has proven to be advantageous for the manual input option to be designed as a pressure-sensitive film applied to the screen.
  • a pressure-sensitive film of this type not only can a single button for marking the end of commands and parameters be implemented, but also an interactive input option, in which libraries can be graphically displayed, opened and searched until a found object is printed an area of the pressure-sensitive film configured as a button is selected.
  • the manual input option is designed as a hand-sized, mobile unit.
  • a conventional push button can optionally be implemented with a debouncing function.
  • a touch-sensitive button can also be provided which already reacts to a pressure-free touch.
  • the mobile input unit with a cable or via an infrared interface or other wireless is preferred
  • Interface coupled with the computer. If a (shielded) cable is used, the level of interference immunity is highest, and at the same time the supply voltage of the computer itself can be used.
  • a connector to be connected to the computer can, for example, correspond to the standardized pin assignment of a parallel or serial interface, whereby a simultaneous use of the relevant interface for voice input is possible if, for example, the different input devices can be distinguished by different address assignments.
  • an energy source in the mobile unit for example. be provided in the form of a battery. In such a case, the susceptibility to faults may also be minimally increased.
  • such an instrument can be held mechanically, for example, like a light ballpoint pen, so that the user is not restricted in his freedom of movement during operation.
  • the microphone is built into the mobile input unit. Since the enter key must always remain within the user's reach, the microphone can be safely accommodated in the same housing. At the same time, the digitized voice and manual input signals can already be brought together in this mobile input device, whereby it may be necessary to ensure by means of a suitable interface protocol that the origin of the signals currently being transmitted to a computer can be clearly distinguished from the microphone or from the input key. In this case, a single transmission channel may be sufficient to transmit all information to the computer.
  • a receiving unit can either be inserted into its own slot reserved for additional modules on the main board of the computer in question, or it is designed for connection to an interface connection. In the latter case, after loading a program according to the invention and plugging the receiver into an interface connection, any conventional office computer can be operated without any further modification using the method according to the invention.
  • 1 shows a computer workstation according to the invention
  • 2 shows various steps in executing the method according to the invention; such as
  • FIG. 4 shows a signal flow plan for the implementation of the method according to the invention.
  • FIG. 1 shows a computer work station 1 with a computer 2 which can be controlled completely without using a keyboard 3.
  • the user 4 is given a visual feedback of the current activity of the computer 2 by means of a screen 5 connected to the computer 2.
  • a microphone 6 on the one hand and an input key 7 on the other hand are used to control the computer 2.
  • a floppy disk and / or CD drive 8 a loudspeaker 9, further indicator lights, etc. can also be provided on the computer 2 as usual. After loading a corresponding user program using the diskette or CD drive 8, the computer 2 can then reliably perform even the most complex functions in a controlled manner by voice input.
  • FIG. 2 An example of this is shown in FIG. 2. This is the interactive creation of programs based on program blocks provided in a library 10, which are selected for creating the program and displayed as graphic symbols 11 on a background and then coupled to one another such that, for example, the input of a graphic symbol 11 to the Output of another graphic symbol 11 is coupled. It is necessary to give the interfaces between these individual program segments individual names so that these
  • Program blocks can be used several times without misunderstandings. For example. should a coupling signal between two graphic symbols, for example automatically the variable name of the upstream program block
  • output designation "Variable 1” can be renamed to a characteristic name that better corresponds to the meaning of this signal or the block it controls.
  • user 4 would therefore like to use the coupling variable with the previous name "Variable Rename 1 "to” Motor "to indicate that the component controlled by this signal is a motor.
  • this object is achieved in that the user 4 pronounces the "rename" command 12 for the microphone 6 in a clearly perceptible manner (step a), then the input button 7 is manually actuated 13 to indicate that the command 12 is now has been entered (step b), and now the computer 2 can use the entered language
  • step c the command set is "Rename: variable 1 in motor "completely and can be carried out by the computer 2, the result, namely the name change of a link between two graphic symbols 11, then being displayed on the screen 5.
  • FIG. 3 shows how the structure of a set of instructions is divided between the various input elements 6, 7 in order to be able to communicate a wide variety of commands to the computer 2 without errors in the shortest possible time.
  • the instruction set according to the German grammar is divided into predicate 15 (rename) and object 16 (variable 1 in motor).
  • the predicate 15 characterizing the function of the command set is placed in front of the objects 16 serving as function parameters and differentiated from them in time by actuating the enter key 7.
  • This enables the computer 2 to press the 17 after pressing the enter key 7 previously interpreted speech as a command 18 and the further speech input 14, 16 on the basis of the stored for this command 12, 15
  • the parameter input 14, 16 is preferably also completed by a repeated actuation 19 of the input key 7; on the other hand, a waiting time could also be provided here, the sequence of which following the last object input 14, 16 recognized the automatic interpretation of the parameters and then the execution of the process Command would result.
  • FIG. 4 shows the structure required to control the computer 2.
  • the microphone 6 the output signal of which, after preamplification, sampling with a frequency of, for example, 25 kHz and analog-digital conversion 20, is converted into a series of dual numbers corresponding to the individual sampling values, this signal sequence being included in a downstream correlation module 21 stored speech patterns 22 is compared in order to convert the input speech into a sequence of letters, which is then written into a FIFO memory 23, for example of the shift register type, so that in the example 23 from FIG. 2 the sequence of letters “rename” first in each case is in ASCII coding.
  • the input key 7 is actuated 13, 17.
  • the resistor 25, which is connected to ground potential 24 on one side, is connected at its other end to the supply voltage 26, so that the common circuit node 27 is at the potential of the supply voltage when the key 7 is actuated.
  • voltage preferably "high level” is set, while it otherwise follows the ground potential 24 (preferably “low level”).
  • the key 7 can be followed by a debouncing logic (not shown) as well as a differentiating logic for recognizing the rising and / or falling signal edges. By pressing the enter key 7, therefore, a special end-of-sequence signal is shifted into the shift register 23, thereby marking the end of the command sequence.
  • a switch 29 at the output of the shift register 23 is closed via a logic circuit 28 and thereby its content is fed to a correlation module 30, which compares this text with the limited and stored command set 31, in order thereby, for example, the start address for the to determine the subroutine corresponding to the command and to write it to the command memory 32.
  • the command memory 32 is enabled to read further information about the parameters of the recognized command from a format set memory 33. First, it is determined whether this command requires any parameters at all. If this is the case, the logic 28 is instructed by a further control signal 34 to control the changeover switch 29 in its lower position according to FIG. 4 as soon as the input key 7 is actuated the next time. As a result, after completion 19 of the following voice input 16, the second key actuation 7 transmits the text converted into ASCII characters to a parameter interpreter 35, which at the same time receives the format 33 valid for the expected parameter by means of the command memory 32. Therefore, the parameter interpreter 35 knows how to handle and in particular format the data received from the shift register 23. Thus, at the output 36 of the parameter interpreter 35, there is a valid parameter set corresponding to the format specifications 33, which is merged 37 with the recognized command 32 in order to then correctly Start sequence 38 and the transfer of the required parameters 36.
  • this basic circuit diagram does not show the possibility of additional specification of objects by means of a pressure-sensitive film applied to the screen 5.
  • Objects specified in this way could be introduced directly at the input of the parameter interpreter 35, for which purpose an OR link between the output signal of the switch 29 and a corresponding recognition software for the actuation of buttons would have to be provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Control By Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung richtet sich einerseits auf ein Verfahren zur Steuerung eines Computers (2), wobei von dem Rechner (2) auszuführende Funktionen (15) sowie ggf. Parameter (16), etc. mittels eines Spracherkennungssystems (6, 20-22) eingegeben und durch eine manuelle Eingabe (7, 17, 19), insbesondere einen Tastendruck (13), abgeschlossen werden; sowie andererseits auf eine Computeranlage (1) zur Durchführung dieses Verfahrens mit einem angeschlossenen Bildschirm (5) zur Wiedergabe von Informationen, wobei an dem Computer (2) ein Mikrofon (6) sowie im Bereich des Bildschirms (15) eine manuelle Eingabemöglichkeit (7) angeschlossen oder anschliessbar ist.

Description

Beschreibung
Computer und Steuerverfahren dafür
Die Erfindung richtet sich auf ein Verfahren zur Steuerung eines Computers, insbesondere bei der Erstellung von Programmen, sowie auf eine dazu geeignete Computeranlage mit einem an einen Computer angeschlossenen Bildschirm zur Wiedergabe von Informationen.
Im Verlauf der vergangenen Jahrzehnte haben Computer in der Industrie die vielfältigsten Steuerungsaufgaben übernommen und auch in Büroanwendungen den dort Angestellten die Arbeit erleichtert. Hierfür wurden jeweils optimierte Eingabetechni- ken entwickelt: Bei Industrie-Automatisierungsgeräten werden häufig Bildschirme mit einer darauf applizierten, drucksensitiven Folie verwendet, um die Koordinaten eines Finger- Druckpunktes mit eingeblendeten Schaltflächen zu vergleichen und daraus die gewünschte Funktion ermitteln zu können. Für Anwendungen im Bürobereich wurde die sog. Maus entwickelt, welche mittels einer gegenüber einer Tischplatte od. dgl. rollend bewegbaren Kugel arbeitet, um von den Kugelbewegungen die gewünschten Koordinaten eines auf der Bildschirmoberfläche sichtbaren Zeigerelementes zu bestimmen, mit dem sodann Funktionen ausgewählt und ausgeführt werden können. Damit wird den jeweiligen, besonderen Anforderungen entsprochen: In stark mit Schmutz befrachteten Industriehallen wird auf mechanische Schaltelemente verzichtet und stattdessen werden virtuelle Schalt lächen erzeugt; im Büroalltag ist es güns- tig, wenn man sich ohne Kenntnis der Programmiersprachen durch geschickte Steuerung eines Zeigerelementes auf ebenfalls virtuell eingeblendete Schaltflächen Funktionen auswählen kann. Mit letzterer Technik können zwar die vielfältigsten Dateneingabeaufgaben bewältigt werden, bspw. auch das Erstellen von Computerzeichnungen, jedoch ist die Eingabegeschwindigkeit prinzipiell dadurch begrenzt, dass das Zeigerelement vor Ausführung einer Funktion immer quer über den Bildschirm bis zu der betreffenden Schaltfläche bewegt werden muss, und außerdem hängt die Positioniergenauigkeit in erheblichem Umfang von dem Fingerspitzengefühl der betreffenden Person ab. Dies mag zwar bspw. bei der Erstellung von Zeich- nungen, wo es weniger auf die Geschwindigkeit als vielmehr auf die Präzision ankommt, nur eine untergeordnete Rolle spielen; bei nicht graphischen Anwendungen, insbesondere bei der Erstellung von abzuarbeitenden Programmen der verschiedensten Programmiersprachen existiert eine derartige Recht- fertigung für eine zeitraubende Eingabetechnik nicht. Es ist solchenfalls vielmehr wichtig, eine Programmsequenz oder - Struktur aus vordefinierten Befehlen und diesen zugeordneten Parametern oder sonstigen Daten in eine elektronisch speicherbare Form zu bringen. Dazu wird zumeist eine Schreibma- schinentastatur verwendet, um den Programmtext in alphanumerischer Form einzugeben. Hierbei hängt die erforderliche Zeit von der Flinkheit der die Tastatur bedienenden Person einerseits und von der Länge der einzugebenden Befehlswörter andererseits ab. Zwar ist es im Rahmen einer Arbeitsteilung mög- lieh, das Eingeben eines Programmtextes einer (einem) Daten- typistin (-en) zu überlassen, der hierzu die erforderliche Fingerfertigkeit mitbringt; dadurch ist jedoch wiederum eine interaktive Programmerstellung nicht möglich, was den Programmierer zur Verwendung von Papier, Bleistift und Radier- gummi nötigt, um einen Programmentwurf auszuarbeiten und zu optimieren.
Andererseits ist mittlerweile auch die sog. Spracheingabe von Texten möglich, wobei einfach ein gesprochener Text in einen geschriebenen Text umgewandelt wird. Diese Technik konnte jedoch bislang nicht erfolgreich auf interaktive Funktionen erweitert werden, welche bei der Erstellung von Programmen erforderlich sind. Insbesondere bei der Eingabe von Programmen anhand von sog. Kontaktplandarstellungen, wobei ein elekt- risch-analoges Ersatzschaltbild den digitalen Programmablauf ersetzt, sind anstelle eines fortlaufenden Textes eine Vielzahl von Steuerbefehlen einzugeben. Denn hierbei ist die Aus- wähl sowie Anordnung und Aneinanderkopplung von verschiedenen Schaltelementen erforderlich, was mittels aufeinanderfolgender Anweisungen bewerkstelligt wird, die von dem Computer richtig erkannt und ausgeführt werden müssen. Da die meisten derartigen Funktionen parameterbehaftet sind, lässt sich normalerweise kein abgeschlossener Anweisungssatz definieren, innerhalb desselben sodann die gewünschte Funktion samt Parameter zu suchen wäre; vielmehr werden gerade bei der Erstellung von Programmen häufig Variable verwendet, die einen Be- zug zu der betreffenden Anwendung haben und daher den Anweisungswortschatz auf nahezu den gesamten Sprachwortschatz und darüber hinaus erweitern. Das korrekte Verständnis und die richtige Verarbeitung von Funktionen, Parametern, Daten und Variablennamen bei der Erstellung von Programmen stellt bis- lang ein eingabetechnisches Problem dar, so dass auf die Verwendung der langsamen Eingabehilfsmittel wie Tastatur und Maus bisher nicht verzichtet werden konnte.
Aus diesen Nachteilen des beschriebenen Stands der Technik resultiert das die Erfindung initiierende Problem, ein Verfahren zur Steuerung eines Computers dahingehend zu optimieren, dass bei der interaktiven Erstellung von Programmen, insbesondere bei Eingabe mittels einer Kontaktplan- oder sonstigen, graphischen Darstellung, auf eine Tastatur und Maus möglichst vollständig verzichtet werden kann.
Die Lösung dieses Problems gelingt dadurch, dass von dem Rechner auszuführende Funktionen sowie ggf. Parameter, etc. mittels eines Spracherkennungssystems eingegeben und durch eine manuelle Eingabe, insbesondere einen Tastendruck, abgeschlossen werden.
Entsprechend der grammatikalischen Struktur aller gängigen Sprachen, nämlich Subjekt, Prädikat und Objekt reduziert die Erfindung die Anweisung an einen Computer zur Ausführung einer Aktion auf Prädikat und Objekt bzw. Befehl und Daten oder Funktion und Parameter. Sodann wird diese Unterteilung einer Anweisung in grammatikalische Objekte für den Computer zuverlässig verständlich gemacht, bspw. durch einen Tastendruck als Abschluss der Funktion bzw. des Befehls oder Prädikats sowie durch einen Tastendruck nach Abschluss der Parameter, Daten oder Objekte. Nun ist eine Auftrennung in Befehle, insbesondere Funktionsanweisungen einerseits und Daten, bspw. Variablennamen andererseits möglich, und dadurch ist der unbeschränkte Variablennamen-Satz von dem beschränkten Befehlssatz abgetrennt worden. Somit kann die Zuordnung eines über Sprache eingegebenen Befehls zu einer bestimmten Funktion weit einfacher vorgenommen werden, bspw. durch einen Vergleich der Übereinstimmungen mit sämtlichen Elementen des Befehlswortschatzes, als bei einem unbegrenzten Wortschatz, wo eine derartige Hilfestellung nicht möglich ist. Dem Computer wird somit das Verständnis der eingegebenen Befehle erheblich erleichtert .
Es hat sich als vorteilhaft erwiesen, dass zum Abschluss einer Funktion eine andere Taste vorgesehen ist als zum Ab- schluss eines Parameters, Objektes od. dgl . Durch diese Maßnahmen erhält der Computer weitere Informationen, die ihm die Auswahl der gewünschten Aktion weiter erleichtern. Indem die grundsätzlich auszuführende Funktion erkannt ist, kann der Computer aus den für die Parameter vorgesehene Formaten er- kennen, ob der eingegebene Text „vier" bspw. als Ziffer oder als Text, insbesondere Variablename od. dgl., aufzufassen ist. Die Wahrscheinlichkeit von Mißverständnissen wird damit erheblich reduziert und umgekehrt proportional dazu die Arbeitsgeschwindigkeit erhöht.
Weitere Vorzüge ergeben sich dadurch, dass zum Abschluss einer mit mehreren optionalen Parametern zu versehenden Funktion eine weitere Taste oder abermals die Funktionstaste gedrückt wird. Diese Methode kann dazu verwendet werden, um den Abschluss eines komplexen, mit optionalen Parametern versehenen Befehls zu markieren. Wenn die zu betätigenden Tasten programmtechnisch auf einem Bedienungsbildschirm eingeblendet werden, kann die Tastenbetätigung bspw. von einer auf dem Bildschirm applizierten, drucksensitiven Folie registriert werden. Damit kann auf Schaltelemente im engeren Sinne verzichtet werden, außerdem ist der Bildschirm zur Rückkopplung der eingegebenen Informationen ohnehin unabdingbar und kann daher auch zur Bedienung verwendet werden.
Ein weiteres, erfindungsgemäßes Merkmal liegt darin, dass auswählbare Objekte, Funktionen oder Parameter auf einem Bedienungsbildschirm eingeblendet werden, wobei die Auswahl bspw. von einer auf dem Bildschirm applizierten, drucksensitiven Folie registriert wird. Diese Option der direkten Mar- kierung von bspw. als Funktionsobjekt verwendbaren Elementen aus einer abgespeicherten Bibliothek ergänzt die interaktive Eingabe, indem bspw. schwierig zu erkennende Variablennamen nicht durch Sprache, sondern durch einen Druck auf eine virtuelle, dem betreffenden Objekt zugeordnete Schaltfläche aus- gewählt werden. Dies hat bspw. gegenüber der manuellen Eingabe über eine schreibmaschinenartige Tastatur den Vorteil, dass mit einer einzigen Fingerbewegung das betreffende Objekt zweifelsfrei identifiziert werden kann, so dass die Gefahr von Schreib- wie auch von Spracherkennungsfehlern eliminiert ist. Dabei kann eine derartige Bibliothek bspw. durch eine unterlagerte Funktionssteuerung des Computers ausgewählt und aufgeschlagen werden, sodann kann bspw. entlang einer hierarchisch gegliederten Struktur genau das gewünschte Objekt auf den Bildschirm geholt und sodann durch Antippen spezifiziert werden. Dabei kann bei einzugebenden Parametern eine Filterung dahingehend erfolgen, ob statt eines Parameters eine Bibliotheksteuerungsfunktion od. dgl. eingegeben wurde, und solchenfalls wird in einen Unterprogrammteil verzweigt, der mit der Spezifizierung eines einzugebenden Objektes oder Pa- rameters durch Rücksprung in die Bedienungs- bzw. Eingabeinterpretationsebene beendet wird. Wie man aus diesen Ausführungen entnehmen kann, eignet sich diese Eingabemethode be- sonders gut für eine graphische Erstellung von Programmen, wobei einzelne Programmsegmente als Objekte in einer eigenen Bibliothek gespeichert sind und sprachgesteuert aneinandergefügt werden, bis die gewünschte Funktion realisiert ist. Da- bei ist vor allem an die Eingabe eines Kontaktplanes gedacht, der sodann durch eine automatische Übersetzung in die Maschinensprache in ein lauffähiges Programm umgewandelt wird, das genau die Funktion des eingegebenen Schaltplanes realisiert.
Es liegt im Rahmen der Erfindung, dass die Auswahl der einzugebenden Information durch einen Vergleich der Koordinaten des Druckbereichs mit den Koordinaten eingeblendeter Tasten, Objekte, Funktionen, Parameter, etc. erfolgt, und dass die zuletzt angewählte Taste, Objekt, etc. als Information verar- beitet wird, sobald kein Druckbereich mehr feststellbar ist. Solchermaßen ist eine eindeutige Zuordnung eines sensierten Drucks auf der drucksensitiven Folie zu genau einem angezeigten Objekt od. dgl. möglich, wobei ein von dem Computer als ausgewählt erkanntes Objekt bspw. mit einer anderen Farbe auf dem Bildschirm dargestellt oder umrandet wird, um anzudeuten, dass der Computer das betreffende Objekt als angewählt betrachtet. Hat der Anwender bspw. aufgrund eines Parallaxenfehlers bei der Betrachtung des Bildschirms nicht die aktivierbare Schaltfläche getroffen, so kann er ohne den Finger von der Bildschirmoberfläche zu nehmen durch „Tasten" die aktivierbare Schaltfläche finden und weiß daher beim Loslassen des Bildschirms, dass der Computer genau das gewünschte und durch die Bildmarkierung hervorgehobene Objekt als Funktionsparameter od. dgl. verwenden wird.
Eine Computeranlage zur Durchführung des erfindungsgemäßen Verfahrens verfügt über einen an den Computer angeschlossenen Bildschirm zur Wiedergabe von Informationen und zeichnet sich durch ein angeschlossenes Mikrofon sowie dadurch aus, dass im Bereich des Bildschirms eine manuelle Eingabemöglichkeit angeschlossen oder anschließbar ist. Das Mikrofon ist für eine Spracherkennung unabdingbar. Diesem nachgeschaltet kann ein Verstärker sein, ein Abtast-Halteglied sowie ein Analog-Digital-Wandler und ein Spracherken- nungsbaustein, wo durch Korrelieren des Sprachsignals mit vorgegebenen Sprachmustern dessen Inhalt erfasst und sodann in alphanumerische Zeichen umgewandelt werden kann, die in entsprechender (ASCII-) Codierung von dem Computer verarbeitbar sind. Parallel dazu ist eine manuelle Eingabemöglichkeit vorgesehen, welche die unterschiedlichsten Ausprägungen er- fahren kann, bspw. ist hierbei auch ein durch Berührungen aktivierbares Element denkbar, bei welchem ein angeschlossener Schwingkreis durch die dem menschlichen Körper innewohnende Kapazität verstimmt wird und solchenfalls ohne mechanische Schaltelemente die Aktion eines Anwenders von dem Computer feststellbar ist. Im weitesten Sinn kann hier auch an ein
Fußpedal mit einem angeschlossenen Taster gedacht werden, jedoch ist eine derartige Ausbildung aufgrund des erhöhten Kraftaufwandes bei der Betätigung weniger gut geeignet wie auch die verbale Eingabe eines „ENDE" -Wortes, da eine bestän- dige Wiederholung eines derartigen Wortes bei jeder Befehlseingabe sich schnell als vergleichsweise lästig erweist. Deshalb wurde eine mit dem Finger betätigbare Eingabemöglichkeit als optimal erkannt.
Ein Mikrofon, das über eine serielle Schnittstelle mit dem Computer koppelbar ist, kann an jedem handelsüblichen Computer angeschlossen werden, so dass dieser nach Laden eines entsprechenden Programms das erfindungsgemäße Verfahren ausführen kann. Um über eine serielle Schnittstelle mit dem Com- puter kommunizieren zu können, sollte in dem Mikrofongehäuse gleichzeitig ein ggf. erforderlicher Verstärker sowie eine Analog-Digital-Wandlungsschaltung vorgesehen sein. Die Versorgungsspannung hierfür wird über die Schnittstelle zugeführt.
Sofern das Mikrofon in dem Bildschirmgehäuse eingebaut oder einbaubar ist, kann die gesamte Mensch-Maschine-Schnittstelle als ein einziges Teil mit integriertem Bildschirm und Mikrofon realisiert werden. Die zusätzlich erforderliche Taste kann entweder ebenfalls in das Gehäuse eingebaut sein oder als Schaltfläche auf dem Bildschirm darstellbar sein. Sol- chenfalls hat es sich als günstig erwiesen, dass die manuelle Eingabemöglichkeit als auf dem Bildschirm applizierte, drucksensitive Folie ausgebildet ist. Mit einer derartigen, drucksensitiven Folie lässt sich nicht nur eine einzige Schaltfläche für die Kennzeichnung von Befehls- und Parameterende rea- lisieren, sondern auch eine interaktive Eingabemöglichkeit, wobei Bibliotheken graphisch dargestellt, geöffnet und durchsucht werden können, bis ein gefundenes Objekt durch einen Druck auf einen als Schaltfläche konfigurierten Bereich der drucksensitiven Folie ausgewählt ist.
Der Erfindungsgedanke erlaubt eine Weiterbildung dahingehend, dass die manuelle Eingabemöglichkeit als etwa handgroße, mobile Einheit ausgebildet ist. Im Rahmen einer derartigen Einheit kann ein herkömmlicher Taster ggf. mit Entprellungsfunk- tion realisiert sein. Auch kann in einem derartigen Gehäuse ein berührungssensitiver Taster vorgesehen sein, der bereits auf eine drucklose Berührung reagiert.
Bevorzugt ist die mobile Eingabeeinheit mit einem Kabel oder über eine Infrarotschnittstelle oder sonstige, drahtlose
Schnittstelle mit dem Computer gekoppelt. Bei Verwendung eines (abgeschirmten) Kabels ist die Störsicherheit am höchsten, gleichzeitig kann auf die Versorgungsspannung des Computers selbst zurückgegriffen werden. Ein an den Computer anzu- schließender Stecker kann bspw. der genormten Anschlussbelegung einer parallelen oder seriellen Schnittstelle entsprechen, wobei eine gleichzeitige Verwendung der betreffenden Schnittstelle für die Spracheingabe möglich ist, wenn bspw. durch unterschiedliche Adressenzuweisungen die verschiedenen Eingabegeräte unterschieden werden können. Bei Verwendung einer Infrarotschnittstelle oder sonstigen, drahtlosen Schnittstelle muss in der mobilen Einheit eine Energiequelle bspw. in Form einer Batterie vorgesehen sein. Auch mag solchenfalls die Störanfälligkeit minimal erhöht sein, andererseits kann ein solches Instrument mechanisch bspw. wie ein leichter Kugelschreiber in der Hand gehalten werden, so dass der Anwen- der bei der Bedienung in seiner Bewegungsfreiheit nicht eingeschränkt ist.
Schließlich entspricht es der Lehre der Erfindung, dass das Mikrofon in die mobile Eingabeeinheit eingebaut ist. Da die Eingabetaste immer in Reichweite des Anwenders verbleiben muss, kann das Mikrofon bedenkenlos in demselben Gehäuse untergebracht sein. Gleichzeitig können die digitalisierten Sprach- und manuellen Eingabesignale bereits in diesem mobilen Eingabegerät zusammengeführt werden, wobei ggf. durch ein geeignetes Schnittstellenprotokoll sicherzustellen ist, dass die Herkunft der aktuell an einen Computer übertragenen Signale von dem Mikrofon oder von der Eingabetaste klar unterschieden werden kann. Solchenfalls genügt evtl. ein einziger Übertragungskanal zur Übertragung aller Informationen an den Computer. Eine Empfangseinheit kann entweder in einen eigenen, für Zusatzmodule reservierten Schlitz auf der Hauptplatine des betreffenden Computers eingesetzt werden, oder sie ist zum Anschluss an einen Schnittstellenanschluss ausgelegt. Im letzteren Falle kann jeder übliche Bürocomputer nach Laden eines erfindungsgemäßen Programmes und Einstecken des Empfangsgerätes an einen Schnittstellenanschluss ohne jeden weiteren Umbau nach dem erfindungsgemäßen Verfahren betrieben werden.
Weitere Merkmale, Einzelheiten, Vorteile und Wirkungen auf der Basis der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels der Erfindung sowie anhand der Zeichnung. Hierbei zeigt:
Fig. 1 einen erfindungsgemäßen Computerarbeitsplatz; Fig. 2 verschiedene Schritte bei Ausführung des erfindungsgemäßen Verfahrens; sowie
Fig. 3 die Umsetzung der grammatikalischen Struktur von Sprachbefehlen in für den Computer verständliche Befehle; sowie
Fig. 4 einen Signalflussplan für die Durchführung des erfindungsgemäßen Verfahrens.
In Fig. 1 ist ein Computerarbeitsplatz 1 wiedergegeben mit einem Computer 2, der völlig ohne Verwendung einer Tastatur 3 gesteuert werden kann. Eine visuelle Rückkopplung der aktuellen Tätigkeit des Computers 2 wird dem Anwender 4 durch einen an den Computer 2 angeschlossenen Bildschirm 5 vermittelt.
Zur Steuerung des Computers 2 dient ein Mikrofon 6 einerseits sowie eine Eingabetaste 7 andererseits. Zum weiteren Informationsaustausch mit der Umwelt kann an dem Computer 2 darüber hinaus wie üblich auch ein Disketten- und/oder CD-Laufwerk 8, ein Lautsprecher 9, ferner Kontrolleuchten, etc. vorgesehen sein. Nach Laden eines entsprechenden Anwenderprogrammes mittels des Disketten- oder CD-Laufwerkes 8 kann der Computer 2 sodann durch Spracheingabe gesteuert auch die komplexesten Funktionen zuverlässig ausführen.
Ein Beispiel hierfür ist in Fig. 2 wiedergegeben. Es handelt sich hierbei um die interaktive Erstellung von Programmen anhand von in einer Bibliothek 10 bereitgehaltenen Programmbausteinen, die zur Erstellung des Programms ausgewählt und als Grafiksymbole 11 auf einem Hintergrund dargestellt und sodann miteinander verkoppelt werden, derart, dass beispielsweise der Eingang eines Grafiksymbols 11 an den Ausgang eines anderen Grafiksymbols 11 angekoppelt wird. Hierbei ist es erforderlich, den Schnittstellen zwischen diesen einzelnen Pro- grammsegmenten individuelle Namen zu geben, so dass diese
Programmbausteine mehrmals verwendet werden können, ohne dass hierbei Missverständnisse auftreten. Bspw. soll ein Kopp- lungssignal zwischen zwei Grafiksymbolen, das bspw. automatisch den Variablennamen des vorgeordneten Programmbausteins
11 (Ausgangsbezeichnung „Variable 1") erhalten hat, in einen charakteristischen Namen umbenannt werden, welcher der Bedeu- tung dieses Signals oder des davon angesteuerten Bausteins besser entspricht. In dem dargestellten Beispiel möchte der Anwender 4 deshalb die Kopplungsvariable mit dem bisherigen Namen „Variable 1" umbenennen in „Motor" , um anzudeuten, dass es sich bei dem von diesem Signal angesteuerten Baustein um einen Motor handelt.
Im Rahmen des erfindungsgemäßen Verfahrens wird diese Aufgabe dadurch gelöst, dass der Anwender 4 für das Mikrofon 6 deutlich wahrnehmbar den Befehl „umbenennen" spricht 12 (Schritt a) , sodann wird manuell 13 die Eingabetaste 7 betätigt, um anzuzeigen, dass der Befehl 12 nun eingegeben wurde (Schritt b) , und nun kann der Computer 2 aus der eingegebenen Sprache
12 durch Vergleich mit dem gesamten Befehlssatz die gewünschte Funktion ermitteln. Ist dies geschehen, so erkennt der Computer 2 aufgrund von vorhandenen Zusatzinformationen zu diesem Befehl, dass dieser mindestens zwei Parameter erfordert, nämlich den bisherigen Namen des umzubenennenden Bauteils sowie dessen künftigen Namen, wobei in einem Formatspeicher die zusätzliche Information hinterlegt sein kann, dass diese beiden Parameter durch das gesprochene Wort „in" getrennt werden. Der Computer wartet nun die weitere Spracheingabe 14 ab, in deren Anschluss wieder die Eingabetaste 7 betätigt wird. Ist dies geschehen (Schritt c) , so ist der Befehlssatz „Umbenennen: Variable 1 in Motor" vollständig und kann von dem Computer 2 ausgeführt werden, wobei das Ergebnis, nämlich die Namensänderung einer Verknüpfung zweier Grafiksymbole 11, auf dem Bildschirm 5 sodann angezeigt wird.
Fig. 3 lässt erkennen, wie die Struktur eines Anweisungssat- zes auf die verschiedenen Eingabeelemente 6, 7 aufgeteilt wird, um dem Computer 2 in kürzester Zeit die unterschiedlichsten Befehle fehlerfrei mitteilen zu können. Zunächst wird der Befehlssatz der deutschen Grammatik entsprechend aufgeteilt in Prädikat 15 (umbenennen) und Objekt 16 (Variable 1 in Motor) . Sodann wird das die Funktion des Befehlssatzes charakterisierende Prädikat 15 vor die als Funktionspara- meter dienenden Objekte 16 gestellt und von diesen zeitlich durch die Betätigung der Eingabetaste 7 unterschieden 17. Dadurch wird der Computer 2 in die Lage versetzt, nach Betätigen 17 der Eingabetaste 7 die bis dahin aufgenommene Sprache als Befehl zu interpretieren 18 und die weitere Spracheingabe 14, 16 anhand der für diesen Befehl 12, 15 abgespeicherten
Formatvorlagen auszuwerten. Vorzugsweise wird auch die Parametereingabe 14, 16 durch eine abermalige Betätigung 19 der Eingabetaste 7 abgeschlossen, andererseits könnte hier auch eine Wartezeit vorgesehen sein, deren Ablauf im Anschluss an die letzte Objekteingabe 14, 16 die automatische Interpretation der Parameter und sodann die Ausführung des solchermaßen erkannten Befehls zur Folge hätte.
In Fig. 4 ist die zur Steuerung des Computers 2 erforderliche Struktur dargestellt. Man erkennt das Mikrofon 6, dessen Ausgangssignal ggf. nach Vorverstärkung, Abtastung mit einer Frequenz von bspw. 25 kHz und Analog-Digital-Wandlung 20 in eine den einzelnen Abtastwerten entsprechende Serie von Dualzahlen umgewandelt wird, wobei diese Signalfolge in einem nachgeschalteten Korrelationsbaustein 21 mit abgespeicherten Sprachmustern 22 verglichen wird, um die eingegebene Sprache in eine Buchstabenfolge umzuwandeln, die sodann in einen FIFO-Speicher 23 bspw. vom Schieberegistertyp eingeschrieben wird, so dass in dem Speicher 23 bei dem Beispiel aus Fig. 2 zunächst die Buchstabenfolge „Umbenennen" jeweils in ASCII- Codierung vorliegt.
Anschließend wird die Eingabetaste 7 betätigt 13, 17. Dadurch wird der einseitig auf Massepotential 24 gelegte Widerstand 25 mit seinem anderen Ende an die Versorgungsspannung 26 angeschlossen, so dass der gemeinsame Schaltungsknoten 27 während der Betätigung der Taste 7 auf dem Potential der Versor- gungsspannung, vorzugsweise „High-Pegel" gelegt ist, während es ansonsten dem Massepotential 24 (vorzugsweise „Low-Pegel") folgt. Der Taste 7 kann eine nicht dargestellte Entprellungs- logik wie auch eine Differenzierlogik zur Erkennung der stei- genden und/oder fallenden Signalflanken nachgeschalten sein. Durch Betätigen der Eingabetaste 7 wird deshalb ein spezielles Sequenzendesignal in das Schieberegister 23 geschoben und dadurch das Ende der Befehlssequenz markiert. Gleichzeitig oder um ein vordefiniertes Zeitintervall verzögert wird über eine Logikschaltung 28 ein Schalter 29 am Ausgang des Schieberegisters 23 geschlossen und dadurch dessen Inhalt einem Korrelationsbaustein 30 zugeführt, der diesen Text mit dem begrenzten und abgespeicherten Befehlssatz 31 vergleicht, um dadurch bspw. die Startadresse für das dem Befehl entspre- chende Unterprogramm zu ermitteln und in den Befehlsspeicher 32 zu schreiben.
Mit Hilfe der abgespeicherten Adresse ist der Befehlsspeicher 32 in die Lage versetzt, aus einem Formatsatzspeicher 33 wei- tere Informationen über die Parameter des erkannten Befehls auszulesen. Zunächst wird festgestellt, ob dieser Befehl ü- berhaupt Parameter erfordert. Wenn dem so ist, wird durch ein weiteres Steuerungssignal 34 die Logik 28 angewiesen, den Umschalter 29 in dessen untere Stellung gemäß Fig. 4 zu steu- ern, sobald die Eingabetaste 7 das nächste Mal betätigt wird. Dadurch wird nach Abschluss 19 der folgenden Spracheingabe 16 durch die zweite Tastenbetätigung 7 der in ASCII-Zeichen umgewandelte Text einem Parameter-Interpreter 35 zugeleitet, der gleichzeitig unter Vermittlung des Befehlsspeichers 32 das für den erwarteten Parameter gültige Format 33 erhält. Daher weis der Parameter-Interpreter 35, wie er die von dem Schieberegister 23 erhaltenen Daten zu behandeln und insbesondere zu formatieren hat. Somit liegt am Ausgang 36 des Parameter-Interpreters 35 ein gültiger, den Formatvorschriften 33 entsprechender Parametersatz an, der mit dem erkannten Befehl 32 zusammengeführt wird 37, um sodann die richtige Pro- grammsequenz 38 und der Übergabe der erforderlichen Parameter 36 zu starten.
In diesem Prinzipschaltbild ist aus Gründen der Übersicht- lichkeit die Möglichkeit der zusätzlichen Spezifikation von Objekten mittels einer auf dem Bildschirm 5 applizierten, drucksensitiven Folie nicht dargestellt. Solchermaßen spezifizierte Objekte könnten direkt am Eingang des Parameter- Interpreters 35 eingeschleust werden, wozu hier eine ODER- Verknüpfung zwischen dem Ausgangssignal des Schalters 29 und einer entsprechenden Erkennungssoftware für die Betätigung von Schaltflächen vorzusehen wäre.

Claims

Patentansprüche
1. Verfahren zur Steuerung eines Computers (2), insbesondere bei der Erstellung von Programmen, d a d u r c h g e k e n n z e i c h n e t, dass von dem Rechner (2) auszuführende Funktionen (15) sowie ggf. Parameter (16), etc. mittels eines Spracherkennungssystems (6, 20 - 22) eingegeben und durch eine manuelle Eingabe (7, 17, 19), insbesondere einen Tastendruck (13), abgeschlossen werden.
2. Verfahren nach Anspruch 1, d a d u r c h g e k e n n z e i c h n e t, dass zum Abschluss (17) einer Funktion (15) eine andere Taste (7) vorgesehen ist als zum Abschluss (19) eines Parameters (16), Objektes od. dgl.
3. Verfahren nach Anspruch 1 oder 2, d a d u r c h g e k e n n z e i c h n e t, dass zum Abschluss (19) einer mit mehreren optionalen Parametern (16) zu versehenden Funktion
(15) eine weitere Taste oder abermals die Funktionstaste (7) gedrückt wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, d a d u r c h g e k e n n z e i c h n e t, dass die zu betätigenden Tasten (7) durch programmtechnisch auf einem Bedie- nungsbildschirm (5) eingeblendet werden, wobei die Tastenbetätigung bspw. von einer auf dem Bildschirm (5) applizierten, drucksensitiven Folie registriert wird.
5. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t, dass auswählbare Objekte (11), Funktionen oder Parameter auf einem Bedienungsbildschirm (5) eingeblendet werden, wobei die Auswahl bspw. von einer auf dem Bildschirm (5) applizierten, drucksensitiven Folie registriert wird.
6. Verfahren nach Anspruch 4 oder 5, d a d u r c h g e k e n n z e i c h n e t, dass die Auswahl der einzugebenden Information durch einen Vergleich der Koordinaten des Druckbereichs mit den Koordinaten eingeblendeter Tasten, Objekte (11) , Funktionen, Parameter, etc. erfolgt, und dass die zuletzt angewählte Taste, Objekt, etc. als Information verar- beitet wird, sobald kein Druckbereich mehr feststellbar ist.
7. Computeranlage (1) zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, mit einem an den Computer (2) angeschlossenen Bildschirm (5) zur Wiedergabe von Infor- mationen, d a d u r c h g e k e n n z e i c h n e t, dass an dem Computer (2) ein Mikrofon (6) sowie im Bereich des Bildschirms (5) eine manuelle Eingabemöglichkeit (7) angeschlossen oder anschließbar ist.
8. Computeranlage nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t, dass das Mikrofon (6) über eine serielle Schnittstelle mit dem Computer (2) gekoppelt ist.
9. Computeranlage nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t, dass das Mikrofon (6) in dem Bildschirmgehäuse (5) eingebaut oder einbaubar ist .
10. Computeranlage nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t, dass die manuelle Eingabemöglichkeit als auf dem Bildschirm (5) applizier- te, drucksensitive Folie ausgebildet ist.
11. Computeranlage nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t, dass die manuelle Eingabemöglichkeit als etwa handgroße, mobile Einheit ausgebildet ist.
12. Computeranlage nach Anspruch 11, d a d u r c h g e k e n n z e i c h n e t, dass die mobile Eingabeeinheit mit einem Kabel oder über eine Infrarotschnittstelle oder sonstige, drahtlose Schnittstelle mit dem Computer gekoppelt ist.
13. Computeranlage nach Anspruch 11 oder 12, d a d u r c h g e k e n n z e i c h n e t, dass das Mikrofon (6) in die mobile Eingabeeinheit eingebaut ist.
PCT/DE2002/001035 2001-03-30 2002-03-21 Computer und steuerverfahren dafür WO2002079970A2 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP02724119A EP1374031A2 (de) 2001-03-30 2002-03-21 Computer und steuerverfahren dafür
US10/673,823 US20040133874A1 (en) 2001-03-30 2003-09-30 Computer and control method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10115899A DE10115899B4 (de) 2001-03-30 2001-03-30 Verfahren zur Erstellung von Computer-Programmen mittels Spracherkennung
DE10115899.8 2001-03-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US10/673,823 Continuation US20040133874A1 (en) 2001-03-30 2003-09-30 Computer and control method therefor

Publications (2)

Publication Number Publication Date
WO2002079970A2 true WO2002079970A2 (de) 2002-10-10
WO2002079970A3 WO2002079970A3 (de) 2003-08-21

Family

ID=7679760

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2002/001035 WO2002079970A2 (de) 2001-03-30 2002-03-21 Computer und steuerverfahren dafür

Country Status (4)

Country Link
US (1) US20040133874A1 (de)
EP (1) EP1374031A2 (de)
DE (1) DE10115899B4 (de)
WO (1) WO2002079970A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009135569A1 (de) * 2008-05-08 2009-11-12 Dspace Digital Signal Processing And Control Engineering Gmbh Verfahren und vorrichtung zur korrektur von digital übertragenen informationen

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7788628B1 (en) * 2006-01-11 2010-08-31 Olambda, Inc. Computational efficiency in photolithographic process simulation
TW201243710A (en) * 2011-04-27 2012-11-01 Hon Hai Prec Ind Co Ltd Electronic device with voice control function and voice control method thereof
FR2991792B1 (fr) * 2012-11-29 2014-07-04 Thales Sa Procede de controle d un automate de distribution ou de commande et automate de distribution ou de commande associe

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05341951A (ja) * 1992-06-11 1993-12-24 Toshiba Corp 音声入力操作装置
WO1995025326A1 (en) * 1994-03-17 1995-09-21 Voice Powered Technology International, Inc. Voice/pointer operated system

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3913638A1 (de) * 1989-04-26 1990-10-31 Licentia Gmbh Verfahren zur sprachmusterbildung bei sprachgesteuerten haushalt-grossgeraeten, wie geschirrspuel- oder waschmaschinen
JPH03203487A (ja) * 1989-12-29 1991-09-05 Pioneer Electron Corp 音声リモートコントロール装置
CA2115210C (en) * 1993-04-21 1997-09-23 Joseph C. Andreshak Interactive computer system recognizing spoken commands
DE19533541C1 (de) * 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens
DE19654684A1 (de) * 1996-12-31 1998-07-16 Ruediger Drescher Dateneingabe und Bearbeitungsverfahren für Personalcomputer und Tastaturanordnung
US6937984B1 (en) * 1998-12-17 2005-08-30 International Business Machines Corporation Speech command input recognition system for interactive computer display with speech controlled display of recognized commands
US6871179B1 (en) * 1999-07-07 2005-03-22 International Business Machines Corporation Method and apparatus for executing voice commands having dictation as a parameter
DE19932671B4 (de) * 1999-07-13 2005-05-04 Degen, Helmut, Dr. Verfahren zur Steuerung eines Verarbeitungssystems für Text, Tabellenfelder und Graphik und dafür geeignetes Verarbeitungssystem
US6510414B1 (en) * 1999-10-05 2003-01-21 Cisco Technology, Inc. Speech recognition assisted data entry system and method
US20020055844A1 (en) * 2000-02-25 2002-05-09 L'esperance Lauren Speech user interface for portable personal devices
US7099809B2 (en) * 2000-05-04 2006-08-29 Dov Dori Modeling system
US6934682B2 (en) * 2001-03-01 2005-08-23 International Business Machines Corporation Processing speech recognition errors in an embedded speech recognition system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05341951A (ja) * 1992-06-11 1993-12-24 Toshiba Corp 音声入力操作装置
WO1995025326A1 (en) * 1994-03-17 1995-09-21 Voice Powered Technology International, Inc. Voice/pointer operated system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"COMBINED MOUSE/MICROPHONE" IBM TECHNICAL DISCLOSURE BULLETIN, IBM CORP. NEW YORK, US, Bd. 37, Nr. 4A, 1. April 1994 (1994-04-01), Seite 455 XP000446737 ISSN: 0018-8689 *
PATENT ABSTRACTS OF JAPAN vol. 018, no. 181 (P-1718), 28. März 1994 (1994-03-28) & JP 05 341951 A (TOSHIBA CORP;OTHERS: 01), 24. Dezember 1993 (1993-12-24) *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009135569A1 (de) * 2008-05-08 2009-11-12 Dspace Digital Signal Processing And Control Engineering Gmbh Verfahren und vorrichtung zur korrektur von digital übertragenen informationen
CN102016805A (zh) * 2008-05-08 2011-04-13 帝斯贝思数字信号处理和控制工程有限公司 用于校正数字传输的信息的方法和设备
CN102016805B (zh) * 2008-05-08 2013-05-15 帝斯贝思数字信号处理和控制工程有限公司 用于校正数字传输的信息的方法和设备
US8543879B2 (en) 2008-05-08 2013-09-24 Dspace Digital Signal Processing And Control Engineering Gmbh Method and apparatus for correction of digitally transmitted information

Also Published As

Publication number Publication date
US20040133874A1 (en) 2004-07-08
DE10115899B4 (de) 2005-04-14
DE10115899A1 (de) 2002-10-17
WO2002079970A3 (de) 2003-08-21
EP1374031A2 (de) 2004-01-02

Similar Documents

Publication Publication Date Title
DE19510657B4 (de) Fernsteuerverfahren und Fernsteuereinrichtung für ein Bildgerät
DE69606214T2 (de) Datenverarbeitungsverfahren und -geräte, die eine Schreibvorrichtung verwenden
EP0069196A1 (de) Einrichtung zur Veränderung und Korrektur eines Textes
EP0150813A2 (de) Verfahren zur Manipulation von Bildschirmdarstellungen durch Sprachbefehle
DE102005048600A1 (de) Verfahren zum Erfassen von Daten
DE3142138C2 (de) Verfahren zur Eingabe chinesischer Zeichen sowie Vorrichtung zur Durchführung des Verfahrens
DE2701115A1 (de) Eingabegeraet zur eingabe von alphanumerischen zeichen in eine datenverarbeitungsanlage
WO2004034241A2 (de) Schnell-eingabevorrichtung
WO2002079970A2 (de) Computer und steuerverfahren dafür
DE102013009906B4 (de) Verfahren zur Handschrifterkennung mittels eines berührungsempfindlichen Kraftwagen-Bediensystems und berührungsempfindliches Kraftwagen-Bediensystem
EP0412961B1 (de) Verfahren und vorrichtung zur eingabe von schriftzeichen in geräten mit einer zifferntastatur
DE3129470A1 (de) Verfahren und vorrichtung zum aufnehmen und wiedergeben beliebiger darstellungen mit einer schreib- oder zeichenmaschine
DE69535004T2 (de) Eine mensch/maschinenschnittstelle für rechnervorrichtungen
EP0860765A1 (de) Eingabevorrichtung und -verfahren für Datenverarbeitungsvorrichtungen
DE102006020568A1 (de) Anzeigevorrichtung zur taktil erfassbaren Darstellung von Anzeigeelementen sowie Anzeigesystem mit einer solchen Anzeigevorrichtung
DE102004032701A1 (de) Verfahren zur effizienten Eingabe von Schriftzeichen in ein mobiles Kommunikationsgerät und für eine derartige Eingabe ausgestaltetes mobiles Kommunikationsgerät
DE2941824A1 (de) Programmeingabesystem
DE3138757A1 (de) Verfahren zur erfassung von textausschnitten aus einer vorlage und vorrichtung zur durchfuehrung des verfahrens
EP0294657A2 (de) Verfahren und Einrichtung zur Daten- und Ebenbildmanipulation durch Sprach- und Berührungsbefehle
DE19740587A1 (de) Vorrichtung und Verfahren zur Datenerfassung
WO2005064423A2 (de) Kontextabhängige bedienung von engineering-systemen über zeichnerische eingaben
WO2011103938A1 (de) Feldgerät der prozessautomatisierungstechnik, sowie verfahren zum editieren von text und/oder zahlen, und vorrichtung mit einer anzeigeeinheit und mit einer bedieneinheit
DE19720051A1 (de) Verfahren zur Eingabe einer Information in einen Rechner
Mertz et al. GRIGRI: Gesture recognition on interactive graphical radar image
EP0950978A1 (de) Pen-Computer und Betriebsverfahren für einen in einen Lernmodus geschalteten Pen-Computer

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2002724119

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10673823

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2002724119

Country of ref document: EP