WO2016009512A1 - エンジニアリングツール - Google Patents

エンジニアリングツール Download PDF

Info

Publication number
WO2016009512A1
WO2016009512A1 PCT/JP2014/068954 JP2014068954W WO2016009512A1 WO 2016009512 A1 WO2016009512 A1 WO 2016009512A1 JP 2014068954 W JP2014068954 W JP 2014068954W WO 2016009512 A1 WO2016009512 A1 WO 2016009512A1
Authority
WO
WIPO (PCT)
Prior art keywords
symbol
input
voice
display area
input information
Prior art date
Application number
PCT/JP2014/068954
Other languages
English (en)
French (fr)
Inventor
桂志 竹内
賢祐 久留美
長谷川 伸
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2014/068954 priority Critical patent/WO2016009512A1/ja
Priority to JP2015525340A priority patent/JP5968541B2/ja
Publication of WO2016009512A1 publication Critical patent/WO2016009512A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/05Programmable logic controllers, e.g. simulating logic interconnections of signals according to ladder diagrams or function charts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Definitions

  • the present invention relates to an engineering tool for editing a program of a programmable logic controller.
  • the user interface indicates the position of a symbol or character string such as a circuit symbol or address on the display screen, and selects and inputs an arbitrary symbol or operand.
  • a symbol or character string such as a circuit symbol or address on the display screen
  • selects and inputs an arbitrary symbol or operand For this purpose, devices such as a mouse and a keyboard are used.
  • a virtual keyboard that is, a software keyboard is used to input an address after touching by selecting a symbol. It becomes necessary to perform a preliminary operation for starting up the screen or to perform a preliminary operation for recognizing a voice input.
  • a user interface for that purpose is required or screen switching occurs, so that the time required for input becomes long and the operability deteriorates.
  • Patent Document 2 it is proposed to determine and execute the operation content for the touched target from the speech-recognized content, but the speech-recognized content is not stored in the operation target, and the symbol and data It did not solve the purpose of input.
  • the present invention has been made in view of the above, and in the operation of creating a circuit in editing a program of a programmable logic controller, the operability in the case of performing the touch operation on the display screen and the voice input is improved, and the circuit is created.
  • the purpose is to obtain an engineering tool that can shorten the time.
  • the present invention displays a program of a programmable logic controller, an input display means for receiving a contact operation to a display area of a symbol of the program, and an audio input for receiving a voice And a controller that determines whether or not the display area of the symbol is touched based on the contact operation, and recognizes the voice received by the voice input means and converts the voice into input information;
  • the control unit converts the voice received by the voice input means into the input information while the display area of the symbol is in the touched state, and converts the converted input information into the symbol. It is characterized by reflecting.
  • the engineering tool according to the present invention eliminates the preliminary operation for voice input by making the voice input timing while the screen is touched, and allows quick operation of the programming tool and input of circuit symbol attached information. There is an effect that it can be performed. Further, even if it is a touch operation, it is possible to smoothly input the attached information of the circuit symbol, and it is possible to produce a circuit quickly.
  • FIG. 1 is a diagram showing a configuration of an engineering tool according to the present embodiment.
  • FIG. 2 is a block diagram showing functions of the engineering tool according to the present embodiment as software.
  • FIG. 3 is a flowchart showing an operation when a program is edited with an engineering tool using a microphone and a touch panel in the present embodiment.
  • FIG. 4 is a schematic diagram showing a state of a display area of the touch panel when a program is edited with an engineering tool using a microphone and a touch panel in the present embodiment.
  • FIG. 5 is a diagram showing the contents of a database of character string types serving as input information selected according to the symbol type of the touched symbol in the present embodiment.
  • FIG. 6 is a diagram showing the contents of a database listing character strings that are recognized as a symbol name character string and symbols to be input to a program in the present embodiment.
  • FIG. 7 is a diagram showing the contents of a database listing character strings recognized as speech as device name character strings and symbols to be input to a program in the present embodiment.
  • FIG. 1 is a diagram showing a configuration of an engineering tool 100 that is a system management device according to an embodiment of the present invention.
  • the engineering tool 100 includes a personal computer (PC) 1, a touch panel 2 as input display means, and a microphone 3 as voice input means.
  • the touch panel 2 is an input display unit in which an input unit that receives contact of a user's finger or the like and a display unit are integrated, and is connected to the personal computer 1 together with a microphone 3 that receives voice.
  • the engineering tool 100 has a function necessary for editing a program of the programmable logic controller.
  • the touch panel 2 displays a program of a programmable logic controller such as a ladder program, and the engineering tool 100 operates by input from the touch panel 2 and the microphone 3.
  • FIG. 2 is a block diagram showing functions as software of the engineering tool 100 according to the present embodiment.
  • the personal computer 1 includes a control unit 20 and a storage unit 30.
  • the control unit 20 recognizes input from the touch panel 2 and the microphone 3, edits the program held in the storage unit 30, and causes the touch panel 2 to display the program.
  • FIG. 3 is a flowchart showing an operation when a program is edited with the engineering tool 100 using the microphone 3 and the touch panel 2 in the embodiment.
  • FIG. 4 is a schematic diagram showing a state of the display area 10 of the touch panel 2 when a program is edited with the engineering tool 100 using the microphone 3 and the touch panel 2 in the present embodiment.
  • step S100 of FIG. 3 the control unit 20 of the personal computer 1 determines whether or not the symbol display area 11 of the display area 10 of the touch panel 2 is touched by a touch operation with a user's finger or the like. Do.
  • the ladder program shown in FIG. 4 is created by arranging symbols on an area where cells are arranged. Therefore, each cell displaying each symbol is a symbol display area corresponding to the symbol.
  • step S100: No When the symbol display area 11 is not touched (step S100: No), the control unit 20 does not accept the sound from the microphone 3, as shown in the upper part of FIG. However, when the symbol display area 11 is touched (step S100: Yes), the control unit 20 receives sound from the microphone 3 as shown in the middle part of FIG. 4 (step S101). For example, the voice “MIC” from the microphone 3 is received. Then, the control unit 20 determines whether or not the symbol display area 11 is in a state where the touch is released (step S102). The state in which the touch is released is, for example, a state in which the user releases his / her finger from the touch panel 2. Further, for example, when the symbol display area 11 of the touch panel 2 is once touched with a finger and then released, the touched state is reached. When the finger is again touched and then released, the touch is released. Good.
  • step S102 If it is determined that the symbol display area 11 is not in a state in which the touch is released (step S102: No), the voice from the microphone 3 is continuously received in step S101.
  • the control unit 20 determines that the touch of the symbol display area 11 is released (step S102: Yes)
  • the control unit 20 ends the reception of the sound from the microphone 3, and the received sound information Analysis and recognition are performed, and the input information is reflected in the symbol of the touched portion of the program held in the storage unit 30 (step S103).
  • the input information “M1” is reflected in the symbol corresponding to the voice “MICH” from the microphone 3 described above.
  • “M1” is a device name. Reflecting input information on a symbol means inputting the input information into the symbol of the program.
  • the ladder program is completed when the combination of the symbol and the device name is determined. Therefore, inputting input information to a symbol means inputting a device name as input information for the symbol.
  • the control unit 20 inputs the input information into the symbol and, on the symbol display area 11 of the display area 10, as shown in the lower part of FIG. To display. Note that the operation of analyzing and recognizing the voice information received by the control unit 20 described here may be started immediately after receiving the voice in a touched state.
  • FIG. 5 is a diagram showing the contents of a database of character string types serving as input information selected according to the symbol type of the touched symbol in the present embodiment.
  • FIG. 6 is a diagram showing the contents of a database listing character strings that are recognized as a symbol name character string and symbols to be input to a program in the present embodiment.
  • FIG. 7 is a diagram showing the contents of a database listing character strings recognized as speech as device name character strings and symbols to be input to a program in the present embodiment.
  • the database having the contents shown in FIGS. 5, 6, and 7 is stored in the storage unit 30 and can be used by the control unit 20 in step S103.
  • step S103 a set of input information to be converted by voice recognition is switched according to the symbol type of the touched symbol on the touch panel 2.
  • the input information to be subjected to speech recognition is limited according to the symbol type of the touched symbol.
  • the character string of the symbol name is selected as a speech recognition target according to FIG. That is, a set of character strings described in a character string list that is voice-recognized as the character string of the symbol name in FIG. 6 is selected as a recognition target.
  • the character string of the device name is selected as a voice recognition target according to FIG. That is, a set of character strings described in a character string list that is voice-recognized as a device name character string in FIG. 7 is selected as a recognition target.
  • the set of input information to be voice-recognized is switched based on FIG. 5 according to the symbol type of the touched symbol.
  • the unit 20 may recognize and switch the set of input information to be voice-recognized according to the number of fingers. For example, when it is recognized that the number of fingers of the user who touched the symbol on the touch panel 2 is one, a set of character strings with symbol names in FIG. When it is recognized that the number of fingers of the user is two, a set of device name character strings in FIG. 7 may be selected as a speech recognition target. When the number of fingers touching at the same time is three or more, recognition is possible and the number of selection targets may be further increased.
  • the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention in the implementation stage.
  • the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent requirements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and is described in the column of the effect of the invention. When an effect is obtained, a configuration from which this configuration requirement is deleted can be extracted as an invention.
  • the constituent elements over different embodiments may be appropriately combined.
  • the engineering tool according to the present invention is useful for editing a program of a programmable logic controller. Since the efficiency of circuit creation can be improved by combining touch operation and voice input, it is particularly useful when a programmable logic controller is operated only by a display device that can be touch-operated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Programmable Controllers (AREA)

Abstract

 実施の形態のエンジニアリングツールは、プログラマブルロジックコントローラのプログラムを表示し、前記プログラムのシンボルの表示領域への接触操作を受け付ける入力表示手段と、音声を受け付ける音声入力手段と、前記接触操作に基づいて前記シンボルの表示領域がタッチされた状態であるか否かを判定し、前記音声入力手段が受け付けた前記音声を認識して入力情報に変換する制御部と、を備え、前記制御部は、前記シンボルの表示領域が前記タッチされた状態である間に前記音声入力手段が受け付けた前記音声を前記入力情報に変換し、変換された前記入力情報を前記シンボルに反映させる。

Description

エンジニアリングツール
 本発明は、プログラマブルロジックコントローラのプログラムの編集を行うエンジニアリングツールに関する。
 従来のプログラマブルロジックコントローラのプログラムの編集を行うエンジニアリングツールにおいては、ユーザインターフェースとして、表示画面上において回路記号やアドレスといったシンボルや文字列の位置を指示し、任意のシンボルやオペランドを選択して入力するためにマウスやキーボードといった装置を使用している。
 近年は、表示画面を指などでタッチすることでシンボルを選択し、表示画面上の仮想キーボードでシンボルに対する詳細を入力する方式が普及してきている。一方で、音声入力用のマイクを備え、音声認識により文字列の入力を可能とする入力装置も普及してきている。
 これらの入力方式をマウスやキーボードといった従来の入力装置の代わりにプログラマブルロジックコントローラのエンジニアリングツールに適用する場合には、シンボルの選択でタッチした後、アドレスの入力のために仮想キーボード、即ちソフトウェアキーボードの画面を起動する予備動作を行う必要が生じたり、音声入力を認識させる予備動作を行う必要が生ずる。そして、そのためのユーザインターフェースが必要となったり、画面切替えが発生するために、入力にかかる時間が長くなり、操作性が悪くなるといった問題があった。
特開2013-214238号公報 特開2013-222229号公報
 しかしながら、上記従来の技術によればタッチ操作をしている間あるいはタッチ操作を終えた後の一定期間を音声入力の認識期間とする技術が提案されているが、例えば、特許文献1においては、使用者のタッチ操作と音声入力の内容が一致することで操作を実行するものであり音声認識した内容をデータとして入力するためには別のアクションが必要であった。
 また、特許文献2においては、タッチした対象に対する操作内容を音声認識した内容から決定し実行することが提案されているが、音声認識した内容が操作対象へ保存されることは無く、シンボルとデータの入力を行うという目的を解決するものではなかった。
 本発明は、上記に鑑みてなされたものであって、プログラマブルロジックコントローラのプログラムの編集における回路作成の操作において、表示画面のタッチ操作と音声入力にて行う場合の操作性を向上させ、回路作成時間の短縮を可能とするエンジニアリングツールを得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明は、プログラマブルロジックコントローラのプログラムを表示し、前記プログラムのシンボルの表示領域への接触操作を受け付ける入力表示手段と、音声を受け付ける音声入力手段と、前記接触操作に基づいて前記シンボルの表示領域がタッチされた状態であるか否かを判定し、前記音声入力手段が受け付けた前記音声を認識して入力情報に変換する制御部と、を備え、前記制御部は、前記シンボルの表示領域が前記タッチされた状態である間に前記音声入力手段が受け付けた前記音声を前記入力情報に変換し、変換された前記入力情報を前記シンボルに反映させることを特徴とする。
 本発明にかかるエンジニアリングツールは、画面をタッチしている間を音声入力するタイミングとすることで、音声入力のための予備操作を省略し、プログラミングツールの操作や回路記号の付属情報の入力を迅速に行うことが可能となるという効果を奏する。さらに、タッチ操作であってもスムーズに回路記号の付属情報の入力が可能となり、迅速な回路作成を行うことが可能となるという効果を奏する。
図1は、本実施の形態にかかるエンジニアリングツールの構成を示す図である。 図2は、本実施の形態にかかるエンジニアリングツールのソフトウェアとしての機能をブロック的に示した図である。 図3は、本実施の形態において、マイクおよびタッチパネルを使用してエンジニアリングツールでプログラムを編集するときの操作を示すフローチャートである。 図4は、本実施の形態において、マイクおよびタッチパネルを使用してエンジニアリングツールでプログラムを編集するときのタッチパネルの表示領域の様子を示す概略図である。 図5は、本実施の形態におけるタッチされたシンボルのシンボル種別に応じて選択される入力情報となる文字列の種類のデータベースの内容を示す図である。 図6は、本実施の形態においてシンボル名の文字列として音声認識される文字列とプログラムに入力させる記号を列挙したデータベースの内容を示す図である。 図7は、本実施の形態においてデバイス名の文字列として音声認識される文字列とプログラムに入力させる記号を列挙したデータベースの内容を示す図である。
 以下に、本発明にかかるエンジニアリングツールの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態.
 図1は、本発明の実施の形態にかかるシステム管理機器であるエンジニアリングツール100の構成を示す図である。エンジニアリングツール100は、パーソナルコンピュータ(PC:personal computer)1、入力表示手段であるタッチパネル2、および音声入力手段であるマイク3を備える。タッチパネル2は、ユーザの指などの接触を受け付ける入力手段と、表示手段とが一体化した入力表示手段であり、音声を受け付けるマイク3と共にパーソナルコンピュータ1に接続されている。
 エンジニアリングツール100は、プログラマブルロジックコントローラのプログラムを編集するために必要な機能を有している。タッチパネル2はラダープログラムなどのプログラマブルロジックコントローラのプログラムを表示し、エンジニアリングツール100はタッチパネル2及びマイク3からの入力により動作する。
 図2は、本実施の形態にかかるエンジニアリングツール100のソフトウェアとしての機能をブロック的に示した図である。パーソナルコンピュータ1は、制御部20、および記憶部30を備える。制御部20は、タッチパネル2及びマイク3からの入力を認識し、記憶部30に保持されるプログラムを編集し、プログラムをタッチパネル2に表示させる。
 図3は、実施の形態において、マイク3およびタッチパネル2を使用してエンジニアリングツール100でプログラムを編集するときの操作を示すフローチャートである。図4は、本実施の形態において、マイク3およびタッチパネル2を使用してエンジニアリングツール100でプログラムを編集するときのタッチパネル2の表示領域10の様子を示す概略図である。
 まず、図3のステップS100で、パーソナルコンピュータ1の制御部20はタッチパネル2の表示領域10のシンボル表示領域11がユーザの指などによる接触操作によってタッチされた状態になっているか否かの判断を行う。図4に示すラダープログラムは、セルが並んだ領域の上にシンボルを並べて作成されている。従って、シンボルそれぞれを表示している各々のセルが当該シンボルに対応するシンボル表示領域である。
 シンボル表示領域11がタッチされた状態ではない場合(ステップS100:No)は、図4の上段に示すように、制御部20はマイク3からの音声を受け付けない。しかし、シンボル表示領域11がタッチされた状態の場合(ステップS100:Yes)は、図4の中段に示すように制御部20はマイク3からの音声を受け付ける(ステップS101)。例えば、マイク3からの音声“エムイチ”を受け付ける。そして、制御部20はシンボル表示領域11がタッチが解除された状態か否かを判断する(ステップS102)。タッチが解除された状態とは、例えば、ユーザがタッチパネル2から指を離した状態である。また、例えば、タッチパネル2のシンボル表示領域11を一旦指で触ってから指を離すとタッチされた状態となり、再度指で触ってから指を離すとタッチが解除された状態となるようにしてもよい。
 シンボル表示領域11がタッチが解除された状態ではないと判断された場合(ステップS102:No)は、ステップS101でマイク3からの音声を受け付け続ける。シンボル表示領域11がタッチが解除された状態であると制御部20が判断した場合(ステップS102:Yes)は、制御部20は、マイク3からの音声の受け付けを終了し、受け付けた音声情報の分析および認識を行い、記憶部30に保持されるプログラムのタッチされた箇所のシンボルに入力情報を反映させる(ステップS103)。例えば、上記したマイク3からの音声“エムイチ”に対応して入力情報“M1”を当該シンボルに反映させる。ここで、“M1”はデバイス名である。入力情報をシンボルに反映させるとは、プログラムの当該シンボルに当該入力情報を入力することである。ラダープログラムは、シンボルとデバイス名との組み合わせが決定することにより完成する。従って、シンボルに入力情報を入力するとは、当該シンボルに対してデバイス名を入力情報として入力することである。制御部20は、入力情報をシンボルに入力すると共に、図4の下段に示すように表示領域10のシンボル表示領域11の上に、音声入力された“エムイチ”に対応する“M1”をタッチパネル2に表示させる。なお、ここで説明した、制御部20による受け付けた音声情報の分析および認識の動作は、タッチされた状態で音声を受け付けると直ちに開始してもかまわない。
 図5は、本実施の形態におけるタッチされたシンボルのシンボル種別に応じて選択される入力情報となる文字列の種類のデータベースの内容を示す図である。図6は、本実施の形態においてシンボル名の文字列として音声認識される文字列とプログラムに入力させる記号を列挙したデータベースの内容を示す図である。図7は、本実施の形態においてデバイス名の文字列として音声認識される文字列とプログラムに入力させる記号を列挙したデータベースの内容を示す図である。図5、図6、および図7に示される内容のデータベースは記憶部30に格納されており、制御部20がステップS103において利用することができる。
 ステップS103においては、図5に示すように、タッチパネル2においてタッチされたシンボルのシンボル種別に応じて音声認識して変換される対象となる入力情報の集合を切り替える。即ち、タッチされたシンボルのシンボル種別に応じて音声認識の対象となる入力情報に限定を加える。例えば、空白の箇所がタッチされた場合は、図5に従って、シンボル名の文字列が音声認識する対象として選択される。即ち、図6のシンボル名の文字列として音声認識される文字列リストに記載された文字列の集合を認識対象として選択する。音声認識の対象を図6に記載の文字列の集合に限定することで、意図しない文字列の入力によるエラーを防ぐことが可能となる。また例えば、接点記号の箇所がタッチされた場合は、図5に従って、デバイス名の文字列が音声認識する対象として選択される。即ち、図7のデバイス名の文字列として音声認識される文字列リストに記載された文字列の集合を認識対象として選択する。音声認識の対象を図7に記載の文字列の組み合わせに限定することで、マイク3からの音声入力による誤入力を防ぐことが可能となる。
 また、上記では、タッチされたシンボルのシンボル種別に応じて、図5に基づいて音声認識する対象となる入力情報の集合を切り替えていたが、同時にタッチしたユーザの指の本数をタッチパネル2および制御部20が認識して、指の本数に応じて声認識する対象となる入力情報の集合切り替えるようにしてもよい。例えば、タッチパネル2のシンボルをタッチしたユーザの指の本数が1本であると認識された場合は、図6のシンボル名の文字列の集合が音声認識する対象として選択され、シンボルを同時にタッチしたユーザの指の本数が2本であると認識された場合は、図7のデバイス名の文字列の集合が音声認識する対象として選択されるようにしてもよい。同時にタッチする指の本数が3本以上の場合も認識可能にして、さらに選択対象を増やしてもよい。
 さらに、本願発明は上記実施の形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上記実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出されうる。例えば、実施の形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出されうる。更に、異なる実施の形態にわたる構成要素を適宜組み合わせてもよい。
 以上のように、本発明にかかるエンジニアリングツールは、プログラマブルロジックコントローラのプログラムの編集に有用である。タッチ操作と音声入力を組み合わせることで、回路作成の効率を向上させることができるので、特に、タッチ操作可能な表示デバイスだけでプログラマブルロジックコントローラを運用する場合に有用である。
 1 パーソナルコンピュータ、2 タッチパネル、3 マイク、20 制御部、30 記憶部、10 表示領域、11 シンボル表示領域、100 エンジニアリングツール。

Claims (4)

  1.  プログラマブルロジックコントローラのプログラムを表示し、前記プログラムのシンボルの表示領域への接触操作を受け付ける入力表示手段と、
     音声を受け付ける音声入力手段と、
     前記接触操作に基づいて前記シンボルの表示領域がタッチされた状態であるか否かを判定し、前記音声入力手段が受け付けた前記音声を認識して入力情報に変換する制御部と、
     を備え、
     前記制御部は、前記シンボルの表示領域が前記タッチされた状態である間に前記音声入力手段が受け付けた前記音声を前記入力情報に変換し、変換された前記入力情報を前記シンボルに反映させる
     ことを特徴とするエンジニアリングツール。
  2.  前記制御部は、前記タッチされた状態の前記表示領域の前記シンボルの種類に依存して、前記音声を認識して変換する前記入力情報の集合を切り替える
     ことを特徴とする請求項1に記載のエンジニアリングツール。
  3.  前記制御部は、前記シンボルの表示領域を同時に前記接触操作した指の本数を認識し、前記指の本数に依存して、前記音声を認識して変換する前記入力情報の集合を切り替える
     ことを特徴とする請求項1に記載のエンジニアリングツール。
  4.  前記入力情報の集合は、シンボル名の文字列、或いはデバイス名の文字列である
     ことを特徴とする請求項2または3に記載のエンジニアリングツール。
     
PCT/JP2014/068954 2014-07-16 2014-07-16 エンジニアリングツール WO2016009512A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2014/068954 WO2016009512A1 (ja) 2014-07-16 2014-07-16 エンジニアリングツール
JP2015525340A JP5968541B2 (ja) 2014-07-16 2014-07-16 エンジニアリングツール

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/068954 WO2016009512A1 (ja) 2014-07-16 2014-07-16 エンジニアリングツール

Publications (1)

Publication Number Publication Date
WO2016009512A1 true WO2016009512A1 (ja) 2016-01-21

Family

ID=55078031

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/068954 WO2016009512A1 (ja) 2014-07-16 2014-07-16 エンジニアリングツール

Country Status (2)

Country Link
JP (1) JP5968541B2 (ja)
WO (1) WO2016009512A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03217928A (ja) * 1990-01-24 1991-09-25 Hitachi Seiko Ltd 図面入力装置
JP2009259081A (ja) * 2008-04-18 2009-11-05 Koyo Electronics Ind Co Ltd ラダー図編集方式
JP2010079103A (ja) * 2008-09-26 2010-04-08 Brother Ind Ltd 音声対話装置及びそのプログラム並びに音声対話処理方法
JP2011107810A (ja) * 2009-11-13 2011-06-02 Koyo Electronics Ind Co Ltd ラダー図表示方法
WO2013073023A1 (ja) * 2011-11-16 2013-05-23 三菱電機株式会社 シーケンスプログラム作成装置
WO2014041646A1 (ja) * 2012-09-12 2014-03-20 トヨタ自動車株式会社 携帯端末装置、車載装置、及び車載システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03217928A (ja) * 1990-01-24 1991-09-25 Hitachi Seiko Ltd 図面入力装置
JP2009259081A (ja) * 2008-04-18 2009-11-05 Koyo Electronics Ind Co Ltd ラダー図編集方式
JP2010079103A (ja) * 2008-09-26 2010-04-08 Brother Ind Ltd 音声対話装置及びそのプログラム並びに音声対話処理方法
JP2011107810A (ja) * 2009-11-13 2011-06-02 Koyo Electronics Ind Co Ltd ラダー図表示方法
WO2013073023A1 (ja) * 2011-11-16 2013-05-23 三菱電機株式会社 シーケンスプログラム作成装置
WO2014041646A1 (ja) * 2012-09-12 2014-03-20 トヨタ自動車株式会社 携帯端末装置、車載装置、及び車載システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHIN'YA HASHIMOTO: "Graphic operation terminal GOT1000 series 'GT16 Model", MITSUBISHI DENKI GIHO, vol. 84, no. 3, 25 March 2010 (2010-03-25), pages 35 - 38 *

Also Published As

Publication number Publication date
JPWO2016009512A1 (ja) 2017-04-27
JP5968541B2 (ja) 2016-08-10

Similar Documents

Publication Publication Date Title
TWI298844B (en) User-defines speech-controlled shortcut module and method
US7886233B2 (en) Electronic text input involving word completion functionality for predicting word candidates for partial word inputs
TWI280499B (en) Method of entering text into an electronic communications device and electronic communications device
JP2013068952A (ja) 音声認識結果の統合
US20130263013A1 (en) Touch-Based Method and Apparatus for Sending Information
US20210352059A1 (en) Message Display Method, Apparatus, and Device
RU2013144921A (ru) Способ и устройство для выполнения режима предварительно установленной операции с использованием распознования речи
JP2008096541A5 (ja)
CN103533448B (zh) 智能电视的光标控制方法和光标控制装置
JP2010500684A (ja) 文字入力装置
JP2008090625A (ja) 文字入力装置、文字入力方法、制御プログラム、および、記録媒体
KR20150083173A (ko) 휴대 단말의 텍스트 편집 장치 및 그 방법
CN112684913A (zh) 信息修正方法、装置及电子设备
EP3267301B1 (en) High-efficiency touch screen text input system and method
JP5102894B1 (ja) 文字入力装置及び携帯端末装置
US9189158B2 (en) Methods, devices and systems for entering textual representations of words into a computing device by processing user physical and verbal interactions with the computing device
JPWO2014045414A1 (ja) 文字入力装置、文字入力方法、文字入力制御プログラム
JP5968541B2 (ja) エンジニアリングツール
WO2013051257A1 (ja) 文字入力装置、文字入力方法、および文字入力プログラム
KR101591867B1 (ko) 음성명령 조합 기능을 갖는 인터랙티브 보드 및 이의 운용방법
JP4702081B2 (ja) 文字入力装置
KR100908845B1 (ko) 필기입력을 이용한 멀티미디어 재생 장치 제어 시스템 및제어 방법
JP5576572B1 (ja) エンジニアリングツール
CN106293133A (zh) 一种切换字符大小写的方法及装置
US20140068441A1 (en) Typetell touch screen keystroke announcer

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015525340

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14897757

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14897757

Country of ref document: EP

Kind code of ref document: A1