JP2020030324A - Combination program, combination device, and combination method - Google Patents
Combination program, combination device, and combination method Download PDFInfo
- Publication number
- JP2020030324A JP2020030324A JP2018155849A JP2018155849A JP2020030324A JP 2020030324 A JP2020030324 A JP 2020030324A JP 2018155849 A JP2018155849 A JP 2018155849A JP 2018155849 A JP2018155849 A JP 2018155849A JP 2020030324 A JP2020030324 A JP 2020030324A
- Authority
- JP
- Japan
- Prior art keywords
- information
- displayed
- terminal device
- unit
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000008878 coupling Effects 0.000 claims description 4
- 238000010168 coupling process Methods 0.000 claims description 4
- 238000005859 coupling reaction Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 18
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 230000035876 healing Effects 0.000 description 5
- 235000016496 Panda oleosa Nutrition 0.000 description 3
- 240000000220 Panda oleosa Species 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 150000001875 compounds Chemical class 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Document Processing Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、結合プログラム、結合装置、及び結合方法に関する。 The present invention relates to a combining program, a combining device, and a combining method.
従来、入力した音声情報を編集する技術が知られている。例えば、音声入力を受付けた場合に音声を音声データに変換し、変換した音声データの変換候補漢字を表示する技術が開示されている。 2. Description of the Related Art Conventionally, a technique for editing input audio information is known. For example, a technology is disclosed in which, when a voice input is received, the voice is converted into voice data, and conversion candidate kanji of the converted voice data is displayed.
しかしながら、上記の従来技術では、ユーザビリティが良いとは言えない場合がある。 However, in the above-mentioned conventional technology, usability may not be good.
本願は、上記に鑑みてなされたものであって、音声入力に関するユーザビリティを向上させることを目的とする。 The present application has been made in view of the above, and has as its object to improve usability related to voice input.
本願に係る結合プログラムは、音声を介して入力された複数の情報を表示する表示手順と、前記表示手順により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する結合手順とをコンピュータに実行させることを特徴とする。 The combination program according to the present application receives a display procedure for displaying a plurality of pieces of information input via voice, and a predetermined operation involving selection of any one of a plurality of pieces of information displayed by the display procedure. And combining the selected information with other information and displaying the selected information.
実施形態の一態様によれば、音声入力に関するユーザビリティを向上させることができるという効果を奏する。 According to an aspect of the embodiment, there is an effect that usability related to voice input can be improved.
以下に本願に係る結合プログラム、結合装置、及び結合方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る結合プログラム、結合装置、及び結合方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, a mode (hereinafter, referred to as an “embodiment”) for implementing a combination program, a combination device, and a combination method according to the present application will be described in detail with reference to the drawings. Note that the combination program, the combination device, and the combination method according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description will be omitted.
〔1.結合処理〕
図1を用いて、本実施形態の結合プログラム等により実現される結合処理を説明する。図1は、実施形態に係る端末装置の一例を示す図である。図1では、ユーザの音声入力に対し音声認識の結果となる文字列を表示し、表示した文字列を他のアプリケーションに出力する音声入力アプリケーション(以下、「音声入力アプリ」と記載する場合がある)が端末装置100に実装されている例を示す。なお、図1では、音声入力アプリの機能によって実施形態に係る結合処理が実現されるものとする。
[1. Join processing)
With reference to FIG. 1, a combining process realized by the combining program and the like of the present embodiment will be described. FIG. 1 is a diagram illustrating an example of a terminal device according to the embodiment. In FIG. 1, a character string that is a result of voice recognition in response to a user's voice input is displayed, and the displayed character string is output to another application (hereinafter, may be referred to as a “voice input application”). ) Shows an example in which the
図1に示す端末装置100は、ユーザによって利用されるスマートフォンやタブレット等のスマートデバイスであり、3G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。図1に示す例では、端末装置100がユーザU1によって利用されるスマートフォンである場合を示す。また、端末装置100は、液晶ディスプレイ等の出力部(以下、画面と記載する場合がある)を有し、タッチパネルが採用されているものとする。すなわち、ユーザU1は、指や専用ペンで出力部の表示面をタッチすることにより端末装置100の各種操作を行う。また、図1の例において、端末装置100には、音を集音する集音機器(マイク等)が含まれているものとする。なお、端末装置100は、スマートデバイスのみならず、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等の情報処理装置であってもよい。
A
以下、図1を用いて、端末装置100が行う音声入力アプリの表示処理について説明する。なお、以下の説明では、端末装置100の画面の状態遷移を図示する場合、順に第1状態、第2状態、・・・、第N状態(Nは任意の数)と表記する。
Hereinafter, the display processing of the voice input application performed by the
図1の第1状態は、ユーザU1による音声入力に対する音声認識の結果となる文字列を表示した画面の状態を示す。ここで、図1の第1状態において、端末装置100は、ユーザU1の音声入力に対し、文字列「賢治」を音声認識の結果として領域AR1に表示したものとする。
The first state in FIG. 1 shows a state of a screen displaying a character string as a result of voice recognition for a voice input by the user U1. Here, in the first state of FIG. 1, it is assumed that the
続いて、図1の第2状態は、第1状態において領域AR1に表示した文字列「賢治」の読み仮名「けんじ」の他の漢字への変換候補を表示した画面の状態を示す。図1の第2状態において、端末装置100は、ユーザU1による所定のタッチ操作(例えば、領域AR1のタップなど)等を受け付け、文字列「賢治」の読み仮名「けんじ」に対応する他の変換候補の漢字を領域AR2に表示する。
Subsequently, the second state of FIG. 1 shows a state of the screen on which the conversion candidate of the reading kana “Kenji” of the character string “Kenji” displayed in the area AR1 in the first state to another kanji is displayed. In the second state of FIG. 1, the
ここで、図1の第2状態において、ユーザU1が希望する変換候補が領域AR2に表示されず、また、ユーザU1が領域AR1に表示された「賢」のみを他の変換候補の漢字に変換することを希望したものとする。この場合、端末装置100は、ユーザU1の指F10により選択された編集点(「賢」及び「治」の間)で文字列「賢治」を分割して表示する図1の第3状態に画面を遷移させる。例えば、図1の例において、端末装置100は、ユーザU1の指F10が領域AR1に表示された「賢」及び「治」の間の領域へのタッチ操作(例えば、タップ)を受け付けることにより、画面を図1の第3状態に遷移させる。
Here, in the second state of FIG. 1, the conversion candidate desired by the user U1 is not displayed in the area AR2, and the user U1 converts only “Ken” displayed in the area AR1 into another conversion candidate kanji. You wish to do so. In this case, the
なお、端末装置100は、種々の編集点の選択操作をユーザU1から受け付けてもよい。例えば、端末装置100は、音声認識の結果となる文字列へのユーザU1の指F10によるタッチ操作を受け付けることにより、文字列を所定の編集点で分割して表示してもよい。具体的には、端末装置100は、文字列に含まれる各漢字の間や、漢字及びひらがなの間を編集点としてもよい。また、図1の例において、端末装置100は、ユーザU1の指F10が文字列「賢治」に触れた状態から、「賢」及び「治」の間をなぞる操作を受け付けることにより、画面を図1の第3状態に遷移させてもよい。
Note that the
続いて、図1の第3状態は、第2状態において選択された編集点で文字列「賢治」を分割して表示した画面の状態を示す。図1の第3状態において、端末装置100は、「賢」を領域AR3に表示し、「治」を領域AR4に表示する。ここで、端末装置100は、ユーザU1の指F10による領域AR3へのタッチ操作(例えば、ダブルタップ)を受け付けることにより、領域AR3に表示された「賢」を、「賢」の読み仮名「け」及び「ん」に分割して表示する図1の第4状態に画面を遷移させる。
Subsequently, a third state in FIG. 1 shows a state of a screen in which the character string “Kenji” is divided and displayed at the editing point selected in the second state. In the third state of FIG. 1, the
続いて、図1の第4状態は、第3状態においてユーザU1のタッチ操作が行われた領域AR3の「賢」の読み仮名を分割して表示した画面の状態を示す。図1の第4状態において、端末装置100は、「け」を領域AR5に表示し、「ん」を領域AR6に表示する。ここで、図1の第4状態において、ユーザU1が領域AR5に表示した「け」及び領域AR6に表示した「ん」を結合することを希望したものとする。この場合、端末装置100は、ユーザU1の指F10によるタッチ操作を受け付けることにより、「け」及び「ん」を結合して表示する図1の第5状態に画面を遷移させる。例えば、図1の例において、端末装置100は、ユーザU1の指F10が領域AR5に触れた状態から、領域AR5を領域AR6の方向へスライドさせるタッチ操作を受け付けることにより、画面を図1の第5状態に遷移させる。
Subsequently, a fourth state in FIG. 1 illustrates a state of a screen in which the reading kana of “Ken” in the area AR3 where the touch operation of the user U1 has been performed in the third state is divided and displayed. In the fourth state of FIG. 1, the
なお、端末装置100は、図1の第2状態から、第3状態を介さず第4状態へ画面を遷移させてもよい。言い換えると、端末装置100は、ユーザU1の指F10により選択された位置を編集点として文字列を複数の情報に分割する。そして、端末装置100は、各情報に含まれる漢字であって、読み仮名が複数のひらがなによって構成される漢字をひらがなに変換し、各ひらがなを分割して画面に表示する。
Note that the
続いて、図1の第5状態は、第4状態においてユーザU1による結合に関するタッチ操作を受け付けた領域AR5及び領域AR6を結合した画面の状態を示す。図1の第5状態において、端末装置100は、「けん」を領域AR7に表示する。また、端末装置100は、ユーザU1による所定のタッチ操作(例えば、領域AR7のタップなど)を受け付け、「けん」に対応する変換候補の漢字を領域AR2に表示する。
Subsequently, the fifth state in FIG. 1 illustrates a state of the screen in which the areas AR5 and AR6 in which the touch operation regarding the connection by the user U1 has been received in the fourth state are combined. In the fifth state of FIG. 1, the
ここで、ユーザU1が行った音声入力に誤入力があり、図1の第5状態において領域AR7に表示した情報の再入力を希望したものとする。この場合、端末装置100は、ユーザU1の指F10による領域AR7への所定のタッチ操作(例えば、領域AR7のロングタップなど)を受け付けることにより、画面を図1の第6状態に画面を遷移させる。
Here, it is assumed that the voice input performed by the user U1 has an erroneous input, and the user wants to re-input the information displayed in the area AR7 in the fifth state of FIG. In this case, the
続いて、図1の第6状態は、再度ユーザU1による音声入力を受け付けるための画面の状態を示す。図1の第6状態において、端末装置100は、「けん」に替えて、音声入力を受け付け可能であることを示すアイコン画像を領域AR7に表示する。端末装置100は、ユーザU1から音声入力を受け付け、画面を図1の第7状態に遷移させる。
Subsequently, the sixth state in FIG. 1 shows a state of a screen for receiving a voice input by the user U1 again. In the sixth state in FIG. 1, the
続いて、図1の第7状態は、ユーザU1による音声入力に対する音声認識の結果となる文字列を表示した画面の状態を示す。図1の第7状態において、端末装置100は、アイコン画像に替えて、音声認識の結果である「こう」を領域AR7に表示する。すなわち、端末装置100は、音声入力された文字列を、再度音声入力を受け付けることにより更新する。また、端末装置100は、ユーザU1による所定のタッチ操作(例えば、領域AR7のタップなど)等を受け付け、「こう」に対応する変換候補の漢字を領域AR2に表示する。ここで、端末装置100は、ユーザU1の指F10による領域AR2へのタッチ操作により領域AR7に表示された文字列の変換先の漢字を受け付け、図1の第8状態に画面を遷移させる。
Subsequently, a seventh state in FIG. 1 shows a state of a screen displaying a character string as a result of voice recognition for a voice input by the user U1. In the seventh state of FIG. 1, the
続いて、図1の第8状態は、領域AR7に表示した文字列をユーザU1から受け付けた変換先の漢字に変換した画面の状態を示す。図1の第8状態において、端末装置100は、「こう」に替えて、「こう」を漢字に変換した「浩」を領域AR7に表示する。ここで、端末装置100は、ユーザU1の指F10が領域AR7に触れた状態から、領域AR7を領域AR4の方向へスライドさせるタッチ操作を受け付けることにより、領域AR4及び領域AR7に表示された情報を結合させた文字列「浩治」を画面に表示する。そして、端末装置100は、ユーザU1から文字列の出力操作(例えば、文字列が表示された領域以外の画面の領域のタッチ操作)を受け付けることにより、文字列「浩治」を音声入力アプリ以外の他のアプリケーションに出力する。
Subsequently, an eighth state in FIG. 1 shows a state of the screen in which the character string displayed in the area AR7 is converted into the conversion destination kanji received from the user U1. In the eighth state of FIG. 1, the
なお、上述の実施形態では、端末装置100は、タッチ操作として、タップや、ダブルタップ、スライド、ロングタップ等のユーザU1の操作を受け付けた場合に画面の表示処理を行う例を示した。しかし、端末装置100は、上述したタッチ操作以外の操作が行われた場合にも画面の表示処理を行ってもよい。例えば、端末装置100は、ピンチアウト、ピンチイン、フリック、スワイプ、ドラッグ、タッチアンドホールド、シェイク、ピーク(Peek)、ポップ(Pop)等のタッチ操作を受け付け、上述した画面の表示処理を行ってもよい。
In the above-described embodiment, an example has been described in which the
以上のように、実施形態に係る端末装置100は、音声入力された文字列に対し、情報の分割処理及び結合処理、並びに、情報の更新処理を、画面に対するユーザのタッチ操作等に応じて行う。これにより、ユーザは、キーボード等を用いた操作を行わず、ユーザの感覚的な操作により音声入力を行うことができる。すなわち、実施形態に係る端末装置100は、音声入力におけるユーザビリティを向上させることができる。
As described above, the
〔2.端末装置の構成〕
次に、上述した表示処理を実現するための端末装置100について図2を用いて説明する。図2は、実施形態に係る端末装置の構成例を示す図である。図2に示すように、端末装置100は、通信部110と、入力部120と、出力部130と、物理センサ140と、制御部150とを有する。
[2. Configuration of terminal device)
Next, a
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、音声入力アプリや、その他のアプリケーションを配信するアプリケーション配信サーバ等との間で情報の送受信を行う。
(About the communication unit 110)
The
(入力部120及び出力部130について)
入力部120は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部120は、キーボードやマウスや操作キー等によって実現される。出力部130は、各種情報を表示するための表示装置である。つまり、出力部130は、端末装置100の表示画面に相当する。例えば、出力部130は、液晶ディスプレイ等によって実現される。なお、端末装置100にタッチパネルが採用される場合には、入力部120と出力部130とは一体化される。
(About the
The
(物理センサ140について)
物理センサ140は、端末装置100の物理的な状態を検知するセンサである。例えば、物理センサ140は、端末装置100の画面に対するユーザのタッチ操作等における圧量を検知する圧力センサである。
(About the physical sensor 140)
The
(制御部150について)
制御部150は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。なお、制御部150は、上述した表示処理を実現する制御情報又はアプリケーションをアプリケーション配信サーバ等から配信された場合、かかる制御情報又はアプリケーションに従って動作し、表示処理を実現する。
(About the control unit 150)
The
また、制御部150は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。実施形態に係る制御部150は、図2に示すように、音声入力アプリケーション151や、第1アプリケーション152、第2アプリケーション153等を有する。音声入力アプリケーション151は、上述した表示処理の機能や作用を実現または実行し、ユーザの音声入力に対する音声認識の結果となる情報を、第1アプリケーション152や、第2アプリケーション153等の他のアプリケーションに出力する。以下、図3を用いて、音声入力アプリケーション151が有する機能構成の一例ついて説明する。図3は、実施形態に係る音声入力アプリケーションの構成例を示す図である。実施形態に係る音声入力アプリケーション151は、図3に示すように、認識部1511と、表示部1512と、受付部1513と、分割部1514と、更新部1515と、結合部1516と、出力部1517とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
The
(認識部1511について)
認識部1511は、後述する受付部1513によって受け付けられたユーザの音声入力に対し音声認識処理を実行する。例えば、図1の例において、認識部1511は、ユーザU1による音声入力に対して音声認識処理を実行し、音声を文字列に変換する。
(About the recognition unit 1511)
The recognizing unit 1511 performs a voice recognition process on a user's voice input received by a receiving unit 1513 described below. For example, in the example of FIG. 1, the recognition unit 1511 executes a voice recognition process for a voice input by the user U1, and converts the voice into a character string.
(表示部1512について)
表示部1512は、音声を介して入力された情報を表示する。例えば、表示部1512は、ユーザによる音声入力に対して認識部1511が実行した音声認識処理の結果となる情報を表示する。
(About the display unit 1512)
また、表示部1512は、音声認識の結果となる文字列を表示してもよい。例えば、表示部1512は、音声を介して入力された文字列であって、漢字を含む文字列を表示する。例えば、図1の例において、表示部1512は、ユーザU1の音声入力に対し、文字列「賢治」を音声認識の結果として表示する。
The
また、表示部1512は、音声を介して入力された複数の情報を表示してもよい。例えば、表示部1512は、音声認識の結果となる情報を分割した複数の情報を表示する。具体的には、表示部1512は、認識部1511が実行した音声認識処理の結果である文字列を分割した複数の情報を表示する。ここで、表示部1512は、文字列に含まれる各漢字を分割して表示してもよい。また、表示部1512は、文字列に含まれる漢字と、ひらがなとを分割して表示してもよい。
Further, the
(受付部1513について)
受付部1513は、表示部1512が表示した複数の情報のうちいずれかを選択する操作を受け付けた場合に音声を介して新たな情報の入力を受け付ける。また、受付部1513は、後述する分割部1514が情報を複数の情報に分割して表示した後、複数の情報のうちいずれかを選択する操作を受け付けた場合に音声を介して新たな情報の入力を受け付ける。例えば、図1の例において、受付部1513は、ユーザU1の指F10によって領域AR7へ所定のタッチ操作が行われた場合、音声入力を受け付け可能であることを示すアイコン画像を領域AR7に表示し、ユーザU1から音声を介して新たな情報の入力を受け付ける。
(About the reception unit 1513)
The receiving unit 1513 receives input of new information via voice when receiving an operation of selecting any one of the plurality of pieces of information displayed by the
また、受付部1513は、複数の情報を結合する操作を受け付けてもよい。例えば、図1の例において、受付部1513は、ユーザU1の指F10が領域AR7に触れた状態から、領域AR7を領域AR4の方向へスライドさせるタッチ操作を、領域AR4及び領域AR7を結合する操作として受け付ける。 In addition, the receiving unit 1513 may receive an operation of combining a plurality of pieces of information. For example, in the example of FIG. 1, the reception unit 1513 performs a touch operation of sliding the area AR7 toward the area AR4 from a state in which the finger F10 of the user U1 touches the area AR7, and an operation of combining the area AR4 and the area AR7. Accept as.
(分割部1514について)
分割部1514は、表示部1512により表示された情報のうち、編集点となる位置を選択する操作を受け付けた場合に当該編集点で情報を分割して表示する。例えば、図1の例において、分割部1514は、ユーザU1の指F10が領域AR1に表示された「賢」及び「治」の間の領域を編集点とするタッチ操作を受け付けることにより、領域AR1を「賢」を表示する領域AR3及び「治」を表示する領域AR4に分割して表示する。
(About the dividing unit 1514)
The
また、分割部1514は、表示部1512により表示された情報の選択を伴う所定の操作を受け付けた場合に情報を分割して表示してもよい。例えば、図1の例において、分割部1514は、ユーザU1の指F10が領域AR1に触れた状態から、所定のタッチ操作を受け付けることにより、領域AR1に表示された文字列を分割して表示する。
The
また、分割部1514は、表示部1512により表示された情報のうち、所定の操作が行われた位置を編集点として情報を分割して表示する。例えば、図1の例において、分割部1514は、ユーザU1の指F10が領域AR1に触れた状態から、「賢」及び「治」の間をなぞる操作を受け付けることにより、「賢」及び「治」の間の領域を編集点として領域AR1に表示された文字列を分割して表示する。
In addition, the
また、分割部1514は、表示部1512により表示された情報のうち、情報の選択を伴う第1の操作が行われた位置を第1の編集点として情報を複数の情報に分割して表示した後、複数の情報のいずれかの選択を伴う第2の操作を受け付けた場合に、第2の操作が行われた位置を第2の編集点として選択された情報を分割して表示してもよい。例えば、図1の例において、分割部1514は、領域AR1に表示された「賢」及び「治」の間の領域を第1の編集点として、領域AR1に表示された文字列を領域AR3及び領域AR4に分割して表示する。そして、分割部1514は、領域AR3に対するユーザU1の第2の操作(タッチ操作)を受け付けることにより、領域AR3に表示された「賢」の読み仮名「け」及び「ん」の間の領域を第2の編集点として、領域AR3に表示された情報を領域AR5及び領域AR6に分割して表示する。
The
また、分割部1514は、表示部1512が表示した文字列に含まれる漢字を複数のひらがなに変換し、各ひらがなを分割して表示してもよい。例えば、図1の例において、分割部1514は、ユーザU1の指F10が領域AR1に表示された「賢」及び「治」の間の領域を編集点とするタッチ操作を受け付け、領域AR1に表示された文字列を領域AR3及び領域AR4に分割すると共に、領域AR3に表示された情報を領域AR5及び領域AR6に分割して表示する。
In addition, the
(更新部1515について)
更新部1515は、選択された情報を受付部1513が受け付けた新たな情報に更新する。例えば、図1の例において、更新部1515は、第6状態にて受付部1513が受け付けたユーザU1による音声入力に対する音声認識の結果となる文字列を領域AR7に表示し、領域AR7に表示される文字列を「けん」から「こう」に更新する。
(About the update unit 1515)
The updating unit 1515 updates the selected information with new information received by the receiving unit 1513. For example, in the example of FIG. 1, the updating unit 1515 displays, in the area AR7, a character string that is a result of voice recognition for the voice input by the user U1 received by the receiving unit 1513 in the sixth state, and is displayed in the area AR7. Is updated from "ken" to "ko".
(結合部1516について)
結合部1516は、受付部1513が複数の情報を結合する操作を受け付けた場合に複数の情報を結合して表示する。例えば、結合部1516は、表示部1512により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する。具体的には、表示部1512がユーザの音声を介して入力された文字列を複数の情報に分割して表示した場合(例えば、文字列に含まれる各漢字を分割して表示した場合や、文字列に含まれる漢字及びひらがなを分割して表示した場合など)、結合部1516は、ユーザから情報の選択を伴う所定の操作を受け付け、選択された情報を他の情報と結合して表示する。
(About the joint 1516)
The combining unit 1516 combines and displays a plurality of pieces of information when the receiving unit 1513 receives an operation of combining a plurality of pieces of information. For example, the combining unit 1516 combines the selected information with other information when a predetermined operation involving selection of any of the information displayed on the
また、結合部1516は、分割部1514が情報を複数の情報に分割して表示した後、複数の情報を結合する操作を受け付けた場合に複数の情報を結合して表示してもよい。例えば、図1の例において、結合部1516は、ユーザU1による領域AR7へのタッチ操作を受け付けることにより、領域AR4及び領域AR7に表示された情報を結合させた文字列「浩治」を画面に表示する。
Further, the combining unit 1516 may combine and display a plurality of pieces of information when the
また、結合部1516は、複数の情報のうち選択された情報を他の情報が表示された方向へ移動させる操作を受け付けた場合に選択された情報を他の情報と結合して表示してもよい。例えば、結合部1516は、複数の情報のうち、選択に伴いスライド操作が行われた情報をスライド方向の情報と結合して表示する。例えば、図1の例において、結合部1516は、ユーザU1の指F10が領域AR7に触れた状態から、領域AR7を領域AR4の方向へスライドさせるタッチ操作を受け付けることにより、領域AR4及び領域AR7を結合させた文字列「浩治」を画面に表示する。 Also, the combining unit 1516 combines the selected information with the other information and displays the selected information when the operation of moving the selected information among the plurality of information in the direction in which the other information is displayed is received. Good. For example, the combining unit 1516 combines and displays the information on which the slide operation has been performed in accordance with the selection with the information on the sliding direction among the plurality of pieces of information. For example, in the example of FIG. 1, the coupling unit 1516 accepts a touch operation of sliding the area AR7 in the direction of the area AR4 from a state in which the finger F10 of the user U1 touches the area AR7, thereby changing the area AR4 and the area AR7. Display the combined character string "Koji" on the screen.
また、結合部1516は、複数の情報のうち、選択に伴いタップ操作が行われた情報を他の情報と結合して表示してもよい。例えば、結合部1516は、タップ操作が行われた情報を、当該情報の所定の方向に表示された情報と結合して表示する。 In addition, the combining unit 1516 may combine the information on which the tap operation has been performed in accordance with the selection with the other information and display the information. For example, the combining unit 1516 combines and displays the information on which the tap operation has been performed with the information displayed in a predetermined direction of the information.
また、結合部1516は、複数の情報を変更せずに結合して表示してもよい。例えば、図1の例において、結合部1516は、領域AR7に表示された情報を、漢字に変換された状態のまま領域AR4に表示された情報と結合して表示する。 Also, the combining unit 1516 may combine and display a plurality of pieces of information without changing them. For example, in the example of FIG. 1, the combining unit 1516 combines and displays the information displayed in the area AR7 with the information displayed in the area AR4 while being converted into a kanji.
(出力部1517について)
出力部1517は、ユーザの音声入力に対する音声認識の結果となる情報を、第1アプリケーション152や、第2アプリケーション153等の他のアプリケーションに出力する。例えば、図1の例において、出力部1517は、ユーザU1から文字列の出力操作を受け付けた時点で画面に表示されている文字列「浩治」を、他のアプリケーションに出力する。
(About the output unit 1517)
The output unit 1517 outputs information that is a result of voice recognition for a user's voice input to another application such as the
〔3.表示処理のフロー〕
ここで、図4を用いて、実施形態に係る音声入力アプリの表示処理の手順について説明する。図4は、実施形態に係る表示処理手順の一例を示すフローチャートである。
[3. Display processing flow)
Here, the procedure of the display process of the voice input application according to the embodiment will be described with reference to FIG. FIG. 4 is a flowchart illustrating an example of a display processing procedure according to the embodiment.
図4に示すように、端末装置100は、ユーザから音声入力を受け付ける(ステップS101)。続いて、端末装置100は、音声入力に対する音声認識の結果を表示する(ステップS102)。本説明において、端末装置100は、音声認識の結果となる文字列を表示する。続いて、ユーザから音声認識した文字列に対する分割操作を受け付けた場合(ステップS103;Yes)、端末装置100は、音声認識した文字列を分割して表示する(ステップS104)。例えば、端末装置100は、ユーザのタッチ操作等により選択された編集点で文字列を分割して表示する。一方、文字列に対する分割操作を受け付けなかった場合(ステップS103;No)、端末装置100は、文字列をそのまま表示する。
As shown in FIG. 4, the
続いて、画面に表示した文字列を構成するいずれかの情報が選択された場合(ステップS105;Yes)、端末装置100は、ユーザから新たな音声入力を受け付け、選択された情報を更新する(ステップS106)。例えば、図1の例において、端末装置100は、領域AR1に表示した文字列を領域AR4及び領域AR7に分割して表示している状態において領域AR7が選択され音声入力を受け付け可能であることを示すアイコン画像を領域AR7に表示する。そして、端末装置100は、新たに音声入力に対する音声認識の結果となる文字列を領域AR7に表示する。一方、文字列を構成する情報が選択されなかった場合(ステップS105;No)、端末装置100は、文字列をそのまま表示する。
Subsequently, when any information constituting the character string displayed on the screen is selected (Step S105; Yes), the
続いて、画面に表示した文字列を構成する情報の結合操作が行われた場合(ステップS107;Yes)、端末装置100は、操作対象となる情報を結合して表示する(ステップS108)。例えば、図1の例において、端末装置100は、ユーザU1の指F10が領域AR7に触れた状態から、領域AR7を領域AR4の方向へスライドさせるタッチ操作を受け付けることにより、領域AR4及び領域AR7に表示された情報を結合させた文字列を画面に表示する。一方、文字列を構成する情報の結合操作が行われなかった場合(ステップS107;No)、端末装置100は、文字列をそのまま表示する。
Subsequently, when a combining operation of the information constituting the character string displayed on the screen is performed (Step S107; Yes), the
続いて、画面に表示した文字列の出力操作が行われた場合(ステップS109;Yes)、端末装置100は、文字列を他のアプリケーションに出力し(ステップS110)、処理を終了する。一方、文字列の出力操作が行われなかった場合(ステップS109;No)、端末装置100は、文字列をそのまま表示し、再び分割操作、情報の更新、並びに、結合操作を受け付ける。
Subsequently, when the output operation of the character string displayed on the screen is performed (Step S109; Yes), the
〔4.変形例〕
上述の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
[4. Modification)
The above-described embodiment is an example, and various modifications and applications are possible.
〔4−1.文字列について〕
上述の実施形態において、端末装置100が日本語で構成される文字列の表示処理を行う例を示したが、端末装置100は上述した例に限られず、各種自然言語において用いられる文字により構成される文字列の表示処理を行ってもよい。例えば、端末装置100は、英語の音声入力を受け付ける場合、ユーザによる「ライト」という音声入力に対し、「right」や、「light」などのアルファベットで構成される文字列であって、発音が類似する文字列を音声認識の結果や変換候補として表示する。また、端末装置100は、英語を音声認識の結果として表示する場合、英語の各品詞の語形変化を変換候補として表示してもよい。例えば、端末装置100は、音声認識の結果として「go」を表示する場合、変換候補として「goes」、「went」、「gone」などを表示してもよい。また、端末装置100は、英語を音声認識の結果として複合語を表示する場合、複合語を構成要素の品詞に分割可能としてもよい。例えば、端末装置100は、音声認識の結果として「policeman」を表示した場合、ユーザの分割操作を受け付け、「police」及び「man」と分割して表示(例えば、「police」及び「man」の間に空白領域を設けて表示)してもよい。
[4-1. About character strings)
In the above-described embodiment, the example in which the
また、端末装置100は、種々のアプリケーションにおけるテキスト等の入力欄に入力可能であれば、記号(例えば、丸、バツ印、三角、四角、矢印、ハイフン、絵文字など)や数字を含む文字列の表示処理を行ってもよい。
In addition, the
〔4−2.新たな情報の挿入について〕
受付部1513は、音声を介して入力された情報に挿入される新たな情報を受け付けてもよい。例えば、図1の第5状態において、受付部1513は、領域AR7の左側、領域AR4及び領域AR7の間、並びに、領域AR4の右側のいずれかに所定範囲の空白領域を生じさせるタッチ操作を受け付けた場合、当該空白領域に音声入力を受け付け可能であることを示すアイコン画像を表示し、ユーザU1から空白領域に挿入される情報の音声入力を受け付ける。そして、更新部1515は、受付部1513が受け付けた新たな情報を空白領域に挿入し、端末装置100に表示された文字列を更新する。
[4-2. Insertion of new information)
The receiving unit 1513 may receive new information to be inserted into information input via voice. For example, in the fifth state of FIG. 1, the receiving unit 1513 receives a touch operation that causes a predetermined range of a blank area on the left side of the area AR7, between the area AR4 and the area AR7, and on the right side of the area AR4. In this case, an icon image indicating that voice input can be received is displayed in the blank area, and voice input of information to be inserted into the blank area is received from the user U1. Then, the updating unit 1515 inserts the new information received by the receiving unit 1513 into the blank area, and updates the character string displayed on the
〔5.効果〕
上述してきたように、実施形態に係る端末装置100が有する音声入力アプリケーション151は、認識部1511と、表示部1512と、受付部1513と、分割部1514と、更新部1515と、結合部1516と、出力部1517とを有する。認識部1511は、ユーザの音声入力に対し音声認識処理を実行する。表示部1512は、音声を介して入力された情報を表示する。受付部1513は、分割部1514が情報を複数の情報に分割して表示した後、複数の情報のうちいずれかを選択する操作を受け付けた場合に音声を介して新たな情報の入力を受け付ける。分割部1514は、表示部1512により表示された情報のうち、編集点となる位置を選択する操作を受け付けた場合に当該編集点で情報を分割して表示する。更新部1515は、選択された情報を受付部1513が受け付けた新たな情報に更新する。結合部1516は、分割部1514が情報を複数の情報に分割して表示した後、複数の情報を結合する操作を受け付けた場合に複数の情報を結合して表示する。出力部1517は、ユーザの音声入力に対する音声認識の結果となる情報を、他のアプリケーションに出力する。
[5. effect〕
As described above, the
これにより、実施形態に係る端末装置100は、ユーザの感覚的な操作により音声入力を行うことができるため、音声入力に関するユーザビリティを向上させることができる。
Accordingly, the
また、実施形態に係る端末装置100において、例えば、表示部1512は、音声を介して入力された複数の情報を表示する。そして、受付部1513は、表示部1512が表示した複数の情報のうちいずれかを選択する操作を受け付けた場合に音声を介して新たな情報の入力を受け付ける。そして、更新部1515は、選択された情報を受付部1513が受け付けた新たな情報に更新する。
In the
これにより、実施形態に係る端末装置100は、表示された複数の情報からいずれかの情報を選択し、新たな情報に更新できるため、文字列の音声入力に関するユーザビリティを向上させることができる。
As a result, the
また、実施形態に係る端末装置100において、例えば、表示部1512は、音声を介して入力された複数の情報を表示する。そして、結合部1516は、表示部1512により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する。
In the
これにより、実施形態に係る端末装置100は、表示された複数の情報から結合させる情報を選択できるため、文字列の音声入力に関するユーザビリティを向上させることができる。
Accordingly, the
また、実施形態に係る端末装置100において、例えば、表示部1512は、音声認識の結果となる情報を分割した複数の情報を表示する。
Further, in the
これにより、実施形態に係る端末装置100は、分割された情報に対し操作を行うことができるため、文字列の音声入力に関するユーザビリティを向上させることができる。
Thereby, the
また、実施形態に係る端末装置100において、例えば、表示部1512は、音声認識の結果となる文字列を表示する。
In the
これにより、実施形態に係る端末装置100は、音声認識の結果として文字列を表示することにより、文字列の音声入力に関するユーザビリティを向上させることができる。
Thus, the
また、実施形態に係る端末装置100において、例えば、分割部1514は、表示部1512により表示された情報の選択を伴う所定の操作を受け付けた場合に情報を分割して表示する。
In the
これにより、実施形態に係る端末装置100は、ユーザの操作に応じて表示された情報を分割できるため、音声入力に関するユーザビリティを向上させることができる。
Accordingly, the
また、実施形態に係る端末装置100において、例えば、分割部1514は、表示部1512により表示された情報のうち、所定の操作が行われた位置を編集点として情報を分割して表示する。
Further, in the
これにより、実施形態に係る端末装置100は、ユーザの操作が行われた位置を編集点として分割し、分割した情報に種々の操作を行うことができるため、音声入力に関するユーザビリティを向上させることができる。
Thereby, the
また、実施形態に係る端末装置100において、例えば、分割部1514は、表示部1512により表示された情報のうち、情報の選択を伴う第1の操作が行われた位置を第1の編集点として情報を複数の情報に分割して表示した後、複数の情報のいずれかの選択を伴う第2の操作を受け付けた場合に、当該第2の操作が行われた位置を第2の編集点として選択された情報を分割して表示する。
Further, in the
これにより、実施形態に係る端末装置100は、分割した情報をさらに分割し、種々の操作を行うことができるため、音声入力に関するユーザビリティを向上させることができる。
Accordingly, the
また、実施形態に係る端末装置100において、例えば、表示部1512は、音声を介して入力された文字列であって、漢字を含む文字列を表示する。そして、分割部1514は、表示部1512が表示した文字列に含まれる漢字を複数のひらがなに変換し、各ひらがなを分割して表示する。
Further, in the
これにより、実施形態に係る端末装置100は、漢字を含む文字列に対する変換操作を容易に行うことができるため、音声入力に関するユーザビリティを向上させることができる。
Accordingly, the
また、実施形態に係る端末装置100において、例えば、受付部1513は、複数の情報を結合する操作を受け付ける。そして、結合部1516は、受付部1513が複数の情報を結合する操作を受け付けた場合に複数の情報を結合して表示する。
In the
これにより、実施形態に係る端末装置100は、表示された情報を結合することができるため、音声入力に関するユーザビリティを向上させることができる。
Accordingly, the
また、実施形態に係る端末装置100において、例えば、結合部1516は、複数の情報のうち選択された情報を他の情報が表示された方向へ移動させる操作を受け付けた場合に選択された情報を他の情報と結合して表示する。
Further, in the
これにより、実施形態に係る端末装置100は、感覚的な操作により表示された情報を結合できるため、音声入力に関するユーザビリティを向上させることができる。
Accordingly, the
また、実施形態に係る端末装置100において、例えば、結合部1516は、選択に伴いタップ操作が行われた情報を他の情報と結合して表示する。
In addition, in the
これにより、実施形態に係る端末装置100は、感覚的な操作により表示された情報を結合できるため、音声入力に関するユーザビリティを向上させることができる。
Accordingly, the
また、実施形態に係る端末装置100において、例えば、結合部1516は、複数の情報のうち、選択に伴いスライド操作が行われた情報をスライド方向の情報と結合して表示する。
In addition, in the
これにより、実施形態に係る端末装置100は、感覚的な操作により表示された情報を結合できるため、音声入力に関するユーザビリティを向上させることができる。
Accordingly, the
また、実施形態に係る端末装置100において、例えば、結合部1516は、複数の情報を変更せずに結合して表示する。
In the
これにより、実施形態に係る端末装置100は、ユーザによって操作が行われた情報を変更せずに結合できるため、音声入力に関するユーザビリティを向上させることができる。
Accordingly, the
〔6.ハードウェア構成〕
また、上述してきた各実施形態に係る端末装置は、例えば図5に示すような構成のコンピュータ1000によって実現される。以下、端末装置100を例に挙げて説明する。図5は、端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration)
Further, the terminal device according to each embodiment described above is realized by, for example, a
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(実施形態のネットワークNに対応する)を介して他の機器からデータを受信してCPU1100へ送り、また、通信網500を介してCPU1100が生成したデータを他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The media interface 1700 reads a program or data stored in the
例えば、コンピュータ1000が端末装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部150の機能を実現する。また、HDD1400には、端末装置100の記憶装置内の各データが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
For example, when the
〔7.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
[7. Others)
As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are exemplifications, and various modifications based on the knowledge of those skilled in the art, including the aspects described in the section of the disclosure of the invention, The invention can be implemented in other modified forms.
また、上述した端末装置100は、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。
The configuration of the
また、特許請求の範囲に記載した「部」は、「手段」や「回路」などに読み替えることができる。例えば、認識部は、認識手段や認識回路に読み替えることができる。 Further, “parts” described in the claims can be read as “means” or “circuit”. For example, the recognition unit can be replaced with a recognition unit or a recognition circuit.
100 端末装置
110 通信部
120 入力部
130 出力部
140 物理センサ
150 制御部
1511 認識部
1512 表示部
1513 受付部
1514 分割部
1515 更新部
1516 結合部
1517 出力部
152 第1アプリケーション
153 第2アプリケーション
Claims (9)
前記表示手順により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する結合手順と
をコンピュータに実行させることを特徴とする結合プログラム。 A display procedure for displaying a plurality of pieces of information input via voice,
And performing a combining step of combining the selected information with other information and displaying the selected information when a predetermined operation involving selection of any of the plurality of pieces of information displayed by the display procedure is received. A combining program characterized by causing
前記複数の情報のうち選択された情報を他の情報が表示された方向へ移動させる操作を受け付けた場合に選択された情報を他の情報と結合して表示する
ことを特徴とする請求項1に記載の結合プログラム。 The combining procedure comprises:
The information selected from the plurality of pieces of information is displayed in combination with another piece of information when an operation of moving the selected piece of information in the direction in which the other piece of information is displayed is received. The binding program according to 1.
前記複数の情報のうち、選択に伴いタップ操作が行われた情報を他の情報と結合して表示する
ことを特徴とする請求項1又は2に記載の結合プログラム。 The combining procedure comprises:
The combination program according to claim 1, wherein, among the plurality of pieces of information, information on which a tap operation has been performed according to selection is combined with other information and displayed.
前記複数の情報のうち、選択に伴いスライド操作が行われた情報をスライド方向の情報と結合して表示する
ことを特徴とする請求項1又は2に記載の結合プログラム。 The combining procedure comprises:
The combination program according to claim 1, wherein, among the plurality of pieces of information, information on which a slide operation is performed according to selection is combined with information on a slide direction and displayed.
音声認識の結果となる文字列を表示する
ことを特徴とする請求項1から4のいずれか一つに記載の結合プログラム。 The display procedure includes:
The combination program according to any one of claims 1 to 4, wherein a character string resulting from speech recognition is displayed.
音声認識の結果となる情報を分割した複数の情報を表示する
ことを特徴とする請求項1から5のいずれか一つに記載の結合プログラム。 The display procedure includes:
The combined program according to any one of claims 1 to 5, wherein a plurality of pieces of information obtained by dividing information resulting from speech recognition are displayed.
前記複数の情報を変更せずに結合して表示する
ことを特徴とする請求項1から6のいずれか一つに記載の結合プログラム。 The combining procedure comprises:
The combination program according to any one of claims 1 to 6, wherein the plurality of pieces of information are combined and displayed without being changed.
前記表示部により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する結合部と
を備えることを特徴とする結合装置。 A display unit for displaying a plurality of pieces of information input via voice;
A coupling unit that, when a predetermined operation involving selection of any one of the plurality of information displayed by the display unit is received, combines the selected information with other information and displays the combined information. Characteristic coupling device.
音声を介して入力された複数の情報を表示する表示工程と、
前記表示工程により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する結合工程と
を含むことを特徴とする結合方法。 A combining method performed by a computer,
A display step of displaying a plurality of pieces of information input via voice;
A combining step of combining the selected information with other information and displaying the selected information when a predetermined operation involving selection of any of the plurality of pieces of information displayed in the display step is received. Characteristic joining method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018155849A JP6601827B1 (en) | 2018-08-22 | 2018-08-22 | Joining program, joining device, and joining method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018155849A JP6601827B1 (en) | 2018-08-22 | 2018-08-22 | Joining program, joining device, and joining method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6601827B1 JP6601827B1 (en) | 2019-11-06 |
JP2020030324A true JP2020030324A (en) | 2020-02-27 |
Family
ID=68462332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018155849A Active JP6601827B1 (en) | 2018-08-22 | 2018-08-22 | Joining program, joining device, and joining method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6601827B1 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60251460A (en) * | 1984-05-29 | 1985-12-12 | Ricoh Co Ltd | Character string processor |
JPS62180462A (en) * | 1986-02-04 | 1987-08-07 | Ricoh Co Ltd | Voice input kana-kanji converter |
JP2006146008A (en) * | 2004-11-22 | 2006-06-08 | National Institute Of Advanced Industrial & Technology | Speech recognition device and method, and program |
JP2008090625A (en) * | 2006-10-02 | 2008-04-17 | Sharp Corp | Character input device, character input method, control program, and recording medium |
JP2009098490A (en) * | 2007-10-18 | 2009-05-07 | Kddi Corp | Device for editing speech recognition result, speech recognition device and computer program |
WO2011064829A1 (en) * | 2009-11-30 | 2011-06-03 | 株式会社 東芝 | Information processing device |
JP2014048506A (en) * | 2012-08-31 | 2014-03-17 | National Institute Of Information & Communication Technology | Word registering apparatus, and computer program for the same |
JP2014202832A (en) * | 2013-04-02 | 2014-10-27 | 株式会社東芝 | Editing device, method, and program |
JP2016130837A (en) * | 2015-01-08 | 2016-07-21 | パナソニックIpマネジメント株式会社 | Information controller and information control program |
-
2018
- 2018-08-22 JP JP2018155849A patent/JP6601827B1/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60251460A (en) * | 1984-05-29 | 1985-12-12 | Ricoh Co Ltd | Character string processor |
JPS62180462A (en) * | 1986-02-04 | 1987-08-07 | Ricoh Co Ltd | Voice input kana-kanji converter |
JP2006146008A (en) * | 2004-11-22 | 2006-06-08 | National Institute Of Advanced Industrial & Technology | Speech recognition device and method, and program |
JP2008090625A (en) * | 2006-10-02 | 2008-04-17 | Sharp Corp | Character input device, character input method, control program, and recording medium |
JP2009098490A (en) * | 2007-10-18 | 2009-05-07 | Kddi Corp | Device for editing speech recognition result, speech recognition device and computer program |
WO2011064829A1 (en) * | 2009-11-30 | 2011-06-03 | 株式会社 東芝 | Information processing device |
JP2014048506A (en) * | 2012-08-31 | 2014-03-17 | National Institute Of Information & Communication Technology | Word registering apparatus, and computer program for the same |
JP2014202832A (en) * | 2013-04-02 | 2014-10-27 | 株式会社東芝 | Editing device, method, and program |
JP2016130837A (en) * | 2015-01-08 | 2016-07-21 | パナソニックIpマネジメント株式会社 | Information controller and information control program |
Also Published As
Publication number | Publication date |
---|---|
JP6601827B1 (en) | 2019-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7174734B2 (en) | Systems, devices, and methods for dynamically providing user interface controls on touch-sensitive secondary displays | |
KR101541147B1 (en) | Dynamic virtual input device configuration | |
JP6317735B2 (en) | Using the ribbon to access the application user interface | |
US8949743B2 (en) | Language input interface on a device | |
US20140149878A1 (en) | Method and apparatus for rapid access to a contact in a contact list | |
CN109074375B (en) | Content selection in web documents | |
TW200849038A (en) | Shared language model | |
JP2005346709A (en) | Input of asian language using keyboard | |
KR20160009054A (en) | Multiple graphical keyboards for continuous gesture input | |
US20130050098A1 (en) | User input of diacritical characters | |
TWI475405B (en) | Electronic device and text-input interface displaying method thereof | |
CN108509138B (en) | Taskbar button display method and terminal thereof | |
US10452748B2 (en) | Deconstructing and rendering of web page into native application experience | |
JP2012098891A (en) | Information processing system and information processing method | |
WO2016119549A1 (en) | Input-based candidate text loading method and apparatus | |
JP6601827B1 (en) | Joining program, joining device, and joining method | |
JP6601826B1 (en) | Dividing program, dividing apparatus, and dividing method | |
JP2023063313A (en) | Method and computer program for generating menu model of character user interface | |
JP2018072508A (en) | Voice input device and voice input method | |
US20220397993A1 (en) | Selecting a desired item from a set of items | |
JP2018128732A (en) | Editing apparatus, editing method and program | |
KR102190956B1 (en) | Method, user terminal and computer program for providing chinese character continuous conversion | |
KR102250609B1 (en) | Method, user terminal and computer program for providing chinese character list priority setting function | |
KR102431329B1 (en) | Method for providing korean keyboard selectable integrated virtual keyboard | |
US10481791B2 (en) | Magnified input panels |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181018 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20181018 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20181025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190610 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191001 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6601827 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |