JP2020030324A - Combination program, combination device, and combination method - Google Patents

Combination program, combination device, and combination method Download PDF

Info

Publication number
JP2020030324A
JP2020030324A JP2018155849A JP2018155849A JP2020030324A JP 2020030324 A JP2020030324 A JP 2020030324A JP 2018155849 A JP2018155849 A JP 2018155849A JP 2018155849 A JP2018155849 A JP 2018155849A JP 2020030324 A JP2020030324 A JP 2020030324A
Authority
JP
Japan
Prior art keywords
information
displayed
terminal device
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018155849A
Other languages
Japanese (ja)
Other versions
JP6601827B1 (en
Inventor
鈴木 健司
Kenji Suzuki
健司 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LY Corp
Original Assignee
Z Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Z Holdings Corp filed Critical Z Holdings Corp
Priority to JP2018155849A priority Critical patent/JP6601827B1/en
Application granted granted Critical
Publication of JP6601827B1 publication Critical patent/JP6601827B1/en
Publication of JP2020030324A publication Critical patent/JP2020030324A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Document Processing Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To improve usability relating to a voice input.SOLUTION: A combining program causes a computer to execute: a display procedure for displaying a plurality of pieces of information input via a voice (e.g., a character string resulting from voice recognition of a speech input of a user); and a combination procedure for combining selected information with other information and displaying combined information when a prescribed operation (e.g., a tap operation or slide operation) that involves selection of any information out of the plurality of pieces of information displayed by the display procedure is accepted.SELECTED DRAWING: Figure 1

Description

本発明は、結合プログラム、結合装置、及び結合方法に関する。   The present invention relates to a combining program, a combining device, and a combining method.

従来、入力した音声情報を編集する技術が知られている。例えば、音声入力を受付けた場合に音声を音声データに変換し、変換した音声データの変換候補漢字を表示する技術が開示されている。   2. Description of the Related Art Conventionally, a technique for editing input audio information is known. For example, a technology is disclosed in which, when a voice input is received, the voice is converted into voice data, and conversion candidate kanji of the converted voice data is displayed.

特開2001−285413号公報JP 2001-285413 A

しかしながら、上記の従来技術では、ユーザビリティが良いとは言えない場合がある。   However, in the above-mentioned conventional technology, usability may not be good.

本願は、上記に鑑みてなされたものであって、音声入力に関するユーザビリティを向上させることを目的とする。   The present application has been made in view of the above, and has as its object to improve usability related to voice input.

本願に係る結合プログラムは、音声を介して入力された複数の情報を表示する表示手順と、前記表示手順により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する結合手順とをコンピュータに実行させることを特徴とする。   The combination program according to the present application receives a display procedure for displaying a plurality of pieces of information input via voice, and a predetermined operation involving selection of any one of a plurality of pieces of information displayed by the display procedure. And combining the selected information with other information and displaying the selected information.

実施形態の一態様によれば、音声入力に関するユーザビリティを向上させることができるという効果を奏する。   According to an aspect of the embodiment, there is an effect that usability related to voice input can be improved.

図1は、実施形態に係る端末装置の一例を示す図である。FIG. 1 is a diagram illustrating an example of a terminal device according to the embodiment. 図2は、実施形態に係る端末装置の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of the terminal device according to the embodiment. 図3は、実施形態に係る音声入力アプリケーションの構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of the voice input application according to the embodiment. 図4は、実施形態に係る表示処理手順の一例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of a display processing procedure according to the embodiment. 図5は、端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 5 is a hardware configuration diagram illustrating an example of a computer that realizes the functions of the terminal device.

以下に本願に係る結合プログラム、結合装置、及び結合方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る結合プログラム、結合装置、及び結合方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, a mode (hereinafter, referred to as an “embodiment”) for implementing a combination program, a combination device, and a combination method according to the present application will be described in detail with reference to the drawings. Note that the combination program, the combination device, and the combination method according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description will be omitted.

〔1.結合処理〕
図1を用いて、本実施形態の結合プログラム等により実現される結合処理を説明する。図1は、実施形態に係る端末装置の一例を示す図である。図1では、ユーザの音声入力に対し音声認識の結果となる文字列を表示し、表示した文字列を他のアプリケーションに出力する音声入力アプリケーション(以下、「音声入力アプリ」と記載する場合がある)が端末装置100に実装されている例を示す。なお、図1では、音声入力アプリの機能によって実施形態に係る結合処理が実現されるものとする。
[1. Join processing)
With reference to FIG. 1, a combining process realized by the combining program and the like of the present embodiment will be described. FIG. 1 is a diagram illustrating an example of a terminal device according to the embodiment. In FIG. 1, a character string that is a result of voice recognition in response to a user's voice input is displayed, and the displayed character string is output to another application (hereinafter, may be referred to as a “voice input application”). ) Shows an example in which the terminal device 100 is mounted on the terminal device 100. In FIG. 1, it is assumed that the combining process according to the embodiment is realized by the function of the voice input application.

図1に示す端末装置100は、ユーザによって利用されるスマートフォンやタブレット等のスマートデバイスであり、3G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。図1に示す例では、端末装置100がユーザU1によって利用されるスマートフォンである場合を示す。また、端末装置100は、液晶ディスプレイ等の出力部(以下、画面と記載する場合がある)を有し、タッチパネルが採用されているものとする。すなわち、ユーザU1は、指や専用ペンで出力部の表示面をタッチすることにより端末装置100の各種操作を行う。また、図1の例において、端末装置100には、音を集音する集音機器(マイク等)が含まれているものとする。なお、端末装置100は、スマートデバイスのみならず、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等の情報処理装置であってもよい。   A terminal device 100 shown in FIG. 1 is a smart device such as a smartphone or a tablet used by a user, and communicates with an arbitrary server device via a wireless communication network such as 3G (Generation) or LTE (Long Term Evolution). It is a portable terminal device that can be used. The example illustrated in FIG. 1 illustrates a case where the terminal device 100 is a smartphone used by the user U1. The terminal device 100 has an output unit such as a liquid crystal display (hereinafter, sometimes referred to as a screen) and employs a touch panel. That is, the user U1 performs various operations of the terminal device 100 by touching the display surface of the output unit with a finger or a dedicated pen. In the example of FIG. 1, it is assumed that the terminal device 100 includes a sound collecting device (a microphone or the like) that collects sound. Note that the terminal device 100 is not limited to a smart device, and may be an information processing device such as a notebook PC (Personal Computer), a desktop PC, a mobile phone, or a PDA (Personal Digital Assistant).

以下、図1を用いて、端末装置100が行う音声入力アプリの表示処理について説明する。なお、以下の説明では、端末装置100の画面の状態遷移を図示する場合、順に第1状態、第2状態、・・・、第N状態(Nは任意の数)と表記する。   Hereinafter, the display processing of the voice input application performed by the terminal device 100 will be described with reference to FIG. In the following description, when the state transition of the screen of the terminal device 100 is illustrated, the state transition is represented as a first state, a second state,..., An N-th state (N is an arbitrary number).

図1の第1状態は、ユーザU1による音声入力に対する音声認識の結果となる文字列を表示した画面の状態を示す。ここで、図1の第1状態において、端末装置100は、ユーザU1の音声入力に対し、文字列「賢治」を音声認識の結果として領域AR1に表示したものとする。   The first state in FIG. 1 shows a state of a screen displaying a character string as a result of voice recognition for a voice input by the user U1. Here, in the first state of FIG. 1, it is assumed that the terminal device 100 displays the character string “Kenji” in the area AR1 as a result of voice recognition in response to the voice input of the user U1.

続いて、図1の第2状態は、第1状態において領域AR1に表示した文字列「賢治」の読み仮名「けんじ」の他の漢字への変換候補を表示した画面の状態を示す。図1の第2状態において、端末装置100は、ユーザU1による所定のタッチ操作(例えば、領域AR1のタップなど)等を受け付け、文字列「賢治」の読み仮名「けんじ」に対応する他の変換候補の漢字を領域AR2に表示する。   Subsequently, the second state of FIG. 1 shows a state of the screen on which the conversion candidate of the reading kana “Kenji” of the character string “Kenji” displayed in the area AR1 in the first state to another kanji is displayed. In the second state of FIG. 1, the terminal device 100 receives a predetermined touch operation (for example, a tap on the area AR1) or the like by the user U1 and performs another conversion corresponding to the reading pseudonym “Kenji” of the character string “Kenji”. The candidate kanji is displayed in the area AR2.

ここで、図1の第2状態において、ユーザU1が希望する変換候補が領域AR2に表示されず、また、ユーザU1が領域AR1に表示された「賢」のみを他の変換候補の漢字に変換することを希望したものとする。この場合、端末装置100は、ユーザU1の指F10により選択された編集点(「賢」及び「治」の間)で文字列「賢治」を分割して表示する図1の第3状態に画面を遷移させる。例えば、図1の例において、端末装置100は、ユーザU1の指F10が領域AR1に表示された「賢」及び「治」の間の領域へのタッチ操作(例えば、タップ)を受け付けることにより、画面を図1の第3状態に遷移させる。   Here, in the second state of FIG. 1, the conversion candidate desired by the user U1 is not displayed in the area AR2, and the user U1 converts only “Ken” displayed in the area AR1 into another conversion candidate kanji. You wish to do so. In this case, the terminal device 100 displays the screen in the third state of FIG. 1 in which the character string “Kenji” is divided and displayed at the edit point (between “Ken” and “Ken”) selected by the finger F10 of the user U1. Is changed. For example, in the example of FIG. 1, the terminal device 100 receives the touch operation (for example, a tap) of the finger F10 of the user U1 on the area between “smart” and “healing” displayed in the area AR1. The screen is transited to the third state in FIG.

なお、端末装置100は、種々の編集点の選択操作をユーザU1から受け付けてもよい。例えば、端末装置100は、音声認識の結果となる文字列へのユーザU1の指F10によるタッチ操作を受け付けることにより、文字列を所定の編集点で分割して表示してもよい。具体的には、端末装置100は、文字列に含まれる各漢字の間や、漢字及びひらがなの間を編集点としてもよい。また、図1の例において、端末装置100は、ユーザU1の指F10が文字列「賢治」に触れた状態から、「賢」及び「治」の間をなぞる操作を受け付けることにより、画面を図1の第3状態に遷移させてもよい。   Note that the terminal device 100 may receive a selection operation of various editing points from the user U1. For example, the terminal device 100 may display the character string by dividing the character string at a predetermined editing point by receiving a touch operation by the finger F10 of the user U1 on the character string as a result of the voice recognition. Specifically, the terminal device 100 may set the editing point between each kanji included in the character string or between kanji and hiragana. In the example of FIG. 1, the terminal device 100 displays a screen by accepting an operation of tracing between “smart” and “healing” from a state in which the finger F10 of the user U1 touches the character string “Kenji”. A transition to the first third state may be made.

続いて、図1の第3状態は、第2状態において選択された編集点で文字列「賢治」を分割して表示した画面の状態を示す。図1の第3状態において、端末装置100は、「賢」を領域AR3に表示し、「治」を領域AR4に表示する。ここで、端末装置100は、ユーザU1の指F10による領域AR3へのタッチ操作(例えば、ダブルタップ)を受け付けることにより、領域AR3に表示された「賢」を、「賢」の読み仮名「け」及び「ん」に分割して表示する図1の第4状態に画面を遷移させる。   Subsequently, a third state in FIG. 1 shows a state of a screen in which the character string “Kenji” is divided and displayed at the editing point selected in the second state. In the third state of FIG. 1, the terminal device 100 displays “smart” in the area AR3 and displays “healing” in the area AR4. Here, the terminal device 100 accepts a touch operation (for example, a double tap) on the area AR3 by the finger F10 of the user U1 to change “Ken” displayed in the area AR3 into a reading pseudonym “Ken” of “Ken”. The screen is transited to the fourth state in FIG.

続いて、図1の第4状態は、第3状態においてユーザU1のタッチ操作が行われた領域AR3の「賢」の読み仮名を分割して表示した画面の状態を示す。図1の第4状態において、端末装置100は、「け」を領域AR5に表示し、「ん」を領域AR6に表示する。ここで、図1の第4状態において、ユーザU1が領域AR5に表示した「け」及び領域AR6に表示した「ん」を結合することを希望したものとする。この場合、端末装置100は、ユーザU1の指F10によるタッチ操作を受け付けることにより、「け」及び「ん」を結合して表示する図1の第5状態に画面を遷移させる。例えば、図1の例において、端末装置100は、ユーザU1の指F10が領域AR5に触れた状態から、領域AR5を領域AR6の方向へスライドさせるタッチ操作を受け付けることにより、画面を図1の第5状態に遷移させる。   Subsequently, a fourth state in FIG. 1 illustrates a state of a screen in which the reading kana of “Ken” in the area AR3 where the touch operation of the user U1 has been performed in the third state is divided and displayed. In the fourth state of FIG. 1, the terminal device 100 displays “ke” in the area AR5 and displays “n” in the area AR6. Here, in the fourth state of FIG. 1, it is assumed that the user U1 desires to combine “ke” displayed in the area AR5 and “n” displayed in the area AR6. In this case, the terminal device 100 transitions the screen to the fifth state in FIG. 1 in which “ke” and “n” are combined and displayed by receiving a touch operation with the finger F10 of the user U1. For example, in the example of FIG. 1, the terminal device 100 receives a touch operation of sliding the area AR5 in the direction of the area AR6 from a state in which the finger F10 of the user U1 touches the area AR5, thereby changing the screen of the terminal U in FIG. Transition to state 5.

なお、端末装置100は、図1の第2状態から、第3状態を介さず第4状態へ画面を遷移させてもよい。言い換えると、端末装置100は、ユーザU1の指F10により選択された位置を編集点として文字列を複数の情報に分割する。そして、端末装置100は、各情報に含まれる漢字であって、読み仮名が複数のひらがなによって構成される漢字をひらがなに変換し、各ひらがなを分割して画面に表示する。   Note that the terminal device 100 may change the screen from the second state in FIG. 1 to the fourth state without going through the third state. In other words, the terminal device 100 divides a character string into a plurality of pieces of information using a position selected by the finger F10 of the user U1 as an editing point. Then, the terminal device 100 converts the kanji which is the kanji included in each piece of information and whose reading kana is composed of a plurality of hiragana, into hiragana, divides each hiragana and displays the hiragana on the screen.

続いて、図1の第5状態は、第4状態においてユーザU1による結合に関するタッチ操作を受け付けた領域AR5及び領域AR6を結合した画面の状態を示す。図1の第5状態において、端末装置100は、「けん」を領域AR7に表示する。また、端末装置100は、ユーザU1による所定のタッチ操作(例えば、領域AR7のタップなど)を受け付け、「けん」に対応する変換候補の漢字を領域AR2に表示する。   Subsequently, the fifth state in FIG. 1 illustrates a state of the screen in which the areas AR5 and AR6 in which the touch operation regarding the connection by the user U1 has been received in the fourth state are combined. In the fifth state of FIG. 1, the terminal device 100 displays “KEN” in the area AR7. Further, the terminal device 100 accepts a predetermined touch operation (for example, a tap on the area AR7) by the user U1, and displays a conversion candidate kanji corresponding to “ken” in the area AR2.

ここで、ユーザU1が行った音声入力に誤入力があり、図1の第5状態において領域AR7に表示した情報の再入力を希望したものとする。この場合、端末装置100は、ユーザU1の指F10による領域AR7への所定のタッチ操作(例えば、領域AR7のロングタップなど)を受け付けることにより、画面を図1の第6状態に画面を遷移させる。   Here, it is assumed that the voice input performed by the user U1 has an erroneous input, and the user wants to re-input the information displayed in the area AR7 in the fifth state of FIG. In this case, the terminal device 100 changes the screen to the sixth state in FIG. 1 by receiving a predetermined touch operation (for example, a long tap on the area AR7) on the area AR7 by the finger F10 of the user U1. .

続いて、図1の第6状態は、再度ユーザU1による音声入力を受け付けるための画面の状態を示す。図1の第6状態において、端末装置100は、「けん」に替えて、音声入力を受け付け可能であることを示すアイコン画像を領域AR7に表示する。端末装置100は、ユーザU1から音声入力を受け付け、画面を図1の第7状態に遷移させる。   Subsequently, the sixth state in FIG. 1 shows a state of a screen for receiving a voice input by the user U1 again. In the sixth state in FIG. 1, the terminal device 100 displays an icon image indicating that voice input can be accepted in the area AR7 instead of “ken”. The terminal device 100 receives a voice input from the user U1, and transitions the screen to the seventh state in FIG.

続いて、図1の第7状態は、ユーザU1による音声入力に対する音声認識の結果となる文字列を表示した画面の状態を示す。図1の第7状態において、端末装置100は、アイコン画像に替えて、音声認識の結果である「こう」を領域AR7に表示する。すなわち、端末装置100は、音声入力された文字列を、再度音声入力を受け付けることにより更新する。また、端末装置100は、ユーザU1による所定のタッチ操作(例えば、領域AR7のタップなど)等を受け付け、「こう」に対応する変換候補の漢字を領域AR2に表示する。ここで、端末装置100は、ユーザU1の指F10による領域AR2へのタッチ操作により領域AR7に表示された文字列の変換先の漢字を受け付け、図1の第8状態に画面を遷移させる。   Subsequently, a seventh state in FIG. 1 shows a state of a screen displaying a character string as a result of voice recognition for a voice input by the user U1. In the seventh state of FIG. 1, the terminal device 100 displays “KO”, which is the result of voice recognition, in the area AR7 instead of the icon image. That is, the terminal device 100 updates the character string input by voice by receiving the voice input again. Further, the terminal device 100 receives a predetermined touch operation (for example, a tap on the area AR7) or the like by the user U1, and displays a conversion candidate kanji corresponding to “ko” in the area AR2. Here, the terminal device 100 accepts a kanji as a conversion destination of the character string displayed in the area AR7 by a touch operation on the area AR2 by the finger F10 of the user U1, and shifts the screen to the eighth state in FIG.

続いて、図1の第8状態は、領域AR7に表示した文字列をユーザU1から受け付けた変換先の漢字に変換した画面の状態を示す。図1の第8状態において、端末装置100は、「こう」に替えて、「こう」を漢字に変換した「浩」を領域AR7に表示する。ここで、端末装置100は、ユーザU1の指F10が領域AR7に触れた状態から、領域AR7を領域AR4の方向へスライドさせるタッチ操作を受け付けることにより、領域AR4及び領域AR7に表示された情報を結合させた文字列「浩治」を画面に表示する。そして、端末装置100は、ユーザU1から文字列の出力操作(例えば、文字列が表示された領域以外の画面の領域のタッチ操作)を受け付けることにより、文字列「浩治」を音声入力アプリ以外の他のアプリケーションに出力する。   Subsequently, an eighth state in FIG. 1 shows a state of the screen in which the character string displayed in the area AR7 is converted into the conversion destination kanji received from the user U1. In the eighth state of FIG. 1, the terminal device 100 displays “Ko” in which “Ko” has been converted into Chinese characters in the area AR7 instead of “Ko”. Here, the terminal device 100 receives the information displayed in the area AR4 and the area AR7 by receiving a touch operation of sliding the area AR7 in the direction of the area AR4 from a state in which the finger F10 of the user U1 touches the area AR7. Display the combined character string "Koji" on the screen. Then, the terminal device 100 receives the character string output operation (for example, a touch operation on a screen area other than the area where the character string is displayed) from the user U1, and thereby converts the character string “Koji” to a character other than the voice input application. Output to other applications.

なお、上述の実施形態では、端末装置100は、タッチ操作として、タップや、ダブルタップ、スライド、ロングタップ等のユーザU1の操作を受け付けた場合に画面の表示処理を行う例を示した。しかし、端末装置100は、上述したタッチ操作以外の操作が行われた場合にも画面の表示処理を行ってもよい。例えば、端末装置100は、ピンチアウト、ピンチイン、フリック、スワイプ、ドラッグ、タッチアンドホールド、シェイク、ピーク(Peek)、ポップ(Pop)等のタッチ操作を受け付け、上述した画面の表示処理を行ってもよい。   In the above-described embodiment, an example has been described in which the terminal device 100 performs the screen display processing when the user U1 such as a tap, a double tap, a slide, and a long tap is received as a touch operation. However, the terminal device 100 may also perform screen display processing when an operation other than the above-described touch operation is performed. For example, the terminal device 100 may receive a touch operation such as a pinch out, a pinch in, a flick, a swipe, a drag, a touch and hold, a shake, a peak (Peek), and a pop (Pop), and perform the above-described screen display processing. Good.

以上のように、実施形態に係る端末装置100は、音声入力された文字列に対し、情報の分割処理及び結合処理、並びに、情報の更新処理を、画面に対するユーザのタッチ操作等に応じて行う。これにより、ユーザは、キーボード等を用いた操作を行わず、ユーザの感覚的な操作により音声入力を行うことができる。すなわち、実施形態に係る端末装置100は、音声入力におけるユーザビリティを向上させることができる。   As described above, the terminal device 100 according to the embodiment performs a process of dividing and combining information and a process of updating information with respect to a character string input by voice in response to a user's touch operation on a screen. . Thus, the user can perform voice input by a user's intuitive operation without performing an operation using a keyboard or the like. That is, the terminal device 100 according to the embodiment can improve usability in voice input.

〔2.端末装置の構成〕
次に、上述した表示処理を実現するための端末装置100について図2を用いて説明する。図2は、実施形態に係る端末装置の構成例を示す図である。図2に示すように、端末装置100は、通信部110と、入力部120と、出力部130と、物理センサ140と、制御部150とを有する。
[2. Configuration of terminal device)
Next, a terminal device 100 for implementing the above-described display processing will be described with reference to FIG. FIG. 2 is a diagram illustrating a configuration example of the terminal device according to the embodiment. As shown in FIG. 2, the terminal device 100 includes a communication unit 110, an input unit 120, an output unit 130, a physical sensor 140, and a control unit 150.

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、音声入力アプリや、その他のアプリケーションを配信するアプリケーション配信サーバ等との間で情報の送受信を行う。
(About the communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to the network N by wire or wirelessly, and transmits and receives information to and from an application distribution server that distributes a voice input application and other applications.

(入力部120及び出力部130について)
入力部120は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部120は、キーボードやマウスや操作キー等によって実現される。出力部130は、各種情報を表示するための表示装置である。つまり、出力部130は、端末装置100の表示画面に相当する。例えば、出力部130は、液晶ディスプレイ等によって実現される。なお、端末装置100にタッチパネルが採用される場合には、入力部120と出力部130とは一体化される。
(About the input unit 120 and the output unit 130)
The input unit 120 is an input device that receives various operations from a user. For example, the input unit 120 is realized by a keyboard, a mouse, operation keys, and the like. The output unit 130 is a display device for displaying various information. That is, the output unit 130 corresponds to a display screen of the terminal device 100. For example, the output unit 130 is realized by a liquid crystal display or the like. When a touch panel is used for the terminal device 100, the input unit 120 and the output unit 130 are integrated.

(物理センサ140について)
物理センサ140は、端末装置100の物理的な状態を検知するセンサである。例えば、物理センサ140は、端末装置100の画面に対するユーザのタッチ操作等における圧量を検知する圧力センサである。
(About the physical sensor 140)
The physical sensor 140 is a sensor that detects the physical state of the terminal device 100. For example, the physical sensor 140 is a pressure sensor that detects a pressure amount in a user's touch operation or the like on the screen of the terminal device 100.

(制御部150について)
制御部150は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。なお、制御部150は、上述した表示処理を実現する制御情報又はアプリケーションをアプリケーション配信サーバ等から配信された場合、かかる制御情報又はアプリケーションに従って動作し、表示処理を実現する。
(About the control unit 150)
The control unit 150 is a controller, and various programs stored in a storage device inside the terminal device 100 use a RAM as a work area by, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). It is realized by being executed. When the control information or the application for realizing the above-described display processing is distributed from an application distribution server or the like, the control unit 150 operates according to the control information or the application to realize the display processing.

また、制御部150は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。実施形態に係る制御部150は、図2に示すように、音声入力アプリケーション151や、第1アプリケーション152、第2アプリケーション153等を有する。音声入力アプリケーション151は、上述した表示処理の機能や作用を実現または実行し、ユーザの音声入力に対する音声認識の結果となる情報を、第1アプリケーション152や、第2アプリケーション153等の他のアプリケーションに出力する。以下、図3を用いて、音声入力アプリケーション151が有する機能構成の一例ついて説明する。図3は、実施形態に係る音声入力アプリケーションの構成例を示す図である。実施形態に係る音声入力アプリケーション151は、図3に示すように、認識部1511と、表示部1512と、受付部1513と、分割部1514と、更新部1515と、結合部1516と、出力部1517とを有し、以下に説明する情報処理の機能や作用を実現または実行する。   The control unit 150 is a controller, and is realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). As illustrated in FIG. 2, the control unit 150 according to the embodiment includes a voice input application 151, a first application 152, a second application 153, and the like. The voice input application 151 realizes or executes the functions and actions of the above-described display processing, and transmits information that is a result of voice recognition for a user's voice input to another application such as the first application 152 or the second application 153. Output. Hereinafter, an example of a functional configuration of the voice input application 151 will be described with reference to FIG. FIG. 3 is a diagram illustrating a configuration example of the voice input application according to the embodiment. As illustrated in FIG. 3, the voice input application 151 according to the embodiment includes a recognition unit 1511, a display unit 1512, a reception unit 1513, a division unit 1514, an update unit 1515, a combination unit 1516, and an output unit 1517. And implements or executes the functions and operations of the information processing described below.

(認識部1511について)
認識部1511は、後述する受付部1513によって受け付けられたユーザの音声入力に対し音声認識処理を実行する。例えば、図1の例において、認識部1511は、ユーザU1による音声入力に対して音声認識処理を実行し、音声を文字列に変換する。
(About the recognition unit 1511)
The recognizing unit 1511 performs a voice recognition process on a user's voice input received by a receiving unit 1513 described below. For example, in the example of FIG. 1, the recognition unit 1511 executes a voice recognition process for a voice input by the user U1, and converts the voice into a character string.

(表示部1512について)
表示部1512は、音声を介して入力された情報を表示する。例えば、表示部1512は、ユーザによる音声入力に対して認識部1511が実行した音声認識処理の結果となる情報を表示する。
(About the display unit 1512)
Display unit 1512 displays information input via voice. For example, the display unit 1512 displays information that is a result of a voice recognition process performed by the recognition unit 1511 in response to a voice input by a user.

また、表示部1512は、音声認識の結果となる文字列を表示してもよい。例えば、表示部1512は、音声を介して入力された文字列であって、漢字を含む文字列を表示する。例えば、図1の例において、表示部1512は、ユーザU1の音声入力に対し、文字列「賢治」を音声認識の結果として表示する。   The display unit 1512 may display a character string that is a result of the voice recognition. For example, the display unit 1512 displays a character string that is input via voice and includes a Chinese character. For example, in the example of FIG. 1, the display unit 1512 displays a character string “Kenji” as a result of voice recognition in response to a voice input of the user U1.

また、表示部1512は、音声を介して入力された複数の情報を表示してもよい。例えば、表示部1512は、音声認識の結果となる情報を分割した複数の情報を表示する。具体的には、表示部1512は、認識部1511が実行した音声認識処理の結果である文字列を分割した複数の情報を表示する。ここで、表示部1512は、文字列に含まれる各漢字を分割して表示してもよい。また、表示部1512は、文字列に含まれる漢字と、ひらがなとを分割して表示してもよい。   Further, the display unit 1512 may display a plurality of pieces of information input via voice. For example, the display unit 1512 displays a plurality of pieces of information obtained by dividing information that is a result of speech recognition. Specifically, the display unit 1512 displays a plurality of pieces of information obtained by dividing a character string as a result of the voice recognition processing performed by the recognition unit 1511. Here, display unit 1512 may divide and display each Chinese character included in the character string. The display unit 1512 may display the Chinese characters included in the character string and the hiragana separately.

(受付部1513について)
受付部1513は、表示部1512が表示した複数の情報のうちいずれかを選択する操作を受け付けた場合に音声を介して新たな情報の入力を受け付ける。また、受付部1513は、後述する分割部1514が情報を複数の情報に分割して表示した後、複数の情報のうちいずれかを選択する操作を受け付けた場合に音声を介して新たな情報の入力を受け付ける。例えば、図1の例において、受付部1513は、ユーザU1の指F10によって領域AR7へ所定のタッチ操作が行われた場合、音声入力を受け付け可能であることを示すアイコン画像を領域AR7に表示し、ユーザU1から音声を介して新たな情報の入力を受け付ける。
(About the reception unit 1513)
The receiving unit 1513 receives input of new information via voice when receiving an operation of selecting any one of the plurality of pieces of information displayed by the display unit 1512. In addition, after a dividing unit 1514, which will be described later, divides information into a plurality of pieces of information and displays the information, the receiving unit 1513 receives new information via voice when receiving an operation of selecting one of the plurality of pieces of information. Accept input. For example, in the example of FIG. 1, when a predetermined touch operation is performed on the area AR7 by the finger F10 of the user U1, the reception unit 1513 displays an icon image indicating that voice input can be received in the area AR7. , Accepts input of new information from the user U1 via voice.

また、受付部1513は、複数の情報を結合する操作を受け付けてもよい。例えば、図1の例において、受付部1513は、ユーザU1の指F10が領域AR7に触れた状態から、領域AR7を領域AR4の方向へスライドさせるタッチ操作を、領域AR4及び領域AR7を結合する操作として受け付ける。   In addition, the receiving unit 1513 may receive an operation of combining a plurality of pieces of information. For example, in the example of FIG. 1, the reception unit 1513 performs a touch operation of sliding the area AR7 toward the area AR4 from a state in which the finger F10 of the user U1 touches the area AR7, and an operation of combining the area AR4 and the area AR7. Accept as.

(分割部1514について)
分割部1514は、表示部1512により表示された情報のうち、編集点となる位置を選択する操作を受け付けた場合に当該編集点で情報を分割して表示する。例えば、図1の例において、分割部1514は、ユーザU1の指F10が領域AR1に表示された「賢」及び「治」の間の領域を編集点とするタッチ操作を受け付けることにより、領域AR1を「賢」を表示する領域AR3及び「治」を表示する領域AR4に分割して表示する。
(About the dividing unit 1514)
The division unit 1514 divides information at the editing point and displays the information when an operation of selecting a position to be an editing point is received from the information displayed on the display unit 1512. For example, in the example of FIG. 1, the dividing unit 1514 accepts a touch operation with the finger F10 of the user U1 as an edit point in an area between “Ken” and “Haru” displayed in the area AR1, and thereby performs the area AR1 Are divided and displayed in an area AR3 displaying “smart” and an area AR4 displaying “health”.

また、分割部1514は、表示部1512により表示された情報の選択を伴う所定の操作を受け付けた場合に情報を分割して表示してもよい。例えば、図1の例において、分割部1514は、ユーザU1の指F10が領域AR1に触れた状態から、所定のタッチ操作を受け付けることにより、領域AR1に表示された文字列を分割して表示する。   The division unit 1514 may divide and display information when a predetermined operation involving selection of information displayed on the display unit 1512 is received. For example, in the example of FIG. 1, the dividing unit 1514 divides and displays a character string displayed in the area AR1 by receiving a predetermined touch operation from a state in which the finger F10 of the user U1 touches the area AR1. .

また、分割部1514は、表示部1512により表示された情報のうち、所定の操作が行われた位置を編集点として情報を分割して表示する。例えば、図1の例において、分割部1514は、ユーザU1の指F10が領域AR1に触れた状態から、「賢」及び「治」の間をなぞる操作を受け付けることにより、「賢」及び「治」の間の領域を編集点として領域AR1に表示された文字列を分割して表示する。   In addition, the dividing unit 1514 divides and displays the information displayed on the display unit 1512 at a position where a predetermined operation is performed as an editing point. For example, in the example of FIG. 1, the division unit 1514 accepts an operation of tracing between “smart” and “healing” from a state in which the finger F10 of the user U1 touches the area AR1, thereby “smart” and “healing”. The character string displayed in the area AR1 is divided and displayed using the area between "" as an edit point.

また、分割部1514は、表示部1512により表示された情報のうち、情報の選択を伴う第1の操作が行われた位置を第1の編集点として情報を複数の情報に分割して表示した後、複数の情報のいずれかの選択を伴う第2の操作を受け付けた場合に、第2の操作が行われた位置を第2の編集点として選択された情報を分割して表示してもよい。例えば、図1の例において、分割部1514は、領域AR1に表示された「賢」及び「治」の間の領域を第1の編集点として、領域AR1に表示された文字列を領域AR3及び領域AR4に分割して表示する。そして、分割部1514は、領域AR3に対するユーザU1の第2の操作(タッチ操作)を受け付けることにより、領域AR3に表示された「賢」の読み仮名「け」及び「ん」の間の領域を第2の編集点として、領域AR3に表示された情報を領域AR5及び領域AR6に分割して表示する。   The dividing unit 1514 divides the information into a plurality of pieces of information displayed on the display unit 1512 by using the position where the first operation involving the selection of the information is performed as the first editing point. After that, when a second operation involving selection of any of a plurality of pieces of information is received, the position where the second operation was performed is displayed as a second editing point by dividing the selected information. Good. For example, in the example of FIG. 1, the dividing unit 1514 sets the area between “Ken” and “Haru” displayed in the area AR1 as the first editing point, and sets the character string displayed in the area AR1 to the area AR3 and the area AR3. The display is divided into areas AR4. Then, the division unit 1514 receives the second operation (touch operation) of the user U1 on the area AR3, and thereby, the area between the reading pseudonyms “Ken” and “N” of “Ken” displayed in the area AR3. As a second editing point, the information displayed in the area AR3 is divided into an area AR5 and an area AR6 and displayed.

また、分割部1514は、表示部1512が表示した文字列に含まれる漢字を複数のひらがなに変換し、各ひらがなを分割して表示してもよい。例えば、図1の例において、分割部1514は、ユーザU1の指F10が領域AR1に表示された「賢」及び「治」の間の領域を編集点とするタッチ操作を受け付け、領域AR1に表示された文字列を領域AR3及び領域AR4に分割すると共に、領域AR3に表示された情報を領域AR5及び領域AR6に分割して表示する。   In addition, the dividing unit 1514 may convert Chinese characters included in the character string displayed by the display unit 1512 into a plurality of hiragana, and may display each hiragana in a divided manner. For example, in the example of FIG. 1, the dividing unit 1514 receives a touch operation in which the finger F10 of the user U1 has an edit point in an area between “Ken” and “Haru” displayed in the area AR1 and displays the touch operation in the area AR1. The divided character string is divided into an area AR3 and an area AR4, and the information displayed in the area AR3 is divided and displayed in an area AR5 and an area AR6.

(更新部1515について)
更新部1515は、選択された情報を受付部1513が受け付けた新たな情報に更新する。例えば、図1の例において、更新部1515は、第6状態にて受付部1513が受け付けたユーザU1による音声入力に対する音声認識の結果となる文字列を領域AR7に表示し、領域AR7に表示される文字列を「けん」から「こう」に更新する。
(About the update unit 1515)
The updating unit 1515 updates the selected information with new information received by the receiving unit 1513. For example, in the example of FIG. 1, the updating unit 1515 displays, in the area AR7, a character string that is a result of voice recognition for the voice input by the user U1 received by the receiving unit 1513 in the sixth state, and is displayed in the area AR7. Is updated from "ken" to "ko".

(結合部1516について)
結合部1516は、受付部1513が複数の情報を結合する操作を受け付けた場合に複数の情報を結合して表示する。例えば、結合部1516は、表示部1512により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する。具体的には、表示部1512がユーザの音声を介して入力された文字列を複数の情報に分割して表示した場合(例えば、文字列に含まれる各漢字を分割して表示した場合や、文字列に含まれる漢字及びひらがなを分割して表示した場合など)、結合部1516は、ユーザから情報の選択を伴う所定の操作を受け付け、選択された情報を他の情報と結合して表示する。
(About the joint 1516)
The combining unit 1516 combines and displays a plurality of pieces of information when the receiving unit 1513 receives an operation of combining a plurality of pieces of information. For example, the combining unit 1516 combines the selected information with other information when a predetermined operation involving selection of any of the information displayed on the display unit 1512 is received, and displays the combined information. . Specifically, when the display unit 1512 divides and displays a character string input through a user's voice into a plurality of pieces of information (for example, when each kanji included in the character string is divided and displayed, In the case where a kanji and a hiragana included in a character string are divided and displayed, for example), the combining unit 1516 accepts a predetermined operation involving selection of information from the user and combines the selected information with other information and displays the combined information. .

また、結合部1516は、分割部1514が情報を複数の情報に分割して表示した後、複数の情報を結合する操作を受け付けた場合に複数の情報を結合して表示してもよい。例えば、図1の例において、結合部1516は、ユーザU1による領域AR7へのタッチ操作を受け付けることにより、領域AR4及び領域AR7に表示された情報を結合させた文字列「浩治」を画面に表示する。   Further, the combining unit 1516 may combine and display a plurality of pieces of information when the dividing unit 1514 divides the information into a plurality of pieces of information and displays the information. For example, in the example of FIG. 1, the combining unit 1516 displays a character string “Koji” on the screen in which information displayed in the area AR4 and the information displayed in the area AR7 are combined by accepting a touch operation on the area AR7 by the user U1. I do.

また、結合部1516は、複数の情報のうち選択された情報を他の情報が表示された方向へ移動させる操作を受け付けた場合に選択された情報を他の情報と結合して表示してもよい。例えば、結合部1516は、複数の情報のうち、選択に伴いスライド操作が行われた情報をスライド方向の情報と結合して表示する。例えば、図1の例において、結合部1516は、ユーザU1の指F10が領域AR7に触れた状態から、領域AR7を領域AR4の方向へスライドさせるタッチ操作を受け付けることにより、領域AR4及び領域AR7を結合させた文字列「浩治」を画面に表示する。   Also, the combining unit 1516 combines the selected information with the other information and displays the selected information when the operation of moving the selected information among the plurality of information in the direction in which the other information is displayed is received. Good. For example, the combining unit 1516 combines and displays the information on which the slide operation has been performed in accordance with the selection with the information on the sliding direction among the plurality of pieces of information. For example, in the example of FIG. 1, the coupling unit 1516 accepts a touch operation of sliding the area AR7 in the direction of the area AR4 from a state in which the finger F10 of the user U1 touches the area AR7, thereby changing the area AR4 and the area AR7. Display the combined character string "Koji" on the screen.

また、結合部1516は、複数の情報のうち、選択に伴いタップ操作が行われた情報を他の情報と結合して表示してもよい。例えば、結合部1516は、タップ操作が行われた情報を、当該情報の所定の方向に表示された情報と結合して表示する。   In addition, the combining unit 1516 may combine the information on which the tap operation has been performed in accordance with the selection with the other information and display the information. For example, the combining unit 1516 combines and displays the information on which the tap operation has been performed with the information displayed in a predetermined direction of the information.

また、結合部1516は、複数の情報を変更せずに結合して表示してもよい。例えば、図1の例において、結合部1516は、領域AR7に表示された情報を、漢字に変換された状態のまま領域AR4に表示された情報と結合して表示する。   Also, the combining unit 1516 may combine and display a plurality of pieces of information without changing them. For example, in the example of FIG. 1, the combining unit 1516 combines and displays the information displayed in the area AR7 with the information displayed in the area AR4 while being converted into a kanji.

(出力部1517について)
出力部1517は、ユーザの音声入力に対する音声認識の結果となる情報を、第1アプリケーション152や、第2アプリケーション153等の他のアプリケーションに出力する。例えば、図1の例において、出力部1517は、ユーザU1から文字列の出力操作を受け付けた時点で画面に表示されている文字列「浩治」を、他のアプリケーションに出力する。
(About the output unit 1517)
The output unit 1517 outputs information that is a result of voice recognition for a user's voice input to another application such as the first application 152 and the second application 153. For example, in the example of FIG. 1, the output unit 1517 outputs the character string “Koji” displayed on the screen to another application when the character string output operation is received from the user U1.

〔3.表示処理のフロー〕
ここで、図4を用いて、実施形態に係る音声入力アプリの表示処理の手順について説明する。図4は、実施形態に係る表示処理手順の一例を示すフローチャートである。
[3. Display processing flow)
Here, the procedure of the display process of the voice input application according to the embodiment will be described with reference to FIG. FIG. 4 is a flowchart illustrating an example of a display processing procedure according to the embodiment.

図4に示すように、端末装置100は、ユーザから音声入力を受け付ける(ステップS101)。続いて、端末装置100は、音声入力に対する音声認識の結果を表示する(ステップS102)。本説明において、端末装置100は、音声認識の結果となる文字列を表示する。続いて、ユーザから音声認識した文字列に対する分割操作を受け付けた場合(ステップS103;Yes)、端末装置100は、音声認識した文字列を分割して表示する(ステップS104)。例えば、端末装置100は、ユーザのタッチ操作等により選択された編集点で文字列を分割して表示する。一方、文字列に対する分割操作を受け付けなかった場合(ステップS103;No)、端末装置100は、文字列をそのまま表示する。   As shown in FIG. 4, the terminal device 100 receives a voice input from a user (Step S101). Subsequently, the terminal device 100 displays a result of the voice recognition for the voice input (Step S102). In the present description, the terminal device 100 displays a character string as a result of voice recognition. Subsequently, when a division operation on the character string recognized by the user is received (step S103; Yes), the terminal device 100 divides and displays the character string recognized by speech (step S104). For example, the terminal device 100 divides and displays a character string at an editing point selected by a user's touch operation or the like. On the other hand, when the division operation on the character string is not received (Step S103; No), the terminal device 100 displays the character string as it is.

続いて、画面に表示した文字列を構成するいずれかの情報が選択された場合(ステップS105;Yes)、端末装置100は、ユーザから新たな音声入力を受け付け、選択された情報を更新する(ステップS106)。例えば、図1の例において、端末装置100は、領域AR1に表示した文字列を領域AR4及び領域AR7に分割して表示している状態において領域AR7が選択され音声入力を受け付け可能であることを示すアイコン画像を領域AR7に表示する。そして、端末装置100は、新たに音声入力に対する音声認識の結果となる文字列を領域AR7に表示する。一方、文字列を構成する情報が選択されなかった場合(ステップS105;No)、端末装置100は、文字列をそのまま表示する。   Subsequently, when any information constituting the character string displayed on the screen is selected (Step S105; Yes), the terminal device 100 receives a new voice input from the user and updates the selected information ( Step S106). For example, in the example of FIG. 1, the terminal device 100 determines that the area AR7 is selected and the voice input can be accepted in a state where the character string displayed in the area AR1 is divided into the area AR4 and the area AR7 and displayed. The icon image to be displayed is displayed in the area AR7. Then, the terminal device 100 newly displays a character string as a result of the voice recognition for the voice input in the area AR7. On the other hand, when the information forming the character string is not selected (Step S105; No), the terminal device 100 displays the character string as it is.

続いて、画面に表示した文字列を構成する情報の結合操作が行われた場合(ステップS107;Yes)、端末装置100は、操作対象となる情報を結合して表示する(ステップS108)。例えば、図1の例において、端末装置100は、ユーザU1の指F10が領域AR7に触れた状態から、領域AR7を領域AR4の方向へスライドさせるタッチ操作を受け付けることにより、領域AR4及び領域AR7に表示された情報を結合させた文字列を画面に表示する。一方、文字列を構成する情報の結合操作が行われなかった場合(ステップS107;No)、端末装置100は、文字列をそのまま表示する。   Subsequently, when a combining operation of the information constituting the character string displayed on the screen is performed (Step S107; Yes), the terminal device 100 combines and displays the information to be operated (Step S108). For example, in the example of FIG. 1, the terminal device 100 accepts a touch operation of sliding the area AR7 in the direction of the area AR4 from a state in which the finger F10 of the user U1 touches the area AR7, and A character string combining the displayed information is displayed on the screen. On the other hand, when the operation of combining the information constituting the character string is not performed (Step S107; No), the terminal device 100 displays the character string as it is.

続いて、画面に表示した文字列の出力操作が行われた場合(ステップS109;Yes)、端末装置100は、文字列を他のアプリケーションに出力し(ステップS110)、処理を終了する。一方、文字列の出力操作が行われなかった場合(ステップS109;No)、端末装置100は、文字列をそのまま表示し、再び分割操作、情報の更新、並びに、結合操作を受け付ける。   Subsequently, when the output operation of the character string displayed on the screen is performed (Step S109; Yes), the terminal device 100 outputs the character string to another application (Step S110), and ends the processing. On the other hand, when the output operation of the character string has not been performed (step S109; No), the terminal device 100 displays the character string as it is, and accepts the division operation, the information update, and the combining operation again.

〔4.変形例〕
上述の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
[4. Modification)
The above-described embodiment is an example, and various modifications and applications are possible.

〔4−1.文字列について〕
上述の実施形態において、端末装置100が日本語で構成される文字列の表示処理を行う例を示したが、端末装置100は上述した例に限られず、各種自然言語において用いられる文字により構成される文字列の表示処理を行ってもよい。例えば、端末装置100は、英語の音声入力を受け付ける場合、ユーザによる「ライト」という音声入力に対し、「right」や、「light」などのアルファベットで構成される文字列であって、発音が類似する文字列を音声認識の結果や変換候補として表示する。また、端末装置100は、英語を音声認識の結果として表示する場合、英語の各品詞の語形変化を変換候補として表示してもよい。例えば、端末装置100は、音声認識の結果として「go」を表示する場合、変換候補として「goes」、「went」、「gone」などを表示してもよい。また、端末装置100は、英語を音声認識の結果として複合語を表示する場合、複合語を構成要素の品詞に分割可能としてもよい。例えば、端末装置100は、音声認識の結果として「policeman」を表示した場合、ユーザの分割操作を受け付け、「police」及び「man」と分割して表示(例えば、「police」及び「man」の間に空白領域を設けて表示)してもよい。
[4-1. About character strings)
In the above-described embodiment, the example in which the terminal device 100 performs the display processing of the character string configured in Japanese has been described. However, the terminal device 100 is not limited to the above-described example, and is configured by characters used in various natural languages. A character string display process may be performed. For example, when accepting an English voice input, the terminal device 100 is a character string composed of alphabets such as “right” and “light” in response to a voice input of “light” by the user, and has a similar pronunciation. Is displayed as a result of voice recognition or a conversion candidate. When displaying the English as a result of the speech recognition, the terminal device 100 may display the inflection of each part of speech in English as a conversion candidate. For example, when displaying “go” as a result of speech recognition, the terminal device 100 may display “goes”, “went”, “gone”, and the like as conversion candidates. Further, when displaying a compound word as a result of voice recognition of English, the terminal device 100 may be capable of dividing the compound word into parts of speech of constituent elements. For example, when the terminal device 100 displays “policeman” as a result of the voice recognition, the terminal device 100 accepts a user's division operation and displays the division as “police” and “man” (for example, “police” and “man” are displayed). (A blank area may be provided between them for display).

また、端末装置100は、種々のアプリケーションにおけるテキスト等の入力欄に入力可能であれば、記号(例えば、丸、バツ印、三角、四角、矢印、ハイフン、絵文字など)や数字を含む文字列の表示処理を行ってもよい。   In addition, the terminal device 100 can display a character string including a symbol (for example, a circle, a cross, a triangle, a square, an arrow, a hyphen, a pictogram, etc.) or a number, if it can be input into an input field such as a text in various applications. Display processing may be performed.

〔4−2.新たな情報の挿入について〕
受付部1513は、音声を介して入力された情報に挿入される新たな情報を受け付けてもよい。例えば、図1の第5状態において、受付部1513は、領域AR7の左側、領域AR4及び領域AR7の間、並びに、領域AR4の右側のいずれかに所定範囲の空白領域を生じさせるタッチ操作を受け付けた場合、当該空白領域に音声入力を受け付け可能であることを示すアイコン画像を表示し、ユーザU1から空白領域に挿入される情報の音声入力を受け付ける。そして、更新部1515は、受付部1513が受け付けた新たな情報を空白領域に挿入し、端末装置100に表示された文字列を更新する。
[4-2. Insertion of new information)
The receiving unit 1513 may receive new information to be inserted into information input via voice. For example, in the fifth state of FIG. 1, the receiving unit 1513 receives a touch operation that causes a predetermined range of a blank area on the left side of the area AR7, between the area AR4 and the area AR7, and on the right side of the area AR4. In this case, an icon image indicating that voice input can be received is displayed in the blank area, and voice input of information to be inserted into the blank area is received from the user U1. Then, the updating unit 1515 inserts the new information received by the receiving unit 1513 into the blank area, and updates the character string displayed on the terminal device 100.

〔5.効果〕
上述してきたように、実施形態に係る端末装置100が有する音声入力アプリケーション151は、認識部1511と、表示部1512と、受付部1513と、分割部1514と、更新部1515と、結合部1516と、出力部1517とを有する。認識部1511は、ユーザの音声入力に対し音声認識処理を実行する。表示部1512は、音声を介して入力された情報を表示する。受付部1513は、分割部1514が情報を複数の情報に分割して表示した後、複数の情報のうちいずれかを選択する操作を受け付けた場合に音声を介して新たな情報の入力を受け付ける。分割部1514は、表示部1512により表示された情報のうち、編集点となる位置を選択する操作を受け付けた場合に当該編集点で情報を分割して表示する。更新部1515は、選択された情報を受付部1513が受け付けた新たな情報に更新する。結合部1516は、分割部1514が情報を複数の情報に分割して表示した後、複数の情報を結合する操作を受け付けた場合に複数の情報を結合して表示する。出力部1517は、ユーザの音声入力に対する音声認識の結果となる情報を、他のアプリケーションに出力する。
[5. effect〕
As described above, the voice input application 151 of the terminal device 100 according to the embodiment includes the recognition unit 1511, the display unit 1512, the reception unit 1513, the division unit 1514, the update unit 1515, and the connection unit 1516. , And an output unit 1517. The recognizing unit 1511 performs a voice recognition process on a user's voice input. Display unit 1512 displays information input via voice. The accepting unit 1513 accepts an input of new information via voice when the dividing unit 1514 divides the information into a plurality of pieces of information and displays the information, and then receives an operation of selecting one of the plurality of pieces of information. The division unit 1514 divides information at the editing point and displays the information when an operation of selecting a position to be an editing point is received from the information displayed on the display unit 1512. The updating unit 1515 updates the selected information with new information received by the receiving unit 1513. The combining unit 1516 combines and displays a plurality of pieces of information when the dividing unit 1514 divides the information into a plurality of pieces of information and displays the information. The output unit 1517 outputs information that is a result of voice recognition for a user's voice input to another application.

これにより、実施形態に係る端末装置100は、ユーザの感覚的な操作により音声入力を行うことができるため、音声入力に関するユーザビリティを向上させることができる。   Accordingly, the terminal device 100 according to the embodiment can perform voice input by a user's intuitive operation, and thus can improve usability related to voice input.

また、実施形態に係る端末装置100において、例えば、表示部1512は、音声を介して入力された複数の情報を表示する。そして、受付部1513は、表示部1512が表示した複数の情報のうちいずれかを選択する操作を受け付けた場合に音声を介して新たな情報の入力を受け付ける。そして、更新部1515は、選択された情報を受付部1513が受け付けた新たな情報に更新する。   In the terminal device 100 according to the embodiment, for example, the display unit 1512 displays a plurality of pieces of information input via voice. Then, the receiving unit 1513 receives an input of new information via voice when receiving an operation of selecting any one of the plurality of pieces of information displayed by the display unit 1512. Then, the updating unit 1515 updates the selected information with new information received by the receiving unit 1513.

これにより、実施形態に係る端末装置100は、表示された複数の情報からいずれかの情報を選択し、新たな情報に更新できるため、文字列の音声入力に関するユーザビリティを向上させることができる。   As a result, the terminal device 100 according to the embodiment can select any one of the displayed information and update the information with new information, and thus can improve the usability related to the voice input of the character string.

また、実施形態に係る端末装置100において、例えば、表示部1512は、音声を介して入力された複数の情報を表示する。そして、結合部1516は、表示部1512により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する。   In the terminal device 100 according to the embodiment, for example, the display unit 1512 displays a plurality of pieces of information input via voice. Then, the combining unit 1516 combines the selected information with other information when a predetermined operation involving selection of any of the plurality of information displayed by the display unit 1512 is received, and displays the combined information. .

これにより、実施形態に係る端末装置100は、表示された複数の情報から結合させる情報を選択できるため、文字列の音声入力に関するユーザビリティを向上させることができる。   Accordingly, the terminal device 100 according to the embodiment can select information to be combined from the plurality of pieces of displayed information, and thus can improve the usability regarding voice input of a character string.

また、実施形態に係る端末装置100において、例えば、表示部1512は、音声認識の結果となる情報を分割した複数の情報を表示する。   Further, in the terminal device 100 according to the embodiment, for example, the display unit 1512 displays a plurality of pieces of information obtained by dividing information that is a result of voice recognition.

これにより、実施形態に係る端末装置100は、分割された情報に対し操作を行うことができるため、文字列の音声入力に関するユーザビリティを向上させることができる。   Thereby, the terminal device 100 according to the embodiment can perform an operation on the divided information, so that usability for voice input of a character string can be improved.

また、実施形態に係る端末装置100において、例えば、表示部1512は、音声認識の結果となる文字列を表示する。   In the terminal device 100 according to the embodiment, for example, the display unit 1512 displays a character string as a result of voice recognition.

これにより、実施形態に係る端末装置100は、音声認識の結果として文字列を表示することにより、文字列の音声入力に関するユーザビリティを向上させることができる。   Thus, the terminal device 100 according to the embodiment can display the character string as a result of the voice recognition, thereby improving the usability related to the voice input of the character string.

また、実施形態に係る端末装置100において、例えば、分割部1514は、表示部1512により表示された情報の選択を伴う所定の操作を受け付けた場合に情報を分割して表示する。   In the terminal device 100 according to the embodiment, for example, the division unit 1514 divides and displays information when a predetermined operation involving selection of information displayed on the display unit 1512 is received.

これにより、実施形態に係る端末装置100は、ユーザの操作に応じて表示された情報を分割できるため、音声入力に関するユーザビリティを向上させることができる。   Accordingly, the terminal device 100 according to the embodiment can divide the displayed information according to the operation of the user, and thus can improve the usability related to the voice input.

また、実施形態に係る端末装置100において、例えば、分割部1514は、表示部1512により表示された情報のうち、所定の操作が行われた位置を編集点として情報を分割して表示する。   Further, in the terminal device 100 according to the embodiment, for example, the dividing unit 1514 divides the information displayed on the display unit 1512 at a position where a predetermined operation is performed as an editing point and displays the information.

これにより、実施形態に係る端末装置100は、ユーザの操作が行われた位置を編集点として分割し、分割した情報に種々の操作を行うことができるため、音声入力に関するユーザビリティを向上させることができる。   Thereby, the terminal device 100 according to the embodiment can divide the position where the user's operation is performed as an edit point and perform various operations on the divided information, thereby improving usability related to voice input. it can.

また、実施形態に係る端末装置100において、例えば、分割部1514は、表示部1512により表示された情報のうち、情報の選択を伴う第1の操作が行われた位置を第1の編集点として情報を複数の情報に分割して表示した後、複数の情報のいずれかの選択を伴う第2の操作を受け付けた場合に、当該第2の操作が行われた位置を第2の編集点として選択された情報を分割して表示する。   Further, in the terminal device 100 according to the embodiment, for example, the division unit 1514 sets, as the first edit point, the position where the first operation involving the selection of the information is performed among the information displayed by the display unit 1512. After the information is divided into a plurality of pieces of information and displayed, and a second operation involving selection of one of the plurality of pieces of information is received, a position where the second operation is performed is set as a second editing point. Divide and display the selected information.

これにより、実施形態に係る端末装置100は、分割した情報をさらに分割し、種々の操作を行うことができるため、音声入力に関するユーザビリティを向上させることができる。   Accordingly, the terminal device 100 according to the embodiment can further divide the divided information and perform various operations, so that usability for voice input can be improved.

また、実施形態に係る端末装置100において、例えば、表示部1512は、音声を介して入力された文字列であって、漢字を含む文字列を表示する。そして、分割部1514は、表示部1512が表示した文字列に含まれる漢字を複数のひらがなに変換し、各ひらがなを分割して表示する。   Further, in the terminal device 100 according to the embodiment, for example, the display unit 1512 displays a character string that is input via voice and includes a kanji. Then, the dividing unit 1514 converts the kanji included in the character string displayed by the display unit 1512 into a plurality of hiragana, and divides and displays each hiragana.

これにより、実施形態に係る端末装置100は、漢字を含む文字列に対する変換操作を容易に行うことができるため、音声入力に関するユーザビリティを向上させることができる。   Accordingly, the terminal device 100 according to the embodiment can easily perform the conversion operation on the character string including the kanji, and thus can improve the usability regarding the voice input.

また、実施形態に係る端末装置100において、例えば、受付部1513は、複数の情報を結合する操作を受け付ける。そして、結合部1516は、受付部1513が複数の情報を結合する操作を受け付けた場合に複数の情報を結合して表示する。   In the terminal device 100 according to the embodiment, for example, the receiving unit 1513 receives an operation of combining a plurality of pieces of information. Then, the combining unit 1516 combines and displays a plurality of pieces of information when the receiving unit 1513 receives an operation of combining a plurality of pieces of information.

これにより、実施形態に係る端末装置100は、表示された情報を結合することができるため、音声入力に関するユーザビリティを向上させることができる。   Accordingly, the terminal device 100 according to the embodiment can combine the displayed information, and thus can improve the usability related to the voice input.

また、実施形態に係る端末装置100において、例えば、結合部1516は、複数の情報のうち選択された情報を他の情報が表示された方向へ移動させる操作を受け付けた場合に選択された情報を他の情報と結合して表示する。   Further, in the terminal device 100 according to the embodiment, for example, the combining unit 1516 converts the information selected when the operation of moving the selected information among the plurality of information in the direction in which the other information is displayed is received. Display in combination with other information.

これにより、実施形態に係る端末装置100は、感覚的な操作により表示された情報を結合できるため、音声入力に関するユーザビリティを向上させることができる。   Accordingly, the terminal device 100 according to the embodiment can combine the information displayed by the intuitive operation, so that usability related to voice input can be improved.

また、実施形態に係る端末装置100において、例えば、結合部1516は、選択に伴いタップ操作が行われた情報を他の情報と結合して表示する。   In addition, in the terminal device 100 according to the embodiment, for example, the combining unit 1516 combines and displays information on which a tap operation has been performed along with selection with other information.

これにより、実施形態に係る端末装置100は、感覚的な操作により表示された情報を結合できるため、音声入力に関するユーザビリティを向上させることができる。   Accordingly, the terminal device 100 according to the embodiment can combine the information displayed by the intuitive operation, so that usability related to voice input can be improved.

また、実施形態に係る端末装置100において、例えば、結合部1516は、複数の情報のうち、選択に伴いスライド操作が行われた情報をスライド方向の情報と結合して表示する。   In addition, in the terminal device 100 according to the embodiment, for example, the combining unit 1516 combines and displays the information on which the slide operation has been performed in accordance with the selection from the plurality of pieces of information with the information on the slide direction.

これにより、実施形態に係る端末装置100は、感覚的な操作により表示された情報を結合できるため、音声入力に関するユーザビリティを向上させることができる。   Accordingly, the terminal device 100 according to the embodiment can combine the information displayed by the intuitive operation, so that usability related to voice input can be improved.

また、実施形態に係る端末装置100において、例えば、結合部1516は、複数の情報を変更せずに結合して表示する。   In the terminal device 100 according to the embodiment, for example, the combining unit 1516 combines and displays a plurality of pieces of information without changing.

これにより、実施形態に係る端末装置100は、ユーザによって操作が行われた情報を変更せずに結合できるため、音声入力に関するユーザビリティを向上させることができる。   Accordingly, the terminal device 100 according to the embodiment can combine information operated by the user without changing the information, thereby improving usability related to voice input.

〔6.ハードウェア構成〕
また、上述してきた各実施形態に係る端末装置は、例えば図5に示すような構成のコンピュータ1000によって実現される。以下、端末装置100を例に挙げて説明する。図5は、端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration)
Further, the terminal device according to each embodiment described above is realized by, for example, a computer 1000 having a configuration as shown in FIG. Hereinafter, the terminal device 100 will be described as an example. FIG. 5 is a hardware configuration diagram illustrating an example of a computer that realizes the functions of the terminal device. The computer 1000 has a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400, and controls each unit. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 starts up, a program that depends on hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(実施形態のネットワークNに対応する)を介して他の機器からデータを受信してCPU1100へ送り、また、通信網500を介してCPU1100が生成したデータを他の機器へ送信する。   The HDD 1400 stores a program executed by the CPU 1100, data used by the program, and the like. The communication interface 1500 receives data from another device via the communication network 500 (corresponding to the network N of the embodiment) and sends the data to the CPU 1100, and also transmits data generated by the CPU 1100 via the communication network 500 to another device. Send to device.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。   The CPU 1100 controls output devices such as a display and a printer and input devices such as a keyboard and a mouse via the input / output interface 1600. The CPU 1100 obtains data from an input device via the input / output interface 1600. Further, CPU 1100 outputs data generated through input / output interface 1600 to an output device.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc), a PD (Phase Change Rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.

例えば、コンピュータ1000が端末装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部150の機能を実現する。また、HDD1400には、端末装置100の記憶装置内の各データが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the terminal device 100, the CPU 1100 of the computer 1000 realizes the function of the control unit 150 by executing a program loaded on the RAM 1200. Further, the HDD 1400 stores various data in the storage device of the terminal device 100. Although the CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, as another example, these programs may be obtained from another device via a predetermined communication network.

〔7.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
[7. Others)
As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are exemplifications, and various modifications based on the knowledge of those skilled in the art, including the aspects described in the section of the disclosure of the invention, The invention can be implemented in other modified forms.

また、上述した端末装置100は、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。   The configuration of the terminal device 100 described above can be flexibly changed, for example, by realizing an external platform or the like by calling it with an API (Application Programming Interface) or network computing depending on the function.

また、特許請求の範囲に記載した「部」は、「手段」や「回路」などに読み替えることができる。例えば、認識部は、認識手段や認識回路に読み替えることができる。   Further, “parts” described in the claims can be read as “means” or “circuit”. For example, the recognition unit can be replaced with a recognition unit or a recognition circuit.

100 端末装置
110 通信部
120 入力部
130 出力部
140 物理センサ
150 制御部
1511 認識部
1512 表示部
1513 受付部
1514 分割部
1515 更新部
1516 結合部
1517 出力部
152 第1アプリケーション
153 第2アプリケーション
Reference Signs List 100 terminal device 110 communication unit 120 input unit 130 output unit 140 physical sensor 150 control unit 1511 recognition unit 1512 display unit 1513 reception unit 1514 division unit 1515 update unit 1516 coupling unit 1517 output unit 152 first application 153 second application

Claims (9)

音声を介して入力された複数の情報を表示する表示手順と、
前記表示手順により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する結合手順と
をコンピュータに実行させることを特徴とする結合プログラム。
A display procedure for displaying a plurality of pieces of information input via voice,
And performing a combining step of combining the selected information with other information and displaying the selected information when a predetermined operation involving selection of any of the plurality of pieces of information displayed by the display procedure is received. A combining program characterized by causing
前記結合手順は、
前記複数の情報のうち選択された情報を他の情報が表示された方向へ移動させる操作を受け付けた場合に選択された情報を他の情報と結合して表示する
ことを特徴とする請求項1に記載の結合プログラム。
The combining procedure comprises:
The information selected from the plurality of pieces of information is displayed in combination with another piece of information when an operation of moving the selected piece of information in the direction in which the other piece of information is displayed is received. The binding program according to 1.
前記結合手順は、
前記複数の情報のうち、選択に伴いタップ操作が行われた情報を他の情報と結合して表示する
ことを特徴とする請求項1又は2に記載の結合プログラム。
The combining procedure comprises:
The combination program according to claim 1, wherein, among the plurality of pieces of information, information on which a tap operation has been performed according to selection is combined with other information and displayed.
前記結合手順は、
前記複数の情報のうち、選択に伴いスライド操作が行われた情報をスライド方向の情報と結合して表示する
ことを特徴とする請求項1又は2に記載の結合プログラム。
The combining procedure comprises:
The combination program according to claim 1, wherein, among the plurality of pieces of information, information on which a slide operation is performed according to selection is combined with information on a slide direction and displayed.
前記表示手順は、
音声認識の結果となる文字列を表示する
ことを特徴とする請求項1から4のいずれか一つに記載の結合プログラム。
The display procedure includes:
The combination program according to any one of claims 1 to 4, wherein a character string resulting from speech recognition is displayed.
前記表示手順は、
音声認識の結果となる情報を分割した複数の情報を表示する
ことを特徴とする請求項1から5のいずれか一つに記載の結合プログラム。
The display procedure includes:
The combined program according to any one of claims 1 to 5, wherein a plurality of pieces of information obtained by dividing information resulting from speech recognition are displayed.
前記結合手順は、
前記複数の情報を変更せずに結合して表示する
ことを特徴とする請求項1から6のいずれか一つに記載の結合プログラム。
The combining procedure comprises:
The combination program according to any one of claims 1 to 6, wherein the plurality of pieces of information are combined and displayed without being changed.
音声を介して入力された複数の情報を表示する表示部と、
前記表示部により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する結合部と
を備えることを特徴とする結合装置。
A display unit for displaying a plurality of pieces of information input via voice;
A coupling unit that, when a predetermined operation involving selection of any one of the plurality of information displayed by the display unit is received, combines the selected information with other information and displays the combined information. Characteristic coupling device.
コンピュータが実行する結合方法であって、
音声を介して入力された複数の情報を表示する表示工程と、
前記表示工程により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する結合工程と
を含むことを特徴とする結合方法。
A combining method performed by a computer,
A display step of displaying a plurality of pieces of information input via voice;
A combining step of combining the selected information with other information and displaying the selected information when a predetermined operation involving selection of any of the plurality of pieces of information displayed in the display step is received. Characteristic joining method.
JP2018155849A 2018-08-22 2018-08-22 Joining program, joining device, and joining method Active JP6601827B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018155849A JP6601827B1 (en) 2018-08-22 2018-08-22 Joining program, joining device, and joining method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018155849A JP6601827B1 (en) 2018-08-22 2018-08-22 Joining program, joining device, and joining method

Publications (2)

Publication Number Publication Date
JP6601827B1 JP6601827B1 (en) 2019-11-06
JP2020030324A true JP2020030324A (en) 2020-02-27

Family

ID=68462332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018155849A Active JP6601827B1 (en) 2018-08-22 2018-08-22 Joining program, joining device, and joining method

Country Status (1)

Country Link
JP (1) JP6601827B1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60251460A (en) * 1984-05-29 1985-12-12 Ricoh Co Ltd Character string processor
JPS62180462A (en) * 1986-02-04 1987-08-07 Ricoh Co Ltd Voice input kana-kanji converter
JP2006146008A (en) * 2004-11-22 2006-06-08 National Institute Of Advanced Industrial & Technology Speech recognition device and method, and program
JP2008090625A (en) * 2006-10-02 2008-04-17 Sharp Corp Character input device, character input method, control program, and recording medium
JP2009098490A (en) * 2007-10-18 2009-05-07 Kddi Corp Device for editing speech recognition result, speech recognition device and computer program
WO2011064829A1 (en) * 2009-11-30 2011-06-03 株式会社 東芝 Information processing device
JP2014048506A (en) * 2012-08-31 2014-03-17 National Institute Of Information & Communication Technology Word registering apparatus, and computer program for the same
JP2014202832A (en) * 2013-04-02 2014-10-27 株式会社東芝 Editing device, method, and program
JP2016130837A (en) * 2015-01-08 2016-07-21 パナソニックIpマネジメント株式会社 Information controller and information control program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60251460A (en) * 1984-05-29 1985-12-12 Ricoh Co Ltd Character string processor
JPS62180462A (en) * 1986-02-04 1987-08-07 Ricoh Co Ltd Voice input kana-kanji converter
JP2006146008A (en) * 2004-11-22 2006-06-08 National Institute Of Advanced Industrial & Technology Speech recognition device and method, and program
JP2008090625A (en) * 2006-10-02 2008-04-17 Sharp Corp Character input device, character input method, control program, and recording medium
JP2009098490A (en) * 2007-10-18 2009-05-07 Kddi Corp Device for editing speech recognition result, speech recognition device and computer program
WO2011064829A1 (en) * 2009-11-30 2011-06-03 株式会社 東芝 Information processing device
JP2014048506A (en) * 2012-08-31 2014-03-17 National Institute Of Information & Communication Technology Word registering apparatus, and computer program for the same
JP2014202832A (en) * 2013-04-02 2014-10-27 株式会社東芝 Editing device, method, and program
JP2016130837A (en) * 2015-01-08 2016-07-21 パナソニックIpマネジメント株式会社 Information controller and information control program

Also Published As

Publication number Publication date
JP6601827B1 (en) 2019-11-06

Similar Documents

Publication Publication Date Title
JP7174734B2 (en) Systems, devices, and methods for dynamically providing user interface controls on touch-sensitive secondary displays
KR101541147B1 (en) Dynamic virtual input device configuration
JP6317735B2 (en) Using the ribbon to access the application user interface
US8949743B2 (en) Language input interface on a device
US20140149878A1 (en) Method and apparatus for rapid access to a contact in a contact list
CN109074375B (en) Content selection in web documents
TW200849038A (en) Shared language model
JP2005346709A (en) Input of asian language using keyboard
KR20160009054A (en) Multiple graphical keyboards for continuous gesture input
US20130050098A1 (en) User input of diacritical characters
TWI475405B (en) Electronic device and text-input interface displaying method thereof
CN108509138B (en) Taskbar button display method and terminal thereof
US10452748B2 (en) Deconstructing and rendering of web page into native application experience
JP2012098891A (en) Information processing system and information processing method
WO2016119549A1 (en) Input-based candidate text loading method and apparatus
JP6601827B1 (en) Joining program, joining device, and joining method
JP6601826B1 (en) Dividing program, dividing apparatus, and dividing method
JP2023063313A (en) Method and computer program for generating menu model of character user interface
JP2018072508A (en) Voice input device and voice input method
US20220397993A1 (en) Selecting a desired item from a set of items
JP2018128732A (en) Editing apparatus, editing method and program
KR102190956B1 (en) Method, user terminal and computer program for providing chinese character continuous conversion
KR102250609B1 (en) Method, user terminal and computer program for providing chinese character list priority setting function
KR102431329B1 (en) Method for providing korean keyboard selectable integrated virtual keyboard
US10481791B2 (en) Magnified input panels

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181018

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181018

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191001

R150 Certificate of patent or registration of utility model

Ref document number: 6601827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350