JP6601827B1 - 結合プログラム、結合装置、及び結合方法 - Google Patents

結合プログラム、結合装置、及び結合方法 Download PDF

Info

Publication number
JP6601827B1
JP6601827B1 JP2018155849A JP2018155849A JP6601827B1 JP 6601827 B1 JP6601827 B1 JP 6601827B1 JP 2018155849 A JP2018155849 A JP 2018155849A JP 2018155849 A JP2018155849 A JP 2018155849A JP 6601827 B1 JP6601827 B1 JP 6601827B1
Authority
JP
Japan
Prior art keywords
information
displayed
terminal device
character string
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018155849A
Other languages
English (en)
Other versions
JP2020030324A (ja
Inventor
鈴木 健司
健司 鈴木
Original Assignee
Zホールディングス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zホールディングス株式会社 filed Critical Zホールディングス株式会社
Priority to JP2018155849A priority Critical patent/JP6601827B1/ja
Application granted granted Critical
Publication of JP6601827B1 publication Critical patent/JP6601827B1/ja
Publication of JP2020030324A publication Critical patent/JP2020030324A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Document Processing Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】音声入力に関するユーザビリティを向上させる。【解決手段】本願に係る結合プログラムは、音声を介して入力された複数の情報(例えば、ユーザの音声入力に対し音声認識の結果となる文字列など)を表示する表示手順と、表示手順により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作(例えば、タップ操作や、スライド操作など)を受け付けた場合に選択された情報を他の情報と結合して表示する結合手順とをコンピュータに実行させることを特徴とする。【選択図】図1

Description

本発明は、結合プログラム、結合装置、及び結合方法に関する。
従来、入力した音声情報を編集する技術が知られている。例えば、音声入力を受付けた場合に音声を音声データに変換し、変換した音声データの変換候補漢字を表示する技術が開示されている。
特開2001−285413号公報
しかしながら、上記の従来技術では、ユーザビリティが良いとは言えない場合がある。
本願は、上記に鑑みてなされたものであって、音声入力に関するユーザビリティを向上させることを目的とする。
本願に係る結合プログラムは、音声を介して入力された複数の情報を表示する表示手順と、前記表示手順により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する結合手順とをコンピュータに実行させることを特徴とする。
実施形態の一態様によれば、音声入力に関するユーザビリティを向上させることができるという効果を奏する。
図1は、実施形態に係る端末装置の一例を示す図である。 図2は、実施形態に係る端末装置の構成例を示す図である。 図3は、実施形態に係る音声入力アプリケーションの構成例を示す図である。 図4は、実施形態に係る表示処理手順の一例を示すフローチャートである。 図5は、端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に本願に係る結合プログラム、結合装置、及び結合方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る結合プログラム、結合装置、及び結合方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.結合処理〕
図1を用いて、本実施形態の結合プログラム等により実現される結合処理を説明する。図1は、実施形態に係る端末装置の一例を示す図である。図1では、ユーザの音声入力に対し音声認識の結果となる文字列を表示し、表示した文字列を他のアプリケーションに出力する音声入力アプリケーション(以下、「音声入力アプリ」と記載する場合がある)が端末装置100に実装されている例を示す。なお、図1では、音声入力アプリの機能によって実施形態に係る結合処理が実現されるものとする。
図1に示す端末装置100は、ユーザによって利用されるスマートフォンやタブレット等のスマートデバイスであり、3G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。図1に示す例では、端末装置100がユーザU1によって利用されるスマートフォンである場合を示す。また、端末装置100は、液晶ディスプレイ等の出力部(以下、画面と記載する場合がある)を有し、タッチパネルが採用されているものとする。すなわち、ユーザU1は、指や専用ペンで出力部の表示面をタッチすることにより端末装置100の各種操作を行う。また、図1の例において、端末装置100には、音を集音する集音機器(マイク等)が含まれているものとする。なお、端末装置100は、スマートデバイスのみならず、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等の情報処理装置であってもよい。
以下、図1を用いて、端末装置100が行う音声入力アプリの表示処理について説明する。なお、以下の説明では、端末装置100の画面の状態遷移を図示する場合、順に第1状態、第2状態、・・・、第N状態(Nは任意の数)と表記する。
図1の第1状態は、ユーザU1による音声入力に対する音声認識の結果となる文字列を表示した画面の状態を示す。ここで、図1の第1状態において、端末装置100は、ユーザU1の音声入力に対し、文字列「賢治」を音声認識の結果として領域AR1に表示したものとする。
続いて、図1の第2状態は、第1状態において領域AR1に表示した文字列「賢治」の読み仮名「けんじ」の他の漢字への変換候補を表示した画面の状態を示す。図1の第2状態において、端末装置100は、ユーザU1による所定のタッチ操作(例えば、領域AR1のタップなど)等を受け付け、文字列「賢治」の読み仮名「けんじ」に対応する他の変換候補の漢字を領域AR2に表示する。
ここで、図1の第2状態において、ユーザU1が希望する変換候補が領域AR2に表示されず、また、ユーザU1が領域AR1に表示された「賢」のみを他の変換候補の漢字に変換することを希望したものとする。この場合、端末装置100は、ユーザU1の指F10により選択された編集点(「賢」及び「治」の間)で文字列「賢治」を分割して表示する図1の第3状態に画面を遷移させる。例えば、図1の例において、端末装置100は、ユーザU1の指F10が領域AR1に表示された「賢」及び「治」の間の領域へのタッチ操作(例えば、タップ)を受け付けることにより、画面を図1の第3状態に遷移させる。
なお、端末装置100は、種々の編集点の選択操作をユーザU1から受け付けてもよい。例えば、端末装置100は、音声認識の結果となる文字列へのユーザU1の指F10によるタッチ操作を受け付けることにより、文字列を所定の編集点で分割して表示してもよい。具体的には、端末装置100は、文字列に含まれる各漢字の間や、漢字及びひらがなの間を編集点としてもよい。また、図1の例において、端末装置100は、ユーザU1の指F10が文字列「賢治」に触れた状態から、「賢」及び「治」の間をなぞる操作を受け付けることにより、画面を図1の第3状態に遷移させてもよい。
続いて、図1の第3状態は、第2状態において選択された編集点で文字列「賢治」を分割して表示した画面の状態を示す。図1の第3状態において、端末装置100は、「賢」を領域AR3に表示し、「治」を領域AR4に表示する。ここで、端末装置100は、ユーザU1の指F10による領域AR3へのタッチ操作(例えば、ダブルタップ)を受け付けることにより、領域AR3に表示された「賢」を、「賢」の読み仮名「け」及び「ん」に分割して表示する図1の第4状態に画面を遷移させる。
続いて、図1の第4状態は、第3状態においてユーザU1のタッチ操作が行われた領域AR3の「賢」の読み仮名を分割して表示した画面の状態を示す。図1の第4状態において、端末装置100は、「け」を領域AR5に表示し、「ん」を領域AR6に表示する。ここで、図1の第4状態において、ユーザU1が領域AR5に表示した「け」及び領域AR6に表示した「ん」を結合することを希望したものとする。この場合、端末装置100は、ユーザU1の指F10によるタッチ操作を受け付けることにより、「け」及び「ん」を結合して表示する図1の第5状態に画面を遷移させる。例えば、図1の例において、端末装置100は、ユーザU1の指F10が領域AR5に触れた状態から、領域AR5を領域AR6の方向へスライドさせるタッチ操作を受け付けることにより、画面を図1の第5状態に遷移させる。
なお、端末装置100は、図1の第2状態から、第3状態を介さず第4状態へ画面を遷移させてもよい。言い換えると、端末装置100は、ユーザU1の指F10により選択された位置を編集点として文字列を複数の情報に分割する。そして、端末装置100は、各情報に含まれる漢字であって、読み仮名が複数のひらがなによって構成される漢字をひらがなに変換し、各ひらがなを分割して画面に表示する。
続いて、図1の第5状態は、第4状態においてユーザU1による結合に関するタッチ操作を受け付けた領域AR5及び領域AR6を結合した画面の状態を示す。図1の第5状態において、端末装置100は、「けん」を領域AR7に表示する。また、端末装置100は、ユーザU1による所定のタッチ操作(例えば、領域AR7のタップなど)を受け付け、「けん」に対応する変換候補の漢字を領域AR2に表示する。
ここで、ユーザU1が行った音声入力に誤入力があり、図1の第5状態において領域AR7に表示した情報の再入力を希望したものとする。この場合、端末装置100は、ユーザU1の指F10による領域AR7への所定のタッチ操作(例えば、領域AR7のロングタップなど)を受け付けることにより、画面を図1の第6状態に画面を遷移させる。
続いて、図1の第6状態は、再度ユーザU1による音声入力を受け付けるための画面の状態を示す。図1の第6状態において、端末装置100は、「けん」に替えて、音声入力を受け付け可能であることを示すアイコン画像を領域AR7に表示する。端末装置100は、ユーザU1から音声入力を受け付け、画面を図1の第7状態に遷移させる。
続いて、図1の第7状態は、ユーザU1による音声入力に対する音声認識の結果となる文字列を表示した画面の状態を示す。図1の第7状態において、端末装置100は、アイコン画像に替えて、音声認識の結果である「こう」を領域AR7に表示する。すなわち、端末装置100は、音声入力された文字列を、再度音声入力を受け付けることにより更新する。また、端末装置100は、ユーザU1による所定のタッチ操作(例えば、領域AR7のタップなど)等を受け付け、「こう」に対応する変換候補の漢字を領域AR2に表示する。ここで、端末装置100は、ユーザU1の指F10による領域AR2へのタッチ操作により領域AR7に表示された文字列の変換先の漢字を受け付け、図1の第8状態に画面を遷移させる。
続いて、図1の第8状態は、領域AR7に表示した文字列をユーザU1から受け付けた変換先の漢字に変換した画面の状態を示す。図1の第8状態において、端末装置100は、「こう」に替えて、「こう」を漢字に変換した「浩」を領域AR7に表示する。ここで、端末装置100は、ユーザU1の指F10が領域AR7に触れた状態から、領域AR7を領域AR4の方向へスライドさせるタッチ操作を受け付けることにより、領域AR4及び領域AR7に表示された情報を結合させた文字列「浩治」を画面に表示する。そして、端末装置100は、ユーザU1から文字列の出力操作(例えば、文字列が表示された領域以外の画面の領域のタッチ操作)を受け付けることにより、文字列「浩治」を音声入力アプリ以外の他のアプリケーションに出力する。
なお、上述の実施形態では、端末装置100は、タッチ操作として、タップや、ダブルタップ、スライド、ロングタップ等のユーザU1の操作を受け付けた場合に画面の表示処理を行う例を示した。しかし、端末装置100は、上述したタッチ操作以外の操作が行われた場合にも画面の表示処理を行ってもよい。例えば、端末装置100は、ピンチアウト、ピンチイン、フリック、スワイプ、ドラッグ、タッチアンドホールド、シェイク、ピーク(Peek)、ポップ(Pop)等のタッチ操作を受け付け、上述した画面の表示処理を行ってもよい。
以上のように、実施形態に係る端末装置100は、音声入力された文字列に対し、情報の分割処理及び結合処理、並びに、情報の更新処理を、画面に対するユーザのタッチ操作等に応じて行う。これにより、ユーザは、キーボード等を用いた操作を行わず、ユーザの感覚的な操作により音声入力を行うことができる。すなわち、実施形態に係る端末装置100は、音声入力におけるユーザビリティを向上させることができる。
〔2.端末装置の構成〕
次に、上述した表示処理を実現するための端末装置100について図2を用いて説明する。図2は、実施形態に係る端末装置の構成例を示す図である。図2に示すように、端末装置100は、通信部110と、入力部120と、出力部130と、物理センサ140と、制御部150とを有する。
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、音声入力アプリや、その他のアプリケーションを配信するアプリケーション配信サーバ等との間で情報の送受信を行う。
(入力部120及び出力部130について)
入力部120は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部120は、キーボードやマウスや操作キー等によって実現される。出力部130は、各種情報を表示するための表示装置である。つまり、出力部130は、端末装置100の表示画面に相当する。例えば、出力部130は、液晶ディスプレイ等によって実現される。なお、端末装置100にタッチパネルが採用される場合には、入力部120と出力部130とは一体化される。
(物理センサ140について)
物理センサ140は、端末装置100の物理的な状態を検知するセンサである。例えば、物理センサ140は、端末装置100の画面に対するユーザのタッチ操作等における圧量を検知する圧力センサである。
(制御部150について)
制御部150は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。なお、制御部150は、上述した表示処理を実現する制御情報又はアプリケーションをアプリケーション配信サーバ等から配信された場合、かかる制御情報又はアプリケーションに従って動作し、表示処理を実現する。
また、制御部150は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。実施形態に係る制御部150は、図2に示すように、音声入力アプリケーション151や、第1アプリケーション152、第2アプリケーション153等を有する。音声入力アプリケーション151は、上述した表示処理の機能や作用を実現または実行し、ユーザの音声入力に対する音声認識の結果となる情報を、第1アプリケーション152や、第2アプリケーション153等の他のアプリケーションに出力する。以下、図3を用いて、音声入力アプリケーション151が有する機能構成の一例ついて説明する。図3は、実施形態に係る音声入力アプリケーションの構成例を示す図である。実施形態に係る音声入力アプリケーション151は、図3に示すように、認識部1511と、表示部1512と、受付部1513と、分割部1514と、更新部1515と、結合部1516と、出力部1517とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
(認識部1511について)
認識部1511は、後述する受付部1513によって受け付けられたユーザの音声入力に対し音声認識処理を実行する。例えば、図1の例において、認識部1511は、ユーザU1による音声入力に対して音声認識処理を実行し、音声を文字列に変換する。
(表示部1512について)
表示部1512は、音声を介して入力された情報を表示する。例えば、表示部1512は、ユーザによる音声入力に対して認識部1511が実行した音声認識処理の結果となる情報を表示する。
また、表示部1512は、音声認識の結果となる文字列を表示してもよい。例えば、表示部1512は、音声を介して入力された文字列であって、漢字を含む文字列を表示する。例えば、図1の例において、表示部1512は、ユーザU1の音声入力に対し、文字列「賢治」を音声認識の結果として表示する。
また、表示部1512は、音声を介して入力された複数の情報を表示してもよい。例えば、表示部1512は、音声認識の結果となる情報を分割した複数の情報を表示する。具体的には、表示部1512は、認識部1511が実行した音声認識処理の結果である文字列を分割した複数の情報を表示する。ここで、表示部1512は、文字列に含まれる各漢字を分割して表示してもよい。また、表示部1512は、文字列に含まれる漢字と、ひらがなとを分割して表示してもよい。
(受付部1513について)
受付部1513は、表示部1512が表示した複数の情報のうちいずれかを選択する操作を受け付けた場合に音声を介して新たな情報の入力を受け付ける。また、受付部1513は、後述する分割部1514が情報を複数の情報に分割して表示した後、複数の情報のうちいずれかを選択する操作を受け付けた場合に音声を介して新たな情報の入力を受け付ける。例えば、図1の例において、受付部1513は、ユーザU1の指F10によって領域AR7へ所定のタッチ操作が行われた場合、音声入力を受け付け可能であることを示すアイコン画像を領域AR7に表示し、ユーザU1から音声を介して新たな情報の入力を受け付ける。
また、受付部1513は、複数の情報を結合する操作を受け付けてもよい。例えば、図1の例において、受付部1513は、ユーザU1の指F10が領域AR7に触れた状態から、領域AR7を領域AR4の方向へスライドさせるタッチ操作を、領域AR4及び領域AR7を結合する操作として受け付ける。
(分割部1514について)
分割部1514は、表示部1512により表示された情報のうち、編集点となる位置を選択する操作を受け付けた場合に当該編集点で情報を分割して表示する。例えば、図1の例において、分割部1514は、ユーザU1の指F10が領域AR1に表示された「賢」及び「治」の間の領域を編集点とするタッチ操作を受け付けることにより、領域AR1を「賢」を表示する領域AR3及び「治」を表示する領域AR4に分割して表示する。
また、分割部1514は、表示部1512により表示された情報の選択を伴う所定の操作を受け付けた場合に情報を分割して表示してもよい。例えば、図1の例において、分割部1514は、ユーザU1の指F10が領域AR1に触れた状態から、所定のタッチ操作を受け付けることにより、領域AR1に表示された文字列を分割して表示する。
また、分割部1514は、表示部1512により表示された情報のうち、所定の操作が行われた位置を編集点として情報を分割して表示する。例えば、図1の例において、分割部1514は、ユーザU1の指F10が領域AR1に触れた状態から、「賢」及び「治」の間をなぞる操作を受け付けることにより、「賢」及び「治」の間の領域を編集点として領域AR1に表示された文字列を分割して表示する。
また、分割部1514は、表示部1512により表示された情報のうち、情報の選択を伴う第1の操作が行われた位置を第1の編集点として情報を複数の情報に分割して表示した後、複数の情報のいずれかの選択を伴う第2の操作を受け付けた場合に、第2の操作が行われた位置を第2の編集点として選択された情報を分割して表示してもよい。例えば、図1の例において、分割部1514は、領域AR1に表示された「賢」及び「治」の間の領域を第1の編集点として、領域AR1に表示された文字列を領域AR3及び領域AR4に分割して表示する。そして、分割部1514は、領域AR3に対するユーザU1の第2の操作(タッチ操作)を受け付けることにより、領域AR3に表示された「賢」の読み仮名「け」及び「ん」の間の領域を第2の編集点として、領域AR3に表示された情報を領域AR5及び領域AR6に分割して表示する。
また、分割部1514は、表示部1512が表示した文字列に含まれる漢字を複数のひらがなに変換し、各ひらがなを分割して表示してもよい。例えば、図1の例において、分割部1514は、ユーザU1の指F10が領域AR1に表示された「賢」及び「治」の間の領域を編集点とするタッチ操作を受け付け、領域AR1に表示された文字列を領域AR3及び領域AR4に分割すると共に、領域AR3に表示された情報を領域AR5及び領域AR6に分割して表示する。
(更新部1515について)
更新部1515は、選択された情報を受付部1513が受け付けた新たな情報に更新する。例えば、図1の例において、更新部1515は、第6状態にて受付部1513が受け付けたユーザU1による音声入力に対する音声認識の結果となる文字列を領域AR7に表示し、領域AR7に表示される文字列を「けん」から「こう」に更新する。
(結合部1516について)
結合部1516は、受付部1513が複数の情報を結合する操作を受け付けた場合に複数の情報を結合して表示する。例えば、結合部1516は、表示部1512により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する。具体的には、表示部1512がユーザの音声を介して入力された文字列を複数の情報に分割して表示した場合(例えば、文字列に含まれる各漢字を分割して表示した場合や、文字列に含まれる漢字及びひらがなを分割して表示した場合など)、結合部1516は、ユーザから情報の選択を伴う所定の操作を受け付け、選択された情報を他の情報と結合して表示する。
また、結合部1516は、分割部1514が情報を複数の情報に分割して表示した後、複数の情報を結合する操作を受け付けた場合に複数の情報を結合して表示してもよい。例えば、図1の例において、結合部1516は、ユーザU1による領域AR7へのタッチ操作を受け付けることにより、領域AR4及び領域AR7に表示された情報を結合させた文字列「浩治」を画面に表示する。
また、結合部1516は、複数の情報のうち選択された情報を他の情報が表示された方向へ移動させる操作を受け付けた場合に選択された情報を他の情報と結合して表示してもよい。例えば、結合部1516は、複数の情報のうち、選択に伴いスライド操作が行われた情報をスライド方向の情報と結合して表示する。例えば、図1の例において、結合部1516は、ユーザU1の指F10が領域AR7に触れた状態から、領域AR7を領域AR4の方向へスライドさせるタッチ操作を受け付けることにより、領域AR4及び領域AR7を結合させた文字列「浩治」を画面に表示する。
また、結合部1516は、複数の情報のうち、選択に伴いタップ操作が行われた情報を他の情報と結合して表示してもよい。例えば、結合部1516は、タップ操作が行われた情報を、当該情報の所定の方向に表示された情報と結合して表示する。
また、結合部1516は、複数の情報を変更せずに結合して表示してもよい。例えば、図1の例において、結合部1516は、領域AR7に表示された情報を、漢字に変換された状態のまま領域AR4に表示された情報と結合して表示する。
(出力部1517について)
出力部1517は、ユーザの音声入力に対する音声認識の結果となる情報を、第1アプリケーション152や、第2アプリケーション153等の他のアプリケーションに出力する。例えば、図1の例において、出力部1517は、ユーザU1から文字列の出力操作を受け付けた時点で画面に表示されている文字列「浩治」を、他のアプリケーションに出力する。
〔3.表示処理のフロー〕
ここで、図4を用いて、実施形態に係る音声入力アプリの表示処理の手順について説明する。図4は、実施形態に係る表示処理手順の一例を示すフローチャートである。
図4に示すように、端末装置100は、ユーザから音声入力を受け付ける(ステップS101)。続いて、端末装置100は、音声入力に対する音声認識の結果を表示する(ステップS102)。本説明において、端末装置100は、音声認識の結果となる文字列を表示する。続いて、ユーザから音声認識した文字列に対する分割操作を受け付けた場合(ステップS103;Yes)、端末装置100は、音声認識した文字列を分割して表示する(ステップS104)。例えば、端末装置100は、ユーザのタッチ操作等により選択された編集点で文字列を分割して表示する。一方、文字列に対する分割操作を受け付けなかった場合(ステップS103;No)、端末装置100は、文字列をそのまま表示する。
続いて、画面に表示した文字列を構成するいずれかの情報が選択された場合(ステップS105;Yes)、端末装置100は、ユーザから新たな音声入力を受け付け、選択された情報を更新する(ステップS106)。例えば、図1の例において、端末装置100は、領域AR1に表示した文字列を領域AR4及び領域AR7に分割して表示している状態において領域AR7が選択され音声入力を受け付け可能であることを示すアイコン画像を領域AR7に表示する。そして、端末装置100は、新たに音声入力に対する音声認識の結果となる文字列を領域AR7に表示する。一方、文字列を構成する情報が選択されなかった場合(ステップS105;No)、端末装置100は、文字列をそのまま表示する。
続いて、画面に表示した文字列を構成する情報の結合操作が行われた場合(ステップS107;Yes)、端末装置100は、操作対象となる情報を結合して表示する(ステップS108)。例えば、図1の例において、端末装置100は、ユーザU1の指F10が領域AR7に触れた状態から、領域AR7を領域AR4の方向へスライドさせるタッチ操作を受け付けることにより、領域AR4及び領域AR7に表示された情報を結合させた文字列を画面に表示する。一方、文字列を構成する情報の結合操作が行われなかった場合(ステップS107;No)、端末装置100は、文字列をそのまま表示する。
続いて、画面に表示した文字列の出力操作が行われた場合(ステップS109;Yes)、端末装置100は、文字列を他のアプリケーションに出力し(ステップS110)、処理を終了する。一方、文字列の出力操作が行われなかった場合(ステップS109;No)、端末装置100は、文字列をそのまま表示し、再び分割操作、情報の更新、並びに、結合操作を受け付ける。
〔4.変形例〕
上述の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
〔4−1.文字列について〕
上述の実施形態において、端末装置100が日本語で構成される文字列の表示処理を行う例を示したが、端末装置100は上述した例に限られず、各種自然言語において用いられる文字により構成される文字列の表示処理を行ってもよい。例えば、端末装置100は、英語の音声入力を受け付ける場合、ユーザによる「ライト」という音声入力に対し、「right」や、「light」などのアルファベットで構成される文字列であって、発音が類似する文字列を音声認識の結果や変換候補として表示する。また、端末装置100は、英語を音声認識の結果として表示する場合、英語の各品詞の語形変化を変換候補として表示してもよい。例えば、端末装置100は、音声認識の結果として「go」を表示する場合、変換候補として「goes」、「went」、「gone」などを表示してもよい。また、端末装置100は、英語を音声認識の結果として複合語を表示する場合、複合語を構成要素の品詞に分割可能としてもよい。例えば、端末装置100は、音声認識の結果として「policeman」を表示した場合、ユーザの分割操作を受け付け、「police」及び「man」と分割して表示(例えば、「police」及び「man」の間に空白領域を設けて表示)してもよい。
また、端末装置100は、種々のアプリケーションにおけるテキスト等の入力欄に入力可能であれば、記号(例えば、丸、バツ印、三角、四角、矢印、ハイフン、絵文字など)や数字を含む文字列の表示処理を行ってもよい。
〔4−2.新たな情報の挿入について〕
受付部1513は、音声を介して入力された情報に挿入される新たな情報を受け付けてもよい。例えば、図1の第5状態において、受付部1513は、領域AR7の左側、領域AR4及び領域AR7の間、並びに、領域AR4の右側のいずれかに所定範囲の空白領域を生じさせるタッチ操作を受け付けた場合、当該空白領域に音声入力を受け付け可能であることを示すアイコン画像を表示し、ユーザU1から空白領域に挿入される情報の音声入力を受け付ける。そして、更新部1515は、受付部1513が受け付けた新たな情報を空白領域に挿入し、端末装置100に表示された文字列を更新する。
〔5.効果〕
上述してきたように、実施形態に係る端末装置100が有する音声入力アプリケーション151は、認識部1511と、表示部1512と、受付部1513と、分割部1514と、更新部1515と、結合部1516と、出力部1517とを有する。認識部1511は、ユーザの音声入力に対し音声認識処理を実行する。表示部1512は、音声を介して入力された情報を表示する。受付部1513は、分割部1514が情報を複数の情報に分割して表示した後、複数の情報のうちいずれかを選択する操作を受け付けた場合に音声を介して新たな情報の入力を受け付ける。分割部1514は、表示部1512により表示された情報のうち、編集点となる位置を選択する操作を受け付けた場合に当該編集点で情報を分割して表示する。更新部1515は、選択された情報を受付部1513が受け付けた新たな情報に更新する。結合部1516は、分割部1514が情報を複数の情報に分割して表示した後、複数の情報を結合する操作を受け付けた場合に複数の情報を結合して表示する。出力部1517は、ユーザの音声入力に対する音声認識の結果となる情報を、他のアプリケーションに出力する。
これにより、実施形態に係る端末装置100は、ユーザの感覚的な操作により音声入力を行うことができるため、音声入力に関するユーザビリティを向上させることができる。
また、実施形態に係る端末装置100において、例えば、表示部1512は、音声を介して入力された複数の情報を表示する。そして、受付部1513は、表示部1512が表示した複数の情報のうちいずれかを選択する操作を受け付けた場合に音声を介して新たな情報の入力を受け付ける。そして、更新部1515は、選択された情報を受付部1513が受け付けた新たな情報に更新する。
これにより、実施形態に係る端末装置100は、表示された複数の情報からいずれかの情報を選択し、新たな情報に更新できるため、文字列の音声入力に関するユーザビリティを向上させることができる。
また、実施形態に係る端末装置100において、例えば、表示部1512は、音声を介して入力された複数の情報を表示する。そして、結合部1516は、表示部1512により表示された複数の情報のうち、いずれかの情報の選択を伴う所定の操作を受け付けた場合に選択された情報を他の情報と結合して表示する。
これにより、実施形態に係る端末装置100は、表示された複数の情報から結合させる情報を選択できるため、文字列の音声入力に関するユーザビリティを向上させることができる。
また、実施形態に係る端末装置100において、例えば、表示部1512は、音声認識の結果となる情報を分割した複数の情報を表示する。
これにより、実施形態に係る端末装置100は、分割された情報に対し操作を行うことができるため、文字列の音声入力に関するユーザビリティを向上させることができる。
また、実施形態に係る端末装置100において、例えば、表示部1512は、音声認識の結果となる文字列を表示する。
これにより、実施形態に係る端末装置100は、音声認識の結果として文字列を表示することにより、文字列の音声入力に関するユーザビリティを向上させることができる。
また、実施形態に係る端末装置100において、例えば、分割部1514は、表示部1512により表示された情報の選択を伴う所定の操作を受け付けた場合に情報を分割して表示する。
これにより、実施形態に係る端末装置100は、ユーザの操作に応じて表示された情報を分割できるため、音声入力に関するユーザビリティを向上させることができる。
また、実施形態に係る端末装置100において、例えば、分割部1514は、表示部1512により表示された情報のうち、所定の操作が行われた位置を編集点として情報を分割して表示する。
これにより、実施形態に係る端末装置100は、ユーザの操作が行われた位置を編集点として分割し、分割した情報に種々の操作を行うことができるため、音声入力に関するユーザビリティを向上させることができる。
また、実施形態に係る端末装置100において、例えば、分割部1514は、表示部1512により表示された情報のうち、情報の選択を伴う第1の操作が行われた位置を第1の編集点として情報を複数の情報に分割して表示した後、複数の情報のいずれかの選択を伴う第2の操作を受け付けた場合に、当該第2の操作が行われた位置を第2の編集点として選択された情報を分割して表示する。
これにより、実施形態に係る端末装置100は、分割した情報をさらに分割し、種々の操作を行うことができるため、音声入力に関するユーザビリティを向上させることができる。
また、実施形態に係る端末装置100において、例えば、表示部1512は、音声を介して入力された文字列であって、漢字を含む文字列を表示する。そして、分割部1514は、表示部1512が表示した文字列に含まれる漢字を複数のひらがなに変換し、各ひらがなを分割して表示する。
これにより、実施形態に係る端末装置100は、漢字を含む文字列に対する変換操作を容易に行うことができるため、音声入力に関するユーザビリティを向上させることができる。
また、実施形態に係る端末装置100において、例えば、受付部1513は、複数の情報を結合する操作を受け付ける。そして、結合部1516は、受付部1513が複数の情報を結合する操作を受け付けた場合に複数の情報を結合して表示する。
これにより、実施形態に係る端末装置100は、表示された情報を結合することができるため、音声入力に関するユーザビリティを向上させることができる。
また、実施形態に係る端末装置100において、例えば、結合部1516は、複数の情報のうち選択された情報を他の情報が表示された方向へ移動させる操作を受け付けた場合に選択された情報を他の情報と結合して表示する。
これにより、実施形態に係る端末装置100は、感覚的な操作により表示された情報を結合できるため、音声入力に関するユーザビリティを向上させることができる。
また、実施形態に係る端末装置100において、例えば、結合部1516は、選択に伴いタップ操作が行われた情報を他の情報と結合して表示する。
これにより、実施形態に係る端末装置100は、感覚的な操作により表示された情報を結合できるため、音声入力に関するユーザビリティを向上させることができる。
また、実施形態に係る端末装置100において、例えば、結合部1516は、複数の情報のうち、選択に伴いスライド操作が行われた情報をスライド方向の情報と結合して表示する。
これにより、実施形態に係る端末装置100は、感覚的な操作により表示された情報を結合できるため、音声入力に関するユーザビリティを向上させることができる。
また、実施形態に係る端末装置100において、例えば、結合部1516は、複数の情報を変更せずに結合して表示する。
これにより、実施形態に係る端末装置100は、ユーザによって操作が行われた情報を変更せずに結合できるため、音声入力に関するユーザビリティを向上させることができる。
〔6.ハードウェア構成〕
また、上述してきた各実施形態に係る端末装置は、例えば図5に示すような構成のコンピュータ1000によって実現される。以下、端末装置100を例に挙げて説明する。図5は、端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(実施形態のネットワークNに対応する)を介して他の機器からデータを受信してCPU1100へ送り、また、通信網500を介してCPU1100が生成したデータを他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が端末装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部150の機能を実現する。また、HDD1400には、端末装置100の記憶装置内の各データが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
〔7.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上述した端末装置100は、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。
また、特許請求の範囲に記載した「部」は、「手段」や「回路」などに読み替えることができる。例えば、認識部は、認識手段や認識回路に読み替えることができる。
100 端末装置
110 通信部
120 入力部
130 出力部
140 物理センサ
150 制御部
1511 認識部
1512 表示部
1513 受付部
1514 分割部
1515 更新部
1516 結合部
1517 出力部
152 第1アプリケーション
153 第2アプリケーション

Claims (8)

  1. 音声を介して入力された複数の情報であって、音声の認識結果である文字列を分割した複数の文字にそれぞれ対応する複数の情報を表示する表示手順と、
    前記表示手順により表示された複数の情報のうち、選択された情報を他の情報が表示された方向へ移動させる操作を受け付けた場合に選択された情報を他の情報と結合して表示する結合手順と
    をコンピュータに実行させることを特徴とする結合プログラム。
  2. 前記結合手順は、
    前記複数の情報のうち、選択に伴いタップ操作が行われた情報を他の情報と結合して表示する
    ことを特徴とする請求項1に記載の結合プログラム。
  3. 前記結合手順は、
    前記複数の情報のうち、選択に伴いスライド操作が行われた情報をスライド方向の情報と結合して表示する
    ことを特徴とする請求項1に記載の結合プログラム。
  4. 前記表示手順は、
    音声認識の結果となる文字列を表示する
    ことを特徴とする請求項1から3のいずれか一つに記載の結合プログラム。
  5. 前記表示手順は、
    音声認識の結果となる情報を分割した複数の情報を表示する
    ことを特徴とする請求項1から4のいずれか一つに記載の結合プログラム。
  6. 前記結合手順は、
    前記複数の情報を変更せずに結合して表示する
    ことを特徴とする請求項1から5のいずれか一つに記載の結合プログラム。
  7. 音声を介して入力された複数の情報であって、音声の認識結果である文字列を分割した複数の文字にそれぞれ対応する複数の情報を表示する表示部と、
    前記表示部により表示された複数の情報のうち、選択された情報を他の情報が表示された方向へ移動させる操作を受け付けた場合に選択された情報を他の情報と結合して表示する結合部と
    を備えることを特徴とする結合装置。
  8. コンピュータが実行する結合方法であって、
    音声を介して入力された複数の情報であって、音声の認識結果である文字列を分割した複数の文字にそれぞれ対応する複数の情報を表示する表示工程と、
    前記表示工程により表示された複数の情報のうち、選択された情報を他の情報が表示された方向へ移動させる操作を受け付けた場合に選択された情報を他の情報と結合して表示する結合工程と
    を含むことを特徴とする結合方法。
JP2018155849A 2018-08-22 2018-08-22 結合プログラム、結合装置、及び結合方法 Active JP6601827B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018155849A JP6601827B1 (ja) 2018-08-22 2018-08-22 結合プログラム、結合装置、及び結合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018155849A JP6601827B1 (ja) 2018-08-22 2018-08-22 結合プログラム、結合装置、及び結合方法

Publications (2)

Publication Number Publication Date
JP6601827B1 true JP6601827B1 (ja) 2019-11-06
JP2020030324A JP2020030324A (ja) 2020-02-27

Family

ID=68462332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018155849A Active JP6601827B1 (ja) 2018-08-22 2018-08-22 結合プログラム、結合装置、及び結合方法

Country Status (1)

Country Link
JP (1) JP6601827B1 (ja)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60251460A (ja) * 1984-05-29 1985-12-12 Ricoh Co Ltd 文字列処理装置
JPS62180462A (ja) * 1986-02-04 1987-08-07 Ricoh Co Ltd 音声入力かな漢字変換装置
JP4604178B2 (ja) * 2004-11-22 2010-12-22 独立行政法人産業技術総合研究所 音声認識装置及び方法ならびにプログラム
JP2008090625A (ja) * 2006-10-02 2008-04-17 Sharp Corp 文字入力装置、文字入力方法、制御プログラム、および、記録媒体
JP2009098490A (ja) * 2007-10-18 2009-05-07 Kddi Corp 音声認識結果編集装置、音声認識装置およびコンピュータプログラム
CN102640107A (zh) * 2009-11-30 2012-08-15 株式会社东芝 信息处理装置
JP6150268B2 (ja) * 2012-08-31 2017-06-21 国立研究開発法人情報通信研究機構 単語登録装置及びそのためのコンピュータプログラム
JP2014202832A (ja) * 2013-04-02 2014-10-27 株式会社東芝 編集装置、方法、及びプログラム
JP2016130837A (ja) * 2015-01-08 2016-07-21 パナソニックIpマネジメント株式会社 情報制御装置及び情報制御プログラム

Also Published As

Publication number Publication date
JP2020030324A (ja) 2020-02-27

Similar Documents

Publication Publication Date Title
USRE46139E1 (en) Language input interface on a device
KR101541147B1 (ko) 동적 가상 입력 디바이스 구성
TWI653545B (zh) 用於即時手寫辨識之方法、系統及非暫時性電腦可讀媒體
US8949743B2 (en) Language input interface on a device
TWI570632B (zh) 使用一通用辨識器之多筆跡手寫辨識
TWI564786B (zh) 管理即時手寫辨識
JP6033326B2 (ja) コンテンツベースの自動的な入力プロトコルの選択
US8605039B2 (en) Text input
KR101633842B1 (ko) 연속적인 제스쳐 입력을 위한 복수의 그래픽 키보드들
KR101149982B1 (ko) 키보드를 사용한 아시아 언어 입력
CN109074375B (zh) web文档中的内容选择
JP2010520531A (ja) 統合ピンイン及び画入力
TW200849038A (en) Shared language model
US20130050098A1 (en) User input of diacritical characters
US20150169532A1 (en) Interaction with Spreadsheet Application Function Tokens
US20090132917A1 (en) Methods and systems for generating a visual user interface
JP2010520532A (ja) 画数の入力
TWI475405B (zh) 電子裝置及其文字輸入介面顯示方法
JP6330348B2 (ja) 情報処理装置
JP2012098891A (ja) 情報処理システムおよび情報処理方法
US20140223354A1 (en) Method and system for creating floating keys in a portable device
JP6601827B1 (ja) 結合プログラム、結合装置、及び結合方法
JP6601826B1 (ja) 分割プログラム、分割装置、及び分割方法
WO2016119549A1 (zh) 一种基于输入的候选文本的加载方法和装置
JP2018072508A (ja) 音声入力装置、音声入力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181018

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181018

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191001

R150 Certificate of patent or registration of utility model

Ref document number: 6601827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350