JPWO2020071286A1 - 入力装置、入力方法および入力システム - Google Patents

入力装置、入力方法および入力システム Download PDF

Info

Publication number
JPWO2020071286A1
JPWO2020071286A1 JP2020550400A JP2020550400A JPWO2020071286A1 JP WO2020071286 A1 JPWO2020071286 A1 JP WO2020071286A1 JP 2020550400 A JP2020550400 A JP 2020550400A JP 2020550400 A JP2020550400 A JP 2020550400A JP WO2020071286 A1 JPWO2020071286 A1 JP WO2020071286A1
Authority
JP
Japan
Prior art keywords
information
input
unit
character string
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020550400A
Other languages
English (en)
Other versions
JP7178576B2 (ja
Inventor
健二 立花
健二 立花
大志 淺野
大志 淺野
俊介 齊藤
俊介 齊藤
将志 瀬戸
将志 瀬戸
将治 廣幡
将治 廣幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2020071286A1 publication Critical patent/JPWO2020071286A1/ja
Application granted granted Critical
Publication of JP7178576B2 publication Critical patent/JP7178576B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/232Orthographic correction, e.g. spell checking or vowelisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/12Detection or correction of errors, e.g. by rescanning the pattern
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本開示の入力装置は、移動体に搭載される入力装置であって、文字列を含む入力情報および、1つ又は複数の文字を含む訂正情報を入力する入力部と、前記訂正情報の1つ又は複数の文字を用いて前記入力情報の文字列を編集し、編集前と編集後の前記入力情報の文字列の類似度を算出する類似度算出部と、前記類似度算出部で算出された前記類似度に基づいて前記入力情報の文字列を訂正する訂正処理部と、を備える。

Description

本開示は、入力装置、入力方法および入力システムに関する。
特許文献1には、車両のナンバープレートを含む情景画像を撮像し、撮像した情景画像の中からナンバープレート領域を検出し、ナンバープレート上に記載された文字情報を読取るナンバープレート情報読取装置が開示されている。
特開平4−101286号公報
本開示は、入力情報を容易に訂正することが可能な入力装置、入力方法及び入力システムを提供することを目的する。
本開示の一態様の入力装置は、
移動体に搭載される入力装置であって、
文字列を含む入力情報および、1つ又は複数の文字を含む訂正情報を入力する入力部と、
前記訂正情報の1つ又は複数の文字を用いて前記入力情報の文字列を編集し、編集前と編集後の前記入力情報の文字列の類似度を算出する類似度算出部と、
前記類似度算出部で算出された前記類似度に基づいて前記入力情報の文字列を訂正する訂正処理部と、
を備える。
本開示の一態様の入力方法は、
移動体において実施される入力方法であって、
文字列を含む入力情報を入力するステップ、
1つ又は複数の文字を含む訂正情報を入力するステップ、
前記訂正情報の1つ又は複数の文字を用いて前記入力情報の文字列を編集し、編集前と編集後の前記入力情報の文字列の類似度を算出するステップ、
算出された前記類似度に基づいて前記入力情報の文字列を訂正するステップ、
を含む。
本開示の一態様の入力システムは、
移動体に搭載される演算処理装置と、
前記演算処理装置とネットワークを介して通信するサーバと、
を備え、
前記演算処理装置は、
文字列を含む入力情報および、1つ又は複数の文字を含む訂正情報を入力する入力部と、
前記サーバとネットワークを介して通信する第1通信部と、
を有し、
前記サーバは、
前記演算処理装置と前記ネットワークを介して通信する第2通信部と、
前記訂正情報の1つ又は複数の文字を用いて前記入力情報の文字列を編集し、編集前と編集後の前記入力情報の文字列の類似度を算出する類似度算出部と、
前記類似度算出部で算出された前記類似度に基づいて前記入力情報の文字列を訂正する訂正処理部と、
を有する。
本開示によれば、入力情報を容易に訂正することが可能な入力装置、入力方法及び入力システムを提供することができる。
本開示に係る実施の形態1の入力装置の構成の一例を示すブロック図である。 入力情報の一例を示す概略図である。 入力情報の訂正の一例を示す概略図である。 文字列の類似度の算出の一例を説明する概略図である。 文字列の類似度の算出の一例を説明する概略図である。 距離の算出の一例を示す概略図である。 距離の算出の一例を示す概略図である。 距離の算出の別例を示す概略図である。 距離の算出の別例を示す概略図である。 本開示に係る実施の形態1の入力方法の一例を示すフローチャートである。 入力情報の訂正の別例を示す概略図である。 入力情報の訂正の別例を示す概略図である。 本開示に係る実施の形態2の入力装置の構成の一例を示すブロック図である。 本開示に係る実施の形態2の入力方法の一例を示すフローチャートである。 入力情報の取得の一例を説明する概略図である。 入力情報の取得の一例を説明する概略図である。 入力情報の取得の一例を説明する概略図である。 入力情報の取得の一例を説明する概略図である。 入力情報の取得の別例を説明する概略図である。 入力情報の取得の別例を説明する概略図である。 入力情報の取得の別例を説明する概略図である。 入力情報の取得の別例を説明する概略図である。 入力情報の取得の別例を説明する概略図である。 入力情報の取得の別例を説明する概略図である。 入力情報の取得の別例を説明する概略図である。 入力情報の取得の別例を説明する概略図である。 入力情報の取得の別例を説明する概略図である。 本開示に係る実施の形態3の入力装置の構成の一例を示すブロック図である。 入力情報の取得の一例を説明する概略図である。 本開示に係る実施の形態4の入力システムの構成の一例を示すブロック図である。 本開示に係る実施の形態4の入力方法の一例を示すフローチャートである。
(本開示に至った経緯)
特許文献1に記載の読取装置においては、誤って文字情報を読み取る場合がある。このような場合、ユーザは、文字情報を訂正する作業を行う。例えば、ユーザは、タッチパネルなどを指で操作して文字情報を訂正する。あるいは、ユーザは音声入力によって文字情報を訂正する。
このような読取装置は、ポリスカーなどの警察車両に搭載される場合がある。例えば、ユーザは、警察車両の前方を走行する自動車のナンバープレートの文字情報を読取装置によって読み取る。ユーザは、読取装置で読み取った文字情報を入力情報として使用し、データベースなどで自動車のナンバーを照合する。このとき、読取装置が文字情報を誤って読み取っている場合、ユーザは入力情報を訂正する作業を行っている。
また、読取装置以外の入力の形態として、音声入力により入力情報を入力する場合がある。警察車両においては、一般車両に比べてノイズが発生しやすい環境である。このため、音声入力によって入力情報を入力する場合、ノイズにより入力情報が誤って認識されやすい。このため、入力情報を訂正する回数が、一般車両に比べて多くなる場合がある。
しかしながら、ユーザが運転中である場合、入力情報を訂正することが困難である。そこで、警察車両においては、入力情報を容易に訂正することが求められている。また、警察車両においては、緊急性を要する場合があり、迅速かつスムーズに入力情報を訂正することが求められている。
一般車両などの移動体においても入力情報を容易に訂正することが求められている。例えば、一般車両のカーナビゲーションシステムにおいて、音声入力により行き先の住所などを入力する場合においても、入力情報が誤って認識されることがある。このような場合においても、入力情報を容易に訂正することが求められている。
そこで、本発明者らは、これらの課題を解決するために鋭意検討したところ、入力情報と訂正情報とに基づいて文字列の類似度を算出し、類似度に基づいて入力情報を訂正することを見出し、以下の開示に至った。
本開示の一態様の入力装置は、
移動体に搭載される入力装置であって、
文字列を含む入力情報および、1つ又は複数の文字を含む訂正情報を入力する入力部と、
前記訂正情報の1つ又は複数の文字を用いて前記入力情報の文字列を編集し、編集前と編集後の前記入力情報の文字列の類似度を算出する類似度算出部と、
前記類似度算出部で算出された前記類似度に基づいて前記入力情報の文字列を訂正する訂正処理部と、
を備える。
このような構成により、入力情報を容易に訂正することができる。
本開示の第2態様の入力装置においては、
前記類似度算出部は、前記訂正情報の1つ又は複数の文字を用いて前記入力情報の文字列を編集し、編集前と編集後の前記入力情報の文字列の距離を算出する距離算出部を含み、
前記訂正処理部は、前記距離算出部で算出された前記文字列の距離に基づいて前記入力情報の文字列を訂正してもよい。
このような構成により、入力情報をより容易に訂正することができる。
本開示の第3態様の入力装置においては、
前記距離算出部は、前記入力情報の文字列に対して挿入、削除、および置換のうち少なくともいずれか1つの編集処理を実施することによって、編集前と編集後の前記入力情報の文字列の距離を算出してもよい。
このような構成により、入力情報をより容易に訂正することができる。
本開示の第4態様の入力装置においては、
前記訂正処理部は、前記距離算出部で算出された前記文字列の距離のうち、最も距離が小さい部分の前記入力情報の文字列を訂正してもよい。
このような構成により、入力情報をより正確に訂正することができる。
本開示の第5態様の入力装置においては、
前記入力情報は、前記入力情報の複数の文字列を分類する複数の属性を有し、
前記類似度算出部は、前記訂正情報が前記複数の属性のうちいずれの属性に分類されるかを判定する属性判定部を有し、
前記類似度算出部は、前記入力情報と前記訂正情報の属性に基づいて、前記類似度を算出してもよい。
このような構成により、入力情報をより迅速に訂正することができる。
本開示の第6態様の入力装置においては、
前記訂正処理部は、前記入力情報と前記訂正情報との属性が一致する前記入力情報の文字列のうち、最も類似度が高い部分の文字を訂正してもよい。
このような構成により、入力情報をより正確に訂正することができる。
本開示の第7態様の入力装置においては、
前記訂正処理部は、前記入力情報の文字列において、前記類似度算出部によって算出される複数の類似度のうち類似度が最も高い部分が複数存在する場合、最初に算出された類似度が最も高い部分の文字を訂正してもよい。
このような構成により、入力情報をより迅速かつより正確に訂正することができる。
本開示の第8態様の入力装置においては、更に、
前記入力情報および訂正された前記入力情報を表示する表示部を備えてもよい。
このような構成により、入力情報を表示することができる。
本開示の第9態様の入力装置においては、
前記入力部は、前記入力情報を示す音声情報及び前記訂正情報を示す音声情報を入力する音声入力部を含み、
前記入力装置は、更に、
前記音声入力部で入力された前記音声情報が前記入力情報であるか、又は前記訂正情報であるかを判定する判定部を備え、
前記類似度算出部は、前記判定部によって音声情報が前記訂正情報であると判定された場合、前記類似度を算出してもよい。
このような構成により、音声入力によって情報の入力および訂正を容易に行うことができる。
本開示の第10態様の入力装置においては、
前記入力情報は、文字列が撮影された画像情報であり、
前記訂正情報は、1つ又は複数の文字の情報を含む音声情報であり、
前記入力部は、前記画像情報を取得する画像取得部と、前記音声情報を入力する音声入力部と、を有し、
前記入力装置は、更に、
前記画像取得部で取得された前記画像情報に含まれる文字列情報をテキスト情報に変換する第1変換部と、
前記音声入力部で入力された前記音声情報に含まれる1つ又は複数の文字の情報をテキスト情報に変換する第2変換部と、
を備えてもよい。
このような構成により、画像情報により取得された入力情報を、音声入力により容易に訂正することができる。
本開示の第11態様の入力方法においては、
移動体において実施される入力方法であって、
文字列を含む入力情報を入力するステップ、
1つ又は複数の文字を含む訂正情報を入力するステップ、
前記訂正情報の1つ又は複数の文字を用いて前記入力情報の文字列を編集し、編集前と編集後の前記入力情報の文字列の類似度を算出するステップ、
算出された前記類似度に基づいて前記入力情報の文字列を訂正するステップ、
を含む。
このような構成により、入力情報を容易に訂正することができる。
本開示の第12態様の入力システムにおいては、
移動体に搭載される演算処理装置と、
前記演算処理装置とネットワークを介して通信するサーバと、
を備え、
前記演算処理装置は、
文字列を含む入力情報および、1つ又は複数の文字を含む訂正情報を入力する入力部と、
前記サーバとネットワークを介して通信する第1通信部と、
を有し、
前記サーバは、
前記演算処理装置と前記ネットワークを介して通信する第2通信部と、
前記訂正情報の1つ又は複数の文字を用いて前記入力情報の文字列を編集し、編集前と編集後の前記入力情報の文字列の類似度を算出する類似度算出部と、
前記類似度算出部で算出された前記類似度に基づいて前記入力情報の文字列を訂正する訂正処理部と、
を有する。
このような構成により、入力情報を容易に訂正することができる。
以下、本開示の実施形態について、添付の図面を参照しながら説明する。また、各図においては、説明を容易なものとするため、各要素を誇張して示している。
(実施の形態1)
[入力装置]
図1は、本開示に係る実施の形態1の入力装置1の構成の一例を示すブロック図である。図1に示す入力装置1は、自動車などの移動体に搭載される装置である。入力装置1は、入力情報および訂正情報を入力可能な装置である。入力装置1は、入力情報が誤って入力された場合に、訂正情報を入力することによって入力情報を訂正する。なお、実施の形態1では、入力情報および訂正情報は音声入力によって入力される。
入力情報とは、入力装置1に入力される情報であり、入力装置1に認識させる文字情報を含む。訂正情報とは、入力情報を訂正するための情報であり、入力情報に含まれる文字情報を訂正する文字情報を含む。実施の形態1では、入力情報は、自動車のナンバープレートの文字列を含む文字情報を含む。自動車のナンバープレートの文字列は、例えば、アルファベット、数字、地名などを含む。訂正情報は、自動車のナンバープレートに使用される1つ又は複数の文字の情報を含む。
図2は、入力情報の一例を示す概略図である。図2に示すように、入力情報は、複数の文字列を含む。図2に示す例では、入力情報は、「ABC AECD」のアルファベット7文字を示すナンバー部分の第1文字列と、「Chicago」を示す地名部分の第2文字列と、を含む。
また、入力情報は、複数の属性情報を有する。具体的には、入力情報において、複数の文字列のそれぞれに属性情報が与えられている。図2に示す例では、第1属性情報と、第2属性情報とを有する。第1属性情報はアルファベット7文字を示すナンバー部の属性を含む。第2属性情報は地名の属性を含む。実施の形態1では、第1属性情報は、入力情報の第1文字列に割り当てられており、第2属性情報は入力情報の第2文字列に割り当てられている。
次に、入力装置1による入力情報の訂正の一例について図3を用いて簡単に説明する。図3は、入力情報の訂正の一例を示す概略図である。図3に示すように、自動車のナンバープレートの文字情報を入力装置1に入力するために、ユーザが「ABC AECD,Chicago」と発話する。入力装置1は、ユーザの音声情報をテキスト情報に変換し、入力情報を認識する。このとき、入力装置1は、入力情報を誤って認識する場合がある。
図3に示す例では、入力装置1は入力情報を「ADC AECD,Chicago」と誤って認識している。ユーザは、入力情報を訂正するために「ABC」と発話し、訂正情報を入力装置1に入力する。入力装置1は、訂正情報に基づいて入力情報を訂正する。これにより、入力情報を「ABC AECD,Chicago」に訂正することができる。
このように、入力装置1では、入力情報の文字列すべてを訂正しなくても、訂正したい文字列の一部を訂正情報として入力することによって、入力情報の文字列を訂正することができる。訂正情報に基づく入力情報の訂正は、文字列の類似度に基づいて行う。類似度による訂正の詳細な説明については後述する。
次に、入力装置1の詳細な構成について説明する。図1に示すように、入力装置1は、入力部10、情報処理部20、判定部30、入力記憶部40、類似度算出部50、訂正処理部60および表示部70を備える。
<入力部>
入力部10は、文字列を含む入力情報および、1つ又は複数の文字を含む訂正情報を入力する。
入力部10は、例えば、音声により入力情報および訂正情報を入力する音声入力部を備える。音声入力部としては、例えば、マイクロホンが挙げられる。実施の形態1では、入力情報および訂正情報は、音声入力によって入力部10に入力される。即ち、入力部10には、入力情報を示す音声情報および訂正情報を示す音声情報が入力される。
入力部10に入力された音声情報は、情報処理部20に送信される。
<情報処理部>
情報処理部20は、入力部10で入力された情報を処理する。具体的には、情報処理部20は、入力部10で入力された音声情報をテキスト情報(文字情報)に変換する変換部を備える。変換部は、音声情報をテキスト情報(文字情報)へと変換することによって、入力情報及び訂正情報を取得する。音声情報を文字情報に変換するアルゴリズムとしては、例えば、各種ディープラーニング手法や隠れマルコフモデルを利用した方法などを用いることができる。
情報処理部20で処理された情報は、判定部30に送信される。
<判定部>
判定部30は、入力部10で入力された音声情報が入力情報であるか、又は訂正情報であるかを判定する。例えば、判定部30は、情報処理部20で処理されたテキスト情報に基づいて、文字数をカウントする。判定部30は、文字数が所定の数以上である場合、入力部10で入力された情報が入力情報であると判定する。また、判定部30は、文字数が所定の数より少ない場合、入力部10で入力された情報が訂正情報であると判定する。
判定部30は、入力部10で入力された情報が入力情報であると判定した場合、入力情報を入力記憶部40に送信する。判定部30は、入力部10で入力された情報が訂正情報であると判定した場合、訂正情報を類似度算出部50に送信する。
<入力記憶部>
入力記憶部40は、入力情報を記憶する記憶媒体である。入力記憶部40は、判定部30及び訂正処理部60から入力情報を受信し、記憶する。例えば、入力記憶部40は、ハードディスク(HDD)、SSD、RAM、DRAM、強誘電体メモリ、フラッシュメモリ、磁気ディスク、又はこれらの組み合わせによって実現できる。
<類似度算出部>
類似度算出部50は、訂正情報の1つ又は複数の文字を用いて入力情報の文字列を編集し、編集前と編集後の入力情報の文字列の類似度を算出する。具体的には、類似度算出部50は、入力情報の1〜n番目の文字を編集開始位置とし、編集開始位置から入力情報の文字を訂正情報の文字に変更する編集を行う。類似度算出部50は、編集前後の入力情報の文字列の類似度を算出する。なお、「n番目」は、入力情報の文字数と訂正情報の文字数に基づいて決定される。例えば、「n=(入力情報の文字数)−(訂正情報の文字数)」で算出される。即ち、類似度算出部50は、入力情報の文字列に対してn回の編集処理を実施し、それぞれの編集処理に対して類似度を算出する。
文字列の類似度の算出の一例について図4A及び図4Bを用いて説明する。図4A及び図4Bは、文字列の類似度の算出の一例を説明する概略図である。なお、図4A及び図4Bに示す例は、図3に示す訂正が実施される際に行われる類似度の算出を示す。言い換えると、図4A及び図4Bに示す例は、誤った入力情報である「ADC AECD」を、訂正情報の「ABC」の入力によって、入力情報を「ABC AECD」に訂正する際に実施される類似度の算出を示す。
図4Aに示すように、類似度算出部50は、編集前の入力情報「ADC AECD」に対して編集を実施する。類似度算出部50は、編集開始位置を入力情報の1番目の文字「A」とする。類似度算出部50は、入力情報の1番目の文字「A」の位置から編集を開始する。具体的には、類似度算出部50は、入力情報の1〜3番目の文字である「ADC」を訂正情報の「ABC」に変更する。類似度算出部50は、編集前の入力情報「ADC AECD」と編集後の入力情報「ABC AECD」との類似度を算出する。
次に、類似度算出部50は、編集開始位置を入力情報の2番目の文字「D」とする。類似度算出部50は、入力情報の2番目の文字「D」から編集を開始する。図4Bに示すように、類似度算出部50は、入力情報の2〜4番目の文字である「DCA」を訂正情報の「ABC」に変更する。類似度算出部50は、編集前の入力情報「ADC AECD」と編集後の入力情報「AAB CECD」の類似度を算出する。
このように、類似度算出部50は、訂正情報の1つ又は複数の文字を用いて入力情報の1〜n番目の文字を編集開始位置として入力情報の文字列を順次編集し、編集前と編集後の入力情報の文字列の類似度をそれぞれ算出する。
類似度の算出方法については、任意のアルゴリズムを採用することができる。例えば、類似度の算出方法は、レーベンシュタイン距離とジャロ・ウィンクラー距離などを算出するアルゴリズムなどを採用することができる。
実施の形態1では、類似度算出部50は、類似度として文字列の距離を算出している。なお、文字列の距離においては、文字列の距離が小さいほど類似度が高いことを示し、文字列の距離が大きいほど類似度が低いことを意味する。以下、文字列の距離を算出する構成の一例について説明する。
図1に戻って、類似度算出部50は、距離算出部51と、属性判定部52と、を有する。
距離算出部51は、訂正情報の1つ又は複数の文字を用いて入力情報の文字列を編集し、編集前と編集後の入力情報の文字列の距離を算出する。具体的には、距離算出部51は、入力情報の文字列に対して挿入、削除、および置換のうち少なくともいずれか1つの編集処理を実施することによって、編集前と編集後の入力情報の文字列の距離を算出する。なお、距離算出部51は、入力記憶部40から編集前の入力情報を取得する。
本明細書において、「削除」とは、入力情報の文字列のうち1つの文字を削除することを意味する。「挿入」とは、入力情報の文字列に1つの文字を挿入することを意味する。「置換」とは、入力情報の文字列ののうち1つの文字を置き換えることを意味する。
距離算出部51による距離の算出の一例について図5A及び図5Bを用いて説明する。図5A及び図5Bは、距離の算出の一例を示す概略図である。なお、図5A及び図5Bに示す例は、図4A及び図4Bに示す類似度の算出に対応する。
図5A及び図5Bに示す例は、編集前の入力情報「ADC AECD」を、訂正情報の「ABC」の入力によって、入力情報「ABC AECD」に編集する場合の文字列の距離の算出を示す。具体的には、距離算出部51は、編集開始位置を入力情報の1番目の文字「A」としている。距離算出部51は、入力情報の1番目の文字「A」の位置から編集を開始する。即ち、図5A及び図5Bに示す例では、入力情報の1〜3番目の文字である「ADC」を訂正情報の「ABC」に変更する場合の距離の算出の一例を示す。
まず、図5Aに示す例について説明する。図5Aに示す例では、入力情報の文字列に対して削除および挿入の編集処理を実施することによって、編集前と編集後の入力情報の文字列の距離を算出する。
入力情報の1〜3番目の文字「ADC」を訂正情報の「ABC」に変更する場合、距離算出部51は、訂正情報の文字と入力情報の1〜3番目の文字とを比較し、入力情報の1〜3番目の文字の中で変更する文字の位置を特定する。図5Aに示す例では、入力情報の2番目の文字「D」のみが訂正情報の文字「B」と異なる。このため、距離算出部51は、入力情報の2番目の文字「D」を訂正情報の2番目の文字「B」に変更するため、入力情報の2番目の文字「D」の位置を特定する。
距離算出部51は、変更する文字の位置を特定した後、特定した位置の文字を編集する。例えば、距離算出部51は、入力情報の2番目の文字「D」を削除する。次に、距離算出部51は、削除した部分に訂正情報の2番目の文字「B」を挿入する。このように、図5Aに示す例では、削除および挿入をそれぞれ1回実施することによって、編集後の入力情報を得ることができる。
距離算出部51は、編集回数と編集コストに基づいて、編集前後の入力情報の文字列の距離を算出する。例えば、削除のコストが「+1」であり、挿入のコストが「+1」である場合、図5Aに示す例では、削除を1回、挿入を1回行っていることから、距離算出部51は、編集前後の入力情報の文字列の距離を「+2」と算出する。
次に、図5Bに示す例について説明する。図5Bに示す例では、入力情報の文字列に対して置換の編集処理を実施することによって、編集前と編集後の入力情報の文字列の距離を算出する。
図5Bに示す例において、距離算出部51は、図5Aに示す例と同様に、入力情報の2番目の文字「D」を訂正情報の2番目の文字「B」に変更するため、入力情報の2番目の文字「D」の位置を特定する。
距離算出部51は、変更する文字の位置を特定した後、特定した位置の文字を編集する。例えば、距離算出部51は、入力情報の2番目の文字「D」を「B」に置換する。このように、図5Bに示す例では、置換を1回実施することによって、編集後の入力情報を得ることができる。
距離算出部51は、編集回数と編集コストに基づいて、編集前後の入力情報の文字列の距離を算出する。例えば、置換のコストが「+3」である場合、図5Bに示す例では、置換を1回行っていることから、距離算出部51は、編集前後の入力情報の文字列の距離を「+3」と算出する。
次に、図6を用いて距離の算出の別例について説明する。図6は、距離の算出の別例を示す概略図である。図6に示す例は、編集前の入力情報「ADC AECD」を、訂正情報の「ABC」の入力によって、入力情報「AAB CECD」に編集する場合の文字列の距離の算出を示す。具体的には、距離算出部51は、編集開始位置を入力情報の2番目の文字「D」とする。距離算出部51、編集を開始する。即ち、図6に示す例では、入力情報の2〜4番目の文字である「DCA」を訂正情報の「ABC」に変更する場合の距離の算出の一例を示す。図6に示す例において、その他の条件は図5Aに示す例と同様である。
入力情報の2〜4番目の文字「DCA」を訂正情報の「ABC」に変更する場合、距離算出部51は、訂正情報の文字と入力情報の2〜4番目の文字とを比較し、入力情報の2〜4番目の文字の中で変更する文字の位置を特定する。図6に示す例では、入力情報の2〜4番目のすべての文字「D」、「C」、「A」が訂正情報の文字と異なる。このため、距離算出部51は、入力情報の2〜4番目の文字「D」、「C」、「A」の位置を特定する。
距離算出部51は、変更する文字の位置を特定した後、特定した位置の文字を編集する。例えば、距離算出部51は、入力情報の2番目の文字「D」を削除し、削除した部分に訂正情報の1番目の文字「A」を挿入する。また、距離算出部51は、入力情報の3番目の文字「C」を削除し、削除した部分に訂正情報の2番目の文字「B」を挿入する。さらに、距離算出部51は、入力情報の4番目の文字「A」を削除し、削除した部分に訂正情報の3番目の文字「C」を挿入する。このように、図6に示す例では、削除および挿入をそれぞれ3回実施することによって、編集後の入力情報を得ることができる。
図6に示す例では、削除を3回、挿入を3回行っていることから、距離算出部51は、編集前後の入力情報の文字列の距離を「+6」と算出する。
ここで、図5Aに示す例と図6に示す例とを比較すると、図5Aに示す例の距離「+2」は、図6に示す距離「+6」よりも小さい。このことから、図5Aに示す例は、図6に示す例よりも類似度が高いことがわかる。
このように、距離算出部51は、入力情報の文字列に対して挿入、削除、および置換のうち少なくともいずれか1つの編集処理を実施することによって、編集前と編集後の入力情報の文字列の距離を算出する。なお、上述した削除、挿入および置換の編集コストの数値については例示であって、これらに限定されない。編集コストについては、任意の数値に設定してもよい。
距離算出部51で算出された文字列の距離の情報は、訂正処理部60に送信される。
属性判定部52は、訂正情報が入力情報の複数の属性のうちいずれの属性に分類されるかを判定する。例えば、属性判定部52は、判定部30から訂正情報を受信し、訂正情報が図2に示す入力情報の第1属性情報と第2属性情報のいずれの属性に分類されるかを判定する。
例えば、訂正情報の文字情報が1つ又は複数のアルファベット文字である場合、属性判定部52は、訂正情報が自動車のナンバー部分の情報であると認識する。この場合、属性判定部52は、訂正情報が第1属性情報であると判定する。あるいは、訂正情報の文字情報が地名である場合、属性判定部52は、訂正情報が地名の情報であると認識する。この場合、属性判定部52は、訂正情報が第2属性情報であると判定する。
属性判定部52で判定された属性情報は、距離算出部51に送信される。距離算出部51は、属性判定部52で判定された属性情報に基づいて、入力情報の複数の文字列のうちいずれの文字列を編集するかを決定する。例えば、訂正情報が第1属性情報に分類される場合、距離算出部51は、図2に示す「ABC AECD」部分の距離を算出し、「Chicago」の部分の距離を算出しない。あるいは、訂正情報が第2属性情報に分類される場合、距離算出部51は、図2に示す「Chicago」部分の距離を算出し、「ABC AECD」の部分の距離を算出しない。
このように、属性情報に基づいて距離を算出することによって、迅速かつスムーズに入力情報を訂正することができる。
<訂正処理部>
訂正処理部60は、類似度算出部50で算出された類似度に基づいて入力情報の文字列を訂正する。上述したように、類似度算出部50は、入力情報の文字列に対してn回の編集処理を実施し、それぞれの編集処理に対して類似度を算出している。訂正処理部60は、類似度算出部50で算出された複数の類似度の中から類似度が最も高い編集処理を特定する。訂正処理部60は、類似度が最も高い編集処理に基づいて入力情報を訂正する。
実施の形態1では、訂正処理部60は、距離算出部51で算出された文字列の距離に基づいて入力情報の文字列を訂正する。訂正処理部60は、距離算出部51で算出された文字列の距離のうち、最も距離が小さい部分の入力情報の文字列を訂正する。例えば、図5Aに示す例と図6に示す例とを比較すると、図5Aに示す例の距離「+2」は、図6に示す距離「+6」よりも小さい。訂正処理部60は、図5Aに示す編集処理を採用し、入力情報のナンバー部分を「ABC AECD」に訂正する。
類似度算出部50で算出された複数の類似度の中で類似度が最も高い編集処理が複数ある場合についての処理について説明する。実施の形態1では、類似度として文字列の距離を用いているため、文字列の距離を用いて説明する。図7は、距離の算出の別例を示す概略図である。図7に示す例は、編集前の入力情報「ADC AECD」を、訂正情報の「ABC」の入力によって、入力情報「ADC ABCD」に編集する場合の文字列の距離の算出を示す。具体的には、距離算出部51は、編集開始位置を入力情報の4番目の文字「A」とする。距離算出部51は、入力情報の4番目の文字「A」の位置から編集を開始する。即ち、図7に示す例では、入力情報の4〜6番目の文字である「AEC」を訂正情報の「ABC」に変更する場合の距離の算出の一例を示す。図7に示す例において、その他の条件は図5Aに示す例と同様である。
図7に示す例では、距離算出部51は、入力情報の5番目の文字「E」を削除する。次に、距離算出部51は、削除した部分に訂正情報の2番目の文字「B」を挿入する。このように、図7に示す例では、削除および挿入をそれぞれ1回実施することによって、編集後の入力情報を得ることができる。
図7に示す例では、削除を1回、挿入を1回行っていることから、距離算出部51は、編集前後の入力情報の文字列の距離を「+2」と算出する。図5Aに示す例と図7に示す例とを比較すると、距離「+2」で等しい。この場合、訂正処理部60は、入力情報の文字列において、最初に算出された距離が最も小さい部分の文字を訂正する。即ち、訂正処理部60は、図5Aに示す例の編集処理を採用し、入力情報のナンバー部分を「ABC AECD」に訂正する。
このように、訂正処理部60は、入力情報の文字列において、距離算出部51によって算出される複数の距離のうち距離が最も大きい部分が複数存在する場合、最初に算出された距離が最も小さい部分の文字を訂正する。言い換えると、訂正処理部60は、入力情報の文字列において、類似度算出部50によって算出される複数の類似度のうち類似度が最も高い部分が複数存在する場合、最初に算出された類似度が最も高い部分の文字を訂正する。
訂正処理部60によって訂正された入力情報は、入力記憶部40に送信される。
<表示部>
表示部70は、入力情報および訂正された入力情報を表示する。表示部70は、入力記憶部40から入力情報および訂正された入力情報を取得する。表示部70は、例えば、ディスプレイ又はヘッドアップディスプレイにより実現できる。
入力装置1を構成する要素は、例えば、半導体素子などで実現可能である。入力装置1を構成する要素は、例えば、マイコン、CPU、MPU、GPU、DSP、FPGA、ASICで構成することができる。入力装置1を構成する要素の機能は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。
入力装置1を構成する要素は、例えば、制御部によって統括的に制御される。制御部は、例えば、プログラムを記憶したメモリと、CPU(Central Processing Unit)などのプロセッサに対応する処理回路(図示せず)を備える。例えば、制御部においては、プロセッサがメモリに記憶されたプログラムを実行する。実施の形態1では、制御部は、入力部10、情報処理部20、判定部30、入力記憶部40、類似度算出部50、訂正処理部60および表示部70を制御する。
[入力方法]
実施の形態1の入力方法の一例、即ち、入力装置1の動作の一例について図8を用いて説明する。図8は、本開示に係る実施の形態1の入力方法の一例を示すフローチャートである。図8に示すステップST1〜ST6は、入力装置1によって実施される。以下、詳細に説明する。
図8に示すように、ステップST1において、入力部10によって音声情報を入力する。ステップST1では、ユーザが発話することによって、入力部10に音声情報を入力する。
ステップST1で入力される音声情報は、入力情報又は訂正情報として用いられる。入力情報を音声情報で入力する場合、図3に示す例のように、ユーザは入力部10に向かって「ABC AECD,Chicago」と発話する。訂正情報を音声情報で入力する場合、図3に示す例のように、ユーザは入力部10に向かって「ABC」と発話する。
ステップST2において、情報処理部20によって音声情報をテキスト情報に変換する。ステップST2においては、ステップST1で入力部10に入力された音声情報をテキスト情報(文字情報)に変換する。これにより、入力情報および訂正情報を取得する。このとき、情報処理部20は、音声情報を誤って認識して変換する場合がある。例えば、図3に示す例のように、入力部10に入力された音声情報の「ABC AECD,Chicago」を「ADC AECD,Chicago」と認識し、テキスト情報に変換する場合がある。
ステップST3において、判定部30によって入力部10で入力された情報が入力情報であるか、又は訂正情報であるかを判定する。具体的には、判定部30は、ステップST2でテキスト変換された文字情報の文字数に基づいて入力情報であるか、又は、訂正情報であるかを判定する。
ステップST3において、判定部30が入力部10で入力された情報が入力情報であると判定する場合、処理はステップST4へと進む。判定部30が入力部10で入力された情報が訂正情報であると判定する場合、処理はステップST5へと進む。
ステップST4において、表示部70によって入力情報を表示する。
ステップST5において、類似度算出部50によって訂正情報の1つ又は複数の文字を用いて入力情報の文字列を編集し、編集前と編集後の入力情報の文字列の類似度を算出する。実施の形態1では、ステップST5において、文字列の類似度として、文字列の距離を算出する。
ステップST5は、訂正情報の属性を判定するステップST5Aと、文字列の距離を算出するステップST5Bと、を含む。
ステップST5Aにおいて、属性判定部52によって訂正情報が複数の属性のうちいずれの属性に分類されるかを判定する。例えば、ステップST5Aにおいては、属性判定部52によって、訂正情報が図3の例に示す第1属性情報と第2属性情報とのいずれの属性に分類されるかを判定する。
ステップST5Bにおいて、距離算出部51によって入力情報と訂正情報の属性に基づいて文字列の距離を算出する。例えば、ステップST5Bにおいては、訂正情報が第1属性情報の属性に分類される場合、距離算出部51は、入力情報の第1属性情報の部分を訂正情報の1つ又は複数の文字を用いて編集し、編集前後の入力情報の文字列の距離を算出する。
ステップST6において、訂正処理部60によって類似度に基づいて入力情報の文字列を訂正する。具体的には、訂正処理部60は、ステップST5Bで算出された文字列の距離のうち、最も距離が小さい部分の入力情報の文字列を訂正する。
ステップST6で入力情報が訂正された後、ステップST4へ進む。これにより、訂正された入力情報が表示部によって表示される。
[訂正の別例]
次に、入力情報の訂正の別例について図9及び図10を用いて説明する。図9及び図10は、入力情報の訂正の別例を示す概略図である。
図9に示す例について説明する。図9に示す例では、自動車のナンバープレートの文字情報を入力装置1に入力するために、ユーザが「ABC AECD,Chicago」と発話する。図9に示す例では、入力装置1は入力情報を「ABC ADCD,Chicago」と誤って認識している。即ち、入力情報のナンバー部分の5番目の文字を誤って「D」と認識している。この場合、ユーザは、入力情報を訂正するために「ABC AECD」と発話し、訂正情報を入力装置1に入力する。入力装置1は、上述したように類似度に基づいて入力情報を訂正することによって、入力情報を「ABC AECD,Chicago」に訂正する。
次に、図10に示す例について説明する。図10に示す例では、自動車のナンバープレートの文字情報を入力装置1に入力するために、ユーザが「ABC AECD,Chicago」と発話する。図10に示す例では、入力装置1は入力情報を「ABC AECD,Florida」と誤って認識している。即ち、入力情報の地名部分を誤って「Florida」と認識している。この場合、ユーザは、入力情報を訂正するために「Chicago」と発話し、訂正情報を入力装置1に入力する。入力装置1は、上述したように類似度に基づいて入力情報を訂正することによって、入力情報を「ABC AECD,Chicago」に訂正する。なお、地名については、入力記憶部40に予め複数の地名が記憶されており、複数の地名の中からユーザの入力した地名に一致する地名又は類似する地名が選択される。
[効果]
実施の形態1の入力装置1および入力方法によれば、以下の効果を奏することができる。
入力装置1は、移動体に搭載される入力装置であって、入力部10、情報処理部20、判定部30、入力記憶部40、類似度算出部50、訂正処理部60および表示部70を備える。入力部10は、文字列を含む入力情報および、1つ又は複数の文字を含む訂正情報を音声入力により入力する。情報処理部20は、入力部10で入力された音声情報をテキスト情報に変換する。判定部30は、入力部10で入力された音声情報が入力情報であるか、又は訂正情報であるかを判定する。入力記憶部40は、入力情報を記憶する記憶媒体である。類似度算出部50は、訂正情報の1つ又は複数の文字を用いて入力情報の文字列を編集し、編集前と編集後の入力情報の文字列の類似度を算出する。訂正処理部60は、類似度算出部50で算出された類似度に基づいて入力情報の文字列を訂正する。表示部70は、表示部70は、入力情報および訂正された入力情報を表示する。
このような構成により、入力情報が誤って入力された場合でも入力情報を容易に訂正することができる。また、ユーザが自動車などの移動体を運転中であっても、音声入力により迅速かつスムーズに入力情報を訂正することができる。
類似度算出部50は、訂正情報の1つ又は複数の文字を用いて入力情報の文字列を編集し、編集前と編集後の前記入力情報の文字列の距離を算出する距離算出部51を含む。訂正処理部60は、距離算出部51で算出された文字列の距離に基づいて入力情報の文字列を訂正する。
このような構成により、文字列の距離に基づいて類似度を算出することができ、入力情報をより容易に訂正することができる。また、訂正の精度を向上させることができる。
距離算出部51は、入力情報の文字列に対して挿入、削除、および置換のうち少なくともいずれか1つの編集処理を実施することによって、編集前と編集後の入力情報の文字列の距離を算出する。
このような構成により、入力情報をより容易に訂正することができる。また、訂正の精度をより向上させることができる。
訂正処理部60は、距離算出部51で算出された文字列の距離のうち、最も距離が小さい部分の入力情報の文字列を訂正する。
このような構成により、入力情報をより容易に訂正することができる。また、訂正の精度をさらに向上させることができる。
入力情報は、入力情報の複数の文字列を分類する複数の属性を有する。類似度算出部50は、訂正情報が複数の属性のうちいずれの属性に分類されるかを判定する属性判定部52を有する。類似度算出部50は、入力情報と訂正情報の属性に基づいて、類似度を算出する。
このような構成により、入力情報をより迅速かつスムーズに訂正することができる。
訂正処理部60は、入力情報と訂正情報との属性が一致する入力情報の文字列のうち、最も類似度が高い部分の文字を訂正する。
このような構成により、入力情報をより容易に訂正することができる。また、入力情報をより迅速かつスムーズに訂正することができる。
訂正処理部60は、入力情報の文字列において、類似度算出部50によって算出される複数の類似度のうち類似度が最も高い部分が複数存在する場合、最初に算出された類似度が最も高い部分の文字を訂正する。
このような構成により、入力情報をより容易に訂正することができる。また、入力情報をより迅速かつスムーズに訂正することができる。
実施の形態1の入力方法についても、上述した入力装置1の効果と同様の効果を奏する。
なお、実施の形態1では、入力情報が自動車のナンバープレートの文字列情報である例について説明したが、これに限定されない。入力情報は、文字列の情報を有していればよい。例えば、入力情報は、住所、地名、人名、建物名、電話番号などの文字列情報を含んでいてもよい。
実施の形態1では、入力情報が複数の文字列を有する例について説明したが、これに限定されない。例えば、入力情報は、1つ又は複数の文字列を有していればよい。
実施の形態1では、入力情報および訂正情報が属性情報を有する例について説明したが、これに限定されない。例えば、入力情報および訂正情報は属性情報を有していなくてもよい。
実施の形態1では、属性情報が、自動車のナンバープレートのナンバー部分を示す第1属性情報と、地名部分を示す第2属性情報と、を含む例について説明したが、これに限定されない。属性情報は、属性を示す情報であればよい。例えば、属性情報は、Alpha、Bravoなどのコードであってもよい。
実施の形態1では、訂正情報の例として図3、図9および図10を説明したが、これに限定されない。訂正情報は、入力情報を訂正するための情報であり、類似度に基づいて訂正できる1つ又は複数の文字の情報を含んでいればよい。
実施の形態1では、入力部10が音声入力部を備える例について説明したが、これに限定されない。入力部10は、入力情報と訂正情報とが入力できるものであればよい。例えば、入力部10は、タッチパネル、キーボードなどの入力インタフェースを備えていてもよい。あるいは、入力部10は、画像取得部を備えていてもよい。この場合、画像取得部で取得された画像情報から文字情報を取得する。
実施の形態1では、入力装置1が情報処理部20および判定部30を備える例について説明したが、これに限定されない。情報処理部20および判定部30は必須の構成ではない。例えば、入力部10で入力される情報がテキスト情報である文字情報である場合、入力装置1は情報処理部20を備えていなくてもよい。また、入力情報と訂正情報とをそれぞれ異なる装置で取得する場合、入力装置1は判定部30を備えていなくてもよい。
実施の形態1では、判定部30が文字数に基づいて入力情報と訂正情報とを判定する例について説明したが、これに限定されない。例えば、判定部30は、属性情報などに基づいて入力情報と訂正情報とを判定してもよい。
実施の形態1では、入力装置1が入力記憶部40を備える例について説明したが、これに限定されない。入力記憶部40は必須の構成ではない。
実施の形態1では、類似度算出部50の類似度として、距離算出部51によって算出される文字列の距離を例として説明したが、これに限定されない。距離算出部51は必須の構成ではない。類似度算出部50は、文字列の類似度を算出できればよい。文字列の類似度を算出するアルゴリズムとしては、例えば、レーベンシュタイン距離とジャロ・ウィンクラー距離などを算出するアルゴリズムなどを用いることができる。
実施の形態1では、類似度算出部50が属性判定部52を備える例について説明したが、これに限定されない。属性判定部52は必須の構成ではない。
実施の形態1では、入力装置1が表示部70を備える例について説明したが、これに限定されない。表示部70は必須の構成ではない。例えば、入力装置1は、表示部70の代わりに、入力情報を音声出力する音声出力部を備えていてもよい。あるいは、入力装置1は、表示部70と音声出力部との両方を備えていてもよい。
実施の形態1では、入力装置1が入力部10、情報処理部20、判定部30、入力記憶部40、類似度算出部50、訂正処理部60および表示部70を備える例について説明したが、これに限定されない。入力装置1を構成する要素は、増減してもよい。あるいは、入力装置1を構成する複数の要素のうち2つ以上の要素は、統合されてもよい。
実施の形態1では、入力方法がステップST1〜ST6を含む例について説明したが、これに限定されない。入力方法は、ステップを増減してもよいし、ステップを統合してもよい。例えば、入力情報と訂正情報とが異なる方法で入力される場合、入力方法はステップST3を含んでいなくてもよい。あるいは、入力情報が属性情報を有していない場合、入力方法はステップST5Aを含んでいなくてもよい。
(実施の形態2)
本開示の実施の形態2に係る入力装置について説明する。なお、実施の形態2では、主に実施の形態1と異なる点について説明する。実施の形態2においては、実施の形態1と同一又は同等の構成については同じ符号を付して説明する。また、実施の形態2では、実施の形態1と重複する記載は省略する。
実施の形態2の入力装置の一例について、図11を用いて説明する。図11は、本開示に係る実施の形態2の入力装置1Aの構成の一例を示すブロック図である。
実施の形態2では、入力情報を画像取得部11によって取得し、訂正情報を音声入力部12によって取得している点で、実施の形態1と異なる。
図11に示すように、入力装置1Aは、入力部10A、情報処理部20A、入力記憶部40、類似度算出部50、訂正処理部60および表示部70を備える。実施の形態2では、画像情報に基づいて入力情報が取得され、音声情報に基づいて訂正情報が取得される。このため、入力情報および訂正情報の識別が容易であるため、入力装置1Aは判定部30を有していなくてもよい。
入力部10Aは、画像取得部11と、音声入力部12と、を有する。
画像取得部11は、画像情報を取得する。画像取得部11は、例えば、入力する文字列の画像を撮影するカメラである。実施の形態2では、画像取得部11は、自動車のナンバープレートに記載された文字列を含む画像情報を取得する。例えば、画像取得部11は、「ABC AECD,Chicago」と記載された自動車のナンバープレートを含む画像情報を取得する。画像取得部11で取得された画像情報は、情報処理部20Aに送信される。なお、画像情報としては、例えば、静止画、動画などの情報を用いることができる。
音声入力部12は、音声情報を入力する。音声入力部12は、例えば、ユーザの音声情報を入力するマイクロホンである。例えば、ユーザが音声入力部12に向かって「ABC」と発話することによって、音声情報が音声入力部12に入力される。音声入力部12に入力された音声情報は、情報処理部20Aに送信される。
実施の形態2では、画像取得部11は、音声入力部12に入力された音声入力によって制御されてもよい。例えば、ユーザが音声入力部12に対して、音声入力として「Capture」と発話する。この音声入力をトリガとして、画像取得部11は画像情報を取得してもよい。
情報処理部20Aは、入力部10Aで取得した画像情報および音声情報をテキスト情報(文字情報)に変換する。情報処理部20Aは、画像処理部21、音声処理部22、第1変換部23および第2変換部24を有する。
画像処理部21は、画像取得部11で取得された画像情報から文字列情報を抽出する処理を行う。例えば、画像情報が複数の自動車のナンバープレートを含んでいる場合、ユーザによって選択された自動車のナンバープレートに記載されている文字列情報を抽出する。画像処理部21で処理された画像情報は、第1変換部23に送信される。
音声処理部22は、音声入力部12で入力された音声情報から文字情報を抽出する処理を行う。例えば、音声情報にノイズが含まれている場合、ノイズをフィルタリングしつつ、ユーザが発話した1つ又は複数の文字の情報を抽出する。音声処理部22で処理された音声情報は、第2変換部24に送信される。
第1変換部23は、画像処理部21で処理された画像情報に含まれる文字列情報をテキスト情報に変換する。これにより、入力情報を取得する。画像情報を文字列情報に変換するアルゴリズムとしては、例えば、ディープラーニングを利用した方法や、簡易なパターンマッチングなどを用いることができる。
第2変換部24は、音声処理部22で処理された音声情報に含まれる1つ又は複数の文字の情報をテキスト情報に変換する。これにより、訂正情報を取得する。
実施の形態2における入力記憶部40、類似度算出部50、訂正処理部60および表示部70は、実施の形態1と同様であるため、説明を省略する。なお、実施の形態2では、画像取得部11で取得した画像情報及び画像処理部21で処理された画像情報は、表示部70に送信され、表示部70に表示されてもよい。
入力装置1Aを構成する要素は、例えば、半導体素子などで実現可能である。入力装置1Aを構成する要素は、例えば、マイコン、CPU、MPU、GPU、DSP、FPGA、ASICで構成することができる。入力装置1Aを構成する要素の機能は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。
入力装置1Aを構成する要素は、例えば、制御部によって統括的に制御される。制御部は、例えば、プログラムを記憶したメモリと、CPU(Central Processing Unit)などのプロセッサに対応する処理回路(図示せず)を備える。例えば、制御部においては、プロセッサがメモリに記憶されたプログラムを実行する。実施の形態2では、制御部は、入力部10A、情報処理部20A、入力記憶部40、類似度算出部50、訂正処理部60および表示部70を制御する。
次に、実施の形態2の入力方法の一例、即ち、入力装置1Aの動作の一例について図12を用いて説明する。図12は、本開示に係る実施の形態2の入力方法の一例を示すフローチャートである。図12に示すステップST10〜ST17は、入力装置1Aによって実施される。以下、詳細に説明する。なお、図12に示すステップST15及びST16は、実施の形態1のステップST5及びST6と同様である。
図12に示すように、ステップST10において、画像取得部11によって画像情報を取得する。ステップST10では、例えば、ユーザが「Capture」と発話することによって、画像取得部11が文字列情報を含む画像情報を取得する。
ステップST11において、画像処理部21及び第1変換部23によって画像取得部11で取得された画像情報に含まれる文字列情報をテキスト情報(文字情報)に変換する。例えば、画像情報に「ABC AECD,Chicago」の文字列情報が存在する場合、この文字列情報がテキスト情報に変換される。これにより、入力情報を取得する。このとき、図3に示す例と同様に、入力情報が「ADC AECD,Chicago」と誤って認識される場合がある。
ステップST12において、表示部70によって入力情報を表示する。ステップST12では、画像情報に基づいて入力された入力情報を表示部70によって表示する。ユーザは、表示部70に表示された入力情報を確認することができる。これにより、ユーザは入力情報が誤って入力されていることを確認することができる。
ステップST13において、音声入力部12によって音声情報を入力する。ステップST13では、例えば、ユーザが「ABC」と発話することによって、音声入力部12に音声情報を入力する。
ステップST14において、音声処理部22および第2変換部24によって音声入力部12で入力された音声情報に含まれる1つ又は複数の文字の情報をテキスト情報に変換する。これにより、訂正情報を取得する。
ステップST15において、類似度算出部50によって訂正情報の1つ又は複数の文字を用いて入力情報の文字列を編集し、編集前と編集後の入力情報の文字列の類似度を算出する。
ステップST15は、訂正情報の属性を判定するステップST15Aと、文字列の距離を算出するステップST15Bと、を含む。ステップST15A及びST15Bは、実施の形態1のステップST5A及びST5Bと同様であるため、説明を省略する。
ステップST16において、訂正処理部60によって類似度に基づいて入力情報の文字列を訂正する。
ステップST17において、訂正された入力情報を表示部70によって表示する。
[入力情報の取得の例]
実施の形態2における入力情報の取得の一例について、図13A〜図13Dを用いて説明する。図13A〜図13Dは、入力情報の取得の一例を説明する概略図である。図13A〜図13Dに示す例では、表示部70に表示される画面を示しており、複数の文字列情報が含まれる画像情報から入力情報を取得する例について示す。
図13Aに示すように、ユーザは、音声入力部12に向かって「Capture」と発話する。これにより、画像取得部11が画像情報を取得する。図13Aに示す例では、3台の自動車C1,C2,C3が撮影されている。自動車C1,C2,C3は、それぞれ、文字列情報が記載されたナンバープレートを有している。このため、画像取得部11が取得した画像情報には、3つの文字列情報が存在する。画像取得部11で取得された画像情報は、画像処理部21に送信される。
図13Bに示すように、表示部70に、自動車C1,C2,C3の選択画面を表示する。具体的には、画像処理部21は、画像取得部11で取得された画像情報から、自動車C1,C2,C3の3つの文字列情報を抽出し、自動車C1,C2,C3のそれぞれに対し、選択番号「1」、「2」、「3」を割り当てる。
図13Cに示すように、画像処理部21は、選択番号「1」、「2」、「3」を自動車C1,C2,C3のナンバープレートの位置に対応させて、表示部70に表示する。例えば、自動車C1のナンバープレート部分を切り取った画像情報と選択番号「1」を表示する。自動車C2のナンバープレート部分を切り取った画像情報と選択番号「2」を表示する。自動車C3のナンバープレート部分を切り取った画像情報と選択番号「3」を表示する。ユーザは、選択番号を音声入力部12に発話することによって、選択番号を選択する。例えば、ユーザは選択番号「2」を発話することによって、自動車C2のナンバープレート部分の画像情報を選択する。選択された画像情報は、第1変換部23に送信される。
図13Dに示すように、第1変換部23は、画像情報に含まれる文字列情報をテキスト情報に変換する。
図13A〜図13Dに示す例のように、複数の文字列情報が含まれる画像情報においては、複数の文字列情報の中から1つの文字列情報をユーザが選択し、入力情報を取得することができる。
実施の形態2における入力情報の取得の別例について、図14A〜図14Cを用いて説明する。図14A〜図14Cは、入力情報の取得の別例を説明する概略図である。図14A〜図14Dに示す例では、表示部70に映される画面を示しており、複数の文字列情報が含まれる画像情報から入力情報を取得する例について示す。
図14Aに示すように、表示部70に表示される画像情報を複数の領域に分割する。図14Aに示す例では、画像情報を4つの領域に分割する。例えば、画像処理部21は、画像取得部11で取得された画像情報を、左上、右上、左下および右下の4つの領域に分割する。また、画像処理部21は、左上、右上、右下および左下の領域に対して、それぞれ、選択番号「1」、「2」、「3」、「4」を割り当てる。ユーザは、4つの領域のいずれかを選択する。例えば、自動車C1のナンバープレート部分の文字列情報を入力情報として取得したい場合、ユーザは、音声入力部12に向かって選択番号「4」を発話する。
図14Bに示すように、表示部70に表示される画像情報において、ユーザが選択した領域が強調して表示される。次に、ユーザは、音声入力部12に向かって「Capture」と発話する。これにより、画像取得部11が自動車C1のナンバープレート部分を含む画像情報を取得する。画像取得部11で取得された画像情報は、第1変換部23によってテキスト情報(文字情報)に変換される。これにより、入力情報を取得する。
図14Cに示すように、表示部70に、入力情報であるテキスト情報(文字情報)と自動車C1の画像情報とを表示する。また、表示部70には、入力情報が誤っていないかを確認するメッセージを表示する。これにより、ユーザは入力情報を確認することができる。
図14A〜図14Cに示す例のように、画像情報を複数の領域に分割し、複数の領域の中から1つの領域をユーザが選択し、選択した領域の画像情報から入力情報を取得することができる。
実施の形態2における入力情報の取得の別例について、図15A及び図15Bを用いて説明する。図15A及び図15Bは、入力情報の取得の別例を説明する概略図である。図15A及び図15Bに示す例では、表示部70に映される画面を示しており、複数の文字列情報が含まれる画像情報から入力情報を取得する例について示す。なお、図15A及び図15Bに示す例では、画像情報が自動車C1,C2,C3のカラー情報を含む。例えば、自動車C1の色は赤色であり、自動車C2の色は灰色であり、自動車C3の色は青色である。
図15Aに示すように、ユーザは、音声入力部12に向かって「Capture red」と発話する。これにより、画像取得部11が赤色の自動車C1の画像情報を取得する。例えば、画像処理部21は、画像取得部11から取得される画像情報から自動車C1,C2,C3の色を識別する。これにより、画像取得部11は、音声入力部12に入力されたユーザの色を指定する音声情報に基づいて、ユーザの指定した色の自動車の画像情報を取得する。
図15Cに示すように、表示部70に、入力情報であるテキスト情報(文字情報)、自動車C1の画像情報および自動車C1の色の情報を表示する。また、表示部70には、入力情報が誤っていないかを確認するメッセージを表示する。これにより、ユーザは入力情報を確認することができる。
図15A及び図15Bに示す例のように、複数の色を有する対象物が画像情報に含まれている場合、ユーザが色指定をすることによって、指定した色を有する対象物の画像情報を取得し、取得した画像情報から入力情報を取得することができる。
実施の形態2における入力情報の取得の別例について、図16A〜図16Dを用いて説明する。図16A〜図16Dは、入力情報の取得の別例を説明する概略図である。図16A〜図16Dに示す例では、表示部70に映される画面を示しており、複数の文字列情報が含まれる画像情報から入力情報を取得する例について示す。なお、図16A〜図16Dに示す例では、画像情報が自動車C1,C2,C3のカラー情報を含む。例えば、自動車C1,C2の色は赤色であり、自動車C3の色は青色である。
図16Aに示すように、ユーザは、音声入力部12に向かって「Capture red」と発話する。画像処理部21は、画像取得部11から取得される画像情報から自動車C1,C2,C3の色を識別する。図16Aに示す例では、自動車C1,C2が赤色である。
このため、図16Bに示すように、画像処理部21は、自動車C1,C2に対して選択番号「1」、「2」を割り当てる。ユーザは、選択番号を音声入力部12に発話することによって、選択番号を選択する。例えば、ユーザは選択番号「2」を発話することによって、自動車C2を選択する。これにより、画像取得部11が自動車C2の画像情報を取得する。
図16Cに示すように、表示部70に、入力情報であるテキスト情報(文字情報)、自動車C2の画像情報および自動車C2の色の情報を表示する。また、表示部70には、入力情報が誤っていないかを確認するメッセージを表示する。これにより、ユーザは入力情報を確認することができる。
図16Dに示す例では、図16Bと同様に、同じ色の複数の自動車が画像情報に含まれている場合に、ユーザが選択した自動車を強調して示している。このように、ユーザが選択した自動車が矩形状の枠によって表示されることによって、ユーザは選択した自動車を容易に確認することができる。
図16A〜図16Dに示す例のように、同じ色を有する複数の対象物が画像情報に含まれる場合、ユーザが色と選択番号を指定することによって、指定した対象物の画像情報を取得し、取得した画像情報から入力情報を取得することができる。
[効果]
実施の形態2の入力装置1Aおよび入力方法によれば、以下の効果を奏することができる。
入力装置1Aにおいては、入力情報は文字列が撮影された画像情報であり、訂正情報は1つ又は複数の文字の情報を含む音声情報である。入力部10Aは、画像情報を取得する画像取得部11と、音声情報を入力する音声入力部12と、を有する。情報処理部20Aは、第1変換部23と、第2変換部24と、を有する。第1変換部23は、画像取得部11で取得された画像情報に含まれる文字列情報をテキスト情報に変換する。第2変換部24は、音声入力部12で入力された音声情報に含まれる1つ又は複数の文字の情報をテキスト情報に変換する。
このような構成により、入力情報をより容易に訂正することができる。また、入力情報を画像情報で取得し、訂正情報を音声情報で入力することによって、入力情報の取得および入力情報の訂正を迅速かつスムーズに行うことができる。
実施の形態2の入力方法についても、上述した入力装置1Aの効果と同様の効果を奏する。
なお、実施の形態2では、情報処理部20Aが画像処理部21および音声処理部22を備える例について説明したが、これに限定されない。画像処理部21および音声処理部22は、必須の構成ではない。
実施の形態2では、入力方法がステップST10〜ST17を含む例について説明したが、これに限定されない。入力方法は、ステップを増減してもよいし、ステップを統合してもよい。例えば、入力方法は、訂正情報が入力されたか否かを判定するステップを有していてもよい。この場合、訂正情報が入力されている場合、処理がステップST14〜ST17に進んでもよい。訂正情報が入力されていない場合、処理が終了してもよい。
実施の形態2では、入力情報の取得の例として、図13A〜13D、図14A〜14C、図15A〜15Bおよび図16A〜16Dに示す例を挙げて説明したが、入力情報の取得はこれらに限定されない。実施の形態2では、画像情報から入力情報を取得すればよい。
(実施の形態3)
本開示の実施の形態3に係る入力装置について説明する。なお、実施の形態3では、主に実施の形態2と異なる点について説明する。実施の形態3においては、実施の形態2と同一又は同等の構成については同じ符号を付して説明する。また、実施の形態3では、実施の形態2と重複する記載は省略する。
実施の形態3の入力装置の一例について、図17を用いて説明する。図17は、本開示に係る実施の形態3の入力装置1Bの構成の一例を示すブロック図である。
実施の形態3では、視線検知部13を備える点で、実施の形態2と異なる。
図17に示すように、入力装置1Bの入力部10Bは、画像取得部11および音声入力部12に加えて、視線検知部13を備える。
視線検知部13は、ユーザの視線を検知する。視線検知部13は、例えば、ユーザの顔部分を撮影するカメラである。視線検知部13で検知されたユーザの視線の情報は、画像処理部21に送信される。
図18は、入力情報の取得の一例を説明する概略図である。図18に示す例では、表示部70に映される画面を示しており、複数の文字列情報が含まれる画像情報から入力情報を取得する例について示す。
図18に示すように、視線検知部13は、ユーザの視線を検知し、ユーザが自動車C1,C2,C3のうちいずれの自動車を見ているかを検知する。画像処理部21は、視線検知部13によって検知されたユーザの視線の情報に基づいて、ユーザが見ている自動車を判定する。図15に示す例では、画像処理部21は、ユーザが自動車C3を見ていると判定する。
画像処理部21は、ユーザが見ていると判定した自動車C3に対して、矩形状の枠を表示してもよい。矩形状の枠は、表示部70に表示される。これにより、ユーザは、ユーザ自身が視線で選択している自動車を確認することができる。
ユーザが音声入力部12に向かって「Capture」と発話することによって、画像取得部11が自動車C3のナンバープレート部分の画像情報を取得する。第1変換部23は、画像情報に含まれる文字列情報をテキスト情報に変換する。
このように、複数の文字列情報が含まれる画像情報においては、ユーザの視線の情報に基づいて複数の文字列情報の中から1つの文字列情報をユーザの視線によって選択し、入力情報を取得することができる。
[効果]
実施の形態3の入力装置1Bによれば、以下の効果を奏することができる。
入力装置1Bの入力部10Bは、画像取得部11および音声入力部12に加えて、視線検知部13を備える。このような構成により、視線検知部13によってユーザの視線の状を取得することができる。これにより、例えば、複数の文字列情報が含まれる画像情報においては、ユーザの視線の情報に基づいて複数の文字列情報の中から1つの文字列情報を選択し、入力情報を取得することができる。その結果、入力情報を迅速かつスムーズに取得することができる。
(実施の形態4)
本開示の実施の形態4に係る入力システムについて説明する。なお、実施の形態4では、主に実施の形態2と異なる点について説明する。実施の形態4においては、実施の形態2と同一又は同等の構成については同じ符号を付して説明する。また、実施の形態4では、実施の形態2と重複する記載は省略する。
実施の形態4の入力システムの一例について、図19を用いて説明する。図19は、本開示に係る実施の形態4の入力システム100の構成の一例を示すブロック図である。
図19に示すように、入力システム100は、移動体に搭載される演算処理装置80と、演算処理装置80とネットワークを介して通信するサーバ90と、を備える。
<演算処理装置>
演算処理装置80は、画像情報および音声情報を取得し、サーバ90へ送信する。
演算処理装置80は、入力部10A、表示部70、記憶部81および第1通信部82を備える。なお、入力部10Aおよび表示部70は、実施の形態2と同様のため説明を省略する。
記憶部81は、入力部10Aで取得した情報及びサーバ90から受信した情報を記憶する記憶媒体である。具体的には、記憶部81は、画像取得部11で取得された画像情報、音声入力部12で入力された音声情報、およびサーバ90で処理された情報を記憶する。
記憶部81は、ハードディスク(HDD)、SSD、RAM、DRAM、強誘電体メモリ、フラッシュメモリ、磁気ディスク、又はこれらの組み合わせによって実現できる。
第1通信部82は、サーバ90とネットワークを介して通信する。第1通信部82は、所定の通信規格に準拠してサーバ90との通信を行う回路を含む。所定の通信規格は、例えば、LAN、Wi−Fi(登録商標)、Bluetooth(登録商標)、USB、HDMI(登録商標)、CAN(controller area network)、SPI(Serial Peripheral Interface)を含む。
演算処理装置80は、入力部10Aで入力された画像情報および音声情報を記憶部81に記憶する。演算処理装置80は、記憶部81に記憶された画像情報および音声情報を、第1通信部82によってネットワークを介してサーバ90に送信する。また、演算処理装置80は、第1通信部82によってネットワークを介してサーバ90から入力情報を受信し、記憶部81に記憶する。演算処理装置80は、表示部70によって入力情報を表示する。
演算処理装置80を構成する要素は、例えば、半導体素子などで実現可能である。演算処理装置80を構成する要素は、例えば、マイコン、CPU、MPU、GPU、DSP、FPGA、ASICで構成することができる。演算処理装置80を構成する要素の機能は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。
演算処理装置80を構成する要素は、例えば、第1制御部によって統括的に制御される。第1制御部は、例えば、プログラムを記憶したメモリと、CPU(Central Processing Unit)などのプロセッサに対応する処理回路(図示せず)を備える。例えば、第1制御部においては、プロセッサがメモリに記憶されたプログラムを実行する。実施の形態4では、第1制御部は、入力部10A、表示部70、記憶部81および第1通信部82を制御する。
<サーバ>
サーバ90は、演算処理装置80から画像情報および音声情報を受信し、画像情報および音声情報に基づいて入力情報および訂正情報を取得する。また、サーバ90は、画像情報により得られた入力情報を、音声情報により得られた訂正情報に基づいて訂正する。
サーバ90は、情報処理部20A、入力記憶部40、類似度算出部50、訂正処理部60および第2通信部91を備える。なお、情報処理部20A、入力記憶部40、類似度算出部50、訂正処理部60は、実施の形態2と同様のため説明を省略する。
第2通信部91は、演算処理装置80とネットワークを介して通信する。第2通信部91は、所定の通信規格に準拠して演算処理装置80との通信を行う回路を含む。所定の通信規格は、例えば、LAN、Wi−Fi(登録商標)、Bluetooth(登録商標)、USB、HDMI(登録商標)、CAN(controller area network)、SPI(Serial Peripheral Interface)を含む。
サーバ90は、第2通信部91によってネットワークを介して、演算処理装置80から画像情報及び音声情報を受信する。サーバ90において、受信した画像情報及び音声情報は、情報処理部20Aに送信される。
情報処理部20Aは、画像情報及び音声情報をテキスト情報に変換し、入力情報および訂正情報を取得する。入力情報は、入力記憶部40に送信され、記憶される、訂正情報は、類似度算出部50に送信される。類似度算出部50は、訂正情報の1つ又は複数の文字を用いて入力情報の文字列を編集し、編集前と編集後の入力情報の文字列の類似度を算出する。類似度の情報は、訂正処理部60に送信される。訂正処理部60は、類似度に基づいて入力情報の文字列を訂正する。訂正された入力情報は、入力記憶部40に送信され、記憶される。
サーバ90は、第2通信部91によってネットワークを介して、入力記憶部40に記憶された入力情報を演算処理装置80に送信する。
サーバ90を構成する要素は、例えば、半導体素子などで実現可能である。サーバ90を構成する要素は、例えば、マイコン、CPU、MPU、GPU、DSP、FPGA、ASICで構成することができる。サーバ90を構成する要素の機能は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。
サーバ90を構成する要素は、例えば、第2制御部によって統括的に制御される。第2制御部は、例えば、プログラムを記憶したメモリと、CPU(Central Processing Unit)などのプロセッサに対応する処理回路(図示せず)を備える。例えば、第2制御部においては、プロセッサがメモリに記憶されたプログラムを実行する。実施の形態4では、第2制御部は、情報処理部20A、入力記憶部40、類似度算出部50、訂正処理部60および第2通信部91を制御する。
次に、実施の形態4の入力方法の一例、即ち、入力システム100の動作の一例について図20を用いて説明する。図20は、本開示に係る実施の形態4の入力方法の一例を示すフローチャートである。図20に示すステップST20〜ST31は、入力システム100によって実施される。以下、詳細に説明する。なお、図20に示すステップST20,ST22,ST24,ST25,ST27〜ST29及びST31は、それぞれ、実施の形態2のステップST10〜ST17と同様である。
図20に示すように、ステップST20において、演算処理装置80の画像取得部11によって画像情報を取得する。ステップST20では、例えば、ユーザが音声入力部12に対して「Capture」と発話することによって、画像取得部11が画像情報を取得する。
ステップST21において、演算処理装置80の第1通信部82によって、ネットワークを介して画像情報をサーバ90に送信する。サーバ90は、第2通信部91によって画像情報を受信する。
ステップST22において、サーバ90の情報処理部20Aによって画像情報に含まれる文字列情報をテキスト情報に変換する。これにより、入力情報を取得する。
ステップST23において、サーバ90の第2通信部によってネットワークを介して入力情報を演算処理装置80に送信する。演算処理装置80は、第1通信部82によって入力情報を受信する。
ステップST24において、演算処理装置80の表示部70によって入力情報を表示する。これにより、ユーザは入力情報が誤って入力されていないかを確認することができる。
ステップST25において、演算処理装置80の音声入力部12によって音声情報を入力する。
ステップST26において、演算処理装置80の第1通信部82によって、ネットワークを介して音声情報をサーバ90に送信する。サーバ90は、第2通信部91によって音声情報を受信する。
ステップST27において、サーバ90の情報処理部20Aによって音声情報に含まれる1つ又は複数の文字の情報をテキスト情報に変換する。これにより、訂正情報を取得する。
ステップST28において、サーバ90の類似度算出部50によって訂正情報の1つ又は複数の文字を用いて入力情報の文字列を編集し、編集前と編集後の入力情報の文字列の類似度を算出する。
ステップST28は、訂正情報の属性を判定するステップST28Aと、文字列の距離を算出するステップST28Bと、を含む。ステップST28A及びST28Bは、実施の形態2のステップST15A及びST15Bと同様であるため、説明を省略する。
ステップST29において、サーバ90の訂正処理部60によって類似度に基づいて入力情報の文字列を訂正する。
ステップST30において、サーバ90の第2通信部によってネットワークを介して、訂正された入力情報を演算処理装置80に送信する。演算処理装置80は、第1通信部82によって訂正された入力情報を受信する。
ステップST31において、演算処理装置80の表示部70によって、訂正された入力情報を表示する。
[効果]
実施の形態4の入力システム及び入力方法によれば、以下の効果を奏することができる。
入力システム100は、移動体に搭載される演算処理装置80と、演算処理装置80とネットワークを介して通信するサーバ90と、を備える。演算処理装置80は、入力部10A、表示部70、記憶部81および第1通信部82を有する。入力部10Aは、画像情報および音声情報を入力する。表示部70は、入力情報を表示する。記憶部81は、画像情報、音声情報および入力情報を記憶する。第1通信部82は、サーバ90とネットワークを介して通信する。サーバ90は、情報処理部20A、入力記憶部40、類似度算出部50、訂正処理部60および第2通信部91を有する。情報処理部20Aは、画像情報及び音声情報をテキスト情報に変換する。入力記憶部40は、入力情報を記憶する。類似度算出部50は、訂正情報の1つ又は複数の文字を用いて入力情報の文字列を編集し、編集前と編集後の入力情報の文字列の類似度を算出する。訂正処理部60は、類似度算出部50で算出された類似度に基づいて前記入力情報の文字列を訂正する。
このような構成により、入力情報をより容易に訂正することができる。また、入力情報を画像情報で取得し、訂正情報を音声情報で入力することによって、入力情報の取得および入力情報の訂正を迅速かつスムーズに行うことができる。
また、入力システム100では、演算処理装置80で取得した画像情報及び音声情報をサーバ90へ送信し、サーバ90でこれらの情報に基づいて入力情報を訂正している。これにより、演算処理装置80の処理の負荷を低減することができる。
実施の形態4の入力方法についても、上述した入力システム100の効果と同様の効果を奏する。
なお、実施の形態4では、入力システム100が画像情報に基づいて入力情報を取得し、音声情報に基づいて訂正情報を取得する例について説明したが、これに限定されない。入力システム100は、文字列を含む入力情報、および1つ又は複数の文字を含む訂正情報を取得できればよい。例えば、入力情報は、音声入力部によって取得される音声情報、入力インタフェースによって取得される文字情報などに基づいて取得されてもよい。訂正情報についても、入力インタフェースによって取得される文字情報などに基づいて取得されてもよい。
実施の形態4では、入力システム100が演算処理装置80とサーバ90とを備える例について説明したが、これに限定されない。入力システム100は、演算処理装置80およびサーバ以外の機器を備えていてもよい。また、入力システム100は、複数の演算処理装置80を備えていてもよい。
実施の形態4では、演算処理装置80が入力部10A、表示部70、記憶部81および第1通信部82を有する例について説明したが、これに限定されない。表示部70および記憶部81は必須の構成ではない。演算処理装置80を構成する要素は、増減してもよい。あるいは、演算処理装置80を構成する複数の要素のうち2つ以上の要素は、統合されてもよい。例えば、演算処理装置80は、情報処理部20Aを有していてもよい。
実施の形態4では、サーバ90が情報処理部20A、入力記憶部40、類似度算出部50、訂正処理部60および第2通信部91を有する例について説明したが、これに限定されない。情報処理部20Aおよび入力記憶部40は必須の構成ではない。サーバ90を構成する要素は、増減してもよい。あるいは、サーバ90を構成する複数の要素のうち2つ以上の要素は、統合されてもよい。
実施の形態4では、入力方法がステップST20〜ST31を含む例について説明したが、これに限定されない。入力方法は、ステップを増減してもよいし、ステップを統合してもよい。例えば、入力方法は、訂正情報が入力されたか否かを判定するステップを有していてもよい。この場合、訂正情報が入力されている場合、処理がステップST25〜ST31に進んでもよい。訂正情報が入力されていない場合、処理が終了してもよい。
実施の形態1〜3の入力装置1,1A,1Bおよび実施の形態4の入力システム100は、入力部10,10A,10Bに入力される情報(例えば、画像情報、音声情報)に基づいて取得された入力情報および訂正情報を教師データとして用いて、最良の訂正を学習する学習処理を実施してもよい。学習処理を実施することによって、入力部10,10A,10Bに入力される情報に基づく入力情報の訂正の精度を向上させることができる。例えば、実施の形態1〜3の入力装置1,1A,1Bおよび実施の形態4の入力システム100は、入力部10,10A,10Bに入力される情報(例えば、画像情報、音声情報)に基づいて取得された入力情報および訂正情報を教師データとして用いて学習する学習部を備えていてもよい。学習部は、例えば、ニューラルネットワークモデルに従って機械学習を実行してもよい。
実施の形態1〜4では、移動体が自動車である例について説明したが、これに限定されない。移動体は、例えば、バイク、飛行機、船舶などであってもよい。
実施の形態1〜3の入力装置1,1A,1Bおよび実施の形態4の入力システム100は、移動体が警察車両である場合、より有益である。警察車両は、緊急性を要する状況での入力情報の訂正が行われる場合がある。また、警察車両は、一般車両と比べて、ノイズが発生しやすい環境であり、入力情報が誤って認識されやすい状況にある。入力装置1,1A,1Bおよび入力システム100は、入力情報を容易に訂正することができるため、警察車両に搭載される場合、より有益である。
本開示は、添付図面を参照しながら好ましい実施の形態に関連して充分に記載されているが、この技術に熟練した人々にとっては種々の変形や修正は明白である。そのような変形や修正は、添付した請求の範囲による本開示の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。
本開示は、入力情報を容易に訂正することができるため、自動車などの移動体に搭載される入力装置に有用である。
1,1A,1B 入力装置
10,10A,10B 入力部
11 画像取得部
12 音声入力部
13 視線検知部
20,20A 情報処理部
21 画像処理部
22 音声処理部
23 第1変換部
24 第2変換部
30 判定部
40 入力記憶部
50 類似度算出部
51 距離算出部
52 属性判定部
60 訂正処理部
70 表示部
80 演算処理装置
81 記憶部
82 第1通信部
90 サーバ
91 第2通信部
100 入力システム

Claims (12)

  1. 移動体に搭載される入力装置であって、
    文字列を含む入力情報および、1つ又は複数の文字を含む訂正情報を入力する入力部と、
    前記訂正情報の1つ又は複数の文字を用いて前記入力情報の文字列を編集し、編集前と編集後の前記入力情報の文字列の類似度を算出する類似度算出部と、
    前記類似度算出部で算出された前記類似度に基づいて前記入力情報の文字列を訂正する訂正処理部と、
    を備える、入力装置。
  2. 前記類似度算出部は、前記訂正情報の1つ又は複数の文字を用いて前記入力情報の文字列を編集し、編集前と編集後の前記入力情報の文字列の距離を算出する距離算出部を含み、
    前記訂正処理部は、前記距離算出部で算出された前記文字列の距離に基づいて前記入力情報の文字列を訂正する、
    請求項1に記載の入力装置。
  3. 前記距離算出部は、前記入力情報の文字列に対して挿入、削除、および置換のうち少なくともいずれか1つの編集処理を実施することによって、編集前と編集後の前記入力情報の文字列の距離を算出する、
    請求項2に記載の入力装置。
  4. 前記訂正処理部は、前記距離算出部で算出された前記文字列の距離のうち、最も距離が小さい部分の前記入力情報の文字列を訂正する、
    請求項3に記載の入力装置。
  5. 前記入力情報は、前記入力情報の複数の文字列を分類する複数の属性を有し、
    前記類似度算出部は、前記訂正情報が前記複数の属性のうちいずれの属性に分類されるかを判定する属性判定部を有し、
    前記類似度算出部は、前記入力情報と前記訂正情報の属性に基づいて、前記類似度を算出する、
    請求項1〜4のいずれか一項に記載の入力装置。
  6. 前記訂正処理部は、前記入力情報と前記訂正情報との属性が一致する前記入力情報の文字列のうち、最も類似度が高い部分の文字を訂正する、
    請求項5に記載の入力装置。
  7. 前記訂正処理部は、前記入力情報の文字列において、前記類似度算出部によって算出される複数の類似度のうち類似度が最も高い部分が複数存在する場合、最初に算出された類似度が最も高い部分の文字を訂正する、
    請求項1〜6のいずれか一項に記載の入力装置。
  8. 更に、
    前記入力情報および訂正された前記入力情報を表示する表示部を備える、
    請求項1〜7のいずれか一項に記載の入力装置。
  9. 前記入力部は、前記入力情報を示す音声情報及び前記訂正情報を示す音声情報を入力する音声入力部を含み、
    前記入力装置は、更に、
    前記音声入力部で入力された前記音声情報が前記入力情報であるか、又は前記訂正情報であるかを判定する判定部を備え、
    前記類似度算出部は、前記判定部によって音声情報が前記訂正情報であると判定された場合、前記類似度を算出する、
    請求項1〜8のいずれか一項に記載の入力装置。
  10. 前記入力情報は、文字列が撮影された画像情報であり、
    前記訂正情報は、1つ又は複数の文字の情報を含む音声情報であり、
    前記入力部は、前記画像情報を取得する画像取得部と、前記音声情報を入力する音声入力部と、を有し、
    前記入力装置は、更に、
    前記画像取得部で取得された前記画像情報に含まれる文字列情報をテキスト情報に変換する第1変換部と、
    前記音声入力部で入力された前記音声情報に含まれる1つ又は複数の文字の情報をテキスト情報に変換する第2変換部と、
    を備える、
    請求項1〜9のいずれか一項に記載の入力装置。
  11. 移動体において実施される入力方法であって、
    文字列を含む入力情報を入力するステップ、
    1つ又は複数の文字を含む訂正情報を入力するステップ、
    前記訂正情報の1つ又は複数の文字を用いて前記入力情報の文字列を編集し、編集前と編集後の前記入力情報の文字列の類似度を算出するステップ、
    算出された前記類似度に基づいて前記入力情報の文字列を訂正するステップ、
    を含む、入力方法。
  12. 移動体に搭載される演算処理装置と、
    前記演算処理装置とネットワークを介して通信するサーバと、
    を備え、
    前記演算処理装置は、
    文字列を含む入力情報および、1つ又は複数の文字を含む訂正情報を入力する入力部と、
    前記サーバとネットワークを介して通信する第1通信部と、
    を有し、
    前記サーバは、
    前記演算処理装置と前記ネットワークを介して通信する第2通信部と、
    前記訂正情報の1つ又は複数の文字を用いて前記入力情報の文字列を編集し、編集前と編集後の前記入力情報の文字列の類似度を算出する類似度算出部と、
    前記類似度算出部で算出された前記類似度に基づいて前記入力情報の文字列を訂正する訂正処理部と、
    を有する、入力システム。
JP2020550400A 2018-10-03 2019-09-27 入力装置、入力方法および入力システム Active JP7178576B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862740677P 2018-10-03 2018-10-03
US62/740,677 2018-10-03
PCT/JP2019/038287 WO2020071286A1 (ja) 2018-10-03 2019-09-27 入力装置、入力方法および入力システム

Publications (2)

Publication Number Publication Date
JPWO2020071286A1 true JPWO2020071286A1 (ja) 2021-09-02
JP7178576B2 JP7178576B2 (ja) 2022-11-28

Family

ID=70055009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020550400A Active JP7178576B2 (ja) 2018-10-03 2019-09-27 入力装置、入力方法および入力システム

Country Status (3)

Country Link
US (1) US20210240918A1 (ja)
JP (1) JP7178576B2 (ja)
WO (1) WO2020071286A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008099664A1 (ja) * 2007-02-15 2008-08-21 Mitsubishi Heavy Industries, Ltd. 車両番号認識装置
JP2012247948A (ja) * 2011-05-26 2012-12-13 Nippon Telegr & Teleph Corp <Ntt> 辞書管理装置、辞書管理方法、辞書管理プログラム
JP2013156349A (ja) * 2012-01-27 2013-08-15 Nec Corp 音声認識結果修正支援システム、音声認識結果修正支援方法および音声認識結果修正支援プログラム
JP2013225115A (ja) * 2012-03-21 2013-10-31 Denso It Laboratory Inc 音声認識装置、音声認識プログラム、及び、音声認識方法
JP2016180917A (ja) * 2015-03-25 2016-10-13 日本電信電話株式会社 言い直し検出装置、音声認識システム、言い直し検出方法、プログラム
US9727804B1 (en) * 2005-04-15 2017-08-08 Matrox Electronic Systems, Ltd. Method of correcting strings

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2395595B (en) * 2002-11-14 2005-01-05 Nathan Mendel Rau Automated license plate recognition system for use in law enforcement vehicles
JP4928310B2 (ja) * 2007-03-02 2012-05-09 キヤノン株式会社 ナンバープレート認識装置、その制御方法、コンピュータプログラム
US10867327B1 (en) * 2014-06-27 2020-12-15 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US10706311B2 (en) * 2015-08-21 2020-07-07 3M Innovative Properties Company Increasing dissimilarity of characters disposed on an optically active article
US10438083B1 (en) * 2016-09-27 2019-10-08 Matrox Electronic Systems Ltd. Method and system for processing candidate strings generated by an optical character recognition process
KR101873576B1 (ko) * 2016-10-31 2018-07-03 한국전자통신연구원 자동차 번호판 정보 인식 시스템 및 방법
US11856331B1 (en) * 2017-05-10 2023-12-26 Waylens, Inc. Extracting and transmitting video analysis metadata for a remote database
CN107679531A (zh) * 2017-06-23 2018-02-09 平安科技(深圳)有限公司 基于深度学习的车牌识别方法、装置、设备及存储介质
US11030466B2 (en) * 2018-02-11 2021-06-08 Nortek Security & Control Llc License plate detection and recognition system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9727804B1 (en) * 2005-04-15 2017-08-08 Matrox Electronic Systems, Ltd. Method of correcting strings
WO2008099664A1 (ja) * 2007-02-15 2008-08-21 Mitsubishi Heavy Industries, Ltd. 車両番号認識装置
JP2012247948A (ja) * 2011-05-26 2012-12-13 Nippon Telegr & Teleph Corp <Ntt> 辞書管理装置、辞書管理方法、辞書管理プログラム
JP2013156349A (ja) * 2012-01-27 2013-08-15 Nec Corp 音声認識結果修正支援システム、音声認識結果修正支援方法および音声認識結果修正支援プログラム
JP2013225115A (ja) * 2012-03-21 2013-10-31 Denso It Laboratory Inc 音声認識装置、音声認識プログラム、及び、音声認識方法
JP2016180917A (ja) * 2015-03-25 2016-10-13 日本電信電話株式会社 言い直し検出装置、音声認識システム、言い直し検出方法、プログラム

Also Published As

Publication number Publication date
JP7178576B2 (ja) 2022-11-28
US20210240918A1 (en) 2021-08-05
WO2020071286A1 (ja) 2020-04-09

Similar Documents

Publication Publication Date Title
CN103729120B (zh) 用于产生缩略图的方法及其电子设备
JP4267584B2 (ja) 機器制御装置及びその方法
US10303433B2 (en) Portable terminal device and information processing system
KR102124466B1 (ko) 웹툰 제작을 위한 콘티를 생성하는 장치 및 방법
JP2007317022A (ja) 手書文字処理装置及び手書文字処理方法
CN106778456B (zh) 一种手写输入的优化方法及装置
US20160210276A1 (en) Information processing device, information processing method, and program
JP2003216955A (ja) ジェスチャ認識方法、ジェスチャ認識装置、対話装置及びジェスチャ認識プログラムを記録した記録媒体
CN114239610A (zh) 多国语言语音辨识及翻译方法与相关的系统
JP7178576B2 (ja) 入力装置、入力方法および入力システム
JP5046148B2 (ja) 画像解析装置および対象物認識方法
US20220335752A1 (en) Emotion recognition and notification system
JP2002063548A (ja) 手書き文字認識方法
JPH0150954B2 (ja)
JPH0650527B2 (ja) 実時間手書き軌跡認識方法
JP4651876B2 (ja) パターン識別装置、パターン識別方法及びパターン識別用プログラム
JP6706911B2 (ja) アイディア抽出支援システム
CN113539235A (zh) 文本分析与语音合成方法、装置、系统及存储介质
JP2010282083A (ja) 誤認識訂正装置、方法及びプログラム
JP2005258577A (ja) 文字入力装置、文字入力方法、文字入力プログラム及び記録媒体
JP2004259076A (ja) 画像認識方法及び装置
JP7247472B2 (ja) 情報処理装置及びプログラム
JP2995818B2 (ja) 文字切り出し方法
JP3245241B2 (ja) 文字認識装置および方法
JPH06119496A (ja) 手書き情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221027

R151 Written notification of patent or utility model registration

Ref document number: 7178576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151