JP2022147384A - 表示装置、表示方法、プログラム - Google Patents

表示装置、表示方法、プログラム Download PDF

Info

Publication number
JP2022147384A
JP2022147384A JP2021048598A JP2021048598A JP2022147384A JP 2022147384 A JP2022147384 A JP 2022147384A JP 2021048598 A JP2021048598 A JP 2021048598A JP 2021048598 A JP2021048598 A JP 2021048598A JP 2022147384 A JP2022147384 A JP 2022147384A
Authority
JP
Japan
Prior art keywords
display
pen
character string
electronic pen
language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021048598A
Other languages
English (en)
Inventor
成和 辻
Narikazu Tsuji
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2021048598A priority Critical patent/JP2022147384A/ja
Priority to EP22161851.5A priority patent/EP4064020B1/en
Priority to US17/695,831 priority patent/US20220317871A1/en
Publication of JP2022147384A publication Critical patent/JP2022147384A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/171Editing, e.g. inserting or deleting by use of digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/263Language identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/454Multi-language systems; Localisation; Internationalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/226Character recognition characterised by the type of writing of cursive writing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/28Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】変換先の言語に変換された複数の文字列候補を表示する表示装置を提供すること。【解決手段】電子ペンによって手書きデータの入力を受け付ける受付手段と、前記手書きデータを複数の文字列に変換する文字認識手段と、前記文字認識手段が変換した前記複数の文字列を表示する表示制御手段と、前記電子ペンの識別情報に対応づけて、変換先言語を記憶する記憶手段と、前記表示制御手段は、前記複数の文字列のうち前記電子ペンで選択された前記文字列を、該電子ペンの識別情報に対応付けられている前記変換先言語における複数の文字列に変換して表示する。【選択図】図1

Description

本発明は、表示装置、表示方法、及び、プログラムに関する。
手書き認識技術を利用し、手書きデータを文字に変換して、ディスプレーに表示する表示装置が知られている。比較的大型のタッチパネルを備えた表示装置は会議室や公共施設などに配置され、複数のユーザーにより電子黒板などとして利用される。表示装置は筆談によるコミュニケーションツールとして利用される場合もある。
また、手書き認識技術を用いて手書きデータを翻訳する技術が考案されている(例えば、特許文献1参照。)。特許文献1には、第1のペンデバイスの利用者及び第2のペンデバイスの利用者と、画像表示部との位置関係に基づいて、第2の言語情報を、第2のペンデバイスの利用者から見て正立するように、画像表示部に表示させる装置が開示されている。
異なる言語話者とのコミュニケーションでは、表示装置の変換結果が相手に上手く伝わっているのか、話者が確認しながらコミュニケーションを進めていく必要が生じることがある。その場合に、従来、複数の文字列候補から文字列を選択して、選択した文字列を変換先の言語(異なる言語)に変換された複数の文字列候補に変換して表示するようなことは提案されていなかった。
本発明は、上記課題に鑑み、変換先の言語に変換された複数の文字列候補を表示する表示装置を提供することを目的とする。
上記課題に鑑み、本発明は、電子ペンによって手書きデータの入力を受け付ける受付手段と、前記手書きデータを複数の文字列に変換する文字認識手段と、前記文字認識手段が変換した前記複数の文字列を表示する表示制御手段と、前記電子ペンの識別情報に対応づけて、変換先言語を記憶する記憶手段と、を有し、前記表示制御手段は、前記複数の文字列のうち前記電子ペンで選択された前記文字列を、該電子ペンの識別情報に対応付けられている前記変換先言語における複数の文字列に変換して表示する。
変換先の言語に変換された複数の文字列候補を表示する表示装置を提供することができる。
表示装置が表示する文字列の変換例を示す図である。 表示装置の一例の全体構成図である。 表示装置の一例のハードウェア構成図である。 表示装置が有する機能をブロック状に分けて説明する一例の機能ブロック図である。 操作ガイドと操作ガイドが表示する一例の選択可能候補を示す図である。 文字列の一例の表示方向を説明する図である。 ユーザーが手書きする方向と表示方向の対応を模式的に示す図である。 角度情報の一例の入力方法を説明する図である。 表示方向と変換先言語をユーザーが対応付ける一例の方法を説明する図である。 ユーザーが手書きした手書きデータの一例である。 文字認識部が「ほんじつのぎ」を文字認識することで表示した5つの文字列候補の一例を示す図である。 ユーザーが任意の文字列候補を選択した場合に表示される、変換先言語に変換された変換先文字列の一例を示す図である。 変換先文字列の再変換について説明する図の一例である。 変換先文字列「Today's proceedings」の選択に対して表示された5つの文字列候補の一例を示す図である。 「本日の議事録」をユーザーがペンで選択した場合に表示される変換先言語の変換先文字列を示す図の一例である。 ペンID=2のペンで「Today's proceedings」が選択された場合に表示される文字列候補の一例を示す図である。 図11において、ペンID=3のペンのユーザーが文字列候補を選択した場合の変換例を示す図である。 表示装置がペンに対応付けられている変換先言語へ、選択された文字列候補を変換する処理を説明するフローチャート図の一例である。 変換先文字列の回転を説明する図の一例である。 変換先文字列とペンに対応した表示方向に表示された操作ガイドを示す図の一例である。 ペンIDに対応付けられている表示方向が90°と270°の場合の操作ガイドを示す図である。 表示装置の他の構成例を示す図である。 表示装置の他の構成例を示す図である。 表示装置の他の構成例を示す図である。 表示装置の他の構成例を示す図である。
以下、本発明を実施するための形態の一例として表示装置と、表示装置が行う表示方法について図面を参照しながら説明する。
異なる言語話者が混在する職場や現場にて表示装置が使われる場面がある。このような場面では、ある国の人が異国の人に手書きにより情報を伝えたい場合、ディスプレーに表示されている文字列を、異国の人が分かる言語に変換して表示すれば、意思伝達が容易になる。
これらの人が表示装置でコミュニケーションする場合、表示装置が他の言語に変換される複数の文字列候補を表示すれば、ユーザーがコミュニケーションに適した文字列を選択しやすくなる。
また、これらの人が表示装置でコミュニケーションする場合、一度、表示装置が他の言語に変換した手書きデータであっても、上手く伝わっていない場合には、変換が適切でない可能性があり、変換結果を再度、選び直したいということが生じうる。従来は、話者が再度、手書きデータを入力しないと変換結果を選び直すことが困難であった。
<表示装置の動作の概略>
本実施形態の表示装置は他の言語に変換できる複数の文字列候補を表示することができる。また、表示装置は、一度、他の言語に変換された文字列を、再度、他の言語による別の文字列に変換できる。
図1は、本実施形態の表示装置が表示する文字列の変換例を示す。二人のユーザーが表示装置を挟んで筆記や会話によるコミュニケーションを行っている。日本語話者のユーザーが使用するペン2500には、日本語筆記用であること(後述する表示言語が日本語)、及び、日本語を英語に変換する情報(後述する変換先言語が英語)が設定されている。
図1(a)に示すように、ユーザーがペン2500で「ほんじつのぎ」と手書きした。手書きが終わると表示装置は、ペン2500が日本語筆記用であるので手書きデータを日本語に文字認識する。また、表示装置は「ほんじつのぎ」をカナ漢字変換したり、予測変換したりして、操作ガイド500内に文字列候補539を表示する。
表示装置は他の言語に変換される複数の文字列候補を表示するので、ユーザーはコミュニケーションに適切と考える文字列候補を選択できる。
図1(b)では、ペン2500が日本語筆記用であるため、「ほんじつのぎ」に対して5つの文字列候補539が日本語で表示されている。ユーザーが「本日の議事」をペン2500で選択した。表示装置は、このペン2500に設定されている変換先言語である英語に「本日の議事」を変換する。
図1(c)では「本日の議事」が「Today's proceedings」という変換先文字列101に変換されている。この時点で操作ガイド500は自動的に消去される。そして、「Today's proceedings」では、ユーザーがうまく会話が噛み合わないと感じた場合、ユーザーが再度の変換を試みる。
図1(d)ではユーザーが「Today's proceedings」という変換先文字列101を囲む枠線102をペン2500で手書きした。これにより、ユーザーは「Today's proceedings」を選択した。表示装置は、ペン2500が日本語筆記用であるので、変換先文字列101が表示される前に操作ガイド500が表示した文字列候補539を日本語で再度、表示する。
図1(e)は変換先文字列101の選択に応じて表示された操作ガイド500を示す。このように、表示装置は他の言語に変換される複数の文字列候補を表示するので、ユーザーは手書きし直さなくても、コミュニケーションがうまくいきそうな別の文字列候補を選択できる。
ユーザーが「本日の議事録」をペン2500で選択した。表示装置は、このペン2500に設定されている変換先言語である英語に「本日の議事録」を変換する。
図1(f)では「本日の議事録」が「Today's minutes」という変換先文字列101に変換されている。この変換先文字列101をユーザーが再度、選択して操作ガイド500を表示することも可能である。
このように、本実施形態の表示装置は、他の言語に変換される複数の文字列候補からユーザーが変換先言語に変換する文字列を選択できるので、円滑なコミュニケーションがしやすくなる。また、一度、文字列が変換先言語に変換されても、ユーザーが変換先文字列101を選択することで、再度、他の言語に変換される複数の文字列候補を表示できる。したがって、ユーザーが手書きデータを何度も手書きすることなく、別の文字列候補を選択して、変換先言語に変換できる。また、表示装置2は、ペンに設定されている変換先言語に選択された文字列候補を変換できる。
<用語について>
入力手段とはタッチパネルに座標を指定して手書きが可能な手段であればよい。例えば、ペン、人の指や手、棒状部材などがある。
ユーザーがディスプレーに入力手段を押しつけてから連続的に移動させた後、ディスプレーから離すという一連の操作をストロークという。ストロークデータとは、入力手段により入力される座標の軌跡に基づいてディスプレーに表示される情報である。ストロークデータは適宜、補間されてよい。手書きデータとは、1つ以上のストロークデータを有するデータである。手書き入力とは、ユーザーによって、手書きデータが入力されることを示している。
ストロークデータに基づいてディスプレーに表示される表示物をオブジェクトという。オブジェクトとは対象という意味であるが、本実施形態では表示対象などの意味である。
手書きデータが文字認識して変換された文字列には、テキストデータの他、「済」などの決まった文字やマークとして表示されるスタンプ、円や星などの図形、直線等、ユーザーの操作に基づいて表示されたデータも含まれてよい。
確定データは手書きデータの文字認識により文字コード(フォント)に変換されユーザーにより選択されたデータ、又は、文字コード(フォント)に変換しないことが確定している手書きデータである。
操作コマンドとは手書き入力装置を操作するために用意されている、特定の処理の実行を指示する命令をいう。本実施形態では一例として、表示方向と変換先文字列101の対応をユーザーが表示装置2に指示する例を説明する。このほか、文字列の編集系、修飾系、又は、入出力系などでも操作コマンドが使用される。
文字列とは、コンピュータで扱われる1つ以上の文字である。文字列の実態は文字コードである。文字には、数字、アルファベット、及び、記号等が含まれる。文字列はテキストデータとも言われる。
変換とはかえること又はかわることをいう。文字列の言語を変換することを翻訳という場合がある。
変換先言語とは、文字列候補が他の言語に変換される場合の他の言語である。表示言語とは文字認識された文字列候補が表示される言語である。
<装置の構成例>
図2を用いて、本実施形態に係る表示装置2の全体構成を説明する。図2は、表示装置2の全体構成図を示した図である。図2(a)では、表示装置2の一例として、壁につり下げられた横長の電子黒板として使用される表示装置2を示している。
図2(a)に示されているように、表示装置2の上部には表示装置2の一例としてのディスプレー220が設置されている。ユーザーUは、ペン2500を用いて、ディスプレー220に文字等を手書きする(入力、描画ともいう)ことができる。
図2(b)は壁につり下げられた縦長の電子黒板として使用される表示装置2を示している。
図2(c)は机230に平置きされた表示装置2を示す。表示装置2は厚みが1cm程度なので、一般の机に平置きしても机の高さを調整する必要がない。また、ユーザーは表示装置2を容易に移動できる。
なお、ペン2500の座標の入力方式には、電磁誘導方式、アクティブ静電結合方式などがある。また、ペン2500は、筆圧検知、傾き検知、ホバー機能(ペンが触れる前にカーソルを表示)、などの機能を有していてよい。
<装置のハードウェア構成>
続いて、図3を用いて、表示装置2のハードウェア構成を説明する。表示装置2は図示するように情報処理装置又はコンピュータの構成を有している。図3は、表示装置2のハードウェア構成図の一例である。図3に示されているように、表示装置2は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、及び、SSD(Solid State Drive)204を備えている。
これらのうち、CPU201は、表示装置2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。
SSD204は、OSや表示装置2用のプログラム等の各種データを記憶する。このプログラムは汎用的なOS(Windows(登録商標)、Mac OS(登録商標)、Android(登録商標)、iOS(登録商標)等)を搭載した情報処理装置で動作するアプリケーションプログラムでもよい。
また、表示装置2は、ディスプレーコントローラー213、タッチセンサーコントローラー215、タッチセンサー216、ディスプレー220、電源スイッチ227、チルトセンサー217、シリアルインタフェース218、スピーカー219、マイク221、無線通信装置222、赤外線I/F223、電源制御回路224、ACアダプター225、及びバッテリー226を備えている。
ディスプレーコントローラー213は、出力画像をディスプレー220等へ出力するために画面表示の制御及び管理を行う。タッチセンサー216は、ディスプレー220上にペン2500やユーザーの手等(ペンやユーザーの手は入力手段となる)が接触したことを検知する。また、タッチセンサー216はペンIDを受信する。
タッチセンサーコントローラー215は、タッチセンサー216の処理を制御する。タッチセンサー216は、座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、例えば、光学式の場合、ディスプレー220の上側両端部に設置された2つ受発光装置が、ディスプレー220に平行して複数の赤外線を放射し、ディスプレー220の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。タッチセンサー216は、物体によって遮断された2つの受発光装置が放射した赤外線の位置情報をタッチセンサーコントローラー215に出力し、タッチセンサーコントローラー215が、物体の接触位置である座標位置を特定する。また、タッチセンサーコントローラー215は通信ユニット215aを有しており、ペン2500と無線で通信することができる。例えば、Bluetooth(登録商標)などの規格で通信している場合は、市販されているペンを使用することができる。通信ユニット215aに予め1つ以上のペン2500を登録しておくと、ユーザーはペン2500を表示装置2と通信させる接続設定を行わなくても通信できる。
電源スイッチ227は、表示装置2の電源のON/OFFを切り換えるためのスイッチである。チルトセンサー217は、表示装置2の傾き角度を検出するセンサーである。主に、表示装置2が図2(a)、図2(b)、又は、図2(c)のいずれかの設置状態で使用されているかを検出するために使用され、設置状態に応じて文字等の太さを自動で変更することができる。
シリアルインタフェース218はUSBなどの外部との通信インタフェースである。シリアルインタフェース218は、外部からの情報の入力などに使用される。スピーカー219は音声の出力に使用され、マイク221は音声の入力に使用される。無線通信装置222は、ユーザーが携帯する端末と通信し、例えばインターネットへの接続を中継する。無線通信装置222はWi-FiやBluetooth(登録商標)などで通信するが、通信規格は問われない。無線通信装置222はアクセスポイントを形成しており、ユーザーが入手したSSID(Service Set Identifier)とパスワードをユーザーが携帯する端末に設定すると、アクセスポイントに接続できる。
なお、無線通信装置222には2つのアクセスポイントが用意されているとよい。
a. アクセスポイント→インターネット
b. アクセスポイント→社内ネットワーク→インターネット
aのアクセスポイントは社外のユーザー用で、ユーザーは社内ネットワークにはアクセスできないが、インターネットを利用できる。bのアクセスポイントは社内のユーザー用で、ユーザーは社内ネットワーク及びインターネットを利用できる。
赤外線I/F223は隣に配置された表示装置2を検出する。赤外線I/F223は、赤外線の直進性を利用して、隣に配置された表示装置2のみを検出できる。赤外線I/F223は各辺に1つずつ設けられることが好ましく、表示装置2のどの方向に他の表示装置2が配置されたのかを検出できる。これにより画面が広がり、隣の表示装置2に過去に手書きされた手書き情報(1つのディスプレー220の広さを1ページとして別のページの手書き情報)等を表示できる。
電源制御回路224は表示装置2の電源であるACアダプター225とバッテリー226を制御する。ACアダプター225は商用電源が共有する交流を直流に変換する。
ディスプレー220がいわゆる電子ペーパーの場合、画像の表示を維持するためにほとんど又は一切電力を消費しないので、バッテリー226による駆動も可能である。これにより、屋外など電源を接続しにくい場所でもデジタルサイネージなどの用途で表示装置2を使用することが可能になる。
更に、表示装置2は、バスライン210を備えている。バスライン210は、図3に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
なお、タッチセンサー216は、光学式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなど種々の検出手段を用いてもよい。タッチセンサー216は、ペン先のタッチの有無を検知するのに電子ペンが必要ない方式であってよい。この場合はタッチ操作をするのに指先やペン型の棒を使用できる。なお、ペン2500は、細長いペン型である必要はない。
<機能について>
次に、図4を用いて表示装置2の機能について説明する。図4は、表示装置2が有する機能をブロック状に分けて説明する機能ブロック図の一例である。表示装置2は、接触位置検出部21、描画データ生成部22、文字認識部23、表示制御部24、データ記録部25、ネットワーク通信部26、操作受付部27、操作コマンド処理部28、回転処理部29、言語変換部30、ペン通信部31、及び、入力方向検出部32を有している。表示装置2が有する各機能は、図3に示されている各構成要素のいずれかが、SSD204からRAM203上に展開されたプログラムに従ったCPU201からの命令によって動作することで実現される機能又は手段である。
接触位置検出部21はタッチセンサー216に対しペン2500が接触した位置の座標を検出する。描画データ生成部22はペン2500のペン先が接触した座標を接触位置検出部21から取得する。接触位置検出部21は、この座標点列を補間することで接続してストロークデータを生成する。
文字認識部23はユーザーが手書きした1つ以上のストロークデータ(手書きデータ)に対し、ユーザーが使用するペン2500に対応付けられている表示言語に応じて文字認識処理を行い、文字コードに変換する。文字認識部23は、ユーザーのペン操作と並行して文字(日本語だけでなく英語などの多国語)、数字、記号(%、$、&など)、図形(線、丸、三角など)等を認識していく。認識方法については様々なアルゴリズムが考案されているが、本実施形態では公知の技術を利用できるとして詳細を割愛する。
表示制御部24は手書きデータ、手書きデータから変換された文字列、及び、ユーザーが操作するための操作メニューなどをディスプレーに表示する。データ記録部25は、表示装置2に手書きされた手書きデータ、変換された文字列、及び、PCの画面、ファイル等を記憶部40に記憶する。ネットワーク通信部26はLAN等のネットワークに接続して、他の機器とネットワークを介したデータの送受信を行う。
操作コマンド処理部28は、文字認識部23が認識した文字列が操作コマンドに対応するかを検出し、ユーザーが操作コマンドを押下した場合、操作コマンドを実行する。
回転処理部29は、操作コマンド又はユーザー操作に応じて、画像全体又は文字列を回転させる。本実施形態では、文字列のみの回転、又は、文字列を含む画像全体の回転が可能である。
言語変換部30は、ユーザーが選択した文字列候補の言語を、ユーザーが使用するペン2500に対応付けられている変換先言語に変換する。すなわち、言語変換部30は翻訳する。
ペン通信部31は、通信ユニット215aを制御してペンIDをペン2500から受信する。ペン2500は先端をディスプレーに押しつけられると少なくとも一度、ペンIDを送信する。表示装置2は手書きデータに用いられたペン2500を識別できる。
入力方向検出部32は、手書きデータに基づいて、手書きデータを入力するユーザーに正対する表示方向を検出する。あるいは、入力方向検出部32は、予め決まった方法で手書きされた手書きデータに応じて、入力手段を用いて手書きするユーザーに正対する表示方向を検出する。
また、表示装置2は、図3に示されているSSD204やRAM203などに構築される記憶部40を有し、記憶部40には変換言語記憶部41、操作コマンド定義データ記憶部42、入力データ記憶部43、及び、いくつかの変換辞書44が構築されている。
Figure 2022147384000002

表1は変換言語記憶部41に設定されている表示方向、表示言語及び変換先言語の対応を示す。変換言語記憶部41にはペンIDに対応付けて、表示方向、表示言語及び変換先言語が登録されている。例えば、ペンID=1のペン2500の表示方向は0°、表示言語は日本語、変換先言語は英語である。
・ペンIDは、ペン2500の識別情報である。各ペン2500は予めペンIDを保持している。
・表示方向は、基準となる表示方向を0°として、例えば、反時計回りに90°、180°、270°と予め定められている。表示方向は、当該ペン2500を操作するユーザーが存在する場所を示す。文字列が表示方向に表示されると、当該ペン2500を使用するユーザーに正対して文字列が表示される。
・表示言語は、文字認識部23が手書きデータを文字認識する際の言語である。また、表示言語は操作ガイド500に表示される文字列候補539等の言語である。
・変換先言語は、言語変換部30が表示言語を変換する変換先の言語である。
表1の表示言語と変換先言語によれば、ペンID=1のペン2500(第一の電子ペンの一例)を使用するユーザーは日本語話者で、英語を話す話者とコミュニケーションできる。ペンID=2のペン2500(第二の電子ペンの一例)を使用するユーザーは英語話者で、日本語を話す話者とコミュニケーションできる。ペンID=3のペン2500(第三の電子ペンの一例)を使用するユーザーは日本語話者であり、中国語を話す話者とコミュニケーションできる。
Figure 2022147384000003

表2は操作コマンド定義データ記憶部42に記憶される操作コマンド定義データを模式的に示す。操作コマンド定義データは、文字認識で得られた認識文字列に対応付けて、ユーザーが表示装置2に指示するための操作コマンドを定義する。
例えば、手書きデータから「回転」「90」「180」「270」という文字列が認識された場合、対応する操作コマンドは「表示を90°回転」「表示を180°回転」「表示を270°回転」である。表示装置2はこれら操作コマンドを表示し、ユーザーからの操作を受け付ける。操作コマンドが選択された場合、操作コマンド処理部28は処理の項目に記載の内容を実行する。例えば、操作コマンド処理部28は、回転処理部29に文字や画像の回転を指示する。
また、「日本語」という文字列が認識された場合、対応する操作コマンドは「日本語に設定(表示言語)」「日本語に設定(変換先言語)」である。操作コマンドが選択された場合、操作コマンド処理部28は変換言語記憶部41に、ペンIDと表示言語(又は変換先言語)を登録する。
Figure 2022147384000004

表3は入力データ記憶部43の内容を模式的に示す。入力データは、ユーザーにより入力されたデータの属性である。入力データは1つのオブジェクト(1つのストロークデータ、1つの文字列、1つの画像等)ごとに記録される。
・DataIdは入力データの識別情報である。
・Typeは入力データの種別であり、ストローク(Stroke)、テキスト(Text)、及び、イメージ(Image)がある。Typeによって入力データが保持する属性は異なってよいが、表3ではType="Text"の場合を説明する。テキストは文字列を表し、イメージは画像である。
・PenIDはこの文字列の入力に使用されたペン2500のペンIDである。
・Angleはこの文字列の表示方向である。
・StartPointは文字列の外接矩形における左上頂点の座標である。
・StartTimeはユーザーが文字列を書き始めた時刻である。
・EndPointは文字列の外接矩形における右下頂点の座標である。
・EndTimeはユーザーが文字列を書き終えた時である。
・FontNameは文字列のフォント名である。
・FontSizeは文字サイズである。
・Textは入力されたテキストである(文字コード)。
・Languageは文字列の言語である。本実施形態では、表示言語又は変換先言語が設定される。
<選択可能候補の表示例>
続いて、図5を参照して、手書きデータの変換時に表示される操作ガイド500について説明する。図5は操作ガイド500と操作ガイドが表示する選択可能候補530の一例である。ユーザーが手書きデータ504を手書きすることで、操作ガイド500が表示される。操作ガイド500は、操作コマンドの候補510、手書き認識文字列候補506、変換文字列候補507、及び、文字列/予測変換の候補508を表示する。なお、選択可能候補530は、操作コマンドの候補510、手書き認識文字列候補506、変換文字列候補507、文字列/予測変換の候補508である。また、操作コマンドの候補510を除く選択可能候補530を文字列候補539という。
手書きデータ504はユーザーが手書きした「ぎ」という文字である。手書きデータ504を囲む手書きデータ矩形領域表示503が表示される。図5では一文字の入力で操作ガイド500が表示されているが、操作ガイド500が表示されるタイミングは、ユーザーが手書きを中断したタイミングである。したがって、手書きデータ504の文字数は任意である。
手書き認識文字列候補506、変換文字列候補507、文字列/予測変換の候補508にはそれぞれの文字列候補が確率降順で並んでいる。手書き認識文字列候補506の「ぎ」は認識結果の候補である。文字認識部23は、この例では正しく「ぎ」を認識している。
変換文字列候補507は「ぎ」のカナ漢字変換の結果(例えば「技」)から変換された変換文字列候補(例えば技を含む熟語)である。この例の「技量試」とは「技術量産試作」の略名である。文字列/予測変換の候補508は変換文字列候補507から変換された予測文字列候補である。この例では「技量試を決裁」と「議事録の送付先」が表示されている。
操作コマンドの候補510は認識された文字に応じて表示される、予め定義されている操作コマンド(ファイル操作、文字の編集などのコマンド)の候補である。図5の例では行頭文字の「》」511が操作コマンドの候補であることを示している。図5では「ぎ」の文字列候補である「議事録」が、定義データと部分一致したため、操作コマンドの候補510が表示されている。
操作コマンドの候補510は、変換された文字列を含む操作コマンド定義データが見つかる場合に表示されるため、常に表示されるとは限らない。本実施形態では、変換に関する操作コマンドの候補510が表示される。
操作ヘッダー520はボタン501、509、502、505を有する。ボタン501は予測変換とカナ変換の切り替え操作を受け付ける。ボタン502は候補表示のページ操作をする。図5の例では候補表示ページは3ページあり、現在は1ページ目を表示している。ボタン505は操作ガイド500の消去を受け付ける。ユーザーがボタン505を押下すると操作受付部27が受け付けて、表示制御部24が手書きデータ以外の表示を消去する。ボタン509は一括表示消去を受け付ける。ユーザーがボタン509を押下すると操作受付部27が受け付けて、表示制御部24が手書きデータを含め、図5に示されているすべての表示を消去して、ユーザーが最初から手書きをしなおすことを可能にする。
<表示方向と変換先言語の登録>
図6は、表示方向を説明する図である。本実施形態では、ディスプレーの中央から予め定まっている辺に対する垂線方向を0°とする。そして、各辺のユーザーに正対する表示方向を反時計回りに90°、180°、270°とする。
手書きしているユーザーが4辺のどの方向に存在するかを表示装置2が判断する方法がいくつかある。1つの方法として、ユーザーが手書きする方向により入力方向検出部32はユーザーが4辺のどの方向に存在するかを判断できる。
図7は、ユーザーが手書きする方向と表示方向の対応を模式的に示す図である。例えば、ストロークデータの座標が、左から右、かつ、上から下に移動する場合(左から右への横書き)、この上から下方向に存在する辺が表示方向である。図7では各文字の始点と終点を黒丸で示すが、全体的に左上から右下に移動することが分かる。
同様に、ストロークデータの座標が、上から下、かつ、右から左に移動する場合(上から下への縦書き)、この上から下方向に存在する辺が表示方向である。入力方向検出部32はこのように、手書きデータに基づいてユーザーが4辺のどの方向に存在するかを推定できる。
また、手書きデータの座標と表示方向の対応を、表示装置2のメーカーが機会学習により生成してもよい。例えば、担当者がニューラルネットワークに時系列の手書きデータを入力し、表示方向を教師データとして与えることで、入力方向検出部32が学習モデルとして得られる。
なお、図6では、表示方向が0°、90°、180°、270°の4つであるが、表示方向はより細かく設定されてもよい。表示方向は、例えば45°間隔や30°間隔で設定されてもよい。
別の方法として、表示装置2がペン2500を利用してユーザーが4辺のどの方向に存在するかを判断する方法がある。この方法では、まず、ペン2500に表示方向が対応付けられる。
図8は、角度情報の入力方法を説明する図の一例である。図8では表示装置2の90°の方向に存在するユーザーが角度情報を入力する場合を説明する。90°の方向から手書きされた文字等は時計回りに90度回転されると正しく認識されるので、90度という表示方向が入力されるとよい。
図8(a)は、表示装置2の90°の方向に存在するユーザーが「ぎ」を手書きしたため、操作ガイド500が表示された状態を示す。表示装置2は90°の方向から手書きした「ぎ」を、表示方向が初期値の0°のまま文字認識するため、期待とは違う選択可能候補530が表示されている。
角度情報を入力する場合、ユーザーは操作ガイド500内に、ユーザーから見て上から下方向に直線を手書きする。図8(b)はこの直線521の一例を示す。0°の方向とこの直線521との反時計回りのなす角αが表示方向である。すなわち、始点Sから0°の方向に下ろした直線522と、ユーザーが入力した直線521の反時計回りのなす角αが表示方向である。したがって、図8(b)でユーザーが入力した表示方向は90°である。
なお、直線の検出には、例えば、始点Sから終点Eまでの座標を最小二乗法で直線に変換し、得られた相関係数と閾値を比較して直線か否かを判断する方法がある。
ユーザーが直線521を書き始めた直後(ペン2500を直線521の始点Sに触れた直後)、表示装置2は操作ガイド500を消去する。また、直線521を書き終わった直後(ペン2500を直線521の終点Eから離した直後)、表示装置2は、90度、180度、270度、0度から上記のなす角αが最も近い値を探してそれを表示方向に決定する。なす角αそのものが角度情報でもよい。この表示方向が使用されたペン2500に対応付けられる。
ペン2500は、手書きなどのためにペン先が押圧されると、ペンIDを表示装置2に送信するので、表示装置2はペン2500と表示方向を対応付けることができる。
図8(c)は、図8(b)の操作直後の操作ガイド500を示す。ペン2500に表示方向として90°が設定されたので、手書きデータが内部的に90°だけ時計回りに回転して文字認識され、操作ガイド500は90°だけ反時計回りに回転して表示されている。なお、角度情報はメニューからユーザーが手動で入力してもよい。
図9は、表示方向と変換先言語をユーザーが対応付ける方法を説明する図である。図9では0°の表示方向と180°の表示方向にユーザーが存在する。表示装置2は、図7又は図8にて説明したように、手書きデータに基づいてユーザーが4辺のどの方向に存在するかを判断できる。あるいは、各ユーザーが使用するペン2500にすでに表示方向が対応付けられている。
0°の表示方向のユーザーが言語設定の操作コマンドを呼び出す「日本語」を手書きする。これにより、操作ガイド500には「日本語に設定(表示言語)」「日本語に設定(変換先言語)」という操作コマンド310が表示される。ユーザーが「日本語に設定(表示言語)」の操作コマンドを選択すると、操作コマンド処理部28は、ペンIDに対応付けて、入力方向検出部32が「日本語」の手書きデータで検出した0°という表示方向に表示言語「日本語」を設定する。ペンIDは手書き時にペン2500から送信されている。あるいは、操作コマンド処理部28は、ペンIDに対応付けて、0°の表示方向のユーザーが使用したペン2500の0°という表示方向に表示言語「日本語」を設定する。「日本語に設定(変換先言語)」が選択された場合も同様である。
また、180°の表示方向のユーザーが言語設定の操作コマンドを呼び出す「English」を手書きする。これにより、操作ガイド500には「Set to English(Display language)」「Set to English(Destination language)」という操作コマンド311が表示される。ユーザーが「Set to English(Display language)」の操作コマンドを選択すると、操作コマンド処理部28は、ペンIDに対応付けて、入力方向検出部32が「English」の手書きデータで検出した180°という表示方向に表示言語「英語」を設定する。あるいは、操作コマンド処理部28は、ペンIDに対応付けて、180°の表示方向のユーザーが使用したペン2500の180°という表示方向に表示言語「English」を設定する。「Set to English(Destination language)」が選択された場合も同様である。以上で、表1のような変換言語記憶部41が生成される。
なお、変換言語記憶部41に登録されたペンID、表示方向及び変換先言語の対応は、ユーザーが予め定まっている操作コマンドを実行することで解除できる。
また、ペンID=1のペン2500を使用するユーザーが手書きした手書きデータはペンID=1に対応付けられている表示言語で文字認識される。例えば、ユーザーが手書きした「こんにちは」は日本語の「こんにちは」に認識される。また、ユーザー操作に応じて「こんにちは」は変換先言語の英語に変換される。
<手書きデータの変換例>
続いて、図10~図18を参照して、手書きデータの変換例を説明する。図10は、ユーザーが手書きした手書きデータ504を示す。図10では、ペンID=1のペン2500でディスプレー(タッチパネル)に「ほんじつのぎ」が手書きされた。表示装置2の通信ユニット215aは、ペン2500からペンID=1を受信する。
図11は、文字認識部23が「ほんじつのぎ」を文字認識することで、表示制御部24が表示した5つの文字列候補539を示す。図11では「本日の議事」「本日の議事録」「本日の議題」「本日の儀」「本日の技術」の5つの文字列候補539が操作ガイド500に表示されている。これは、ペンID=1のペン2500に設定されている表示言語が日本語なので、文字認識部23は日本語の文字列候補539に変換したからである。
図12は、ユーザーが任意の文字列候補539を選択した場合に表示される、変換先言語に変換された変換先文字列101を示す。図11でユーザーがペン2500で「本日の議事」を選択した。言語変換部30は、ペン2500が操作ガイド内を押下したため、ペン2500の変換先言語に文字列候補を変換すると判断する。ペンID=1のペン2500に設定されている変換先言語は英語なので、言語変換部30は選択された日本語の文字列候補「本日の議事録」を英語に変換する。したがって、図12では「Today's proceedings」と表示制御部24が表示した。文字列候補の選択により、操作ガイド500は消去される。
図12でユーザーが表示した変換先文字列101では、ペンID=2のペン2500を使う英語話者とのコミュニケーションがうまくいかず(会話が噛み合わない)、相応しくない変換先文字列101が表示されたとペンID=1のユーザーが判断したとする。ペンID=1のユーザーは変換先文字列101の再変換を試みる。
図13は、変換先文字列101の再変換について説明する図である。ユーザーが変換先文字列101である「Today's proceedings」を選択する。
図13(a)は、ペンID=1のペン2500でユーザーが変換先文字列101を長押しすることで選択する方法を示す。ペン2500のペン先の座標が変換先文字列101の外接矩形内で、一定時間以上、押下された場合、言語変換部30は変換先文字列101が選択されたと判断する。
図13(b)は、ペンID=1のペン2500でユーザーが変換先文字列101を枠線102で囲むことで選択する方法を示す。枠線102の最右座標、最左座標、最上座標、及び、最下座標が、変換先文字列101の外接矩形よりも外側である場合、言語変換部30は変換先文字列101が選択されたと判断する。
図13(c)は、ペンID=1のペン2500でユーザーが変換先文字列101に重畳線104を引くことで選択する方法を示す。変換先文字列101の幅方向をX軸、高さ方向をY軸とする。重畳線104の全体のY座標が、変換先文字列101の外接矩形の高さ方向に含まれる場合(外接矩形のY座標の最小値と最大値の間にある)、言語変換部30は変換先文字列101が選択されたと判断する。
図14は、変換先文字列「Today's proceedings」の選択に対して表示された5つの文字列候補539を示す。文字認識部23は図11の文字列候補を保存しておいて、表示制御部24が、再度、表示する。あるいは、「ほんじつのぎ」の手書きデータ504を文字認識部23が保存しておいて、再度、文字認識することで、5つの文字列候補539を再度、表示制御部24が表示してもよい。
図13で、変換先文字列101の選択に使用されたペン2500のペンIDが1なので、文字認識部23は日本語に認識し、表示制御部24も日本語の文字列候補539を表示する。後述するように、変換先文字列101の選択に使用されたペン2500のペンIDが2の場合、文字列候補539が英語で表示される。
図14に示すように文字列候補539を含む操作ガイド500が再度、表示されるので、ペンID=1のペン2500を使用するユーザーは再度、文字列候補を選択できる。例えば図14で「本日の議事録」をユーザーがペン2500で選択した。
図15は、「本日の議事録」をユーザーがペン2500で選択した場合に表示される変換先言語の変換先文字列101を示す。言語変換部30は、図14でペン2500が操作ガイド内を押下したため、ペン2500の変換先言語に文字列候補を変換すると判断する。ペンID=1のペン2500に設定されている変換先言語は英語なので、言語変換部30は選択された日本語の文字列候補「本日の議事録」を英語に変換する。したがって、図15では「Today's minutes」という変換先文字列101を表示制御部24が表示した。文字列候補539の選択により、操作ガイド500は消去される。
このように、本実施形態の表示装置2は、他の言語に変換される複数の文字列候補からユーザーが変換先言語に変換する文字列を選択できるので、円滑なコミュニケーションがしやすくなる。また、一度、文字列が変換先言語に変換されても、ユーザーが変換先文字列101を選択することで、再度、他の言語に変換される複数の文字列候補を表示できる。したがって、ユーザーが手書きデータを何度も手書きすることなく、別の文字列候補を選択して、変換先言語に変換できる。
<ペンID=2のペン2500による再変換>
図13にて説明したようにコミュニケーションがうまくいかない状況が生じた場合、ペンID=2のペン2500のユーザーが、「Today's proceedings」を選択してもよい。変換先文字列101の選択に使用されたペン2500のペンIDが2なので、言語変換部30は英語の認識結果を表示する。
図16は、ペンID=2のペン2500で「Today's proceedings」が選択された場合に表示される文字列候補539を示す。言語変換部30は、「本日の議事」「本日の議事録」「本日の議題」「本日の儀」「本日の技術」の5つの文字列候補を、ペンID=2のペン2500の表示言語である英語に変換する。
ペンID=2のペン2500のユーザーは英語話者であることが想定されているので、このユーザーは文字列候補539から、ペンID=1のペン2500のユーザーが理解できる言語で表示したい文字列候補を選択できる。例えば、ペンID=2のペン2500のユーザーが「Today's minutes」をペン2500で選択した場合、ペンID=2のペン2500の変換先言語は日本語なので、言語変換部30は「Today's minutes」を「本日の議事録」に変換する。したがって、図16では日本語が変換先文字列101となる。
このように、英語話者が自分のペン2500で直接、文字列候補を選択できるので、コミュニケーションが進みやすくなる。
<ペンID=3のペン2500による変換>
表1によれば、ペンID=3のペン2500は、表示言語が日本語、変換先言語が中国語である。したがって、図11において、ペンID=3のペン2500のユーザーが文字列候補を選択すると、言語変換部30は選択された文字列候補を中国語に変換する。
図17は、図11において、ペンID=3のペン2500のユーザーが文字列候補を選択した場合の変換例である。ユーザーがペンID=3のペン2500で「本日の議事」を選択したとする。言語変換部30は、ペン2500が操作ガイド内を押下したため、ペン2500の変換先言語に文字列候補「本日の議事」を変換すると判断する。ペンID=3のペン2500に設定されている変換先言語は中国語なので、言語変換部30は選択された日本語の文字列候補を中国語に変換する。
図17では中国語である「今天的程序」に変換された変換先文字列101を表示制御部24が表示した。文字列候補539の選択により、操作ガイド500は消去される。
このように、表示装置2は、ユーザーが使用するペン2500に対応付けられている変換先言語に応じて文字列候補を変換できる。
<ペンに対応付けられている変換先言語への変換処理>
図18は、表示装置2がペン2500に対応付けられている変換先言語へ、選択された文字列候補を変換する処理を説明するフローチャート図の一例である。
まず、接触位置検出部21が検出するペン2500の座標に応じて、手書きデータの入力を受け付ける(S1)。描画データ生成部22は座標点を保間して、手書きデータを生成する。
文字認識部23は、ユーザーがペン2500をディスプレーから離して一定時間が経過すると、手書きデータを文字認識する(S2)。文字認識部23は、ペン通信部31がペン2500から受信したペンIDに基づいて表1の変換言語記憶部41から表示言語を取得する。文字認識部23はこの表示言語で手書きデータを文字認識する。
表示制御部24は操作ガイド500を表示する(S3)。表示制御部24は少なくとも文字列候補539を表示し、変換した文字列が操作コマンドに該当する場合は、操作コマンドの候補も表示する。
ユーザーがペン2500で文字列候補539を選択すると、接触位置検出部21は文字列候補539の選択を受け付ける(S4)。接触位置検出部21はペン2500の選択の座標を検出する。言語変換部30は、ペン2500が操作ガイド内を押下したため、ペン2500の変換先言語に文字列候補を変換すると判断する。言語変換部30は、ペン2500からペン通信部31が受信したペンIDに対応付けられている変換先言語に、文字列候補を変換する(S5)。表示制御部24は変換先文字列101を表示し、文字列候補の選択に応じて操作ガイド500を消去する。
次に、言語変換部30は、変換先文字列101がペン2500により選択されたか否かを判断する(S6)。選択されない場合、図18の処理は終了する。
変換先文字列101がペン2500により選択された場合、表示制御部24が操作ガイド500を再度表示する(S7)。文字認識部23は、ペン通信部31がペン2500から受信したペンIDに基づいて表1の変換言語記憶部41から表示言語を取得する。文字認識部23がこの表示言語で手書きデータを文字列候補539に変換済みの場合、表示制御部24は保存してある文字列候補539を表示する。文字認識部23がこの表示言語で手書きデータを文字列候補539に変換済みでない場合、文字認識部23は表示言語で手書きデータ504を文字列候補539に変換して、表示制御部24が文字列候補539を表示する。
この後、処理は、ステップS4に戻り、ユーザーはコミュニケーションがうまくいく文字列候補539を繰り返し選択できる。
<変換先文字列の回転について>
表1に示したように、変換言語記憶部41ではペンIDに対応付けて表示方向が登録されている。この表示方向に表示言語で文字列が表示されると、ペン2500のユーザーに正対するので読みやすい。そこで、変換先言語に変換された変換先文字列101を表示装置2が表示する場合、変換先言語を表示言語に有するペン2500の表示方向に回転処理部29が変換先文字列101を回転させるとよい。
例えば、ペンID=1のペン2500の変換先言語は英語であるが、ペンID=2のペン2500の表示言語は英語である。したがって、回転処理部29は英語に変換した変換先文字列101を、ペンID=2の表示方向である180°に回転させて表示する。
図19は、変換先文字列101の回転を説明する図である。図示するように、表示方向が定められているものとする。図19(a)は図11と同じ状態である。ユーザーがペンID=1のペン2500で文字列候補539を選択すると、文字列候補539が英語に変換される。英語を表示言語に有するペン2500が変換言語記憶部41に設定されており、該ペンの表示方向は180°なので、回転処理部29は英語の変換先文字列101を180°の表示方向に回転させる。
図19(b)は180°の表示方向に回転された変換先文字列101を示す。したがって、180°の表示方向に存在するユーザーが変換先文字列101を読みやすい。
次に、コミュニケーションがうまくいかず、図19(b)の状態で、ペンID=1のペン2500でユーザーが変換先文字列101を選択したとする。この場合、ペンID=1に対応付けられている表示方向が0°なので、表示制御部24は0°の表示方向に操作ガイド500を表示する。
図20(a)は、変換先文字列101と0°の表示方向に表示された操作ガイド500を示す。したがって、ペンID=1のペン2500でユーザーは文字列候補539を読みやすい。
また、コミュニケーションがうまくいかず、図19(b)の状態で、ペンID=2のペン2500でユーザーが変換先文字列101を選択したとする。この場合、ペンID=1に対応付けられている表示方向が180°なので、表示制御部24は180°の表示方向に操作ガイド500を表示する。
図20(b)は、変換先文字列101と180°の表示方向に表示された操作ガイド500を示す。したがって、ペンID=2のペン2500でユーザーは文字列候補を読みやすい。
図20では、ペンIDに対応付けられている表示方向が0°と180°の場合を示したが、図21に示すように、ペンIDに対応付けられている表示方向が90°と270°の場合も同様に表示装置2が操作ガイド500を表示できる。
図21(a)は、変換先文字列101と90°の表示方向に表示された操作ガイド500を示す。図21(b)は、変換先文字列101と270°の表示方向に表示された操作ガイド500を示す。図21(a)(b)は、いずれも図19(b)の状態から、90°と270°の表示方向が対応付けられたペン2500でユーザーが変換先文字列101を選択した場合を示す。図21の文字列候補539は英語であるが、中国語やフランス語など、ペン2500に対応付けられている言語で表示可能である。
このように、表示装置2が文字列の変換と共に変換先文字列101や操作ガイド500を回転させることで、コミュニケーションがしやすくなる。
<主な効果>
以上説明したように、本実施形態の表示装置は、他の言語に変換される複数の文字列候補からユーザーが変換先言語に変換する文字列を選択できるので、円滑なコミュニケーションがしやすくなる。また、一度、文字列が変換先言語に変換されても、ユーザーが変換先文字列101を選択することで、再度、他の言語に変換される複数の文字列候補を表示できる。したがって、ユーザーが手書きデータを何度も手書きすることなく、別の文字列候補を選択して、変換先言語に変換できる。また、表示装置2は、ペンに設定されている変換先言語に選択された文字列候補を変換できる。
以下の実施例では表示装置2の別の構成例について説明する。
<<表示装置の別の構成例1>>
本実施形態の表示装置2は大型のタッチパネルを有するものとして説明されているが、表示装置2はタッチパネルを有するものに限られない。
図22は、表示装置2の他の構成例を示す図である。図22では、通常のホワイトボード413の上辺にプロジェクター411が設置されている。このプロジェクター411が表示装置2に相当する。通常のホワイトボード413とは、タッチパネルと一体のフラットパネルディスプレーではなく、ユーザーがマーカーで直接、手書きするホワイトボードである。なお、ホワイトボードは黒板でもよく、映像を投影するだけの広さの平面であればよい。
プロジェクター411は超短焦点の光学系を有しており、10cm程度から歪みの少ない映像をホワイトボード413に投影できる。この映像は、無線又は有線で接続されたPCから送信されてもよいし、プロジェクター411が記憶していてもよい。
ユーザーは専用の電子ペン2501を使ってホワイトボード413に手書きする。電子ペン2501は、ユーザーが手書きのためにホワイトボード413に押しつけるとスイッチがONになり発光する発光部を例えば先端部に有している。光の波長は近赤外や赤外なのでユーザーの目には見えない。プロジェクター411はカメラを有しており、発光部を撮像して画像を解析し電子ペン2501の方向を特定する。また、電子ペン2501は発光と共に音波を発信しており、プロジェクター411は音波の到達時間により距離を算出する。プロジェクター411は方向と距離により電子ペン2501の位置を特定できる。電子ペン2501の位置には手書きされたデータが描画(投影)される。
プロジェクター411はメニュー430を投影するので、ユーザーが電子ペン2501でボタンを押下すると、プロジェクター411が電子ペン2501の位置とスイッチのON信号により押下されたボタンを特定する。例えば、保存ボタン431が押下されると、ユーザーが手書きした手書きされたデータ(座標点列)がプロジェクター411で保存される。プロジェクター411は、予め定められたサーバー412又はUSBメモリー2600等に手書き情報を保存する。手書き情報はページごとに保存されている。画像データではなく座標のまま保存されるので、ユーザーが再編集することができる。ただし、本実施形態では操作コマンドを手書きで呼び出せるのでメニュー430は表示されなくてもよい。
<<表示装置の別の構成例2>>
図23は、表示装置2の他の構成例を示す図である。図23の例では、表示装置2が、端末装置600、画像投影装置700A、及び、ペン動作検出装置810を有する。
端末装置600は、画像投影装置700A及びペン動作検出装置810と有線で接続されている。画像投影装置700Aは、端末装置600により入力された画像データをスクリーン800に投影させる。
ペン動作検出装置810は、電子ペン820と通信を行っており、スクリーン800の近傍における電子ペン820の動作を検出する。具体的には、電子ペン820は、スクリーン800上において、電子ペン820が示している点を示す座標情報を検出し(検出方法は図22と同様でよい)、端末装置600へ送信する。
端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820によって入力される手書きデータの画像データを生成し、画像投影装置700Aによって手書きデータの画像をスクリーン800に描画させる。
また、端末装置600は、画像投影装置700Aに投影させている背景画像と、電子ペン820によって入力された手書データの画像とを合成した重畳画像を示す重畳画像データを生成する。
<<表示装置の別の構成例3>>
図24は、表示装置2の構成例を示す図である。図24の例では、表示装置2が、端末装置600と、ディスプレー800Aと、ペン動作検出装置810Aとを有する。
ペン動作検出装置810は、ディスプレー800Aの近傍に配置され、ディスプレー800A上に、電子ペン820Aが示している点を示す座標情報を検出し(検出方法は図22と同様でよい)、端末装置600へ送信する。なお、図24の例では、電子ペン820Aは、端末装置600によってUSBコネクタを介して充電されても良い。
端末装置600は、ペン動作検出装置810Aから受信した座標情報に基づき、電子ペン820Aによって入力される手書データの画像データを生成し、ディスプレー800Aに表示させる。
<<表示装置の別の構成例4>>
図25は、表示装置2の構成例を示す図である。図25の例では、表示装置2が、端末装置600と、画像投影装置700Aとを有する。
端末装置600は、電子ペン820Bと無線通信(Bluetooth(登録商標)等)を行って、スクリーン800上において電子ペン820Bが示す点の座標情報を受信する。座標情報は、スクリーン800に形成された微小な位置情報を電子ペン820Bが読み取ってもよいし、スクリーン800から座標情報を受信してもよい。
そして、端末装置600は、受信した座標情報に基づき、電子ペン820Bにより入力される手書データの画像データを生成し、画像投影装置700Aに手書データの画像を投影させる。
また、端末装置600は、画像投影装置700Aに投影させている背景画像と、電子ペン820Bによって入力された手書データの画像とを合成した重畳画像を示す重畳画像データを生成する。
以上のように、上記した各実施形態は、様々なシステム構成において適用することができる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
文字列は文字コードとして、手書きデータは座標点データとして表示装置2に保存される。また、各種の記憶媒体に保存したり、ネットワーク上の記憶装置に保存したりしておいて、後で、表示装置2からダウンロードして再使用することができる。再使用する表示装置2はどの表示装置でもよく、一般的な情報処理装置でもよい。したがって、ユーザーは手書きした内容を異なる表示装置2で再現して会議などを継続することができる。
例えば、本実施形態では電子黒板を一例として説明したが、電子黒板は、電子ホワイトボード、電子情報ボード、などと呼ばれてよい。また、本実施形態は、タッチパネルを有する情報処理装置であれば好適に適用できる。タッチパネルを搭載した情報処理装置としては、例えば、PJ(Projector:プロジェクター)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、デジタルカメラ、ウェアラブルPC又はデスクトップPC等であってもよい。
また、本実施形態ではペン先の座標をタッチパネルで検知する方法でペンの座標を検出したが、表示装置2はペン先の座標を超音波により検出してもよい。また、ペンは発光と共に超音波を発信しており、表示装置2は超音波の到達時間により距離を算出する。方向と距離によりペンの位置を特定できる。ペンの軌跡をストロークデータとしてプロジェクターが描画(投影)する。
また、図4などの構成例は、表示装置2による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。表示装置2の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
また、表示装置2が行う処理の一部を、表示装置2とネットワークを介して接続されたサーバーが行ってもよい。
また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
接触位置検出部21は受付手段の一例である。記憶部40は記憶手段の一例である。文字認識部23は文字認識手段の一例である。表示制御部24は表示制御手段の一例である。言語変換部30は変換手段の一例である。
2 表示装置
特許第3599927号公報

Claims (10)

  1. 電子ペンによって手書きデータの入力を受け付ける受付手段と、
    前記手書きデータを複数の文字列に変換する文字認識手段と、
    前記文字認識手段が変換した前記複数の文字列を表示する表示制御手段と、
    前記電子ペンの識別情報に対応づけて、変換先言語を記憶する記憶手段と、を有し、
    前記表示制御手段は、前記複数の文字列のうち前記電子ペンで選択された前記文字列を、該電子ペンの識別情報に対応付けられている前記変換先言語における複数の文字列に変換して表示する表示装置。
  2. 前記記憶手段には、前記電子ペンの識別情報に対応づけて、変換先言語と表示言語が設定されており、
    前記文字認識手段は、前記手書きデータの入力に用いられた前記電子ペンに対応付けられている前記表示言語に、前記手書きデータを変換することを特徴とする請求項1に記載の表示装置。
  3. 前記表示制御手段は前記変換先言語に変換した変換先文字列の選択を前記電子ペンで受け付けた場合、
    前記表示制御手段は、前記変換先文字列の選択に用いられた前記電子ペンに対応付けられている前記表示言語で、変換した前記複数の文字列を、再度、表示することを特徴とする請求項2に記載の表示装置。
  4. 前記表示制御手段は、表示した前記複数の文字列のうち前記電子ペンで選択された前記文字列を、選択に用いられた前記電子ペンに対応付けられている変換先言語に、再度、変換して表示することを特徴とする請求項3に記載の表示装置。
  5. 前記記憶手段には、第一の電子ペンと第二の電子ペンにそれぞれ異なる前記表示言語が対応付けられており、
    前記表示制御手段は、前記変換先文字列が前記第一の電子ペンで選択された場合と、前記第二の電子ペンで選択された場合とで、異なる前記表示言語で、変換した前記複数の文字列を表示することを特徴とする請求項3に記載の表示装置。
  6. 前記記憶手段には、第一の電子ペンと第三の電子ペンにそれぞれ異なる前記変換先言語が対応付けられており、
    前記複数の文字列のうち前記第一の電子ペンで前記文字列が選択された場合と、前記複数の文字列のうち前記第三の電子ペンで前記文字列が選択された場合とで、前記表示制御手段は選択された文字列を異なる前記変換先言語に変換して表示することを特徴とする請求項1に記載の表示装置。
  7. 前記記憶手段には、前記電子ペンの識別情報に表示方向が対応付けられており、
    前記表示制御手段は、前記変換先文字列を、前記変換先言語を前記表示言語に有する前記電子ペンに対応付けられている表示方向に表示することを特徴とする請求項3~5のいずれか1項に記載の表示装置。
  8. 前記表示方向に表示された前記変換先文字列の選択を、前記電子ペンで受け付けた場合、
    前記表示制御手段は、前記変換先文字列の選択に用いられた前記電子ペンに対応付けられている前記表示言語で、かつ、前記変換先文字列の選択に用いられた前記電子ペンに対応付けられている前記表示方向に、変換した前記複数の文字列を表示することを特徴とする請求項7に記載の表示装置。
  9. 受付手段が、電子ペンによって手書きデータの入力を受け付けるステップと、
    文字認識手段が、前記手書きデータを複数の文字列に変換するステップと、
    表示制御手段が、前記文字認識手段が変換した前記複数の文字列を表示するステップと、
    前記表示制御手段が、前記複数の文字列のうち前記電子ペンで選択された前記文字列を、該電子ペンの識別情報に対応付けられている変換先言語における複数の文字列に変換して表示するステップと、
    を有する表示方法。
  10. 表示装置を、
    電子ペンによって手書きデータの入力を受け付ける受付手段と、
    前記手書きデータを複数の文字列に変換する文字認識手段と、
    前記文字認識手段が変換した前記複数の文字列を表示する表示制御手段、として機能させ、前記表示制御手段は、前記複数の文字列のうち前記電子ペンで選択された前記文字列を、該前記電子ペンの識別情報に対応付けられている変換先言語における複数の文字列に変換して表示するプログラム。
JP2021048598A 2021-03-23 2021-03-23 表示装置、表示方法、プログラム Pending JP2022147384A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021048598A JP2022147384A (ja) 2021-03-23 2021-03-23 表示装置、表示方法、プログラム
EP22161851.5A EP4064020B1 (en) 2021-03-23 2022-03-14 Display system, display method, and carrier means
US17/695,831 US20220317871A1 (en) 2021-03-23 2022-03-16 Display apparatus, display system, display method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021048598A JP2022147384A (ja) 2021-03-23 2021-03-23 表示装置、表示方法、プログラム

Publications (1)

Publication Number Publication Date
JP2022147384A true JP2022147384A (ja) 2022-10-06

Family

ID=80738775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021048598A Pending JP2022147384A (ja) 2021-03-23 2021-03-23 表示装置、表示方法、プログラム

Country Status (3)

Country Link
US (1) US20220317871A1 (ja)
EP (1) EP4064020B1 (ja)
JP (1) JP2022147384A (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6154758A (en) * 1994-05-13 2000-11-28 Apple Computer, Inc. Text conversion method for computer systems
JP3933449B2 (ja) 2001-11-22 2007-06-20 株式会社東芝 コミュニケーション支援装置
US7424154B2 (en) * 2003-11-10 2008-09-09 Microsoft Corporation Boxed and lined input panel
JP5653392B2 (ja) * 2012-06-29 2015-01-14 株式会社東芝 音声翻訳装置、方法およびプログラム
JPWO2014147722A1 (ja) * 2013-03-18 2017-02-16 株式会社東芝 電子機器、方法及びプログラム
KR102214178B1 (ko) * 2013-12-13 2021-02-10 한국전자통신연구원 자동 통역 장치 및 방법
US9836457B2 (en) * 2015-05-25 2017-12-05 Panasonic Intellectual Property Corporation Of America Machine translation method for performing translation between languages
US11551480B2 (en) * 2019-04-11 2023-01-10 Ricoh Company, Ltd. Handwriting input apparatus, handwriting input method, program, and input system

Also Published As

Publication number Publication date
US20220317871A1 (en) 2022-10-06
EP4064020B1 (en) 2023-12-13
EP4064020A1 (en) 2022-09-28

Similar Documents

Publication Publication Date Title
US20210303836A1 (en) Handwriting input display apparatus, handwriting input display method and recording medium storing program
US11557138B2 (en) Display apparatus, control method, and recording medium
JP2022147384A (ja) 表示装置、表示方法、プログラム
JP2022147337A (ja) 表示装置、表示方法、プログラム
JP7384191B2 (ja) 表示装置、プログラム、領域変更方法
US11726654B2 (en) Display apparatus capable of displaying icon corresponding to shape of hand-drafted input, display method, and non-transitory computer-executable medium storing program thereon
JP7480608B2 (ja) 表示装置、表示方法、プログラム
JP7508916B2 (ja) 表示装置、表示方法およびプログラム
US20230070034A1 (en) Display apparatus, non-transitory recording medium, and display method
US20230306184A1 (en) Display apparatus, display method, and program
US11822783B2 (en) Display apparatus, display method, and information sharing system
EP4246301A1 (en) Display apparatus, formatting method, carrier means, and information sharing system
US11868607B2 (en) Display apparatus, display method, and non-transitory recording medium
US20230289517A1 (en) Display apparatus, display method, and non-transitory recording medium
JP2022141344A (ja) 表示装置、表示方法、プログラム
US20220300147A1 (en) Display apparatus, display method, and non-transitory recording medium
JP7268479B2 (ja) 表示装置、プログラム、表示方法
JP2022119463A (ja) 表示装置、表示方法およびプログラム
US20230315283A1 (en) Display apparatus, display method, display system, and recording medium
JP2023133110A (ja) 表示装置、表示方法、プログラム
JP2021149662A (ja) 表示装置、表示方法、プログラム
JP2023133111A (ja) 表示装置、表示方法、プログラム
JP2022147297A (ja) 表示装置、表示方法、プログラム
JP2021085965A (ja) 表示装置、表示プログラム、表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240827