JP2022147337A - 表示装置、表示方法、プログラム - Google Patents

表示装置、表示方法、プログラム Download PDF

Info

Publication number
JP2022147337A
JP2022147337A JP2021048533A JP2021048533A JP2022147337A JP 2022147337 A JP2022147337 A JP 2022147337A JP 2021048533 A JP2021048533 A JP 2021048533A JP 2021048533 A JP2021048533 A JP 2021048533A JP 2022147337 A JP2022147337 A JP 2022147337A
Authority
JP
Japan
Prior art keywords
display
character string
conversion
display direction
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021048533A
Other languages
English (en)
Inventor
仁敬 大嶋
Kiminori Oshima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2021048533A priority Critical patent/JP2022147337A/ja
Priority to EP22162481.0A priority patent/EP4064019A1/en
Priority to US17/695,846 priority patent/US20220319211A1/en
Publication of JP2022147337A publication Critical patent/JP2022147337A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1463Orientation detection or correction, e.g. rotation of multiples of 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/196Recognition using electronic means using sequential comparisons of the image signals with a plurality of references
    • G06V30/1983Syntactic or structural pattern recognition, e.g. symbolic string recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/28Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/422Technical drawings; Geographical maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/02Recognising information on displays, dials, clocks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】文字列の表示方向に応じて変換先言語に変換して表示することができる表示装置を提供すること。【解決手段】ディスプレーに文字列を表示する表示装置であって、前記文字列の表示方向を取得する取得手段と、前記文字列の表示方向と変換先言語とを対応付けて記憶する記憶手段と、前記取得手段で取得された文字列の表示方向に応じて、前記ディスプレーに表示されている前記文字列を、該文字列の表示方向に対応する前記記憶手段の前記変換先言語に変換する変換手段と、前記変換手段が前記変換先言語に変換した前記文字列を表示する表示制御手段と、を有する。【選択図】図2

Description

本発明は、表示装置、表示方法、又は、プログラムに関する。
手書き認識技術を利用し、手書きデータを文字に変換して、ディスプレーに表示する表示装置が知られている。比較的大型のタッチパネルを備えた表示装置は会議室や公共施設などに配置され、複数のユーザーにより電子黒板などとして利用される。表示装置は筆談によるコミュニケーションツールとして利用される場合もある。
また、手書き認識技術を用いて手書きデータを翻訳する技術が考案されている(例えば、特許文献1参照。)。特許文献1には、手書きデータに文字認識を行なってテキストデータ化し、テキストデータを異なる言語へ翻訳する技術が開示されている。
しかしながら、従来の技術では、手書きデータに基づく文字列を、文字列の表示方向に応じて言語を変換して表示することができないという問題があった。
例えば、AさんとBさんが表示装置を挟んで向かい合っている。Aさんが日本語を手書きし、表示装置が文字認識された文字列をAさんに正対して表示する。表示装置は、文字列を英語等に変換することは可能だが、Bさんからは文字列の方向が逆になるので読みにくい。
本発明は、上記課題に鑑み、文字列の表示方向に応じて変換先の言語に変換して表示することができる表示装置を提供することを目的とする。
上記課題に鑑み、本発明は、ディスプレーに文字列を表示する表示装置であって、前記文字列の表示方向を取得する取得手段と、前記文字列の表示方向と変換先言語とを対応付けて記憶する記憶手段と、前記取得手段で取得された文字列の表示方向に応じて、前記ディスプレーに表示されている前記文字列を、該文字列の表示方向に対応する前記記憶手段の前記変換先言語に変換する変換手段と、前記変換手段が前記変換先言語に変換した前記文字列を表示する表示制御手段と、を有する。
文字列の表示方向に応じて変換先の言語に変換して表示することができる表示装置を提供することができる。
日本語の手書きデータから変換された一例の日本語の文字列を示す図である。 本実施形態の表示装置が変換した文字列の表示例を示す図である。 表示装置が変換した文字列の表示例を示す図である。 表示装置の一例の全体構成図である。 表示装置の一例のハードウェア構成図である。 表示装置が有する機能をブロック状に分けて説明する一例の機能ブロック図である。 操作ガイドと操作ガイドが表示する一例の選択可能候補を示す図である。 文字列の一例の表示方向を説明する図である。 ユーザーが手書きする方向と表示方向の対応を模式的に示す図である。 角度情報の一例の入力方法を説明する図である。 表示方向と変換先言語をユーザーが対応付ける一例の方法を説明する図である。 表示方向に応じた文字列の変換例を説明する図である 複数の異なる言語が同時に存在する場合の変換例を示す図である。 アイコンによる一例の回転操作を説明する図である。 操作コマンドの実行による一例の回転操作を説明する図である。 表示装置がユーザー操作に応じて、表示方向に応じた変換先言語に文字列を変換する手順を示す一例のフローチャート図である。 画像を回転させずに、文字列のみを表示方向に回転させ表示方向に応じて変換する変換例を説明する図である。 文字列のみを回転させる一例の操作方法を説明する図である。 表示装置がユーザー操作に応じて、文字列のみを表示方向に応じた変換先言語に変換する手順を示す一例のフローチャート図である。 ユーザーが表示装置を傾けることによる表示方向の指定を説明する一例の図である。 ユーザーが表示装置を傾けることによる表示方向の指定を説明する一例の図である。 表示装置が重力方向に応じて、表示方向に応じた変換先言語に文字列を変換する手順を示す一例のフローチャート図である。 表示方向に応じた変換先言語とフォントへの変換例を説明する図である。 表示装置の他の構成例を示す図である。 表示装置の他の構成例を示す図である。 表示装置の他の構成例を示す図である。 表示装置の他の構成例を示す図である。
以下、本発明を実施するための形態の一例として表示装置と、表示装置が行う表示方法について図面を参照しながら説明する。
異なる言語話者が混在する職場や現場にて表示装置が使われる場面がある。このような場面では、ある国の人が異国の人に手書きにより情報を伝えたい場合、ディスプレーに表示されている文字列を、異国の人が分かる言語に変換して表示すれば、意思伝達が容易になる。しかし、これらの人が表示装置を囲むようにしてコミュニケーションする場合、文字列が正対する方向が人によって異なる場合が起こりうる。
<比較例>
まず、図1を参照して、本実施形態の表示装置2を説明するに当たって好適な比較例を説明する。図1は、日本語の手書きデータから変換された日本語の文字列を示す。表示装置2の利用形態の1つに、異なる言語話者が混在する職場や現場にて筆談のように使用される場合がある。
Aさんは表示装置2に地図を表示させ、手書きにより「京都駅」と表示させている。比較技術においても、Aさんが表示装置2を使用する向きに正対するように変換結果を表示させることは可能である。すなわち、Aさんに対し正対するように「Kyoto Station」と表示装置2が表示することができる。
しかし、図1のように対面のBさんがアルファベットを読めるとしても、聞き慣れない「Kyoto Station」という文字列を反対側から読みやすいとは言えない。
<本実施形態の表示装置の概略>
そこで、本実施形態の表示装置2は、以下の構成によりユーザーが正対する向きにこのユーザーが理解できる言語で文字列を表示する。
(i) 表示装置2は文字列の表示方向ごとに変換先言語の設定を受け付ける。
(ii) 表示装置2は文字列を表示方向に回転させる場合、表示方向に応じた変換先言語に変換して表示する。
図2は、本実施形態の表示装置2が変換した文字列の表示例を示す。例えば図2(a)では0°の表示方向に日本語、180°の表示方向に英語が設定されている。Aさんが日本語で「京都駅」301と手書きした場合、180°の表示方向に回転させると、表示装置2が「京都駅」301を180°の変換先言語である英語「Kyoto Station」302に変換する。また、「Kyoto Station」302は180°回転して表示される。したがって、Bさんは正対する方向から英語で「Kyoto Station」302を読むことができる。
図3(a)では、逆に、180°の表示方向からBさんが手書きした手書きデータに基づいて「Toji temple」303と表示されている。図3(b)に示すように、Bさんが0°の表示方向に回転させると、表示装置2は「Toji temple」303を0°の変換先言語である日本語「東寺」304に変換する。また、「東寺」304は0°回転して表示される。したがって、Aさんは正対する方向から日本語で「東寺」304を読むことができる。
このように、本実施形態の表示装置2は、表示方向と変換先言語が対応付けられているので、ユーザーが所望の表示方向で文字列を表示させる場合、表示装置2は表示方向に応じた言語で表示することができる。すなわち、ユーザーは正対する方向から常に自分が理解できる言語で文字を読むことができる。
<用語について>
入力手段とはタッチパネルに座標を指定して手書きが可能な手段であればよい。例えば、ペン、人の指や手、棒状部材などがある。
ユーザーがディスプレーに入力手段を押しつけてから連続的に移動させた後、ディスプレーから離すという一連の操作をストロークという。ストロークデータとは、入力手段により入力される座標の軌跡に基づいてディスプレーに表示される情報である。ストロークデータは適宜、補間されてよい。手書きデータとは、1つ以上のストロークデータを有するデータである。手書き入力とは、ユーザーによって、手書きデータが入力されることを示している。
ストロークデータに基づいてディスプレーに表示される表示物をオブジェクトという。オブジェクトとは対象という意味であるが、本実施形態では表示対象などの意味である。
手書きデータが文字認識して変換された文字列には、テキストデータの他、「済」などの決まった文字やマークとして表示されるスタンプ、円や星などの図形、直線等、ユーザーの操作に基づいて表示されたデータも含まれてよい。
確定データは手書きデータの文字認識により文字コード(フォント)に変換されユーザーにより選択されたデータ、又は、文字コード(フォント)に変換しないことが確定している手書きデータである。
操作コマンドとは手書き入力装置を操作するために用意されている、特定の処理の実行を指示する命令をいう。本実施形態では一例として、画像全体の回転、表示方向と変換先文字列の対応をユーザーが表示装置2に指示する例を説明する。このほか、文字列の編集系、修飾系、又は、入出力系などでも操作コマンドが使用される。
文字列とは、コンピュータで扱われる1つ以上の文字である。文字列の実態は文字コードである。文字には、数字、アルファベット、及び、記号等が含まれる。文字列はテキストデータとも言われる。
変換とはかえること又はかわることをいう。文字列の言語を変換することを翻訳という場合がある。
表示方向とは文字列を表示する方向である。本実施形態の表示方向は、ディスプレーの中心からディスプレーの周囲360°のいずれかの方向である。この表示方向のユーザーに対し文字列が正対する。正対とは対象にまっすぐ向くことをいう。
<装置の構成例>
図4を用いて、本実施形態に係る表示装置2の全体構成を説明する。図4は、表示装置2の全体構成図を示した図である。図4(a)では、表示装置2の一例として、壁につり下げられた横長の電子黒板として使用される表示装置2を示している。
図4(a)に示されているように、表示装置2の上部には表示装置2の一例としてのディスプレー220が設置されている。ユーザーUは、ペン2500を用いて、ディスプレー220に文字等を手書きする(入力、描画ともいう)ことができる。
図4(b)は壁につり下げられた縦長の電子黒板として使用される表示装置2を示している。
図4(c)は机230に平置きされた表示装置2を示す。表示装置2は厚みが1cm程度なので、一般の机に平置きしても机の高さを調整する必要がない。また、ユーザーは表示装置2を容易に移動できる。
なお、ペン2500の座標の入力方式には、電磁誘導方式、アクティブ静電結合方式などがある。また、ペン2500は、筆圧検知、傾き検知、ホバー機能(ペンが触れる前にカーソルを表示)、などの機能を有していてよい。
<装置のハードウェア構成>
続いて、図5を用いて、表示装置2のハードウェア構成を説明する。表示装置2は図示するように情報処理装置又はコンピュータの構成を有している。図5は、表示装置2のハードウェア構成図の一例である。図5に示されているように、表示装置2は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、及び、SSD(Solid State Drive)204を備えている。
これらのうち、CPU201は、表示装置2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。
SSD204は、OSや表示装置用のプログラム等の各種データを記憶する。このプログラムは汎用的なOS(Windows(登録商標)、Mac OS(登録商標)、Android(登録商標)、iOS(登録商標)等)を搭載した情報処理装置で動作するアプリケーションプログラムでもよい。
また、表示装置2は、ディスプレーコントローラー213、タッチセンサーコントローラー215、タッチセンサー216、ディスプレー220、電源スイッチ227、チルトセンサー217、シリアルインタフェース218、スピーカー219、マイク221、無線通信装置222、赤外線I/F223、電源制御回路224、ACアダプター225、及びバッテリー226を備えている。
ディスプレーコントローラー213は、出力画像をディスプレー220等へ出力するために画面表示の制御及び管理を行う。タッチセンサー216は、ディスプレー220上にペン2500やユーザーの手等(ペンやユーザーの手は入力手段となる)が接触したことを検知する。また、タッチセンサー216はペンIDを受信する。
タッチセンサーコントローラー215は、タッチセンサー216の処理を制御する。タッチセンサー216は、座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、例えば、光学式の場合、ディスプレー220の上側両端部に設置された2つ受発光装置が、ディスプレー220に平行して複数の赤外線を放射し、ディスプレー220の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。タッチセンサー216は、物体によって遮断された2つの受発光装置が放射した赤外線の位置情報をタッチセンサーコントローラー215に出力し、タッチセンサーコントローラー215が、物体の接触位置である座標位置を特定する。また、タッチセンサーコントローラー215は通信ユニット215aを有しており、ペン2500と無線で通信することができる。例えば、Bluetooth(登録商標)などの規格で通信している場合は、市販されているペンを使用することができる。通信ユニット215aに予め1つ以上のペン2500を登録しておくと、ユーザーはペン2500を表示装置2と通信させる接続設定を行わなくても通信できる。
電源スイッチ227は、表示装置2の電源のON/OFFを切り換えるためのスイッチである。チルトセンサー217は、表示装置2の傾き角度を検出するセンサーである。主に、表示装置2が図4(a)、図4(b)、又は、図4(c)のいずれかの設置状態で使用されているかを検出するために使用され、設置状態に応じて文字等の太さを自動で変更することができる。
シリアルインタフェース218はUSBなどの外部との通信インタフェースである。シリアルインタフェース218は、外部からの情報の入力などに使用される。スピーカー219は音声の出力に使用され、マイク221は音声の入力に使用される。無線通信装置222は、ユーザーが携帯する端末と通信し、例えばインターネットへの接続を中継する。無線通信装置222はWi-FiやBluetooth(登録商標)などで通信するが、通信規格は問われない。無線通信装置222はアクセスポイントを形成しており、ユーザーが入手したSSID(Service Set Identifier)とパスワードをユーザーが携帯する端末に設定すると、アクセスポイントに接続できる。
なお、無線通信装置222には2つのアクセスポイントが用意されているとよい。
a. アクセスポイント→インターネット
b. アクセスポイント→社内ネットワーク→インターネット
aのアクセスポイントは社外のユーザー用で、ユーザーは社内ネットワークにはアクセスできないが、インターネットを利用できる。bのアクセスポイントは社内のユーザー用で、ユーザーは社内ネットワーク及びインターネットを利用できる。
赤外線I/F223は隣に配置された表示装置2を検出する。赤外線I/F223は、赤外線の直進性を利用して、隣に配置された表示装置2のみを検出できる。赤外線I/F223は各辺に1つずつ設けられることが好ましく、表示装置2のどの方向に他の表示装置2が配置されたのかを検出できる。これにより画面が広がり、隣の表示装置2に過去に手書きされた手書き情報(1つのディスプレー220の広さを1ページとして別のページの手書き情報)等を表示できる。
電源制御回路224は表示装置2の電源であるACアダプター225とバッテリー226を制御する。ACアダプター225は商用電源が共有する交流を直流に変換する。
ディスプレー220がいわゆる電子ペーパーの場合、画像の表示を維持するためにほとんど又は一切電力を消費しないので、バッテリー226による駆動も可能である。これにより、屋外など電源を接続しにくい場所でもデジタルサイネージなどの用途で表示装置2を使用することが可能になる。
更に、表示装置2は、バスライン210を備えている。バスライン210は、図5に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
なお、タッチセンサー216は、光学式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなど種々の検出手段を用いてもよい。タッチセンサー216は、ペン先のタッチの有無を検知するのに電子ペンが必要ない方式であってよい。この場合はタッチ操作をするのに指先やペン型の棒を使用できる。なお、ペン2500は、細長いペン型である必要はない。
<機能について>
次に、図6を用いて表示装置2の機能について説明する。図6は、表示装置2が有する機能をブロック状に分けて説明する機能ブロック図の一例である。表示装置2は、接触位置検出部21、描画データ生成部22、文字認識部23、表示制御部24、データ記録部25、ネットワーク通信部26、操作受付部27、操作コマンド処理部28、回転処理部29、言語変換部30、傾き検出部31、及び、入力方向検出部32を有している。表示装置2が有する各機能は、図5に示されている各構成要素のいずれかが、SSD204からRAM203上に展開されたプログラムに従ったCPU201からの命令によって動作することで実現される機能又は手段である。
接触位置検出部21はタッチセンサー216に対しペン2500が接触した位置の座標を検出する。描画データ生成部22はペン2500のペン先が接触した座標を接触位置検出部21から取得する。描画データ生成部22は、この座標点列を補間することで接続してストロークデータを生成する。
文字認識部23はユーザーが手書きした1つ以上のストロークデータ(手書きデータ)に対し文字認識処理を行い、文字コードに変換する。文字認識部23は、ユーザーのペン操作と並行して文字(日本語だけでなく英語などの多国語)、数字、記号(%、$、&など)、図形(線、丸、三角など)等を認識していく。認識方法については様々なアルゴリズムが考案されているが、本実施形態では公知の技術を利用できるとして詳細を割愛する。
表示制御部24は手書きデータ、手書きデータから変換された文字列、及び、ユーザーが操作するための操作メニューなどをディスプレーに表示する。データ記録部25は、表示装置2に手書きされた手書きデータ、変換された文字列、及び、PCの画面、ファイル等を記憶部40に記憶する。ネットワーク通信部26はLAN等のネットワークに接続して、他の機器とネットワークを介したデータの送受信を行う。
操作コマンド処理部28は、文字認識部が認識した文字列が操作コマンドに対応するかを検出し、ユーザーが操作コマンドを押下した場合、操作コマンドを実行する。
回転処理部29は、操作コマンド又はユーザー操作に応じて、画像全体又は文字列を回転させる。本実施形態では、文字列のみの回転、又は、文字列を含む画像全体の回転が可能である。以下では、画像全体の回転という場合、文字列と画像が共に同じ角度回転されることを意味する。
言語変換部30は、画像全体又は文字列の回転時に、画面に表示されている文字列の言語を、文字列の表示方向に応じて変換する。なお、言語変換部30は、変換言語記憶部41から表示方向に対応付けられている変換先言語を取得する取得部の機能を有している。
傾き検出部31は、チルトセンサーの検出結果を使用して表示装置2に働く重力方向を検出する。重力方向は例えば表示装置2の4辺のいずれかである。
入力方向検出部32は、手書きデータに基づいて、手書きデータを入力するユーザーに正対する表示方向を検出する。あるいは、入力方向検出部32は、予め決まった方法で手書きされた手書きデータに応じて、入力手段を用いて手書きするユーザーに正対する表示方向を検出する。
また、表示装置2は、図5に示されているSSD204やRAM203などに構築される記憶部40を有し、記憶部40には変換言語記憶部41、操作コマンド定義データ記憶部42、入力データ記憶部43、及び、いくつかの変換辞書44が構築されている。
Figure 2022147337000002

表1は変換言語記憶部41に設定されている表示方向と変換先言語の対応を示す。変換言語記憶部41には文字列の表示方向に応じた変換先言語が対応付けて登録されている。例えば、0°は日本語、90°は中国語、180°は英語、270°は韓国語、であるが、表示方向と変換先言語の対応はユーザーが設定できる。また、表示方向によっては変換先言語が登録されていない場合もある。表示方向は、基準となる表示方向を0°として、例えば、反時計回りに90°、180°、270°と予め定められている。
Figure 2022147337000003

表2は操作コマンド定義データ記憶部42に記憶される操作コマンド定義データを模式的に示す。操作コマンド定義データは、文字認識で得られた認識文字列によりユーザーが操作コマンドを表示装置2に指示するための操作コマンドを定義する。
例えば、「回転」「90」「180」「270」という文字列が認識された場合、対応する操作コマンドは「表示を90°回転」「表示を180°回転」「表示を270°回転」である。表示装置2はこれら操作コマンドを表示し、ユーザーからの操作を受け付ける。操作コマンドが選択された場合、操作コマンド処理部28は処理の項目に記載の内容を実行する。例えば、操作コマンド処理部28は、回転処理部29に画像全体の回転を指示し、言語変換部30に表示方向を指定して文字列の変換を指示する。
Figure 2022147337000004

表3は入力データ記憶部43の内容を模式的に示す。入力データは、ユーザーにより入力されたデータの属性である。入力データは1つのオブジェクト(1つのストロークデータ、1つの文字列、1つの画像等)ごとに記録される。
・DataIdは入力データの識別情報である。
・Typeは入力データの種別であり、ストローク(Stroke)、テキスト(Text)、及び、イメージ(Image)がある。Typeによって入力データが保持する属性は異なってよいが、表3ではType="Text"の場合を説明する。テキストは文字列を表し、イメージは画像である。
・PenIDはこの文字列の入力に使用されたペン2500の識別情報である。
・Angleはこの文字列の表示方向である。
・StartPointは文字列の外接矩形における左上頂点の座標である。
・StartTimeはユーザーが文字列を書き始めた時刻である。
・EndPointは文字列の外接矩形における右下頂点の座標である。
・EndTimeはユーザーが文字列を書き終えた時である。
・FontNameは文字列のフォント名である。
・FontSizeは文字サイズである。
・Textは入力されたテキストである(文字コード)。
・Languageは文字列の言語である。
<選択可能候補の表示例>
続いて、図7を参照して、手書きデータの変換時に表示される操作ガイド500について説明する。図7は操作ガイド500と操作ガイドが表示する選択可能候補530の一例である。ユーザーが手書きデータ504を手書きすることで、操作ガイド500が表示される。操作ガイド500は、操作コマンドの候補510、手書き認識文字列候補506、変換文字列候補507、及び、文字列/予測変換の候補508を表示する。なお、選択可能候補530は、操作コマンドの候補510、手書き認識文字列候補506、変換文字列候補507、文字列/予測変換の候補508である。また、操作コマンドの候補510を除く選択可能候補530を文字列候補539という。
手書きデータ504はユーザーが手書きした「ぎ」という文字である。手書きデータ504を囲む手書きデータ矩形領域表示503が表示される。図7では一文字の入力で操作ガイド500が表示されているが、操作ガイド500が表示されるタイミングは、ユーザーが手書きを中断したタイミングである。したがって、手書きデータ504の文字数は任意である。
手書き認識文字列候補506、変換文字列候補507、文字列/予測変換の候補508にはそれぞれの文字列候補が確率降順で並んでいる。手書き認識文字列候補506の「ぎ」は認識結果の候補である。この例では、文字認識部23が正しく「ぎ」を認識している。
変換文字列候補507は「ぎ」のカナ漢字変換の結果(例えば「技」)から変換された変換文字列候補(例えば技を含む熟語)である。この例の「技量試」とは「技術量産試作」の略名である。文字列/予測変換の候補508は変換文字列候補507から変換された予測文字列候補である。この例では「技量試を決裁」と「議事録の送付先」が表示されている。
操作コマンドの候補510は認識された文字に応じて表示される、予め定義されている操作コマンド(ファイル操作、文字の編集などのコマンド)の候補である。図7の例では行頭文字の「》」511が操作コマンドの候補であることを示している。図7では「ぎ」の文字列候補である「議事録」が、定義データと部分一致したため、操作コマンドの候補510が表示されている。
操作コマンドの候補510は、変換された文字列を含む操作コマンド定義データが見つかる場合に表示されるため、常に表示されるとは限らない。本実施形態では、変換に関する操作コマンドの候補510が表示される。
操作ヘッダー520はボタン501、509、502、505を有する。ボタン501は予測変換とカナ変換の切り替え操作を受け付ける。ボタン502は候補表示のページ操作をする。図7の例では候補表示ページは3ページあり、現在は1ページ目を表示している。ボタン505は操作ガイド500の消去を受け付ける。ユーザーがボタン505を押下すると操作受付部27が受け付けて、表示制御部24が手書きデータ以外の表示を消去する。ボタン509は一括表示消去を受け付ける。ユーザーがボタン509を押下すると操作受付部27が受け付けて、表示制御部24が手書きデータを含め、図7に示されているすべての表示を消去して、ユーザーが最初から手書きをしなおすことを可能にする。
<表示方向と変換先言語の登録>
図8は、表示方向を説明する図である。本実施形態では、ディスプレーの中央から予め定まっている辺に対する垂線方向を0°とする。そして、各辺のユーザーに正対する表示方向を反時計回りに90°、180°、270°とする。
手書きしているユーザーが4辺のどの方向に存在するかを表示装置2が判断する方法がいくつかある。1つの方法として、ユーザーが手書きする方向により入力方向検出部32はユーザーが4辺のどの方向に存在するかを判断できる。
図9は、ユーザーが手書きする方向と表示方向の対応を模式的に示す図である。例えば、ストロークデータの座標が、左から右、かつ、上から下に移動する場合(左から右への横書き)、この上から下方向に存在する辺が表示方向である。図9では各文字の始点と終点を黒丸で示すが、全体的に左上から右下に移動することが分かる。
同様に、ストロークデータの座標が、上から下、かつ、右から左に移動する場合(上から下への縦書き)、この上から下方向に存在する辺が表示方向である。入力方向検出部32はこのように、手書きデータに基づいてユーザーが4辺のどの方向に存在するかを推定できる。
また、手書きデータの座標と表示方向の対応を、表示装置のメーカーが機会学習により生成してもよい。例えば、担当者がニューラルネットワークに時系列の手書きデータを入力し、表示方向を教師データとして与えることで、入力方向検出部32が学習モデルとして得られる。
なお、図8では、表示方向が0°、90°、180°、270°の4つであるが、表示方向はより細かく設定されてもよい。表示方向は例えば45°間隔や30°間隔で設定されてもよい。
別の方法として、表示装置2がペン2500を利用してユーザーが4辺のどの方向に存在するかを判断する方法がある。この方法では、まず、ペン2500に表示方向が対応付けられる。
図10は、角度情報の入力方法を説明する図の一例である。図10では表示装置2の90°の方向に存在するユーザーが角度情報を入力する場合を説明する。90°の方向から手書きされた文字等は時計回りに90°回転されると正しく認識されるので、90度という表示方向が入力されるとよい。
図10(a)は、表示装置2の90°の方向に存在するユーザーが「ぎ」を手書きしたため、操作ガイド500が表示された状態を示す。表示装置2は90°の方向から手書きした「ぎ」を、表示方向が初期値の0°のまま文字認識するため、期待とは違う選択可能候補530が表示されている。
角度情報を入力する場合、ユーザーは操作ガイド500内に、ユーザーから見て上から下方向に直線を手書きする。図10(b)はこの直線521の一例を示す。0°の方向とこの直線521との反時計回りのなす角αが表示方向である。すなわち、始点Sから0°の方向に下ろした直線522と、ユーザーが入力した直線521の反時計回りのなす角αが表示方向である。したがって、図10(b)でユーザーが入力した表示方向は90°である。
なお、直線の検出には、例えば、始点Sから終点Eまでの座標を最小二乗法で直線に変換し、得られた相関係数と閾値を比較して直線か否かを判断する方法がある。
ユーザーが直線521を書き始めた直後(ペン2500を直線521の始点Sに触れた直後)、表示装置2は操作ガイド500を消去する。また、直線521を書き終わった直後(ペン2500を直線521の終点Eから離した直後)、表示装置2は、90°、180°、270°、0°から上記のなす角αが最も近い値を探してそれを表示方向に決定する。なす角αそのものが角度情報でもよい。この表示方向が使用されたペン2500に対応付けられる。
ペン2500は、手書きなどのためにペン先が押圧されると、ペンIDを表示装置2に送信するので、表示装置2はペン2500と表示方向を対応付けることができる。
図10(c)は、図10(b)の操作直後の操作ガイド500を示す。ペン2500に表示方向として90°が設定されたので、手書きデータが内部的に90°だけ時計回りに回転して文字認識され、操作ガイド500は90°だけ反時計回りに回転して表示されている。なお、角度情報はメニューからユーザーが手動で入力してもよい。
図11は、表示方向と変換先言語をユーザーが対応付ける方法を説明する図である。図11では0°の表示方向と180°の表示方向にユーザーが存在する。表示装置2は、図9にて説明したように、手書きデータに基づいてユーザーが4辺のどの方向に存在するかを判断できる。あるいは、各ユーザーが使用するペン2500にすでに表示方向が対応付けられている。
0°の表示方向のユーザーが言語設定の操作コマンドを呼び出す「日本語」を手書きする。これにより、操作ガイド500には「日本語に設定」という操作コマンド310が表示される。ユーザーがこの操作コマンドを選択すると、操作コマンド処理部28は、入力方向検出部32が「日本語」で検出した0°という表示方向に変換先言語「日本語」を設定する。あるいは、操作コマンド処理部28は、0°の表示方向のユーザーが使用したペン2500の0°という表示方向に変換先言語「日本語」を設定する。
同様に、180°の表示方向のユーザーが言語設定の操作コマンドを呼び出す「English」を手書きする。これにより、操作ガイド500には「Set to English」という操作コマンド311が表示される。ユーザーがこの操作コマンドを選択すると、操作コマンド処理部28は入力方向検出部32が「English」で検出した180°という表示方向に変換先言語「英語」を設定する。あるいは、操作コマンド処理部28は、180°の表示方向のユーザーが使用したペン2500の180°という表示方向に変換先言語「English」を設定する。以上で、表1のような変換言語記憶部41が生成される。
なお、変換言語記憶部41に登録された表示方向と変換先言語の対応は、ユーザーが予め定まっている操作コマンドを実行することで解除できる。
また、ユーザーが手書きした手書きデータは該ユーザーが存在する表示方向に対応付けられている変換先言語で文字認識される。例えば、0°の表示方向のユーザーが手書きした「こんにちは」は日本語の「こんにちは」と認識され、180°の表示方向のユーザーが手書きした「Hello」は英語のアルファベットの「Hello」と認識される。
<表示方向に応じた変換例>
図12は、表示方向に応じた文字列の変換例を説明する図である。図12では90°ごとに変換先言語を設定されているものとする。0°の表示方向に日本語、90°の表示方向に中国語、180°の表示方向に英語、270°の表示方向に韓国語が設定されている。
図12(a)に示すように、0°の方向から日本語で「京都駅」320とユーザーが手書きした。文字列の入力データの属性は以下のようになる。
・Angle=0° Language=日本語
ユーザーが画像全体を90°回転させる操作を入力すると(詳細は後述する)、回転処理部29が画像全体を反時計回りに90°回転させる。また、言語変換部30が90°の表示方向に対応付けられている変換先言語を変換言語記憶部41から取得し、日本語を中国語に変換する変換辞書44を用いて、「京都駅」を中国語321に変換する。なお、回転処理部29と言語変換部30の処理は並行に行われてもよいし、どちらかが先に行われてもよい。これにより、図12(b)に示すように、画像と中国語の「京都駅」321が90°の表示方向に正対して表示される。文字列の入力データの属性は以下のようになる。
・Angle=90° Language=中国語
また、更に、ユーザーが画像全体を90°回転させる操作を入力すると、回転処理部29と言語変換部30が同様の処理を行う。これにより、図12(c)に示すように、画像と英語に変換された「京都駅」322が180°の表示方向に正対して表示される。文字列の入力データの属性は以下のようになる。
・Angle=180° Language=英語
また、更に、ユーザーが画像全体を90°回転させる操作を入力すると、回転処理部29と言語変換部30が同様の処理を行う。これにより、図12(d)に示すように、画像と韓国語に変換された「京都駅」323が270°の表示方向に正対して表示される。文字列の入力データの属性は以下のようになる。
・Angle=270° Language=韓国語
なお、各ユーザーは画像全体の回転状態に関係なく、任意に文字列を手書きできる。例えば、図12(d)の状態で、0°の方向のユーザーが自分に正対するように日本語で手書きした場合、該日本語は表示方向に応じて変換されるので、各ユーザーは正対する方向から見る限り自分が理解できる言語で文字列を読める。各ユーザーは自分に正対する方向に自分の言語で手書きした状態で、ユーザーが画像全体を回転させると、本実施形態の表示方向に応じた変換先言語への変換により、各方向のユーザーが読める言語に変換できる。
図13は、複数の異なる言語が同時に存在する場合の変換例を示す。図13(a)は図12(d)と同じものである。180°の方向のユーザーが英語で「good」324と入力した。このため、図13(a)では韓国語で「京都駅」に相当する文字列323と英語の「good」324が表示されている。入力データにおける各文字列の属性は以下のようになる。
・韓国語 Angle=270° Language=韓国
・英語 Angle=180° Language=英語
ユーザーが更に90°回転させた場合、表示方向と変換先言語はそれぞれ以下のようになる
・韓国語 Angle=0°=270+90 Language=日本語
・英語 Angle=270°=180+90 Language=韓国
したがって、図13(b)に示すように、韓国語の「京都駅」323は日本語の「京都駅」320に、英語の「good」324は韓国語のgoodに相当する文字列325に、それぞれ変換される。したがって、複数の異なる言語が正対するユーザーからは読める言語で表示される。このように、1つの画面内に異なる言語が同時に存在しても何ら支障がない。
<文字列を含む画像全体の回転操作>
次に、図14、図15を参照して、ユーザーによる画像全体の回転操作を説明する。回転操作はユーザーがアイコンを操作する方法と、操作コマンドを実行する方法がある。回転操作は、文字を手書きしたユーザーだけでなく任意のユーザーが行うことができる。
図14は、アイコン330による回転操作を説明する図である。表示装置2は画面にツールトレイを表示するので、ユーザーがツールトレイ内のアイコン330を押下することで、回転操作を入力できる。
アイコン330を押下すると、90°、180°、270°の回転角度が表示されるので、ユーザーは所望の回転角度を選択する。あるいは、90°、180°、270°の回転角度に対応したアイコンが用意されてもよい。なお、ユーザーが指示する90°、180°、270°の回転角度は現在の状態に対して更に角度を回転させる相対角度である。
図15は、操作コマンドの実行による回転操作を説明する図である。ユーザーが「かいてん」と手書きすると、文字認識部23が「回転」に変換する。「回転」は操作コマンド定義データに登録されてるので、操作コマンド処理部28が「表示を90°回転」「表示を180°回転」「表示を270°回転」という操作コマンドを検出する。表示制御部24はこれらの操作コマンドを操作ガイド500に表示する。図15では、「表示を90°回転」341と「表示を180°回転」342のみを示した。
このように、ユーザーがアイコン操作又は手書きデータにより画像全体を回転させ、更に表示方向に応じた変換先言語に文字列を変換できる。
<画像全体の回転の動作手順>
図16は、表示装置2がユーザー操作に応じて、表示方向に応じた変換先言語に文字列を変換する手順を示すフローチャート図である。図16では説明の便宜上、すでに1つ以上の文字列が表示されているものとする。
操作受付部27が回転操作の入力を受け付ける(S1)。回転操作の入力方法はアイコン又は手書きデータのどちらが使用されてもよい。これにより、操作コマンド処理部28から又はアイコン操作から、言語変換部30は回転角度を取得した。
言語変換部30は、変換言語記憶部41から表示方向に対応付けられている変換先言語を取得する(S2)。操作受付部27が受け付けるのは回転角度なので(現在の状態からの相対的な回転角度)、すでに表示されている文字列の表示方向に回転角度を足した値が、回転後の表示方向である。言語変換部30は回転後の表示方向に対応付けられている変換先言語を変換言語記憶部41から取得する。なお、各文字列の入力データはAngleとLanguageを保持しているので、言語変換部30は現在の表示方向と現在の言語を特定できる。
次に、言語変換部30は変換元と変換先の言語に対応した変換辞書44を使って文字列を変換する(S3)。変換元の言語はすでに表示されている文字列の言語(入力データのLanguage)であり、変換先の言語は変換言語記憶部41において回転後の表示方向に対応付けられている変換先言語である。
なお、言語変換部30は文字列の入力データのAngleとLanguageを更新する。
表示制御部24はすでに表示されている文字列を削除し、変換した文字列を表示する(S4)。
画面に複数の文字列(Type="Text")が表示されている場合、ステップS2~S4が文字列ごとに行われる。
回転処理部29は変換後の文字列を含む画像全体を、操作受付部27が受け付けた回転角度で回転する(S5)。なお、回転処理部29が画像全体を回転させてから、言語変換部30が文字列の言語を変換してもよい。
<文字列のみの回転>
例えば図12では回転処理部29が文字列を含む画像全体を回転させた。しかし、回転処理部29は文字列だけを回転させてもよい。
図17は、画像を回転させずに、文字列のみを表示方向に回転させ表示方向に応じて変換する変換例を説明する図である。図17では0°に日本語、90°に中国語、180°に英語が設定されている。
図17(a)に示すように、0°の方向のユーザーが日本語で「確認!」と手書きした。ユーザー(このユーザーは誰でもよい)が「確認!」350という文字列を90°回転させる操作を入力すると、言語変換部30が90°の表示方向(現在のAngleは0°)に対応付けられている変換先言語を変換言語記憶部41から取得する。言語変換部30は、日本語を中国語に変換する変換辞書44を用いて、「確認!」350を中国語の文字列351に変換する。
そして、回転処理部29が中国語の文字列351を反時計回りに90°回転させる。なお、回転処理部29と言語変換部30の処理は並行に行われてもよいし、どちらかが先に行われてもよい。これにより、図17(b)に示すように、中国語の文字列351が90°の表示方向に正対して表示される。なお、文字列351の入力データのAngleは90°、Languageは中国語、Textは中国語の「確認!」に更新される。
また、ユーザーが中国語の文字列351を更に90°回転させる操作を入力すると、回転処理部29と言語変換部30が同様の処理を行う。これにより、図17(c)に示すように、英語の文字列352が180°の表示方向に正対して表示される。なお、文字列352の入力データのAngleは180°、Languageは英語、Textは英語の「確認!」に更新される。
このように、表示装置2が、画像は回転させずに文字列だけを回転させる場合、地図のような複雑な画像が静止した状態となるので、各ユーザーが画像を見やすいというメリットがある。
図18は、文字列のみを回転させる操作方法を説明する図である。文字列のようなオブジェクトを回転させる一例を説明する。
a. ユーザーがペン2500で文字列を選択する(図18(a))。
b. 表示制御部24がテキストボックスを表示する。
c. ユーザーがテキストボックスの回転バーをペン2500で押下して所望の表示方向に回転させる(図18(b))。操作受付部27は回転角度を受け付ける。
このように、画像全体の回転と文字列のみの回転で操作方法がことなることで、ユーザー画像全体を回転させた方がみやすいか、文字列のみを回転させた方がみやすいかを考慮して使い分けることができる。
なお、文字列のみの回転に操作コマンドが使用されてもよい。
<文字列のみの回転の動作手順>
図19は、表示装置2がユーザー操作に応じて、文字列のみを表示方向に応じた変換先言語に変換する手順を示すフローチャート図である。図19の説明では図16との相違を主に説明する。
操作受付部27は図18のような文字列の回転操作を受け付ける(S11)。これにより、操作受付部27から、言語変換部30が回転される文字列と回転角度を取得した。
言語変換部30は、変換言語記憶部41から表示方向に対応付けられている変換先言語を取得する(S12)。この処理は図16のステップS2と同様でよい。
次に、言語変換部30は変換元と変換先の言語に対応した変換辞書44を使って文字列を変換する(S13)。この処理は図16のステップS3と同様でよい。
表示制御部24はすでに表示されている文字列を削除し、変換した文字列を操作受付部27が受け付けた回転角度で回転してから表示する(S14)。
<チルトセンサーによる表示方向の指定>
ユーザーが操作コマンドの入力又はアイコンで表示方向を指定するだけでなく、ユーザーが表示装置2を傾けることで表示方向を指定できる。
図20は、ユーザーが表示装置2を傾けることによる表示方向の指定を説明する図である。図20(a)は水平面に置かれた表示装置2を上面から示す図である。0°と180°の表示方向にユーザー364,365が存在している。0°の表示方向に対応付けられている変換先言語は日本語、180°の表示方向に対応付けられている変換先言語は英語である。そして、0°の方向に正対して「京都駅」360という文字列が表示されている。
図20(b)に示すように、ユーザー364が表示装置2の自分の側の端を持ち上げると、重力方向が180°の表示方向に変化したことを傾き検出部31が検出する。表示装置2は、180°の表示方向に対応付けられている変換先言語に「京都駅」360という文字列を変換して表示する。図20(c)では「京都駅」という文字列が英語の文字列361に変換されている。
180°の表示方向のユーザー365が英語の文字列を手書きする場合も同様に変換できる。図21(a)は水平面に置かれた表示装置2を上面から示す図である。180°の表示方向にいるユーザー365に正対する方向に「東寺」が英語の文字列361で表示されている。
図21(b)に示すように、ユーザー365が表示装置2の自分の側の端を持ち上げると、重力方向が0°の表示方向に変化したことを傾き検出部31が検出する。表示装置2は、0°の表示方向に対応付けられている変換先言語に英語の文字列361を変換して表示する。図21(c)では「東寺」363という文字列が表示されている。
このように、ユーザーは相手の向きに表示装置2を傾けることで、表示方向に応じた変換先言語に文字列を変換させ、画像全体を回転させることができる。
なお、重力方向の検出には、チルトセンサーだけでなく加速度センサーやジャイロセンサーを用いてよい。
図22は、表示装置2が重力方向に応じて、表示方向に応じた変換先言語に文字列を変換する手順を示すフローチャート図である。図22の説明では、主に図11との相違を説明する。
傾き検出部31が、重力が最も大きく作用する4辺のいずれかの表示方向として検出する(S21)。なお、重力が最も大きく作用する辺と次点の辺の重力の差が一定以上になるまでは、傾き検出部31は元の表示方向を維持する。表示方向のハンチングを防ぐためである。これにより、傾き検出部31から言語変換部30が表示方向を取得した。
言語変換部30は、変換言語記憶部41から表示方向に対応付けられている変換先言語を取得する(S22)。言語変換部30は回転角度でなく表示方向を取得してるので、この表示方向に対応付けられている変換先言語を変換言語記憶部41から取得すればよい。
以降のステップS23~S25処理は、図16のステップS3~S5と同様でよい。
<フォントの設定>
言語にはユーザーが所望のフォント設定可能でもよい。表示装置2は表示方向と言語に対応したフォントで文字列を表示できる。
Figure 2022147337000005

表4は、フォントが設定された変換言語記憶部41の一例を示す。表4では、変換先言語と対にフォントが設定されている。言語ごとに存在するフォントが異なるためである。0°の日本語には明朝体、90°の中国語には宋体が設定されている。180°の英語にはセリフ体、270°の韓国語にはパダンチェが設定されている。
図23は、表示方向に応じた変換先言語とフォントへの変換を説明する図である。図23(a)では、0°の表示方向に正対して明朝体で「京都駅」370と「東寺」371が表示されている。ユーザーが画像全体を180°回転させた場合、図23(b)に示すように、180°の表示方向に正対して英語のセリフ体で、「京都駅」に相当する英語の文字列372と「東寺」に相当する英語の文字列373とが表示される。
このように、ユーザーは所望のフォントで各言語のフォントを表示できる。なお、変換先言語とフォントの対応付けは、ユーザーがそれぞれの表示方向から「フォント」などを手書きして操作コマンドを表示させ、所望のフォントを選択する方法がある。
以下の実施例では表示装置2の別の構成例について説明する。
<<表示装置の別の構成例1>>
本実施形態の表示装置2は大型のタッチパネルを有するものとして説明されているが、表示装置2はタッチパネルを有するものに限られない。
図24は、表示装置2の他の構成例を示す図である。図24では、平置きのホワイトボード413の一辺にプロジェクター411が設置されている。このプロジェクター411が表示装置2に相当する。平置きのホワイトボード413は、タッチパネルと一体のフラットパネルディスプレーではなく、ユーザーがマーカーで直接、手書きするホワイトボードである。なお、ホワイトボード413は黒板でもよく、映像を投影するだけの広さの平面であればよい。
プロジェクター411は超短焦点の光学系を有しており、10cm程度から歪みの少ない映像をホワイトボード413に投影できる。この映像は、無線又は有線で接続されたPCから送信されてもよいし、プロジェクター411が記憶していてもよい。
ユーザーは専用の電子ペン2501を使ってホワイトボード413に手書きする。電子ペン2501は、ユーザーが手書きのためにホワイトボード413に押しつけるとスイッチがONになり発光する発光部を例えば先端部に有している。光の波長は近赤外や赤外なのでユーザーの目には見えない。プロジェクター411はカメラを有しており、発光部を撮像して画像を解析し電子ペン2501の方向を特定する。また、電子ペン2501は発光と共に音波を発信しており、プロジェクター411は音波の到達時間により距離を算出する。プロジェクター411は方向と距離により電子ペン2501の位置を特定できる。電子ペン2501の位置には手書きされたデータが描画(投影)される。
プロジェクター411はメニュー430を投影するので、ユーザーが電子ペン2501でボタンを押下すると、プロジェクター411が電子ペン2501の位置とスイッチのON信号により押下されたボタンを特定する。例えば、保存ボタン431が押下されると、ユーザーが手書きした手書きされたデータ(座標点列)がプロジェクター411で保存される。プロジェクター411は、予め定められたサーバー412又はUSBメモリー2600等に手書き情報を保存する。手書き情報はページごとに保存されている。画像データではなく座標のまま保存されるので、ユーザーが再編集することができる。ただし、本実施形態では操作コマンドを手書きで呼び出せるのでメニュー430は表示されなくてもよい。
<<表示装置の別の構成例2>>
図25は、表示装置2の他の構成例を示す図である。図25の例では、表示装置2が、端末装置600、画像投影装置700A、及び、ペン動作検出装置810を有する。
端末装置600は、画像投影装置700A及びペン動作検出装置810と有線で接続されている。画像投影装置700Aは、端末装置600により入力された画像データをスクリーン800に投影させる。
ペン動作検出装置810は、電子ペン820と通信を行っており、平置きのスクリーン800の近傍における電子ペン820の動作を検出する。具体的には、電子ペン820は、スクリーン800上において、電子ペン820が示している点を示す座標情報を検出し(検出方法は図24と同様でよい)、端末装置600へ送信する。
端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820によって入力される手書きデータの画像データを生成し、画像投影装置700Aによって手書きデータの画像をスクリーン800に描画させる。
また、端末装置600は、画像投影装置700Aに投影させている背景画像と、電子ペン820によって入力された手書データの画像とを合成した重畳画像を示す重畳画像データを生成する。
<<表示装置の別の構成例3>>
図26は、表示装置2の構成例を示す図である。図26の例では、表示装置2が、端末装置600と、平置きのディスプレー800Aと、ペン動作検出装置810Aとを有する。
ペン動作検出装置810Aは、ディスプレー800Aの近傍に配置され、ディスプレー800A上に、電子ペン820Aが示している点を示す座標情報を検出し(検出方法は図24と同様でよい)、端末装置600へ送信する。なお、図26の例では、電子ペン820Aは、端末装置600によってUSBコネクタを介して充電されても良い。
端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820Aによって入力される手書データの画像データを生成し、ディスプレー800Aに表示させる。
<<表示装置の別の構成例4>>
図27は、表示装置2の構成例を示す図である。図27の例では、表示装置2が、端末装置600と、画像投影装置700Aとを有する。
端末装置600は、電子ペン820Bと無線通信(Bluetooth(登録商標)等)を行って、平置きのスクリーン800上において電子ペン820Bが示す点の座標情報を受信する。座標情報は、スクリーン800に形成された微小な位置情報を電子ペン820Bが読み取ってもよいし、スクリーン800から座標情報を受信してもよい。
そして、端末装置600は、受信した座標情報に基づき、電子ペン820Bにより入力される手書データの画像データを生成し、画像投影装置700Aに手書データの画像を投影させる。
また、端末装置600は、画像投影装置700Aに投影させている背景画像と、電子ペン820Bによって入力された手書データの画像とを合成した重畳画像を示す重畳画像データを生成する。
以上のように、上記した各実施形態は、様々なシステム構成において適用することができる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
文字列は文字コードとして、手書きデータは座標点データとして表示装置2に保存される。また、各種の記憶媒体に保存したり、ネットワーク上の記憶装置に保存したりしておいて、後で、表示装置2からダウンロードして再使用することができる。再使用する表示装置2はどの表示装置でもよく、一般的な情報処理装置でもよい。したがって、ユーザーは手書きした内容を異なる表示装置2で再現して会議などを継続することができる。
例えば、本実施形態では電子黒板を一例として説明したが、電子黒板は、電子ホワイトボード、電子情報ボード、などと呼ばれてよい。また、本実施形態は、タッチパネルを有する情報処理装置であれば好適に適用できる。タッチパネルを搭載した情報処理装置としては、例えば、PJ(Projector:プロジェクター)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、デジタルカメラ、ウェアラブルPC又はデスクトップPC等であってもよい。
また、本実施形態ではペン先の座標をタッチパネルで検知する方法でペンの座標を検出したが、ペン先の座標を超音波により検出してもよい。また、ペンは発光と共に超音波を発信しており、表示装置2は超音波の到達時間により距離を算出する。方向と距離によりペンの位置を特定できる。ペンの軌跡をストロークデータとしてプロジェクターが描画(投影)する。
また、図6などの構成例は、表示装置2による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。表示装置2の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
また、表示装置2が行う処理の一部を、表示装置2とネットワークを介して接続されたサーバーが行ってもよい。
また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
言語変換部(取得部)30は取得手段と変換手段の一例である。表示制御部24は表示制御手段の一例である。文字認識部23は文字認識手段の一例である。操作コマンド処理部28はコマンド処理手段の一例である。傾き検出部31は表示方向検出手段の一例である。接触位置検出部21は手書きデータ受付手段の一例である。操作受付部27は操作受付手段の一例である。入力方向検出部32は入力方向検出手段の一例である。変換言語記憶部41は記憶手段の一例である。
2 表示装置
特開2003-162527号公報

Claims (13)

  1. ディスプレーに文字列を表示する表示装置であって、
    前記文字列の表示方向を取得する取得手段と、
    前記文字列の表示方向と変換先言語とを対応付けて記憶する記憶手段と、
    前記取得手段で取得された文字列の表示方向に応じて、前記ディスプレーに表示されている前記文字列を、該文字列の表示方向に対応する前記記憶手段の前記変換先言語に変換する変換手段と、
    前記変換手段が前記変換先言語に変換した前記文字列を表示する表示制御手段と、
    を有する表示装置。
  2. 手書きデータを前記文字列に変換する文字認識手段を有し、
    前記表示制御手段は、前記文字認識手段が変換した前記文字列に基づいて前記表示方向を受け付ける操作コマンドを表示し、
    前記操作コマンドの選択に応じて前記文字列の表示方向を受け付けるコマンド処理手段、を有し、
    前記変換手段は前記ディスプレーに表示されている前記文字列を、前記コマンド処理手段が受け付けた前記表示方向に対応する前記記憶手段の前記変換先言語に変換する請求項1に記載の表示装置。
  3. 前記表示制御手段は、前記文字列の表示方向を受け付けるアイコンを表示し、
    前記アイコンの押下に応じて前記文字列の表示方向を受け付ける操作受付手段、を有し、
    前記変換手段は前記ディスプレーに表示されている前記文字列を、前記操作受付手段が受け付けた前記表示方向に対応する前記記憶手段の前記変換先言語に変換する請求項1又は2に記載の表示装置。
  4. 前記表示装置に作用する重力方向に基づいて前記文字列の表示方向を検出する表示方向検出手段を有し、
    前記変換手段は前記ディスプレーに表示されている前記文字列を、前記表示方向検出手段が検出した前記表示方向に対応する前記記憶手段の前記変換先言語に変換する請求項1~3のいずれか1項に記載の表示装置。
  5. 前記表示制御手段は、前記ディスプレーに表示されている画像を前記文字列と同じ前記表示方向に正対させて表示する請求項1~4のいずれか1項に記載の表示装置。
  6. 前記表示制御手段は、前記ディスプレーに表示されている前記文字列のみを前記表示方向に正対させて表示する請求項1~4のいずれか1項に記載の表示装置。
  7. 手書きデータの入力を受け付ける手書きデータ受付手段と、
    前記手書きデータ受付手段が受け付けた前記手書きデータに基づいて、前記手書きデータを入力するユーザーに正対する表示方向を検出する入力方向検出手段と、を有し、
    前記コマンド処理手段は、前記表示方向に関する前記操作コマンドの選択に応じて、前記入力方向検出手段が検出した前記表示方向と前記変換先言語の対応を前記記憶手段に登録する請求項2に記載の表示装置。
  8. 手書きデータの入力に用いられた入力手段の識別情報を前記入力手段から受信し、
    予め決まった方法で手書きされた前記手書きデータに応じて、前記入力手段を用いて手書きするユーザーに正対する表示方向を検出する入力方向検出手段、を有し、
    前記コマンド処理手段は、前記表示方向に関する前記操作コマンドの選択に応じて、前記入力方向検出手段が検出した前記表示方向と前記変換先言語の対応を前記記憶手段に登録する請求項2に記載の表示装置。
  9. 前記文字列ごとに現在の表示方向が記録されており、
    前記変換手段は、前記文字列の現在の前記表示方向に、受け付けた相対的な回転角度を加えた値を新たな表示方向として、前記ディスプレーに表示されている前記文字列を、前記新たな表示方向に対応する前記記憶手段の前記変換先言語に変換する請求項2又は3に記載の表示装置。
  10. 前記文字列の表示方向に変換先言語が対応付けられている前記記憶手段には前記変換先言語のフォントが対応付けられており、
    前記変換手段は、前記ディスプレーに表示されている前記文字列を、前記表示方向に対応する前記記憶手段の前記変換先言語に変換し、
    前記表示制御手段は、前記変換手段が前記変換先言語に変換した前記文字列を前記変換先言語に対応付けられているフォントで表示する請求項1~9のいずれか1項に記載の表示装置。
  11. 前記表示制御手段は、前記変換手段が前記変換先言語に変換した前記文字列を前記表示方向に正対させて表示する請求項1に記載の表示装置。
  12. ディスプレーに文字列を表示する表示装置が行う表示方法であって、
    取得手段が、前記文字列の表示方向を取得するステップと、
    変換手段が、前記文字列の表示方向と変換先言語とを対応付けて記憶する記憶手段を参照し、前記取得手段で取得された文字列の表示方向に応じて、前記ディスプレーに表示されている前記文字列を、該文字列の表示方向に対応する前記記憶手段の前記変換先言語に変換するステップと、
    前記変換手段が前記変換先言語に変換した前記文字列を表示制御手段が表示するステップと、
    を有する表示方法。
  13. ディスプレーに文字列を表示する表示装置を、
    前記文字列の表示方向を取得する取得手段と、
    前記文字列の表示方向と変換先言語とを対応付けて記憶する記憶手段と、
    前記取得手段で取得された文字列の表示方向に応じて、前記ディスプレーに表示されている前記文字列を、該文字列の表示方向に対応する前記記憶手段の前記変換先言語に変換する変換手段と、
    前記変換手段が前記変換先言語に変換した前記文字列を表示する表示制御手段、
    として機能させるためのプログラム。
JP2021048533A 2021-03-23 2021-03-23 表示装置、表示方法、プログラム Pending JP2022147337A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021048533A JP2022147337A (ja) 2021-03-23 2021-03-23 表示装置、表示方法、プログラム
EP22162481.0A EP4064019A1 (en) 2021-03-23 2022-03-16 Display system, display method, and carrier means
US17/695,846 US20220319211A1 (en) 2021-03-23 2022-03-16 Display apparatus, display system, display method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021048533A JP2022147337A (ja) 2021-03-23 2021-03-23 表示装置、表示方法、プログラム

Publications (1)

Publication Number Publication Date
JP2022147337A true JP2022147337A (ja) 2022-10-06

Family

ID=81327945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021048533A Pending JP2022147337A (ja) 2021-03-23 2021-03-23 表示装置、表示方法、プログラム

Country Status (3)

Country Link
US (1) US20220319211A1 (ja)
EP (1) EP4064019A1 (ja)
JP (1) JP2022147337A (ja)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6154214A (en) * 1998-03-20 2000-11-28 Nuvomedia, Inc. Display orientation features for hand-held content display device
JP3933449B2 (ja) * 2001-11-22 2007-06-20 株式会社東芝 コミュニケーション支援装置
US20100205190A1 (en) * 2009-02-09 2010-08-12 Microsoft Corporation Surface-based collaborative search
US20110270824A1 (en) * 2010-04-30 2011-11-03 Microsoft Corporation Collaborative search and share
JP5580694B2 (ja) * 2010-08-24 2014-08-27 キヤノン株式会社 情報処理装置、その制御方法、プログラム及び記憶媒体
KR101467295B1 (ko) * 2013-03-18 2014-12-01 주식회사 피엔에프 필기 정렬이 가능한 정보 입력 장치 및 방법
JP5829354B2 (ja) * 2013-03-29 2015-12-09 楽天株式会社 情報処理システム、情報処理システムの制御方法、情報処理装置、情報処理装置の制御方法、情報記憶媒体、及びプログラム
US9727797B2 (en) * 2015-03-05 2017-08-08 International Business Machines Corporation Techniques for rotating language preferred orientation on a mobile device
CN109308205B (zh) * 2018-08-09 2020-12-01 腾讯科技(深圳)有限公司 应用程序的显示适配方法、装置、设备及存储介质

Also Published As

Publication number Publication date
US20220319211A1 (en) 2022-10-06
EP4064019A1 (en) 2022-09-28

Similar Documents

Publication Publication Date Title
US11250253B2 (en) Handwriting input display apparatus, handwriting input display method and recording medium storing program
JP7452155B2 (ja) 手書き入力装置、手書き入力方法、プログラム
JP2022019426A (ja) 表示装置、制御方法、プログラム
JP2022147337A (ja) 表示装置、表示方法、プログラム
EP4064020B1 (en) Display system, display method, and carrier means
JP2022039088A (ja) 表示装置、表示方法、プログラム、表示システム
JP7384191B2 (ja) 表示装置、プログラム、領域変更方法
JP7508916B2 (ja) 表示装置、表示方法およびプログラム
JP7480608B2 (ja) 表示装置、表示方法、プログラム
US20230070034A1 (en) Display apparatus, non-transitory recording medium, and display method
JP2022141344A (ja) 表示装置、表示方法、プログラム
US11726654B2 (en) Display apparatus capable of displaying icon corresponding to shape of hand-drafted input, display method, and non-transitory computer-executable medium storing program thereon
US11822783B2 (en) Display apparatus, display method, and information sharing system
EP4246301A1 (en) Display apparatus, formatting method, carrier means, and information sharing system
WO2022071448A1 (en) Display apparatus, display method, and program
US20230289517A1 (en) Display apparatus, display method, and non-transitory recording medium
JP7268479B2 (ja) 表示装置、プログラム、表示方法
JP2022119463A (ja) 表示装置、表示方法およびプログラム
US20220300147A1 (en) Display apparatus, display method, and non-transitory recording medium
JP2021149662A (ja) 表示装置、表示方法、プログラム
JP2023133110A (ja) 表示装置、表示方法、プログラム
JP2023133111A (ja) 表示装置、表示方法、プログラム
JP2021149480A (ja) 表示装置、表示方法、プログラム
JP2021152884A (ja) 表示装置、表示方法、プログラム、情報処理装置
JP2022147297A (ja) 表示装置、表示方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240830