JP6656477B1 - 入力表示制御装置、入力表示制御方法及び入力表示システム - Google Patents
入力表示制御装置、入力表示制御方法及び入力表示システム Download PDFInfo
- Publication number
- JP6656477B1 JP6656477B1 JP2019526625A JP2019526625A JP6656477B1 JP 6656477 B1 JP6656477 B1 JP 6656477B1 JP 2019526625 A JP2019526625 A JP 2019526625A JP 2019526625 A JP2019526625 A JP 2019526625A JP 6656477 B1 JP6656477 B1 JP 6656477B1
- Authority
- JP
- Japan
- Prior art keywords
- character string
- character
- curve
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 65
- 238000012545 processing Methods 0.000 claims description 358
- 238000010586 diagram Methods 0.000 description 95
- 238000013519 translation Methods 0.000 description 80
- 238000001514 detection method Methods 0.000 description 10
- 241000167854 Bourreria succulenta Species 0.000 description 9
- 235000019693 cherries Nutrition 0.000 description 9
- 239000003550 marker Substances 0.000 description 8
- 102100035353 Cyclin-dependent kinase 2-associated protein 1 Human genes 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 101000661816 Homo sapiens Suppression of tumorigenicity 18 protein Proteins 0.000 description 2
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 101000760620 Homo sapiens Cell adhesion molecule 1 Proteins 0.000 description 1
- 101000737813 Homo sapiens Cyclin-dependent kinase 2-associated protein 1 Proteins 0.000 description 1
- 101000585359 Homo sapiens Suppressor of tumorigenicity 20 protein Proteins 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04802—3D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
図1は、実施の形態1に係る入力表示制御装置を含む入力表示システム示す構成図であり、図2は、実施の形態1に係る入力表示システムのハードウェア構成図である。
図1及び図2において、入力表示制御装置100は、ポインティングデバイス21として、タッチパネルを用いるものを想定している。しかし、これは一例に過ぎず、入力表示制御装置100は、ジョイスティック、ポインティング・スティック、タッチパッド、スタイラス、データグローブ、トラックボール、ペンタブレット、マウス、ライトペン、ジョイパッドなどを用いることができる。
また、入力表示制御装置100の筐体には、撮像デバイスとしてカメラ70が取り付けられている。カメラ70は、3次元空間を撮像し、3次元空間の撮像結果である映像を入力表示制御装置100に出力する。
映像取得部71は、カメラ70により撮像された3次元空間の映像を取得し、取得した映像を表示制御部12に出力する。また、映像取得部71は、カメラ70により撮像された3次元空間の映像に基づいて、入力表示制御装置100が存在している位置を認識し、位置を示す位置情報を表示制御部12及び軌跡判別部4のそれぞれに出力する。
文字管理DB(DataBase)2は、例えば、図2に示す記憶処理回路22によって実現される。文字管理DB2は、文字種と文字サイズと文字高と文字幅との対応関係を示す文字属性表を記憶している。
文字管理部3は、例えば、図2に示す文字管理処理回路23によって実現される。文字管理部3は、事前にディスプレイ32に表示する文字のサイズが設定されている。文字管理部3は、文字管理DB2に記憶されている文字属性表を参照して、文字サイズに対応する文字高を示す文字属性情報を軌跡判別部4に出力し、文字サイズに対応する文字高及び文字幅を示す文字属性情報を入力表示制御装置100に出力する。
また、軌跡判別部4は、軌跡を表す3次元の曲線の画像である曲線画像を生成し、曲線画像を入力表示制御装置100に出力する。曲線画像は、曲線情報に含められており、軌跡判別部4は、曲線画像を含む曲線情報を入力表示制御装置100に出力している。
曲線画像の線幅は、文字管理部3から出力された文字属性情報が示す文字高に対応している。
音声検出部6は、例えば、図2に示すマイク25によって実現される。音声検出部6は、ユーザの音声を検出し、検出した音声を音声認識部8に出力する。
音声認識辞書DB7は、例えば、図2に示す記憶処理回路22によって実現される。音声認識辞書DB7は、例えば、人間の発声の小さな単位である音素の音響特徴が記述されている音響モデルと、音声認識する言葉が記述されている認識辞書とを備えている。
音声認識部8は、音声検出部6により検出された音声を分析して、音声の音響特徴を算出し、音声認識辞書DB7の認識辞書に記述されている言葉の中から、算出した音響特徴と最も近い音響特徴を有する言葉を探索する。音声認識部8は、探索した言葉を示す文字列を音声の認識結果を示す文字列として入力表示制御装置100に出力する。
データ送受信部は、インターネット又はLAN(Local Area Network)などの通信経路を介して、図示せぬ音声認識サーバとデータの送受信を行うことが可能なネットワークカードなどのネットワーク通信機器である。データ送受信部は、音声検出部6により検出された音声を示すデータを音声認識サーバに送信する。
音声認識サーバは、音声を認識する音声認識エンジンを搭載しており、データ送受信部から送信された音声を示すデータを受信すると、受信したデータが示す音声を認識して、音声の認識結果を示す文字列を当該データ送受信部に送信する。
データ送受信部は、音声認識サーバから送信された音声の認識結果を示す文字列を受信すると、文字列を入力表示制御装置100に出力する。
曲線情報取得部9は、例えば、図2に示す入力インタフェース回路27によって実現される。曲線情報取得部9は、軌跡判別部4から出力された曲線情報を取得し、取得した曲線情報を長さ比較部13、形状決定処理部16、曲線延長部17及び表示処理部18のそれぞれに出力する。
文字属性情報取得部11は、例えば、図2に示す入力インタフェース回路27によって実現される。文字属性情報取得部11は、文字管理部3から出力された文字属性情報を取得し、取得した文字属性情報を長さ比較部13に出力する。
表示制御部12は、軌跡判別部4により取得された曲線情報が示す曲線に沿って、文字列取得部10により取得された文字列に含まれている文字を示すオブジェクトである文字オブジェクトを映像取得部71により取得された映像に重畳するための表示情報を生成する。表示制御部12は、生成した表示情報に従って、文字オブジェクトを重畳した映像をディスプレイ32の表示領域に表示させる。表示制御部12により生成される表示情報は、文字列取得部10により取得された文字列に含まれている文字についての文字オブジェクトを曲線情報取得部9により取得された曲線情報に含まれる曲線画像の上に重ねて表示するための情報である。
以下、説明の表記を簡単化するため、「文字列に含まれている文字を示す文字オブジェクト」を「文字列に含まれている文字オブジェクト」のように表記することがある。
以下、ディスプレイ32の表示領域が示す3次元空間を「表示領域」と称し、ディスプレイ32の表示領域が示す3次元空間の周囲の3次元空間を「非表示領域」と称している。
しかし、曲線を表示領域の右端まで延長しても、曲線の長さが文字列の全体の長さよりも短い場合、文字列に含まれている文字についての文字オブジェクトの一部がディスプレイ32の表示領域からはみ出してしまうことがある。この場合、曲線情報が示す曲線の右端をさらに非表示領域まで延長し、延長した曲線に沿って文字列を配置する。
さらに、表示制御部12は、文字列に含まれている文字オブジェクトを曲線画像の上に重ねて表示した後、曲線画像の表示を消去するための表示情報を生成し、生成した表示情報に従って曲線画像を消去させる。
形状決定処理部16は、曲線記憶部15に記憶されている複数の曲線の形状と、曲線情報取得部9により取得された曲線情報が示す曲線の形状とを照合して、曲線記憶部15に記憶されている複数の曲線の形状の中から、曲線情報取得部9により取得された曲線情報が示す曲線に対応する曲線の形状を選択する。形状決定処理部16は、選択した曲線の形状から延長曲線の形状を決定し、形状を決定した延長曲線を曲線延長部17に出力する。
表示処理部18は、曲線情報取得部9により取得された曲線情報が示す曲線に沿って、文字列取得部10により取得された文字列に含まれている文字オブジェクトを映像取得部71により取得された映像に重畳するための表示情報を生成する。表示処理部18は、生成した表示情報に従って、文字オブジェクトを重畳した映像をディスプレイ32に表示させる。
さらに、表示処理部18は、ディスプレイ32に文字列に含まれている文字オブジェクを表示させた後、曲線画像の表示を消去するための表示情報を生成し、生成した表示情報に従って、ディスプレイ32に曲線画像を消去させる。
文字列移動部18cは、例えば、図2に示すポインティングデバイス21によって実現される。文字列移動部18cは、文字列選択部18aにより選択が受け付けられた文字列の移動を受け付ける。
また、表示処理部18は、文字列移動部18cによって、文字列選択部18aにより選択が受け付けられた文字列に含まれている文字オブジェクトの全体を映像取得部71により取得された映像の外側に出すための移動が受け付けられると、文字列取得部10により取得された文字列を破棄する。
また、文字管理処理回路23、画像生成処理回路24、音声認識処理回路26、長さ比較処理回路28、形状決定処理回路29、曲線延長処理回路30及び表示処理回路31は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate array)、または、これらを組み合わせたものが該当する。
ソフトウェア又はファームウェアは、プログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
図3は、入力表示システムがソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
図4は、実施の形態1に係る入力表示システムの処理内容である入力表示制御方法を示すフローチャートである(その1)。図5は、実施の形態1に係る入力表示システムの処理内容である入力表示制御方法を示すフローチャートである(その2)。
例えば、操作受付部1及び文字列認識部5を専用のハードウェアで実現し、文字管理DB2、文字管理部3、軌跡判別部4、入力表示制御装置100及び文字列一時保存部19をソフトウェア又はファームウェアなどで実現することが可能である。ただし、専用のハードウェアとソフトウェア等の組み合わせは任意である。
カメラ70は、3次元空間を撮像し、3次元空間の撮像結果である映像を入力表示制御装置100に出力する。
映像取得部71は、カメラ70から出力された3次元空間の映像を取得し、取得した映像を表示制御部12に出力する(図4のステップST1)。
また、映像取得部71は、例えば、3次元空間の映像内に存在している複数の物体までの距離をそれぞれ測定する。それぞれの物体までの距離の測定方法としては、どのような方法を用いてもよいが、例えば、カメラ70の焦点距離、あるいは、赤外線に基づいて、物体までの距離を測定する方法を用いることができる。
映像取得部71は、複数の物体までの距離に基づいて、入力表示制御装置100が存在している3次元空間内の位置を認識し、位置を示す位置情報を表示制御部12及び軌跡判別部4のそれぞれに出力する(図4のステップST2)。複数の物体までの距離に基づいて、入力表示制御装置100が存在している3次元空間内の位置を認識する処理自体は、公知の技術であるため詳細な説明を省略する。
図6の文字属性表では、例えば、文字種毎に、文字サイズに対応している文字高と文字幅が記述されている。文字種としては、明朝体、ゴシック体などが考えられる。
文字管理部3には、映像に重畳する文字の文字種及び文字サイズが事前に設定されており、文字管理部3は、文字管理DB2に記憶されている文字属性表を参照して、文字種及び文字サイズに対応する文字高を示す文字属性情報を軌跡判別部4に出力する。また、文字管理部3は、文字管理DB2に記憶されている文字属性表を参照して、文字種及び文字サイズに対応する文字高及び文字幅を示す文字属性情報を入力表示制御装置100の文字属性情報取得部11に出力する(図4のステップST3)。
また、事前に設定されている文字の文字種が“B”で、文字サイズが“5”であれば、文字高が“2mm”であることを示す文字属性情報が、文字管理部3から軌跡判別部4に出力される。また、文字高が“2mm”、文字幅が“1.25mm”であることを示す文字属性情報が、文字管理部3から入力表示制御装置100に出力される。
例えば、文字属性情報が示す文字高が“10mm”であるとき、仮に文字の上部及び下部の余白が“0.5mm”に設定されているとすれば、軌跡判別部4は、10+0.5+0.5=11=(mm)と計算して、曲線画像の線幅を“11mm”に設定する。
ここでは、軌跡判別部4が、文字の上部及び下部に余白を設けているが、余白を設けずに、文字属性情報が示す文字高と曲線画像の線幅とが一致するものであってもよい。
出力される線を描く操作の内容は、例えば、タッチパネルに接触している指の位置の座標又は入力ペンの位置の座標の連続的な変化を示す時系列データである。なお、位置の座標は、タッチパネル上の位置座標である。
線を描く操作の内容は、上述したように、タッチパネルに対する接触位置の連続的な変化を示しているので、時系列の接触位置を繋ぎ合わせることで、描かれた線の軌跡を判別することができる。
軌跡判別部4は、描かれた線の軌跡を判別すると、軌跡を表す3次元の曲線の長さ、曲線の奥行及び形状などを示す情報として、曲線を示す曲線情報を生成する(図4のステップST8)。
曲線の奥行を示す情報は、映像取得部71から出力された位置情報が示す入力表示制御装置100の3次元空間内の位置に対して、事前に設定されている奥行の長さを加えた曲線の座標に関する情報である。事前に設定されている奥行の長さは、例えば、ディスプレイ32から2cmの位置に3次元の曲線画像を配置するものとする場合、2cmである。ディスプレイ32から10cmの位置に3次元の曲線画像を配置するものとする場合、10cmである。
3次元の曲線画像の線幅は、図4のステップST4で設定した線幅であり、上記の例では、曲線画像の線幅を“11mm”に設定しているので、軌跡判別部4は、線幅が“11mm”の曲線画像を生成する(図4のステップST6)。
軌跡判別部4は、3次元の曲線画像を含む3次元の曲線情報を入力表示制御装置100の曲線情報取得部9に出力する。
音声認識部8による音声の認識処理自体は公知の技術であるため詳細な説明を省略するが、例えば、以下に示すような音声認識方法が考えられる。
[音声認識方法]
音声検出部6により検出された音声を分析して、音声の音響特徴を算出し、音声認識辞書DB7の認識辞書に記述されている言葉の中から、算出した音響特徴と最も近い音響特徴を有する言葉を探索する。そして、探索した言葉を示す文字列を音声の認識結果を示す文字列として出力する方法。
図1に示す入力表示制御装置では、説明の便宜上、ユーザが「春になったら桜を見に行きましょう」という発話をしており、音声認識部8が「春になったら桜を見に行きましょう」を示す文字列を出力するものとする。
以下、入力表示制御装置100の処理内容を具体的に説明する。
図7Aは、3次元空間に存在している物体がディスプレイ32に表示されている様子を示し、図7Bは、3次元の曲線画像の表示途中を示している。また、図7Cは、3次元の曲線画像及び文字オブジェクトがディスプレイ32に表示されている様子を示し、図7Dは、文字オブジェクトの表示結果を示している。
図8は、音声の認識結果を示す文字列が出力される前に曲線画像が出力された場合の表示処理を示す説明図である。
図9は、曲線画像が出力される前に音声の認識結果を示す文字列が出力された場合の表示処理を示す説明図である。
図10は、曲線画像の上に重ねて表示する文字オブジェクトを示す説明図である。図10Aは、曲線の長さが文字列の長さよりも長ければ、文字列に含まれている全ての文字オブジェクトを曲線画像の上に重ねて表示できることを示している。図10Bは、曲線の長さが文字列の長さよりも短ければ、文字列に含まれている一部の文字オブジェクトを曲線画像の上に重ねて表示できないことを示している。
図11は、表示制御部12の長さ比較部13の処理内容を示す説明図である。図11Aは、曲線の形状が直線である場合に、曲線の長さLの算出に用いる曲線の先端及び終端の位置座標を示している。図11Bは、曲線の形状が曲がっている場合に、曲線の長さLの算出に用いる曲線の先端、終端及び中間点の位置座標を示している。
図12は、表示制御部12の延長曲線形状決定部14の処理内容を示す説明図である。
図13Aは、延長曲線の形状が元の曲線の終端部における接線の形状である例を示す説明図であり、図13Bは、延長曲線の形状が元の曲線の形状と同じ曲率である例を示す説明図である。
図13Cは、延長曲線の形状が元の曲線の形状と同じ周期の波線形状である例を示す説明図であり、図13Dは、延長曲線の形状が円弧形状である例を示す説明図である。
図14は、表示制御部12の曲線延長部17の処理内容を示す説明図である。
図7Bは、3次元の曲線画像の表示途中を示している。
説明の簡単化のために、3次元の曲線画像を2次元で表すと、表示処理部18によって、ディスプレイ32に表示される曲線画像は、図8のステップAのようになる。
実施の形態1では、説明の便宜上、ユーザの操作によって描かれている線の長さが短いために、曲線の長さが、音声の認識結果を示す文字列の長さよりも短くなっているものとする。
なお、表示処理部18が曲線画像を表示させる際、曲線画像の全体を同時に表示させるようにしてもよいが、後で表示する文字列の先頭側から順次表示するアニメーションで、曲線画像を表示させるようにしてもよい。
文字属性情報取得部11は、文字管理部3から出力された文字属性情報を取得し、文字属性情報を長さ比較部13に出力する。
ここでは、音声認識部8から出力された文字列が「春になったら桜を見に行きましょう」であり、文字列の文字数が16である。したがって、文字管理部3から出力された文字属性情報が示す文字幅が、例えば、“5mm”であれば、文字列の長さは、下記の式(1)に示すように、80mmとなる。
文字列の長さ=5mm×16=80mm (1)
曲線の長さLは、曲線の形状が例えば図11Aに示すような直線であれば、下記の式(2)に示すように、曲線の先端の位置座標(Xs,Ys)と終端の位置座標(Xe,Ye)とから算出することができる。図8のステップAに表示している曲線画像の場合、曲線の左端が曲線の先端、曲線の右端が曲線の終端である。これらの位置座標は、文字幅等を表す単位と同じ単位であるものとする。ここでは、mmが単位である。
式(2)は、説明の簡単化のため、曲線が2次元の曲線であるものとしているが、曲線が3次元の曲線であれば、曲線の先端及び終端のZ座標の位置を用いることで、曲線の長さLを算出することができる。
曲線の長さLは、例えば、N=2の場合、下記の式(3)に示すように、曲線の先端の位置座標(Xs,Ys)と、中間点の位置座標(X1,Y1)と、中間点の位置座標(X2,Y2)と、終端の位置座標(Xe,Ye)とから算出することができる。
式(3)において、Xs<X1<X2<Xeであり、Ys<Y1<Y2<Yeである。
図10Bでは、N=2の例を示しているが、近似精度を高めるために、Nを3以上にして、数多くの中間点の位置座標(Xn,Yn)を用いるようにしてもよいことは言うまでもない。
式(3)は、説明の簡単化のため、曲線が2次元の曲線であるものとしているが、曲線が3次元の曲線であれば、曲線の先端、中間点及び終端のZ座標の位置を用いることで、曲線の長さLを算出することができる。この場合、Z座標の位置は、入力表示制御装置100の3次元空間内の位置のZ座標を用いることができる。
なお、ユーザが入力表紙制御装置100の3次元空間内の位置を移動させず、曲線を入力した場合は、Z座標の変化はないため式(3)を用いて曲線の長さLを求めることができる。
延長曲線形状決定部14は、長さ比較部13の比較結果が、曲線の長さが文字列の長さよりも短い旨を示していれば(図5のステップST16:YESの場合)、曲線情報取得部9により取得された曲線情報が示す曲線の形状から、延長部分の曲線である延長曲線の形状を決定する(図5のステップST17)。
以下、延長曲線形状決定部14による延長曲線の形状の決定処理を具体的に説明する。
形状決定処理部16は、曲線の形状の照合を行うことで、曲線記憶部15に記憶されている複数の曲線の形状の中で、曲線情報が示す曲線の形状と最も一致度が高い曲線の形状を特定し、最も一致度が高い曲線の形状を選択する。曲線の形状を照合して、一致度が最も高い曲線の形状を特定する処理自体は公知の技術であるため詳細な説明を省略する。
例えば、曲線記憶部15に記憶されている複数の曲線の長さが、操作によって描かれた線の軌跡を表す曲線よりも十分に長ければ、選択した曲線の形状の中で、曲線情報が示す曲線よりも長い部分の形状を、延長曲線の形状に決定する。
図12の例では、操作によって描かれた線の軌跡を表す曲線として、軌跡判別部4により判別された軌跡を表す曲線を破線で表している。また、図12の例では、最も一致度が高い選択した曲線を実線で表しており、破線で表している曲線の延長部分の形状を、実線で表している曲線の形状と同じにしている。
例えば、軌跡判別部4により判別された軌跡を表す曲線の形状の曲率の変化傾向などを計算し、曲率の変化傾向から、延長曲線の形状を推定するなどの方法が考えられる。
図13Bでは、曲線全体の曲率が一定であるため、延長曲線の形状の曲率を、軌跡判別部4により判別された軌跡を表す曲線である元の曲線の形状の曲率と同じにしている。
図13Cでは、曲線の形状が周期的な波線形状であるため、延長曲線の形状を元の曲線と同じ周期の波線形状にしている。
図13Dでは、曲線の終端付近が円弧状に曲がっているため、延長曲線の形状を元の曲線の終端付近と同様の円弧形状にしている。
図14の例では、曲線の長さが60mm、文字列の長さが80mmであり、曲線の長さが文字列の長さよりも20mm短いため、20mmだけ、曲線を延長している。
表示処理部18は、生成した表示情報に従って、図8のステップDに示すように、延長部分の曲線に沿って、曲線が短いために未表示であった文字オブジェクトである「ましょう」をディスプレイ32に表示させる(図5のステップST19)。図8のステップDにおいて、破線は、延長部分の曲線である延長曲線を表している。
ここでは、表示処理部18が、曲線延長部17により付加された延長曲線に沿って、未表示であった文字オブジェクトをディスプレイ32に表示させている。しかし、これは一例に過ぎず、図8のステップDにおける右側の図のように、表示処理部18が、延長曲線を示す曲線画像をディスプレイ32に表示させ、未表示であった文字オブジェクトを当該曲線画像の上に重ねて表示させるようにしてもよい。
図8のステップDの例では、表示処理部18が、延長曲線をディスプレイ32に表示させているが、延長曲線は、仮想的な線であるため、表示処理部18が、延長曲線をディスプレイ32に表示させなくてもよい。
表示処理部18は、文字列取得部10から出力された「春になったら桜を見に行きましょう」を示す文字列の3次元空間内の位置情報を記録する(図5のステップST20)。
文字列の3次元空間内の位置情報は、例えば、曲線情報取得部9により取得された曲線情報及び曲線延長部17により延長された延長部分の情報に基づいて算出される。文字列の3次元空間内の位置情報を算出する処理自体は、公知の技術であるため詳細な説明を省略する。
このように文字列の3次元空間内の位置情報を記憶することで、入力表示制御装置100を移動し、入力映像取得部71により取得された映像が示す3次元空間の位置が変化しても、文字列の3次元位置を固定することができ、ユーザが所望するレイアウトで3次元空間に文字列を配置することができる。
また、記憶した文字列の3次元空間内の位置情報を他の入力制御装置100と共有することで、複数の入力制御装置100にて3次元空間の同じ位置に同じ文字列を配置することができる。これにより、複数の入力表示制御装置100を介して、複数のユーザの間で3次元空間内の同じ位置に配置した文字列を共有することができる。
そして、表示処理部18は、非表示領域に延長された曲線に沿って、文字列に含まれている文字についての文字オブジェクトの一部をディスプレイ32の表示領域が示す3次元空間の周囲の3次元空間である非表示領域に配置する。
表示処理部18が、文字についての文字オブジェクトの一部を非表示領域に配置する処理と、文字についての文字オブジェクトの一部を非表示領域に配置した後の処理とについては後述する。
表示処理部18が、曲線画像を消去させる際、曲線画像の全体を同時に消去させてもよいが、文字列の先頭側から順番に消去するアニメーションで、曲線画像を消去させるようにしてもよい。
ここでは、表示処理部18が、曲線画像と文字列に含まれている全ての文字についての文字オブジェクトとを重ねて表示してから、一定時間後に、曲線画像を消去している。しかし、これは一例に過ぎず、表示処理部18は、文字列に含まれている文字オブジェクトの表示が完了すると、直ちに、曲線画像を消去するようにしてもよい。
表示処理部18は、軌跡判別部4から曲線画像を含む曲線情報が出力される前に、文字列取得部10から文字列が出力されると(図5のステップST11:NOの場合)、出力された文字列を文字列一時保存部19に格納する。
表示処理部18は、文字列を文字列一時保存部19に格納すると、軌跡判別部4から曲線情報が出力されるまで待機する(図5のステップST22:NOの場合)。
表示処理部18は、軌跡判別部4から曲線情報が出力されることで、曲線情報取得部9から曲線情報が出力されると(図5のステップST22:YESの場合)、文字列一時保存部19に格納されている文字列の読み出しを行う。表示処理部18は、読み出した文字列に含まれている文字オブジェクトを曲線画像の上に重ねて表示するための表示情報を生成し、生成した表示情報に従って、図9のステップBに示すように、文字列に含まれている文字オブジェクトを曲線画像の上に重ねて表示させる。即ち、表示処理部18は、曲線画像と文字列に含まれている文字オブジェクトを同じ位置に重ねて表示させる(図5のステップST23)。
ただし、図9の例では、曲線の長さが、音声の認識結果を示す文字列の長さよりも短いため、文字列のうち、「春になったら桜を見に行き」についての文字オブジェクトは曲線画像の上に重ねて表示されているが、「ましょう」についての文字オブジェクトは曲線画像の上に重ねて表示されていない。
また、ユーザの指のなぞりにあわせて、曲線画像と文字列に含まれている文字オブジェクトが指の下から湧き出てくるように、曲線画像と文字列に含まれている文字オブジェクトを順次表示させるようにしてもよい。
なお、図8では、ユーザが指をなぞってから発話する例を示し、図9ではユーザが発話してから指をなぞる例を示したが、指のなぞりと発話が同時に行われるものであってもよい。
また、長さ比較部13は、曲線情報取得部9により取得された曲線情報を受けると、上記の式(2)又は式(3)に従って、曲線情報が示す曲線の長さを算出する(図5のステップST14)。
長さ比較部13は、曲線の長さを算出すると、曲線の長さと文字列の長さとを比較する(図5のステップST15)。
曲線延長部17は、延長曲線形状決定部14が延長曲線の形状を決定すると、延長曲線を曲線情報取得部9により取得された曲線情報が示す曲線の終端に付加することで、曲線を延長する(図5のステップST18)。
図14の例では、曲線の長さが60mm、文字列の長さが80mmであり、曲線の長さが文字列の長さよりも20mm短いため、20mmだけ、曲線を延長している。
表示処理部18は、生成した表示情報に従って、図9のステップCに示すように、延長部分の曲線に沿って、未表示であった文字オブジェクトである「ましょう」をディスプレイ32に表示させる(図5のステップST19)。
ここでは、表示処理部18が、曲線延長部17により付加された延長曲線に沿って、未表示であった文字オブジェクトをディスプレイ32に表示させている。しかし、これは一例に過ぎず、表示処理部18が、図9のステップCにおける右側の図のように、延長曲線を示す曲線画像をディスプレイ32に表示させ、未表示であった文字オブジェクトを当該曲線画像の上に重ねて表示させるようにしてもよい。
表示処理部18は、文字列取得部10から出力された「春になったら桜を見に行きましょう」を示す文字列の3次元空間内の位置情報を記録する(図5のステップST20)。
表示処理部18は、生成した表示情報に従って、図9のステップDに示すように、ディスプレイ32から曲線画像を消して、文字列のみをディスプレイ32に表示させる(図5のステップST21)。
表示処理部18が、曲線画像を消去させる際、曲線画像の全体が同時に消去されるようにしてもよいが、文字列の先頭側から順番に消去するアニメーションで、曲線画像が消去されるようにしてもよい。
ここでは、表示処理部18が、曲線画像と文字列に含まれている全ての文字についての文字オブジェクトとを重ねて表示してから、一定時間後に、曲線画像を消去している。しかし、これは一例に過ぎず、表示処理部18は、文字列の表示が完了すると、直ちに、曲線画像を消去するようにしてもよい。
したがって、長さ比較部13の比較結果が、曲線の長さが文字列の長さ以上である旨を示していれば(図5のステップST16:Noの場合)、ステップST17〜ST20の処理を実施せずに、ステップST21の処理に移行し、曲線画像を消去して、文字列のみを表示している状態にする。
文字列の長さ=(5mm×16)+(0.5mm×15)=87.5mm
(4)
式(4)は、式(1)と同様に、文字列の文字数が16、文字幅が“5mm”である場合を示している。
例えば、図15に示すように、ユーザがディスプレイ32の表示領域の右端方向にディスプレイ32をなぞったとき、曲線情報が示す曲線の右端が、ディスプレイ32の表示領域の右端に位置することになる。図15は、表示処理部18が文字オブジェクトの一部をディスプレイ32に表示させることができない例を示す説明図である。
図15の例では、「明日、プールに行くよ」を示す文字列のうち、「行くよ」の文字オブジェクトが未表示になっている。
表示処理部18は、文字オブジェクトの一部をディスプレイ32に表示させることができない場合、図16に示すように、非表示領域まで延長曲線を延長し、当該非表示領域において、延長された延長曲線に沿って、文字列に含まれている未表示の文字についての文字オブジェクトを非表示領域に配置する。表示処理部18は、文字オブジェクトを非表示領域に配置する際、文字列取得部10から出力された文字列である「明日、プールに行くよ」が、表示領域と非表示領域をまたがるように、未表示の文字についての文字オブジェクトを非表示領域に配置する。
図16の例では、表示処理部18が、「行くよ」の文字列についての文字オブジェクトを非表示領域に配置している。
そのため、カメラ70により撮像される映像が示す3次元空間内に、非表示領域に配置していた文字オブジェクトが入るように、入力表示制御装置100を移動あるいは回転することができる。その結果、入力表示装置100は、文字オブジェクトの全体を表示領域に表示することができる。
表示処理部18は、非表示領域に配置していた文字オブジェクトが、位置が変化した3次元空間内に入ると、非表示領域に配置していた文字オブジェクトを映像取得部71により取得された映像に重畳するための表示情報を生成する。
表示処理部18は、生成した表示情報に従って、非表示領域に配置していた文字オブジェクトを重畳した映像をディスプレイ32に表示させる。
図17は、表示処理部18が、文字についての文字オブジェクトの一部を非表示領域に配置した後の処理を示すフローチャートである。
以下、図17を参照しながら、表示処理部18が、文字についての文字オブジェクトの一部を非表示領域に配置した後の処理について説明する。
文字列選択部18aは、ユーザが文字列を選択する操作を行わなければ(図17のステップST31:NOの場合)、ユーザが文字列を選択する操作を行うまで待機する。
ユーザが文字列を選択する操作としては、文字についての文字オブジェクトの一部が非表示領域に配置されている文字列に含まれている文字オブジェクトのうち、ディスプレイ32に表示されている文字オブジェクトを長押しする操作が考えられる。
ディスプレイ32に表示されている文字オブジェクトを長押しする操作は、ユーザが、ディスプレイ32の表示領域に表示されている文字オブジェクトを閾値よりも長い時間触れる操作を意味する。
ここでは、ユーザが、ディスプレイ32の表示領域に表示されている文字オブジェクトを長押しする操作を行うことで、文字列選択部18aが、文字列の選択を受け付ける例を示している。しかし、これは一例に過ぎず、例えば、ユーザが、ディスプレイ32の表示領域に表示されている文字オブジェクトに触れると、触れている時間にかかわらず、文字列選択部18aが、文字列の選択を受け付けるようにしてもよい。
縁付加部18bが、文字オブジェクトの輪郭に縁を付加することで、文字オブジェクトが、いわゆる「ふち文字」として、ディスプレイ32に表示されるようになり、ユーザは、文字列の選択が受け付けられたことを認識することができる。
図18は、文字列選択部18aにより選択が受け付けられた文字列を示す説明図である。
文字列移動部18cは、ユーザが文字列を移動させる操作を行わなければ(図17のステップST34:NOの場合)、ユーザが文字列を移動させる操作を行うまで待機する。
表示処理部18は、文字列移動部18cによって、文字列に含まれている文字オブジェクトの全体をディスプレイ32の表示領域に配置するための移動が受け付けられると、文字列に含まれている文字オブジェクトの全体をディスプレイ32の表示領域に表示するための表示情報を生成する。
表示処理部18は、生成した表示情報に従って、図19に示すように、文字列に含まれている文字オブジェクトの全体をディスプレイ32の表示領域に表示させる(図17のステップST36)。
図19は、文字列の移動を示す説明図である。
図19Aは、曲線画像の上に文字オブジェクトが重ねて表示させている文字列の移動を示している。
図19Bは、曲線画像が文字オブジェクトの下線として表記されている例を示している。
図20は、文字列取得部10により取得された文字列の破棄を示す説明図である。
図20では、文字列の全体をディスプレイ32の表示領域の外側に出すための移動操作として、文字列選択部18aにより選択が受け付けられた文字列を、ユーザが、ディスプレイ32の表示領域の外側にフリックしている例を示している。
また、曲線画像は、ユーザが曲線画像を確認することができなくてもよければ、無色透明の画像であってもよい。また、曲線画像は、有色透明の画像であってもよい。
曲線画像が無色透明である場合、表示処理部18が、軌跡判別部4により判別された軌跡を表す幅のない曲線、又は、曲線延長部17により延長された軌跡を表す幅のない曲線をディスプレイ32に表示させるようにしてもよい。
ARマーカを用いる場合、ユーザが、例えば、入力表示制御装置100に設けられているマーカ認識用のボタンを押すと、操作受付部1が、ARマーカを認識するようになる。以降、ユーザがARマーカを用いて、3次元空間上に3次元の線を描く操作を行うと、操作受付部1が、線を描く操作を受け付けるように動作する。
入力表示制御装置100は、軌跡判別部4が曲線情報及び曲線画像を生成すると、操作受付部1がARマーカを認識しないように、操作受付部1を制御する。
図1に示す入力表示システムでは、表示制御部12が、文字列移動部18cによって、文字列選択部18aにより選択が受け付けられた文字列の全体を表示領域に配置するための移動が受け付けられると、文字列に含まれている全ての文字についての文字オブジェクを映像に重畳するための表示情報を生成している。
実施の形態2では、表示制御部12が、一部の文字についての文字オブジェクトを周囲の3次元空間に配置した文字列を改行することで、周囲の3次元空間に配置したオブジェクトを映像に重畳するための表示情報を生成する入力表示システムについて説明する。
実施の形態2の入力表示制御装置100を含む入力表示システム示す構成図は、実施の形態1と同様に図1である。ただし、表示処理部18は、文字列選択部18a、縁付加部18b及び文字列移動部18cを備えている必要がない。
図22は、ディスプレイ32における表示領域の右端で、文字列が自動改行されることで、非表示領域に配置された文字オブジェクトがディスプレイ32に表示される例を示す説明図である。
図23は、実施の形態2に係る入力表示システムの処理内容である入力表示制御方法を示すフローチャートである。図23において、図5と同一符号は同一又は相当部分を示している。
文字列取得部10は、例えば、ユーザが「明日、プールに行くよ 一か月ぶりだよ」という発話を行うと、音声認識部8から「明日、プールに行くよ。一か月ぶりだよ」を示す文字列を取得し、文字列を長さ比較部13及び表示処理部18のそれぞれに出力する。
表示処理部18は、文字列取得部10から「明日、プールに行くよ。一か月ぶりだよ」を示す文字列を受けると、実施の形態1と同様に、文字列に含まれている文字オブジェクトを曲線画像の上に重ねて表示するための表示情報を生成する。
ただし、表示処理部18は、文字列取得部10により取得された文字列の長さが長いために、文字列に含まれている文字オブジェクトの一部がディスプレイ32の表示領域からはみ出してしまうので、文字列に含まれている文字オブジェクトの一部を非表示領域に配置している。
図22の例では、表示処理部18が、文字列取得部10により取得された文字列のうち、「明日、プールに」の文字列についての文字オブジェクトをディスプレイ32に表示している。しかし、表示処理部18は、「行くよ。一か月ぶりだよ」の文字列に含まれている文字オブジェクトを非表示領域に配置している。
曲線延長部17は、延長曲線形状決定部14が延長曲線の形状を決定すると、実施の形態1と同様に、延長曲線を曲線情報取得部9により取得された曲線情報が示す曲線の終端に付加することで、曲線を延長する。
実施の形態2でも、実施の形態1と同様に、曲線延長部17が、図22に示すように、非表示領域まで曲線を延長している(図23のステップST18A)。
表示処理部18は、「行くよ。一か月ぶりだよ」の文字列を非表示領域に配置すると、非表示領域まで延長した曲線を切り取り、切り取った曲線を表示領域の曲線の下に配置する(図23のステップST19A)。
表示処理部18は、文字列取得部10から出力された「明日、プールに行くよ。一か月ぶりだよ」が示す文字列を、ディスプレイ32における表示領域の右端で改行する。図22の例では、「に」の文字と「行」の文字と間で改行している。図22において、“←”は、文字列の改行を表している。
次に、表示処理部18は、曲線の始点を左右方向で一致させることで、改行した文字列である「行くよ。一か月ぶりだよ」の始点の文字オブジェクトである「行」と、「明日、プールに行くよ。一か月ぶりだよ」の始点の文字オブジェクトである「明」とが、図中、左右方向の位置で概ね揃うように「行くよ。一か月ぶりだよ」を配置する。
表示処理部18は、「行くよ。一か月ぶりだよ」の文字列に含まれている文字オブジェクトのうち、「行くよ。一か」の文字オブジェクトを、切り取った曲線に沿って、ディスプレイ32の表示領域に表示する(図23のステップST19B)。
図22の例では、「行くよ。一か月ぶりだよ」の文字列に含まれている文字オブジェクトのうち、「行くよ。一か」の文字オブジェクトについては、ディスプレイ32に表示できている。しかし、「月ぶりだよ」の文字オブジェクトは、ディスプレイ32の表示領域からはみ出してしまっている。
表示処理部18は、非表示領域まで延長している曲線に沿って、「月ぶりだよ」の文字オブジェクトを非表示領域に配置する。
表示処理部18は、「月ぶりだよ」の文字オブジェクトを非表示領域に配置すると、非表示領域まで延長した曲線を切り取り、切り取った曲線を表示領域の曲線の下に配置する(図23のステップST19A)。
表示処理部18は、「行くよ。一か月ぶりだよ」が示す文字列を、ディスプレイ32における表示領域の右端で改行する。図22の例では、「か」の文字と「月」の文字と間で改行している。
次に、表示処理部18は、曲線の始点を左右方向で一致させることで、改行した文字列である「月ぶりだよ」の始点の文字オブジェクトである「月」と、「行くよ。一か月ぶりだよ」の始点の文字オブジェクトである「行」とが、図中、左右方向の位置で概ね揃うように、「月ぶりだよ」を配置する。
表示処理部18は、「月ぶりだよ」の文字オブジェクトを、切り取った曲線に沿って、ディスプレイ32の表示領域に表示する(図23のステップST19B)。
図22の例では、「月ぶりだよ」の文字オブジェクトがディスプレイ32に表示されており、「明日、プールに」の文字オブジェクトと、「行くよ。一か」の文字オブジェクトと、「月ぶりだよ」の文字オブジェクトとが3行で表示されている。
表示処理部18は、非表示領域まで延長した曲線の全てを切り取るまで、ステップST19A〜ST20Bの処理を繰り返し実施する。
図24は、ディスプレイ32における表示領域の右端で、文字列が自動改行されることで、非表示領域に配置された文字オブジェクがディスプレイ32に表示される例を示す説明図である。
図1に示す入力表示システムでは、表示制御部12が、文字列移動部18cによって、文字列選択部18aにより選択が受け付けられた文字列に含まれている文字オブジェクトの全体を表示領域に配置するための移動が受け付けられると、文字列に含まれている全ての文字についての文字オブジェクを映像に重畳するための表示情報を生成している。
実施の形態3では、表示制御部12が、文字についての文字オブジェクトの一部を周囲の3次元空間に配置した文字列の全体を映像が示す3次元空間内に移動させて、当該文字列に含まれている全ての文字についての文字オブジェクを映像に重畳するための表示情報を生成する入力表示システムについて説明する。
実施の形態3の入力表示制御装置100を含む入力表示システム示す構成図は、実施の形態1と同様に図1である。ただし、表示処理部18は、文字列選択部18a、縁付加部18b及び文字列移動部18cを備えている必要がない。
図25は、表示制御部12が、文字についての文字オブジェクトの一部が非表示領域に配置されている文字列の全体を表示領域に移動させて、当該文字列の全体をディスプレイ32の表示領域に表示させている例を示す説明図である。
図26は、実施の形態3に係る入力表示システムの処理内容である入力表示制御方法を示すフローチャートである。図26において、図5と同一符号は同一又は相当部分を示している。
文字列取得部10は、例えば、ユーザが「明日、プールに行くよ」という発話を行うと、音声認識部8から「明日、プールに行くよ」を示す文字列を取得し、文字列を長さ比較部13及び表示処理部18のそれぞれに出力する。
表示処理部18は、文字列取得部10から「明日、プールに行くよ」を示す文字列を受けると、実施の形態1と同様に、文字列に含まれている文字オブジェクトを曲線画像の上に重ねて表示するための表示情報を生成する。
ただし、表示処理部18は、文字列取得部10により取得された文字列の長さが長いために、文字列に含まれている文字オブジェクトの一部がディスプレイ32の表示領域からはみ出してしまうので、文字オブジェクトの一部を非表示領域に配置している。
図25の例では、表示処理部18が、文字列取得部10により取得された文字列のうち、「明日、プールに」の文字オブジェクトをディスプレイ32に表示しているが、「行くよ」の文字オブジェクトを非表示領域に配置している。
以上の実施の形態3は、表示制御部12が、一部が非表示領域に配置されている文字オブジェクトの全体を表示領域に移動させて、文字オブジェクトの全体を表示領域に表示するための表示情報を生成するように、入力表示制御装置100を構成した。したがって、入力表示制御装置100は、一部を非表示領域に配置した全ての文字オブジェクトを自動的にディスプレイ32の表示領域に表示させることができる。
なお、文字列取得部10から出力された文字列の長さが、例えば、表示領域の左右方向の長さよりも長い場合、表示処理部18が、文字列の全体を、表示領域の左端側の方向に移動させても、文字列に含まれている文字オブジェクトの全体を表示領域に表示させることができない。具体的には、以下の通りである。
表示処理部18は、文字列取得部10から「明日、プールに行くよ。一か月ぶりだよ」を示す文字列を受けると、実施の形態1と同様に、文字列を曲線画像の上に重ねて表示するための表示情報を生成する。
ただし、表示処理部18は、文字列取得部10により取得された文字列の長さが長いために、文字列に含まれている文字オブジェクトの一部がディスプレイ32の表示領域からはみ出してしまうので、文字オブジェクトの一部を非表示領域に配置している。
図27は、表示制御部12が、文字オブジェクトの一部が非表示領域に配置されている文字列の全体を移動させたのち、文字列を改行することで、文字列に含まれている文字オブジェクトの全体をディスプレイ32の表示領域に表示させている例を示す説明図である。
図27の例では、表示処理部18が、文字列取得部10により取得された文字列のうち、「明日、プールに」の文字オブジェクトをディスプレイ32の表示領域に表示させているが、「行くよ。一か月ぶりだよ」の文字オブジェクトを非表示領域に配置している。
図27の例では、表示処理部18が、文字列の全体を移動させたことで、「明日、プールに行くよ。一」の文字列に含まれている文字オブジェクトを表示領域に表示させている。しかし、「か月ぶりだよ」の文字オブジェクトがディスプレイ32の表示領域からはみ出してしまうので、表示処理部18が、「か月ぶりだよ」の文字オブジェクトを非表示領域に配置している。
表示処理部18は、改行した文字列である「か月ぶりだよ」の文字オブジェクトをディスプレイ32の表示領域に表示させている。
図27の例では、「明日、プールに行くよ。一」の文字オブジェクトを配置するための曲線の形状と、「か月ぶりだよ」の文字オブジェクトを配置するための曲線の形状とが、同じ形状であるが、異なる形状であってもよい。
図1に示す入力表示システムでは、表示制御部12が、文字列移動部18cによって、文字列選択部18aにより選択が受け付けられた文字列に含まれている文字についての文字オブジェクトの全体を表示領域に配置するための移動が受け付けられると、文字列に含まれている全ての文字についての文字オブジェクを映像に重畳するための表示情報を生成している。
実施の形態4では、表示制御部12が、文字についての文字オブジェクトの一部が周囲の3次元空間に配置されている文字列に含まれている文字オブジェクトのサイズを小さくして、文字列の長さを、曲線情報取得部9により取得された曲線情報が示す曲線の長さ以下にする入力表示システムについて説明する。
実施の形態4の入力表示制御装置100を含む入力表示システム示す構成図は、実施の形態1と同様に図1である。ただし、表示処理部18は、文字列選択部18a、縁付加部18b及び文字列移動部18cを備えている必要がない。
図28は、表示制御部12が、文字列に含まれている文字オブジェクトのサイズを小さくして、文字列に含まれている文字オブジェクトの全体をディスプレイ32の表示領域に表示させている例を示す説明図である。
図29は、実施の形態4に係る入力表示システムの処理内容である入力表示制御方法を示すフローチャートである。図29において、図5と同一符号は同一又は相当部分を示している。
文字列取得部10は、例えば、ユーザが「明日、プールに行きませんか」という発話を行うと、音声認識部8から「明日、プールに行きませんか?」を示す文字列を取得し、文字列を長さ比較部13及び表示処理部18のそれぞれに出力する。
表示処理部18は、文字列取得部10から「明日、プールに行きませんか?」を示す文字列を受けると、実施の形態1と同様に、文字列に含まれている文字オブジェクトを曲線画像の上に重ねて表示するための表示情報を生成する。
ただし、表示処理部18は、曲線情報取得部9により取得された曲線情報が示す曲線の長さが短いために、文字列取得部10により取得された文字列に含まれている一部の文字オブジェクトがディスプレイ32の表示領域からはみ出してしまうので、文字オブジェクトの一部を非表示領域に配置している。
図28の例では、表示処理部18が、文字列取得部10により取得された文字列のうち、「明日、プールに行きま」の文字オブジェクトをディスプレイ32の表示領域に表示しているが、「せんか?」の文字列に含まれている文字オブジェクトを非表示領域に配置している。
図28の例では、表示処理部18が、「明日、プールに行きませんか?」の文字列に含まれている文字オブジェクトのサイズは、文字管理DB2に記憶されている文字属性表の記述どおりである。
表示処理部18は、全ての文字オブジェクトにおけるそれぞれの文字オブジェクトのサイズを小さくしたのち、文字列に含まれている文字オブジェクトの全体をディスプレイ32の表示領域に表示するための表示情報を生成する。
表示処理部18は、図28に示すように、生成した表示情報に従って、文字列に含まれている文字オブジェクトの全体をディスプレイ32の表示領域に表示させる(図29のステップST19)。
表示処理部18は、文字列取得部10により取得された文字列の長さが、曲線の長さよりも短い場合、文字列の長さが、曲線の長さよりも長くならない範囲で、文字列に含まれている全ての文字オブジェクトにおけるそれぞれの文字オブジェクトのサイズを大きくするようにしてもよい。
図30は、表示処理部18が、文字列の長さが、曲線の長さよりも長くならない範囲で、文字列に含まれている文字オブジェクトのサイズを大きくしている例を示す説明図である。
図30の例では、表示制御部12が、文字列の長さが、曲線の長さとほぼ同じ長さになるように、文字列に含まれている全ての文字オブジェクトにおけるそれぞれの文字オブジェクトのサイズを大きくしている。しかし、文字列取得部10により取得された文字列の長さが、曲線の長さよりも短い場合、表示制御部12が、文字列に含まれている全ての文字オブジェクトにおけるそれぞれの文字オブジェクトのサイズを変更せずに、文字列に含まれている文字オブジェクトの全体をディスプレイ32の表示領域に表示させるようにしてもよい。
なお、延長曲線を描画せず、曲線の長さが文字列の長さよりも短い場合、文字列に含まれる文字オブジェクトのサイズを小さくして、文字オブジェクトの全体を表示するようにしてもよい。
図1に示す入力表示システムでは、表示制御部12が、文字列移動部18cによって、文字列選択部18aにより選択が受け付けられた文字列に含まれている文字オブジェクトの全体を表示領域に配置するための移動が受け付けられると、文字列に含まれている全ての文字についての文字オブジェクを映像に重畳するための表示情報を生成している。
実施の形態5では、表示制御部12が、文字列取得部10により取得された文字列を、当該文字列と同じ意味を有し、かつ、当該文字列よりも長さが短い文字列に置換する処理を実施する。そして、表示制御部12が、曲線情報取得部9により取得された曲線情報が示す曲線に沿って、置換処理後の文字列に含まれている文字オブジェクトを映像に重畳するための表示情報を生成する入力表示システムについて説明する。
表示処理部18は、例えば、図2に示す表示処理回路31によって実現される。
表示処理部18は、図1に示す表示処理部18と異なり、文字列選択部18a、縁付加部18b及び文字列移動部18cの代わりに、テーブル記憶部18dを含んでいる。
表示処理部18は、曲線情報取得部9により取得された曲線情報が示す曲線に沿って、文字列取得部10により取得された文字列に含まれている文字オブジェクトをディスプレイ32の表示領域に表示するための表示情報を生成し、生成した表示情報に従ってディスプレイ32に文字オブジェクトを表示させる。表示処理部18により生成される表示情報は、文字列取得部10により取得された文字列に含まれている文字オブジェクトを曲線情報取得部9により取得された曲線情報に含まれる曲線画像の上に重ねて表示するための情報である。表示処理部18は、表示情報に従って文字列に含まれている文字オブジェクトを曲線画像の上に重ねてディスプレイ32に表示させる。
さらに、表示処理部18は、ディスプレイ32に文字列に含まれている文字オブジェクトを表示させた後、曲線画像の表示を消去するための表示情報を生成し、生成した表示情報に従ってディスプレイ32に曲線画像を消去させる。
図32は、「文字列」と「簡易の文字列」との対応関係を示すテーブルを示す説明図である。
図32では、簡易の文字列を「簡易版」と表記している。「簡易の文字列」は、「文字列」と同じ意味を有し、かつ、「文字列」よりも長さが短くなっている。
表示処理部18は、曲線情報取得部9により取得された曲線情報が示す曲線に沿って、置換処理後の文字列に含まれている文字オブジェクトを映像取得部71により取得された映像に重畳するための表示情報を生成する。
表示処理部18は、生成した表示情報に従って、置換処理後の文字列に含まれている文字オブジェクトをディスプレイ32の表示領域に表示させる。
図33は、実施の形態5に係る入力表示システムの処理内容である入力表示制御方法を示すフローチャートである。図33において、図5と同一符号は同一又は相当部分を示している。
表示処理部18以外の動作は、図1に示す入力表示制御装置の動作と同様であるため、ここでは、主に表示処理部18の動作のみを説明する。
表示処理部18は、文字列取得部10から「今日、ラーメンを食べに行きました」を示す文字列を受けると、実施の形態1と同様に、文字列に含まれている文字オブジェクトを曲線画像の上に重ねて表示するための表示情報を生成する。
ただし、表示処理部18は、文字列取得部10により取得された文字列の長さが長いために、文字列に含まれている一部の文字オブジェクトがディスプレイ32の表示領域からはみ出してしまうので、文字列に含まれている一部の文字オブジェクトを非表示領域に配置している。
表示処理部18は、「今日、ラーメンを食べに行きました」を示す文字列のうち、「きました」の文字オブジェクトを非表示領域に配置している。
具体的には、表示処理部18は、テーブル記憶部18dから、文字列取得部10により取得された文字列と対応関係がある簡易の文字列を取得する。
図32に示すテーブルには、「今日、ラーメンを食べに行きました」を示す文字列のうち、「食べに行きました」を示す文字列と対応関係がある簡易の文字列として、「食べた」が記憶されている。
また、図32に示すテーブルには、「今日、ラーメンを食べに行きました」を示す文字列のうち、「ラーメン」を示す文字列と対応関係がある簡易の文字列として、ラーメンを示す絵文字が記憶されている。
表示処理部18は、曲線情報取得部9により取得された曲線情報が示す曲線に沿って、置換処理後の文字列に含まれている文字オブジェクトを映像取得部71により取得された映像に重畳するための表示情報を生成し、図34に示すように、生成した表示情報に従って、置換処理後の文字列に含まれている文字オブジェクトをディスプレイ32の表示領域に表示させる(図33のステップST19)。
図34は、表示制御部12が、置換処理後の文字列に含まれている文字オブジェクトを表示させている例を示す説明図である。
図34の例では、表示処理部18が、文字列取得部10により取得された文字列を簡易の文字列に置換することで、文字列の長さが短くなり、文字列に含まれている文字オブジェクトの全体がディスプレイ32の表示領域に表示されるようになっている。
実施の形態6では、曲線情報取得部9が、複数の曲線情報を取得する。そして、表示制御部12が、曲線情報取得部9により取得された複数の曲線情報が示すそれぞれの曲線に沿って、文字列取得部10により取得された文字列に含まれている文字オブジェクトを映像に重畳するための表示情報を生成する入力表示システムについて説明する。
実施の形態6の入力表示制御装置100を含む入力表示システム示す構成図は、実施の形態1と同様に図1である。ただし、表示処理部18は、文字列選択部18a、縁付加部18b及び文字列移動部18cを備えている必要がない。
図35は、表示制御部12が、複数の曲線情報が示すそれぞれの曲線に沿って、文字列に含まれている文字オブジェクトを表示させている例を示す説明図である。
図36は、実施の形態6に係る入力表示システムの処理内容である入力表示制御方法を示すフローチャートである。図36において、図4と同一符号は同一又は相当部分を示している。
軌跡判別部4は、操作受付部1から線を描く操作の内容を受けると、実施の形態1と同様に、操作内容から操作によって描かれた線の軌跡を判別し、軌跡を表す曲線の長さ、曲線の奥行及び形状などを示す情報として、曲線を示す曲線情報を生成する(図36のステップST5〜ST8)。
軌跡判別部4は、実施の形態1と同様に、曲線画像を含む曲線情報を曲線情報取得部9に出力する。
実施の形態6の入力表示システムでは、操作受付部1が、複数の線を描く操作の内容を受けると、軌跡判別部4が、複数の曲線情報を生成する。
曲線情報取得部9は、軌跡判別部4から出力された曲線情報を取得し、曲線情報を長さ比較部13、形状決定処理部16、曲線延長部17及び表示処理部18のそれぞれに出力する。
表示処理部18は、文字列取得部10から「明日、プールに行くよ。一か月ぶりだよ」を示す文字列を受けると、実施の形態1と同様に、文字列に含まれている文字オブジェクトを曲線画像の上に重ねて表示するための表示情報を生成する。
ただし、表示処理部18は、文字列取得部10により取得された文字列の長さが長いために、文字列に含まれている文字オブジェクトの一部がディスプレイ32の表示領域からはみ出してしまうので、文字列に含まれている文字オブジェクトの一部を非表示領域に配置している。
表示処理部18は、生成した表示情報に従って、「明日、プール」の文字オブジェクトを曲線に沿ってディスプレイ32の表示領域に表示させると、未表示の文字列の先頭の位置で、文字列を改行する。図35の例では、「ル」の文字オブジェクトと「に」の文字オブジェクトと間で改行している。図35において、“←”は、文字列の改行を表している。
ただし、実施の形態6の入力表示制御システムでは、表示処理部18が、文字列を改行する前に、改行した文字列に含まれている文字オブジェクトを表示するための曲線を追加する操作を受け付ける。
図35の例では、操作受付部1が、2本の線を描く操作を受け付けており、軌跡判別部4が、2本の線を描くそれぞれの操作の内容に従って、2本の曲線についての曲線情報をそれぞれ生成する。
軌跡判別部4は、生成した2つの曲線情報を曲線情報取得部9に出力する。
曲線情報取得部9は、軌跡判別部4から出力された2つの曲線情報を取得し、2つの曲線情報を長さ比較部13、形状決定処理部16、曲線延長部17及び表示処理部18のそれぞれに出力する。
表示処理部18は、生成した表示情報に従って、「に行くよ。」の文字オブジェクトを第1の曲線に沿ってディスプレイ32に表示させると、未表示の文字列の先頭の位置で、文字列を改行する。図35の例では、「。」の文字オブジェクトと「一」の文字オブジェクトと間で改行している。
表示処理部18は、生成した表示情報に従って、「一か月ぶりだよ」の文字オブジェクトを第2の曲線に沿ってディスプレイ32の表示領域に表示させる。
実施の形態6の入力表示システムでは、表示処理部18が、文字列取得部10により取得された文字列に含まれている一部の文字についての文字オブジェクトを非表示領域に配置してから、文字列を改行している。
実施の形態7では、表示処理部18が、文字列取得部10により取得された文字列に含まれている一部の文字についての文字オブジェクトを非表示領域に配置することなく、文字列を改行する入力表示システムについて説明する。
図37の例では、ユーザが、まず3本の線を描く操作を行い、その後、「明日、プールへ行くよ。一カ月ぶりだよ。楽しみです」と発声した場合を示している。このとき、ユーザが描いた曲線の長さが文字列の長さよりも短いため、3行目に「ぶりだよ。」のみしか表示されておらず、「楽しみです」が表示されていない。ディスプレイ32を見たユーザは、「楽しみです」の表示がないことに気づき、追加で4本目の線を描く操作を行う。すると、表示制御部12は、追加された4本目の曲線に沿って、表示されていなかった「楽しみです」の文字オブジェクトを表示する。図37の例では、上記のようにして、表示制御部12が、4本の曲線に沿って、「明日、プールに行くよ。一か月ぶりだよ。楽しみです」の文字オブジェクトを表示させている。
図38の例では、表示制御部12が、4本の曲線に沿って、「明日、プールに行くよ。一か月ぶりだよ。楽しみです」の文字オブジェクトを表示させている。
図1及び図31に示す入力表示システムでは、表示制御部12が、曲線情報取得部9により取得された曲線情報が示す曲線に沿って、文字列取得部10により取得された文字列に含まれている文字オブジェクトをディスプレイ32に表示させている。
実施の形態8では、文字列取得部10により取得された文字列を翻訳し、文字列の翻訳結果を示す文字列に含まれている文字オブジェクトをディスプレイ32に表示させる入力表示システムについて説明する。
図39及び図40において、図1、図2及び図31と同一符号は同一または相当部分を示すので説明を省略する。
翻訳部52は、例えば、図40に示す翻訳処理回路34によって実現される。翻訳部52は、文字列取得部10により取得された文字列を翻訳し、文字列の翻訳結果を示す文字列を長さ比較部13及び表示処理部53のそれぞれに出力する。
図39に示す表示処理部53は、文字列選択部18a、縁付加部18b及び文字列移動部18cを備えている。しかし、これは一例に過ぎず、表示処理部53は、図31に示す表示処理部18と同様に、テーブル記憶部18dを備えていてもよい。
表示処理部53は、図1及び図31に示す表示処理部18と異なり、翻訳部52から出力された翻訳結果を示す文字列の長さ以上の長さを有する翻訳文字列表示用の曲線を生成する。表示処理部53は、翻訳文字列表示用の曲線に沿って、翻訳部52から出力された翻訳結果を示す文字列に含まれている文字オブジェクトをディスプレイ32に表示させる。
入力表示システムが、ソフトウェア又はファームウェアなどで実現される場合、文字管理DB2、音声認識辞書DB7及び文字列一時保存部19を図3に示すコンピュータのメモリ41上に構成するとともに、操作受付部1、文字管理部3、軌跡判別部4、音声検出部6、音声認識部8及び表示制御部51の処理手順をコンピュータに実行させるためのプログラムをメモリ41に格納する。そして、図3に示すプロセッサ42が、メモリ41に格納されているプログラムを実行するようにすればよい。
ただし、翻訳部52及び表示処理部53以外は、実施の形態1〜7のいずれかの入力表示システムと同様であるため、ここでは、主に翻訳部52及び表示処理部53の処理内容について説明する。
翻訳部52は、文字列取得部10が文字列認識部5から出力された音声の認識結果を示す文字列を取得すると、取得した文字列を翻訳し、文字列の翻訳結果を示す文字列を長さ比較部13及び表示処理部53のそれぞれに出力する。
音声の認識結果を示す文字列が「夏休みに海に行ったよ」であれば、例えば、文字列の翻訳結果を示す文字列は「I went to the sea in summer vacation」のようになる。
また、表示処理部53は、曲線情報が示す曲線の長さが文字列の長さより短いために、一部の文字オブジェクトを曲線に沿って表示させることができなければ、図1又は図31の表示処理部18と同様に、曲線延長部17により付加された延長曲線に沿って、一部の文字オブジェクトをディスプレイ32に表示させる。
このとき、翻訳結果を示す文字列を構成する文字の文字幅を示す文字属性情報は、文字管理部3から受けるものとする。
例えば、翻訳結果を示す文字列が「I went to the sea in summer vacation」である場合、文字数がスペースを含めて36である。したがって、翻訳結果を示す文字列を構成する文字の文字幅が“2mm”であるとすれば、翻訳結果を示す文字列の長さは、下記の式(5)に示すように、72mmとなる。
翻訳結果を示す文字列の長さ=2mm×36=72mm (5)
したがって、この場合には、翻訳文字列表示用の曲線の長さは、72mm以上の長さとなる。
例えば、ユーザの操作によって描かれた線の軌跡を表す曲線の形状が円弧形状であれば、翻訳文字列表示用の曲線の形状も円弧形状である。ユーザの操作によって描かれた線の軌跡を表す曲線の形状が波線形状であれば、翻訳文字列表示用の曲線の形状も波線形状である。
ここで、図41は、表示制御部51の表示処理部53における表示処理の一例を示す説明図である。
ステップAでは、表示処理部53が、ユーザの操作によって描かれた線の軌跡を表す曲線の曲線画像をディスプレイ32に表示している。
ステップBにおいて、音声認識部8が、ユーザの音声の認識処理を実施すると、ステップCでは、表示処理部53が、音声の認識結果を示す文字列に含まれている文字オブジェクトを曲線画像の上に重ねて表示させている。ステップA〜ステップCまでは、実施の形態1と同様である。ただし、ここでは、音声認識部8から音声の認識結果を示す文字列が出力される前に、軌跡判別部4から曲線画像を含む曲線情報が出力された場合の例を示している。
ステップDでは、表示処理部53が、ユーザの操作によって描かれた線の軌跡を表す曲線と同形状の翻訳文字列表示用の曲線に沿って、翻訳結果を示す文字列に含まれている文字オブジェクトをディスプレイ32に表示させている。
図41の例では、表示処理部53が、翻訳文字列表示用の曲線を、ユーザの操作によって描かれた線の軌跡を表す曲線の下側に並べているが、ユーザの操作によって描かれた線の軌跡を表す曲線の上側に並べてもよいし、左側や右側に並べてもよい。
ステップEでは、表示処理部53が、ユーザの操作によって描かれた線の軌跡を表す曲線の曲線画像を消去している。
図42は、表示制御部51の表示処理部53における表示処理の一例を示す説明図である。
実施の形態8の入力表示システムでは、翻訳部52が、日本語から英語に翻訳しているため、この場合の折り返し翻訳は、翻訳した英語を日本語に翻訳し直すことを意味する。
図43の例では、ステップDにおいて、表示処理部53が、音声の認識結果を示す文字列である日本語の下に、翻訳結果を示す文字列である英語を表示させ、その英語の下に、折り返し翻訳を示す文字列である日本語を表示させている。
また、図44に示すように、ステップDにおいて、表示処理部53が、曲線画像の上に重ねて表示させた音声の認識結果を示す文字列である日本語を消してから、翻訳結果を示す文字列である英語を曲線画像の上に重ねて表示させる。そして、表示処理部53が、英語の下に、折り返し翻訳を示す文字列である日本語を表示させるようにしてもよい。図44は、翻訳結果を示す文字列に含まれている文字オブジェクトを表示する例を示す説明図である。
図45は、ディスプレイ32が対面二画面で構成されている場合の表示処理部53における表示処理の一例を示す説明図である。
あるいは、表示処理部53は、対面二画面の下側の画面に、翻訳結果を示す文字列に含まれている文字オブジェクトを表示させ、対面二画面の上側の画面に、音声の認識結果を示す文字列に含まれている文字オブジェクトを表示させる。
ただし、対面二画面であるため、対面二画面の上側の画面では、文字が180度回転している。
また、対面二画面の場合でも、図46に示すように、表示処理部53が、折り返し翻訳の結果を示す文字列に含まれている文字オブジェクトを表示させるようにしてもよい。図46は、翻訳結果を示す文字列に含まれている文字オブジェクトを表示する例を示す説明図である。
また、翻訳結果を示す文字列に含まれている文字オブジェクトの一部がディスプレイ32の表示領域からはみ出してしまう場合、翻訳結果を示す文字オブジェクトの一部を非表示領域に配置するようにしてもよい。このようにすることで、翻訳結果を示す文字列に含まれている文字オブジェクトが生成しきれない事態を回避することができる。
翻訳結果を示す文字列に含まれている文字オブジェクトを非表示領域に配置する場合において、ユーザが翻訳結果を示す文字列を選択した場合、実施の形態1と同様に、文字列に含まれている文字オブジェクトの輪郭に、当該オブジェクトと異なる色の縁を付加するようにしてもよい。
さらに、実施の形態1と同様に、選択された文字列の移動を受け付けるようにしてもよい。このようにすることで、翻訳結果を示す文字列に含まれている文字オブジェクトの全体を表示しきれない事態を回避することができる。
また、ユーザが、文字列取得部10により取得された文字列又は翻訳結果を示す文字列のいずれか又は両方を選択して移動させた場合、取得された文字列と翻訳結果を示す文字列とをともに移動するようにしてもよい。このようにすることで、移動させた後に、文字が離れた位置に配置されてしまうことを防止することができる。なお、別々に移動させるように構成することもできる。
さらに、折り返し翻訳についても、上記と同様に、表示領域と非表示領域とにまたがって生成するとともに、ユーザによって選択可能とし、選択後に移動させることで、文字列に含まれている文字オブジェクトの全体を表示させるようにしてもよい。
図1及び図31に示す入力表示システムでは、文字列認識部5が、表示対象の文字列として、音声の認識結果を示す文字列を取得している。
実施の形態9では、文字列認識部60が、表示対象の文字列として、操作受付部1により受け付けられた操作によって描かれた文字の認識結果を示す文字列を取得する入力表示システムについて説明する。
図47及び図48において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
文字列認識部60は、文字認識処理部61を含んでおり、操作受付部1により受け付けられた操作によって描かれた文字の認識結果を示す文字列を表示対象の文字列として、軌跡判別部4及び文字列取得部10のそれぞれに出力する。
文字認識処理部61は、例えば、光学文字認識処理であるOCR(Optical Character Recognition)機能を実装している文字認識処理回路35によって実現される。文字認識処理部61は、操作受付部1により受け付けられた操作によって描かれた文字を認識し、文字の認識結果を示す文字列を表示対象の文字列として、軌跡判別部4及び文字列取得部10のそれぞれに出力する。
入力表示システムが、ソフトウェア又はファームウェアなどで実現される場合、文字管理DB2及び文字列一時保存部19を図3に示すコンピュータのメモリ41上に構成するとともに、操作受付部1、文字管理部3、軌跡判別部4、文字認識処理部61及び表示制御部12の処理手順をコンピュータに実行させるためのプログラムをメモリ41に格納する。そして、図3に示すプロセッサ42が、メモリ41に格納されているプログラムを実行するようにすればよい。
図49は、文字の認識結果を示す文字列の表示処理の一例を示す説明図である。
図47に示す入力表示システムでは、操作受付部1を実現しているポインティングデバイス21がタッチパネルであるものを想定している。したがって、ユーザが自己の指又はタッチパネル用の入力ペンなどを用いて、線を描く操作として、文字を描く操作をタッチパネルに行うと、操作受付部1が、文字を描く操作を受け付けて、操作の内容を軌跡判別部4及び文字列認識部60のそれぞれに出力する。
出力される文字を描く操作の内容は、例えば、タッチパネルに接触している指の位置又は入力ペンの位置の座標として、タッチパネル上の位置座標の連続的な変化を示す時系列データである。
文字列認識部60の文字認識処理部61は、操作受付部1により受け付けられた操作によって描かれた複数の文字を認識して、複数の文字の認識結果を示す文字列を取得し、取得した文字列を軌跡判別部4及び入力表示制御装置100のそれぞれに出力する。
具体的には、以下の通りである。
まず、軌跡判別部4は、文字を描く操作の内容である時系列データが示すタッチパネル上のそれぞれの位置座標のうち、X座標が最も小さい座標XLEFTと、X座標が最も大きい座標XRIGHTとを特定する。軌跡判別部4は、特定した座標XRIGHTから座標XLEFTを減算することで、文字列のX方向の長さを算出する。
軌跡判別部4は、時系列データが示すそれぞれの位置座標が含まれるX方向の座標範囲をみつけて、時系列データが示すそれぞれの位置座標に対応するX方向の座標範囲に振り分けることで、1つ以上の文字を描く操作の内容を、文字毎に振り分けるようにする。
軌跡判別部4は、文字列に含まれている各々の文字の中心座標を算出すると、図49のステップBに示すように、各々の文字の中心座標を繋ぎ合わせることで1本の線を生成し、1本の線を文字列の軌跡を表す曲線として、曲線を示す曲線情報を入力表示制御装置100に出力する。
しかし、図47に示す入力表示システムでは、各々の文字の中心座標が厳密に分からなくても、文字列が存在している領域をX方向に分割した各々の領域の中心座標が分かれば、文字列の並び方向を示す曲線を求めることができる。したがって、各々の文字の大きさが均等でない場合でも、上記の方法で、曲線を求めることができる。
また、ここでは、軌跡判別部4が、文字列の並び方向を示す曲線を求める際、X方向の座標範囲単位に、時系列データが示すそれぞれの位置座標を振り分けるようにしているが、例えば、手書き文字が縦書きであるような場合には、Y方向の座標範囲単位に、時系列データが示すそれぞれの位置座標を振り分けるようにしてもよい。
ここで説明している各々の位置座標を振り分ける方法は一例に過ぎず、他の方法を用いてもよいことは言うまでもない。
また、ここでは、説明の簡単化のため、軌跡判別部4が、X方向の座標及びY方向の座標に基づいて1本の線を生成しているが、Z方向の座標を考慮することで、3次元の線を生成することができる。
図49のステップCでは、表示処理部18が、手書き文字に並べるように軌跡を表す曲線を描いて、文字列に含まれている文字オブジェクトを表示させている。しかし、これに限るものではなく、表示処理部18が、例えば、手書き文字を消去させてから、手書き文字の位置に曲線を描いて、文字列に含まれている文字オブジェクトを表示させるようにしてもよい。
また、軌跡を表す曲線は、透明であってもよい。
この場合は、実施の形態1と同様に、曲線延長部17が、曲線を延長することで、表示処理部18が、表示されていない文字の一部を表示させるようにする。
具体的には、長さ比較部13が、曲線の長さと文字列の長さを比較し、延長曲線形状決定部14が、延長曲線の形状を決定し、曲線延長部17が、曲線情報取得部9により取得された曲線情報が示す曲線に延長曲線を付加することで、曲線を延長する。そして、表示処理部18が、延長曲線に沿って、表示されていない文字の一部を表示させる。
また、認識結果を示す文字列に含まれている文字オブジェクトを非表示領域に配置する場合において、ユーザが当該文字列を選択した場合、実施の形態1と同様に、文字列に含まれている文字オブジェクトの輪郭に、当該文字オブジェクトと異なる色の縁を付加するようにしてもよい。
さらに、選択された文字列の移動を受け付けるようにしてもよい。このようにすることで、認識結果を示す文字列に含まれている文字オブジェクトの全体を生成しきれない事態を回避することができる。
また、ユーザが、手書きの文字列又は認識結果を示す文字列のいずれか又は両方を選択して移動させた場合、手書きの文字列と認識結果を示す文字列とをともに移動するようにしてもよい。このようにすることで、移動させた後に、文字が離れた位置に配置されてしまうことを防止することができる。なお、別々に移動させるように構成することもできる。
図47に示す入力表示システムでは、文字認識処理部61を備えた文字列認識部60を図1に示す入力表示制御装置に適用する例を示している。
実施の形態10では、文字認識処理部61を備えた文字列認識部60を図39に示す入力表示制御装置に適用している入力表示システムについて説明する。
図50は、実施の形態10に係る入力表示制御装置を含む入力表示システムを示す構成図である。
図51は、翻訳結果を示す文字列の表示処理の一例を示す説明図である。
一方、図50に示す入力表示システムでは、表示処理部53が、図51のステップCに示すように、曲線情報が示す曲線に沿って、翻訳結果を示す文字列もディスプレイ32に表示させている点で、図47に示す入力表示システムと相違している。
また、翻訳結果を示す文字列を非表示領域に配置する場合において、ユーザが当該文字列を示す文字列を選択した場合、実施の形態1と同様に、文字列に含まれている文字オブジェクトの輪郭に、当該文字オブジェクトと異なる色の縁を付加するようにしてもよい。
さらに、選択された文字列の移動を受け付けるようにしてもよい。このようにすることで、翻訳結果を示す文字列に含まれている文字オブジェクトの全体を生成しきれない事態を回避することができる。
また、ユーザが、手書きの文字列又は翻訳結果を示す文字列のいずれか又は両方を選択して移動させた場合、手書きの文字列と翻訳結果を示す文字列とをともに移動するようにしてもよい。このようにすることで、移動させた後に、文字が離れた位置に配置されてしまうことを防止することができる。なお、別々に移動させるように構成することもできる。
Claims (17)
- 3次元空間の映像を取得する映像取得部と、
3次元の曲線を示す曲線情報を取得する曲線情報取得部と、
文字列を取得する文字列取得部と、
前記曲線情報取得部により取得された曲線情報が示す曲線に沿って、前記文字列取得部により取得された文字列に含まれている文字を示すオブジェクトである文字オブジェクトを前記映像取得部により取得された映像に重畳するための表示情報を生成する表示制御部とを備え、
前記表示制御部は、前記文字列取得部により取得された文字列の長さが長いために、前記文字列取得部により取得された文字列に含まれている文字についての文字オブジェクトの一部がディスプレイの表示領域からはみ出してしまう場合、前記曲線情報取得部により取得された曲線情報が示す曲線を非表示領域まで延長した曲線に沿って前記文字についての文字オブジェクトの一部を前記表示領域が示す3次元空間の周囲の3次元空間に配置した前記表示情報のための情報を生成することを特徴とする入力表示制御装置。 - 前記表示制御部は、前記映像取得部により取得された映像が示す3次元空間の位置が変化することで、前記周囲の3次元空間に配置していた文字オブジェクトが、前記位置が変化した3次元空間内に入ると、前記周囲の3次元空間に配置していた文字オブジェクトを前記映像取得部により取得された映像に重畳するための表示情報を生成することを特徴とする請求項1記載の入力表示制御装置。
- 前記表示制御部は、文字についての文字オブジェクトの一部が前記周囲の3次元空間に配置されている文字列の選択を受け付ける文字列選択部を備えていることを特徴とする請求項1記載の入力表示制御装置。
- 前記文字列選択部は、文字についての文字オブジェクトの一部が前記周囲の3次元空間に配置されている文字列に含まれている文字についての文字オブジェクトのうち、前記映像に重畳されている文字オブジェクトに対するユーザの接触時間が閾値よりも長ければ、当該文字列の選択を受け付けることを特徴とする請求項3記載の入力表示制御装置。
- 前記表示制御部は、前記文字列選択部により選択が受け付けられた文字列に含まれている文字についての文字オブジェクトの輪郭に、前記文字オブジェクトと異なる色の縁を付加する縁付加部を備えていることを特徴とする請求項3記載の入力表示制御装置。
- 前記表示制御部は、前記文字列選択部により選択が受け付けられた文字列の移動を受け付ける文字列移動部を備えていることを特徴とする請求項3記載の入力表示制御装置。
- 前記表示制御部は、前記文字列移動部によって、前記文字列選択部により選択が受け付けられた文字列の全体を前記映像取得部により取得された映像が示す3次元空間に配置するための移動が受け付けられると、当該文字列に含まれている全ての文字についての文字オブジェクトを前記映像に重畳するための表示情報を生成することを特徴とする請求項6記載の入力表示制御装置。
- 前記表示制御部は、前記文字列移動部によって、前記文字列選択部により選択が受け付けられた文字列の全体を前記映像取得部により取得された映像の外側に出すための移動が受け付けられると、当該文字列を破棄することを特徴とする請求項6記載の入力表示制御装置。
- 前記表示制御部は、一部の文字についての文字オブジェクトを前記周囲の3次元空間に配置した文字列を改行することで、前記周囲の3次元空間に配置したオブジェクトを前記映像に重畳するための表示情報を生成することを特徴とする請求項1記載の入力表示制御装置。
- 前記表示制御部は、前記曲線情報取得部により取得された曲線情報が示す曲線と同一形状の曲線を生成し、前記生成した曲線に沿って、前記周囲の3次元空間に配置したオブジェクトを前記映像に重畳するための表示情報を生成することを特徴とする請求項9記載の入力表示制御装置。
- 前記表示制御部は、一部の文字についての文字オブジェクトを前記周囲の3次元空間に配置した文字列の全体を前記映像取得部により取得された映像が示す3次元空間内に移動させて、当該文字列に含まれている全ての文字についての文字オブジェクトを前記映像に重畳するための表示情報を生成することを特徴とする請求項1記載の入力表示制御装置。
- 前記表示制御部は、一部の文字についての文字オブジェクトを前記周囲の3次元空間に配置した文字列に含まれている文字についての文字オブジェクトのサイズを小さくして、当該文字列の長さを、前記曲線情報取得部により取得された曲線情報が示す曲線の長さ以下にすることを特徴とする請求項1記載の入力表示制御装置。
- 前記表示制御部は、前記文字列取得部により取得された文字列の長さが、前記曲線情報取得部により取得された曲線情報が示す曲線の長さよりも短い場合、前記文字列の長さが、前記曲線の長さよりも長くならない範囲で、前記文字列に含まれている文字についての文字オブジェクトのサイズを大きくすることを特徴とする請求項1記載の入力表示制御装置。
- 前記表示制御部は、前記文字列取得部により取得された文字列を、前記文字列と同じ意味を有し、かつ、前記文字列よりも長さが短い文字列に置換する処理を実施し、前記曲線情報取得部により取得された曲線情報が示す曲線に沿って、置換処理後の文字列に含まれている全ての文字についての文字オブジェクトを前記映像取得部により取得された映像に重畳するための表示情報を生成することを特徴とする請求項1記載の入力表示制御装置。
- 前記曲線情報取得部は、複数の曲線情報を取得し、前記表示制御部は、前記曲線情報取得部により取得された複数の曲線情報が示すそれぞれの曲線に沿って、前記文字列取得部により取得された文字列に含まれている文字についての文字オブジェクトを前記映像取得部により取得された映像に重畳するための表示情報を生成することを特徴とする請求項1記載の入力表示制御装置。
- 映像取得部が、3次元空間の映像を取得し、
曲線情報取得部が、3次元の曲線を示す曲線情報を取得し、
文字列取得部が、文字列を取得し、
表示制御部が、前記曲線情報取得部により取得された曲線情報が示す曲線に沿って、前記文字列取得部により取得された文字列に含まれている文字を示すオブジェクトである文字オブジェクトを前記映像取得部により取得された映像に重畳するための表示情報を生成する処理を実施し、
前記表示制御部では、前記文字列取得部により取得された文字列の長さが長いために、前記文字列取得部により取得された文字列に含まれている文字についての文字オブジェクトの一部がディスプレイの表示領域からはみ出してしまう場合、前記曲線情報取得部により取得された曲線情報が示す曲線を非表示領域まで延長した曲線に沿って前記文字についての文字オブジェクトの一部を前記表示領域が示す3次元空間の周囲の3次元空間に配置した前記表示情報のための情報を生成することを特徴とする入力表示制御方法。 - 3次元空間の映像を取得する映像取得部と、
3次元空間の線を描く操作を受け付ける操作受付部と、
前記操作受付部により受け付けられた操作によって描かれた線の軌跡を判別する軌跡判別部と、
表示対象の文字列を認識する文字列認識部と、
前記軌跡判別部により判別された軌跡を表す3次元の曲線を示す曲線情報を取得する曲線情報取得部と、
前記文字列認識部により認識された文字列を取得する文字列取得部と、
前記曲線情報取得部により取得された曲線情報が示す曲線に沿って、前記文字列取得部により取得された文字列に含まれている文字を示すオブジェクトである文字オブジェクトを前記映像取得部により取得された映像に重畳するための表示情報を生成する表示制御部とを備え、
前記表示制御部は、前記文字列取得部により取得された文字列の長さが長いために、前記文字列取得部により取得された文字列に含まれている文字についての文字オブジェクトの一部がディスプレイの表示領域からはみ出してしまう場合、前記曲線情報取得部により取得された曲線情報が示す曲線を非表示領域まで延長した曲線に沿って前記文字についての文字オブジェクトの一部を前記表示領域が示す3次元空間の周囲の3次元空間に配置した前記表示情報のための情報を生成することを特徴とする入力表示システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/045174 WO2020115909A1 (ja) | 2018-12-07 | 2018-12-07 | 入力表示制御装置、入力表示制御方法及び入力表示システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6656477B1 true JP6656477B1 (ja) | 2020-03-04 |
JPWO2020115909A1 JPWO2020115909A1 (ja) | 2021-02-15 |
Family
ID=69997881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019526625A Active JP6656477B1 (ja) | 2018-12-07 | 2018-12-07 | 入力表示制御装置、入力表示制御方法及び入力表示システム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210264681A1 (ja) |
EP (1) | EP3879391B1 (ja) |
JP (1) | JP6656477B1 (ja) |
KR (1) | KR20210069733A (ja) |
CN (1) | CN113168272A (ja) |
WO (1) | WO2020115909A1 (ja) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002196873A (ja) * | 2000-12-27 | 2002-07-12 | Ntt Docomo Inc | 手書きデータ入力装置及び方法並びに個人認証装置及び方法 |
JP2006154902A (ja) * | 2004-11-25 | 2006-06-15 | Olympus Corp | 手書き画像表示システム及び空間手書き用携帯情報端末 |
JP2007133885A (ja) * | 2005-06-10 | 2007-05-31 | Make Softwear:Kk | 画像編集装置、画像編集方法、画像編集プログラム及び自動写真撮影装置 |
JP2009025420A (ja) * | 2007-07-17 | 2009-02-05 | Canon Inc | 表示制御装置および表示制御方法 |
JP2009205304A (ja) * | 2008-02-26 | 2009-09-10 | Ntt Docomo Inc | タッチパネルの制御装置、制御方法およびコンピュータプログラム |
JP2013020444A (ja) * | 2011-07-11 | 2013-01-31 | Hitachi Aloka Medical Ltd | 画像処理装置 |
JP2015022377A (ja) * | 2013-07-16 | 2015-02-02 | アンデックス株式会社 | 画像通信プログラム、画像通信方法、および電子機器 |
JP2016184294A (ja) * | 2015-03-26 | 2016-10-20 | 富士通株式会社 | 表示制御方法、表示制御プログラム、及び情報処理装置 |
JP2016206603A (ja) * | 2015-04-28 | 2016-12-08 | 京セラドキュメントソリューションズ株式会社 | 画像形成装置及び画像処理プログラム |
WO2016203792A1 (ja) * | 2015-06-15 | 2016-12-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017010480A (ja) * | 2015-06-26 | 2017-01-12 | シャープ株式会社 | コンテンツ表示装置及びプログラム |
WO2017098822A1 (ja) * | 2015-12-10 | 2017-06-15 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2017138076A1 (ja) * | 2016-02-08 | 2017-08-17 | 三菱電機株式会社 | 入力表示制御装置、入力表示制御方法及び入力表示システム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8520004B2 (en) * | 2007-06-04 | 2013-08-27 | Daedal Doodle, LLC | Interactive labyrinth curve generation and applications thereof |
JP5277403B2 (ja) * | 2010-01-06 | 2013-08-28 | 健治 吉田 | 情報入力用の曲面体、情報入力用の地図、情報入力用の図面 |
JP2013003801A (ja) * | 2011-06-15 | 2013-01-07 | Sharp Corp | 文字入力装置、文字入力装置の制御方法、制御プログラム、及び記録媒体 |
CN103765413B (zh) * | 2011-06-30 | 2018-02-16 | 谷歌公司 | 渲染跟随线条的文本图像 |
KR102023008B1 (ko) * | 2012-12-10 | 2019-09-19 | 엘지전자 주식회사 | 음성-텍스트 변환 디스플레이 장치 및 그 방법 |
CN104992175B (zh) * | 2015-07-10 | 2018-02-13 | 河海大学常州校区 | 一种基于树型关系的过粘连钢坯字符分割方法 |
-
2018
- 2018-12-07 KR KR1020217016513A patent/KR20210069733A/ko not_active Application Discontinuation
- 2018-12-07 WO PCT/JP2018/045174 patent/WO2020115909A1/ja unknown
- 2018-12-07 JP JP2019526625A patent/JP6656477B1/ja active Active
- 2018-12-07 CN CN201880099934.1A patent/CN113168272A/zh active Pending
- 2018-12-07 EP EP18942439.3A patent/EP3879391B1/en active Active
-
2021
- 2021-05-11 US US17/316,727 patent/US20210264681A1/en not_active Abandoned
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002196873A (ja) * | 2000-12-27 | 2002-07-12 | Ntt Docomo Inc | 手書きデータ入力装置及び方法並びに個人認証装置及び方法 |
JP2006154902A (ja) * | 2004-11-25 | 2006-06-15 | Olympus Corp | 手書き画像表示システム及び空間手書き用携帯情報端末 |
JP2007133885A (ja) * | 2005-06-10 | 2007-05-31 | Make Softwear:Kk | 画像編集装置、画像編集方法、画像編集プログラム及び自動写真撮影装置 |
JP2009025420A (ja) * | 2007-07-17 | 2009-02-05 | Canon Inc | 表示制御装置および表示制御方法 |
JP2009205304A (ja) * | 2008-02-26 | 2009-09-10 | Ntt Docomo Inc | タッチパネルの制御装置、制御方法およびコンピュータプログラム |
JP2013020444A (ja) * | 2011-07-11 | 2013-01-31 | Hitachi Aloka Medical Ltd | 画像処理装置 |
JP2015022377A (ja) * | 2013-07-16 | 2015-02-02 | アンデックス株式会社 | 画像通信プログラム、画像通信方法、および電子機器 |
JP2016184294A (ja) * | 2015-03-26 | 2016-10-20 | 富士通株式会社 | 表示制御方法、表示制御プログラム、及び情報処理装置 |
JP2016206603A (ja) * | 2015-04-28 | 2016-12-08 | 京セラドキュメントソリューションズ株式会社 | 画像形成装置及び画像処理プログラム |
WO2016203792A1 (ja) * | 2015-06-15 | 2016-12-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017010480A (ja) * | 2015-06-26 | 2017-01-12 | シャープ株式会社 | コンテンツ表示装置及びプログラム |
WO2017098822A1 (ja) * | 2015-12-10 | 2017-06-15 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2017138076A1 (ja) * | 2016-02-08 | 2017-08-17 | 三菱電機株式会社 | 入力表示制御装置、入力表示制御方法及び入力表示システム |
Also Published As
Publication number | Publication date |
---|---|
KR20210069733A (ko) | 2021-06-11 |
US20210264681A1 (en) | 2021-08-26 |
JPWO2020115909A1 (ja) | 2021-02-15 |
EP3879391A1 (en) | 2021-09-15 |
CN113168272A (zh) | 2021-07-23 |
EP3879391B1 (en) | 2023-12-27 |
WO2020115909A1 (ja) | 2020-06-11 |
EP3879391A4 (en) | 2022-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6355823B2 (ja) | 入力表示制御装置、入力表示制御方法及び入力表示システム | |
JP6235763B2 (ja) | 入力表示装置、入力表示方法及び入力表示プログラム | |
US11393230B2 (en) | Input display control device, input display control method, and input display system | |
JP6656477B1 (ja) | 入力表示制御装置、入力表示制御方法及び入力表示システム | |
JP6727279B2 (ja) | 表示制御装置、入力表示システム、表示制御方法及びプログラム | |
JPWO2014054717A1 (ja) | ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体 | |
JP6448838B2 (ja) | 表示制御装置、表示制御方法及びプログラム | |
JP6463442B2 (ja) | 入力表示装置、入力表示方法及び入力表示プログラム | |
JP6987302B1 (ja) | 入力表示制御装置、入力表示制御方法および入力表示システム | |
JP6675472B2 (ja) | 入力表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190517 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190517 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190806 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6656477 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |