JP2019071104A - Input display device - Google Patents

Input display device Download PDF

Info

Publication number
JP2019071104A
JP2019071104A JP2018247063A JP2018247063A JP2019071104A JP 2019071104 A JP2019071104 A JP 2019071104A JP 2018247063 A JP2018247063 A JP 2018247063A JP 2018247063 A JP2018247063 A JP 2018247063A JP 2019071104 A JP2019071104 A JP 2019071104A
Authority
JP
Japan
Prior art keywords
unit
character
locus
character string
line width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018247063A
Other languages
Japanese (ja)
Other versions
JP6675472B2 (en
Inventor
平井 正人
Masato Hirai
正人 平井
晶子 今石
Akiko Imaishi
晶子 今石
嘉道 梅木
Yoshimichi Umeki
嘉道 梅木
松原 勉
Tsutomu Matsubara
勉 松原
直樹 鶴
Naoki Tsuru
直樹 鶴
山口 貴弘
Takahiro Yamaguchi
貴弘 山口
孝典 引間
Takanori Hikima
孝典 引間
貴司 山内
Takashi Yamauchi
貴司 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2018247063A priority Critical patent/JP6675472B2/en
Publication of JP2019071104A publication Critical patent/JP2019071104A/en
Application granted granted Critical
Publication of JP6675472B2 publication Critical patent/JP6675472B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To enable a character string indicating the result of speech recognition to be displayed in a user's free layout.SOLUTION: An operation state detection unit 11 detects the state of an operation accepted by an operation acceptance unit 1 that accepts a trace-writing operation. A locus image generation unit 12 determines the locus of a line drawn by tracing from the trace-writing operation accepted by the operation acceptance unit 11, and generates a locus image that indicates the determined locus as a locus image of the line width that corresponds to the state of operation detected by the operation state detection unit 1. A display control unit 13 displays the locus image generated by the locus image generation unit 12 on a display 29, and causes a character string acquired by a character string acquisition unit 5 that acquires a character string that indicates the result of speech recognition to be displayed, on top of the locus image displayed on the display 29, using characters of a character size that corresponds to the line width of the locus image that is set by the locus image generation unit 12.SELECTED DRAWING: Figure 9

Description

この発明は、音声の認識結果を示す文字列をディスプレイに表示する入力表示装置に関するものである。   The present invention relates to an input display device for displaying a character string indicating a speech recognition result on a display.

以下の特許文献1には、音声の認識結果を示す文字列をディスプレイに表示する入力表示装置が開示されている。
この入力表示装置では、ユーザがペン型入力器を用いて、線を描く操作を行うと、その線の始点と終点を検知し、その始点と終点を結ぶ直線をディスプレイに描画する。
その後、ユーザがマイクを用いて、音声を入力すると、その音声の認識処理を実施して、その音声の認識結果を示す文字列を描画済みの直線に沿うように表示する。
Patent Document 1 below discloses an input display device for displaying a character string indicating a speech recognition result on a display.
In this input display device, when the user performs an operation of drawing a line using a pen-type input device, the start point and the end point of the line are detected, and a straight line connecting the start point and the end point is drawn on the display.
Thereafter, when the user inputs a voice using a microphone, the voice recognition process is performed to display a character string indicating the voice recognition result along a drawn straight line.

特開2012−88969号公報(図2、図3、図6)Unexamined-Japanese-Patent No. 2012-88969 (FIG. 2, FIG. 3, FIG. 6)

従来の入力表示装置は以上のように構成されているので、ユーザがペン型入力器を用いて、線を描く操作を行えば、その線の始点と終点を結ぶ直線がディスプレイに描画される。したがって、ユーザがマイクを用いて、音声を入力する前に、音声の認識結果を示す文字列が表示される位置を事前に把握することができる。しかし、ディスプレイに描画される線は、始点と終点を結ぶ直線に限られるため、ユーザの自由なレイアウトで、音声の認識結果を示す文字列を表示することができないという課題があった。   Since the conventional input display apparatus is comprised as mentioned above, if a user performs operation which draws a line using a pen-type input device, the straight line which ties the start point of the line and the end point will be drawn on a display. Therefore, before the user inputs a voice using the microphone, it is possible to grasp in advance the position where the character string indicating the recognition result of the voice is displayed. However, since the line drawn on the display is limited to the straight line connecting the start point and the end point, there is a problem that a character string indicating a speech recognition result can not be displayed with a free layout of the user.

この発明は上記のような課題を解決するためになされたもので、ユーザの自由なレイアウトで、音声の認識結果を示す文字列を多様に表示することができる入力表示装置を得ることを目的とする。   The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to obtain an input display apparatus capable of displaying various character strings indicating speech recognition results with a free layout of the user. Do.

この発明に係る入力表示装置は、なぞり書きの操作を受け付ける操作受付部と、操作受付部により受け付けられた操作の状態を検知する操作状態検知部と、操作受付部により受け付けられたなぞり書きの操作からなぞり書きにより描かれる線の軌跡を判別し、当該判別した軌跡を示す軌跡画像を、操作状態検知部により検知された操作の状態に対応する線幅の軌跡画像として生成する軌跡画像生成部と、音声の認識結果を示す文字列を取得する文字列取得部と、軌跡画像生成部により生成された軌跡画像をディスプレイに表示するとともに、文字列取得部により取得された文字列を、軌跡画像生成部により設定された軌跡画像の線幅に応じた文字サイズの文字でディスプレイに表示される軌跡画像の上に重ねて表示させる表示制御部を備えたものである。   The input display device according to the present invention includes an operation receiving unit for receiving a tracing operation, an operation state detecting unit for detecting a state of the operation received by the operation receiving unit, and a tracing operation received by the operation receiving unit. A locus image generation unit that determines a locus of a line drawn by scratching, and generates a locus image indicating the determined locus as a locus image of a line width corresponding to the state of the operation detected by the operation state detection unit; A character string acquiring unit for acquiring a character string indicating a speech recognition result, and displaying on a display a locus image generated by the locus image generating unit, generating a locus image of the character string acquired by the character string acquiring unit A display control unit for displaying the characters of the character size corresponding to the line width of the trajectory image set by the unit so as to be superimposed on the trajectory image displayed on the display Than is.

この発明によれば、表示制御部が、文字列取得部により取得された文字列を、軌跡画像生成部により設定された軌跡画像の線幅に応じた文字サイズの文字でディスプレイに表示される軌跡画像の上に重ねて表示させるので、ユーザの自由なレイアウトで、音声の認識結果を示す文字列を多様に表示することができる効果がある。   According to the present invention, the display control unit displays the character string acquired by the character string acquisition unit on the display with the character having the character size corresponding to the line width of the trajectory image set by the trajectory image generation unit. Since the image is displayed superimposed on the image, there is an effect that it is possible to variously display a character string indicating the speech recognition result by the user's free layout.

この発明の実施の形態1による入力表示装置を示す構成図である。It is a block diagram which shows the input display apparatus by Embodiment 1 of this invention. この発明の実施の形態1による入力表示装置のハードウェア構成図である。It is a hardware block diagram of the input display apparatus by Embodiment 1 of this invention. 入力表示装置がコンピュータで構成される場合のハードウェア構成図である。It is a hardware block diagram in case an input display apparatus is comprised by computer. この発明の実施の形態1による入力表示装置の処理内容である入力表示方法を示すフローチャートである(その1)。It is a flowchart which shows the input display method which is the processing content of the input display apparatus by Embodiment 1 of this invention (the 1). この発明の実施の形態1による入力表示装置の処理内容である入力表示方法を示すフローチャートである(その2)。It is a flowchart which shows the input display method which is the processing content of the input display apparatus by Embodiment 1 of this invention (the 2). 文字管理DBに記憶されている文字属性表を示す説明図である。It is explanatory drawing which shows the character attribute table memorize | stored in character management DB. 音声の認識結果を示す文字列が生成される前に軌跡画像が生成された場合の表示処理を示す説明図である。It is explanatory drawing which shows a display process when a locus | trajectory image is produced | generated before the character string which shows the recognition result of audio | voice is produced | generated. 軌跡画像が生成される前に音声の認識結果を示す文字列が生成された場合の表示処理を示す説明図である。It is explanatory drawing which shows a display process when the character string which shows the recognition result of an audio | voice is produced | generated before a locus | trajectory image is produced | generated. この発明の実施の形態2による入力表示装置を示す構成図である。It is a block diagram which shows the input display apparatus by Embodiment 2 of this invention. この発明の実施の形態2による入力表示装置のハードウェア構成図である。It is a hardware block diagram of the input display apparatus by Embodiment 2 of this invention. この発明の実施の形態2による入力表示装置の処理内容である入力表示方法を示すフローチャートである。It is a flowchart which shows the input display method which is the processing content of the input display apparatus by Embodiment 2 of this invention. ユーザの筆圧に応じて線幅が設定された軌跡画像を示す説明図である。It is explanatory drawing which shows the locus | trajectory image in which the line width was set according to the writing pressure of the user. なぞる速度に応じて線幅が設定された軌跡画像を示す説明図である。It is explanatory drawing which shows the locus | trajectory image in which the line | wire width was set according to the speed to trace. 途中で変化するユーザの筆圧やなぞる速度に応じて線幅が設定された軌跡画像を示す説明図である。It is explanatory drawing which shows the locus | trajectory image in which the line | wire width was set according to the writing pressure and tracing speed of the user which change on the way. この発明の実施の形態3による入力表示装置を示す構成図である。It is a block diagram which shows the input display apparatus by Embodiment 3 of this invention. この発明の実施の形態3による入力表示装置のハードウェア構成図である。It is a hardware block diagram of the input display apparatus by Embodiment 3 of this invention. この発明の実施の形態3による入力表示装置の処理内容である入力表示方法を示すフローチャートである。It is a flowchart which shows the input display method which is the processing content of the input display apparatus by Embodiment 3 of this invention. 音声の言語に対応する軌跡画像の色を示す説明図である。It is explanatory drawing which shows the color of the locus | trajectory image corresponding to the language of audio | voice. この発明の実施の形態4による入力表示装置を示す構成図である。It is a block diagram which shows the input display apparatus by Embodiment 4 of this invention. この発明の実施の形態4による入力表示装置のハードウェア構成図である。It is a hardware block diagram of the input display apparatus by Embodiment 4 of this invention. 操作受付部1により受け付けられる操作が切り換えられた際の処理内容を示すフローチャートである。5 is a flowchart showing processing contents when an operation accepted by the operation accepting unit 1 is switched. 操作受付部1により受け付けられる操作を切り換えるための操作の一例を示す説明図である。FIG. 6 is an explanatory view showing an example of an operation for switching an operation accepted by the operation accepting unit 1; 絵書きの操作内容にしたがって生成される絵の画像の一例を示す説明図である。It is an explanatory view showing an example of a picture of a picture generated according to operation contents of picture writing.

以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面にしたがって説明する。   Hereinafter, in order to explain the present invention in more detail, a mode for carrying out the present invention will be described according to the attached drawings.

実施の形態1.
図1はこの発明の実施の形態1による入力表示装置を示す構成図であり、図2はこの発明の実施の形態1による入力表示装置のハードウェア構成図である。
図1及び図2において、操作受付部1はポインティングデバイス21で実現され、ユーザの操作として、なぞり書きの操作を受け付ける処理を実施する。
この実施の形態1では、ポインティングデバイス21として、タッチパネルを用いるものを想定しているが、タッチパネルに限るものではなく、例えば、ジョイスティック、ポインティング・スティック(トラックポイント)、タッチパッド、スタイラス、データグローブ、トラックボール、ペンタブレット、マウス、ライトペン、ジョイパッドなどを用いることができる。
Embodiment 1
FIG. 1 is a block diagram showing an input display apparatus according to Embodiment 1 of the present invention, and FIG. 2 is a hardware block diagram of the input display apparatus according to Embodiment 1 of the present invention.
In FIG. 1 and FIG. 2, the operation receiving unit 1 is realized by the pointing device 21 and performs a process of receiving a tracing operation as a user operation.
Although a touch panel is used as the pointing device 21 in this first embodiment, the present invention is not limited to the touch panel. For example, a joystick, pointing stick (track point), touch pad, stylus, data glove, Trackballs, pen tablets, mice, light pens, joy pads, etc. can be used.

文字管理DB2は例えばRAMやハードディスクなどのメモリ22で実現され、文字種と文字サイズと文字高と文字幅との対応関係を示す文字属性表を記憶している。
文字管理部3は例えばCPU(Central Processing Unit)を実装している半導体集積回路やワンチップマイコンなどで構成されている文字管理処理回路23で実現されるものである。文字管理部3は事前にディスプレイ29に表示する文字のサイズが設定され、文字管理DB2に記憶されている文字属性表を参照して、その文字サイズに対応する文字高を示す文字属性情報を軌跡画像生成部4に出力する処理を実施する。
The character management DB 2 is realized by, for example, the memory 22 such as a RAM or a hard disk, and stores a character attribute table indicating the correspondence between character types, character sizes, character heights and character widths.
The character management unit 3 is realized by, for example, a character management processing circuit 23 constituted by a semiconductor integrated circuit on which a CPU (Central Processing Unit) is mounted, a one-chip microcomputer, or the like. The size of the character to be displayed on the display 29 is set in advance, the character management unit 3 refers to the character attribute table stored in the character management DB 2 and traces the character attribute information indicating the character height corresponding to the character size A process of outputting to the image generation unit 4 is performed.

軌跡画像生成部4は例えばGPU(Graphics Processing Unit)を実装している半導体集積回路やワンチップマイコンなどで構成されている画像生成処理回路24で実現されるものである。軌跡画像生成部4は操作受付部1により受け付けられたなぞり書きの操作から、なぞり書きにより描かれる線の軌跡を判別して、その軌跡を示す軌跡画像を生成する処理を実施する。その際、文字管理部3から出力された文字属性情報が示す文字高に対応する線幅の軌跡画像を生成する。   The locus image generation unit 4 is realized by, for example, an image generation processing circuit 24 configured by a semiconductor integrated circuit on which a GPU (Graphics Processing Unit) is mounted, a one-chip microcomputer, or the like. The locus image generation unit 4 determines the locus of the line drawn by the tracing from the tracing operation received by the operation reception unit 1 and carries out a process of generating a locus image indicating the locus. At this time, a locus image of a line width corresponding to the character height indicated by the character attribute information output from the character management unit 3 is generated.

文字列取得部5は音声検出部6、音声認識辞書DB7及び音声認識部8から構成されており、音声の認識結果を示す文字列を取得する処理を実施する。
音声検出部6は例えばマイク25で実現され、ユーザの音声を検出する。
音声認識辞書DB7は例えばRAMやハードディスクなどのメモリ26で実現されるものであり、音声認識辞書DB7は、例えば、人間の発声の小さな単位である音素の音響特徴が記述されている音響モデルと、音声認識する言葉が記述されている認識辞書とから構成されている。
音声認識部8は例えばCPUを実装している半導体集積回路やワンチップマイコンなどで構成されている音声認識処理回路27で実現されるものであり、音声検出部6により検出された音声を認識する音声認識エンジンを搭載している。
即ち、音声認識部8は音声検出部6により検出された音声を分析して、その音声の音響特徴を算出し、音声認識辞書DB7の認識辞書に記述されている言葉の中から、その算出した音響特徴と最も近い音響特徴を有する言葉を探索し、その言葉を示す文字列を音声の認識結果を示す文字列として表示制御部9に出力する処理を実施する。
The character string acquisition unit 5 includes a speech detection unit 6, a speech recognition dictionary DB 7, and a speech recognition unit 8, and executes a process of acquiring a character string indicating a speech recognition result.
The voice detection unit 6 is realized by, for example, the microphone 25 and detects the voice of the user.
The speech recognition dictionary DB 7 is realized by, for example, a memory 26 such as a RAM or a hard disk, and the speech recognition dictionary DB 7 is, for example, an acoustic model in which acoustic features of phonemes which are small units of human speech are described. It consists of a recognition dictionary in which speech recognition words are described.
The voice recognition unit 8 is realized by, for example, a voice recognition processing circuit 27 composed of a semiconductor integrated circuit mounted with a CPU, a one-chip microcomputer or the like, and recognizes voice detected by the voice detection unit 6 It has a speech recognition engine.
That is, the speech recognition unit 8 analyzes the speech detected by the speech detection unit 6, calculates acoustic features of the speech, and calculates the speech features from among the words described in the recognition dictionary of the speech recognition dictionary DB 7. A word having an acoustic feature closest to the acoustic feature is searched, and a process of outputting a character string indicating the word to the display control unit 9 as a character string indicating a speech recognition result is performed.

図1では、文字列取得部5が音声認識辞書DB7及び音声認識部8を実装している例を示しているが、音声認識辞書DB7及び音声認識部8の代わりに、データ送受信部が実装されているものであってもよい。
このデータ送受信部は、例えば、インターネットやLANなどの通信経路を介して、図示せぬ音声認識サーバとデータの送受信を行うことが可能なネットワークカードなどのネットワーク通信機器であり、音声検出部6により検出された音声を示すデータを音声認識サーバに送信する。
音声認識サーバは、音声を認識する音声認識エンジンを搭載しており、データ送受信部から送信された音声を示すデータを受信すると、その音声を認識して、その音声の認識結果を示す文字列を当該データ送受信部に送信する。
このデータ送受信部は、音声認識サーバから送信された音声の認識結果を示す文字列を受信すると、その文字列を表示制御部9に出力する。
Although FIG. 1 shows an example in which the character string acquisition unit 5 includes the speech recognition dictionary DB 7 and the speech recognition unit 8, a data transmission / reception unit is mounted instead of the speech recognition dictionary DB 7 and the speech recognition unit 8. It may be
The data transmission / reception unit is, for example, a network communication device such as a network card capable of transmitting / receiving data to / from a voice recognition server (not shown) via a communication channel such as the Internet or LAN. Data indicative of the detected speech is sent to the speech recognition server.
The speech recognition server is equipped with a speech recognition engine that recognizes speech, and when data indicating the speech transmitted from the data transmission / reception unit is received, the speech is recognized and a character string indicating the speech recognition result is displayed. It transmits to the said data transmission / reception part.
When the data transmitting / receiving unit receives a character string indicating the recognition result of the voice transmitted from the voice recognition server, the data transmitting / receiving unit outputs the character string to the display control unit 9.

表示制御部9は例えばGPUを実装している半導体集積回路やワンチップマイコンなどで構成されている表示処理回路28で実現されるものである。表示制御部9は軌跡画像生成部4により生成された軌跡画像をディスプレイ29に表示するとともに、文字列取得部5により取得された文字列を軌跡画像の上に重ねて表示する処理を実施する。
即ち、表示制御部9は文字列取得部5の音声認識部8から文字列が出力される前に、軌跡画像生成部4により軌跡画像が生成された場合、その軌跡画像をディスプレイ29に表示した後、文字列取得部5の音声認識部8から出力された文字列を軌跡画像の上に重ねて表示する。一方、軌跡画像生成部4により軌跡画像が生成される前に、文字列取得部5の音声認識部8から文字列が出力された場合、軌跡画像生成部4により軌跡画像が生成されるまで待機し、軌跡画像生成部4により軌跡画像が生成されると、その軌跡画像をディスプレイ29に表示するとともに、その文字列を軌跡画像の上に重ねて表示する処理を実施する。
また、表示制御部9は文字列を軌跡画像の上に重ねて表示した後、その軌跡画像の表示を消す処理を実施する。
文字列一時保存部10は例えばRAMやハードディスクなどのメモリ30で実現され、文字列取得部5の音声認識部8から出力された文字列を一時的に保存する。
The display control unit 9 is realized by, for example, a display processing circuit 28 configured of a semiconductor integrated circuit on which a GPU is mounted, a one-chip microcomputer, or the like. The display control unit 9 performs a process of displaying the trajectory image generated by the trajectory image generation unit 4 on the display 29, and superimposing the character string acquired by the character string acquisition unit 5 on the trajectory image.
That is, when the locus image generation unit 4 generates a locus image before the character recognition unit 8 of the character string acquisition unit 5 outputs the character string, the display control unit 9 displays the locus image on the display 29. After that, the character string output from the voice recognition unit 8 of the character string acquisition unit 5 is superimposed and displayed on the trajectory image. On the other hand, when a character string is output from the voice recognition unit 8 of the character string acquisition unit 5 before the trajectory image generation unit 4 generates a trajectory image, the process waits until the trajectory image generation unit 4 generates a trajectory image. When the locus image is generated by the locus image generation unit 4, the locus image is displayed on the display 29, and the character string is superimposed and displayed on the locus image.
Further, the display control unit 9 superimposes and displays the character string on the trajectory image, and then executes a process of erasing the display of the trajectory image.
The character string temporary storage unit 10 is realized by, for example, the memory 30 such as a RAM or a hard disk, and temporarily stores the character string output from the voice recognition unit 8 of the character string acquisition unit 5.

図1では、入力表示装置の構成要素である操作受付部1、文字管理DB2、文字管理部3、軌跡画像生成部4、文字列取得部5、表示制御部9及び文字列一時保存部10のそれぞれが専用のハードウェアで構成されているものを想定しているが、入力表示装置がコンピュータで構成されているものであってもよい。
図3は入力表示装置がコンピュータで構成される場合のハードウェア構成図である。
入力表示装置がコンピュータで構成される場合、文字管理DB2、音声認識辞書DB7及び文字列一時保存部10をコンピュータのメモリ41上に構成するとともに、操作受付部1、文字管理部3、軌跡画像生成部4、音声検出部6、音声認識部8及び表示制御部9の処理内容を記述しているプログラムをメモリ41に格納し、プロセッサ42がメモリ41に格納されているプログラムを実行するようにすればよい。
図4及び図5はこの発明の実施の形態1による入力表示装置の処理内容である入力表示方法を示すフローチャートである。
In FIG. 1, components of the operation display unit 1, the character management DB 2, the character management unit 3, the locus image generation unit 4, the character string acquisition unit 5, the display control unit 9 and the character string temporary storage unit 10 which are components of the input display device. Although each is assumed to be configured by dedicated hardware, the input display device may be configured by a computer.
FIG. 3 is a hardware configuration diagram when the input display device is configured by a computer.
When the input display device is configured by a computer, the character management DB 2, the speech recognition dictionary DB 7, and the character string temporary storage unit 10 are configured on the memory 41 of the computer, and the operation reception unit 1, character management unit 3, trajectory image generation A program describing the processing contents of the unit 4, the voice detection unit 6, the voice recognition unit 8 and the display control unit 9 is stored in the memory 41, and the processor 42 executes the program stored in the memory 41. Just do it.
FIGS. 4 and 5 are flow charts showing an input display method which is the processing content of the input display apparatus according to the first embodiment of the present invention.

次に動作について説明する。
図6は文字管理DB2に記憶されている文字属性表を示す説明図である。
図6の文字属性表では、各々の文字種(例えば、明朝体、ゴシック体など)毎に、文字サイズに対応している文字高と文字幅が記述されている。
文字管理部3には、ディスプレイ29に表示する文字のサイズが事前に設定されており、文字管理部3は、文字管理DB2に記憶されている文字属性表を参照して、その文字サイズに対応する文字高を示す文字属性情報を軌跡画像生成部4に出力する(図4のステップST1)。
例えば、事前に設定されている文字の文字種が“A”で、その文字サイズが“10”であれば、文字高が“5mm”であることを示す文字属性情報が軌跡画像生成部4に出力される。
また、事前に設定されている文字の文字種が“B”で、その文字サイズが“5”であれば、文字高が“2mm”であることを示す文字属性情報が軌跡画像生成部4に出力される。
また、文字管理部3は、その文字サイズに対応する文字高及び文字幅を示す文字属性情報を表示制御部9に出力する。
Next, the operation will be described.
FIG. 6 is an explanatory view showing a character attribute table stored in the character management DB 2.
In the character attribute table of FIG. 6, the character height and character width corresponding to the character size are described for each character type (for example, Mincho type, Gothic type, etc.).
In the character management unit 3, the size of characters to be displayed on the display 29 is set in advance, and the character management unit 3 refers to the character attribute table stored in the character management DB 2 and copes with the character size Character attribute information indicating the character height to be output is output to the trajectory image generation unit 4 (step ST1 in FIG. 4).
For example, if the character type of the character set in advance is “A” and the character size is “10”, character attribute information indicating that the character height is “5 mm” is output to the trajectory image generation unit 4 Be done.
Also, if the character type of the character set in advance is “B” and the character size is “5”, character attribute information indicating that the character height is “2 mm” is output to the trajectory image generation unit 4 Be done.
The character management unit 3 also outputs character attribute information indicating the character height and character width corresponding to the character size to the display control unit 9.

軌跡画像生成部4は、文字管理部3から文字属性情報を受けると、生成する軌跡画像の線幅を文字属性情報が示す文字高に対応する線幅に設定する(ステップST2)。
例えば、文字属性情報が示す文字高が“10mm”であるとき、仮に文字の上部及び下部の余白が“0.5mm”に設定されているとすれば、軌跡画像の線幅を“11mm”に設定する。
11=10+0.5+0.5(mm)
ここでは、文字の上部及び下部に余白を設ける例を示しているが、余白を設けずに、文字属性情報が示す文字高と軌跡画像の線幅が一致するものであってもよい。
When receiving the character attribute information from the character management unit 3, the locus image generation unit 4 sets the line width of the locus image to be generated to the line width corresponding to the character height indicated by the character attribute information (step ST2).
For example, when the character height indicated by the character attribute information is "10 mm", if the upper and lower margins of the character are set to "0.5 mm", the line width of the locus image is "11 mm". Set
11 = 10 + 0.5 + 0.5 (mm)
Here, although the example which provides a margin in the upper part and the lower part of a character is shown, the character height which character attribute information shows, and the line width of a locus | trajectory image may correspond, without providing a margin.

この実施の形態1では、操作受付部1を実現しているポインティングデバイス21がタッチパネルであるものを想定しているので、ユーザが自己の指や、タッチパネル用の入力ペンなどを用いて、なぞり書きの操作をタッチパネルに行うと(ステップST3:YESの場合)、操作受付部1が、なぞり書きの操作を受け付けて、なぞり書きの操作内容を軌跡画像生成部4に出力する(ステップST4)。
なぞり書きの操作内容は、タッチパネルに接触している指や入力ペンの位置(タッチパネル上の座標)の連続的な変化を示す時系列データに相当するものである。
In the first embodiment, it is assumed that the pointing device 21 that realizes the operation receiving unit 1 is a touch panel, and therefore, the user can write on the screen using his / her finger, an input pen for a touch panel, or the like. When the operation of is performed on the touch panel (step ST3: YES), the operation receiving unit 1 receives the tracing operation and outputs the tracing operation content to the locus image generating unit 4 (step ST4).
The operation content of trace writing corresponds to time-series data indicating continuous change of the position of the finger touching the touch panel or the position of the input pen (coordinates on the touch panel).

軌跡画像生成部4は、操作受付部1からなぞり書きの操作内容を受けると、その操作内容からなぞり書きにより描かれる線の軌跡を判別する(ステップST5)。
なぞり書きの操作内容は、上述したように、タッチパネルに対する接触位置の連続的な変化を示しているので、時系列の接触位置を繋ぎ合わせることで、なぞり書きにより描かれる線の軌跡を判別することができる。
軌跡画像生成部4は、なぞり書きにより描かれる線の軌跡を判別すると、その軌跡を示す軌跡画像を生成し、その軌跡画像を表示制御部9に出力する(ステップST6)。
この軌跡画像の線幅は、ステップST2で設定した線幅であり、上記の例では、軌跡画像の線幅を“11mm”に設定しているので、線幅が“11mm”の軌跡画像を生成する。
When the trajectory image generating unit 4 receives the operation content of the tracing from the operation receiving unit 1, it determines the trajectory of the line drawn by the tracing from the operation content (step ST 5).
As described above, the operation content of the tracing indicates the continuous change of the touch position on the touch panel. Therefore, by connecting the touch positions in time series, it is necessary to determine the locus of the line drawn by the tracing. Can.
When the locus image generation unit 4 determines the locus of a line drawn by tracing, it generates a locus image indicating the locus, and outputs the locus image to the display control section 9 (step ST6).
The line width of this locus image is the line width set in step ST2. In the above example, since the line width of the locus image is set to "11 mm", a locus image having a line width of "11 mm" is generated Do.

文字列取得部5の音声認識部8は、音声検出部6がユーザの音声を検出すると(ステップST7:YESの場合)、音声認識辞書DB7を利用して、その音声の認識処理を実施することで、その音声の認識結果を示す文字列(テキスト)を生成し、その文字列を表示制御部9に出力する(ステップST8)。
音声認識部8による音声の認識処理自体は公知の技術であるため詳細な説明を省略するが、例えば、音声検出部6により検出された音声を分析して、その音声の音響特徴を算出し、音声認識辞書DB7の認識辞書に記述されている言葉の中から、その算出した音響特徴と最も近い音響特徴を有する言葉を探索し、その言葉を示す文字列を音声の認識結果を示す文字列として出力する方法が考えられる。
この実施の形態1では、説明の便宜上、ユーザが「春になったら桜を見に行きましょう」という発話をしており、音声認識部8が「春になったら桜を見に行きましょう」を示す文字列を出力するものとする。
When the speech detection unit 6 detects the user's speech (step ST7: YES), the speech recognition unit 8 of the character string acquisition unit 5 executes the speech recognition process using the speech recognition dictionary DB 7 Then, a character string (text) indicating the recognition result of the voice is generated, and the character string is output to the display control unit 9 (step ST8).
The speech recognition process 8 by the speech recognition unit 8 is a well-known technique, and therefore detailed description is omitted. For example, the speech detected by the speech detection unit 6 is analyzed to calculate the acoustic feature of the speech, From the words described in the recognition dictionary of the speech recognition dictionary DB 7, a word having an acoustic feature closest to the calculated acoustic feature is searched, and a character string indicating the word is used as a character string indicating a speech recognition result There is a conceivable way to output.
In the first embodiment, for convenience of explanation, the user utters "Let's go to see cherry blossoms in spring", and let voice recognition unit 8 "go to see cherry blossoms in spring" It is assumed that a character string indicating "" is output.

ここで、図7は音声の認識結果を示す文字列が生成される前に軌跡画像が生成された場合の表示処理を示す説明図である。
また、図8は軌跡画像が生成される前に音声の認識結果を示す文字列が生成された場合の表示処理を示す説明図である。
表示制御部9は、文字列取得部5の音声認識部8から文字列が出力される前に、軌跡画像生成部4から軌跡画像が出力されると(図5のステップST11:YESの場合)、図7(a)に示すように、その軌跡画像をディスプレイ29に表示する(ステップST12)。
ここで、軌跡画像の表示は、軌跡画像の全体を同時に表示するようにしてもよいが、後で表示する文字列の先頭側から順次表示するアニメーションを行うようにしてもよい。
Here, FIG. 7 is an explanatory view showing a display process in the case where a trajectory image is generated before a character string indicating a speech recognition result is generated.
FIG. 8 is an explanatory diagram showing display processing when a character string indicating a speech recognition result is generated before a trajectory image is generated.
When the trajectory image is output from the trajectory image generation unit 4 before the character recognition unit 8 of the character string acquisition unit 5 outputs the character string (in the case of YES in FIG. 5: step ST11), the display control unit 9 As shown in FIG. 7A, the locus image is displayed on the display 29 (step ST12).
Here, the display of the trajectory image may be such that the entire trajectory image may be simultaneously displayed, or an animation may be performed in which the display is sequentially performed from the top side of the character string to be displayed later.

表示制御部9は、文字列取得部5の音声認識部8から文字列が出力されるまで待機し(ステップST13:NOの場合)、図7(b)に示すように、ユーザが発話することで、音声認識部8から音声の認識結果を示す文字列が出力されると(ステップST13:YESの場合)、図7(c)に示すように、その文字列を軌跡画像の上に重ねて表示する(ステップST14)。軌跡画像の上に表示する文字列における文字の大きさは、文字管理部3から出力された文字属性情報が示す文字高及び文字幅に対応している。
ここで、文字列の表示は、文字列を構成している全ての文字を同時に表示するようにしてもよいが、文字列の先頭の文字から順番に後尾の文字まで表示するアニメーション表示の形態であってもよい。
The display control unit 9 waits until a character string is output from the speech recognition unit 8 of the character string acquisition unit 5 (step ST13: NO), and the user speaks as shown in FIG. 7 (b). Then, when a character string indicating a speech recognition result is output from the speech recognition unit 8 (step ST13: YES), the character string is superimposed on the trajectory image as shown in FIG. 7 (c). It displays (step ST14). The size of the character in the character string displayed on the trajectory image corresponds to the character height and character width indicated by the character attribute information output from the character management unit 3.
Here, the display of the character string may be made to simultaneously display all the characters constituting the character string, but in the form of an animation display in which the first character of the character string to the last character are displayed in order It may be.

表示制御部9は、図8(a)に示すように、ユーザがなぞり書きの操作を行う前に発話することで、軌跡画像生成部4から軌跡画像が出力される前に、文字列取得部5の音声認識部8から文字列が出力されると(図5のステップST11:NOの場合)、その文字列を文字列一時保存部10に格納して、軌跡画像生成部4から軌跡画像が出力されるまで待機する(ステップST15:NOの場合)。
表示制御部9は、その後、ユーザがなぞり書きの操作を行うことで、軌跡画像生成部4から軌跡画像が出力されると(ステップST15:YESの場合)、文字列一時保存部10から文字列を読み出し、図8(b)に示すように、その軌跡画像をディスプレイ29に表示するとともに、その文字列を軌跡画像の上に重ねて表示する。即ち、表示制御部9は、軌跡画像と文字列を同じ位置に重ねて表示する(ステップST16)。ただし、軌跡画像及び文字列の表示は、全体を同時に表示するようにしてもよいが、文字列の先頭側から順次表示するアニメーション表示の形態であってもよい。
As shown in FIG. 8A, the display control unit 9 speaks before the user performs a stroke operation, and before the trajectory image is output from the trajectory image generation unit 4, the display control unit 9 generates a character string acquisition unit. When a character string is output from the voice recognition unit 8 of 5 (step ST11 in FIG. 5: NO), the character string is stored in the character string temporary storage unit 10, and the trajectory image from the trajectory image generation unit 4 is It waits until it outputs (step ST15: in the case of NO).
Thereafter, when the trace image is output from the trace image generation unit 4 by the user performing the tracing operation, the display control unit 9 outputs a character string from the character string temporary storage unit 10 (step ST15: YES). Is displayed on the display 29 as shown in FIG. 8B, and the character string is displayed superimposed on the locus image. That is, the display control unit 9 superimposes and displays the locus image and the character string at the same position (step ST16). However, although the display of the locus image and the character string may be made to display the whole simultaneously, it may be in the form of animation display in which the characters are displayed sequentially from the top side of the character string.

表示制御部9は、文字列を軌跡画像の上に重ねて表示すると、図7(d)(e)及び図8(c)(d)に示すように、軌跡画像を消して、文字列のみを表示している状態にする(ステップST17)。
軌跡画像の消去は、軌跡画像の全体を同時に消去するようにしてもいが、文字列の先頭側から順次に消去するアニメーションを行うようにしてもよい。
ここでは、軌跡画像と文字列を重ねて表示してから、一定時間後に、軌跡画像を消去するものを想定しているが、文字列の表示が完了すると、直ちに、軌跡画像を消去するものであってもよい。
When the display control unit 9 superimposes and displays the character string on the trajectory image, as shown in FIGS. 7 (d) and (e) and FIGS. 8 (c) and 8 (d), it erases the trajectory image and Are displayed (step ST17).
The deletion of the locus image may be performed so as to simultaneously delete the entire locus image, but an animation may be performed in which the deletion is sequentially performed from the top of the character string.
Here, it is assumed that the trajectory image and the character string are superimposed and displayed and then the trajectory image is erased after a predetermined time, but when the display of the character string is completed, the trajectory image is erased immediately. It may be.

以上で明らかなように、この実施の形態1によれば、なぞり書きの操作を受け付ける操作受付部1と、操作受付部1により受け付けられたなぞり書きの操作から、なぞり書きにより描かれる線の軌跡を判別して、その軌跡を示す軌跡画像を生成する軌跡画像生成部4と、音声の認識結果を示す文字列を取得する文字列取得部5とを設け、表示制御部9が、軌跡画像生成部4により生成された軌跡画像をディスプレイ29に表示するとともに、文字列取得部5により取得された文字列を軌跡画像の上に重ねて表示するように構成したので、ユーザの自由なレイアウトで、音声の認識結果を示す文字列を表示することができる効果を奏する。   As apparent from the above, according to the first embodiment, from the operation reception unit 1 for receiving the tracing operation and the tracing operation accepted by the operation reception unit 1, the locus of the line drawn by the tracing. And a character string acquisition unit 5 for acquiring a character string indicating a speech recognition result, and the display control unit 9 generates a trajectory image. Since the locus image generated by the unit 4 is displayed on the display 29, and the character string acquired by the character string acquisition unit 5 is displayed superimposed on the locus image, the user's free layout is obtained. An effect of displaying a character string indicating a speech recognition result is achieved.

また、この実施の形態1によれば、表示制御部9が、文字列取得部5の音声認識部8から文字列が出力される前に、軌跡画像生成部4により軌跡画像が生成された場合、その軌跡画像をディスプレイ29に表示した後、文字列取得部5の音声認識部8から出力された文字列を軌跡画像の上に重ねて表示する一方、軌跡画像生成部4により軌跡画像が生成される前に、文字列取得部5の音声認識部8から文字列が出力された場合、軌跡画像生成部4により軌跡画像が生成されるまで待機し、軌跡画像生成部4により軌跡画像が生成されると、その軌跡画像をディスプレイ29に表示するとともに、その文字列を軌跡画像の上に重ねて表示するように構成したので、ユーザが発話する前になぞり書きの操作を行った場合、音声の認識結果を示す文字列が表示される位置を事前に把握することができる。したがって、ユーザが文字列の表示イメージをつかむことができる効果を奏する。また、ユーザがなぞり書きの操作を行う前に発話した場合、なぞり書きの操作が行われると、直ちに軌跡画像と文字列が同じ位置に重ねて表示されるため、応答性が高い操作感をユーザに与えることができる効果を奏する。   Further, according to the first embodiment, when the display control unit 9 generates the trajectory image by the trajectory image generation unit 4 before the display control unit 9 outputs the character string from the voice recognition unit 8 of the character string acquisition unit 5. After displaying the locus image on the display 29, the character string output from the voice recognition unit 8 of the character string acquisition unit 5 is superimposed on the locus image and displayed, while the locus image generation unit 4 generates a locus image If a character string is output from the speech recognition unit 8 of the character string acquisition unit 5 before it is set, the process waits until the locus image generation unit 4 generates a locus image, and the locus image generation unit 4 generates a locus image Then, the locus image is displayed on the display 29 and the character string is displayed superimposed on the locus image. Therefore, when the user performs a tracing operation before speaking, the voice is voiced. Sentence that shows recognition result of It is possible to grasp the position at which the columns are displayed in advance. Therefore, the user can hold the display image of the character string. In addition, if the user speaks before performing the drag operation, if the drag operation is performed, the trajectory image and the character string are immediately displayed overlapping at the same position, so that the user has a highly responsive operation feeling. An effect that can be given to

実施の形態2.
上記実施の形態1では、軌跡画像の線幅が事前に設定されている文字サイズの文字高に対応する線幅に設定されるものを示したが、ユーザによるなぞり書きの操作の状態に応じて軌跡画像の線幅が設定されるようにしてもよい。
Second Embodiment
Although the line width of the locus image is set to the line width corresponding to the character height of the character size set in advance in the first embodiment, it has been described according to the state of the drag operation by the user. The line width of the trajectory image may be set.

図9はこの発明の実施の形態2による入力表示装置を示す構成図であり、図10はこの発明の実施の形態2による入力表示装置のハードウェア構成図である。
図9及び図10において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
操作状態検知部11は例えばCPUを実装している半導体集積回路やワンチップマイコンなどで構成されている操作状態検知処理回路31で実現されるものであり、操作受付部1により受け付けられた操作の状態を検知する処理を実施する。
即ち、操作状態検知部11は、操作受付部1により受け付けられた操作の状態として、例えば、ポインティングデバイス21であるタッチパネルに対するユーザの指や入力ペンの圧力(筆圧)を感知する。
9 is a block diagram showing an input display apparatus according to Embodiment 2 of the present invention, and FIG. 10 is a hardware block diagram of the input display apparatus according to Embodiment 2 of the present invention.
9 and 10, the same reference numerals as those in FIGS. 1 and 2 denote the same or corresponding parts, and therefore the description thereof will be omitted.
The operation state detection unit 11 is realized by, for example, an operation state detection processing circuit 31 configured by a semiconductor integrated circuit or a one-chip microcomputer on which a CPU is mounted. Implement processing to detect the state.
That is, the operation state detection unit 11 senses, for example, the pressure (writing pressure) of the user's finger or the input pen on the touch panel as the pointing device 21 as the state of the operation received by the operation reception unit 1.

軌跡画像生成部12は例えばGPUを実装している半導体集積回路やワンチップマイコンなどで構成されている画像生成処理回路32で実現されるものである。軌跡画像生成部12は、図1の軌跡画像生成部4と同様に、操作受付部1により受け付けられたなぞり書きの操作から、なぞり書きにより描かれる線の軌跡を判別して、その軌跡を示す軌跡画像を生成する処理を実施する。その際、図1の軌跡画像生成部4と異なり、操作状態検知部11により検知された操作の状態に対応する線幅の軌跡画像を生成する。   The locus image generation unit 12 is realized by, for example, an image generation processing circuit 32 configured by a semiconductor integrated circuit on which a GPU is mounted, a one-chip microcomputer, or the like. Similar to the trajectory image generation unit 4 of FIG. 1, the trajectory image generation unit 12 determines the trajectory of the line drawn by the tracing operation from the drag operation received by the operation reception unit 1 and indicates the locus thereof. A process of generating a trajectory image is performed. At this time, unlike the trajectory image generation unit 4 of FIG. 1, a trajectory image of a line width corresponding to the state of the operation detected by the operation state detection unit 11 is generated.

表示制御部13は例えばGPUを実装している半導体集積回路やワンチップマイコンなどで構成されている表示処理回路33で実現されるものであり、図1の表示制御部9と同様の表示処理を実施する。
また、表示制御部13は軌跡画像生成部12により設定された線幅に応じて、文字列取得部5により取得された文字列を構成する文字の文字サイズを変更し、変更後の文字サイズで文字列を軌跡画像の上に重ねて表示する処理を実施する。
The display control unit 13 is realized by, for example, a display processing circuit 33 configured by a semiconductor integrated circuit or a one-chip microcomputer on which a GPU is mounted, and the display processing similar to that of the display control unit 9 in FIG. carry out.
Further, the display control unit 13 changes the character size of the characters constituting the character string acquired by the character string acquisition unit 5 according to the line width set by the locus image generation unit 12, and changes the character size after the change. The character string is superimposed on the trajectory image and displayed.

図9では、入力表示装置の構成要素である操作受付部1、文字管理DB2、文字管理部3、操作状態検知部11、軌跡画像生成部12、文字列取得部5、表示制御部13及び文字列一時保存部10のそれぞれが専用のハードウェアで構成されているものを想定しているが、入力表示装置がコンピュータで構成されているものであってもよい。
入力表示装置がコンピュータで構成される場合、文字管理DB2、音声認識辞書DB7及び文字列一時保存部10を図3に示すコンピュータのメモリ41上に構成するとともに、操作受付部1、文字管理部3、操作状態検知部11、軌跡画像生成部12、音声検出部6、音声認識部8及び表示制御部13の処理内容を記述しているプログラムをメモリ41に格納し、プロセッサ42がメモリ41に格納されているプログラムを実行するようにすればよい。
図11及び図5はこの発明の実施の形態2による入力表示装置の処理内容である入力表示方法を示すフローチャートである。
図11において、図4と同一のステップ番号は同一または相当部分を示すものである。
In FIG. 9, the operation reception unit 1, the character management DB 2, the character management unit 3, the operation state detection unit 11, the trajectory image generation unit 12, the character string acquisition unit 5, the display control unit 13 and the characters which are components of the input display device Although it is assumed that each of the column temporary storage units 10 is configured by dedicated hardware, the input display device may be configured by a computer.
When the input display device is configured by a computer, the character management DB 2, the speech recognition dictionary DB 7, and the character string temporary storage unit 10 are configured on the memory 41 of the computer shown in FIG. , A program describing the processing contents of the operation state detection unit 11, the trajectory image generation unit 12, the speech detection unit 6, the speech recognition unit 8 and the display control unit 13 is stored in the memory 41, and the processor 42 is stored in the memory 41 You just have to run the program that
11 and 5 are flowcharts showing an input display method which is processing contents of the input display device according to the second embodiment of the present invention.
In FIG. 11, the same step numbers as in FIG. 4 indicate the same or corresponding parts.

次に動作について説明する。
この実施の形態2では、ポインティングデバイス21であるタッチパネルに筆圧を感知する筆圧感知センサが搭載されているものとする。
操作状態検知部11は、ポインティングデバイス21に搭載されている筆圧感知センサから筆圧の感知結果を取得することで、操作受付部1により受け付けられた操作の状態として、ポインティングデバイス21であるタッチパネルに対するユーザの筆圧を検知する(図11のステップST21)。
Next, the operation will be described.
In the second embodiment, it is assumed that a touch pressure sensor for sensing writing pressure is mounted on a touch panel which is the pointing device 21.
The operation state detection unit 11 acquires the detection result of the writing pressure from the writing pressure detection sensor mounted on the pointing device 21, thereby setting the touch panel as the pointing device 21 as the state of the operation received by the operation receiving unit 1. The writing pressure of the user with respect to is detected (step ST21 in FIG. 11).

軌跡画像生成部12は、操作状態検知部11が操作受付部1により受け付けられた操作の状態として、ユーザの筆圧を検知すると、ユーザの筆圧と文字管理部3から出力された文字属性情報が示す文字高とから、生成する軌跡画像の線幅を設定する(ステップST22)。
例えば、文字属性情報が示す文字高を軌跡画像の基準の線幅に設定し、ユーザの筆圧が事前に設定されている基準値以上であれば、その筆圧が基準値より大きい程、大きなオフセット値を設定し、基準の線幅とオフセット値を加算した値を最終的な軌跡画像の線幅に決定する。
最終的な軌跡画像の線幅=基準の線幅+オフセット値
一方、ユーザの筆圧が事前に設定されている基準値より小さければ、その筆圧が基準値より小さい程、大きなオフセット値を設定し、基準の線幅からオフセット値を減算した値を最終的な軌跡画像の線幅に決定する。
最終的な軌跡画像の線幅=基準の線幅−オフセット値
When the operation state detecting unit 11 detects the writing pressure of the user as the state of the operation received by the operation receiving unit 1, the locus image generating unit 12 detects the writing pressure of the user and the character attribute information output from the character managing unit 3. The line width of the trajectory image to be generated is set from the character height indicated by (step ST22).
For example, if the character height indicated by the character attribute information is set to the line width of the reference of the locus image and the writing pressure of the user is equal to or more than the reference value set in advance, the larger the writing pressure is, the larger An offset value is set, and a value obtained by adding the reference line width and the offset value is determined as the line width of the final trajectory image.
Final track image line width = reference line width + offset value On the other hand, if the user's writing pressure is smaller than the preset reference value, the larger the writing pressure is, the larger the offset value is set The value obtained by subtracting the offset value from the reference line width is determined as the line width of the final trajectory image.
Final track image line width = reference line width-offset value

表示制御部13は、図1の表示制御部9と同様に、図5のフローチャートにしたがって軌跡画像と文字列をディスプレイ29に表示する。
ただし、この実施の形態2では、軌跡画像の線幅をユーザの筆圧に応じて設定しているので、軌跡画像生成部12が最終的な軌跡画像の線幅を基準の線幅より太くしている場合には、最終的な軌跡画像の線幅に応じて、文字列を構成する文字の文字サイズを大きくして、文字列を軌跡画像の上に表示する。
例えば、基準の線幅(=文字属性情報が示す文字高)が“5mm”であるとき、最終的な軌跡画像の線幅を“10mm”に設定していれば、文字列を構成する文字の文字高を“10mm”に変更して、文字列を軌跡画像の上に表示する。ここでは、文字高と軌跡画像の線幅が一致する例を示しているが、文字の上部及び下部に余白を設ける場合、例えば、上部及び下部の余白が共に“1mm”であるとすれば、文字列を構成する文字の文字高を“8mm”に変更して、文字列を軌跡画像の上に表示する。
The display control unit 13 displays a locus image and a character string on the display 29 according to the flowchart of FIG. 5 as in the display control unit 9 of FIG.
However, in the second embodiment, since the line width of the trajectory image is set according to the writing pressure of the user, the trajectory image generation unit 12 makes the line width of the final trajectory image thicker than the reference line width. In this case, the character size of the characters forming the character string is increased according to the line width of the final trajectory image, and the character string is displayed on the trajectory image.
For example, if the line width of the final trajectory image is set to "10 mm" when the reference line width (= the character height indicated by the character attribute information) is "5 mm" Change the character height to "10 mm" and display the character string on the trajectory image. Here, an example is shown in which the character height and the line width of the locus image match, but when providing margins at the upper and lower portions of the character, for example, assuming that both the upper and lower margins are "1 mm", The character height of the characters constituting the character string is changed to "8 mm", and the character string is displayed on the trajectory image.

また、表示制御部13は、軌跡画像生成部12が最終的な軌跡画像の線幅を基準の線幅より細くしている場合には、最終的な軌跡画像の線幅に応じて、文字列を構成する文字の文字サイズを小さくして、文字列を軌跡画像の上に表示する。
例えば、基準の線幅(=文字属性情報が示す文字高)が“5mm”であるとき、最終的な軌跡画像の線幅を“3mm”に設定していれば、文字列を構成する文字の文字高を“3mm”に変更して、文字列を軌跡画像の上に表示する。ここでは、文字高と軌跡画像の線幅が一致する例を示しているが、文字の上部及び下部に余白を設ける場合、例えば、上部及び下部の余白が共に“0.5mm”であるとすれば、文字列を構成する文字の文字高を“2mm”に変更して、文字列を軌跡画像の上に表示する。
In addition, when the trajectory image generation unit 12 makes the line width of the final trajectory image thinner than the reference line width, the display control unit 13 determines the character string according to the line width of the final trajectory image. Reduce the character size of the characters that make up and display the character string on the trajectory image.
For example, when the standard line width (= the character height indicated by the character attribute information) is "5 mm", if the line width of the final trajectory image is set to "3 mm", Change the character height to "3 mm" and display the character string on the trajectory image. Here, an example is shown in which the character height and the line width of the locus image match, but when providing margins at the top and bottom of the character, for example, it is assumed that both the top and bottom margins are “0.5 mm”. For example, the character height of the characters constituting the character string is changed to "2 mm", and the character string is displayed on the trajectory image.

図12はユーザの筆圧に応じて線幅が設定された軌跡画像を示す説明図である。
図12(a)は、ユーザの筆圧が基準値以上であるために、太い線幅が設定された軌跡画像を示しており、図12(b)は、ユーザの筆圧が基準値未満であるために、細い線幅が設定された軌跡画像を示している。
FIG. 12 is an explanatory view showing a locus image in which the line width is set in accordance with the writing pressure of the user.
FIG. 12A shows a locus image in which a thick line width is set because the writing pressure of the user is equal to or greater than the reference value, and FIG. 12B shows that the writing pressure of the user is less than the reference value. For the purpose of illustration, a trace image in which a thin line width is set is shown.

この実施の形態2では、操作状態検知部11が、操作受付部1により受け付けられた操作の状態として、ポインティングデバイス21であるタッチパネルに対するユーザの筆圧を検知する例を示したが、これは一例に過ぎず、例えば、操作受付部1により受け付けられた操作の状態として、ユーザが、ポインティングデバイス21であるタッチパネルをなぞる速度を検知するようにしてもよい。
タッチパネルをなぞる速度については、操作状態検知部11が、操作受付部1により受け付けられたなぞり書きの操作内容から、タッチパネルに対する接触位置の連続的な変化を特定すれば、タッチパネルに対する接触位置の単位時間当りの変化から求めることができる。
In the second embodiment, an example is shown in which the operation state detection unit 11 detects the writing pressure of the user on the touch panel, which is the pointing device 21, as the state of the operation received by the operation reception unit 1; For example, as the state of the operation received by the operation receiving unit 1, the user may detect the speed at which the touch panel as the pointing device 21 is scanned.
As for the speed at which the touch panel is scanned, if the operation state detection unit 11 identifies a continuous change in the touch position on the touch panel from the operation content of the trace writing received by the operation reception unit 1, the unit time of the touch position on the touch panel It can be determined from the change of the hit.

軌跡画像生成部12は、操作状態検知部11が操作受付部1により受け付けられた操作の状態として、タッチパネルをなぞる速度を検知すると、なぞる速度と文字管理部3から出力された文字属性情報が示す文字高とから、生成する軌跡画像の線幅を設定する。
例えば、文字属性情報が示す文字高を軌跡画像の基準の線幅に設定し、なぞる速度が事前に設定されている基準値以上であれば、なぞる速度が基準値より速い程、大きなオフセット値を設定し、基準の線幅とオフセット値を加算した値を最終的な軌跡画像の線幅に決定する。
最終的な軌跡画像の線幅=基準の線幅+オフセット値
一方、なぞる速度が事前に設定されている基準値より遅ければ、なぞる速度が基準値より遅い程、大きなオフセット値を設定し、基準の線幅からオフセット値を減算した値を最終的な軌跡画像の線幅に決定する。
最終的な軌跡画像の線幅=基準の線幅−オフセット値
When the operation state detection unit 11 detects the speed of tracing the touch panel as the state of the operation accepted by the operation acceptance unit 1, the locus image generation unit 12 indicates the tracing speed and the character attribute information output from the character management unit 3. The line width of the generated trajectory image is set from the character height.
For example, if the character height indicated by the character attribute information is set to the line width of the reference of the locus image, and the tracing speed is equal to or more than the preset reference value, the larger the tracing speed is, the larger the offset value. Set and add the standard line width and offset value to determine the final line width of the trajectory image.
Final track image line width = reference line width + offset value On the other hand, if the tracing speed is slower than the preset reference value, the larger the tracing speed is than the reference value, the larger the offset value is set, and the reference The line width of the final trajectory image is determined by subtracting the offset value from the line width of.
Final track image line width = reference line width-offset value

図13はなぞる速度に応じて線幅が設定された軌跡画像を示す説明図である。
図13(a)は、なぞる速度が基準値以上であるために、太い線幅が設定された軌跡画像を示しており、図13(b)は、なぞる速度が基準値未満であるために、細い線幅が設定された軌跡画像を示している。
FIG. 13 is an explanatory view showing a trajectory image in which the line width is set in accordance with the tracing speed.
FIG. 13A shows a trajectory image in which a thick line width is set because the tracing speed is equal to or higher than the reference value, and FIG. 13B shows that the tracing speed is less than the reference value. It shows a trajectory image in which a thin line width is set.

この実施の形態2では、ユーザの筆圧やなぞる速度が均一である例を示したが、ユーザの筆圧やなぞる速度が途中で変化する場合には、軌跡画像生成部12が、線幅が途中で変化する軌跡画像を生成するようにしてもよい。
図14は途中で変化するユーザの筆圧やなぞる速度に応じて線幅が設定された軌跡画像を示す説明図である。
図14(a)は、なぞる速度が徐々に速くなっている場合や、ユーザの筆圧が徐々に強くなっている場合の軌跡画像を示しており、軌跡画像の線幅が徐々に太くなっている。
図14(b)は、なぞる速度やユーザの筆圧が不規則に変化している場合の軌跡画像を示しており、軌跡画像の線幅が太くなったり、細くなったりしている。
In the second embodiment, an example is shown in which the writing pressure and the tracing speed of the user are uniform, but when the writing pressure and the tracing speed of the user change in the middle, the trace image generation unit 12 detects the line width. A trajectory image that changes in the middle may be generated.
FIG. 14 is an explanatory view showing a locus image in which the line width is set in accordance with the writing pressure and tracing speed of the user changing in the middle.
FIG. 14A shows a locus image when the tracing speed is gradually increased or when the user's writing pressure is gradually increased, and the line width of the locus image is gradually increased. There is.
FIG. 14B shows a trajectory image when the tracing speed and the writing pressure of the user are irregularly changing, and the line width of the trajectory image is thick or thin.

以上で明らかなように、この実施の形態2によれば、操作受付部1により受け付けられた操作の状態を検知する操作状態検知部11を備え、軌跡画像生成部12が、操作状態検知部11により検知された操作の状態に対応する線幅の軌跡画像を生成するように構成したので、文字列の表示形態の多様化を図ることができる効果を奏する。   As apparent from the above, according to the second embodiment, the operation state detection unit 11 for detecting the state of the operation received by the operation reception unit 1 is provided, and the trajectory image generation unit 12 includes the operation state detection unit 11. Since the locus image of the line width corresponding to the state of the operation detected by is generated, the effect of diversifying the display form of the character string can be achieved.

この実施の形態2では、軌跡画像生成部12が、操作状態検知部11が操作受付部1により受け付けられた操作の状態(例えば、ユーザの筆圧)と、文字管理部3から出力された文字属性情報が示す文字高とから、生成する軌跡画像の線幅を設定するものを示したが、文字管理部3から出力される文字属性情報が示す文字高を使用せずに、操作受付部1により受け付けられた操作の状態のみから、生成する軌跡画像の線幅を設定するようにしてもよい。
例えば、ユーザの筆圧(または、なぞる速度)と、軌跡画像の線幅との対応関係を格納しているテーブルを用意し、軌跡画像生成部12が、そのテーブルからユーザの筆圧(または、なぞる速度)に対応する線幅を読み出し、その線幅を軌跡画像の線幅に設定する態様が考えられる。
In the second embodiment, the locus image generation unit 12 receives the state of the operation (for example, the writing pressure of the user) received by the operation reception unit 1 by the operation state detection unit 11 and the characters output from the character management unit 3. Although the line width of the trajectory image to be generated is set based on the character height indicated by the attribute information, the operation accepting unit 1 is used without using the character height indicated by the character attribute information output from the character management unit 3 The line width of the trajectory image to be generated may be set only from the state of the operation accepted by the.
For example, a table storing the correspondence between the user's writing pressure (or tracing speed) and the line width of the locus image is prepared, and the locus image generating unit 12 determines the writing pressure of the user from the table (or It is conceivable to read the line width corresponding to the tracing speed) and set the line width to the line width of the locus image.

この実施の形態2では、操作受付部1により受け付けられた操作の状態に対応する線幅の軌跡画像を生成するものを示したが、操作受付部1により受け付けられた操作の状態に応じて、ディスプレイ29に表示する文字の濃淡を変えるようにしてもよい。例えば、ユーザの筆圧が強い程、あるいは、なぞる速度が速い程、文字の濃淡を濃くする態様が考えられる。また、操作受付部1により受け付けられた操作の状態に応じて、ディスプレイ29に表示する文字の太さを変えるようにしてもよい。例えば、ユーザの筆圧が強い程、あるいは、なぞる速度が速い程、文字の太さを太くする態様が考えられる。
また、軌跡画像生成部12により生成された軌跡画像の線幅に応じて、その軌跡画像に重ねて表示する文字の文字高を変えるものを示したが、軌跡画像の線幅に応じて、文字列を構成する文字の文字種を変えるようにしてもよい。
例えば、軌跡画像の線幅が徐々に太くなる場合、文字種を文字種A→文字種B→文字種Cのように変える態様が考えられる。
In the second embodiment, an example of generating a trajectory image of a line width corresponding to the state of the operation accepted by the operation accepting unit 1 has been described, but according to the state of the operation accepted by the operation accepting unit 1 The shading of the characters displayed on the display 29 may be changed. For example, as the writing pressure of the user is stronger or the tracing speed is faster, it is conceivable to make the shading of the characters darker. Further, the thickness of the characters displayed on the display 29 may be changed according to the state of the operation accepted by the operation accepting unit 1. For example, as the writing pressure of the user increases or the tracing speed increases, it is conceivable to make the thickness of the characters thicker.
In addition, according to the line width of the locus image generated by the locus image generation unit 12, the character height of the character displayed superimposed on the locus image is changed, but according to the line width of the locus image You may change the character type of the character which comprises a row | line.
For example, when the line width of the trajectory image is gradually thickened, it is conceivable to change the character type as character type A → character type B → character type C.

実施の形態3.
上記実施の形態1,2では、表示制御部9,13が、軌跡画像生成部4,12により生成された軌跡画像をディスプレイ29に表示するものを示したが、音声の言語の判別結果を取得し、その判別結果が示す言語に対応する色で、軌跡画像を表示するようにしてもよい。
Third Embodiment
Although the display control units 9 and 13 display the trajectory image generated by the trajectory image generating units 4 and 12 on the display 29 in the first and second embodiments, the determination result of the language of the voice is acquired. The trajectory image may be displayed in a color corresponding to the language indicated by the determination result.

図15はこの発明の実施の形態3による入力表示装置を示す構成図であり、図16はこの発明の実施の形態3による入力表示装置のハードウェア構成図である。
図15及び図16において、図9及び図10と同一符号は同一または相当部分を示すので説明を省略する。
文字列取得部5の言語判別部14は例えばCPUを実装している半導体集積回路やワンチップマイコンなどで構成されている言語判別処理回路34で実現されるものであり、音声検出部6により検出された音声の言語判別処理を実施し、その言語の判別結果を表示制御部15に出力する。
FIG. 15 is a block diagram showing an input display according to Embodiment 3 of the present invention, and FIG. 16 is a hardware block diagram of the input display according to Embodiment 3 of the present invention.
In FIG. 15 and FIG. 16, the same reference numerals as in FIG. 9 and FIG.
The language determination unit 14 of the character string acquisition unit 5 is realized by, for example, the language determination processing circuit 34 configured of a semiconductor integrated circuit or a one-chip microcomputer on which a CPU is mounted. The language discrimination processing of the voiced speech is performed, and the discrimination result of the language is output to the display control unit 15.

この実施の形態3では、文字列取得部5が言語判別部14を実装している例を示しているが、言語判別部14の代わりに、データ送受信部が実装されているものであってもよい。
このデータ送受信部は、例えば、インターネットやLANなどの通信経路を介して、図示せぬ言語判別サーバとデータの送受信を行うことが可能なネットワークカードなどのネットワーク通信機器であり、音声検出部6により検出された音声を示すデータを言語判別サーバに送信する。
言語判別サーバは、音声の言語を判別する言語判別エンジンを搭載しており、データ送受信部から送信された音声を示すデータを受信すると、その音声を認識して、その音声の言語判別結果を当該データ送受信部に送信する。
このデータ送受信部は、言語判別サーバから送信された音声の言語判別結果を表示制御部15に出力する。
In the third embodiment, an example is shown in which the character string acquisition unit 5 has the language determination unit 14 mounted, but even if the data transmission / reception unit is mounted instead of the language determination unit 14 Good.
The data transmission / reception unit is, for example, a network communication device such as a network card capable of transmitting / receiving data to / from a language determination server (not shown) via a communication channel such as the Internet or LAN. Data indicative of the detected speech is sent to the language discrimination server.
The language discrimination server is equipped with a language discrimination engine for discriminating the language of speech, and when data indicating the speech transmitted from the data transmitting / receiving unit is received, the speech is recognized and the speech discrimination result of the speech is said Transmit to the data transceiver.
The data transmission / reception unit outputs, to the display control unit 15, the language determination result of the voice transmitted from the language determination server.

表示制御部15は例えばGPUを実装している半導体集積回路やワンチップマイコンなどで構成されている表示処理回路35で実現されるものであり、図9の表示制御部13と同様の表示処理を実施する。
また、表示制御部15は言語判別部14から出力された判別結果が示す言語に対応する色で、軌跡画像生成部12により生成された軌跡画像をディスプレイ29に表示する処理を実施する。
The display control unit 15 is realized by, for example, a display processing circuit 35 configured of a semiconductor integrated circuit mounted with a GPU, a one-chip microcomputer, or the like, and performs the same display processing as the display control unit 13 of FIG. carry out.
In addition, the display control unit 15 performs processing for displaying the trajectory image generated by the trajectory image generation unit 12 on the display 29 in a color corresponding to the language indicated by the determination result output from the language determination unit 14.

図15では、入力表示装置の構成要素である操作受付部1、文字管理DB2、文字管理部3、操作状態検知部11、軌跡画像生成部12、文字列取得部5、表示制御部15及び文字列一時保存部10のそれぞれが専用のハードウェアで構成されているものを想定しているが、入力表示装置がコンピュータで構成されているものであってもよい。
入力表示装置がコンピュータで構成される場合、文字管理DB2、音声認識辞書DB7及び文字列一時保存部10を図3に示すコンピュータのメモリ41上に構成するとともに、操作受付部1、文字管理部3、操作状態検知部11、軌跡画像生成部12、音声検出部6、音声認識部8、言語判別部14及び表示制御部15の処理内容を記述しているプログラムをメモリ41に格納し、プロセッサ42がメモリ41に格納されているプログラムを実行するようにすればよい。
図17及び図5はこの発明の実施の形態3による入力表示装置の処理内容である入力表示方法を示すフローチャートである。
図17において、図11と同一のステップ番号は同一または相当部分を示すものである。
In FIG. 15, the operation reception unit 1, the character management DB 2, the character management unit 3, the operation state detection unit 11, the trajectory image generation unit 12, the character string acquisition unit 5, the display control unit 15 and the characters which are components of the input display device Although it is assumed that each of the column temporary storage units 10 is configured by dedicated hardware, the input display device may be configured by a computer.
When the input display device is configured by a computer, the character management DB 2, the speech recognition dictionary DB 7, and the character string temporary storage unit 10 are configured on the memory 41 of the computer shown in FIG. , A program describing the processing contents of the operation state detection unit 11, the trajectory image generation unit 12, the speech detection unit 6, the speech recognition unit 8, the language determination unit 14, and the display control unit 15 is stored in the memory 41; May execute a program stored in the memory 41.
FIGS. 17 and 5 are flowcharts showing an input display method which is the processing content of the input display apparatus according to the third embodiment of the present invention.
In FIG. 17, the same step numbers as in FIG. 11 indicate the same or corresponding parts.

次に動作について説明する。
文字列取得部5の言語判別部14は、音声検出部6がユーザの音声を検出すると、その音声の言語判別処理を実施し、その言語の判別結果を表示制御部15に出力する(図17のステップST9)。音声の言語判別処理自体は公知の技術であるため詳細な説明を省略する。
Next, the operation will be described.
When the voice detection unit 6 detects the user's voice, the language determination unit 14 of the character string acquisition unit 5 performs language determination processing of the voice and outputs the determination result of the language to the display control unit 15 (FIG. 17). Step ST9). Since the speech language discrimination processing itself is a known technique, detailed description will be omitted.

表示制御部15は、図9の表示制御部13と同様に、図5のフローチャートにしたがって軌跡画像と文字列をディスプレイ29に表示する。
ただし、表示制御部15は、図9の表示制御部13と異なり、言語判別部14から出力された判別結果が示す言語に対応する色で、軌跡画像生成部12により生成された軌跡画像をディスプレイ29に表示する。
なお、音声検出部6がユーザの音声を検出するまでは、言語判別部14が音声の言語を判別することができないでの、音声検出部6がユーザの音声を検出する前に、軌跡画像生成部12により軌跡画像が生成された場合、音声検出部6がユーザの音声を検出するまでの間、表示制御部15は、軌跡画像の表示を行わない。また、音声検出部6がユーザの音声を検出するまでの間はグレーの色で軌跡を表示し、ユーザの音声を検出して言語の判別結果が出たら言語に対応する色で軌跡画像を表示するようにしてもよい。
The display control unit 15 displays the locus image and the character string on the display 29 in accordance with the flowchart of FIG. 5 in the same manner as the display control unit 13 of FIG.
However, unlike the display control unit 13 of FIG. 9, the display control unit 15 displays the trajectory image generated by the trajectory image generation unit 12 in a color corresponding to the language indicated by the determination result output from the language determination unit 14 Display on 29
In addition, the language determination unit 14 can not determine the language of the voice until the voice detection unit 6 detects the user's voice, and before the voice detection unit 6 detects the user's voice, trajectory image generation is performed. When the trajectory image is generated by the unit 12, the display control unit 15 does not display the trajectory image until the voice detection unit 6 detects the voice of the user. Also, until the voice detection unit 6 detects the voice of the user, the locus is displayed in gray color, and when the voice of the user is detected and the language discrimination result is obtained, the locus image is displayed in the color corresponding to the language You may do it.

図18は音声の言語に対応する軌跡画像の色を示す説明図である。
図18(a)は音声の言語が日本語である場合を示しており、軌跡画像が例えば青色で表示される。
図18(b)は音声の言語が英語である場合を示しており、軌跡画像が例えば赤色で表示される。
ここでは、音声の言語が日本語であれば、青色の軌跡画像を表示し、音声の言語が英語であれば、赤色の軌跡画像を表示する例を示しているが、あくまでも一例に過ぎず、他の色で表示してもよいことは言うまでもない。
FIG. 18 is an explanatory view showing the color of a trajectory image corresponding to the language of speech.
FIG. 18A shows the case where the speech language is Japanese, and the locus image is displayed in blue, for example.
FIG. 18B shows the case where the language of speech is English, and the locus image is displayed in red, for example.
Here, although the example which displays a blue locus | trajectory image if the language of an audio | voice is Japanese and the language of an audio | voice is English, a red locus image is displayed, it is only an example to the last. Needless to say, other colors may be displayed.

以上で明らかなように、この実施の形態3によれば、音声検出部6により検出された音声の言語判別処理を実施して、その言語の判別結果を出力する言語判別部14を備え、表示制御部15が、言語判別部14から出力された判別結果が示す言語に対応する色で、軌跡画像生成部12により生成された軌跡画像をディスプレイ29に表示するように構成したので、どの言語の文字が表示されているかを直感的に把握することができる効果を奏する。   As is apparent from the above, according to the third embodiment, the language determination unit 14 is provided which executes the language determination process of the voice detected by the voice detection unit 6 and outputs the determination result of the language. The control unit 15 is configured to display the trajectory image generated by the trajectory image generation unit 12 on the display 29 in a color corresponding to the language indicated by the determination result output from the language determination unit 14. The effect of being able to intuitively grasp whether the character is displayed is produced.

実施の形態4.
上記実施の形態1〜3では、軌跡画像と文字列が表示された後、軌跡画像が消されることで、最終的には、文字列だけがディスプレイ29に表示されるものを示したが、ユーザの絵書きの操作にしたがって生成された絵の画像がディスプレイ29に表示されるようにしてもよい。
Fourth Embodiment
In the above first to third embodiments, after the locus image and the character string are displayed, the locus image is erased so that only the character string is finally displayed on the display 29. An image of a picture generated in accordance with the operation of drawing a picture may be displayed on the display 29.

図19はこの発明の実施の形態4による入力表示装置を示す構成図であり、図20はこの発明の実施の形態4による入力表示装置のハードウェア構成図である。
図19及び図20において、図15及び図16と同一符号は同一または相当部分を示すので説明を省略する。
操作切換部16は例えばCPUを実装している半導体集積回路やワンチップマイコンなどで構成されている操作切換処理回路36で実現されるものであり、操作受付部1により受け付けられる操作を切り換えるための操作として、例えば、ポインティングデバイス21の長押し操作を検出すると、操作受付部1により受け付けられる操作を切り換える処理を実施する。
即ち、操作切換部16は操作受付部1により受け付けられる操作がなぞり書きの操作であるとき、ポインティングデバイス21の長押し操作を検出すると、操作受付部1により受け付けられる操作を、ディスプレイ29に絵を描画する絵書きの操作に切り換える処理を実施する。一方、操作受付部1により受け付けられる操作が絵書きの操作であるとき、ポインティングデバイス21の長押し操作を検出すると、操作受付部1により受け付けられる操作をなぞり書きの操作に切り換える処理を実施する。
FIG. 19 is a block diagram showing an input display device in accordance with Embodiment 4 of the present invention, and FIG. 20 is a hardware block diagram of the input display device in accordance with Embodiment 4 of the present invention.
19 and 20, the same reference numerals as those in FIGS. 15 and 16 denote the same or corresponding parts, and therefore the description thereof will be omitted.
The operation switching unit 16 is realized by, for example, an operation switching processing circuit 36 configured of a semiconductor integrated circuit mounted with a CPU, a one-chip microcomputer, or the like, and is used to switch an operation accepted by the operation accepting unit 1. As an operation, for example, when a long press operation of the pointing device 21 is detected, a process of switching the operation accepted by the operation accepting unit 1 is performed.
That is, when the operation switching unit 16 detects a long press operation of the pointing device 21 when the operation accepted by the operation accepting unit 1 is a tracing operation, the display 29 displays a picture on the operation accepted by the operation accepting unit 1. A process of switching to the operation of drawing a picture is performed. On the other hand, when the operation accepted by the operation accepting unit 1 is a pictorial writing operation, when a long press operation of the pointing device 21 is detected, processing is performed to switch the operation accepted by the operation accepting unit 1 to a tracing operation.

絵画像生成部17は例えばGPUを実装している半導体集積回路やワンチップマイコンなどで構成されている画像生成処理回路37で実現されるものであり、操作切換部16により切り換えられた操作が、絵書きの操作であれば、操作受付部1により受け付けられた絵書きの操作にしたがって絵の画像を生成する処理を実施する。
表示制御部18は例えばGPUを実装している半導体集積回路やワンチップマイコンなどで構成されている表示処理回路38で実現されるものであり、操作切換部16により切り換えられた操作が、なぞり書きの操作であれば、図15の表示制御部15と同様の表示処理を実施する。
表示制御部18は操作切換部16により切り換えられた操作が、絵書きの操作であれば、絵画像生成部17により生成された絵の画像をディスプレイ29に表示する処理を実施する。
The picture image generation unit 17 is realized by, for example, an image generation processing circuit 37 configured of a semiconductor integrated circuit or a one-chip microcomputer on which a GPU is mounted, and the operation switched by the operation switching unit 16 is If it is a picture writing operation, processing for generating a picture image according to the picture writing operation accepted by the operation accepting unit 1 is performed.
The display control unit 18 is realized by, for example, a display processing circuit 38 configured of a semiconductor integrated circuit or a one-chip microcomputer on which a GPU is mounted, and the operation switched by the operation switching unit 16 is traced. In the case of the operation of (1), the display processing similar to that of the display control unit 15 of FIG.
If the operation switched by the operation switching unit 16 is a picture writing operation, the display control unit 18 performs a process of displaying the picture of the picture generated by the picture image generating unit 17 on the display 29.

図19では、入力表示装置の構成要素である操作受付部1、文字管理DB2、文字管理部3、操作状態検知部11、軌跡画像生成部12、操作切換部16、絵画像生成部17、文字列取得部5、表示制御部18及び文字列一時保存部10のそれぞれが専用のハードウェアで構成されているものを想定しているが、入力表示装置がコンピュータで構成されているものであってもよい。
入力表示装置がコンピュータで構成される場合、文字管理DB2、音声認識辞書DB7及び文字列一時保存部10を図3に示すコンピュータのメモリ41上に構成するとともに、操作受付部1、文字管理部3、操作状態検知部11、軌跡画像生成部12、操作切換部16、絵画像生成部17、音声検出部6、音声認識部8、言語判別部14及び表示制御部18の処理内容を記述しているプログラムをメモリ41に格納し、プロセッサ42がメモリ41に格納されているプログラムを実行するようにすればよい。
図21は操作受付部1により受け付けられる操作が切り換えられた際の処理内容を示すフローチャートである。
In FIG. 19, the operation reception unit 1, the character management DB 2, the character management unit 3, the operation state detection unit 11, the locus image generation unit 12, the operation switching unit 16, the picture image generation unit 17 and the characters which are components of the input display device Although it is assumed that each of the column acquisition unit 5, the display control unit 18, and the character string temporary storage unit 10 is configured of dedicated hardware, the input display device is configured of a computer It is also good.
When the input display device is configured by a computer, the character management DB 2, the speech recognition dictionary DB 7, and the character string temporary storage unit 10 are configured on the memory 41 of the computer shown in FIG. The processing contents of the operation state detection unit 11, the trajectory image generation unit 12, the operation switching unit 16, the pictorial image generation unit 17, the voice detection unit 6, the speech recognition unit 8, the language determination unit 14, and the display control unit 18 are described. A certain program may be stored in the memory 41, and the processor 42 may execute the program stored in the memory 41.
FIG. 21 is a flowchart showing the contents of processing when the operation accepted by the operation accepting unit 1 is switched.

次に動作について説明する。
操作切換部16は、操作受付部1により受け付けられる操作を切り換えるための操作として、長押し操作を検出すると(図21のステップST31:YESの場合)、操作受付部1により受け付けられる操作を切り換える処理を実施する(ステップST32)。
図22は操作受付部1により受け付けられる操作を切り換えるための操作の一例を示す説明図である。
図22では、操作受付部1により受け付けられる操作を切り換えるための操作が、長押し操作である例を示しており、長押し操作は、例えば、ポインティングデバイス21であるタッチパネルの同じ場所を予め設定された時間以上継続して、ユーザの指が触れている操作である。
即ち、操作切換部16は、現時点において、操作受付部1により受け付けられる操作がなぞり書きの操作であるとき、ポインティングデバイス21の長押し操作を検出すると、以降、操作受付部1により受け付けられる操作を絵書きの操作に切り換える指令を操作受付部1に出力する。
一方、現時点において、操作受付部1により受け付けられる操作が絵書きの操作であるとき、ポインティングデバイス21の長押し操作を検出すると、以降、操作受付部1により受け付けられる操作をなぞり書きの操作に切り換える指令を操作受付部1に出力する。
Next, the operation will be described.
When the operation switching unit 16 detects a long press operation as an operation for switching the operation accepted by the operation accepting unit 1 (in the case of YES in step ST31 of FIG. 21), a process for switching the operation accepted by the operation accepting unit 1 Is performed (step ST32).
FIG. 22 is an explanatory view showing an example of the operation for switching the operation accepted by the operation accepting unit 1.
FIG. 22 illustrates an example in which the operation for switching the operation accepted by the operation reception unit 1 is a long press operation, and for example, the same location of the touch panel as the pointing device 21 is preset. It is an operation in which the user's finger is touching continuously for more than one hour.
That is, when the operation switching unit 16 detects the long press operation of the pointing device 21 when the operation accepted by the operation accepting unit 1 at this point in time is a drag-and-write operation, the operation accepted by the operation accepting unit 1 thereafter An instruction to switch to the picture operation is output to the operation reception unit 1.
On the other hand, at the present time, when the operation accepted by the operation accepting unit 1 is a pictorial writing operation, when the long press operation of the pointing device 21 is detected, thereafter, the operation accepted by the operation accepting unit 1 is switched to the tracing operation. The command is output to operation accepting unit 1.

操作受付部1は、操作切換部16の指令にしたがって受け付ける操作を切り換える。
したがって、操作受付部1は、受け付ける操作をなぞり書きの操作に切り換えている状態では(ステップST33:YESの場合)、上記実施の形態1〜3と同様に、なぞり書きの操作を受け付けて、なぞり書きの操作内容を軌跡画像生成部12に出力する(ステップST34)。
また、操作受付部1は、受け付ける操作を絵書きの操作に切り換えている状態では(ステップST33:NOの場合)、絵書きの操作を受け付けて、絵書きの操作内容を絵画像生成部17に出力する(ステップST35)。
The operation reception unit 1 switches the operation to be received according to the command of the operation switching unit 16.
Therefore, in the state where operation accepting unit 1 switches the operation to be accepted to the operation of tracing (step ST33: YES), the operation of tracing is accepted as in the first to third embodiments, and tracing is performed. The content of the writing operation is output to the trajectory image generation unit 12 (step ST34).
Further, in a state where the operation receiving unit 1 switches the operation to be received to the operation of drawing (in the case of NO at step ST33), the operation of drawing is received and the operation content of the drawing is made to the picture image generating unit 17. It outputs (step ST35).

軌跡画像生成部12は、操作受付部1がなぞり書きの操作を受け付けると、上記実施の形態2と同様に、そのなぞり書きの操作内容にしたがって軌跡画像を生成する(ステップST36)。
絵画像生成部17は、操作受付部1が絵書きの操作を受け付けると、その絵書きの操作内容にしたがって絵の画像を生成する(ステップST37)。
図23は絵書きの操作内容にしたがって生成される絵の画像の一例を示す説明図である。
絵書きの操作内容にしたがって絵の画像を生成する処理自体は公知の技術であるため詳細な説明を省略する。なお、絵書きの操作内容には、線を描画する機能のほかに、描画する線の太さや色を変える機能や、線を消去する消しゴムの機能などが含まれていてもよい。
When the operation receiving unit 1 receives the tracing operation, the locus image generating unit 12 generates a locus image according to the contents of the tracing operation as in the second embodiment (step ST36).
When the operation reception unit 1 receives an operation of drawing, the picture image generation unit 17 generates an image of a picture according to the contents of the operation of the drawing (step ST37).
FIG. 23 is an explanatory view showing an example of an image of a picture generated in accordance with the operation content of the picture.
Since the process itself which produces | generates the image of a picture according to the operation content of a picture is a well-known technique, detailed description is abbreviate | omitted. In addition to the function of drawing a line, the operation content of the picture may include a function of changing the thickness or color of the line to be drawn, a function of erasing the line, and the like.

表示制御部18は、軌跡画像生成部12が軌跡画像を生成すると、図15の表示制御部15と同様に、その軌跡画像と文字列取得部5から出力された文字列をディスプレイ29に表示する処理を実施する(ステップST38)。
また、表示制御部18は、絵画像生成部17が絵の画像を生成すると、その絵の画像をディスプレイ29に表示する(ステップST39)。
When the trajectory image generation unit 12 generates a trajectory image, the display control unit 18 displays the trajectory image and the character string output from the character string acquisition unit 5 on the display 29 as in the display control unit 15 of FIG. The process is performed (step ST38).
Further, when the picture image generation unit 17 generates a picture image, the display control unit 18 displays the picture image on the display 29 (step ST39).

以上で明らかなように、この実施の形態4によれば、操作受付部1により受け付けられる操作を切り換える操作切換部16と、操作切換部16により切り換えられた操作が、絵書きの操作であれば、操作受付部1により受け付けられた絵書きの操作にしたがって絵の画像を生成する絵画像生成部17とを備え、表示制御部18が、操作切換部16により切り換えられた操作が、なぞり書きの操作であれば、図15の表示制御部15と同様に、軌跡画像と文字列を重ねて表示する一方、操作切換部16により切り換えられた操作が、絵書きの操作であれば、絵画像生成部17により生成された絵の画像を表示するように構成したので、文字列と一緒に絵の画像をディスプレイ29に表示することができる効果を奏する。   As apparent from the above, according to the fourth embodiment, if the operation switching unit 16 switching the operation accepted by the operation accepting unit 1 and the operation switched by the operation switching unit 16 are the operation of picture writing , And a pictorial image generation unit 17 that generates a pictorial image according to the pictorial operation accepted by the operation acceptance unit 1, and the operation switched by the operation switching unit 16 by the display control unit 18 is traced. If it is an operation, as in the display control unit 15 of FIG. 15, the locus image and the character string are superimposed and displayed, while if the operation switched by the operation switching unit 16 is a pictorial operation, picture image generation Since the picture of the picture generated by the unit 17 is displayed, the picture 29 can be displayed on the display 29 together with the character string.

この実施の形態4では、操作切換部16が、操作受付部1により受け付けられる操作がなぞり書きの操作であるとき、ポインティングデバイス21の長押し操作を検出すると、操作受付部1により受け付けられる操作を絵書きの操作に切り換える一方、操作受付部1により受け付けられる操作が絵書きの操作であるとき、ポインティングデバイス21の長押し操作を検出すると、操作受付部1により受け付けられる操作をなぞり書きの操作に切り換える例を示している。
しかし、操作受付部1により受け付けられる操作の切り換え方法は、これに限るものではなく、下記の示すような切り換え方法を用いてもよい。
例えば、通常時において、操作受付部1により受け付けられる操作は、絵書きの操作に設定されており、ポインティングデバイス21の長押し操作を検出すると、操作切換部16が、操作受付部1により受け付けられる操作をなぞり書きの操作に切り換える指令を操作受付部1に出力して、操作受付部1によりなぞり書きの操作が受け付けられるようにする。
なぞり書きの操作が終わると、操作受付部1により受け付けられる操作が、自動的に絵書きの操作に戻り、その後、ポインティングデバイス21の長押し操作を検出すると、再び、操作切換部16が、操作受付部1により受け付けられる操作をなぞり書きの操作に切り換える指令を操作受付部1に出力して、操作受付部1によりなぞり書きの操作が受け付けられるようにする。
In the fourth embodiment, when the operation switching unit 16 detects a long press operation of the pointing device 21 when the operation accepted by the operation accepting unit 1 is a drag-in operation, the operation accepted by the operation accepting unit 1 is detected. While switching to the picture writing operation, when the operation accepted by the operation accepting unit 1 is a picture writing operation, when the long press operation of the pointing device 21 is detected, the operation accepted by the operation accepting unit 1 is an operation of tracing. An example of switching is shown.
However, the switching method of the operation accepted by the operation accepting unit 1 is not limited to this, and the following switching method may be used.
For example, in normal times, the operation accepted by the operation accepting unit 1 is set to a pictorial operation, and when a long press operation of the pointing device 21 is detected, the operation switching unit 16 is accepted by the operation accepting unit 1 A command to switch the operation to the operation of tracing is output to the operation receiving unit 1 so that the operation of the writing operation can be received by the operation receiving unit 1.
When the tracing operation is finished, the operation accepted by the operation accepting unit 1 automatically returns to the pictorial operation, and thereafter, when the long press operation of the pointing device 21 is detected, the operation switching unit 16 operates again. A command to switch the operation accepted by the accepting unit 1 to the operation of tracing is output to the operation accepting unit 1 so that the operation of tracing can be accepted by the operation accepting unit 1.

この実施の形態4では、操作切換部16が、ポインティングデバイス21の長押し操作を検出すると、操作受付部1により受け付けられる操作を切り換えるものを示したが、現在、操作受付部1により受け付けられる操作が、なぞり書きの操作であるのか、絵書きの操作であるのかを示す情報をディスプレイ29に表示するようにしてもよい。   In the fourth embodiment, when the operation switching unit 16 detects the long press operation of the pointing device 21, it switches the operation accepted by the operation accepting unit 1, but the operation accepted by the operation accepting unit 1 at present However, information may be displayed on the display 29 indicating whether it is a tracing operation or a pictorial operation.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the scope of the invention, the present invention allows free combination of each embodiment, or modification of any component of each embodiment, or omission of any component in each embodiment. .

この発明に係る入力表示装置及び入力表示方法は、音声の認識結果を示す文字列をディスプレイに表示する際、ユーザの自由なレイアウトで表示する必要があるものに適している。   The input display device and the input display method according to the present invention are suitable for the case where it is necessary to display the character string indicating the recognition result of the voice in a free layout of the user when displaying the character string on the display.

1 操作受付部、2 文字管理DB、3 文字管理部、4 軌跡画像生成部、5 文字
列取得部、6 音声検出部、7 音声認識辞書DB、8 音声認識部、9 表示制御部、
10 文字列一時保存部、11 操作状態検知部、12 軌跡画像生成部、13 表示制
御部、14 言語判別部、15 表示制御部、16 操作切換部、17 絵画像生成部、
18 表示制御部、21 ポインティングデバイス、22 メモリ、23 文字管理処理
回路、24 画像生成処理回路、25 マイク、26 メモリ、27 音声認識処理回路
、28 表示処理回路、29 ディスプレイ、30 メモリ、31 操作状態検知処理回
路、32 画像生成処理回路、33 表示処理回路、34 言語判別処理回路、35 表
示処理回路、36 操作切換処理回路、37 画像生成処理回路、38 表示処理回路、
41 メモリ、42 プロセッサ。
DESCRIPTION OF SYMBOLS 1 operation reception part, 2 character management DB, 3 character management part, 4 locus image generation part, 5 character string acquisition part, 6 speech detection part, 7 speech recognition dictionary DB, 8 speech recognition part, 9 display control part,
10 character string temporary storage unit, 11 operation state detection unit, 12 trajectory image generation unit, 13 display control unit, 14 language determination unit, 15 display control unit, 16 operation switching unit, 17 picture image generation unit,
18 display control unit 21 pointing device 22 memory 23 character management processing circuit 24 image generation processing circuit 25 microphone 26 memory 27 voice recognition processing circuit 28 display processing circuit 29 display 30 memory 31 operation state Detection processing circuit, 32 image generation processing circuit, 33 display processing circuit, 34 language discrimination processing circuit, 35 display processing circuit, 36 operation switching processing circuit, 37 image generation processing circuit, 38 display processing circuit,
41 memory, 42 processors.

Claims (11)

なぞり書きの操作を受け付ける操作受付部と、
前記操作受付部により受け付けられた操作の状態を検知する操作状態検知部と、
前記操作受付部により受け付けられたなぞり書きの操作からなぞり書きにより描かれる線の軌跡を判別し、当該判別した軌跡を示す軌跡画像を、前記操作状態検知部により検知された操作の状態に対応する線幅の軌跡画像として生成する軌跡画像生成部と、
音声の認識結果を示す文字列を取得する文字列取得部と、
前記軌跡画像生成部により生成された軌跡画像をディスプレイに表示するとともに、前記文字列取得部により取得された文字列を、前記軌跡画像生成部により設定された軌跡画像の線幅に応じた文字サイズの文字で前記ディスプレイに表示される軌跡画像の上に重ねて表示させる表示制御部と、
を備える入力表示装置。
An operation reception unit that receives a tracing operation;
An operation state detection unit that detects the state of the operation received by the operation reception unit;
The trajectory of a line drawn by tracing is determined from the operation of tracing received by the operation accepting unit, and a locus image indicating the determined locus corresponds to the state of the operation detected by the operation state detecting unit. A trajectory image generation unit that generates a trajectory image of the line width;
A character string acquisition unit that acquires a character string indicating a speech recognition result;
The locus image generated by the locus image generation unit is displayed on a display, and the character string acquired by the character string acquisition unit is a character size according to the line width of the locus image set by the locus image generation unit. A display control unit configured to display the locus image superimposed on the locus image displayed on the display with the characters
An input display device comprising:
前記軌跡画像生成部は、前記操作状態検知部により検知された操作の状態が途中で変化していれば、線幅が途中で変化する軌跡画像を生成することを特徴とする請求項1記載の入力表示装置。   The trajectory image generation unit generates a trajectory image in which the line width changes in the middle if the state of the operation detected by the operation state detection unit changes in the middle. Input display device. 前記操作状態検知部は、前記操作の状態として、ユーザの筆圧を検知することを特徴とする請求項1又は請求項2記載の入力表示装置。   The input display apparatus according to claim 1, wherein the operation state detection unit detects a writing pressure of a user as the state of the operation. 前記軌跡画像生成部は、ユーザの筆圧が基準値未満である場合、生成する軌跡画像の線幅を基準の線幅よりも細い線幅とすることを特徴とする請求項3記載の入力表示装置。   The input display according to claim 3, wherein, when the writing pressure of the user is less than a reference value, the locus image generation unit sets the line width of the locus image to be generated to a line width thinner than the reference line width. apparatus. 前記操作状態検知部は、前記操作の状態として、ユーザがタッチパネルをなぞる速度を検知することを特徴とする請求項1又は請求項2記載の入力表示装置。   The input display apparatus according to claim 1, wherein the operation state detection unit detects a speed at which a user follows a touch panel as the state of the operation. 前記軌跡画像生成部は、なぞる速度が基準値未満である場合、生成する軌跡画像の線幅を基準の線幅よりも細い線幅とすることを特徴とする請求項5記載の入力表示装置。   6. The input display apparatus according to claim 5, wherein, when the tracing speed is less than a reference value, the locus image generation unit sets the line width of the generated locus image to a line width thinner than the reference line width. 前記軌跡画像生成部は、ユーザの筆圧又はユーザがタッチパネルをなぞる速度に応じて前記文字列を構成する文字の濃淡を変化させることを特徴とする請求項1又は請求項2記載の入力表示装置。 The input display apparatus according to claim 1 or 2, wherein the locus image generation unit changes the gradation of the characters forming the character string according to the writing pressure of the user or the speed at which the user traces the touch panel. . 前記軌跡画像生成部は、ユーザの筆圧又はユーザがタッチパネルをなぞる速度に応じて前記文字列を構成する文字の太さを変化させることを特徴とする請求項1又は請求項2記載の入力表示装置。   The input display according to claim 1 or 2, wherein the locus image generation unit changes the thickness of characters forming the character string according to the writing pressure of the user or the speed at which the user traces the touch panel. apparatus. 前記軌跡画像生成部は、ユーザの筆圧又はユーザがタッチパネルをなぞる速度に応じて前記文字列を構成する文字の文字種を変化させることを特徴とする請求項1又は請求項2記載の入力表示装置。   The input display apparatus according to claim 1 or 2, wherein the locus image generation unit changes a character type of characters constituting the character string according to the writing pressure of the user or the speed at which the user traces the touch panel. . 文字高を示す文字属性情報を前記軌跡画像生成部に出力する文字管理部をさらに備え、
前記軌跡画像生成部は、前記操作状態検知部により検知された操作の状態に加えて、前記文字管理部による文字属性情報が示す文字高に対応して、生成する軌跡画像の線幅を設定することを特徴とする請求項1から請求項9のいずれか1項に記載の入力表示装置。
It further comprises a character management unit that outputs character attribute information indicating a character height to the locus image generation unit,
The trajectory image generation unit sets the line width of the trajectory image to be generated corresponding to the character height indicated by the character attribute information by the character management unit in addition to the state of the operation detected by the operation state detection unit. The input display device according to any one of claims 1 to 9, characterized in that:
前記軌跡画像生成部は、ユーザの筆圧又はユーザがタッチパネルをなぞる速度と軌跡画像の線幅との対応関係を格納するテーブルに基づき、前記軌跡画像の線幅を設定することを特徴とする請求項1から請求項9のいずれか1項に記載の入力表示装置。   The locus image generation unit sets the line width of the locus image based on a table storing a correspondence between the writing pressure of the user or the speed at which the user traces the touch panel and the line width of the locus image. The input display device according to any one of claims 1 to 9.
JP2018247063A 2018-12-28 2018-12-28 Input display device Active JP6675472B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018247063A JP6675472B2 (en) 2018-12-28 2018-12-28 Input display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018247063A JP6675472B2 (en) 2018-12-28 2018-12-28 Input display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017207523A Division JP6463442B2 (en) 2017-10-26 2017-10-26 Input display device, input display method, and input display program

Publications (2)

Publication Number Publication Date
JP2019071104A true JP2019071104A (en) 2019-05-09
JP6675472B2 JP6675472B2 (en) 2020-04-01

Family

ID=66441877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018247063A Active JP6675472B2 (en) 2018-12-28 2018-12-28 Input display device

Country Status (1)

Country Link
JP (1) JP6675472B2 (en)

Also Published As

Publication number Publication date
JP6675472B2 (en) 2020-04-01

Similar Documents

Publication Publication Date Title
JP6235763B2 (en) Input display device, input display method, and input display program
KR101892723B1 (en) Managing real-time handwriting recognition
JP6355823B2 (en) Input display control device, input display control method, and input display system
US20210248407A1 (en) Input display control device, input display control method, and input display system
JP6463442B2 (en) Input display device, input display method, and input display program
JP6675472B2 (en) Input display device
JP6727279B2 (en) Display control device, input display system, display control method, and program
JPS5935277A (en) Controlling method by real-time recognition of handwritten character pattern
JP6656477B1 (en) Input display control device, input display control method, and input display system
JP6448838B2 (en) Display control apparatus, display control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200128

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200128

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200204

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200310

R150 Certificate of patent or registration of utility model

Ref document number: 6675472

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250