JP2020071544A - Information display device, electronic pen, display control method, and display control program - Google Patents

Information display device, electronic pen, display control method, and display control program Download PDF

Info

Publication number
JP2020071544A
JP2020071544A JP2018203311A JP2018203311A JP2020071544A JP 2020071544 A JP2020071544 A JP 2020071544A JP 2018203311 A JP2018203311 A JP 2018203311A JP 2018203311 A JP2018203311 A JP 2018203311A JP 2020071544 A JP2020071544 A JP 2020071544A
Authority
JP
Japan
Prior art keywords
voice
display device
input
character
information display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018203311A
Other languages
Japanese (ja)
Other versions
JP7257126B2 (en
Inventor
英俊 八谷
Hidetoshi Hachiya
英俊 八谷
矢島 孝之
Takayuki Yajima
孝之 矢島
征 新谷
Tadashi Shintani
征 新谷
和田 淳
Atsushi Wada
淳 和田
克明 大西
Katsuaki Onishi
克明 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2018203311A priority Critical patent/JP7257126B2/en
Priority to PCT/JP2019/038499 priority patent/WO2020090317A1/en
Priority to US17/288,297 priority patent/US20210382684A1/en
Publication of JP2020071544A publication Critical patent/JP2020071544A/en
Application granted granted Critical
Publication of JP7257126B2 publication Critical patent/JP7257126B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To improve operability in changing a display mode of a locus of handwriting.SOLUTION: A display control method used for an information display device having a touch panel that receives a handwriting input with an indicator comprises: a voice input step of receiving a voice input including a voice command in a handwriting input state; a display step of displaying a locus of the handwriting received by the touch panel; and a control step of controlling a display mode of the locus of the handwriting in the display step according to the voice command the input of which is received in the voice input step. The display mode includes at least one of a color of a character, a size of the character, a thickness of the character, a font of the character, a decoration of the character, a color of a figure, a size of the figure, a line width of the figure, and a shape of the figure.SELECTED DRAWING: Figure 10

Description

本発明は、情報表示装置、電子ペン、表示制御方法、及び表示制御プログラムに関する。   The present invention relates to an information display device, an electronic pen, a display control method, and a display control program.

従来、手書き入力を受け付けるタッチパネルを備える情報表示装置が普及している。このような情報表示装置は、指示体としてのペン又は指による手書き入力をタッチパネルが受け付けて、文字や図形を表す手書きの軌跡を表示する(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, information display devices including a touch panel that receives handwriting input have been widely used. In such an information display device, the touch panel accepts a handwriting input with a pen or a finger as an indicator and displays a handwriting locus representing a character or a graphic (for example, refer to Patent Document 1).

特開2017−152018号公報JP, 2017-152018, A

しかしながら、従来の情報表示装置において手書きの軌跡の表示態様を変更する場合、手書き入力の前又は後において、その手書きの軌跡の表示態様を変更するための入力操作をユーザが指示体により行う必要があり、操作が煩雑であるという問題がある。   However, when changing the display mode of the handwritten trajectory in the conventional information display device, before or after the handwriting input, the user needs to perform the input operation for changing the display mode of the handwritten trajectory by the indicator. However, there is a problem that the operation is complicated.

また、表示態様を変更するための入力操作を受け付けるためのGUI(ウィンドウ、アイコン、ボタン等)を情報表示装置が表示する場合、このようなGUIにより情報表示装置の限られた表示面積の一部が占有され、手書き入力の操作性がさらに悪化しうる。   Further, when the information display device displays a GUI (window, icon, button, etc.) for receiving an input operation for changing the display mode, such a GUI causes a part of the limited display area of the information display device. Is occupied, and the operability of handwriting input may be further deteriorated.

そこで、本発明は、手書きの軌跡の表示態様を変更する際の操作性を向上させた情報表示装置、電子ペン、表示制御方法、及び表示制御プログラムを提供することを目的とする。   Therefore, it is an object of the present invention to provide an information display device, an electronic pen, a display control method, and a display control program that have improved operability when changing the display mode of a handwritten trajectory.

第1の態様に係る情報表示装置は、指示体による手書き入力を受け付けるタッチパネルと、前記タッチパネルが受け付けた手書きの文字又は図形を表示する表示部と、音声コマンドを含む音声入力を受け付ける音声入力部と、手書き入力状態において前記音声入力部が入力を受け付けた音声コマンドに応じて、前記表示部が表示する文字又は図形の表示態様を変更するコントローラとを備える。前記表示態様は、文字の色、文字の大きさ、文字の太さ、文字のフォント、文字の装飾、図形の色、図形の大きさ、図形の線幅、及び図形の形状のうち、少なくとも1つを含む。   An information display device according to a first aspect includes a touch panel that accepts handwriting input by an indicator, a display unit that displays handwritten characters or graphics accepted by the touch panel, and a voice input unit that receives voice input including voice commands. A controller that changes the display mode of the characters or graphics displayed on the display unit in response to a voice command received by the voice input unit in the handwriting input state. The display mode is at least one of character color, character size, character thickness, character font, character decoration, figure color, figure size, figure line width, and figure shape. Including one.

第2の態様に係る電子ペンは、前記指示体として機能する。   The electronic pen according to the second aspect functions as the indicator.

第3の態様に係る表示制御方法は、指示体による手書き入力を受け付けるタッチパネルを有する情報表示装置に用いる方法である。前記表示制御方法は、手書き入力状態において、音声コマンドを含む音声入力を受け付ける音声入力ステップと、前記タッチパネルが受け付けた手書きの文字又は図形を表示する表示ステップと、前記音声入力ステップで入力を受け付けた音声コマンドに応じて、前記表示ステップにおける手書きの文字又は図形の表示態様を変更する変更ステップとを備える。前記表示態様は、文字の色、文字の大きさ、文字の太さ、文字のフォント、文字の装飾、図形の色、図形の大きさ、図形の線幅、及び図形の形状のうち、少なくとも1つを含む。   The display control method according to the third aspect is a method used for an information display device having a touch panel that accepts handwriting input by a pointer. In the handwriting input state, the display control method receives a voice input step of receiving a voice input including a voice command, a display step of displaying a handwritten character or a figure received by the touch panel, and an input of the voice input step. And a changing step of changing the display mode of the handwritten character or graphic in the display step according to the voice command. The display mode is at least one of character color, character size, character thickness, character font, character decoration, figure color, figure size, figure line width, and figure shape. Including one.

第4の態様に係る表示制御プログラムは、指示体による手書き入力を受け付けるタッチパネルを有する情報表示装置に、手書き入力状態において、音声コマンドを含む音声入力を受け付ける音声入力ステップと、前記タッチパネルが受け付けた手書きの文字又は図形を表示する表示ステップと、前記音声入力ステップで入力を受け付けた音声コマンドに応じて、前記表示ステップにおける手書きの文字又は図形の表示態様を変更する変更ステップとを実行させる。前記表示態様は、文字の色、文字の大きさ、文字の太さ、文字のフォント、文字の装飾、図形の色、図形の大きさ、図形の線幅、及び図形の形状のうち、少なくとも1つを含む。   A display control program according to a fourth aspect, in an information display device having a touch panel that accepts handwriting input by an indicator, a voice input step of receiving voice input including a voice command in a handwriting input state, and handwriting accepted by the touch panel. And a change step of changing the display mode of the handwritten character or graphic in the display step according to the voice command received in the voice input step. The display mode is at least one of character color, character size, character thickness, character font, character decoration, figure color, figure size, figure line width, and figure shape. Including one.

本発明の一態様によれば、手書きの軌跡の表示態様を変更する際の操作性を向上させた情報表示装置、電子ペン、表示制御方法、及び表示制御プログラムを提供できる。   According to one aspect of the present invention, it is possible to provide an information display device, an electronic pen, a display control method, and a display control program that have improved operability when changing the display mode of a handwritten trajectory.

一実施形態に係る情報表示装置の外観図である。It is an external view of an information display device according to an embodiment. 一実施形態に係る情報表示装置の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the information display apparatus which concerns on one Embodiment. 一実施形態に係る電子ペンの外観図である。It is an external view of the electronic pen which concerns on one Embodiment. 一実施形態に係る電子ペンの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the electronic pen which concerns on one Embodiment. 一実施形態に係る手書き入力画面の一例を示す図である。It is a figure which shows an example of the handwriting input screen which concerns on one Embodiment. 一実施形態に係る手書きの軌跡の表示態様を段階的に変更する一例を示す図である。It is a figure which shows an example which changes the display mode of the handwritten locus step by step according to one embodiment. 一実施形態に係る手書きの軌跡の表示態様を変更する一例を示す図である。It is a figure which shows an example which changes the display mode of the handwritten locus | trajectory which concerns on one Embodiment. 一実施形態に係る手書きの軌跡の表示態様を変更する他の例を示す図である。It is a figure which shows the other example which changes the display mode of the handwritten locus | trajectory which concerns on one Embodiment. 一実施形態に係る手書き入力状態を示す図である。It is a figure which shows the handwriting input state which concerns on one Embodiment. 一実施形態に係る情報表示装置及び電子ペンの動作フローの一例を示す図である。It is a figure which shows an example of the operation flow of the information display apparatus and electronic pen which concern on one Embodiment. 一実施形態に係る情報表示装置及び電子ペンの動作フローの他の例を示す図である。It is a figure which shows the other example of the operation flow of the information display apparatus and electronic pen which concern on one Embodiment.

図面を参照して実施形態について説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。   Embodiments will be described with reference to the drawings. In the description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

(情報表示装置の構成)
一実施形態に係る情報表示装置は、例えばスマートフォン端末又はタブレット端末のような端末とすることができる。しかしながら、情報表示装置はそのような端末に限定されるものではなく、例えば、パーソナルコンピュータ、電子黒板、又は車載情報表示装置等であってもよい。
(Configuration of information display device)
The information display device according to one embodiment may be a terminal such as a smartphone terminal or a tablet terminal. However, the information display device is not limited to such a terminal, and may be, for example, a personal computer, an electronic blackboard, or an in-vehicle information display device.

図1は、一実施形態に係る情報表示装置100の外観図である。   FIG. 1 is an external view of an information display device 100 according to an embodiment.

図1に示すように、情報表示装置100は、タッチスクリーンディスプレイ110と、マイク120と、スピーカ130と、カメラ140とを有する。   As shown in FIG. 1, the information display device 100 includes a touch screen display 110, a microphone 120, a speaker 130, and a camera 140.

タッチスクリーンディスプレイ110は、その表示面が情報表示装置100の筐体101から露出して設けられる。タッチスクリーンディスプレイ110は、タッチパネル111と、表示部(ディスプレイ)112とを有する。   The display surface of the touch screen display 110 is provided so as to be exposed from the housing 101 of the information display device 100. The touch screen display 110 has a touch panel 111 and a display unit (display) 112.

タッチパネル111は、情報表示装置100への操作入力(タッチ入力)を受け付ける。タッチパネル111は、指示体としてのユーザの指又は電子ペン等のタッチを検出する。タッチを検出する方法としては、例えば抵抗膜方式や静電容量方式があるが、任意の方式でよい。タッチパネル111は、ユーザのタッチ入力を検出して、このタッチ入力で指示される位置の座標(タッチ座標)のデータをコントローラ180に出力する。   The touch panel 111 receives an operation input (touch input) to the information display device 100. The touch panel 111 detects a finger of a user as an indicator or a touch of an electronic pen or the like. As a method of detecting a touch, for example, there are a resistance film method and a capacitance method, but any method may be used. The touch panel 111 detects a touch input by the user and outputs data of coordinates (touch coordinates) of a position designated by the touch input to the controller 180.

表示部112は、映像出力を行う。表示部112は、文字(記号を含む)、画像、図形等のオブジェクトを画面上に表示する。表示部112には、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイが用いられる。   The display unit 112 outputs a video. The display unit 112 displays objects such as characters (including symbols), images and figures on the screen. For the display unit 112, for example, a liquid crystal display or an organic EL (Electro Luminescence) display is used.

一実施形態に係るタッチスクリーンディスプレイ110において、表示部112はタッチパネル111と重なるように設けられており、表示部112の表示領域はタッチパネル111と重複している。しかしながら、表示部112及びタッチパネル111が互いに重なるように設けられることに代えて、表示部112及びタッチパネル111を並べて配置されてもよいし、離して配置されてもよい。   In the touch screen display 110 according to the embodiment, the display unit 112 is provided so as to overlap the touch panel 111, and the display area of the display unit 112 overlaps with the touch panel 111. However, instead of providing the display unit 112 and the touch panel 111 so as to overlap each other, the display unit 112 and the touch panel 111 may be arranged side by side or may be arranged separately.

マイク120は、情報表示装置100への音声入力を受け付ける。マイク120は、周囲の音声を集音する。   The microphone 120 receives a voice input to the information display device 100. The microphone 120 collects ambient sound.

スピーカ130は、音声出力を行う。スピーカ130は、電話の音声や各種プログラムの情報等を音声で出力する。   The speaker 130 outputs a voice. The speaker 130 outputs the voice of the telephone, information of various programs, and the like by voice.

カメラ140は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて電子的に画像を撮像する。カメラ140は、タッチスクリーンディスプレイ110に面している物体を撮影するインカメラである。情報表示装置100は、さらに、タッチスクリーンディスプレイ110の反対側の面に面している物体を撮影するアウトカメラを備えていてもよい。   The camera 140 electronically captures an image using an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 140 is an in-camera that captures an object facing the touch screen display 110. The information display device 100 may further include an out camera that captures an object facing the opposite surface of the touch screen display 110.

図2は、一実施形態に係る情報表示装置100の機能構成を示すブロック図である。   FIG. 2 is a block diagram showing a functional configuration of the information display device 100 according to the embodiment.

図2に示すように、情報表示装置100は、タッチパネル111と、表示部112と、音声入力部121と、音声出力部131と、カメラ140と、センサ150と、記憶部160と、通信インターフェイス170と、コントローラ180とを有する。   As shown in FIG. 2, the information display device 100 includes a touch panel 111, a display unit 112, a voice input unit 121, a voice output unit 131, a camera 140, a sensor 150, a storage unit 160, and a communication interface 170. And a controller 180.

タッチパネル111は、検出された指示体でのタッチ操作に対応する信号をコントローラ180に入力する。また、タッチパネル111は、後述する手書き入力アプリケーションの実行中において、電子ペンによる手書き入力を受け付ける。   The touch panel 111 inputs a signal corresponding to the detected touch operation with the pointer to the controller 180. In addition, the touch panel 111 receives handwriting input with an electronic pen during execution of a handwriting input application described below.

表示部112は、コントローラ180から入力された信号に基づいて、文字、画像、図形等のオブジェクトを画面上に表示する。また、表示部112は、手書き入力アプリケーションの実行中において、タッチパネル111が入力を受け付けた手書きの軌跡(例えば、文字や図形)を表示する。   The display unit 112 displays objects such as characters, images, and graphics on the screen based on the signal input from the controller 180. In addition, the display unit 112 displays a handwriting locus (for example, a character or a figure) that the touch panel 111 has received while the handwriting input application is being executed.

音声入力部121は、入力を受け付けた音声に対応する信号をコントローラ180に入力する。音声入力部121は、上記のマイク120を含む。また、音声入力部121は、外部のマイクを接続可能な入力インターフェイスであってもよい。外部のマイクは無線又は有線で接続される。入力インターフェイスに接続されるマイクは、例えば情報表示装置100に接続可能なイヤホン等に備えられるマイクである。一実施形態において、外部のマイクは、電子ペンに設けられている。   The voice input unit 121 inputs to the controller 180 a signal corresponding to the received voice. The voice input unit 121 includes the microphone 120 described above. Further, the voice input unit 121 may be an input interface to which an external microphone can be connected. The external microphone is connected wirelessly or by wire. The microphone connected to the input interface is, for example, a microphone included in an earphone or the like connectable to the information display device 100. In one embodiment, the external microphone is provided on the electronic pen.

音声出力部131は、コントローラ180から入力された信号に基づいて、音声を出力する。音声出力部131は、上記のスピーカ130を含む。また、音声出力部131は、外部のスピーカを接続可能な出力インターフェイスであってもよい。外部のスピーカは無線又は有線で接続される。出力インターフェイスに接続されるスピーカは、例えば情報表示装置に接続可能なイヤホン等に備えられるスピーカである。   The audio output unit 131 outputs audio based on the signal input from the controller 180. The audio output unit 131 includes the speaker 130 described above. Further, the audio output unit 131 may be an output interface to which an external speaker can be connected. The external speaker is connected wirelessly or by wire. The speaker connected to the output interface is, for example, a speaker included in an earphone or the like connectable to the information display device.

カメラ140は、撮像した画像を電子信号に変換してコントローラ180に入力する。   The camera 140 converts the captured image into an electronic signal and inputs it to the controller 180.

センサ150は、情報表示装置100に加わる加速度又は振動を検出し、検出結果に対応する検出信号をコントローラ180に出力する。センサ150は、加速度センサを含む。加速度センサは、情報表示装置100に加わる加速度の方向及び大きさを検出する。   The sensor 150 detects acceleration or vibration applied to the information display device 100, and outputs a detection signal corresponding to the detection result to the controller 180. The sensor 150 includes an acceleration sensor. The acceleration sensor detects the direction and magnitude of the acceleration applied to the information display device 100.

記憶部160は、プログラム及びデータを記憶する。記憶部160は、コントローラ180の処理結果を一時的に記憶する作業領域としても利用される。記憶部160は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。   The storage unit 160 stores programs and data. The storage unit 160 is also used as a work area for temporarily storing the processing result of the controller 180. The storage unit 160 may include a semiconductor storage medium and an arbitrary non-transitory storage medium such as a magnetic storage medium.

また、記憶部160は、複数の種類の記憶媒体を含んでよい。記憶部160は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。記憶部160は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   In addition, the storage unit 160 may include a plurality of types of storage media. The storage unit 160 may include a combination of a portable storage medium such as a memory card, an optical disc, or a magneto-optical disc, and a storage medium reading device. The storage unit 160 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

記憶部160に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。   The programs stored in the storage unit 160 include an application executed in the foreground or background and a control program that supports the operation of the application.

記憶部160に記憶されるプログラムには、手書き入力アプリケーションが含まれる。手書き入力アプリケーションは、電子ペンによる手書き入力をタッチパネル111が受け付けて、手書きの軌跡(例えば、文字や図形)を表示部112に表示させるアプリケーションである。   The programs stored in the storage unit 160 include a handwriting input application. The handwriting input application is an application in which the touch panel 111 receives a handwriting input by an electronic pen and displays a handwriting locus (for example, a character or a figure) on the display unit 112.

一実施形態において、手書き入力アプリケーションは、音声入力部121により取得された音声データに対する音声認識処理を行う機能を有する。音声認識処理は、音声データに含まれる音声コマンドを認識する処理である。各音声コマンド及びそれに対応する操作内容は、記憶部160に予め登録されている。   In one embodiment, the handwriting input application has a function of performing voice recognition processing on the voice data acquired by the voice input unit 121. The voice recognition process is a process of recognizing a voice command included in voice data. Each voice command and the operation content corresponding to it are registered in the storage unit 160 in advance.

通信インターフェイス170は、無線により通信する。通信インターフェイス170によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラー通信規格や、近距離無線の通信規格等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。   The communication interface 170 communicates wirelessly. The wireless communication standards supported by the communication interface 170 include, for example, the cellular communication standards such as 2G, 3G, and 4G, the short-range wireless communication standards, and the like. Examples of short-range wireless communication standards include IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and WPAN (Wireless Personal Area) Network. The WPAN communication standard includes, for example, ZigBee (registered trademark).

コントローラ180は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−Chip)、MCU(Micro Control Unit)、FPGA(Field−Programmable Gate Array)、及びコプロセッサを含むが、これらに限定されない。また、コントローラ180は、GPU(Graphics Processing Unit)、VRAM(Video RAM)等を含み、表示部112に各種の画像を描画する。コントローラ180は、情報表示装置100の動作を統括的に制御して各種の機能を実現する。   The controller 180 is an arithmetic processing device. The arithmetic processing device includes, for example, a CPU (Central Processing Unit), a SoC (System-on-Chip), an MCU (Micro Control Unit), an FPGA (Field-Programmable Gate Array), and a coprocessor, but is not limited thereto. .. The controller 180 also includes a GPU (Graphics Processing Unit), a VRAM (Video RAM), and the like, and draws various images on the display unit 112. The controller 180 centrally controls the operation of the information display device 100 to realize various functions.

コントローラ180は、自機が外部機器と接続されているかを検出する。接続は有線で行われてもよいし、無線で行われてもよい。無線接続の通信規格は、例えばBluetooth(登録商標)である。コントローラ180は、通信インターフェイス170を介して外部機器と通信する。接続される外部機器は、例えば上記のイヤホンや、ヘッドセット、マイク付きの車載スピーカ、電子ペンである。但し、無線接続の通信規格、外部機器はともにこれらに限定されない。以下において、接続される外部機器が電子ペンである一例について説明する。   The controller 180 detects whether its own device is connected to an external device. The connection may be made by wire or wirelessly. The communication standard for wireless connection is, for example, Bluetooth (registered trademark). The controller 180 communicates with an external device via the communication interface 170. The external device to be connected is, for example, the above-mentioned earphone, headset, in-vehicle speaker with a microphone, or electronic pen. However, the communication standard for wireless connection and the external device are not limited to these. Hereinafter, an example in which the external device to be connected is an electronic pen will be described.

コントローラ180は、タッチパネル111が検出したタッチ操作等に応じて入力される信号に基づいて、各種制御を実行する。例えば、コントローラ180は、入力された信号に応じた出力を音声出力部131や表示部112等によって行う。また、コントローラ180は、情報表示装置100の機能の実行や設定の変更を行う。   The controller 180 executes various controls based on a signal input according to a touch operation or the like detected by the touch panel 111. For example, the controller 180 causes the audio output unit 131, the display unit 112, or the like to perform output according to the input signal. Further, the controller 180 executes functions of the information display device 100 and changes settings.

コントローラ180は、手書き入力アプリケーションの実行中において、ユーザがタッチパネル111を利用して手書き入力(タッチ入力)をすると、タッチ位置に対応するタッチ座標データをタッチパネル111から取得する。   When the user uses the touch panel 111 to perform handwriting input (touch input) while the handwriting input application is being executed, the controller 180 acquires touch coordinate data corresponding to the touch position from the touch panel 111.

ユーザは、電子ペンや指でタッチパネル111を操作する。タッチパネル111を用いた入力としては、タップ(短押し)、スライド(ドラッグ)、フリック、ロングタッチ(長押し)等がある。これらを「タッチ入力」又は単に「入力」と呼ばれることがある。   The user operates the touch panel 111 with an electronic pen or a finger. Input using the touch panel 111 includes tap (short press), slide (drag), flick, long touch (long press), and the like. These are sometimes called "touch inputs" or simply "inputs".

タッチパネル111をタッチしていない状態からタッチする状態に変化することをタッチオン(ペンダウン)といい、タッチパネル111をタッチしている状態からタッチしていない状態に変化することをタッチオフ(ペンアップ)という。継続的なタッチ入力であるスライドやフリックによる入力に対しては、タッチパネル111は、現在のタッチ位置に対応するタッチ座標データを短周期で出力してもよい。   The change from the state where the touch panel 111 is not touched to the touch state is called touch-on (pen down), and the change from the state where the touch panel 111 is touched to the non-touch state is called touch-off (pen up). The touch panel 111 may output touch coordinate data corresponding to the current touch position in a short period in response to continuous touch input such as slide or flick.

タッチパネル111は、タッチオン(ペンダウン)からタッチオフ(ペンアップ)までの一連のタッチ位置に対応するタッチ座標データをコントローラ180に出力する。コントローラ180は、一連のタッチ座標データが示す手書きの軌跡を表示部112に表示させる。   The touch panel 111 outputs to the controller 180 touch coordinate data corresponding to a series of touch positions from touch-on (pen down) to touch-off (pen up). The controller 180 causes the display unit 112 to display a handwritten locus represented by a series of touch coordinate data.

(電子ペンの構成)
図3は、一実施形態に係る電子ペン200の外観図である。
(Structure of electronic pen)
FIG. 3 is an external view of the electronic pen 200 according to the embodiment.

図3に示すように、電子ペン200は、筐体201と、クリップ部202と、芯体203と、操作部210とを有する。   As shown in FIG. 3, the electronic pen 200 has a housing 201, a clip portion 202, a core body 203, and an operation portion 210.

筐体201は、筒状に構成されている。クリップ部202は、電子ペン200(筐体201)の上端側に設けられている。芯体203及び操作部210は、電子ペン200(筐体201)の下端側に設けられている。操作部210は、指により押下されるボタンである。   The housing 201 has a tubular shape. The clip portion 202 is provided on the upper end side of the electronic pen 200 (housing 201). The core body 203 and the operation unit 210 are provided on the lower end side of the electronic pen 200 (housing 201). The operation unit 210 is a button that is pressed by a finger.

図4は、一実施形態に係る電子ペン200の機能構成を示すブロック図である。   FIG. 4 is a block diagram showing a functional configuration of the electronic pen 200 according to the embodiment.

図4に示すように、電子ペン200は、操作部210と、マイク220と、スピーカ230と、センサ240と、記憶部250と、通信インターフェイス260と、コントローラ270とを有する。   As shown in FIG. 4, the electronic pen 200 includes an operation unit 210, a microphone 220, a speaker 230, a sensor 240, a storage unit 250, a communication interface 260, and a controller 270.

操作部210は、検出された押下操作に対応する信号をコントローラ270に入力する。   The operation unit 210 inputs a signal corresponding to the detected pressing operation to the controller 270.

マイク220は、周囲の音声を集音する。マイク220は、電子ペン200への音声入力を受け付け、入力を受け付けた音声に対応する信号をコントローラ270に入力する。   The microphone 220 collects ambient sound. The microphone 220 receives a voice input to the electronic pen 200, and inputs a signal corresponding to the received voice to the controller 270.

スピーカ230は、音声出力を行う。スピーカ230は、電話の音声や各種プログラムの情報等を音声で出力する。スピーカ230は、コントローラ270から入力された信号に基づいて、音声を出力する。   The speaker 230 outputs a voice. The speaker 230 outputs the voice of the telephone, information of various programs, and the like by voice. The speaker 230 outputs sound based on the signal input from the controller 270.

センサ240は、電子ペン200に加わる加速度、又は筆圧を検出し、検出結果に対応する検出信号をコントローラ270に出力する。センサ240は、加速度センサを含む。加速度センサは、電子ペン200に加わる加速度の方向及び大きさを検出する。センサ240は、さらに、情報表示装置100の角度及び角速度を検出するジャイロセンサを含んでいてもよい。   The sensor 240 detects acceleration applied to the electronic pen 200 or writing pressure, and outputs a detection signal corresponding to the detection result to the controller 270. The sensor 240 includes an acceleration sensor. The acceleration sensor detects the direction and magnitude of the acceleration applied to the electronic pen 200. The sensor 240 may further include a gyro sensor that detects the angle and the angular velocity of the information display device 100.

センサ240は、さらに筆圧センサを含む。筆圧センサは、芯体203(すなわち、ペン先)に加わる圧力を検出し、検出結果に対応する信号をコントローラ270に出力する。   The sensor 240 further includes a writing pressure sensor. The writing pressure sensor detects the pressure applied to the core body 203 (that is, the pen tip) and outputs a signal corresponding to the detection result to the controller 270.

記憶部250は、プログラム及びデータを記憶する。記憶部250は、コントローラ270の処理結果を一時的に記憶する作業領域としても利用される。記憶部250は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的な記憶媒体を含んでよい。   The storage unit 250 stores programs and data. The storage unit 250 is also used as a work area for temporarily storing the processing result of the controller 270. The storage unit 250 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.

また、記憶部250は、複数の種類の記憶媒体を含んでよい。記憶部250は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。記憶部250は、RAM等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   In addition, the storage unit 250 may include a plurality of types of storage media. The storage unit 250 may include a combination of a portable storage medium such as a memory card and a storage medium reading device. The storage unit 250 may include a storage device used as a temporary storage area such as a RAM.

通信インターフェイス260は、無線により通信する。通信インターフェイス260によってサポートされる無線通信規格には、例えば、上記のセルラー通信規格や近距離無線の通信規格等がある。   The communication interface 260 communicates wirelessly. The wireless communication standard supported by the communication interface 260 includes, for example, the above-mentioned cellular communication standard and short-range wireless communication standard.

コントローラ270は、演算処理装置である。演算処理装置は、例えば、CPU、SoC、MCU、FPGA、及びコプロセッサを含むが、これらに限定されない。コントローラ270は、電子ペン200の動作を統括的に制御して各種の機能を実現する。   The controller 270 is an arithmetic processing unit. The arithmetic processing unit includes, for example, a CPU, SoC, MCU, FPGA, and coprocessor, but is not limited thereto. The controller 270 implements various functions by controlling the operation of the electronic pen 200 as a whole.

コントローラ270は、自機が情報表示装置100と接続されているかを検出する。接続は有線で行われてもよいし、無線で行われてもよい。無線接続の通信規格は、例えばBluetooth(登録商標)である。コントローラ270は、通信インターフェイス260を介して情報表示装置100と通信する。   The controller 270 detects whether the device itself is connected to the information display device 100. The connection may be made by wire or wirelessly. The communication standard for wireless connection is, for example, Bluetooth (registered trademark). The controller 270 communicates with the information display device 100 via the communication interface 260.

コントローラ270は、操作部210が検出した押下操作等に応じて入力される信号に基づいて、各種制御を実行する。また、コントローラ270は、自機が情報表示装置100と接続されている場合において、センサ240の検出結果に応じたデータを情報表示装置100に送信する。   The controller 270 executes various controls based on a signal input according to a pressing operation or the like detected by the operation unit 210. Further, the controller 270 transmits data according to the detection result of the sensor 240 to the information display device 100 when the device itself is connected to the information display device 100.

一実施形態において、コントローラ270は、音声認識処理を行う機能を有する。音声認識処理は、音声データに含まれる音声コマンドを認識する処理である。各音声コマンド及びそれに対応する操作内容は、記憶部250に予め登録されていてもよい。   In one embodiment, the controller 270 has a function of performing voice recognition processing. The voice recognition process is a process of recognizing a voice command included in voice data. Each voice command and the operation content corresponding thereto may be registered in the storage unit 250 in advance.

(手書き入力の動作)
図5は、手書き入力画面の一例を示す図である。情報表示装置100のコントローラ180は、手書き入力アプリケーションの実行中に、図5に示すような手書き入力画面をタッチスクリーンディスプレイ110(表示部112)に表示させる。
(Handwriting input operation)
FIG. 5 is a diagram showing an example of a handwriting input screen. The controller 180 of the information display device 100 displays a handwriting input screen as shown in FIG. 5 on the touch screen display 110 (display unit 112) during execution of the handwriting input application.

図5に示すように、手書き入力画面は、手書き入力領域R1と、ツールパレット領域P1と、カラーパレット領域P2とを有する。   As shown in FIG. 5, the handwriting input screen has a handwriting input area R1, a tool palette area P1, and a color palette area P2.

手書き入力領域R1は、手書きの軌跡を表示する領域である。図5において、ユーザが電子ペン200を用いて手書き入力を行う一例を示している。一般的に、ユーザは、例えばメモをとるために、電子ペン200により文字を手書き入力領域R1に入力する。文字には、数字や記号も含まれる。或いは、ユーザは、例えばイラストを描画するために、電子ペン200により図形を手書き入力領域R1に入力する。図形には、曲線や直線、円、多角形等が含まれる。   The handwriting input area R1 is an area for displaying a handwriting locus. FIG. 5 shows an example in which the user performs handwriting input using the electronic pen 200. Generally, the user inputs characters into the handwriting input area R1 with the electronic pen 200, for example, to take a memo. The letters include numbers and symbols. Alternatively, the user inputs a figure into the handwriting input area R1 with the electronic pen 200 in order to draw an illustration, for example. The figure includes a curve, a straight line, a circle, a polygon, and the like.

ツールパレット領域P1は、手書きの軌跡の太さ(線幅)を変更するためのボタンB11乃至B13と、直前の手書き入力をキャンセルする(元に戻す)ためのボタンB14と、削除する箇所を指示体により指定する操作を行うための消しゴムボタンB15とを表示する領域である。一方、カラーパレット領域P2は、黒、赤、青、緑、黄等の各色に対応するカラーボタンB21乃至B25を表示する領域である。   The tool palette area P1 indicates buttons B11 to B13 for changing the thickness (line width) of a handwritten trajectory, a button B14 for canceling (returning to the previous) handwriting input, and a deletion point. An area for displaying an eraser button B15 for performing an operation designated by the body. On the other hand, the color palette area P2 is an area for displaying the color buttons B21 to B25 corresponding to each color such as black, red, blue, green and yellow.

ユーザは、ツールパレット領域P1及びカラーパレット領域P2内のボタンを用いて、手書きの軌跡(文字や図形等)の線色及び線幅を選択したり、描画した図形又はその一部を構成する面(閉曲線)を所望の色で塗りつぶしたりする。このため、手書きの軌跡の表示態様(属性)を変化させる度に、ツールパレット領域P1及びカラーパレット領域P2等を用いて表示態様を選択及び変更する操作が必要になる。   The user uses the buttons in the tool palette area P1 and the color palette area P2 to select the line color and line width of a handwritten locus (characters, figures, etc.), the drawn figure, or a surface constituting a part thereof. Fill (closed curve) with a desired color. Therefore, every time the display mode (attribute) of the handwritten locus is changed, it is necessary to select and change the display mode using the tool palette area P1 and the color palette area P2.

一実施形態において、このような表示態様の変更を音声により可能にする。具体的には、一実施形態に係る情報表示装置100において、音声入力部121は、音声コマンドを含む音声入力を受け付ける。   In one embodiment, such a display mode change is enabled by voice. Specifically, in the information display device 100 according to the embodiment, the voice input unit 121 receives a voice input including a voice command.

音声入力部121は、電子ペン200のマイク220に入力される音声に応じた音声コマンドを含む音声データを電子ペン200から取得することにより、音声入力を受け付けてもよい。電子ペン200のマイク220を利用することにより、ユーザにより近い位置で音声を集音できる。また、情報表示装置100が適切なマイクを有していない場合であっても、電子ペン200のマイク220を用いて音声入力が可能になる。   The voice input unit 121 may accept voice input by acquiring voice data including a voice command corresponding to voice input to the microphone 220 of the electronic pen 200 from the electronic pen 200. By using the microphone 220 of the electronic pen 200, sound can be collected at a position closer to the user. Further, even if the information display device 100 does not have an appropriate microphone, voice input can be performed using the microphone 220 of the electronic pen 200.

電子ペン200のマイク220を利用する場合、音声コマンドを認識する音声認識処理を情報表示装置100のコントローラ180で行ってもよいし、音声認識処理を電子ペン200のコントローラ270で行ってもよい。   When using the microphone 220 of the electronic pen 200, the voice recognition process for recognizing a voice command may be performed by the controller 180 of the information display device 100, or the voice recognition process may be performed by the controller 270 of the electronic pen 200.

或いは、音声入力部121は、情報表示装置100のマイク120に入力される音声に応じた音声コマンドを含む音声データを取得することにより、音声入力を受け付けてもよい。すなわち、電子ペン200のマイク220を用いることなく音声入力を行う。この場合、音声コマンドを認識する音声認識処理を情報表示装置100のコントローラ180で行う。   Alternatively, the voice input unit 121 may accept voice input by acquiring voice data including a voice command corresponding to the voice input to the microphone 120 of the information display device 100. That is, voice input is performed without using the microphone 220 of the electronic pen 200. In this case, the voice recognition process for recognizing the voice command is performed by the controller 180 of the information display device 100.

音声コマンドは、ツールパレット領域P1及びカラーパレット領域P2内の各ボタンに対応するコマンドが定義されていてもよい。   As the voice command, a command corresponding to each button in the tool palette area P1 and the color palette area P2 may be defined.

例えば、ボタンB11に対応する音声コマンドは「一番細い線に」、ボタンB13に対応する音声コマンドは「一番太い線に」といったように、直接的なコマンドであってもよい。或いは、「もっと線を太く」という相対的な音声コマンドにより、ボタンB11に対応する線幅からボタンB12に対応する線幅に変更したり、ボタンB12に対応する線幅からボタンB13に対応する線幅に変更したり、ボタンB13に対応する線幅からより太い線幅に変更してもよい。すなわち、情報表示装置100のコントローラ180は、相対的な音声コマンドに基づいて、選択済みの表示態様を、選択済みの表示態様と同種の表示態様であって、かつ選択済みの表示態様とは別の表示態様に変更してもよい。   For example, the voice command corresponding to the button B11 may be a direct command such as "to the thinnest line" and the voice command corresponding to the button B13 to "the thickest line". Alternatively, the line width corresponding to the button B11 is changed to the line width corresponding to the button B12, or the line width corresponding to the button B12 is changed to the line corresponding to the button B13 by a relative voice command of "thicker line". The width may be changed, or the line width corresponding to the button B13 may be changed to a thicker line width. That is, the controller 180 of the information display device 100, based on the relative voice command, sets the selected display mode to the same display mode as the selected display mode and different from the selected display mode. The display mode may be changed to.

ボタンB14に対応する音声コマンドは、「元に戻す」であってもよい。ボタンB15に対応する音声コマンドは「消しゴム」であってもよい。   The voice command corresponding to the button B14 may be “undo”. The voice command corresponding to the button B15 may be “eraser”.

ボタンB21乃至B25については、対応する色を指定する音声コマンドとすることができる。例えば、「ペンを青に」、「ペンを赤に」といった音声コマンドであってもよい。或いは、「ペンを徐々に赤に」といった音声コマンドにより選択済みの色から赤色へのグラデーションを指定してもよい。或いは、「ペンを青から徐々に赤に」といった複数色の指定を含む音声コマンドにより青色から赤色へのグラデーションを指定してもよい。すなわち、情報表示装置100のコントローラ180は、一または複数の同種の表示態様の指定、およびその他所定の音声コマンド(上記の例では、「徐々に」が該当する)を含む音声コマンドに基づいて、選択済みの表示態様または指定された表示態様から、同種の別の表示態様へ段階的に表示態様を変更してもよい。   The buttons B21 to B25 can be voice commands that specify the corresponding colors. For example, it may be a voice command such as "pen to blue" or "pen to red". Alternatively, a gradation from the selected color to red may be designated by a voice command such as “pen gradually turns red”. Alternatively, the gradation from blue to red may be designated by a voice command including designation of a plurality of colors such as “pen gradually changes from blue to red”. That is, the controller 180 of the information display device 100, based on a voice command including one or more designations of the same type of display mode and other predetermined voice commands (in the above example, “gradually” corresponds) The display mode may be changed stepwise from the selected display mode or the designated display mode to another display mode of the same type.

コントローラ180は、手書き入力状態において音声入力部121が入力を受け付けた音声コマンドに応じて、表示部112における手書きの軌跡の表示態様を制御する。ここで、表示態様は、文字の色、文字の大きさ、文字の太さ、文字のフォント、文字の装飾、図形の色、図形の大きさ、図形の線幅、及び図形の形状のうち、少なくとも1つを含む。   The controller 180 controls the display mode of the handwriting locus on the display unit 112 according to the voice command received by the voice input unit 121 in the handwriting input state. Here, the display mode is, of the character color, character size, character thickness, character font, character decoration, figure color, figure size, figure line width, and figure shape, At least one is included.

これにより、手書きの軌跡の表示態様を変更する際に、ユーザは音声を発すればよく、当該変更のための入力操作を指示体により行う必要がないため、操作性を向上させることができる。   Accordingly, when changing the display mode of the handwritten locus, the user has only to make a voice and does not need to perform the input operation for the change with the indicator, so that the operability can be improved.

また、表示態様の変更を音声により可能にすることで、図5に示すツールパレット領域P1及びカラーパレット領域P2を不要とすることができるため、その分だけ手書き入力領域R1の面積を広げることができる。   Further, by making it possible to change the display mode by voice, it is possible to eliminate the tool palette area P1 and the color palette area P2 shown in FIG. 5, so that the area of the handwriting input area R1 can be expanded accordingly. it can.

さらに、図5に示すツールパレット領域P1及びカラーパレット領域P2に含まれていない高度な操作を音声により行うことも可能である。そのような高度な操作の例を図6乃至図8に示す。   Furthermore, it is possible to perform a high-level operation not included in the tool palette area P1 and the color palette area P2 shown in FIG. 5 by voice. Examples of such advanced operations are shown in FIGS.

図6は、手書きの軌跡の表示態様を段階的に変更する一例を示す図である。図6に示すように、手書き入力状態(具体的には、タッチ状態)において、「黄色からグリーンのグラデーションの線」という音声コマンドC1の入力を音声入力部121が受け付けると、コントローラ180は、音声コマンドC1を認識し、手書きの軌跡の線色を黄色からグリーンに段階的に変更する。   FIG. 6 is a diagram showing an example of gradually changing the display mode of a handwritten trajectory. As shown in FIG. 6, in the handwriting input state (specifically, in the touch state), when the voice input unit 121 receives the input of the voice command C1 “a yellow to green gradation line”, the controller 180 outputs a voice. The command C1 is recognized, and the line color of the handwritten locus is gradually changed from yellow to green.

図7は、手書きの軌跡の表示態様を変更する一例を示す図である。図7に示すように、手書きの軌跡L1が描画される。手書き入力状態において、「直線」という音声コマンドC2の入力を音声入力部121が受け付けると、コントローラ180は、音声コマンドC2を認識し、手書きの軌跡L1を直線L2に変更する。   FIG. 7 is a diagram illustrating an example of changing the display mode of a handwritten locus. As shown in FIG. 7, a handwritten locus L1 is drawn. When the voice input unit 121 receives an input of the voice command C2 “straight line” in the handwriting input state, the controller 180 recognizes the voice command C2 and changes the handwriting locus L1 to the straight line L2.

図8は、手書きの軌跡の表示態様を変更する他の例を示す図である。図8に示すように、手書きの軌跡L3が描画される。手書き入力状態において、「直角」という音声コマンドC3の入力を音声入力部121が受け付けると、コントローラ180は、音声コマンドC3を認識し、手書きの軌跡L3を直角の線L4に変更する。   FIG. 8 is a diagram showing another example of changing the display mode of the handwritten trajectory. As shown in FIG. 8, a handwritten locus L3 is drawn. In the handwriting input state, when the voice input unit 121 receives an input of the voice command C3 of “right angle”, the controller 180 recognizes the voice command C3 and changes the handwriting locus L3 to a right angle line L4.

(手書き入力状態)
図9は、一実施形態に係る手書き入力状態を示す図である。
(Handwriting input state)
FIG. 9 is a diagram showing a handwriting input state according to an embodiment.

図9に示すように、手書き入力状態は、タッチスクリーンディスプレイ110(表示部112)の表示面に電子ペン200がタッチしているタッチ状態を含む。   As shown in FIG. 9, the handwriting input state includes a touch state in which the electronic pen 200 is touching the display surface of the touch screen display 110 (display unit 112).

コントローラ180は、タッチ状態において音声入力部121が入力を受け付けた音声コマンドに応じて、表示部112における手書きの軌跡の表示態様を制御する。これにより、手書き入力の最中に発された音声により手書きの軌跡の表示態様を変更できる。   The controller 180 controls the display mode of the handwritten locus on the display unit 112 according to the voice command received by the voice input unit 121 in the touch state. Thereby, the display mode of the handwriting locus can be changed by the voice uttered during the handwriting input.

例えば、タッチ状態において「ペンを赤に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその色を赤に変更する。   For example, when the voice input unit 121 receives an input of a voice command “pen red” in the touched state, the controller 180 recognizes the voice command and changes the color to red from the middle of the handwriting trajectory.

また、タッチ状態において「一番太い線に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線幅を一番太い線に変更する。   When the voice input unit 121 receives an input of the voice command “to the thickest line” in the touched state, the controller 180 recognizes this voice command and makes the line width thickest from the middle of the handwriting trajectory. Change to a line.

或いは、タッチ状態において、「もっと太く」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線幅を1段階太い線に変更する。その後、ペンアップ前に再度「もっと太く」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線幅をもう1段階太い線に変更する。このように、音声コマンドの入力を繰り返し受け付けると、コントローラ180は、手書きの軌跡を段階的に変更する。   Alternatively, when the voice input unit 121 receives an input of a voice command “much thicker” in the touched state, the controller 180 recognizes the voice command and changes the line width from the middle of the handwriting trajectory to a thicker line by one step. change. After that, when the voice input unit 121 receives the input of the voice command "thicker" again before pen-up, the controller 180 recognizes this voice command and increases the line width by one step from the middle of the handwriting trajectory. Change to a line. In this way, when the input of the voice command is repeatedly received, the controller 180 changes the handwriting trajectory stepwise.

その後、ペンアップ前に再度「もっと細く」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線幅を1段階細い線に変更する。   After that, when the voice input unit 121 accepts the input of the voice command of “thinner” again before pen-up, the controller 180 recognizes the voice command and reduces the line width by one step from the middle of the handwriting trajectory. Change to.

これにより、手書き入力中に手書きの軌跡の線幅を段階的に変更できる。ここで、段階的な変更の際に、線幅を急激に変更するのではなく、線幅を徐々に変更してもよい。   Accordingly, the line width of the handwritten trajectory can be changed in stages during handwriting input. Here, in the stepwise change, the line width may be gradually changed instead of being rapidly changed.

或いは、タッチ状態において、線色が青であるときに、「もっと赤に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線色を1段階赤に近づける(例えば、青が強めの紫色)。   Alternatively, in the touched state, when the line color is blue and the voice input unit 121 accepts the input of the voice command “more red”, the controller 180 recognizes the voice command and in the middle of the handwriting trajectory. To bring the line color closer to red by one step (for example, blue is stronger purple).

その後、ペンアップ前に再度「もっと赤に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線色をもう1段階赤に近づける(例えば、普通の紫色)。   After that, when the voice input unit 121 accepts the input of the voice command "more red" again before the pen-up, the controller 180 recognizes this voice command, and the line color is changed to another stage from the middle of the handwritten trajectory. Bring it closer to red (eg, normal purple).

その後、ペンアップ前に再度「もっと赤に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、手書きの軌跡の途中からその線色を1段階赤に近づける(例えば、赤が強めの紫色)。   After that, when the voice input unit 121 accepts the input of the voice command "Make it red" again before pen-up, the controller 180 recognizes this voice command and changes the line color from the middle of the handwritten trajectory to the one-step red color. (For example, purple with a strong red color).

これにより、手書き入力中に手書きの軌跡の線色を段階的に変更できる。ここで、段階的な変更の際に、線色を急激に変更するのではなく、線色を徐々に変更し、青から赤へのグラデーションで描画してもよい。   Thus, the line color of the handwritten locus can be changed step by step during handwriting input. Here, in the stepwise change, the line color may be gradually changed and drawn with a gradation from blue to red instead of abruptly changing the line color.

或いは、文字入力中に、タッチ状態において「ここ大事」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、その前後の一定時間又は一定長の手書きの軌跡の色を赤に変更する又はハイライト(マーカ)を付してもよい。このような音声コマンドは、手書き入力中に前後の所定範囲の表示態様を一律に変更する(具体的には、強調表示する)ための音声コマンドといえる。   Alternatively, when the voice input unit 121 accepts the input of the voice command “Kokoshiki” in the touch state during the character input, the controller 180 recognizes the voice command and hand-writes the voice command for a predetermined time or a certain length before and after the voice command. The color of the locus may be changed to red or may be highlighted (marker). Such a voice command can be said to be a voice command for uniformly changing (specifically, highlighting) the display mode of the predetermined range before and after the handwriting input.

或いは、文字入力中に、タッチ状態において「ここまで大事」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、ペンダウンのタイミングt2から音声コマンドを認識したタイミングまでの手書きの軌跡の色を赤に変更する又はハイライトを付してもよい。このような音声コマンドは、手書き入力中に直前の所定範囲の表示態様を一律に変更する(具体的には、強調表示する)ための音声コマンドといえる。   Alternatively, when the voice input unit 121 receives an input of a voice command “This is important” in the touch state during character input, the controller 180 recognizes the voice command and recognizes the voice command from the pen-down timing t2. The color of the handwritten locus up to the timing may be changed to red or highlighted. It can be said that such a voice command is a voice command for uniformly changing (specifically, highlighting) the display mode of the immediately preceding predetermined range during handwriting input.

或いは、文字入力中に、タッチ状態において「ここから大事」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、音声コマンドを認識したタイミングからペンアップのタイミングt3までの手書きの軌跡の色を赤に変更する又はハイライトを付してもよい。このような音声コマンドは、手書き入力中に直後の所定範囲の表示態様を一律に変更する(具体的には、強調表示する)ための音声コマンドといえる。   Alternatively, when the voice input unit 121 receives an input of a voice command “From here is important” in the touch state during character input, the controller 180 recognizes the voice command and performs pen-up from the timing when the voice command is recognized. The color of the handwritten locus up to the timing t3 may be changed to red or highlighted. It can be said that such a voice command is a voice command for uniformly changing (specifically, highlighting) the display mode of the predetermined range immediately after the handwriting input.

但し、「ここから大事」という音声コマンドの入力後、ペンアップ前に「ここまで大事」という音声コマンドが入力された場合、「ここから大事」という音声コマンドを認識したタイミングから「ここまで大事」という音声コマンドを認識したタイミングまでの手書きの軌跡を赤に変更する又はハイライトを付してもよい。   However, if the voice command "Here is important" is entered before pen-up after the voice command "Here is important" is input, "From here is important" from the timing when the voice command "Here is important" is recognized. The handwritten locus up to the timing of recognizing the voice command may be changed to red or highlighted.

手書き入力状態は、タッチ状態の直後の非タッチ状態を含んでもよい。具体的には、手書き入力状態は、タッチスクリーンディスプレイ110(表示部112)の表示面から電子ペン200が離れたタイミング(すなわち、ペンアップのタイミング)t3から所定時間が経過するまでの間の非タッチ状態を含んでもよい。これにより、ペンアップの直後に発された音声により手書きの軌跡の表示態様を変更できる。   The handwriting input state may include a non-touch state immediately after the touch state. Specifically, the handwriting input state is non-existent until a predetermined time elapses from the timing t3 when the electronic pen 200 is separated from the display surface of the touch screen display 110 (display unit 112) (that is, the pen-up timing). It may include a touch state. Thereby, the display mode of the handwritten locus can be changed by the voice uttered immediately after pen-up.

例えば、ペンアップの直後に、「元に戻す」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、タッチ状態中に入力された文字又は図形等の手書きの軌跡を削除してもよい。   For example, immediately after pen-up, when the voice input unit 121 receives an input of a voice command “undo”, the controller 180 recognizes the voice command and recognizes a character or a figure input during the touch state. The handwritten trajectory may be deleted.

或いは、ペンアップの直後に、「消しゴム」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、タッチ状態中に入力された文字又は図形等の手書きの軌跡を削除するモードを設定し、削除箇所を電子ペン200が指定するためのマーク(又は消しゴムアイコン)を表示し、電子ペン200により指定された箇所を削除してもよい。   Alternatively, immediately after pen-up, when the voice input unit 121 receives an input of a voice command “eraser”, the controller 180 recognizes the voice command and hand-writes a character or a figure input during the touch state. A mode for deleting a locus may be set, a mark (or an eraser icon) for the electronic pen 200 to designate a deleted location may be displayed, and the location designated by the electronic pen 200 may be deleted.

或いは、ペンアップの直後に、「ペンを赤に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、タッチ状態中に入力された文字又は図形等の手書きの軌跡の色を赤に変更する。   Alternatively, immediately after pen-up, when the voice input unit 121 receives an input of a voice command “pen red”, the controller 180 recognizes the voice command and inputs a character or a figure input during the touch state. Change the color of the handwritten trajectory of to red.

また、ペンアップの直後に、「一番太い線に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、タッチ状態中に入力された文字又は図形等の手書きの軌跡の線幅を一番太い線に変更する。   Further, immediately after pen-up, when the voice input unit 121 receives an input of the voice command “to the thickest line”, the controller 180 recognizes this voice command and the character or figure input during the touch state. Change the line width of the handwritten locus such as to the thickest line.

手書き入力状態は、タッチ状態の直前の非タッチ状態を含んでもよい。具体的には、手書き入力状態は、表示面に電子ペン200がタッチするタイミング(すなわち、ペンダウンのタイミング)t2から所定時間前までの非タッチ状態を含んでもよい。これにより、ペンアップの直前に発された音声により手書きの軌跡の表示態様を変更できる。   The handwriting input state may include a non-touch state immediately before the touch state. Specifically, the handwriting input state may include a non-touch state from a timing (that is, a pen-down timing) t2 when the electronic pen 200 touches the display surface to a predetermined time before. As a result, the display mode of the handwritten locus can be changed by the voice uttered immediately before pen-up.

例えば、ペンダウンの直前に、「ペンを赤に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、タッチ状態中に入力される文字又は図形等の手書きの軌跡の色を赤にする。   For example, when the voice input unit 121 receives an input of the voice command “pen red” just before the pen down, the controller 180 recognizes the voice command and displays a character or a figure input during the touch state. Change the color of handwritten tracks to red.

また、ペンアップの直前に、「一番太い線に」という音声コマンドの入力を音声入力部121が受け付けると、コントローラ180は、この音声コマンドを認識し、タッチ状態中に入力される文字又は図形等の手書きの軌跡の線幅を一番太い線にする。   Further, when the voice input unit 121 receives the input of the voice command “to the thickest line” immediately before pen-up, the controller 180 recognizes this voice command, and the characters or figures input during the touch state. Make the line width of the handwritten trajectory such as "the thickest line".

(動作フローの一例)
図10は、情報表示装置100及び電子ペン200の動作フローの一例を示す図である。なお、情報表示装置100と電子ペン200との間には無線接続(例えば、近距離無線通信の接続)が設定されている。
(Example of operation flow)
FIG. 10 is a diagram showing an example of an operation flow of the information display device 100 and the electronic pen 200. Note that a wireless connection (for example, a short-range wireless communication connection) is set between the information display device 100 and the electronic pen 200.

図10に示すように、ステップS101において、情報表示装置100のコントローラ180は、音声認識処理を開始する。音声認識処理を開始することにより、手書き入力状態において所定の音声コマンドを認識可能になる。   As shown in FIG. 10, in step S101, the controller 180 of the information display device 100 starts the voice recognition process. By starting the voice recognition process, a predetermined voice command can be recognized in the handwriting input state.

情報表示装置100のコントローラ180は、手書き入力アプリケーションが起動されたことに応じて音声認識処理を開始してもよい。これにより、適切なタイミングで音声認識処理を開始できる。   The controller 180 of the information display device 100 may start the voice recognition process in response to activation of the handwriting input application. Thereby, the voice recognition process can be started at an appropriate timing.

或いは、情報表示装置100のコントローラ180は、手書き入力アプリケーションが起動されており、且つ電子ペン200の操作部210に対して押下操作(第1の操作)がなされたことに応じて、音声認識処理を開始してもよい。ユーザは、音声コマンドに対応する音声を発する前に電子ペン200の操作部210を押下する。これにより、より適切なタイミングで音声認識処理を開始できる。   Alternatively, the controller 180 of the information display device 100 performs the voice recognition process in response to the handwriting input application being activated and the pressing operation (first operation) performed on the operation unit 210 of the electronic pen 200. May start. The user presses the operation unit 210 of the electronic pen 200 before issuing a voice corresponding to the voice command. As a result, the voice recognition process can be started at a more appropriate timing.

情報表示装置100のコントローラ180は、手書き入力アプリケーションが起動されており、且つ電子ペン200のセンサ240(筆圧センサ)が筆圧を検出したことに応じて、音声認識処理を開始してもよい。或いは、情報表示装置100のコントローラ180は、手書き入力アプリケーションが起動されており、且つタッチパネル111がタッチ入力(ペンダウン)を検出したことに応じて、音声認識処理を開始してもよい。これにより、ユーザが電子ペン200の操作部210を押下しなくても、適切なタイミングで音声認識処理を開始できる。   The controller 180 of the information display device 100 may start the voice recognition process in response to the handwriting input application being activated and the sensor 240 (writing pressure sensor) of the electronic pen 200 detecting writing pressure. .. Alternatively, the controller 180 of the information display device 100 may start the voice recognition process in response to the handwriting input application being activated and the touch panel 111 detecting a touch input (pen down). Accordingly, the voice recognition process can be started at an appropriate timing without the user pressing the operation unit 210 of the electronic pen 200.

ステップS102において、電子ペン200のマイク220に音声が入力される。電子ペン200のマイク220は、この音声を音声データに変換して電子ペン200のコントローラ270に出力する。   In step S102, voice is input to the microphone 220 of the electronic pen 200. The microphone 220 of the electronic pen 200 converts this voice into voice data and outputs it to the controller 270 of the electronic pen 200.

ステップS103において、電子ペン200のコントローラ270は、電子ペン200のマイク220から入力された音声データを、電子ペン200の通信インターフェイス260を介して情報表示装置100に送信する。情報表示装置100の音声入力部121は、電子ペン200から音声データを取得することにより音声入力を受け付け、この音声データを情報表示装置100のコントローラ180に出力する。   In step S103, the controller 270 of the electronic pen 200 transmits the audio data input from the microphone 220 of the electronic pen 200 to the information display device 100 via the communication interface 260 of the electronic pen 200. The voice input unit 121 of the information display device 100 accepts voice input by acquiring voice data from the electronic pen 200, and outputs this voice data to the controller 180 of the information display device 100.

ステップS104において、情報表示装置100のコントローラ180は、音声入力部121から入力された音声データに対する音声認識処理を行い、この音声データに音声コマンドが含まれているか確認する。   In step S104, the controller 180 of the information display device 100 performs a voice recognition process on the voice data input from the voice input unit 121 and confirms whether the voice data includes a voice command.

音声コマンドが含まれている場合、ステップS105において、情報表示装置100のコントローラ180は、当該音声コマンドに応じて、表示部112における手書きの軌跡の表示態様を制御する。   When the voice command is included, in step S105, the controller 180 of the information display device 100 controls the display mode of the handwritten locus on the display unit 112 according to the voice command.

なお、情報表示装置100のコントローラ180は、手書き入力アプリケーションが終了されたことに応じて、音声認識処理を終了する。   Note that the controller 180 of the information display device 100 ends the voice recognition process in response to the end of the handwriting input application.

或いは、情報表示装置100のコントローラ180は、電子ペン200の操作部210が押下されている間において音声認識を有効としてもよい。この場合、コントローラ180は、操作部210に対して押下解除(第2の操作)がなされたことに応じて、音声認識処理を終了してもよい。   Alternatively, the controller 180 of the information display device 100 may enable voice recognition while the operation unit 210 of the electronic pen 200 is being pressed. In this case, the controller 180 may end the voice recognition processing in response to the pressing release (second operation) performed on the operation unit 210.

或いは、情報表示装置100のコントローラ180は、タッチ状態において音声認識を有効としてもよい。この場合、情報表示装置100のコントローラ180は、電子ペン200の筆圧センサが圧力を検出しなくなったことに応じて、音声認識処理を終了してもよい。或いは、情報表示装置100のコントローラ180は、タッチパネル111がペンアップを検出したことに応じて、音声認識処理を終了してもよい。   Alternatively, the controller 180 of the information display device 100 may enable voice recognition in the touch state. In this case, the controller 180 of the information display device 100 may end the voice recognition process when the writing pressure sensor of the electronic pen 200 no longer detects the pressure. Alternatively, the controller 180 of the information display device 100 may end the voice recognition process in response to the touch panel 111 detecting the pen-up.

図11は、情報表示装置100及び電子ペン200の動作フローの他の例を示す図である。なお、情報表示装置100と電子ペン200との間には無線接続(例えば、近距離無線通信の接続)が設定されている。ここでは、図10に示す動作との相違点について主として説明する。   FIG. 11 is a diagram showing another example of the operation flow of the information display device 100 and the electronic pen 200. Note that a wireless connection (for example, a short-range wireless communication connection) is set between the information display device 100 and the electronic pen 200. Here, differences from the operation shown in FIG. 10 will be mainly described.

図11に示すように、ステップS201において、電子ペン200のコントローラ270は、音声認識処理を開始する。   As shown in FIG. 11, in step S201, the controller 270 of the electronic pen 200 starts the voice recognition process.

電子ペン200のコントローラ270は、手書き入力アプリケーションが起動されたことを情報表示装置100から通知された際に、音声認識処理を開始してもよい。或いは、電子ペン200のコントローラ270は、手書き入力アプリケーションが起動されており、且つ電子ペン200の操作部210に対して押下操作(第1の操作)がなされたことに応じて、音声認識処理を開始してもよい。電子ペン200のコントローラ270は、手書き入力アプリケーションが起動されており、且つ電子ペン200のセンサ240(筆圧センサ)が筆圧を検出したことに応じて、音声認識処理を開始してもよい。   The controller 270 of the electronic pen 200 may start the voice recognition process when the information display device 100 notifies that the handwriting input application is activated. Alternatively, the controller 270 of the electronic pen 200 performs voice recognition processing in response to the handwriting input application being activated and the pressing operation (first operation) being performed on the operation unit 210 of the electronic pen 200. You may start. The controller 270 of the electronic pen 200 may start the voice recognition process in response to the handwriting input application being activated and the sensor 240 (writing pressure sensor) of the electronic pen 200 detecting writing pressure.

ステップS202において、電子ペン200のマイク220に音声が入力される。電子ペン200のマイク220は、この音声を音声データに変換して電子ペン200のコントローラ270に出力する。   In step S202, voice is input to the microphone 220 of the electronic pen 200. The microphone 220 of the electronic pen 200 converts this voice into voice data and outputs it to the controller 270 of the electronic pen 200.

ステップS203において、電子ペン200のコントローラ270は、音声入力部121から入力された音声データに対する音声認識処理を行い、この音声データに音声コマンドが含まれているか確認する。   In step S203, the controller 270 of the electronic pen 200 performs a voice recognition process on the voice data input from the voice input unit 121, and confirms whether the voice data includes a voice command.

音声コマンドが含まれている場合、ステップS204において、電子ペン200のコントローラ270は、当該音声コマンドに対応するデータを、電子ペン200の通信インターフェイス260を介して情報表示装置100に送信する。情報表示装置100の音声入力部121は、電子ペン200から音声コマンドに対応するデータを取得することにより音声入力を受け付け、音声コマンドに対応するデータを情報表示装置100のコントローラ180に出力する。   When the voice command is included, in step S204, the controller 270 of the electronic pen 200 transmits the data corresponding to the voice command to the information display device 100 via the communication interface 260 of the electronic pen 200. The voice input unit 121 of the information display device 100 accepts voice input by acquiring data corresponding to the voice command from the electronic pen 200, and outputs the data corresponding to the voice command to the controller 180 of the information display device 100.

ステップS205において、情報表示装置100のコントローラ180は、音声入力部121から入力された音声コマンドに対応するデータに応じて、表示部112における手書きの軌跡の表示態様を制御する。   In step S205, the controller 180 of the information display device 100 controls the display mode of the handwritten locus on the display unit 112 according to the data corresponding to the voice command input from the voice input unit 121.

なお、電子ペン200のコントローラ270は、手書き入力アプリケーションが終了されたことを情報表示装置100から通知された際に、音声認識処理を終了してもよい。   The controller 270 of the electronic pen 200 may end the voice recognition process when the information display device 100 notifies that the handwriting input application is ended.

或いは、電子ペン200のコントローラ270は、電子ペン200の操作部210が押下されている間において音声認識を有効としてもよい。この場合、電子ペン200のコントローラ270は、電子ペン200の操作部210に対して押下解除(第2の操作)がなされたことに応じて、音声認識処理を終了してもよい。   Alternatively, the controller 270 of the electronic pen 200 may enable voice recognition while the operation unit 210 of the electronic pen 200 is being pressed. In this case, the controller 270 of the electronic pen 200 may end the voice recognition process in response to the pressing release (second operation) performed on the operation unit 210 of the electronic pen 200.

或いは、電子ペン200のコントローラ270は、タッチ状態において音声認識を有効としてもよい。この場合、電子ペン200のコントローラ270は、電子ペン200の筆圧センサが圧力を検出しなくなったことに応じて、音声認識処理を終了してもよい。   Alternatively, the controller 270 of the electronic pen 200 may enable voice recognition in the touch state. In this case, the controller 270 of the electronic pen 200 may end the voice recognition process when the writing pressure sensor of the electronic pen 200 no longer detects the pressure.

(その他の実施形態)
上記の実施形態において、電子ペン200が情報表示装置100に収納可能である場合について特に触れなかったが、情報表示装置100に電子ペン200の収納部が設けられ、電子ペン200が情報表示装置100に収納可能であってもよい。
(Other embodiments)
In the above embodiment, the case where the electronic pen 200 can be housed in the information display device 100 was not particularly touched. It may be able to be stored in.

情報表示装置100が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD−ROMやDVD−ROM等の記録媒体であってもよい。   A program that causes a computer to execute each process performed by the information display device 100 may be provided. The program may be recorded on a computer-readable medium. A computer readable medium can be used to install the program on a computer. Here, the computer-readable medium in which the program is recorded may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, but may be a recording medium such as a CD-ROM or a DVD-ROM.

以上、図面を参照して一実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。   Although one embodiment has been described in detail above with reference to the drawings, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the invention. ..

100 :情報表示装置
101 :筐体
110 :タッチスクリーンディスプレイ
111 :タッチパネル
112 :表示部
120 :マイク
121 :音声入力部
130 :スピーカ
131 :音声出力部
140 :カメラ
150 :センサ
160 :記憶部
170 :通信インターフェイス
180 :コントローラ
200 :電子ペン
201 :筐体
202 :クリップ部
203 :芯体
210 :操作部
220 :マイク
230 :スピーカ
240 :センサ
250 :記憶部
260 :通信インターフェイス
270 :コントローラ
100: information display device 101: housing 110: touch screen display 111: touch panel 112: display unit 120: microphone 121: voice input unit 130: speaker 131: voice output unit 140: camera 150: sensor 160: storage unit 170: communication Interface 180: Controller 200: Electronic pen 201: Case 202: Clip part 203: Core 210: Operation part 220: Microphone 230: Speaker 240: Sensor 250: Storage part 260: Communication interface 270: Controller

Claims (15)

指示体による手書き入力を受け付けるタッチパネルと、
前記タッチパネルが受け付けた手書きの文字又は図形を表示する表示部と、
音声コマンドを含む音声入力を受け付ける音声入力部と、
手書き入力状態において前記音声入力部が入力を受け付けた音声コマンドに応じて、前記表示部が表示する文字又は図形の表示態様を変更するコントローラと、を備え、
前記表示態様は、文字の色、文字の大きさ、文字の太さ、文字のフォント、文字の装飾、図形の色、図形の大きさ、図形の線幅、及び図形の形状のうち、少なくとも1つを含む
情報表示装置。
A touch panel that accepts handwriting input with an indicator,
A display unit for displaying handwritten characters or figures accepted by the touch panel;
A voice input unit that receives voice input including voice commands,
In a handwriting input state, a controller that changes a display mode of a character or a graphic displayed by the display unit according to a voice command received by the voice input unit,
The display mode is at least one of character color, character size, character thickness, character font, character decoration, graphic color, graphic size, graphic line width, and graphic shape. Information display device including one.
前記指示体は、マイクを有しており且つ前記情報表示装置と通信可能な電子ペンであり、
前記音声入力部は、前記マイクに入力される音声に応じた音声コマンドを含む音声データを前記電子ペンから取得することにより、前記音声入力を受け付ける
請求項1に記載の情報表示装置。
The indicator is an electronic pen having a microphone and capable of communicating with the information display device,
The information display device according to claim 1, wherein the voice input unit receives the voice input by acquiring voice data including a voice command corresponding to a voice input to the microphone from the electronic pen.
前記表示部は、情報を表示する表示面を有し、
前記タッチパネルは、前記表示面に対する前記指示体のタッチを検知し、
前記手書き入力状態は、前記表示面に前記指示体がタッチしているタッチ状態を含む
請求項1又は2に記載の情報表示装置。
The display unit has a display surface for displaying information,
The touch panel detects a touch of the indicator on the display surface,
The information display device according to claim 1, wherein the handwriting input state includes a touch state in which the indicator touches the display surface.
前記手書き入力状態は、前記表示面から前記指示体が離れたタイミングから所定時間が経過するまでの間の非タッチ状態をさらに含む
請求項3に記載の情報表示装置。
The information display device according to claim 3, wherein the handwriting input state further includes a non-touch state from a timing when the pointer is separated from the display surface until a predetermined time elapses.
前記手書き入力状態は、前記表示面に前記指示体がタッチするタイミングから所定時間前までの非タッチ状態をさらに含む
請求項3又は4に記載の情報表示装置。
The information display device according to claim 3, wherein the handwriting input state further includes a non-touch state from a timing when the indicator touches the display surface to a predetermined time before.
前記コントローラは、前記手書き入力状態において、
前記音声入力部が受け付けた前記音声入力に含まれる音声コマンドを認識し、
所定の音声コマンドを認識したことに応じて、前記表示部における前記手書きの文字又は図形の表示態様を変更する
請求項1乃至5のいずれか1項に記載の情報表示装置。
The controller, in the handwriting input state,
Recognizing a voice command included in the voice input accepted by the voice input unit,
The information display device according to claim 1, wherein a display mode of the handwritten character or figure on the display unit is changed in response to recognition of a predetermined voice command.
前記コントローラは、手書き入力アプリケーションが起動されたことに応じて、前記音声入力部が受け付けた音声入力に含まれる音声コマンドを認識するための音声認識処理を開始する
請求項6に記載の情報表示装置。
The information display device according to claim 6, wherein the controller starts voice recognition processing for recognizing a voice command included in the voice input accepted by the voice input unit, in response to activation of a handwriting input application. .
前記コントローラは、前記手書き入力アプリケーションが終了されたことに応じて、前記音声認識処理を終了する
請求項7に記載の情報表示装置。
The information display device according to claim 7, wherein the controller ends the voice recognition process in response to the end of the handwriting input application.
前記指示体は、操作部を有しており且つ前記情報表示装置と通信可能な電子ペンであり、
前記コントローラは、前記手書き入力アプリケーションが起動されており、且つ前記操作部に対して第1の操作がなされたことに応じて、前記音声認識処理を開始する
請求項7又は8に記載の情報表示装置。
The indicator is an electronic pen having an operation unit and capable of communicating with the information display device,
The information display according to claim 7 or 8, wherein the controller starts the voice recognition process in response to the handwriting input application being activated and the first operation being performed on the operation unit. apparatus.
前記コントローラは、前記操作部に対して第2の操作がなされたことに応じて、前記音声認識処理を終了する
請求項9に記載の情報表示装置。
The information display device according to claim 9, wherein the controller ends the voice recognition process in response to a second operation performed on the operation unit.
前記指示体は、筆圧センサを有しており且つ前記情報表示装置と通信可能な電子ペンであり、
前記コントローラは、前記手書き入力アプリケーションが起動されており、且つ前記筆圧センサが圧力を検出したことに応じて、前記音声認識処理を開始する
請求項7又は8に記載の情報表示装置。
The indicator is an electronic pen having a writing pressure sensor and capable of communicating with the information display device,
The information display device according to claim 7, wherein the controller starts the voice recognition process in response to the handwriting input application being activated and the writing pressure sensor detecting pressure.
前記コントローラは、前記筆圧センサが圧力を検出しなくなったことに応じて、前記音声認識処理を終了する
請求項11に記載の情報表示装置。
The information display device according to claim 11, wherein the controller ends the voice recognition process when the writing pressure sensor stops detecting pressure.
請求項1乃至12のいずれか1項に記載の指示体として機能する
電子ペン。
An electronic pen that functions as the indicator according to claim 1.
指示体による手書き入力を受け付けるタッチパネルを有する情報表示装置に用いる表示制御方法であって、
手書き入力状態において、音声コマンドを含む音声入力を受け付ける音声入力ステップと、
前記タッチパネルが受け付けた手書きの文字又は図形を表示する表示ステップと、
前記音声入力ステップで入力を受け付けた音声コマンドに応じて、前記表示ステップにおける手書きの文字又は図形の表示態様を変更する変更ステップと、を備え、
前記表示態様は、文字の色、文字の大きさ、文字の太さ、文字のフォント、文字の装飾、図形の色、図形の大きさ、図形の線幅、及び図形の形状のうち、少なくとも1つを含む
表示制御方法。
A display control method used for an information display device having a touch panel that accepts handwriting input by an indicator,
A voice input step of receiving voice input including a voice command in the handwriting input state;
A display step of displaying handwritten characters or graphics accepted by the touch panel;
A change step of changing the display mode of the handwritten character or graphic in the display step according to the voice command received in the voice input step,
The display mode is at least one of character color, character size, character thickness, character font, character decoration, graphic color, graphic size, graphic line width, and graphic shape. Display control method including two.
指示体による手書き入力を受け付けるタッチパネルを有する情報表示装置に、
手書き入力状態において、音声コマンドを含む音声入力を受け付ける音声入力ステップと、
前記タッチパネルが受け付けた手書きの文字又は図形を表示する表示ステップと、
前記音声入力ステップで入力を受け付けた音声コマンドに応じて、前記表示ステップにおける手書きの文字又は図形の表示態様を変更する変更ステップと、を実行させ、
前記表示態様は、文字の色、文字の大きさ、文字の太さ、文字のフォント、文字の装飾、図形の色、図形の大きさ、図形の線幅、及び図形の形状のうち、少なくとも1つを含む
表示制御プログラム。
In an information display device having a touch panel that accepts handwriting input by an indicator,
A voice input step of receiving voice input including a voice command in the handwriting input state;
A display step of displaying handwritten characters or graphics accepted by the touch panel;
A changing step of changing the display mode of the handwritten character or figure in the displaying step, in response to the voice command received in the voice input step,
The display mode is at least one of character color, character size, character thickness, character font, character decoration, graphic color, graphic size, graphic line width, and graphic shape. Display control program including one.
JP2018203311A 2018-10-29 2018-10-29 Information display device, electronic pen, display control method, and display control program Active JP7257126B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018203311A JP7257126B2 (en) 2018-10-29 2018-10-29 Information display device, electronic pen, display control method, and display control program
PCT/JP2019/038499 WO2020090317A1 (en) 2018-10-29 2019-09-30 Information display device, electronic instrument, electronic pen, system, method, and program
US17/288,297 US20210382684A1 (en) 2018-10-29 2019-09-30 Information display apparatus, electronic device, electronic pen, system, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018203311A JP7257126B2 (en) 2018-10-29 2018-10-29 Information display device, electronic pen, display control method, and display control program

Publications (2)

Publication Number Publication Date
JP2020071544A true JP2020071544A (en) 2020-05-07
JP7257126B2 JP7257126B2 (en) 2023-04-13

Family

ID=70547852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018203311A Active JP7257126B2 (en) 2018-10-29 2018-10-29 Information display device, electronic pen, display control method, and display control program

Country Status (1)

Country Link
JP (1) JP7257126B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113094801A (en) * 2021-04-30 2021-07-09 土巴兔集团股份有限公司 Decoration simulation image generation method, device, equipment and medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214701A (en) * 1993-01-12 1994-08-05 Sony Corp Information processor
JPH0713687A (en) * 1993-06-25 1995-01-17 Casio Comput Co Ltd Handwriting input device
JPH11184633A (en) * 1997-12-18 1999-07-09 Ricoh Co Ltd Pen input device
US20060287864A1 (en) * 2005-06-16 2006-12-21 Juha Pusa Electronic device, computer program product and voice control method
JP2007048177A (en) * 2005-08-12 2007-02-22 Canon Inc Information processing method and information processing device
JP2010086542A (en) * 2008-10-02 2010-04-15 Wacom Co Ltd Input system and input method
JP2014010836A (en) * 2012-06-29 2014-01-20 Samsung Electronics Co Ltd Multiple input processing method and device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214701A (en) * 1993-01-12 1994-08-05 Sony Corp Information processor
JPH0713687A (en) * 1993-06-25 1995-01-17 Casio Comput Co Ltd Handwriting input device
JPH11184633A (en) * 1997-12-18 1999-07-09 Ricoh Co Ltd Pen input device
US20060287864A1 (en) * 2005-06-16 2006-12-21 Juha Pusa Electronic device, computer program product and voice control method
JP2007048177A (en) * 2005-08-12 2007-02-22 Canon Inc Information processing method and information processing device
JP2010086542A (en) * 2008-10-02 2010-04-15 Wacom Co Ltd Input system and input method
JP2014010836A (en) * 2012-06-29 2014-01-20 Samsung Electronics Co Ltd Multiple input processing method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113094801A (en) * 2021-04-30 2021-07-09 土巴兔集团股份有限公司 Decoration simulation image generation method, device, equipment and medium
CN113094801B (en) * 2021-04-30 2022-07-12 土巴兔集团股份有限公司 Decoration simulation image generation method, device, equipment and medium

Also Published As

Publication number Publication date
JP7257126B2 (en) 2023-04-13

Similar Documents

Publication Publication Date Title
WO2020090317A1 (en) Information display device, electronic instrument, electronic pen, system, method, and program
US11907446B2 (en) Devices and methods for creating calendar events based on hand-drawn inputs at an electronic device with a touch-sensitive display
JP5204305B2 (en) User interface apparatus and method using pattern recognition in portable terminal
KR102003255B1 (en) Method and apparatus for processing multiple inputs
US10222968B2 (en) Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method
KR102594951B1 (en) Electronic apparatus and operating method thereof
KR20100127525A (en) Apparatus and method for unlocking a locking mode of portable terminal
TWI510994B (en) Electronic apparatus and method for controlling the same
KR102102663B1 (en) Method and apparatus for using a portable terminal
KR20100020389A (en) Input method using size of touching spot and device thereof
CN109656435B (en) Display control device and recording medium
JP2014081800A (en) Handwriting input device and function control program
US10755461B2 (en) Display device, display method, and recording medium
JP7257126B2 (en) Information display device, electronic pen, display control method, and display control program
JP7240134B2 (en) Information display device, electronic pen, display control method, and display control program
CN108319423A (en) A kind of one-handed performance method and device showing map on the touchscreen
JP7228365B2 (en) Information display device, electronic pen, display control method, and display control program
KR102266191B1 (en) Mobile terminal and method for controlling screen
JP2020071548A (en) Pen input system, information display device, electronic pen, control method and program
JP5864050B2 (en) INPUT DEVICE, CONTROL METHOD FOR INPUT DEVICE, CONTROL PROGRAM, AND RECORDING MEDIUM
JPWO2017072913A1 (en) Control method, electronic blackboard system, display device, and program
CN110914795A (en) Writing board, writing board assembly and writing method of writing board
KR100722346B1 (en) Image display method, computer-readable storage medium, and information device
JP2013254340A (en) Information processing device, electronic apparatus, control program, and display device controlling method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230403

R150 Certificate of patent or registration of utility model

Ref document number: 7257126

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150