JP2022119463A - Display, display method, and program - Google Patents

Display, display method, and program Download PDF

Info

Publication number
JP2022119463A
JP2022119463A JP2021016604A JP2021016604A JP2022119463A JP 2022119463 A JP2022119463 A JP 2022119463A JP 2021016604 A JP2021016604 A JP 2021016604A JP 2021016604 A JP2021016604 A JP 2021016604A JP 2022119463 A JP2022119463 A JP 2022119463A
Authority
JP
Japan
Prior art keywords
display
voice
correction
touch operation
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021016604A
Other languages
Japanese (ja)
Inventor
佳彦 下平
Yoshihiko Shimodaira
進 藤岡
Susumu Fujioka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2021016604A priority Critical patent/JP2022119463A/en
Publication of JP2022119463A publication Critical patent/JP2022119463A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To improve operability in display of characters through voice recognition.SOLUTION: A display comprises: a voice processing unit that, when a first touch operation to a screen is detected, receives input of voice and converts the input voice into characters through voice recognition; and a display control unit performs control of displaying the characters obtained through the conversion at a position on the screen where the first touch operation is received. When a second touch operation to the characters displayed through the voice recognition is detected, the voice processing unit receives the second touch operation as an operation to correct the characters.SELECTED DRAWING: Figure 4

Description

本発明は、表示装置、表示方法およびプログラムに関する。 The present invention relates to a display device, display method and program.

音声の入力を受け付けて、入力された音声を音声認識によって文字に変換して表示する表示装置が開示されている。 A display device is disclosed that accepts voice input, converts the input voice into characters by voice recognition, and displays the characters.

例えば、特許文献1には、音声受付手段が受け付けた音声のテキストデータに係る文字の表示部への表示属性を決定し、決定された表示属性に基づき文字を表示する入力表示装置が開示されている。表示属性とは、例えば、表示すべき文字又は文字列の表示開始及び表示終了位置、フォントサイズ、縦書きまたは横書き等である。 For example, Patent Literature 1 discloses an input display device that determines display attributes of characters related to text data of voice received by a voice receiving means on a display unit, and displays characters based on the determined display attributes. there is The display attributes are, for example, display start and display end positions of characters or character strings to be displayed, font size, vertical writing or horizontal writing, and the like.

従来の技術では、音声認識による文字表示において、音声認識を開始するタイミングの指定、文字を表示する位置の指定および表示された文字の訂正等の操作が煩雑であり、操作性が低いという問題がある。 In the conventional technology, in character display by voice recognition, operations such as specifying the timing to start voice recognition, specifying the position to display characters, and correcting the displayed characters are complicated, and the operability is low. be.

開示の技術は、音声認識による文字表示における操作性を向上させることを目的とする。 An object of the technology disclosed herein is to improve operability in character display by voice recognition.

開示の技術は、画面への第一のタッチ操作が検出されると、音声の入力を受け付けて、入力された音声を音声認識によって文字に変換する音声処理部と、前記画面における前記第一のタッチ操作を受けた位置に、変換された前記文字を表示する制御を行う表示制御部と、を備え、前記音声処理部は、前記音声認識によって表示された文字への第二のタッチ操作が検出されると、前記第二のタッチ操作を前記文字の訂正操作として受け付ける表示装置である。 The disclosed technology includes a voice processing unit that receives voice input and converts the input voice into characters by voice recognition when a first touch operation on the screen is detected; a display control unit that performs control to display the converted character at the position where the touch operation is received, and the voice processing unit detects a second touch operation on the character displayed by the voice recognition. Then, the display device accepts the second touch operation as the character correction operation.

音声認識による文字表示における操作性を向上させることができる。 It is possible to improve operability in character display by voice recognition.

表示装置の全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of a display apparatus. 表示装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a display apparatus. ペンの斜視図の一例を示す図である。It is a figure which shows an example of the perspective view of a pen. 表示装置の機能の一例を示す図である。It is a figure which shows an example of the function of a display apparatus. 音声処理の流れの一例を示すシーケンス図である。FIG. 4 is a sequence diagram showing an example of the flow of audio processing; 音声処理に係る表示画面の一例を示す第一の図である。FIG. 4 is a first diagram showing an example of a display screen related to audio processing; 音声処理に係る表示画面の一例を示す第二の図である。FIG. 11 is a second diagram showing an example of a display screen related to audio processing; 音声処理に係る表示画面の一例を示す第三の図である。FIG. 11 is a third diagram showing an example of a display screen related to audio processing; 表示装置の他の構成例を示す第一の図である。FIG. 11 is a first diagram showing another configuration example of the display device; 表示装置の他の構成例を示す第二の図である。FIG. 11 is a second diagram showing another configuration example of the display device; 表示装置の他の構成例を示す第三の図である。FIG. 13 is a third diagram showing another configuration example of the display device; 表示装置の他の構成例を示す第四の図である。FIG. 14 is a fourth diagram showing another configuration example of the display device;

以下に図面を参照して、本発明の実施の形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.

まず、本実施形態に係る用語について説明する。手書きデータとは、ディスプレー上でユーザが入力手段を連続的に移動させた座標点列を軌跡として表示したデータである。また、ユーザがディスプレーに入力手段を押しつけてから連続的に移動させた後、ディスプレーから離すという一連の操作をストロークといい、ストロークにより手書きされたデータをストロークデータという。ストロークデータは、座標点列を示す座標群とも言える。 First, the terms used in this embodiment will be explained. Handwritten data is data in which a sequence of coordinate points is displayed as a trajectory on a display by continuously moving the input means by the user. A series of operations in which the user presses the input means against the display, moves it continuously, and then releases it from the display is called a stroke, and data handwritten by the stroke is called stroke data. The stroke data can also be said to be a coordinate group representing a coordinate point sequence.

手書きデータは1つ以上のストロークデータを有する。具体的には、手書きデータは、ストロークが終了してから次のストロークを開始するまでの時間、すなわち、入力手段をディスプレーから離してから接触させるまでの時間が、所定の時間よりも短い複数のストロークデータをまとめたデータである。したがって、手書きデータは、手書きデータが有するストロークデータが示す座標群を含む。 Handwritten data has one or more stroke data. Specifically, the handwritten data is a plurality of characters whose time from the end of a stroke to the start of the next stroke, that is, the time from when the input means is separated from the display to when the input means is brought into contact with the display is shorter than a predetermined time. This data is a collection of stroke data. Therefore, handwritten data includes a group of coordinates indicated by stroke data of the handwritten data.

入力手段は、ディスプレーの座標を指定して手書きデータを入力するための手段である。例えば、ペン、人の指や手、棒状部材などは、入力手段の一例である。 The input means is means for inputting handwritten data by designating the coordinates of the display. For example, a pen, a human finger or hand, a rod-shaped member, etc. are examples of input means.

次に、表示装置の構成について説明する。 Next, the configuration of the display device will be described.

図1は、表示装置の全体構成の一例を示す図である。 FIG. 1 is a diagram showing an example of the overall configuration of a display device.

(a)では、表示装置2の一例として、壁につり下げられた横長の電子黒板として使用される表示装置2を示している。 (a) shows, as an example of the display device 2, a display device 2 used as a horizontally long electronic blackboard hung on a wall.

(b)は壁につり下げられた縦長の電子黒板として使用される表示装置2を示している。 (b) shows the display device 2 used as a vertically long electronic blackboard hung on a wall.

(c)は机230に平置きされた表示装置2を示す。表示装置2は厚みが1cm程度なので、一般の机に平置きしても机の高さを調整する必要がない。また、容易に移動できる。 (c) shows the display device 2 laid flat on the desk 230 . Since the display device 2 has a thickness of about 1 cm, it is not necessary to adjust the height of the desk even if the display device 2 is placed flat on a general desk. Also, it can be easily moved.

表示装置2には表示部の一例としてのディスプレー220が設置されている。ユーザUは、ペン2500を用いて、ディスプレー220に文字等を手書きする(入力、描画ともいう)ことができる。 The display device 2 is provided with a display 220 as an example of a display section. The user U can use the pen 2500 to handwrite characters or the like on the display 220 (also referred to as input or drawing).

図2は、表示装置のハードウェア構成の一例を示す図である。 FIG. 2 is a diagram illustrating an example of a hardware configuration of a display device;

表示装置2は、情報処理装置又はコンピュータの構成を有している。表示装置2は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、及び、SSD(Solid State Drive)204を備えている。 The display device 2 has a configuration of an information processing device or a computer. The display device 2 includes a CPU (Central Processing Unit) 201 , ROM (Read Only Memory) 202 , RAM (Random Access Memory) 203 , and SSD (Solid State Drive) 204 .

CPU201は、表示装置2全体の動作を制御する。ROM202は、CPU201およびIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、表示装置2用のプログラム等の各種データを記憶する。 The CPU 201 controls the operation of the display device 2 as a whole. The ROM 202 stores programs used to drive the CPU 201, such as the CPU 201 and an IPL (Initial Program Loader). A RAM 203 is used as a work area for the CPU 201 . The SSD 204 stores various data such as programs for the display device 2 .

また、表示装置2は、ディスプレーコントローラ213、タッチセンサコントローラ215、タッチセンサ216、ディスプレー220、電源スイッチ227、チルトセンサ217、シリアルインターフェイス218、スピーカ219、マイク221、無線通信装置222、赤外線I/F223、電源制御回路224、ACアダプター225、及びバッテリー226を備えている。 The display device 2 also includes a display controller 213, a touch sensor controller 215, a touch sensor 216, a display 220, a power switch 227, a tilt sensor 217, a serial interface 218, a speaker 219, a microphone 221, a wireless communication device 222, and an infrared I/F 223. , a power control circuit 224 , an AC adapter 225 and a battery 226 .

ディスプレーコントローラ213は、出力画像をディスプレー220等へ出力するために画面表示の制御及び管理を行う。タッチセンサ216は、ディスプレー220上にペン2500やユーザの手等(ペンやユーザの手は入力手段となる)が接触したことを検知する。また、タッチセンサ216はペンIDを受信する。 A display controller 213 controls and manages screen display in order to output an output image to the display 220 or the like. The touch sensor 216 detects that the pen 2500 , the user's hand, or the like (the pen or the user's hand serves as input means) touches the display 220 . Also, the touch sensor 216 receives the pen ID.

タッチセンサコントローラ215は、タッチセンサ216の処理を制御する。タッチセンサ216は、座標の入力及び座標の検出を行う。具体的には、例えば、光学式の場合、ディスプレー220の上側両端部に設置された2つ受発光装置が、ディスプレー220に平行して複数の赤外線を放射する。そして、当該2つの受発光装置が、ディスプレー220の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する。 A touch sensor controller 215 controls the processing of the touch sensor 216 . The touch sensor 216 performs coordinate input and coordinate detection. Specifically, for example, in the case of an optical system, two light emitting/receiving devices installed at both ends of the upper side of the display 220 radiate a plurality of infrared rays in parallel with the display 220 . The two light emitting/receiving devices receive the light reflected by the reflecting members provided around the display 220 and returning on the same optical path as the light emitted by the light receiving element.

タッチセンサ216は、物体によって遮断された2つの受発光装置が放射した赤外線の位置情報をタッチセンサコントローラ215に出力する。タッチセンサコントローラ215は、物体の接触位置である座標位置を特定する。また、タッチセンサコントローラ215は、通信ユニット215aを有しており、ペン2500と無線で通信することができる。 The touch sensor 216 outputs to the touch sensor controller 215 the positional information of the infrared rays emitted by the two light emitting/receiving devices blocked by the object. The touch sensor controller 215 identifies the coordinate position, which is the contact position of the object. The touch sensor controller 215 also has a communication unit 215a and can wirelessly communicate with the pen 2500 .

例えば、Bluetooth(登録商標)などの規格に従って通信している場合は、市販されているペンを使用することができる。通信ユニット215aに予め1つ以上のペン2500が登録されていると、ユーザはペン2500を表示装置2と通信させる接続設定を行わなくても通信できる。 For example, when communicating according to a standard such as Bluetooth (registered trademark), a commercially available pen can be used. If one or more pens 2500 are registered in advance in the communication unit 215a, the user can communicate without performing connection settings for communicating the pens 2500 with the display device 2. FIG.

電源スイッチ227は、表示装置2の電源のON/OFFを切り換えるためのスイッチである。チルトセンサ217は、表示装置2の傾き角度を検出するセンサである。表示装置2は、チルトセンサ217によって測定される設置状態に応じて、文字等の太さを自動で変更することができる。 The power switch 227 is a switch for switching ON/OFF of the power of the display device 2 . The tilt sensor 217 is a sensor that detects the tilt angle of the display device 2 . The display device 2 can automatically change the thickness of characters and the like according to the installation state measured by the tilt sensor 217 .

シリアルインターフェイス218はUSBなどの外部との通信インターフェイスであって、外部から情報を入力する。スピーカ219は、音声を出力する。マイク221は、音声を入力する。無線通信装置222は、ユーザが携帯する端末と通信し、例えばインターネットへの接続を中継する。無線通信装置222はWi-Fi(登録商標)またはBluetooth(登録商標)などの規格に沿って通信するが、どのような規格に沿って通信しても良い。無線通信装置222はアクセスポイントを形成しており、ユーザが入手したSSID(Service Set Identifier)とパスワードをユーザが携帯する端末に設定すると、当該端末は、アクセスポイントを形成している無線通信装置222に接続できる。 A serial interface 218 is a communication interface with the outside, such as a USB, and inputs information from the outside. Speaker 219 outputs sound. Microphone 221 inputs voice. The wireless communication device 222 communicates with a terminal carried by the user, and relays connection to the Internet, for example. The wireless communication device 222 communicates according to standards such as Wi-Fi (registered trademark) or Bluetooth (registered trademark), but may communicate according to any standard. The wireless communication device 222 forms an access point, and when the SSID (Service Set Identifier) and password obtained by the user are set in the terminal carried by the user, the terminal can access the wireless communication device 222 forming the access point. can connect to

なお、無線通信装置222には例えば下記の2つのアクセスポイントを形成している。
a.アクセスポイント→インターネット
b.アクセスポイント→社内ネットワーク→インターネット
aのアクセスポイントは社外のユーザ用である。aのアクセスポイントに接続された端末は、社内ネットワークにはアクセスできないが、インターネットを利用できる。bのアクセスポイントは社内のユーザ用である。bのアクセスポイントに接続された端末は、ユーザは社内ネットワーク及びインターネットを利用できる。
The wireless communication device 222 has, for example, the following two access points.
a. Access point→Internet b. Access point→internal network→Internet The access point a is for users outside the company. A terminal connected to the access point a cannot access the company network, but can use the Internet. The access point b is for in-house users. The terminal connected to the access point b allows the user to use the company network and the Internet.

赤外線I/F223は隣に配置された表示装置2を検出する。赤外線の直進性を利用して、隣に配置された表示装置2のみを検出できる。赤外線I/F223は各辺に1つずつ設けられることが好ましく、表示装置2のどの方向に他の表示装置2が配置されたのかを検出できる。これにより画面が広がり、隣の表示装置2に過去に手書きされた手書き情報(1つのディスプレー220の広さを1ページとして別のページの手書き情報)等を表示できる。 The infrared I/F 223 detects the display device 2 arranged next to it. Only the display device 2 arranged next to it can be detected by using the straightness of infrared rays. It is preferable that one infrared I/F 223 is provided on each side, and it is possible to detect in which direction of the display device 2 another display device 2 is arranged. As a result, the screen is widened, and handwritten information handwritten in the past (handwritten information on another page with the size of one display 220 as one page) or the like can be displayed on the adjacent display device 2 .

電源制御回路224は表示装置2の電源であるACアダプター225とバッテリー226を制御する。ACアダプター225は商用電源が共有する交流を直流に変換する。 A power control circuit 224 controls an AC adapter 225 and a battery 226 that are power sources for the display device 2 . The AC adapter 225 converts alternating current shared by commercial power supplies into direct current.

ディスプレー220がいわゆる電子ペーパーの場合、画像の表示を維持するためにほとんど又は一切電力を消費しないので、バッテリー226による駆動も可能である。これにより、屋外など電源を接続しにくい場所でもデジタルサイネージなどの用途で表示装置2を使用することが可能になる。 If the display 220 is so-called electronic paper, it can be driven by a battery 226 as it consumes little or no power to maintain the image display. This makes it possible to use the display device 2 for applications such as digital signage even in places where it is difficult to connect to a power source, such as outdoors.

更に、表示装置2は、バスライン210を備えている。バスライン210は、図2に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Furthermore, the display device 2 has a bus line 210 . A bus line 210 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 201 shown in FIG.

なお、タッチセンサ216は、光学式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式の検出手段、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式の検出手段、または接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式の検出手段など種々の検出手段を備えていてもよい。タッチセンサ216は、ペン先のタッチの有無を検知するのに電子ペンが不要な方式であっても良い。この場合はタッチ操作をするのに指先やペン型の棒を使用できる。なお、ペン2500は、細長いペン型の形状でなくても良い。 Note that the touch sensor 216 is not limited to an optical type, and may be a capacitive detection means that identifies a contact position by detecting a change in capacitance, or a contact position that is identified by a voltage change of two opposing resistive films. Various detection means may be provided, such as a resistance film type detection means that detects the contact position, or an electromagnetic induction type detection means that detects the electromagnetic induction caused by the contact of the contact object with the display section and specifies the contact position. The touch sensor 216 may be of a type that does not require an electronic pen to detect whether or not the pen tip is touched. In this case, a fingertip or a pen-shaped stick can be used for touch operation. It should be noted that the pen 2500 does not have to have an elongated pen shape.

図3は、ペンの斜視図の一例を示す図である。 FIG. 3 is a diagram showing an example of a perspective view of a pen.

電源を内蔵して表示装置2に命令を送信できるペン2500をアクティブペンという(電源を内蔵しないペンをパッシブペンという)。図3のペン2500は、物理的なスイッチをペン先に一つ、ペン尻に一つおよびペン側面に二つ備えている。ペン先のスイッチが筆記用であり、ペン尻が消去用であり、ペン側面のスイッチがユーザ機能割り当て用である。本実施形態のペン2500は不揮発性のメモリを有しており、他のペンと重複しないペンIDを記憶している。 A pen 2500 that incorporates a power supply and can transmit commands to the display device 2 is called an active pen (a pen that does not incorporate a power supply is called a passive pen). The pen 2500 of FIG. 3 has physical switches, one on the tip of the pen, one on the back of the pen, and two on the sides of the pen. A switch on the tip of the pen is for writing, a switch on the bottom of the pen is for erasing, and a switch on the side of the pen is for assigning user functions. The pen 2500 of this embodiment has a non-volatile memory and stores a pen ID that does not overlap with other pens.

なお、スイッチ付きのペンであれば、ユーザの表示装置2の操作手順を減らすことも可能である。スイッチ付きのペンとは主にアクティブペンを言うが、電磁誘導方式では電源を内蔵しないパッシブペンでもLC回路だけで電力を発生できるため、アクティブペンだけでなく電磁誘導方式のパッシブペンを含む。電磁誘導方式以外の光学方式、赤外線方式、及び、静電容量方式のスイッチのあるペンはアクティブペンである。 It should be noted that if a pen with a switch is used, it is also possible to reduce the user's operation procedure of the display device 2 . A pen with a switch mainly refers to an active pen, but in the electromagnetic induction system, even a passive pen that does not have a built-in power supply can generate power only with an LC circuit, so it includes not only an active pen but also an electromagnetic induction passive pen. Pens with optical, infrared, and capacitance switches other than electromagnetic induction switches are active pens.

なお、ペン2500のハードウェア構成は、通信機能とマイコンを備えた一般的な制御方式と同様である。ペン2500の座標の入力方式には、電磁誘導方式またはアクティブ静電結合方式などがある。また、ペン2500は、筆圧検知、傾き検知またはホバー機能(ペンが触れる前にカーソルを表示)などの機能を有していても良い。 Note that the hardware configuration of the pen 2500 is the same as a general control system having a communication function and a microcomputer. Methods for inputting the coordinates of the pen 2500 include an electromagnetic induction method, an active electrostatic coupling method, and the like. The pen 2500 may also have functions such as pen pressure detection, tilt detection, or a hover function (displaying a cursor before the pen touches it).

図4は、表示装置の機能の一例を示す図である。 FIG. 4 is a diagram illustrating an example of functions of the display device.

表示装置2は、接触位置検出部21と、描画データ生成部22と、文字認識部23と、接触処理部24と、音声処理部25と、表示制御部26と、データ記録部27と、ネットワーク通信部28と、操作受付部29と、記憶部30と、を備える。 The display device 2 includes a contact position detection unit 21, a drawing data generation unit 22, a character recognition unit 23, a contact processing unit 24, an audio processing unit 25, a display control unit 26, a data recording unit 27, a network A communication unit 28 , an operation reception unit 29 , and a storage unit 30 are provided.

表示装置2が備える各部は、図2に示されている各構成要素のいずれかが、SSD204からRAM203上に展開されたプログラムに従ったCPU201からの命令によって動作することで実現される。 Each part provided in the display device 2 is realized by operating one of the components shown in FIG.

接触位置検出部21は、ペン2500のペン先がディスプレー220に接触した位置の座標を検出する。接触位置検出部21は、タッチセンサコントローラ215とタッチセンサ216により実現される。接触位置検出部21は、入力手段によって手書きデータの入力を受け付ける受付手段の一例である。 The contact position detection unit 21 detects the coordinates of the position where the pen tip of the pen 2500 contacts the display 220 . The contact position detection unit 21 is implemented by the touch sensor controller 215 and the touch sensor 216 . The contact position detection unit 21 is an example of receiving means for receiving input of handwritten data by the input means.

描画データ生成部22は、ペン2500のペン先がディスプレー220に接触した座標を接触位置検出部21から短い時間間隔で複数回に亘って取得して、取得した複数の座標を補間することによって接続された画像を示す描画データを生成する。すなわち、描画データ生成部22は、手書きデータに基づく画像を示す描画データを生成する。 The drawing data generation unit 22 acquires coordinates at which the pen tip of the pen 2500 touches the display 220 from the contact position detection unit 21 a plurality of times at short time intervals, and connects by interpolating the acquired coordinates. Generates rendering data representing the rendered image. That is, the drawing data generator 22 generates drawing data representing an image based on handwritten data.

文字認識部23はユーザが手書きした1つ以上のストロークデータ(手書きデータ)に対し文字認識処理を行い、文字コードに変換する。文字認識部23は、ユーザのペン操作と並行して文字(日本語だけでなく英語などの多国語)、数字、記号(%、$、&など)、図形(線、丸、三角など)等を認識していく。認識方法については様々なアルゴリズムが考案されているが、本実施形態では公知の技術を利用できるとして詳細を割愛する。 The character recognition unit 23 performs character recognition processing on one or more stroke data (handwritten data) handwritten by the user and converts them into character codes. The character recognition unit 23 recognizes characters (not only Japanese but also multiple languages such as English), numbers, symbols (%, $, &, etc.), figures (lines, circles, triangles, etc.), etc., in parallel with the user's pen operation. to recognize. Various algorithms have been devised for the recognition method, but in the present embodiment, the details are omitted on the assumption that a known technique can be used.

接触処理部24は、接触位置検出部21によってペン2500のペン先がディスプレー220に接触した位置を検出した場合に、各機能の動作モードに応じて規定された処理を実行する。具体的には、音声認識機能についての動作モードとして、音声認識ONモードと音声認識OFFモードとを切り替える。また、音声認識による文字を訂正するための訂正機能について動作モードとして、訂正ONモードと訂正OFFモードとを切り替える。接触処理部24は、音声認識OFFモードかつ訂正OFFモードである場合に、ディスプレー220へのタッチ操作を検出すると、音声認識ONモードかつ訂正ONモードに切り替える。 The contact processing unit 24 executes processing specified according to the operation mode of each function when the contact position detection unit 21 detects the position where the pen tip of the pen 2500 contacts the display 220 . Specifically, the operation mode of the voice recognition function is switched between a voice recognition ON mode and a voice recognition OFF mode. Further, as an operation mode for a correction function for correcting characters by voice recognition, a correction ON mode and a correction OFF mode are switched. When the touch processing unit 24 detects a touch operation on the display 220 in the voice recognition OFF mode and the correction OFF mode, the contact processing unit 24 switches to the voice recognition ON mode and the correction ON mode.

ここで、タッチ操作とは、ペン2500のペン先を、基準時間以下の短い時間だけディスプレー220に接触させる操作である。それに対して、ペン2500のペン先を、基準時間を超える長い時間、ディスプレー220に接触させる操作を長押し操作と呼ぶ。タッチ操作か長押し操作かの判別基準となる基準時間は、例えば1秒のようにあらかじめ設定されている。この基準時間は、変更可能であっても良い。 Here, the touch operation is an operation in which the pen tip of the pen 2500 is brought into contact with the display 220 for a short period of time equal to or shorter than the reference time. On the other hand, an operation of touching the display 220 with the pen tip of the pen 2500 for a long time exceeding the reference time is called a long press operation. A reference time that serves as a criterion for determining whether a touch operation or a long-press operation is set in advance, for example, 1 second. This reference time may be changeable.

接触処理部24は、訂正機能についての動作モードが訂正ONモードである場合に、音声認識による文字へのタッチ操作を検出すると、音声処理部25に文字の訂正の開始を依頼する。そして、接触処理部24は、音声処理部25による制御を受けて画面に表示される訂正候補へのタッチ操作を検出すると、訂正候補の選択完了を音声処理部25に通知する。 When the operation mode for the correction function is the correction ON mode, the touch processing unit 24 requests the voice processing unit 25 to start correcting the characters when detecting a touch operation on characters by voice recognition. When the touch processing unit 24 detects a touch operation on the correction candidate displayed on the screen under the control of the voice processing unit 25, the contact processing unit 24 notifies the voice processing unit 25 of completion of selection of the correction candidate.

また、接触処理部24は、訂正ONモードの開始から一定時間(以下、Tbとする)の経過により、訂正機能についての動作モードを訂正OFFモードに切り替える。 Further, the contact processing unit 24 switches the operation mode of the correction function to the correction OFF mode after a certain period of time (hereinafter referred to as Tb) has elapsed from the start of the correction ON mode.

なお、接触処理部24は、音声認識機能または訂正機能についての動作モードを、音声認識を行うごとに別々に管理していても良い。すなわち、音声認識OFFモードに切り替わった後も訂正ONモードが続く場合には、その後さらに別の位置に対するタッチ操作により音声認識ONモードに切り替わった場合には、2つの訂正機能についての動作モードが同時に訂正ONモードとなる。このように、接触処理部24は、音声認識を開始するためのタッチ操作が行われるたびに、個々の音声認識機能として管理し、対応する訂正機能についての動作モードについても、音声認識機能に関連付けて個々に管理する。 Note that the contact processing unit 24 may manage the operation mode of the speech recognition function or the correction function separately for each speech recognition. That is, if the correction ON mode continues after switching to the voice recognition OFF mode, and if the voice recognition ON mode is subsequently switched to by a touch operation on another position, the operation modes for the two correction functions are simultaneously switched. Correction ON mode is entered. In this way, the contact processing unit 24 manages each time a touch operation for starting speech recognition is performed as an individual speech recognition function, and also associates the operation mode of the corresponding correction function with the speech recognition function. managed individually.

音声処理部25は、音声の入力に関連する各種の処理を、各機能の動作モードに応じて実行する。具体的には、音声処理部25は、音声認識機能についての動作モードが音声認識ONモードである場合に、マイク221を介して音声の入力を受け付けて、音声認識処理を行って文字に変換し、変換された文字を表示制御部26に引き渡す。 The voice processing unit 25 executes various processes related to voice input according to the operation mode of each function. Specifically, when the operation mode of the voice recognition function is the voice recognition ON mode, the voice processing unit 25 receives voice input via the microphone 221, performs voice recognition processing, and converts it into characters. , the converted characters are transferred to the display control unit 26 .

また、音声処理部25は、接触処理部24から文字の訂正の開始を依頼されると、訂正候補を表示制御部26に引き渡す。 Further, when the contact processing unit 24 requests the start of character correction, the voice processing unit 25 passes the correction candidate to the display control unit 26 .

音声処理部25は、音声認識機能についての動作モードが音声認識ONモードである場合、音声認識ONモードの開始後一定時間(以下、Taとする)の経過により、音声認識機能についての動作モードを音声認識OFFモードに切り替える。音声処理部25は、音声認識機能についての動作モードが音声認識OFFモードである場合には、マイク221を介して音声の入力を受けても特に処理を行わない。 When the operation mode of the speech recognition function is the speech recognition ON mode, the speech processing unit 25 changes the operation mode of the speech recognition function after a certain period of time (hereinafter referred to as Ta) has elapsed after the start of the speech recognition ON mode. Switch to voice recognition OFF mode. When the operation mode of the voice recognition function is the voice recognition OFF mode, the voice processing unit 25 does not perform any particular processing even if voice input is received via the microphone 221 .

表示制御部26は、手書きデータに基づく画像、ユーザが操作するための操作メニューまたは音声処理部25に引き渡される文字、訂正候補などをディスプレー220に表示する。 The display control unit 26 displays, on the display 220, an image based on handwritten data, an operation menu for user operation, characters to be handed over to the voice processing unit 25, correction candidates, and the like.

データ記録部27は、表示装置2に手書きされた手書きデータ、文字認識または音声認識により変換された文字列並びに音声認識における文節の区切り位置を示す情報等を記憶部30に記録する。 The data recording unit 27 records, in the storage unit 30, handwritten data handwritten on the display device 2, character strings converted by character recognition or voice recognition, and information indicating segmentation positions of phrases in voice recognition.

ネットワーク通信部28は、LAN(Local Area Network)等のネットワークに接続して、他の機器とネットワークを介したデータの送受信を行う。 The network communication unit 28 connects to a network such as a LAN (Local Area Network) and transmits/receives data to/from other devices via the network.

操作受付部29は、ディスプレー220に表示された操作用のボタン等に対するペン2500等の入力手段による操作を受け付ける。 The operation reception unit 29 receives an operation of an operation button or the like displayed on the display 220 by an input means such as the pen 2500 .

記憶部30は、SSD204やRAM203などに構築され、データ記録部27が記録する上記の情報を記憶する。 The storage unit 30 is constructed in the SSD 204, the RAM 203, or the like, and stores the above information recorded by the data recording unit 27. FIG.

図5は、音声処理の流れの一例を示すシーケンス図である。 FIG. 5 is a sequence diagram showing an example of the flow of audio processing.

ユーザの操作によってペン2500のペン先が表示装置2のディスプレー220にタッチすると(ステップS101)、接触処理部24は、接触位置検出部21によって検出された接触位置におけるタッチ操作(第一のタッチ操作)を検知する。すると、接触処理部24は、音声認識機能についての動作モードを音声認識ONモードに切り替える。 When the pen tip of the pen 2500 touches the display 220 of the display device 2 by the user's operation (step S101), the contact processing unit 24 performs a touch operation (first touch operation) at the contact position detected by the contact position detection unit 21. ) is detected. Then, the contact processing unit 24 switches the operation mode of the voice recognition function to the voice recognition ON mode.

接触処理部24は、音声認識機能についての動作モードを音声認識ONモードに切り替えたこと(すなわち、音声認識の開始)を、接触位置を示す情報とともに音声処理部25に通知する(ステップS102)。音声処理部25は、音声認識開始の通知を受けると、データ記録部27を介して、接触位置を示す情報を文字の表示を開始する開始座標として記憶部30に保存する(ステップS103)。 The contact processing unit 24 notifies the voice processing unit 25 that the operation mode of the voice recognition function has been switched to the voice recognition ON mode (that is, the start of voice recognition) together with information indicating the contact position (step S102). Upon receiving the voice recognition start notification, the voice processing unit 25 stores information indicating the contact position in the storage unit 30 via the data recording unit 27 as start coordinates for starting character display (step S103).

次に、接触処理部24は、訂正機能についての動作モードを訂正ONモードに切り替える(ステップS104)。そして、接触処理部24は、音声認識ONモードおよび訂正ONモードの開始から一定時間(TaおよびTb)の経過を検知するために、タイマーをスタートさせる(ステップS105)。 Next, the contact processing unit 24 switches the operation mode of the correction function to the correction ON mode (step S104). Then, the contact processing unit 24 starts a timer in order to detect the lapse of a certain period of time (Ta and Tb) from the start of the speech recognition ON mode and the correction ON mode (step S105).

次に、音声処理部25は、ユーザからの音声の入力を受けると(ステップS106)、音声認識処理を実行して、文字に変換する。ここで、音声処理部25は、音声認識によって文節または単語の区切り位置と、各文節または単語に変換する文字の候補とを、データ記録部27を介して記憶部30に記憶させる。記憶させる文字の候補は、第一候補だけでなく、第二候補、第三候補等も含むことが望ましい。 Next, upon receiving a voice input from the user (step S106), the voice processing unit 25 performs voice recognition processing and converts it into characters. Here, the speech processing unit 25 causes the storage unit 30 to store, through the data recording unit 27, the segmentation positions of phrases or words and candidate characters to be converted into each phrase or word by speech recognition. It is desirable that the candidates for the characters to be stored include not only the first candidate, but also the second candidate, the third candidate, and the like.

そして、音声処理部25は、変換された文字を表示制御部26に引き渡して、描画を依頼する(ステップS107)。表示制御部26は、ディスプレー220において、記憶部30に保存された開始座標の位置に、引き渡された文字を表示する制御を行う(ステップS108)。 Then, the voice processing unit 25 hands over the converted characters to the display control unit 26 and requests drawing (step S107). The display control unit 26 controls the display 220 to display the transferred character at the position of the start coordinates stored in the storage unit 30 (step S108).

音声処理部25および表示制御部26は、ユーザからの音声の入力を受けるたびに、ステップS106-S108と同様の処理を実行する(ステップS109-S111)。 The voice processing unit 25 and the display control unit 26 perform the same processing as steps S106 to S108 each time voice input from the user is received (steps S109 to S111).

タイマーが一定時間(Ta)の経過を検知すると、音声処理部25は、音声認識機能についての動作モードを音声認識OFFモードに切り替える(ステップS112)。なお、TaおよびTbはあらかじめ設定され、Ta<Tbに設定されている。したがって、ここでは訂正機能についての動作モードは、訂正OFFモードには切り替えられていない。 When the timer detects that the predetermined time (Ta) has elapsed, the speech processing unit 25 switches the operation mode of the speech recognition function to the speech recognition OFF mode (step S112). It should be noted that Ta and Tb are set in advance such that Ta<Tb. Therefore, here the operating mode for the correction function has not been switched to the correction OFF mode.

次に、ユーザの操作によってペン2500のペン先がディスプレー220の描画された文字にタッチすると(ステップS113)、接触処理部24は、接触位置検出部21によって検出された接触位置におけるタッチ操作(第二のタッチ操作)を検知する。そして、接触処理部24は、接触位置検出部21によって検出された接触位置に描画された文字の訂正処理の開始を音声処理部25に依頼する(ステップS114)。 Next, when the pen tip of the pen 2500 touches the character drawn on the display 220 by the user's operation (step S113), the contact processing unit 24 detects the touch operation (first two touch operations). Then, the contact processing unit 24 requests the voice processing unit 25 to start correcting the character drawn at the contact position detected by the contact position detection unit 21 (step S114).

音声処理部25は、ペン2500のペン先がタッチした位置に表示されている文字を含む単語を訂正箇所とする。なお、音声処理部25は、他の方法によって訂正箇所を特定しても良い。例えば、ペン2500のペン先によって書き込まれた線(取り消し線)の位置に表示されている単語を訂正箇所としても良い。また、ペン2500のペン先によって書き込まれた線に囲まれた領域に表示されている単語を訂正箇所としても良い。 The speech processing unit 25 sets the word including the character displayed at the position touched by the pen tip of the pen 2500 as the correction part. It should be noted that the audio processing unit 25 may specify the corrected portion by another method. For example, the word displayed at the position of the line (strikethrough) drawn by the pen tip of the pen 2500 may be the correction part. Also, the word displayed in the area surrounded by the line drawn by the pen tip of the pen 2500 may be the correction part.

なお、音声処理部25は、音声認識の際に記憶部30に記憶させた文節または単語の区切り位置に基づいて、単語または文節の切れ目を決定する。例えば、「じゅうようじこうのせつめい」という音声の入力に対して、音声認識の際に「じゅうよう」、「じこう」、「の」および「せつめい」という単語の区切り位置を記憶している場合、記憶されている区切り位置に基づいて、「じゅうよう」という単語を訂正箇所とする。 It should be noted that the speech processing unit 25 determines breaks between words or phrases based on the position of the phrases or words that are stored in the storage unit 30 at the time of speech recognition. For example, for the speech input "Jyuuyoujikou no Setsumei", during speech recognition, the division positions of the words "Juyou", "Jikou", "No" and "Setsumei" are memorized. If so, the word ``jyuuyo'' is corrected based on the stored delimiter position.

なお、音声処理部25は、他の方法によって単語または文節の切れ目を決定しても良い。例えば、音声処理部25は、タッチされた文字を中心にして、例えば1文字から4文字程度の文字を含む文字列が単語として適切か否かを判定することによって、単語の切れ目を決定しても良い。例えば、「じゅうよう」の「よ」がタッチされた文字である場合、音声処理部25は、「よう」、「うよ」、「うよう」、「じゅうよう」等の切り目の候補の中から、単語として適切な単語「じゅうよう」を1単語とする切れ目に決定しても良い。 Note that the speech processing unit 25 may determine the breaks between words or phrases by other methods. For example, the voice processing unit 25 determines whether or not a character string including, for example, one to four characters centering on the touched character is appropriate as a word, thereby determining the break of the word. Also good. For example, when "yo" in "jyuuyou" is the touched character, the voice processing unit 25 selects "you", "uyo", "uyou", "jyuuyo" among the candidates for the cut. Therefore, it is also possible to determine a break in which the appropriate word "jyuyo" is one word.

次に、音声処理部25は、訂正候補を表示制御部26に引き渡して表示を依頼する(ステップS115)。なお、音声処理部25は、音声認識の際に記憶部30に記憶させた文字の候補のうち、現在表示中のもの(通常は第一候補)以外の候補(例えば第二候補、第三候補等)を訂正候補とする。例えば、音声認識の際に、「重量」を第一候補、「重要」を第二候補、「従量」を第三候補、「中量」を第四候補にそれぞれ決定されていたことを示す情報が、記憶部30によって記憶されている場合、音声処理部25は、これらのうち、訂正対象である第一候補の「重量」を除く、「重要」、「従量」および「中量」を訂正候補とする。また、音声処理部25は、他の方法によって訂正候補を決定しても良い。例えば、音声処理部25は、切れ目が決定された単語または文節に近い単語または文節を、音声認識エンジンを使用して出力しても良い。 Next, the voice processing unit 25 hands over the correction candidate to the display control unit 26 and requests display (step S115). Note that the speech processing unit 25 selects candidates (for example, second candidates, third candidates) other than the currently displayed character candidates (usually the first candidate) among the character candidates stored in the storage unit 30 at the time of speech recognition. etc.) are candidates for correction. For example, at the time of speech recognition, information indicating that "heavy" was determined as the first candidate, "important" as the second candidate, "moderate" as the third candidate, and "medium" as the fourth candidate. is stored in the storage unit 30, the voice processing unit 25 corrects "important", "sub-volume" and "medium", except for the first candidate "weight" to be corrected. Candidate. Alternatively, the speech processing unit 25 may determine correction candidates by other methods. For example, the speech processing unit 25 may use a speech recognition engine to output words or phrases close to the word or phrase for which the break has been determined.

表示制御部26は、引き渡された訂正候補を表示する制御を行う(ステップS116)。 The display control unit 26 performs control to display the handed over correction candidate (step S116).

次に、ユーザの操作によってペン2500のペン先がディスプレー220の描画された訂正候補にタッチすると(ステップS117)、接触処理部24は、接触位置検出部21によって検出された接触位置におけるタッチ操作(第三のタッチ操作)を検知する。接触処理部24は、接触位置検出部21によって検出された接触位置に描画された訂正候補への選択完了を音声処理部25に通知する(ステップS118)。 Next, when the pen tip of the pen 2500 touches the drawn correction candidate on the display 220 by the user's operation (step S117), the contact processing unit 24 detects the touch operation ( third touch operation). The contact processing unit 24 notifies the audio processing unit 25 of the completion of selection of the correction candidate drawn at the contact position detected by the contact position detection unit 21 (step S118).

音声処理部25は、訂正された文字列を表示制御部26に引き渡して描画を依頼する(ステップS119)。表示制御部26は、引き渡された文字列を描画する制御を行う(ステップS120)。 The voice processing unit 25 hands over the corrected character string to the display control unit 26 and requests drawing (step S119). The display control unit 26 performs control to draw the transferred character string (step S120).

タイマーが一定時間(Tb)の経過を検知すると、接触処理部24は、訂正機能についての動作モードを訂正OFFモードに切り替える(ステップS121)。 When the timer detects that the predetermined time (Tb) has elapsed, the contact processing unit 24 switches the operation mode of the correction function to the correction OFF mode (step S121).

図6は、音声処理に係る表示画面の一例を示す第一の図である。 FIG. 6 is a first diagram showing an example of a display screen relating to audio processing.

図6(a)は、ペン2500のペン先が音声入力開始位置をタッチした状態(図5;ステップS101)のディスプレー220を示している。図6(b)は、音声入力「重要事項の説明」という音声が入力された状態(図5;ステップS106)のディスプレー220を示している。なお、ディスプレー220には、音声認識処理の結果、「重要」ではなく「重量」と表示されている。 FIG. 6(a) shows the display 220 in a state where the tip of the pen 2500 touches the voice input start position (FIG. 5; step S101). FIG. 6(b) shows the display 220 in a state in which the voice input "Explanation of important matters" is input (FIG. 5; step S106). Note that the display 220 displays "weight" instead of "important" as a result of voice recognition processing.

図6(c)は、ペン2500のペン先が訂正箇所をタッチした状態(図5;ステップS113)のディスプレー220を示している。図6(d)は、訂正候補が表示された状態(図5;ステップS116)のディスプレー220を示している。図6(e)は、訂正が完了した状態(図5;ステップS120)のディスプレー220を示している。 FIG. 6(c) shows the display 220 in a state where the tip of the pen 2500 touches the correction location (FIG. 5; step S113). FIG. 6(d) shows the display 220 in a state where correction candidates are displayed (FIG. 5; step S116). FIG. 6(e) shows the display 220 in a state where the correction is completed (FIG. 5; step S120).

本実施形態に係る表示装置2によれば、音声処理部25は、画面への第一のタッチ操作が検出されると、音声の入力を受け付けて、入力された音声を音声認識によって文字に変換する。これによって、簡単な操作で音声認識を開始することができる。また、表示制御部26は、画面における第一のタッチ操作を受けた位置に、変換された文字を表示する制御を行う。これによって、簡単な操作によって、音声認識の結果を表示する箇所を指定することができる。 According to the display device 2 according to the present embodiment, when the first touch operation on the screen is detected, the voice processing unit 25 receives voice input and converts the input voice into characters by voice recognition. do. This makes it possible to start speech recognition with a simple operation. Further, the display control unit 26 performs control to display the converted character at the position on the screen where the first touch operation is received. With this, it is possible to specify the position where the result of speech recognition is to be displayed by a simple operation.

さらに、本実施形態に係る表示装置2によれば、音声処理部25は、音声認識によって表示された文字への第二のタッチ操作が検出されると、第二のタッチ操作を文字の訂正操作として受け付ける。これによって、簡単な操作によって、音声認識の結果を訂正することができる。 Furthermore, according to the display device 2 according to the present embodiment, when the second touch operation on the displayed character is detected by voice recognition, the voice processing unit 25 converts the second touch operation into a character correction operation. accept as This makes it possible to correct the result of speech recognition with a simple operation.

タッチ操作を長押し操作と区別する場合において、タッチ操作は、長押し操作よりも素早く反応が得られる操作であり、上述した各操作は、直感的な操作である。したがって、音声認識による文字表示における操作性を向上させることができる。 When distinguishing a touch operation from a long press operation, the touch operation is an operation that provides a quicker response than the long press operation, and each operation described above is an intuitive operation. Therefore, it is possible to improve the operability in character display by voice recognition.

なお、訂正ONモードは一定時間(Tb)の経過によって終了する。これによって、上述したタッチ操作を訂正として扱う時間を、当該操作を行う可能性が高い時間に限定させることができる。仮に、このような限定を行わない場合には、新たな文字入力を行いたい場合にも、訂正として扱われてしまう可能性が高くなる。これによって、操作性をさらに向上させることができる。 It should be noted that the correction ON mode ends after a certain period of time (Tb) elapses. This makes it possible to limit the time during which the above-described touch operation is treated as a correction to the time when the operation is highly likely to be performed. If such a limitation is not applied, there is a high possibility that even if a new character input is desired, it will be treated as a correction. This can further improve the operability.

なお、音声処理部25は、音声認識による文節の区切りの検知、または音声が途切れてから一定時間の経過等により、音声認識機能についての動作モードを音声認識OFFモードに切り替えるようにしても良い。 Note that the voice processing unit 25 may switch the operation mode of the voice recognition function to the voice recognition OFF mode when a segment break is detected by voice recognition, or when a certain period of time elapses after the voice is interrupted.

また、接触処理部24は、音声認識ONモードから音声認識OFFモードに切り替わってから一定時間の経過または音声認識によって変換された文字の量に応じた時間の経過により、訂正機能についての動作モードを訂正OFFモードに切り替えるようにしても良い。 Further, the contact processing unit 24 changes the operation mode of the correction function when a certain period of time elapses after switching from the voice recognition ON mode to the voice recognition OFF mode or when the time corresponding to the amount of characters converted by voice recognition has elapsed. You may make it switch to correction OFF mode.

また、表示装置2は、訂正OFFモードへの切り替えまたは音声認識OFFモードへの切り替えを示すメニュー等を表示して、ユーザの明示的な操作によって、切り替えるようにしても良い。 Further, the display device 2 may display a menu or the like indicating switching to the correction OFF mode or switching to the speech recognition OFF mode, and switch by an explicit operation of the user.

図7は、音声処理に係る表示画面の一例を示す第二の図である。 FIG. 7 is a second diagram showing an example of a display screen relating to audio processing.

図7(d)に示すように、音声処理部25は、図5のステップS115の処理において、訂正候補を表示する代わりに、手書き入力を受け付けるための枠線を表示する制御を表示制御部26に依頼しても良い。この場合、手書き入力を受け付けると、文字認識部23は、入力された手書きデータから文字を認識して、訂正後の文字として表示する制御を表示制御部26に依頼する。 As shown in FIG. 7(d), the voice processing unit 25 causes the display control unit 26 to display a frame line for accepting handwritten input instead of displaying correction candidates in the process of step S115 in FIG. You can ask the In this case, upon receiving a handwritten input, the character recognition unit 23 recognizes characters from the input handwritten data and requests the display control unit 26 to perform control to display the corrected characters.

図8は、音声処理に係る表示画面の一例を示す第三の図である。 FIG. 8 is a third diagram showing an example of a display screen relating to audio processing.

図8(d)に示すように、音声処理部25は、図5のステップS115の処理において、訂正候補を表示する代わりに、音声での入力を受け付ける。この場合、音声での入力を受け付けると、音声処理部25は、入力された音声に対する音声認識処理を実行して、訂正後の文字として表示する制御を表示制御部26に依頼するとともに、記憶部30に記憶させる。 As shown in FIG. 8(d), the voice processing unit 25 accepts voice input instead of displaying correction candidates in the process of step S115 of FIG. In this case, upon receiving input by voice, the voice processing unit 25 executes voice recognition processing on the input voice, requests the display control unit 26 to control display as corrected characters, and also requests the storage unit Store in 30.

図9は、表示装置の他の構成例を示す第一の図である。 FIG. 9 is a first diagram showing another configuration example of the display device.

図9では、通常のホワイトボード413の上辺にプロジェクタ411が設置されている。このプロジェクタ411が表示装置2に相当する。通常のホワイトボード413とは、タッチパネルと一体のフラットパネルディスプレーではなく、ユーザがマーカーで直接、手書きするホワイトボードである。なお、ホワイトボードは黒板でもよく、映像を投影するだけの広さの平面であればよい。 In FIG. 9, a projector 411 is installed on the upper side of a normal whiteboard 413 . This projector 411 corresponds to the display device 2 . The normal whiteboard 413 is not a flat panel display integrated with a touch panel, but a whiteboard on which the user directly writes with a marker. Note that the whiteboard may be a blackboard, and may be a flat surface that is large enough to project an image.

プロジェクタ411は超短焦点の光学系を有しており、10cm程度から歪みの少ない映像をホワイトボード413に投影できる。この映像は、無線又は有線で接続されたPC400-1から送信されてもよいし、プロジェクタ411が記憶していてもよい。 The projector 411 has an ultra-short focal length optical system, and can project an image with less distortion onto the whiteboard 413 from about 10 cm. This image may be transmitted from the PC 400 - 1 connected wirelessly or by wire, or may be stored in the projector 411 .

ユーザは専用の電子ペン2501を使ってホワイトボード413に手書きする。電子ペン2501は、ユーザが手書きのためにホワイトボード413に押しつけるとスイッチがONになり発光する発光部を例えば先端部に有している。光の波長は近赤外や赤外なのでユーザの目には見えない。プロジェクタ411はカメラを有しており、発光部を撮像して画像を解析し電子ペン2501の方向を特定する。また、電子ペン2501は発光と共に音波を発信しており、プロジェクタ411は音波の到達時間により距離を算出する。方向と距離により電子ペン2501の位置を特定できる。電子ペン2501の位置には手書きされたデータが描画(投影)される。 The user writes by hand on the whiteboard 413 using the dedicated electronic pen 2501 . The electronic pen 2501 has a light-emitting portion, for example, at its tip, which is turned on when the user presses it against the whiteboard 413 for handwriting. Since the wavelength of light is in the near infrared or infrared, it is invisible to the user's eyes. The projector 411 has a camera, captures an image of the light emitting unit, analyzes the image, and identifies the direction of the electronic pen 2501 . Also, the electronic pen 2501 emits light and emits sound waves, and the projector 411 calculates the distance from the arrival time of the sound waves. The position of the electronic pen 2501 can be identified by the direction and distance. Handwritten data is drawn (projected) at the position of the electronic pen 2501 .

プロジェクタ411はメニュー430を投影するので、ユーザが電子ペン2501でボタンを押下すると、プロジェクタ411が電子ペン2501の位置とスイッチのON信号により押下されたボタンを特定する。例えば、保存ボタン431が押下されると、ユーザが手書きした手書きされたデータ(座標点列)がプロジェクタ411で保存される。プロジェクタ411は、予め定められたサーバ412又はUSBメモリ2600等に手書き情報を保存する。手書き情報はページごとに保存されている。画像データではなく座標のまま保存されるので、ユーザが再編集することができる。ただし、本実施形態では操作コマンドを手書きで呼び出せるのでメニュー430は表示されなくてもよい。 Since the projector 411 projects the menu 430, when the user presses a button with the electronic pen 2501, the projector 411 identifies the pressed button based on the position of the electronic pen 2501 and the ON signal of the switch. For example, when the save button 431 is pressed, the handwritten data (coordinate point sequence) handwritten by the user is saved in the projector 411 . Projector 411 stores the handwritten information in predetermined server 412, USB memory 2600, or the like. Handwritten information is stored page by page. Since the coordinates are saved as they are instead of the image data, the user can re-edit them. However, in this embodiment, the menu 430 does not have to be displayed because the operation command can be called by handwriting.

図10は、表示装置の他の構成例を示す第二の図である。 FIG. 10 is a second diagram showing another configuration example of the display device.

表示装置2として、端末装置600、画像投影装置700A、及び、ペン動作検出装置810を有する。 The display device 2 includes a terminal device 600, an image projection device 700A, and a pen motion detection device 810. FIG.

端末装置600は、画像投影装置700A及びペン動作検出装置810と有線で接続されている。画像投影装置700Aは、端末装置600により入力された画像データをスクリーン800に投影させる。 The terminal device 600 is connected to the image projection device 700A and the pen motion detection device 810 by wire. The image projection device 700A projects image data input from the terminal device 600 onto the screen 800 .

ペン動作検出装置810は、電子ペン820と通信を行っており、スクリーン800の近傍における電子ペン820の動作を検出する。具体的には、電子ペン820は、スクリーン800上において、電子ペン820が示している点を示す座標情報を検出し(検出方法は図9と同様でよい)、端末装置600へ送信する。 The pen motion detection device 810 communicates with the electronic pen 820 and detects motion of the electronic pen 820 in the vicinity of the screen 800 . Specifically, the electronic pen 820 detects coordinate information indicating a point indicated by the electronic pen 820 on the screen 800 (the detection method may be the same as in FIG. 9), and transmits the information to the terminal device 600 .

端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820によって入力される手書きデータの画像データを生成し、画像投影装置700Aによって手書きデータの画像をスクリーン800に描画させる。 Terminal device 600 generates image data of handwritten data input by electronic pen 820 based on the coordinate information received from pen motion detection device 810, and causes image projection device 700A to draw an image of the handwritten data on screen 800. FIG.

また、端末装置600は、画像投影装置700Aに投影させている背景画像と、電子ペン820によって入力された手書きデータの画像とを合成した重畳画像を示す重畳画像データを生成する。 Terminal device 600 also generates superimposed image data indicating a superimposed image obtained by synthesizing the background image projected by image projection device 700A and the image of the handwritten data input by electronic pen 820 .

図11は、表示装置の他の構成例を示す第三の図である。 FIG. 11 is a third diagram showing another configuration example of the display device.

図11の例では、表示装置2として、端末装置600と、ディスプレー800Aと、ペン動作検出装置810とを有する。 In the example of FIG. 11, the display device 2 includes a terminal device 600, a display 800A, and a pen motion detection device 810. In the example of FIG.

ペン動作検出装置810は、ディスプレー800Aの近傍に配置され、ディスプレー800A上に、電子ペン820Aが示している点を示す座標情報を検出し(検出方法は図26と同様でよい)、端末装置600へ送信する。なお、図28の例では、電子ペン820Aは、端末装置600によってUSBコネクタを介して充電されても良い。 Pen motion detection device 810 is arranged near display 800A and detects coordinate information indicating a point indicated by electronic pen 820A on display 800A (the detection method may be the same as in FIG. 26). Send to Note that in the example of FIG. 28, the electronic pen 820A may be charged by the terminal device 600 via a USB connector.

端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820Aによって入力される手書きデータの画像を示す画像データを生成し、ディスプレー800Aに表示させる。 Based on the coordinate information received from pen motion detection device 810, terminal device 600 generates image data representing an image of handwritten data input by electronic pen 820A, and displays it on display 800A.

図12は、表示装置の他の構成例を示す第四の図である。 FIG. 12 is a fourth diagram showing another configuration example of the display device.

図12の例では、表示装置2として、端末装置600と、画像投影装置700Aとを有する。 In the example of FIG. 12, the display device 2 includes a terminal device 600 and an image projection device 700A.

端末装置600は、電子ペン820Bと無線通信(Bluetooth(登録商標)等)を行って、スクリーン800上において電子ペン820Bが示す点の座標情報を受信する。座標情報は、スクリーン800に形成された微小な位置情報を電子ペン820Bが読み取ってもよいし、スクリーン800から座標情報を受信してもよい。 Terminal device 600 performs wireless communication (Bluetooth (registered trademark), etc.) with electronic pen 820B to receive coordinate information of a point indicated by electronic pen 820B on screen 800 . As for the coordinate information, minute position information formed on the screen 800 may be read by the electronic pen 820</b>B, or the coordinate information may be received from the screen 800 .

そして、端末装置600は、受信した座標情報に基づき、電子ペン820Bにより入力される手書きデータの画像の画像データを生成し、画像投影装置700Aに手書きデータの画像を投影させる。 Based on the received coordinate information, terminal device 600 generates image data of the image of the handwritten data input by electronic pen 820B, and causes image projection device 700A to project the image of the handwritten data.

また、端末装置600は、画像投影装置700Aに投影させている背景画像と、電子ペン820によって入力された手書きデータの画像とを合成した重畳画像を示す重畳画像データを生成する。 Terminal device 600 also generates superimposed image data indicating a superimposed image obtained by synthesizing the background image projected by image projection device 700A and the image of the handwritten data input by electronic pen 820 .

以上のように、上記した各実施形態は、様々なシステム構成において適用することができる。 As described above, each of the above-described embodiments can be applied in various system configurations.

以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the best mode for carrying out the present invention has been described above using examples, the present invention is by no means limited to such examples, and various modifications can be made without departing from the scope of the present invention. and substitutions can be added.

文字列は文字コードとして、手書きデータは座標点データとして表示装置2に保存される。また、各種の記憶媒体に保存したり、ネットワーク上の記憶装置に保存したりしておいて、後で、表示装置2からダウンロードして再使用することができる。再使用する表示装置2はどの表示装置でもよく、一般的な情報処理装置でもよい。したがって、ユーザは手書きした内容を異なる表示装置2で再現して会議などを継続することができる。 Character strings are stored in the display device 2 as character codes, and handwritten data are stored in the display device 2 as coordinate point data. Also, it can be saved in various storage media or saved in a storage device on a network, and can be downloaded from the display device 2 and reused later. The display device 2 to be reused may be any display device or a general information processing device. Therefore, the user can reproduce the handwritten content on a different display device 2 and continue the meeting.

また、本実施形態ではペン先の座標をタッチパネルで検知する方法でペンの座標を検出したが、ペン先の座標を超音波により検出してもよい。また、ペンは発光と共に超音波を発信しており、表示装置2は超音波の到達時間により距離を算出する。方向と距離によりペンの位置を特定できる。ペンの軌跡をストロークデータとしてプロジェクタが描画(投影)する。 Further, in the present embodiment, the coordinates of the pen tip are detected by the method of detecting the coordinates of the pen tip with the touch panel, but the coordinates of the pen tip may be detected by ultrasonic waves. The pen also emits light and emits ultrasonic waves, and the display device 2 calculates the distance based on the arrival time of the ultrasonic waves. The position of the pen can be specified by direction and distance. The projector draws (projects) the trajectory of the pen as stroke data.

また、図4などの構成例は、表示装置2による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。表示装置2の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。 Further, the configuration examples in FIG. 4 and the like are divided according to main functions in order to facilitate understanding of the processing by the display device 2 . The present invention is not limited by the division method or name of the unit of processing. The processing of the display device 2 can also be divided into more processing units according to the content of the processing. Also, one processing unit can be divided to include more processing.

また、表示装置2が行う処理の一部を、表示装置2とネットワークを介して接続されたサーバが行ってもよい。 Also, part of the processing performed by the display device 2 may be performed by a server connected to the display device 2 via a network.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiments described above may be implemented by one or more processing circuits. Here, the "processing circuit" in this specification means a processor programmed by software to perform each function, such as a processor implemented by an electronic circuit, or a processor designed to perform each function described above. Devices such as ASIC (Application Specific Integrated Circuit), DSP (Digital Signal Processor), FPGA (Field Programmable Gate Array) and conventional circuit modules are included.

上記で説明した実施形態の各機能は、表示装置2の備えるCPU201の動作を規定するOS(Operating system)上で動作するアプリケーションプログラムによって実現され得る。 Each function of the embodiment described above can be realized by an application program that runs on an OS (Operating System) that defines the operation of the CPU 201 provided in the display device 2 .

尚、本実施形態が適用される装置は、タッチ操作によって、オブジェクトを操作する機能を備えた表示装置であれば良く、電子黒板に限定されにない。本実施形態が適用される表示装置は、例えば、PJ(Projector:プロジェクタ)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、ネットワーク家電、自動車(Connected Car)、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、ウェアラブルPC等であってもよい。 Note that the device to which the present embodiment is applied is not limited to an electronic blackboard as long as it is a display device having a function of operating an object by touch operation. Display devices to which the present embodiment is applied include, for example, PJs (projectors), output devices such as digital signage, HUD (Head Up Display) devices, network appliances, connected cars, notebook PCs (personal computers). , a mobile phone, a smart phone, a tablet terminal, a game machine, a PDA (Personal Digital Assistant), a wearable PC, or the like.

以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。 The present invention has been described above based on each embodiment, but the present invention is not limited to the requirements shown in the above embodiments. These points can be changed within the scope of the present invention, and can be determined appropriately according to the application form.

2 表示装置
21 接触位置検出部
22 描画データ生成部
23 文字認識部
24 接触処理部
25 音声処理部
26 表示制御部
27 データ記録部
28 ネットワーク通信部
29 操作受付部
30 記憶部
2 display device 21 contact position detection unit 22 drawing data generation unit 23 character recognition unit 24 contact processing unit 25 voice processing unit 26 display control unit 27 data recording unit 28 network communication unit 29 operation reception unit 30 storage unit

特開2012-088969号公報JP 2012-088969 A

Claims (7)

画面への第一のタッチ操作が検出されると、音声の入力を受け付けて、入力された音声を音声認識によって文字に変換する音声処理部と、
前記画面における前記第一のタッチ操作を受けた位置に、変換された前記文字を表示する制御を行う表示制御部と、を備え、
前記音声処理部は、前記音声認識によって表示された文字への第二のタッチ操作が検出されると、前記第二のタッチ操作を前記文字の訂正操作として受け付ける、
表示装置。
a voice processing unit that receives voice input and converts the input voice into characters by voice recognition when a first touch operation on the screen is detected;
a display control unit that performs control to display the converted character at a position on the screen where the first touch operation is received;
When a second touch operation on the character displayed by the voice recognition is detected, the voice processing unit accepts the second touch operation as a correction operation of the character.
display device.
前記表示制御部は、前記音声認識によって表示された文字への第二のタッチ操作が検出されると、前記文字の訂正候補を表示する、
請求項1に記載の表示装置。
The display control unit displays a correction candidate for the character when a second touch operation to the character displayed by the voice recognition is detected.
The display device according to claim 1.
前記音声処理部は、前記音声認識によって表示された文字への第二のタッチ操作が検出されると、前記文字の訂正として手書き入力を受け付ける、
請求項1に記載の表示装置。
When the voice processing unit detects a second touch operation on the characters displayed by the voice recognition, the voice processing unit accepts handwritten input as a correction of the characters.
The display device according to claim 1.
前記音声処理部は、前記音声認識によって表示された文字への第二のタッチ操作が検出されると、前記文字の訂正として音声入力を受け付けて、音声認識によって訂正後の文字に変換する、
請求項1に記載の表示装置。
When the second touch operation to the character displayed by the voice recognition is detected, the voice processing unit receives voice input as correction of the character and converts it to the corrected character by voice recognition.
The display device according to claim 1.
前記音声処理部は、画面への第一のタッチ操作が検出されると、訂正機能についての動作モードを訂正ONモードに切り替え、前記訂正機能についての動作モードが前記訂正ONモードである場合に、前記音声認識によって表示された文字への前記第二のタッチ操作が検出されると、前記第二のタッチ操作を前記文字の訂正操作として受け付け、訂正ONモードの開始から一定時間が経過すると、訂正機能についての動作モードを訂正OFFモードに切り替える、
請求項1から4のいずれか1項に記載の表示装置。
When the first touch operation on the screen is detected, the audio processing unit switches the operation mode of the correction function to the correction ON mode, and when the operation mode of the correction function is the correction ON mode, When the second touch operation on the character displayed by the voice recognition is detected, the second touch operation is accepted as a correction operation on the character, and when a certain time elapses from the start of the correction ON mode, the correction is performed. Switching the operating mode for the function to Correction OFF mode;
The display device according to any one of claims 1 to 4.
コンピュータが実行する方法であって、
画面への第一のタッチ操作が検出されると、音声の入力を受け付けて、入力された音声を音声認識によって文字に変換するステップと、
前記画面における前記第一のタッチ操作を受けた位置に、変換された前記文字を表示する制御を行うステップと、
前記音声認識によって表示された文字への第二のタッチ操作が検出されると、前記第二のタッチ操作を前記文字の訂正操作として受け付けるステップと、を備える、
表示方法。
A computer implemented method comprising:
a step of receiving voice input and converting the input voice into characters by voice recognition when a first touch operation on the screen is detected;
a step of controlling to display the converted character at a position on the screen where the first touch operation is received;
When a second touch operation on the character displayed by the voice recognition is detected, accepting the second touch operation as a correction operation of the character;
Display method.
コンピュータに、
画面への第一のタッチ操作が検出されると、音声の入力を受け付けて、入力された音声を音声認識によって文字に変換するステップと、
前記画面における前記第一のタッチ操作を受けた位置に、変換された前記文字を表示する制御を行うステップと、
前記音声認識によって表示された文字への第二のタッチ操作が検出されると、前記第二のタッチ操作を前記文字の訂正操作として受け付けるステップと、
を実行させるためのプログラム。
to the computer,
a step of receiving voice input and converting the input voice into characters by voice recognition when a first touch operation on the screen is detected;
a step of controlling to display the converted character at a position on the screen where the first touch operation is received;
when a second touch operation on the displayed character is detected by the voice recognition, accepting the second touch operation as a correction operation on the character;
program to run the
JP2021016604A 2021-02-04 2021-02-04 Display, display method, and program Pending JP2022119463A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021016604A JP2022119463A (en) 2021-02-04 2021-02-04 Display, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021016604A JP2022119463A (en) 2021-02-04 2021-02-04 Display, display method, and program

Publications (1)

Publication Number Publication Date
JP2022119463A true JP2022119463A (en) 2022-08-17

Family

ID=82848177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021016604A Pending JP2022119463A (en) 2021-02-04 2021-02-04 Display, display method, and program

Country Status (1)

Country Link
JP (1) JP2022119463A (en)

Similar Documents

Publication Publication Date Title
US11250253B2 (en) Handwriting input display apparatus, handwriting input display method and recording medium storing program
US11557138B2 (en) Display apparatus, control method, and recording medium
JP2022119463A (en) Display, display method, and program
JP2021197024A (en) Display unit, display method, and program
US20230070034A1 (en) Display apparatus, non-transitory recording medium, and display method
JP2022020470A (en) Display device, display method and program
JP2022147384A (en) Display device, method for display, and program
JP7268479B2 (en) Display device, program, display method
JP7388153B2 (en) Display device, display program, display method
JP2022147337A (en) Display device, display method and program
JP7384191B2 (en) Display device, program, area change method
JP2022013424A (en) Display unit, presentation method, and program
WO2022071448A1 (en) Display apparatus, display method, and program
JP7404958B2 (en) Input devices, input methods, and programs
US11853636B2 (en) Display apparatus, display method, medium, and display system
US11822783B2 (en) Display apparatus, display method, and information sharing system
JP7392315B2 (en) Display device, display method, program
US20220300147A1 (en) Display apparatus, display method, and non-transitory recording medium
JP2022141344A (en) Display device, display method and program
JP2023133110A (en) Display device, display method, and program
JP2023137822A (en) Display device, fair copy method, program, and information sharing system
JP2021149662A (en) Display unit, display method, and program
JP2022143788A (en) Display device, method for display, and program
JP2023133111A (en) Display apparatus, display method, and program
JP2022147297A (en) Display device, method for display, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240617