JP2010287169A - Apparatus and method for converting event - Google Patents

Apparatus and method for converting event Download PDF

Info

Publication number
JP2010287169A
JP2010287169A JP2009142419A JP2009142419A JP2010287169A JP 2010287169 A JP2010287169 A JP 2010287169A JP 2009142419 A JP2009142419 A JP 2009142419A JP 2009142419 A JP2009142419 A JP 2009142419A JP 2010287169 A JP2010287169 A JP 2010287169A
Authority
JP
Japan
Prior art keywords
pointer
information
button
screen
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009142419A
Other languages
Japanese (ja)
Inventor
Hideyuki Tsutsumitake
秀行 堤竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009142419A priority Critical patent/JP2010287169A/en
Publication of JP2010287169A publication Critical patent/JP2010287169A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem of user inconvenience with an operation with a pointing device of content described on the premise of remote control operation. <P>SOLUTION: A pointer movement part 413 into which information on an operation with a pointing device 411 has been input via an I/O driver 412 controls a pointer movement on a screen of content premised on remote control operation which has been obtained via a content management part 401. A pointer movement direction determination part 414 analyzes information on a pointer movement locus stored in a memory 415 by a pointer coordinate management part 416 to convert it into information on a key event, and generates the converted key event via a key event generation part 431. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ポインティングデバイスによる操作に係るイベントを変換するイベント変換装置およびイベント変換方法に関する。   The present invention relates to an event conversion apparatus and an event conversion method for converting an event related to an operation by a pointing device.

近年、放送と通信との融合を目指した様々な機器やサービスなどが広く普及している。例えば、インターネットを介して提供されるコンテンツを取得する通信部や、取得したコンテンツを表示するWebブラウザなどを備えて、インターネットから提供されるコンテンツを表示するテレビジョン受像機、デジタル放送で提供されるデータ放送のコンテンツを、パーソナルコンピュータによって実行されるプログラムによって扱える形態にして、インターネットを介して提供するサービスなど、である。   In recent years, various devices and services aiming at fusion of broadcasting and communication have become widespread. For example, a television receiver that displays content provided from the Internet, provided with a communication unit that acquires content provided via the Internet, a Web browser that displays the acquired content, and the like is provided by digital broadcasting. For example, a service that provides data broadcasting content via the Internet in a form that can be handled by a program executed by a personal computer.

ところで、デジタルテレビ放送におけるデータ放送のコンテンツは、BML(Broadcast Markup Language;以下BMLと称する)によって記述されることが、社団法人電波産業会発行の「デジタル放送におけるデータ放送符号化方式と伝送方式」ARIB STD−B24 5.2版で規定されている。BMLは、インターネットから提供されるコンテンツと同様にHTMLやJava(登録商標)Scriptをベースにした記述言語である。   By the way, data broadcasting contents in digital television broadcasting are described in BML (Broadcast Markup Language; hereinafter referred to as BML). “Data broadcasting encoding and transmission methods in digital broadcasting” issued by the Japan Radio Industry Association Defined in ARIB STD-B24 5.2 edition. BML is a description language based on HTML and Java (registered trademark) Script as well as contents provided from the Internet.

なおデータ放送は、テレビジョン受像機によって表示されることを前提としているため、データ放送のコンテンツの記述に利用されるBMLでは、テレビジョン受像機の操作に一般的に利用されるリモコンによる操作を前提としている。   Since data broadcasting is assumed to be displayed on a television receiver, BML used for data broadcasting content description is controlled by a remote control generally used for operating the television receiver. It is assumed.

すなわちBMLでは、リモコンに備えられた上下左右キーなどの押下に基づくイベントは定義されているが、マウス等のポインティングデバイスによる操作に基づくイベントは定義されていない。   That is, in BML, an event based on pressing of an up / down / left / right key provided in a remote control is defined, but an event based on an operation by a pointing device such as a mouse is not defined.

そこで、BMLで記述されたコンテンツの操作を、ポインティングデバイスによっても操作できるようにする手法が期待されている。
例えば、特許文献1によれば、ポインティングデバイスの操作に応じたカーソル移動イベントの発生の時間間隔を計測して、イベントの発生が一定時間以上なかったときに、現在のカーソルの位置座標に基づいて移動方向を抽出し、この抽出した移動方向に基づいて、リモコン操作による方向キーイベントに変換するする手法が公開されている。
Therefore, a technique is expected that enables the operation of content described in BML to be operated by a pointing device.
For example, according to Patent Document 1, a time interval of occurrence of a cursor movement event corresponding to an operation of a pointing device is measured, and when the occurrence of an event does not occur for a certain time or longer, based on the current cursor position coordinates. A method for extracting a moving direction and converting it into a direction key event by remote control operation based on the extracted moving direction is disclosed.

特開平10−011222号公報(図1 段落0022−0025)Japanese Patent Laid-Open No. 10-011222 (paragraph 0022-0025 in FIG. 1)

しかし特許文献1では、カーソル移動イベントが所定時間間隔以内に発生している状態、すなわちカーソルが停止せずに移動し続けている状態では、方向キーイベント変換することができない可能性があった。つまり、ポインティングデバイスを連続的に移動しながら、適宜、方向キーイベント変換を実行することができなかった。例えば、リモコンの上方向キーに相当する方向キーイベントを連続して複数回発生する場合には、ポインティングデバイスの移動と停止の操作を複数回繰り返して行う必要があり、操作が煩雑であった。   However, in Patent Document 1, there is a possibility that direction key event conversion cannot be performed in a state where a cursor movement event occurs within a predetermined time interval, that is, in a state where the cursor continues to move without stopping. In other words, the direction key event conversion cannot be appropriately executed while continuously moving the pointing device. For example, when a direction key event corresponding to the up direction key of the remote controller is generated a plurality of times continuously, it is necessary to repeatedly move and stop the pointing device a plurality of times, and the operation is complicated.

また、ポインティングデバイスの誤操作などにより、カーソルが不本意な方向に移動した後に停止したことが検出された場合には、この不本意な方向への方向キーイベント変換が実行されてしまうので、利用者が意図しない方向へキーイベント変換される可能性があった。   In addition, when it is detected that the cursor has stopped after moving in an unintentional direction due to an erroneous operation of the pointing device, the direction key event conversion in this unintentional direction is executed. There is a possibility that the key event will be converted in an unintended direction.

そこで、本発明は上述した課題を解決するために、利用者にとって利便性がよく、ポインティングデバイスの操作によってキーイベントの操作を実行することができるイベント変換装置およびイベント変換方法を提供することを目的とする。   Accordingly, in order to solve the above-described problems, the present invention has an object to provide an event conversion apparatus and an event conversion method that are convenient for a user and that can execute a key event operation by operating a pointing device. And

本発明は上述した課題を解決するため、ポインティングデバイスによる操作に応じて画面上のポインタを移動させるポインタ移動手段と、リモコンによる操作により制御されるコマンド形式の操作画面上の、前記ポインタ移動手段が移動させるポインタが指し示した軌跡情報を、ポインタが移動した時系列と関連づけて記憶する軌跡情報記憶手段と、前記軌跡情報記憶手段が記憶した前記軌跡情報に基づいて、リモコンの方向キーに対応するコマンドに変換して発生する情報変換手段と、前記情報変換手段が変換した前記コマンドに対応する操作を実行する操作実行手段と、を具備することを特徴とするものである。   In order to solve the above-described problems, the present invention provides pointer moving means for moving a pointer on a screen in response to an operation by a pointing device, and the pointer moving means on a command-type operation screen controlled by an operation by a remote controller. The trajectory information storage means for storing the trajectory information pointed to by the pointer to be moved in association with the time series of the movement of the pointer, and the command corresponding to the direction key of the remote controller based on the trajectory information stored by the trajectory information storage means Information conversion means generated by converting the information into an information conversion means, and operation execution means for executing an operation corresponding to the command converted by the information conversion means.

また本発明は上述した課題を解決するため、ポインティングデバイスによる操作に応じて画面上のポインタを移動させるポインタ移動手段と、リモコンによる操作により制御されるコマンド形式の操作画面上の、前記移動させるポインタが指し示した軌跡情報を、ポインタが移動した時系列と関連づけて記憶し、前記記憶した前記軌跡情報に基づいて、リモコンの方向キーに対応するコマンドに変換して発生し、前記変換した前記コマンドに対応する操作を実行する、ことを特徴とするものである。   Further, in order to solve the above-described problems, the present invention provides a pointer moving means for moving a pointer on the screen in accordance with an operation by a pointing device, and a pointer to be moved on a command type operation screen controlled by an operation by a remote controller. Is stored in association with the time series when the pointer is moved, and is converted into a command corresponding to a direction key of a remote controller based on the stored track information, and the converted command is A corresponding operation is executed.

本発明によれば、利用者にとって利便性がよく、ポインティングデバイスの操作によってキーイベントの操作を実行することができる。   According to the present invention, it is convenient for a user, and a key event operation can be executed by operating a pointing device.

本発明の実施形態に係るイベント発行装置であるパーソナルコンピュータの構成を示すブロック図。The block diagram which shows the structure of the personal computer which is an event issuing apparatus which concerns on embodiment of this invention. 本実施形態に係るパーソナルコンピュータが表示するデータ放送コンテンツの画面の一例を示す図。The figure which shows an example of the screen of the data broadcast content which the personal computer which concerns on this embodiment displays. 本実施形態に係るフォーカス移動テーブルの一例を示す図。FIG. 5 is a diagram showing an example of a focus movement table according to the present embodiment. リモコンによる操作を前提として記述されたデータ放送コンテンツを、ポインティングデバイスによって操作することを可能にするプログラムの構造を示す図。The figure which shows the structure of the program which enables the data broadcasting content described on the assumption of operation with a remote control to be operated with a pointing device. 本実施形態に係るデータ放送コンテンツをマウスによって操作する処理のフローチャート。The flowchart of the process which operates the data broadcast content which concerns on this embodiment with a mouse | mouth. イベント変換処理の詳細なフローチャート。The detailed flowchart of an event conversion process. ポインタ軌跡情報の実座標値と近似直線の座標値との差を視覚的に比較するためのグラフ。The graph for visually comparing the difference between the actual coordinate value of the pointer trajectory information and the coordinate value of the approximate straight line. 近似直線式の傾きとキーイベント情報の方向の対応を示す図。The figure which shows a response | compatibility with the inclination of an approximate linear type | formula, and the direction of key event information. ボタン領域を特定して登録する処理の詳細なフローチャート。The detailed flowchart of the process which identifies and registers a button area | region. 本実施形態に係るフォーカス移動テーブルの一例を示す図。FIG. 5 is a diagram showing an example of a focus movement table according to the present embodiment. 図10に示したフォーカス移動テーブルを利用したキーイベント発行処理のフローチャート。11 is a flowchart of a key event issuing process using the focus movement table shown in FIG.

以下、本発明における実施形態について図面を用いて説明する。
図1は、本発明の実施形態に係るイベント変換装置であるパーソナルコンピュータの構成を示すブロック図である。なお本実施形態ではイベント発行装置をパーソナルコンピュータに適用した例を示すが、本実施形態と同様の構成を備えたHDDレコーダ、DVDレコーダ、テレビジョン受像機、携帯移動端末などであってもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a personal computer that is an event conversion apparatus according to an embodiment of the present invention. In this embodiment, an example in which the event issuing device is applied to a personal computer is shown. However, an HDD recorder, a DVD recorder, a television receiver, a portable mobile terminal, or the like having the same configuration as in this embodiment may be used.

パーソナルコンピュータ10は、CPU20、ノースブリッジ30、主メモリ31、グラフィックスコントローラ32、表示器33、サウスブリッジ40、BIOS−ROM41、ハードディスクドライブ(Hard Disk Drive;以下HDDと称する)42、光ディスクドライブ(Optical Disk Drive;以下ODDと称する)43、コントローラ部44、チューナ部45、通信部46、USB_IF部47、および操作部48などで構成されている。   The personal computer 10 includes a CPU 20, a north bridge 30, a main memory 31, a graphics controller 32, a display 33, a south bridge 40, a BIOS-ROM 41, a hard disk drive (Hard Disk Drive; hereinafter referred to as HDD) 42, an optical disk drive (Optical). Disk Drive (hereinafter referred to as ODD) 43, a controller unit 44, a tuner unit 45, a communication unit 46, a USB_IF unit 47, an operation unit 48, and the like.

CPU20はパーソナルコンピュータ10の動作を制御するプロセッサであり、HDD42から主メモリ31にロードされるオペレーティングシステム(Operating System;以下OSと称する)および各種アプリケーションプログラムを実行する。またCPU20は、BIOS−ROM41に格納されたBIOS(Basic Input Output System;以下BIOSと称する)プログラムも実行する。   The CPU 20 is a processor that controls the operation of the personal computer 10 and executes an operating system (hereinafter referred to as OS) and various application programs loaded from the HDD 42 to the main memory 31. The CPU 20 also executes a BIOS (Basic Input Output System; hereinafter referred to as BIOS) program stored in the BIOS-ROM 41.

ノースブリッジ30は、CPU20とFSB(Front Side Bus;以下FSBと称する)などのバスを介して接続し、さらにサウスブリッジ40と接続するブリッジデバイスである。またノースブリッジ30は、AGP(Accelerated Graphics Port;以下AGPと称する)バスなどを介してグラフィックスコントローラ32との通信を実行し、さらに主メモリ31とも接続される。   The north bridge 30 is a bridge device that is connected to the CPU 20 via a bus such as an FSB (Front Side Bus; hereinafter referred to as FSB) and further connected to the south bridge 40. The north bridge 30 communicates with the graphics controller 32 via an AGP (Accelerated Graphics Port; hereinafter referred to as AGP) bus, and is also connected to the main memory 31.

主メモリ31は、HDD42からロードされ、CPU20によって実行されるOSおよび各種アプリケーションプログラムを記憶する。すなわち、CPU20のワークメモリである。   The main memory 31 stores the OS and various application programs that are loaded from the HDD 42 and executed by the CPU 20. That is, the work memory of the CPU 20.

グラフィックスコントローラ32は、パーソナルコンピュータ10が備える表示器33を制御する表示コントローラであり、ノースブリッジ30から入力された映像信号のデータに所定の処理を施して表示器33へ出力する。   The graphics controller 32 is a display controller that controls the display device 33 included in the personal computer 10, performs predetermined processing on the data of the video signal input from the north bridge 30, and outputs the processed data to the display device 33.

表示器33は、グラフィックスコントローラ32を介して入力された映像信号を表示する表示モジュールであって、例えばLCD(Liquid Crystal Display;以下LCDと称する)などの薄型ディスプレイである。本実施形態では、デジタル放送におけるデータ放送のコンテンツなどといった、リモコンによる操作を前提とした映像信号に対してマウスによる操作を可能とした映像信号を表示する。なお表示器33は、パーソナルコンピュータ10の外部に備えられる形態であってもよい。   The display device 33 is a display module that displays a video signal input via the graphics controller 32, and is a thin display such as an LCD (Liquid Crystal Display; hereinafter referred to as LCD). In the present embodiment, a video signal that can be operated with a mouse is displayed with respect to a video signal that is assumed to be operated with a remote controller, such as data broadcasting content in digital broadcasting. The display device 33 may be provided outside the personal computer 10.

サウスブリッジ40は各種I/Oデバイスを制御するブリッジデバイスである。サウスブリッジ40には、PCI Expressのような通信バスを介してチューナ部45が接続される。またサウスブリッジ40には、各種バスを介してBIOS−ROM41やHDD42、ODD43、コントローラ部44、通信部46、USB_IF部47と接続される。   The south bridge 40 is a bridge device that controls various I / O devices. A tuner unit 45 is connected to the south bridge 40 via a communication bus such as PCI Express. The south bridge 40 is connected to the BIOS-ROM 41, the HDD 42, the ODD 43, the controller unit 44, the communication unit 46, and the USB_IF unit 47 via various buses.

BIOS−ROM41は、BIOSプログラムを格納する。
HDD42は、主メモリ31にロードするOSや各種アプリケーションプログラムなどを格納し、またCPU20が各種プログラムを実行する際のワークメモリとしても使用される。本実施形態ではHDD42は、マウスによる操作情報をキー操作によるイベント情報に変換する処理のプログラムを格納し、このプログラムを実行する際のワークメモリとしても使用される。
The BIOS-ROM 41 stores a BIOS program.
The HDD 42 stores an OS and various application programs to be loaded into the main memory 31, and is also used as a work memory when the CPU 20 executes various programs. In the present embodiment, the HDD 42 stores a program for processing for converting operation information from the mouse into event information by key operation, and is also used as a work memory when executing this program.

ODD43は、装着された光ディスクからのデータを読み取る。また、記録可能な光ディスクへのデータ記録を行う。
コントローラ部44は、操作部48を制御するためのキーボードコントローラやマウスコントローラなどが集積された1チップマイクロコンピュータである。本実施形態では、コントローラ部44は、ポインティングデバイスであるマウスを制御する。
The ODD 43 reads data from the mounted optical disk. Also, data is recorded on a recordable optical disc.
The controller unit 44 is a one-chip microcomputer in which a keyboard controller and a mouse controller for controlling the operation unit 48 are integrated. In the present embodiment, the controller unit 44 controls a mouse that is a pointing device.

チューナ部45は、アンテナATによって受信されたデジタル放送波に対して、特定チャンネルの選局や復調復号処理を施して、映像音声データの他に字幕データが含まれるデータをサウスブリッジ40に出力する。本実施形態では、地上デジタル放送波のデータ放送のデータに対して選局や復調復号処理を施して出力する。   The tuner unit 45 performs channel selection and demodulation / decoding processing on a specific channel with respect to the digital broadcast wave received by the antenna AT, and outputs data including caption data in addition to the video / audio data to the south bridge 40. . In the present embodiment, the data broadcast data of the terrestrial digital broadcast wave is subjected to channel selection and demodulation / decoding processing and output.

通信部46は、インターネットに接続された情報提供サイトや家庭内ネットワークなどに接続された外部装置と、LANなどを介してデータのやりとりを行う。本実施形態では、インターネットから提供され、リモコンによって操作されることを前提として記述されたコンテンツのデータを取得する。   The communication unit 46 exchanges data with an external device connected to an information providing site connected to the Internet or a home network via a LAN or the like. In this embodiment, content data provided from the Internet and described on the assumption that it is operated by a remote controller is acquired.

USB_IF部47は、接続されたUSBデバイスUDと、USB規格に基づいて通信してデータのやりとりを行う。本実施形態に係るUSB_IF部47は、接続された地上デジタル放送受信機器や、マウスなどのポインティングデバイスとデータのやりとりを行う。   The USB_IF unit 47 communicates with the connected USB device UD based on the USB standard to exchange data. The USB_IF unit 47 according to the present embodiment exchanges data with a connected terrestrial digital broadcast receiving device or a pointing device such as a mouse.

操作部48は、キーボードやマウスといったポインティングデバイスであり、これ以降は、マウスを適用した実施形態を説明するが、タッチパッドやペンタブレットなども適用することが可能である。   The operation unit 48 is a pointing device such as a keyboard and a mouse, and hereinafter, an embodiment in which a mouse is applied will be described, but a touch pad, a pen tablet, or the like can also be applied.

このような構成によって、本実施形態に係るパーソナルコンピュータ10は、データ放送コンテンツなどのリモコンによる操作を前提として記述された映像コンテンツに対して、ポインティングデバイスによる操作を可能とした画面を利用して、マウスなどのポインティングデバイスによる操作をリモコンによる操作に変換する処理を実行することが可能となる。   With such a configuration, the personal computer 10 according to the present embodiment uses a screen that enables operation with a pointing device for video content described on the premise of operation with a remote controller such as data broadcast content, It is possible to execute processing for converting an operation with a pointing device such as a mouse into an operation with a remote controller.

そこでまず図2を用いて、本実施形態に係るパーソナルコンピュータ10が表示するデータ放送コンテンツの画面210を説明する。
図2は、本実施形態に係るパーソナルコンピュータ10が表示するデータ放送コンテンツの画面の一例を示す図である。
データ放送コンテンツの画面210は、パーソナルコンピュータ10の表示器33が表示するグラフィック画面200の一部の領域に表示され、CPU20によって実行されるアプリケーションプログラムが生成するグラフィック画像である。
First, the data broadcast content screen 210 displayed by the personal computer 10 according to the present embodiment will be described with reference to FIG.
FIG. 2 is a diagram showing an example of a data broadcast content screen displayed by the personal computer 10 according to the present embodiment.
The data broadcast content screen 210 is a graphic image that is displayed in a partial area of the graphic screen 200 displayed on the display device 33 of the personal computer 10 and is generated by an application program executed by the CPU 20.

データ放送コンテンツの画面210は、映像表示領域211、「天気予報」ボタン212、「ニュース」ボタン213、「番組案内」ボタン214、「お知らせ」ボタン215、「写真一覧」ボタン216、「ヘルプ」ボタン217、情報提示領域218、ポインタ220などを備える。   The data broadcasting content screen 210 includes a video display area 211, a “weather forecast” button 212, a “news” button 213, a “program guide” button 214, a “notice” button 215, a “photo list” button 216, and a “help” button. 217, an information presentation area 218, a pointer 220, and the like.

映像表示領域211は、チューナ部45や通信部46、USB_IF部47などを介して取得したデジタル放送の番組の映像を表示する領域である。
「天気予報」ボタン212や、「ニュース」ボタン213、「番組案内」ボタン214、「お知らせ」ボタン215、「写真一覧」ボタン216、「ヘルプ」ボタン217は、それぞれに対応する情報を提示するためのボタンでありフォーカスまたは選択可能に表示される。そして、フォーカスまたは選択されたボタンは、自身の周囲の枠線を太く表示する枠線の太さによる強調表示や、周囲の領域と異なる色で表示する色による強調表示などによってフォーカスまたは選択されている状態を示す。具体的には、図2に示すデータ放送コンテンツの画面210では、「天気予報」ボタン212が、枠線の太さによる強調表示でフォーカスまたは選択されている状態である。
The video display area 211 is an area for displaying video of a digital broadcast program acquired via the tuner unit 45, the communication unit 46, the USB_IF unit 47, and the like.
The “weather forecast” button 212, “news” button 213, “program guide” button 214, “notification” button 215, “photo list” button 216, and “help” button 217 are for presenting the corresponding information. This button is displayed so that it can be focused or selected. Then, the focused or selected button is focused or selected by highlighting by the thickness of the border line that displays the surrounding border line thickly, or by highlighting by a color that is displayed in a different color from the surrounding area. Indicates the state. Specifically, in the data broadcast content screen 210 shown in FIG. 2, the “weather forecast” button 212 is in a state of being focused or selected by highlighting with the thickness of the frame line.

情報提示領域218は、「天気予報」ボタン212〜「ヘルプ」ボタン217の中から選択されたボタンに対応する情報を提示する領域である。提示される情報は、チューナ部45や通信部46、USB_IF部47などを介して取得される。   The information presentation area 218 is an area for presenting information corresponding to a button selected from the “weather forecast” button 212 to the “help” button 217. The presented information is acquired via the tuner unit 45, the communication unit 46, the USB_IF unit 47, and the like.

ポインタ220は、コントローラ部44や、USB_IF部47などを介して接続されたマウスなどのポインティングデバイスの操作に応じて自身の位置が移動し、特定の位置を指示する点指示部品である。具体的には、矢印の先端が指示する位置が特定される。なお本実施形態では、図2に示すデータ放送コンテンツの画面210上では、ポインタ220は、ポインティングデバイスの操作だけでなく、ポインティングデバイスによる操作をリモコンによる操作に変換するプログラムによっても自身の位置が移動する。   The pointer 220 is a point indicating component that moves in accordance with an operation of a pointing device such as a mouse connected via the controller unit 44, the USB_IF unit 47, or the like, and points to a specific position. Specifically, the position indicated by the tip of the arrow is specified. In this embodiment, on the data broadcast content screen 210 shown in FIG. 2, the position of the pointer 220 moves not only by the operation of the pointing device but also by a program that converts the operation by the pointing device into the operation by the remote control. To do.

なお、図2に示すデータ放送コンテンツの画面210においては、「天気予報」ボタン212〜「ヘルプ」ボタン217は、リモコンによる操作で選択されるようにBMLで記述されている。そして、リモコンの上下左右方向キーで操作する条件において、フォーカスまたは選択されるボタンの移動は、図3に示すフォーカス移動テーブルのように定義されている。   In the data broadcast content screen 210 shown in FIG. 2, the “weather forecast” button 212 to the “help” button 217 are described in BML so as to be selected by an operation with the remote controller. Then, under the condition of operating with the up / down / left / right direction keys of the remote controller, the movement of the focus or selected button is defined as a focus movement table shown in FIG.

次に図3により、図2に示すデータ放送コンテンツの画面210上のボタンのフォーカス移動方向に関する定義を説明する。
具体的には、領域1である「天気予報」ボタン212が現在のフォーカス領域である状態では、フォーカスされるボタンは、上方向キーの押下により領域4である「お知らせ」ボタン215に移動する。また、下方向キーの押下では領域2である「ニュース」ボタン213に、左方向キーの押下では領域6である「ヘルプ」ボタン217に、そして、右方向キーの押下では領域5である「写真一覧」ボタン216に、それぞれ移動する。
Next, FIG. 3 will be used to explain the definition of the focus movement direction of the button on the data broadcast content screen 210 shown in FIG.
Specifically, in a state where the “weather forecast” button 212 that is the region 1 is the current focus region, the focused button moves to the “notification” button 215 that is the region 4 when the up direction key is pressed. In addition, the “News” button 213 in the area 2 is pressed when the down key is pressed, the “Help” button 217 in the area 6 is pressed when the left key is pressed, and the “Photo” in the area 5 is pressed when the right key is pressed. Move to the “List” button 216.

また「天気予報」ボタン212以外の領域2〜6のボタン、すわわち、「ニュース」ボタン213、「番組案内」ボタン214、「お知らせ」ボタン215、「写真一覧」ボタン216、「ヘルプ」ボタン217それぞれが現在のフォーカス領域である状態でも、図3に示したテーブルのように上下左右方向キーの押下に応じて、それぞれに対応するボタンへとフォーカスが移動する。   Also, the buttons in the areas 2 to 6 other than the “weather forecast” button 212, that is, the “news” button 213, the “program guide” button 214, the “notice” button 215, the “photo list” button 216, and the “help” button Even in the state where each of the focus areas 217 is the current focus area, the focus moves to the corresponding button in response to pressing of the up / down / left / right direction keys as in the table shown in FIG.

ところが、本実施形態に係るパーソナルコンピュータ10は、図1に示したブロック図のとおり、リモコンによる操作入力の情報を取得するブロックを備えないので、本実施形態においては、データ放送コンテンツの画面210上のボタンなどの操作は、コントローラ部44やUSB_IF部47などに接続されたマウスによる操作をリモコンによる操作に変換することによって実行される。   However, as shown in the block diagram of FIG. 1, the personal computer 10 according to the present embodiment does not include a block for acquiring operation input information from the remote controller. The operation of the button is executed by converting the operation of the mouse connected to the controller unit 44, the USB_IF unit 47, etc. into the operation of the remote controller.

次に図4を用いて、本実施形態に係るパーソナルコンピュータ10によって実行される、リモコンによる操作を前提として記述されたデータ放送コンテンツに対して、ポインティングデバイスによる操作をリモコンによる操作に変換して、ポインティングデバイスによる操作を可能としたデータ放送コンテンツの画面を表示するプログラムの構造を説明する。   Next, with reference to FIG. 4, for the data broadcast content described by the operation by the remote controller executed by the personal computer 10 according to the present embodiment, the operation by the pointing device is converted into the operation by the remote controller, The structure of a program for displaying a data broadcast content screen that can be operated by a pointing device will be described.

図4は、リモコンによる操作を前提として記述されたデータ放送コンテンツを、ポインティングデバイスによって操作することを可能にするプログラムの構造を示す図である。   FIG. 4 is a diagram showing the structure of a program that enables a data broadcasting content described on the premise of an operation by a remote controller to be operated by a pointing device.

このプログラムは、コンテンツ管理部401、UIエンジン402、フレームバッファ管理部403、I/Oドライバ412、ポインタ移動部413、ポインタ移動方向判定部414、ポインタ座標管理部416、フレーム差分検出部421、フォース移動領域管理部422、キーイベント発生部431、インターバルタイマ441などで構成されている。さらに、主メモリ31またはHDD42は、メモリ404,415,423などを備えている。   This program includes a content management unit 401, a UI engine 402, a frame buffer management unit 403, an I / O driver 412, a pointer movement unit 413, a pointer movement direction determination unit 414, a pointer coordinate management unit 416, a frame difference detection unit 421, a force. It includes a movement area management unit 422, a key event generation unit 431, an interval timer 441, and the like. Further, the main memory 31 or the HDD 42 includes memories 404, 415, 423, and the like.

インターバルタイマ441は、CPU20などに入力された所定周波数のクロック信号に基づいてタイマ計測し、フレーム差分検出部421や、ポインタ座標管理部416、ポインタ移動方向判定部414などに対して、所定周期で処理を実行するための割り込み信号を出力する。   The interval timer 441 performs timer measurement based on a clock signal having a predetermined frequency input to the CPU 20 or the like, and performs a predetermined period for the frame difference detection unit 421, the pointer coordinate management unit 416, the pointer movement direction determination unit 414, and the like. An interrupt signal for executing the process is output.

コンテンツ管理部401は、チューナ部45や、通信部46、USB_IF部47などから取得されたデータ放送コンテンツのデータを解析し、このコンテンツの画面上のボタンなどのGUI部品の座標値や色の情報などを抽出してUIエンジン402へ出力する。   The content management unit 401 analyzes data broadcast content data acquired from the tuner unit 45, the communication unit 46, the USB_IF unit 47, and the like, and information on coordinate values and colors of GUI parts such as buttons on the screen of the content. Are extracted and output to the UI engine 402.

UIエンジン402は、コンテンツ管理部401から入力されたGUI部品の座標値や色などの情報に基づいてレイアウトした画面を画像フレーム単位で表示するための表示画面情報をフレームバッファ管理部403へ出力する。また、UIエンジン402は、ポインタ移動部413から入力されたポインタ220を表示するためのポインタ表示情報を表示画面情報に重畳する。   The UI engine 402 outputs to the frame buffer management unit 403 display screen information for displaying a screen laid out in units of image frames based on information such as coordinate values and colors of GUI parts input from the content management unit 401. . Also, the UI engine 402 superimposes pointer display information for displaying the pointer 220 input from the pointer moving unit 413 on the display screen information.

フレームバッファ管理部403は、UIエンジン402から入力された表示画面情報をフレーム単位で管理してメモリ404に格納する。またメモリ404に格納された表示画面情報を所定のタイミングで読み出して表示器33に出力する。   The frame buffer management unit 403 manages display screen information input from the UI engine 402 in units of frames and stores the information in the memory 404. The display screen information stored in the memory 404 is read at a predetermined timing and output to the display device 33.

メモリ404は、表示画面情報を格納する、コンテンツ管理部401が取得したデータ放送コンテンツの画像を表示するためのフレームバッファである。またさらに、メモリ404は、複数の表示画面情報において異なる領域に関する情報を示す差分領域情報も格納する。なおメモリ404は、主メモリ31またはHDD42などに備えられる。   The memory 404 is a frame buffer that stores display screen information and displays an image of data broadcast content acquired by the content management unit 401. Furthermore, the memory 404 also stores difference area information indicating information related to different areas in the plurality of display screen information. The memory 404 is provided in the main memory 31 or the HDD 42.

I/Oドライバ412は、コントローラ部44やUSB_IF部47などに接続されたマウスなどのポインティングデバイス411を制御するためのプログラムであり、ポインティングデバイス411から入力された操作情報に応じて、ポインタ220の移動を制御するポインタ制御信号をポインタ移動部413へ出力する。   The I / O driver 412 is a program for controlling a pointing device 411 such as a mouse connected to the controller unit 44, the USB_IF unit 47, and the like. The I / O driver 412 controls the pointer 220 according to operation information input from the pointing device 411. A pointer control signal for controlling movement is output to the pointer moving unit 413.

ポインタ移動部413は、I/Oドライバから入力されたポインタ制御情報に基づいて、ポインタ表示情報をUIエンジン402へ出力する。また、ポインタ移動方向判定部414から入力されたポインタ制御情報に基づくポインタ表示情報もUIエンジン402へ出力する。   The pointer moving unit 413 outputs pointer display information to the UI engine 402 based on pointer control information input from the I / O driver. In addition, pointer display information based on the pointer control information input from the pointer movement direction determination unit 414 is also output to the UI engine 402.

ポインタ座標管理部416は、表示器33に表示される画面の一部に表示されるポインタ220の移動軌跡を示すポインタ軌跡情報をインターバルタイマ441からの割り込み信号に基づいて所定時間毎に所定期間(時間)取得し、メモリ415に時系列で格納する。すなわちポインタ軌跡情報は、ポインタ220が指し示す点に関する点情報である、表示器33の画像表示領域の座標値による、所定時間ごとの点軌跡情報である。   The pointer coordinate management unit 416 displays pointer trajectory information indicating the movement trajectory of the pointer 220 displayed on a part of the screen displayed on the display device 33 at predetermined intervals (at predetermined intervals based on an interrupt signal from the interval timer 441). Time) and store it in the memory 415 in time series. That is, the pointer trajectory information is point trajectory information for each predetermined time based on the coordinate value of the image display area of the display device 33, which is point information regarding the point indicated by the pointer 220.

メモリ415は、ポインタ座標管理部416が取得する時系列のポインタ軌跡情報を格納する。なおメモリ415は、主メモリ31またはHDD42などに備えられる。   The memory 415 stores time-series pointer trajectory information acquired by the pointer coordinate management unit 416. The memory 415 is provided in the main memory 31 or the HDD 42.

ポインタ移動方向判定部414は、メモリ415に格納されたポインタ軌跡情報をインターバルタイマ441からの割り込み信号に基づいて所定時間間隔で読み出して解析する。そして、この解析により判定したポインタの移動方向に基づいて、リモコンなどから発せられた情報に応じたキーイベント情報に変換してキーイベント発生部431へ出力する。キーイベント情報は、リモコンなどに備えられた方向キーや決定キーなどが押下されたとき、これらのキーの押下に応じて画面操作を行うための情報である。またさらに、ポインタ移動方向判定部414は、このキーイベント情報に応じたポインタ制御情報をポインタ移動部413へ出力する。なお、キーイベント情報およびポインタ制御情報は、フォーカス移動領域管理部422へも併せて出力される。   The pointer movement direction determination unit 414 reads and analyzes the pointer trajectory information stored in the memory 415 at predetermined time intervals based on the interrupt signal from the interval timer 441. Then, based on the moving direction of the pointer determined by this analysis, it is converted into key event information corresponding to information emitted from a remote controller or the like and output to the key event generating unit 431. The key event information is information for performing a screen operation in response to pressing of a direction key or a determination key provided in a remote controller or the like. Furthermore, the pointer movement direction determination unit 414 outputs pointer control information corresponding to the key event information to the pointer movement unit 413. The key event information and the pointer control information are also output to the focus movement area management unit 422.

キーイベント発生部431は、リモコンなどに備えられたキーの押下に基づくキーイベント情報を、画面操作を実行する様々な機能ブロックへ出力する。またさらに、キーイベント発生部431は、ポインタ移動方向判定部414から入力されたキーイベント情報も同様に様々な機能ブロックへ出力する。   The key event generation unit 431 outputs key event information based on pressing of a key provided in a remote controller or the like to various functional blocks that execute screen operations. Furthermore, the key event generation unit 431 similarly outputs the key event information input from the pointer movement direction determination unit 414 to various functional blocks.

フレーム差分検出部421は、メモリ404に格納された表示画面情報の中の複数の表示画面情報の差分領域情報をメモリ404に格納する。
フォーカス移動領域管理部422は、ポインタ移動方向判定部414からキーイベント情報およびポインタ制御情報が入力されると、フレーム差分検出部421に対してメモリ404に格納された特定の画像に関する表示画像情報および差分領域情報の出力を要求する。そして、フレーム差分検出部421から入力された表示画像情報および差分領域情報に基づいて、画面上のボタンとして特定されるボタン領域情報を抽出してメモリ423に記憶する。
The frame difference detection unit 421 stores difference area information of a plurality of display screen information in the display screen information stored in the memory 404 in the memory 404.
When the key event information and the pointer control information are input from the pointer movement direction determination unit 414, the focus movement area management unit 422 receives display image information regarding a specific image stored in the memory 404 and the frame difference detection unit 421. Request output of difference area information. Based on the display image information and the difference area information input from the frame difference detection unit 421, button area information specified as a button on the screen is extracted and stored in the memory 423.

メモリ423は、フォーカス移動領域管理部422が抽出したボタン領域情報を格納する。なおメモリ415は、主メモリ31またはHDD42などに備えられる。
すなわち、以上説明したプログラムの構造によって、リモコンによる操作を前提として記述されたデータ放送コンテンツを、ポインティングデバイスであるマウスによって操作する処理が実行される。
The memory 423 stores the button area information extracted by the focus movement area management unit 422. The memory 415 is provided in the main memory 31 or the HDD 42.
That is, according to the program structure described above, processing for operating data broadcast content described on the premise of operation by a remote controller with a mouse as a pointing device is executed.

次に、図5を用いて、リモコンによる操作を前提として記述されたデータ放送コンテンツを、マウスによって操作する処理の説明をする。
図5は、本実施形態に係るデータ放送コンテンツをマウスによって操作する処理のフローチャートである。
まず、ポインタ220が、表示器33に表示された画面の一部の領域に表示された、データ放送コンテンツの画面上に移動して表示されると、ポインタ移動部413は画面上のポインタ220を非表示にする(S501)。
Next, with reference to FIG. 5, a description will be given of processing for operating data broadcast content described on the premise of operation by a remote controller using a mouse.
FIG. 5 is a flowchart of processing for operating the data broadcast content according to the present embodiment with the mouse.
First, when the pointer 220 is moved and displayed on the data broadcasting content screen displayed in a partial area of the screen displayed on the display device 33, the pointer moving unit 413 moves the pointer 220 on the screen. Hide (S501).

次に、ポインタ移動部413は、データ放送コンテンツの画面中央にポインタ220を移動し(S502)、インターバルタイマ441が、入力されたクロック信号に基づいてタイマ計測を開始する(S503)。さらに、ポインタ座標管理部416はメモリ415に格納されるポインタ軌跡情報をクリアし、フレーム差分検出部421はメモリ404に格納される差分領域情報をクリアする(S504)。   Next, the pointer moving unit 413 moves the pointer 220 to the center of the screen of the data broadcasting content (S502), and the interval timer 441 starts timer measurement based on the input clock signal (S503). Further, the pointer coordinate management unit 416 clears the pointer trajectory information stored in the memory 415, and the frame difference detection unit 421 clears the difference area information stored in the memory 404 (S504).

そして、インターバルタイマ441からの割り込み信号に基づいて所定時間が経過したか判断して(S505)、経過していない場合(S505のN)は、ポインタ座標管理部416が、現在のポインタ座標値と現在の時間情報とを取得してポインタ軌跡情報をメモリ415に保存する(S506)。そしてポインタ制御モードが変更されたか判断して(S507)、変更された場合(S507のY)、ポインタ制御モードを通常モードに設定して(S508)処理を終了する。   Based on the interrupt signal from the interval timer 441, it is determined whether a predetermined time has elapsed (S505). If it has not elapsed (N in S505), the pointer coordinate management unit 416 determines the current pointer coordinate value. The current time information is acquired and the pointer trajectory information is stored in the memory 415 (S506). Then, it is determined whether the pointer control mode has been changed (S507). If the pointer control mode has been changed (Y in S507), the pointer control mode is set to the normal mode (S508), and the process is terminated.

なお、ポインタ制御モードは、通常モードと変換モードの少なくとも2つのモードが定義される。通常モードはマウスによる操作のみに応じてポインタ220が連動して移動するモードであり、すなわち一般的なポインタ制御のモードである。変換モードは、マウス操作をリモコン操作などのキーイベントに変換するモードであり、本実施形態におけるデータ放送コンテンツの画面上にポインタ220が移動したときには、自動的に変換モードに切り替わる。   Note that at least two pointer control modes are defined: a normal mode and a conversion mode. The normal mode is a mode in which the pointer 220 moves in conjunction with only the operation with the mouse, that is, a general pointer control mode. The conversion mode is a mode for converting a mouse operation into a key event such as a remote control operation. When the pointer 220 moves on the data broadcasting content screen in this embodiment, the conversion mode is automatically switched to.

一方、ポインタ制御モードが変更されない場合(S507のN)、フレーム差分検出部421は、メモリ404に保存された、現在および一つ前の画像フレームの表示画像情報を取得して、この取得した2つの画像フレームの差分領域情報を検出して特定し、差分領域情報ΔFB1としてメモリ404に格納する(S509)。そして再び、所定時間が経過したか判断する処理(S505)が実行されるので、所定時間が経過していな場合で且つ、ポインタ制御モードが変更されない場合には、ポインタ軌跡情報を保存する処理(S506)と差分領域情報を格納する処理(S509)とが繰り返し実行される。   On the other hand, when the pointer control mode is not changed (N in S507), the frame difference detection unit 421 acquires the display image information of the current and previous image frames stored in the memory 404, and acquires the acquired 2 The difference area information of one image frame is detected and specified, and stored in the memory 404 as difference area information ΔFB1 (S509). Then, since the process for determining whether or not the predetermined time has elapsed (S505) is executed, if the predetermined time has not elapsed and the pointer control mode is not changed, the process of storing the pointer trajectory information ( S506) and the process of storing the difference area information (S509) are repeatedly executed.

なお、インターバルタイマ441からの割り込み信号に基づいて所定時間が経過したか判断して(S505)、経過した場合(S505のY)、ポインタ移動方向判定部414は、ポインタ軌跡情報に基づいてキーイベント情報に変換して(S510)、キーイベント発生部431へキーイベント情報を出力する。そして、キーイベント発生部431が、ポインタ移動方向判定部414から入力されたキーイベント情報を発行し(S511)、画面上のボタンのフォーカスが移動する。さらに、フォーカス移動領域管理部422は、フレーム差分検出部421が検出した画像フレームの表示画像情報および差分領域情報に基づいて、画面上のボタン領域として特定されるボタン領域情報を抽出してメモリ423に登録する(S512)。そして再び、画面中央にポインタ220を移動する処理(S502)に移行し、以上説明した複数の処理が実行される。   It is determined whether a predetermined time has elapsed based on the interrupt signal from the interval timer 441 (S505), and when it has elapsed (Y in S505), the pointer movement direction determination unit 414 determines the key event based on the pointer trajectory information. The information is converted into information (S510), and the key event information is output to the key event generating unit 431. Then, the key event generation unit 431 issues key event information input from the pointer movement direction determination unit 414 (S511), and the focus of the button on the screen moves. Further, the focus movement area management unit 422 extracts button area information specified as a button area on the screen based on the display image information and the difference area information of the image frame detected by the frame difference detection unit 421 and extracts the memory 423. (S512). Then, the process again moves to the process of moving the pointer 220 to the center of the screen (S502), and the plurality of processes described above are executed.

すなわち、以上説明したフローチャートに従って、データ放送コンテンツの画面上のポインタを利用して、マウス操作による操作がキーイベント操作に変換される。
次に、図6を用いて、ポインタ移動方向判定部414によって実行される、ポインタ軌跡情報に基づいてキーイベント情報に変換するイベント変換処理を詳細に説明する。
That is, according to the flowchart described above, the operation by the mouse is converted into the key event operation by using the pointer on the screen of the data broadcasting content.
Next, with reference to FIG. 6, an event conversion process performed by the pointer movement direction determination unit 414 for converting into key event information based on the pointer trajectory information will be described in detail.

図6は、イベント変換処理の詳細なフローチャートである。
まず、ポインタ移動方向判定部414は、メモリ415に格納された時系列のポインタ軌跡情報を取得する(S601)。なお、ポインタ軌跡情報は、所定時間間隔のタイムスタンプといった時間情報ごとの、表示器33に表示されるグラフィック画面におけるx座標値とy座標値からなる2次元の座標情報である。そして、ポインタ移動方向判定部414は、x座標値とy座標値との関係と、時間情報とx座標値との関係、時間情報とy座標値との関係、の3つの関係それぞれに関して最小二乗法などにより近似直線式を算出する(S602)。
FIG. 6 is a detailed flowchart of the event conversion process.
First, the pointer movement direction determination unit 414 acquires time-series pointer trajectory information stored in the memory 415 (S601). The pointer trajectory information is two-dimensional coordinate information made up of an x coordinate value and a y coordinate value on a graphic screen displayed on the display 33 for each time information such as a time stamp at a predetermined time interval. Then, the pointer movement direction determination unit 414 performs at least two relationships with respect to each of the three relationships of the relationship between the x coordinate value and the y coordinate value, the relationship between the time information and the x coordinate value, and the relationship between the time information and the y coordinate value. An approximate linear equation is calculated by multiplication or the like (S602).

さらに、メモリ415から取得したポインタ軌跡情報の座標値と、これらの座標値から算出したそれぞれの近似直線式上の座標値に関して、特定のx座標値に対するy座標値の差が所定値よりも小さいかを判定する(S603)。   Furthermore, regarding the coordinate value of the pointer trajectory information acquired from the memory 415 and the coordinate value on each approximate linear equation calculated from these coordinate values, the difference between the y coordinate value and the specific x coordinate value is smaller than a predetermined value. Is determined (S603).

そして、差が小さくない(大きい)と判定した場合(S603のN)、処理は終了する。しかし、差が小さいと判定した場合(S603のY)、近似直線式の傾き値に応じてキーイベント情報に変換する(S604)。   If it is determined that the difference is not small (large) (N in S603), the process ends. However, if it is determined that the difference is small (Y in S603), it is converted into key event information according to the slope value of the approximate linear equation (S604).

すなわち、イベント変換処理は、取得したポインタ軌跡情報に基づいて近似直線式を算出し、これらポインタ軌跡情報と近似直線式との差に応じてキーイベントに変換する処理である。   In other words, the event conversion process is a process of calculating an approximate linear equation based on the acquired pointer trajectory information and converting it into a key event according to the difference between the pointer trajectory information and the approximate linear equation.

次に具体的に、図7を用いて、ポインタ軌跡情報である時間情報と座標情報とから導かれる関係と、これらの関係の近似直線とをグラフ化した概念図を説明する。
図7は、ポインタ軌跡情報の実座標値と近似直線の座標値との差を視覚的に比較するためのグラフである。
グラフ(Aa)、(Ab)、(Ac)は、任意のポインタ軌跡情報Aに基づくグラフであり、グラフ(Ba)、(Bb)、(Bc)は、任意のポインタ軌跡情報Bに基づくグラフである。
Next, specifically, a conceptual diagram obtained by graphing the relationship derived from the time information and the coordinate information as the pointer trajectory information and the approximate straight line of these relationships will be described with reference to FIG.
FIG. 7 is a graph for visually comparing the difference between the actual coordinate value of the pointer trajectory information and the coordinate value of the approximate line.
Graphs (Aa), (Ab), and (Ac) are graphs based on arbitrary pointer trajectory information A, and graphs (Ba), (Bb), and (Bc) are graphs based on arbitrary pointer trajectory information B. is there.

なおグラフ(Aa)は、任意のポインタ軌跡情報Aのx座標値とy座標値との関係と、これらの座標値から算出される近似直線式とを一括表示したグラフである。また、グラフ(Ab)は、ポインタ軌跡情報Aの時間情報とx座標値との関係と、これらの座標値から算出される近似直線式とを一括表示したグラフであり、グラフ(Ac)は、ポインタ軌跡情報Aの時間情報とy座標値との関係と、これらの座標値から算出される近似直線式とを一括表示したグラフである。   The graph (Aa) is a graph in which the relationship between the x coordinate value and the y coordinate value of the arbitrary pointer trajectory information A and the approximate straight line equation calculated from these coordinate values are collectively displayed. The graph (Ab) is a graph in which the relationship between the time information of the pointer trajectory information A and the x coordinate value and the approximate linear expression calculated from these coordinate values are collectively displayed. The graph (Ac) It is the graph which displayed collectively the relationship between the time information of pointer locus | trajectory information A, and y coordinate value, and the approximate linear type | formula calculated from these coordinate values.

また、グラフ(Ba)、(Bb)、(Bc)は、ポインタ軌跡情報Aとは異なる任意のポインタ軌跡情報Bに基づいて、グラフ(Aa)、(Ab)、(Ac)それぞれと同様の内容を表示したフラグである。   The graphs (Ba), (Bb), and (Bc) have the same contents as the graphs (Aa), (Ab), and (Ac) based on arbitrary pointer trajectory information B different from the pointer trajectory information A. Is a flag that displays.

そして、グラフ(Aa)、(Ab)、(Ac)、およびグラフ(Bb)は、座標値のグラフと近似直線式のグラフとで、特定のx座標値に対するy座標値の差はほとんどない(所定値よりも小さい)と判断される。一方、グラフ(Ba)、(Bc)は、座標値のグラフと近似直線式のグラフとで、特定のx座標値に対するy座標値の差は大きい(所定値以上である)と判断される。   The graphs (Aa), (Ab), (Ac), and the graph (Bb) are a coordinate value graph and an approximate linear graph, and there is almost no difference in the y coordinate value with respect to a specific x coordinate value ( Is smaller than a predetermined value). On the other hand, the graphs (Ba) and (Bc) are a coordinate value graph and an approximate linear graph, and it is determined that the difference between the y coordinate value and the specific x coordinate value is large (greater than or equal to a predetermined value).

すなわち、ポインタ移動方向判定部414は、ポインタ軌跡情報Aを取得したときには、実際のデータと近似直線式との差がないと判断してマウス操作に係る情報をキーイベントに変換せず、ポインタ軌跡情報Bを取得したときには、実際のデータと近似直線式との差があると判断してマウス操作に係る情報をキーイベントに変換する。   That is, when the pointer movement direction determination unit 414 acquires the pointer locus information A, the pointer movement direction determination unit 414 determines that there is no difference between the actual data and the approximate linear equation, and does not convert the information related to the mouse operation into the key event. When the information B is acquired, it is determined that there is a difference between the actual data and the approximate linear equation, and information related to the mouse operation is converted into a key event.

次に、図8を用いて、近似直線式の傾きに応じてキーイベント情報に変換する処理における判定基準について説明する。
図8は、近似直線式の傾きとキーイベント情報の方向の対応を示す図である。
なお、図8に示すx−y座標からなる判定基準グラフには、ポインタ軌跡情報のx座標値とy座標値とがプロットされるものであり、図7に示したグラフ(Aa)、(Ba)と同じ座標系である。
Next, with reference to FIG. 8, a description will be given of a determination criterion in the process of converting into key event information in accordance with the inclination of the approximate linear equation.
FIG. 8 is a diagram illustrating the correspondence between the slope of the approximate linear equation and the direction of the key event information.
Note that the x-coordinate value and y-coordinate value of the pointer trajectory information are plotted on the determination reference graph composed of the xy coordinates shown in FIG. 8, and the graphs (Aa) and (Ba) shown in FIG. ) And the same coordinate system.

そして、この判定基準グラフの領域は、上方向キーのキーイベントに変換される領域である上方向領域801と、左方向キーのキーイベントに変換される領域である左方向領域802と、下方向キーのキーイベントに変換される領域である下方向領域803と、右方向キーのキーイベントに変換される領域である上方向領域804とに区分けされる。なお、これら4つの領域は、y=xの関係式とy=−xの関係式との2つの直線を境界線とする。   The area of the criterion graph includes an upward area 801 that is an area to be converted to a key event for the up key, a left area 802 that is an area to be converted to a key event for the left key, and a downward direction. The area is divided into a downward area 803, which is an area converted into a key event of the key, and an upward area 804, an area converted into a key event of the right arrow key. Note that these four regions have two straight lines of a relational expression of y = x and a relational expression of y = −x as boundary lines.

具体的には、ポインタ軌跡情報のx座標値とy座標値とから算出される近似直線式が上方向領域801に存在する場合には、このポインタ軌跡情報は、上方向キーのキーイベントに変換される。   Specifically, when an approximate linear expression calculated from the x coordinate value and the y coordinate value of the pointer trajectory information exists in the upward area 801, the pointer trajectory information is converted into a key event of the upward key. Is done.

すなわち、ポインタ軌跡情報は、このポインタ軌跡情報に基づいて算出される近似直線式の傾きに応じて、所定のキーイベントに変換される。
次に、図9を用いて、フォーカス移動領域管理部422によって実行される、ボタン領域を特定して登録する処理を詳細に説明する。
図9は、ボタン領域を特定して登録する処理の詳細なフローチャートである。
まず、イベント変換処理によって変換されたキーイベント情報が発行されると、フレーム差分検出部421は、メモリ404に保存された、現在および一つ前の画像フレームの表示画像情報を取得して、この取得した2つの画像フレームのフレーム差分領域情報を検出して特定し、差分領域情報ΔFB2としてメモリ404に格納する(S901)。さらに、フレーム差分検出部421は、メモリ404に格納された差分領域情報ΔFB1と差分領域情報ΔFB2とを読み出して、差分領域情報ΔFB1と差分領域情報ΔFB2との差分領域を特定して抽出する(S902)。そして、フォーカス移動領域管理部422は、フレーム差分検出部421が抽出した差分領域をボタン領域として特定して、ボタン領域情報としてメモリ404に登録する(S903)。
That is, the pointer trajectory information is converted into a predetermined key event in accordance with the inclination of the approximate linear equation calculated based on the pointer trajectory information.
Next, a process for specifying and registering a button area, which is executed by the focus movement area management unit 422, will be described in detail with reference to FIG.
FIG. 9 is a detailed flowchart of a process for specifying and registering a button area.
First, when the key event information converted by the event conversion process is issued, the frame difference detection unit 421 acquires display image information of the current and previous image frames stored in the memory 404, and this The frame difference area information of the two acquired image frames is detected and specified, and stored as difference area information ΔFB2 in the memory 404 (S901). Further, the frame difference detection unit 421 reads the difference area information ΔFB1 and the difference area information ΔFB2 stored in the memory 404, and specifies and extracts the difference area between the difference area information ΔFB1 and the difference area information ΔFB2 (S902). ). Then, the focus movement area management unit 422 identifies the difference area extracted by the frame difference detection unit 421 as a button area and registers it as button area information in the memory 404 (S903).

なお、ボタン領域情報の登録は、図3に示したフォーカス移動テーブルの形態で登録され、且つ、対応するデータ放送コンテンツに関連付けて登録される。また、それぞれのボタン領域の画面上の座標値情報も併せて登録される。   The button area information is registered in the form of the focus movement table shown in FIG. 3, and is registered in association with the corresponding data broadcast content. Also, coordinate value information on the screen of each button area is also registered.

(応用例)
次に、ポインタ軌跡情報に基づく近似直線式により特定される方向とキーイベントによる移動方向とが逆のボタン領域情報を削除して登録されるフォーカス移動テーブルの例を説明する。
(Application examples)
Next, an example of a focus movement table registered by deleting button area information in which the direction specified by the approximate straight line expression based on the pointer trajectory information and the movement direction by the key event are reversed will be described.

一般にデータ放送コンテンツのボタン移動は、操作キーの押下回数を少なくなるように、特定方向のキー操作によって特定のボタン間を循環して移動するように定義されている場合が少なくない。具体的には、図3に示したフォーカス移動テーブルにおいて、領域1である「天気予報」ボタンが現在のフォーカス領域である状態で、ポインタ220が上方向に移動して上方向のキーイベントに変換されると、画面上では領域1よりも下方に位置する領域4である「お知らせ」ボタンへとフォーカスが移動する。   In general, the button movement of data broadcasting content is often defined to move cyclically between specific buttons by a key operation in a specific direction so that the number of times the operation key is pressed is reduced. Specifically, in the focus movement table shown in FIG. 3, the pointer 220 moves upward and is converted into an upward key event in a state where the “weather forecast” button that is area 1 is the current focus area. Then, the focus moves to the “notification” button, which is the area 4 located below the area 1 on the screen.

しかし、操作方向と画面上のボタン移動方向が逆方向であるという矛盾を避けるためには、図10に示すフォーカス移動テーブルを利用することが有効である。具体的には、領域1である「天気予報」ボタンが現在のフォーカス領域である状態では、画面上の領域1は複数のボタンの中で最も上部に位置しているので、ポインタ移動方向に基づいて上方向のキーイベントに変換されたときの移動領域は定義されない。   However, in order to avoid a contradiction that the operation direction and the button movement direction on the screen are opposite directions, it is effective to use the focus movement table shown in FIG. Specifically, in a state where the “weather forecast” button, which is the area 1, is the current focus area, the area 1 on the screen is positioned at the top of the plurality of buttons, and thus is based on the pointer movement direction. The movement area when converted to an upward key event is not defined.

すなわち、図10に示したフォーカス移動テーブルを利用して、イベント変換処理によって変換されたキーイベントを発行するか否かを決定することができる。
次に、図11を用いて、図10に示したフォーカス移動テーブルを利用してキーイベントを発行する処理を説明する。
図11は、図10に示したフォーカス移動テーブルを利用したキーイベント発行処理のフローチャートである。
まずは、ポインタ移動方向判定部414によってポインタ軌跡情報に基づくイベント変換処理が実行される(S1101)と、フォーカス移動領域管理部422は、現在のフォーカス領域から特定されるボタンに関するボタン領域情報と、操作されているコンテンツに関連付けられたフォーカス移動テーブルを取得する(S1102)。これらの情報が取得されない場合(S1103のN)は処理が終了し、情報が取得された場合(S1103のY)は、取得したボタン領域情報とフォーカス移動テーブルとを照合する(S1104)。
That is, it is possible to determine whether or not to issue the key event converted by the event conversion process, using the focus movement table shown in FIG.
Next, a process for issuing a key event using the focus movement table shown in FIG. 10 will be described with reference to FIG.
FIG. 11 is a flowchart of a key event issuing process using the focus movement table shown in FIG.
First, when an event conversion process based on the pointer trajectory information is executed by the pointer movement direction determination unit 414 (S1101), the focus movement region management unit 422 displays the button region information regarding the button specified from the current focus region, and the operation The focus movement table associated with the set content is acquired (S1102). If these pieces of information are not acquired (N in S1103), the process ends. If the information is acquired (Y in S1103), the acquired button area information is compared with the focus movement table (S1104).

そして照合の結果、イベント変換処理で変換されたキーイベントによって、現在のフォーカス領域に対するフォーカス移動方向が定義されていない場合(S1105のN)は、処理が終了し、定義されている場合(S1105のY)は、フォーカス移動テーブルと併せて登録された座標値情報に基づいて、現在のフォーカス領域から移動先のフォーカス領域への移動距離を算出する(S1106)。さらに、算出した移動距離と、ポインタ軌跡情報から算出されるポインタ220が画面上で移動した距離とを比較して、これらの距離の差が所定値以内でない場合(S1107のN)は、処理が終了する。一方、これらの距離の差が、所定値以内である場合(S1107のY)は、イベント変換処理で変換されたキーイベントに基づいて所定の方向へ移動するキーイベントを発行する(S1108)。   As a result of the collation, when the focus movement direction with respect to the current focus area is not defined by the key event converted by the event conversion process (N in S1105), the process ends and is defined (in S1105). Y) calculates the movement distance from the current focus area to the destination focus area based on the coordinate value information registered together with the focus movement table (S1106). Further, the calculated moving distance is compared with the distance that the pointer 220 calculated from the pointer trajectory information has moved on the screen, and if the difference between these distances is not within a predetermined value (N in S1107), the process is performed. finish. On the other hand, if the difference between these distances is within a predetermined value (Y in S1107), a key event that moves in a predetermined direction is issued based on the key event converted by the event conversion process (S1108).

すなわち、図10に示したフォーカス移動テーブルを利用することで、操作方向と画面上のボタン移動方向が逆方向であるという矛盾を避けることが可能となる。
なお、これまでの実施形態は、BMLで記述されたデジタル放送のデータ放送コンテンツの操作に関して説明したが、本発明の適用範囲はBMLまたはデジタル放送のデータ放送コンテンツに限定されるものではなく、例えば、光ディスク再生プログラムのMENU画面または操作画面などのリモコンを利用して操作されるグラフィック画面を、マウスなどのポインティングデバイスを利用して操作する場合にも適用できる。
That is, by using the focus movement table shown in FIG. 10, it is possible to avoid the contradiction that the operation direction and the button movement direction on the screen are opposite directions.
Although the embodiments so far have been described with respect to the operation of digital broadcast data broadcast content described in BML, the scope of the present invention is not limited to BML or digital broadcast data broadcast content. The present invention can also be applied to a case where a graphic screen operated using a remote control such as a MENU screen or an operation screen of an optical disc playback program is operated using a pointing device such as a mouse.

また、上下左右方向キーに相当するイベントを画面上のポインタの移動に基づいて発行する例を提示したが、例えば、マウスに備えられたホイールボタンを組み合わせる形態も容易に考えられる。   Moreover, although the example which issues the event equivalent to an up / down / left / right direction key based on the movement of the pointer on a screen was shown, the form which combines the wheel button with which the mouse | mouth was equipped, for example is also considered easily.

さらに、コンテンツ画面上に明示的に表示されていない、例えば、「戻り」「決定」「再生」「停止」などのリモコンに備えられたボタンを、マウスに備えられた右クリックボタンを利用して現在フォーカスされている領域付近にポップアップ表示して選択可能とする形態であってもよい。   In addition, the buttons provided on the remote control that are not explicitly displayed on the content screen, such as “return”, “decision”, “play”, “stop”, etc., are used by using the right click button provided on the mouse. A form in which a pop-up is displayed near the currently focused area to enable selection may be used.

以上説明したように本実施形態によれば、マウスなどのポインティングデバイスによる操作に応じた画面上のポインタの移動軌跡に関する情報を記憶し、この記憶した情報を分析して方向キーに相当するキーイベントに変換するので、利用者にとって利便性がよく、ポインティングデバイスの操作によってキーイベントの操作を実行することができる。   As described above, according to the present embodiment, information related to the movement trajectory of the pointer on the screen according to an operation by a pointing device such as a mouse is stored, and the stored information is analyzed to generate a key event corresponding to a direction key. Therefore, it is convenient for the user, and the key event operation can be executed by operating the pointing device.

また本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。   The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.

10…パーソナルコンピュータ、20…CPU、30…ノースブリッジ、31…主メモリ、32…グラフィックスコントローラ、33…表示器、40…サウスブリッジ、41…BIOS−ROM、42…HDD、43…ODD、44…コントローラ部、45…チューナ部、46…通信部、47…USB_IF部、48…操作部、210…データ放送コンテンツの画面、211…映像表示領域、212…「天気予報」ボタン、213…「ニュース」ボタン、214…「番組案内」ボタン、215…「お知らせ」ボタン、216…「写真一覧」ボタン、217…「ヘルプ」ボタン、218…情報提示領域、220…ポインタ、401…コンテンツ管理部、402…UIエンジン、403…フレームバッファ管理部、412…I/Oドライバ、413…ポインタ移動部、414…ポインタ移動方向判定部、416…ポインタ座標管理部、421…フレーム差分検出部、422…フォース移動領域管理部、431…キーイベント発生部、441…インターバルタイマ、404,415,423…メモリ。   DESCRIPTION OF SYMBOLS 10 ... Personal computer, 20 ... CPU, 30 ... North bridge, 31 ... Main memory, 32 ... Graphics controller, 33 ... Display, 40 ... South bridge, 41 ... BIOS-ROM, 42 ... HDD, 43 ... ODD, 44 ... Controller section, 45 ... Tuner section, 46 ... Communication section, 47 ... USB_IF section, 48 ... Operation section, 210 ... Data broadcast content screen, 211 ... Video display area, 212 ... "Weather forecast" button, 213 ... "News ”Button 214,“ program guide ”button 215,“ notice ”button, 216,“ photo list ”button, 217,“ help ”button, 218, information presentation area, 220, pointer, 401, content management section, 402 ... UI engine, 403 ... frame buffer management unit, 412 ... I / O driver, 41 ... Pointer moving unit, 414 ... Pointer moving direction determining unit, 416 ... Pointer coordinate managing unit, 421 ... Frame difference detecting unit, 422 ... Force moving area managing unit, 431 ... Key event generating unit, 441 ... Interval timer, 404, 415 423 memory.

Claims (7)

ポインティングデバイスによる操作に応じて画面上のポインタを移動させるポインタ移動手段と、
リモコンによる操作により制御されるコマンド形式の操作画面上の、前記ポインタ移動手段が移動させるポインタが指し示した軌跡情報を、ポインタが移動した時系列と関連づけて記憶する軌跡情報記憶手段と、
前記軌跡情報記憶手段が記憶した前記軌跡情報に基づいて、リモコンの方向キーに対応するコマンドに変換して発生する情報変換手段と、
前記情報変換手段が変換した前記コマンドに対応する操作を実行する操作実行手段と、
を具備することを特徴とするイベント変換装置。
Pointer moving means for moving the pointer on the screen according to the operation by the pointing device;
Trajectory information storage means for storing the trajectory information pointed to by the pointer moved by the pointer moving means on the operation screen in the command format controlled by the operation by the remote controller in association with the time series in which the pointer has moved;
Information conversion means that is generated based on the trajectory information stored in the trajectory information storage means and converted into a command corresponding to a direction key of a remote control;
An operation execution means for executing an operation corresponding to the command converted by the information conversion means;
An event conversion apparatus comprising:
前記点指示部品移動手段は、前記操作実行手段が操作を実行した後に、前記操作画面の中央部に前記点指示部品を移動することを特徴とする請求項1記載のイベント変換装置。   2. The event conversion apparatus according to claim 1, wherein the point indicating component moving means moves the point indicating component to a central portion of the operation screen after the operation executing means executes an operation. 前記点指示部品移動手段は、前記操作画面外から前記操作画面上に前記点指示部品を移動すると、前記操作画面の中央部に前記点指示部品を移動することを特徴とする請求項2記載のイベント変換装置。   The point pointing component moving means moves the point pointing component to the center of the operation screen when moving the point pointing component from the outside of the operation screen onto the operation screen. Event converter. 現在表示している画面を画像として捕獲する画像捕獲手段と、
前記画像捕獲手段が、前記操作実行手段が操作を実行する前に捕獲した画像と、前記操作実行手段が操作を実行した後に捕獲した画像とに基づいて特定される領域に関する情報を、前記操作画面を操作するボタンに関するボタン領域情報として登録する領域登録手段と、
を具備することを特徴とする請求項2または請求項3記載のイベント変換装置。
Image capturing means for capturing the currently displayed screen as an image;
The operation screen displays information related to the area specified based on the image captured by the image capturing unit before the operation executing unit performs the operation and the image captured after the operation executing unit performs the operation. Region registration means for registering as button region information regarding the button for operating
The event conversion apparatus according to claim 2, further comprising:
前記領域登録手段は、複数のボタンに関する前記ボタン領域情報と、前記複数のボタンそれぞれに対する前記操作実行手段が実行して移動する移動先ボタンに関するボタン移動情報とを関連付けて登録することを特徴とする請求項4記載のイベント変換装置。   The area registration means registers the button area information related to a plurality of buttons in association with button movement information related to a destination button that is moved by the operation execution means for each of the plurality of buttons. The event conversion apparatus according to claim 4. 前記領域登録手段は、前記情報変換手段が決定した移動方向と、前記操作実行手段が実行した操作による操作画面上のボタンの移動方向とが異なる場合には、該当する前記ボタン移動情報を登録から除外することを特徴とする請求項5記載のイベント変換装置。   If the movement direction determined by the information conversion means is different from the movement direction of the button on the operation screen by the operation executed by the operation execution means, the area registration means starts registering the corresponding button movement information. 6. The event converter according to claim 5, wherein the event converter is excluded. ポインティングデバイスによる操作に応じて画面上のポインタを移動させ、
リモコンによる操作により制御されるコマンド形式の操作画面上の、前記移動させるポインタが指し示した軌跡情報を、ポインタが移動した時系列と関連づけて記憶し、
前記記憶した前記軌跡情報に基づいて、リモコンの方向キーに対応するコマンドに変換して発生し、
前記変換した前記コマンドに対応する操作を実行する、
ことを特徴とするイベント変換方法。
Move the pointer on the screen according to the operation with the pointing device,
The trajectory information pointed to by the pointer to be moved on the operation screen in the command format controlled by the operation with the remote controller is stored in association with the time series in which the pointer has moved,
Based on the stored locus information, it is generated by converting into a command corresponding to a direction key of a remote control,
Performing an operation corresponding to the converted command;
An event conversion method characterized by that.
JP2009142419A 2009-06-15 2009-06-15 Apparatus and method for converting event Pending JP2010287169A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009142419A JP2010287169A (en) 2009-06-15 2009-06-15 Apparatus and method for converting event

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009142419A JP2010287169A (en) 2009-06-15 2009-06-15 Apparatus and method for converting event

Publications (1)

Publication Number Publication Date
JP2010287169A true JP2010287169A (en) 2010-12-24

Family

ID=43542799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009142419A Pending JP2010287169A (en) 2009-06-15 2009-06-15 Apparatus and method for converting event

Country Status (1)

Country Link
JP (1) JP2010287169A (en)

Similar Documents

Publication Publication Date Title
KR100857508B1 (en) Method and apparatus for digital broadcating set-top box controller and digital broadcasting system
KR20140133363A (en) Display apparatus and Method for controlling the display apparatus thereof
KR20150026360A (en) Method and apparatus for providing multiple applications
KR20140085061A (en) Display apparatus and Method for controlling display apparatus thereof
JP2015508539A (en) Display device and control method thereof
KR20140055486A (en) Display apparatus and method for controlling display apparatus thereof
KR102337216B1 (en) Image display apparatus and method for displaying image
KR20150134674A (en) User terminal device, and Method for controlling for User terminal device, and multimedia system thereof
KR20150124235A (en) User terminal device, and Method for controlling for User terminal device, and multimedia system thereof
KR20140100306A (en) Portable device and Method for controlling external device thereof
US10289270B2 (en) Display apparatus and method for displaying highlight thereof
KR20170069599A (en) Display apparatus and controlling method thereof
KR101067814B1 (en) Mobile communication terminal and method for providing touch interface thereof
CN114237419A (en) Display device and touch event identification method
KR20150142347A (en) User terminal device, and Method for controlling for User terminal device, and multimedia system thereof
KR20150066112A (en) display apparatus controlled by remote controller, display system comprising the display apparatus and methods thereof
CN113741727A (en) Touch display device and control method thereof
KR20140133351A (en) Remote control device, Display apparatus and Method for controlling the remote control device and the display apparatus thereof
JP2010287169A (en) Apparatus and method for converting event
JP2009266061A (en) Image processor, image processing method, and image transmission system
JP5441639B2 (en) Video processing apparatus and video processing method
CN110032410B (en) Display apparatus and method for providing user interface
WO2015102326A1 (en) Display device and method for controlling same
KR101000891B1 (en) Method and apparatus for digital broadcating set-top box controller and digital broadcasting system
US20160246387A1 (en) Electronic Device, Operation Control Method, and Computer Program Product

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111125

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111205