JP4593406B2 - Computer - Google Patents

Computer Download PDF

Info

Publication number
JP4593406B2
JP4593406B2 JP2005257093A JP2005257093A JP4593406B2 JP 4593406 B2 JP4593406 B2 JP 4593406B2 JP 2005257093 A JP2005257093 A JP 2005257093A JP 2005257093 A JP2005257093 A JP 2005257093A JP 4593406 B2 JP4593406 B2 JP 4593406B2
Authority
JP
Japan
Prior art keywords
video
data
user
area
display data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005257093A
Other languages
Japanese (ja)
Other versions
JP2007072014A (en
Inventor
正憲 本多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Embedded Products Ltd
Original Assignee
NEC Embedded Products Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Embedded Products Ltd filed Critical NEC Embedded Products Ltd
Priority to JP2005257093A priority Critical patent/JP4593406B2/en
Publication of JP2007072014A publication Critical patent/JP2007072014A/en
Application granted granted Critical
Publication of JP4593406B2 publication Critical patent/JP4593406B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Description

本発明は、コンピュータ用の表示データとテレビ用の映像データとを表示するコンピュータに関する。   The present invention relates to a computer that displays display data for a computer and video data for a television.

コンピュータ用の表示データとテレビ用の映像データとを表示する表示方式が採用されたコンピュータが使用されている。このような表示方式として、表示データと映像データとの一方をメイン画面とし、他方をサブ画面として、表示装置に表示するPinP(Picture in Picture)表示方式やPoutP(Picture out Picture)表示方式が知られている。   Computers adopting a display method for displaying computer display data and television video data are used. As such a display method, there are known a PinP (Picture in Picture) display method and a PoutP (Picture out Picture) display method in which one of display data and video data is used as a main screen and the other is used as a sub screen. It has been.

PinP表示方式では、表示装置にPinP表示画面が表示される。PinP表示画面は、メイン画面が表示されるメイン画面領域と、サブ画面が表示されるサブ画面領域とを含んでいる。サブ画面は、メイン画面の一部に重ねられて表示される。図1に示されるように、例えば、表示データ60を示す表示画面をメイン画面とし、映像データ70を示す映像画面をサブ画面とした場合、ユーザは、映像画面を見ながら、表示画面により文書作成や表計算などの作業を行なうことができる。
PoutP表示方式では、表示装置にPoutP表示画面が表示される。PoutP表示画面は、メイン画面が表示されるメイン画面領域と、サブ画面が表示されるサブ画面領域とを含んでいる。メイン画面とサブ画面は並べられて表示される。図2に示されるように、例えば、表示データ60を示す表示画面をメイン画面とし、映像データ70を示す映像画面をサブ画面とし、複数のチューナにより複数の映像データを受信した場合、ユーザは、複数の映像画面を見ながら、表示画面により上記作業を行なうことができる。
In the PinP display method, a PinP display screen is displayed on the display device. The PinP display screen includes a main screen area in which the main screen is displayed and a sub screen area in which the sub screen is displayed. The sub screen is displayed so as to overlap a part of the main screen. As shown in FIG. 1, for example, when the display screen showing the display data 60 is a main screen and the video screen showing the video data 70 is a sub-screen, the user creates a document on the display screen while watching the video screen. You can do tasks such as and spreadsheets.
In the PoutP display method, a PoutP display screen is displayed on the display device. The PoutP display screen includes a main screen area in which the main screen is displayed and a sub screen area in which the sub screen is displayed. The main screen and sub screen are displayed side by side. As shown in FIG. 2, for example, when a display screen showing display data 60 is a main screen, a video screen showing video data 70 is a sub-screen, and a plurality of video data is received by a plurality of tuners, The above operation can be performed on the display screen while viewing a plurality of video screens.

しかしながら、そのような表示方式では、ユーザが作業を行なうときに、映像画面により作業の妨げになってしまうことになる。
表示画面をメイン画面とし、映像画面をサブ画面とした場合を考えてみる。表示画面は、ユーザが作業を行なうための作業領域である。ところが、PinP表示方式では、表示画面の一部に映像画面が重ねられて表示されるため、作業領域の一部分は映像画面により隠れてしまう。このような場合、作業領域の一部分でユーザが作業を行なう必要があるときに、映像画面を表示画面の他の一部に移動させるか、映像画面の表示を終了させなければならず、作業の妨げになってしまう。また、PoutP表示方式では、表示画面と映像画面は並べられて表示されるため、作業領域が小さくなってしまい、作業の妨げになってしまう。このように、ユーザが表示画面により作業を行なうとき、映像画面を補助的に利用する場合、作業の妨げになってしまう。
However, in such a display method, when the user performs work, the work is hindered by the video screen.
Consider the case where the display screen is the main screen and the video screen is the sub-screen. The display screen is a work area for the user to perform work. However, in the PinP display method, since the video screen is displayed so as to overlap a part of the display screen, a part of the work area is hidden by the video screen. In such a case, when the user needs to work in a part of the work area, the video screen must be moved to another part of the display screen or the display of the video screen must be terminated. It will be an obstacle. In the PoutP display method, since the display screen and the video screen are displayed side by side, the work area becomes small, which hinders work. As described above, when the user performs an operation on the display screen, if the video screen is used supplementarily, the operation is hindered.

上記の表示方式に関連する技術として、特開2004−220235号公報にTV放送受信機能を具えた情報処理装置が開示されている(特許文献1参照)。情報処理装置では、メイン画面を表示装置に表示し、そのメイン画面上に小画面であるサブ画面を表示し、サブ画面のエリア外からエリア内にカーソルを移動させる操作が行なわれたときに、メイン画面上からサブ画面を消去する。また、サブ画面を消去してから所定時間が経過したときに、サブ画面を再表示している。   As a technique related to the above display method, Japanese Patent Application Laid-Open No. 2004-220235 discloses an information processing apparatus having a TV broadcast receiving function (see Patent Document 1). In the information processing device, when the main screen is displayed on the display device, a sub screen that is a small screen is displayed on the main screen, and the cursor is moved from outside the area of the sub screen to the area, Delete the sub screen from the main screen. Further, the sub-screen is re-displayed when a predetermined time elapses after the sub-screen is deleted.

特開2004−220235号公報JP 2004-220235 A

本発明の課題は、ユーザの作業を妨げることなく、コンピュータ用の表示データとテレビ用の映像データとを表示することができるコンピュータを提供することにある。   The subject of this invention is providing the computer which can display the display data for computers, and the video data for television, without disturbing a user's operation | work.

以下に、[発明を実施するための最良の形態]で使用する番号・符号を用いて、課題を解決するための手段を説明する。これらの番号・符号は、[特許請求の範囲]の記載と[発明を実施するための最良の形態]の記載との対応関係を明らかにするために付加されたものであるが、[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。   Hereinafter, means for solving the problem will be described using the numbers and symbols used in [Best Mode for Carrying Out the Invention]. These numbers and symbols are added to clarify the correspondence between the description of [Claims] and the description of [Best Mode for Carrying Out the Invention]. It should not be used to interpret the technical scope of the invention described in “

本発明の第1の観点によるコンピュータは、表示装置(2)と、映像データ生成部(24)と、表示データ生成部(14)と、映像合成部(6)と、表示制御部(7)とを具備している。前記映像データ生成部(24)、前記表示データ生成部(14)、前記映像合成部(6)、前記表示制御部(7)は、ハードウェア(装置、回路)又はソフトウェアにより構成されている。ソフトウェアの場合、上記の構成はコンピュータプログラム(13、23)である。
前記映像データ生成部(24)は、テレビ用の映像データ(70)を生成する。
前記表示データ生成部(14)は、コンピュータ用の表示データ(60)を生成する。
前記映像合成部(6)は、前記表示データ(60)の背景領域(61)として前記映像データ(70)を用いる合成映像表示データ(80)を生成する。前記合成映像表示データ(80)は、前記背景領域(61)に前記映像データ(70)を重ね合わせたときの表示データである。
前記表示制御部(7)は、前記合成映像表示データ(80)を前記表示装置(2)に表示する。
表示データ(60)の背景領域(61)以外の領域は、ユーザが作業を行なうための作業領域である。即ち、ユーザは、背景領域(61)では作業しない。上述のように、本発明の第1の観点によるコンピュータでは、この背景領域(61)に映像データ(70)を重ね合わせて表示する。このように、ユーザの作業を妨げることなく、コンピュータ用の表示データ(60)とテレビ用の映像データ(70)とを表示することができる。これにより、ユーザは、背景領域(61)で映像データ(70)を楽しみながら、作業領域で作業を行なうことができる。
The computer according to the first aspect of the present invention includes a display device (2), a video data generation unit (24), a display data generation unit (14), a video synthesis unit (6), and a display control unit (7). It is equipped with. The video data generation unit (24), the display data generation unit (14), the video synthesis unit (6), and the display control unit (7) are configured by hardware (apparatus, circuit) or software. In the case of software, the above configuration is a computer program (13, 23).
The video data generator (24) generates video data (70) for television.
The display data generation unit (14) generates display data (60) for a computer.
The video composition unit (6) generates composite video display data (80) using the video data (70) as a background area (61) of the display data (60). The composite video display data (80) is display data when the video data (70) is superimposed on the background area (61).
The display control unit (7) displays the composite video display data (80) on the display device (2).
The area other than the background area (61) of the display data (60) is a work area for the user to perform work. That is, the user does not work in the background area (61). As described above, the computer according to the first aspect of the present invention displays the video data (70) superimposed on the background area (61). Thus, the display data for computers (60) and the video data for television (70) can be displayed without hindering the user's work. Thus, the user can work in the work area while enjoying the video data (70) in the background area (61).

本発明の第1の観点のコンピュータにおいて、前記背景領域(61)に用いられる色は単色である。
前記映像合成部(6)は、前記表示データ(60)に用いられる色と、単色を表す設定色とを比較し、前記表示データ(60)の前記設定色に一致する領域を前記背景領域(61)として認識する。そして、前記背景領域(61)として前記映像データ(70)を用いる前記合成映像表示データ(80)を生成する。前記合成映像表示データ(80)は、前記背景領域(61)に前記映像データ(70)を重ね合わせたときの表示データである。
本発明の第1の観点によるコンピュータでは、表示データ(60)の背景領域(61)に用いられる色を単色にしているので、映像データ(70)を重ね合わせるときに、単色を表す設定色と一致する領域を背景領域(61)として認識することができる。
In the computer according to the first aspect of the present invention, the color used for the background area (61) is a single color.
The video composition unit (6) compares a color used for the display data (60) with a set color representing a single color, and determines an area that matches the set color of the display data (60) as the background area ( 61). Then, the composite video display data (80) using the video data (70) as the background area (61) is generated. The composite video display data (80) is display data when the video data (70) is superimposed on the background area (61).
In the computer according to the first aspect of the present invention, since the color used for the background area (61) of the display data (60) is a single color, when superimposing the video data (70), The matching area can be recognized as the background area (61).

本発明の第2の観点のコンピュータについて説明する。
前記映像データ生成部(24)は、映像要求に応じて、前記映像データ(70)を生成する。
前記表示データ生成部(14)は、前記映像要求に応じて、前記背景領域(61)に用いられる色を単色に変更する。
表示データ(60)の背景領域(61)に単色背景表示データが常に表示されている場合、デスクトップの壁紙として用いるには殺風景である。上述のように、本発明の第2の観点によるコンピュータでは、ユーザが番組要求を行なったときに、表示データ(60)の背景領域(61)に表示されるデータを背景表示データから単色背景表示データに変更する。これにより、ユーザにより番組要求が行なわれるまで、ユーザの好みの背景表示データを背景領域(61)に表示することができる。
A computer according to the second aspect of the present invention will be described.
The video data generation unit (24) generates the video data (70) in response to a video request.
The display data generation unit (14) changes the color used for the background area (61) to a single color in response to the video request.
When monochromatic background display data is always displayed in the background area (61) of the display data (60), it is a murderous landscape for use as desktop wallpaper. As described above, in the computer according to the second aspect of the present invention, when the user makes a program request, the data displayed in the background area (61) of the display data (60) is displayed from the background display data to the monochromatic background display. Change to data. Thus, the user's favorite background display data can be displayed in the background area (61) until a program request is made by the user.

本発明の第3の観点のコンピュータについて説明する。
本発明のコンピュータは、ユーザの操作により、前記背景領域(61)のうちの、一部の領域を表すユーザ指定領域(66)を指定するユーザ指定領域指示を出力するユーザ指定領域操作部(3)を更に具備している。
前記映像合成部(6)は、前記ユーザ指定領域指示に応じて、前記ユーザ指定領域(66)として前記映像データ(70)を用いる前記合成映像表示データ(80)を生成する。前記合成映像表示データ(80)は、前記ユーザ指定領域(66)に前記映像データ(70)を重ね合わせたときの表示データである。
背景領域(61)に映像データ(70)を重ね合わせて表示する場合、映像データ(70)の一部が作業領域(背景領域(61)以外の領域)に隠れて見えない部分がある。上述のように、本発明の第3の観点によるコンピュータでは、表示データ(60)の背景領域(61)の一部の領域であるユーザ指定領域(66)をユーザが指定することにより、ユーザ指定領域(66)に映像データ(70)を重ね合わせて表示することができる。
A computer according to a third aspect of the present invention will be described.
The computer according to the present invention outputs a user specified area operation unit (3) that outputs a user specified area instruction that specifies a user specified area (66) representing a part of the background area (61) by a user operation. ).
The video composition unit (6) generates the composite video display data (80) using the video data (70) as the user designated area (66) in response to the user designated area instruction. The composite video display data (80) is display data when the video data (70) is superimposed on the user designated area (66).
When the video data (70) is superimposed and displayed on the background area (61), a part of the video data (70) is hidden behind the work area (an area other than the background area (61)) and cannot be seen. As described above, in the computer according to the third aspect of the present invention, the user designates the user designated area (66), which is a part of the background area (61) of the display data (60), thereby specifying the user. The video data (70) can be displayed superimposed on the area (66).

本発明の第4の観点のコンピュータについて説明する。
前記映像合成部(6)は、自動指定領域指示に応じて、前記背景領域(61)の中から、前記表示データ(60)を表す画面のサイズ(X×Y)に比例する複数の候補背景領域(67)を決定する。次に、前記映像合成部(6)は、前記複数の候補背景領域(67)の中から、そのサイズ(A2×B2)の面積が最大である候補背景領域(67)を自動指定領域(68)として決定する。次に、前記映像合成部(6)は、前記自動指定領域(68)として前記映像データ(70)を用いる前記合成映像表示データ(80)を生成する。前記合成映像表示データ(80)は、前記自動指定領域(68)に前記映像データ(70)を重ね合わせたときの表示データである。
本発明の第4の観点によるコンピュータでは、表示データ(60)の背景領域(61)の一部の領域である自動指定領域(68)を自動的に指定することにより、自動指定領域(68)に映像データ(70)を重ね合わせて表示することができる。自動指定領域(68)を示す画面のサイズ(A2×B2)は、表示データ(60)を表す画面のサイズ(X×Y)に比例しているので、自動指定領域(68)を示す画面の見栄えがよい。
A computer according to a fourth aspect of the present invention will be described.
In response to the automatic designation region instruction, the video composition unit (6) selects a plurality of candidate backgrounds proportional to the size (X × Y) of the screen representing the display data (60) from the background region (61). Region (67) is determined. Next, the video composition unit (6) automatically selects a candidate background area (67) having the largest area (A2 × B2) from among the plurality of candidate background areas (67). ). Next, the video composition unit (6) generates the composite video display data (80) using the video data (70) as the automatic designation area (68). The composite video display data (80) is display data when the video data (70) is superimposed on the automatic designation area (68).
In the computer according to the fourth aspect of the present invention, the automatic designation area (68), which is a partial area of the background area (61) of the display data (60), is automatically designated. The video data (70) can be displayed in a superimposed manner. Since the size (A2 × B2) of the screen indicating the automatic designation area (68) is proportional to the size (X × Y) of the screen representing the display data (60), the screen size indicating the automatic designation area (68) is displayed. Nice looking.

本発明の第5の観点のコンピュータについて説明する。
本発明のコンピュータは、ユーザの操作により、前記背景領域(61)のうちの、一部の領域を表すユーザ指定領域(66)を指定するユーザ指定領域指示を出力するユーザ指定領域操作部(3)を更に具備している。
前記ユーザ指定領域指示が出力されたとき、前記映像合成部(6)は、前記ユーザ指定領域指示に応じて、前記ユーザ指定領域(66)として前記映像データ(70)を用いる前記合成映像表示データ(80)を生成する。前記合成映像表示データ(80)は、前記ユーザ指定領域(66)に前記映像データ(70)を重ね合わせたときの表示データである。
前記ユーザ指定領域指示が出力されないとき、前記映像合成部(6)は、自動指定領域指示に応じて、前記背景領域(61)の中から、前記表示データ(60)を表す画面のサイズ(X×Y)に比例する複数の候補背景領域(67)を決定する。次に、前記映像合成部(6)は、前記複数の候補背景領域(67)の中から、そのサイズ(A2×B2)の面積が最大である候補背景領域(67)を自動指定領域(68)として決定する。次に、前記映像合成部(6)は、前記自動指定領域(68)として前記映像データ(70)を用いる前記合成映像表示データ(80)を生成する。前記合成映像表示データ(80)は、前記自動指定領域(68)に前記映像データ(70)を重ね合わせたときの表示データである。
本発明の第5の観点によるコンピュータでは、上記のユーザ指定領域(66)と自動指定領域(68)との一方の領域をユーザが選択することにより、その一方の領域に映像データ(70)を重ね合わせて表示することができる。
A computer according to a fifth aspect of the present invention will be described.
The computer according to the present invention outputs a user specified area operation unit (3) that outputs a user specified area instruction that specifies a user specified area (66) representing a part of the background area (61) by a user operation. ).
When the user designated area instruction is output, the video composition unit (6) uses the video data (70) as the user designated area (66) according to the user designated area instruction. (80) is generated. The composite video display data (80) is display data when the video data (70) is superimposed on the user designated area (66).
When the user-designated area instruction is not output, the video composition unit (6), in response to the automatic designation area instruction, from the background area (61), the screen size (X) representing the display data (60). A plurality of candidate background regions (67) proportional to (Y) are determined. Next, the video composition unit (6) automatically selects a candidate background area (67) having the largest area (A2 × B2) from among the plurality of candidate background areas (67). ). Next, the video composition unit (6) generates the composite video display data (80) using the video data (70) as the automatic designation area (68). The composite video display data (80) is display data when the video data (70) is superimposed on the automatic designation area (68).
In the computer according to the fifth aspect of the present invention, when the user selects one of the user specified area (66) and the automatic specified area (68), the video data (70) is stored in the one area. It can be displayed superimposed.

本発明の第3、第5の観点のコンピュータについて説明する。
本発明のコンピュータは、ユーザの操作により、縮小映像指示又は部分映像指示を出力する映像形態指定操作部(3)を更に具備している。
前記映像合成部(6)は、前記ユーザ指定領域指示と前記縮小映像指示に応じて、前記映像データ(70)を表す画面のサイズ(A×B)を、前記ユーザ指定領域(66)を表す画面のサイズ(A1×B1)に変更して縮小映像データ(71)を生成し、前記ユーザ指定領域(66)として前記縮小映像データ(71)を用いる前記合成映像表示データ(80)を生成する。前記合成映像表示データ(80)は、前記ユーザ指定領域(66)に前記縮小映像データ(71)を重ね合わせたときの表示データである。
前記映像合成部(6)は、前記ユーザ指定領域指示と前記部分映像指示に応じて、前記映像データ(70)のうちの、前記ユーザ指定領域(66)に対応する映像データ(70)を表す部分映像データ(72)を決定し、前記ユーザ指定領域(66)として前記部分映像データ(72)を用いる前記合成映像表示データ(80)を生成する。前記合成映像表示データ(80)は、前記ユーザ指定領域(66)に前記部分映像データ(72)を重ね合わせたときの表示データである。
例えば、ユーザが縮小映像指示を行なっている場合、ユーザ指定領域(66)内で縮小映像データ(71){縮小された映像データ(70)}を視聴することができる。これにより、ユーザは、背景領域(61)で縮小映像データ(71)を楽しみながら、作業領域で作業を行なうことができる。
また、映像データ(70)がスポーツ中継を表していて、映像データ(70)の一部がスコアを表している場合がある。この場合、ユーザが部分映像指示を行なうことにより、ユーザ指定領域(66)内で部分映像データ(72){スコアが表示された映像データ(70)}を視聴することができる。
The computers according to the third and fifth aspects of the present invention will be described.
The computer according to the present invention further includes a video form designation operation unit (3) that outputs a reduced video instruction or a partial video instruction in response to a user operation.
The video composition unit (6) represents the size (A × B) of the screen representing the video data (70) and the user designated area (66) according to the user designated area instruction and the reduced video instruction. The reduced video data (71) is generated by changing to the screen size (A1 × B1), and the composite video display data (80) using the reduced video data (71) as the user-specified area (66) is generated. . The composite video display data (80) is display data when the reduced video data (71) is superimposed on the user designated area (66).
The video composition unit (6) represents video data (70) corresponding to the user-specified area (66) of the video data (70) according to the user-specified area instruction and the partial video instruction. Partial video data (72) is determined, and the composite video display data (80) using the partial video data (72) as the user specified area (66) is generated. The composite video display data (80) is display data when the partial video data (72) is superimposed on the user designated area (66).
For example, when the user gives a reduced video instruction, the reduced video data (71) {reduced video data (70)} can be viewed in the user designated area (66). Thus, the user can work in the work area while enjoying the reduced video data (71) in the background area (61).
Further, there are cases where the video data (70) represents a sports broadcast and a part of the video data (70) represents a score. In this case, when the user gives a partial video instruction, the partial video data (72) {video data (70)} on which the score is displayed} can be viewed in the user designated area (66).

本発明の第4、第5の観点のコンピュータについて説明する。
本発明のコンピュータは、ユーザの操作により、縮小映像指示又は部分映像指示を出力する映像形態指定操作部(3)を更に具備している。
前記映像合成部(6)は、前記自動指定領域指示と前記縮小映像指示に応じて、前記映像データ(70)を表す画面のサイズ(A×B)を、前記自動指定領域(68)を表すサイズ(A2×B2)に変更して縮小映像データ(71)を生成し、前記自動指定領域(68)として前記縮小映像データ(71)を用いる前記合成映像表示データ(80)を生成する。前記合成映像表示データ(80)は、前記自動指定領域(68)に前記縮小映像データ(71)を重ね合わせたときの表示データである。
前記映像合成部(6)は、前記自動指定領域指示と前記部分映像指示に応じて、前記映像データ(70)のうちの、前記自動指定領域(68)に対応する映像データ(70)を表す部分映像データ(72)を決定し、前記自動指定領域(68)として前記部分映像データ(72)を用いる前記合成映像表示データ(80)を生成する。前記合成映像表示データ(80)は、前記自動指定領域(68)に前記部分映像データ(72)を重ね合わせたときの表示データである。
例えば、ユーザが縮小映像指示を行なっている場合、自動指定領域(68)内で縮小映像データ(71){縮小された映像データ(70)}を視聴することができる。これにより、ユーザは、背景領域(61)で縮小映像データ(71)を楽しみながら、作業領域で作業を行なうことができる。
The computers according to the fourth and fifth aspects of the present invention will be described.
The computer according to the present invention further includes a video form designation operation unit (3) that outputs a reduced video instruction or a partial video instruction in response to a user operation.
The video composition unit (6) represents the size (A × B) of the screen representing the video data (70) and the automatic designation area (68) according to the automatic designation area instruction and the reduced video instruction. The reduced video data (71) is generated by changing to the size (A2 × B2), and the composite video display data (80) using the reduced video data (71) as the automatic designation area (68) is generated. The composite video display data (80) is display data when the reduced video data (71) is superimposed on the automatic designation area (68).
The video composition unit (6) represents video data (70) corresponding to the automatic designation area (68) of the video data (70) according to the automatic designation area instruction and the partial video instruction. Partial video data (72) is determined, and the composite video display data (80) using the partial video data (72) as the automatic designation area (68) is generated. The composite video display data (80) is display data when the partial video data (72) is superimposed on the automatic designation area (68).
For example, when the user gives a reduced video instruction, the reduced video data (71) {reduced video data (70)} can be viewed in the automatic designation area (68). Thus, the user can work in the work area while enjoying the reduced video data (71) in the background area (61).

本発明の第1の観点のコンピュータにおいて、前記映像合成部(6)は、前記映像データ(70)を示す画面に用いられる解像度を、前記表示データ(60)を示す画面に用いられる解像度に変更する。
また、本発明の第1の観点によるコンピュータでは、映像データ(70)を示す画面に用いられる解像度を、表示データ(60)を示す画面に用いられる解像度に合わせているので、違和感なくコンピュータ用の表示データ(60)とテレビ用の映像データ(70)とを表示することができる。
In the computer according to the first aspect of the present invention, the video composition unit (6) changes the resolution used for the screen showing the video data (70) to the resolution used for the screen showing the display data (60). To do.
Further, in the computer according to the first aspect of the present invention, the resolution used for the screen showing the video data (70) is matched with the resolution used for the screen showing the display data (60). Display data (60) and television video data (70) can be displayed.

本発明の第1の観点のコンピュータにおいて、前記映像合成部(6)は、前記表示装置(2)に使用する垂直同期周波数を、前記映像データ(70)を示す画面に用いられる垂直同期周波数と、前記表示データ(60)を示す画面に用いられる垂直同期周波数との一方の垂直同期周波数に設定する。
また、本発明の第1の観点によるコンピュータでは、表示装置2に使用する垂直同期周波数を、映像データ(70)を示す画面に用いられる垂直同期周波数と、表示データ(60)を示す画面に用いられる垂直同期周波数との一方の垂直同期周波数に合わせているので、コンピュータ用の表示データ(60)とテレビ用の映像データ(70)とを同時に表示するときにズレが生じない。
In the computer according to the first aspect of the present invention, the video composition unit (6) uses a vertical synchronization frequency used for the display device (2) as a vertical synchronization frequency used for a screen indicating the video data (70). The vertical synchronization frequency is set to one of the vertical synchronization frequencies used for the screen indicating the display data (60).
In the computer according to the first aspect of the present invention, the vertical synchronization frequency used for the display device 2 is used for the vertical synchronization frequency used for the screen showing the video data (70) and the screen showing the display data (60). Therefore, there is no deviation when the computer display data (60) and the television video data (70) are displayed at the same time.

本発明の第6の観点のコンピュータについて説明する。
本発明のコンピュータは、ユーザの操作により、前記一方の垂直同期周波数を指定する垂直同期周波数指定指示を出力する垂直同期周波数指定操作部(3)を更に具備している。
前記映像合成部(6)は、前記垂直同期周波数指定指示に応じて、前記表示装置(2)に使用する垂直同期周波数を前記一方の垂直同期周波数に設定する。
本発明の第6の観点によるコンピュータでは、表示装置2に使用する垂直同期周波数をユーザの好みの垂直同期周波数に設定することができる。
A computer according to a sixth aspect of the present invention will be described.
The computer of the present invention further includes a vertical synchronization frequency designation operation unit (3) for outputting a vertical synchronization frequency designation instruction for designating the one vertical synchronization frequency by a user operation.
The video synthesizing unit (6) sets the vertical synchronization frequency used for the display device (2) to the one vertical synchronization frequency in accordance with the vertical synchronization frequency designation instruction.
In the computer according to the sixth aspect of the present invention, the vertical synchronization frequency used for the display device 2 can be set to the user's favorite vertical synchronization frequency.

以上により、本発明のコンピュータは、ユーザの作業を妨げることなく、コンピュータ用の表示データ60とテレビ用の映像データ70とを表示することができる。   As described above, the computer of the present invention can display the display data 60 for the computer and the video data 70 for the television without interfering with the user's work.

以下に添付図面を参照して、本発明のコンピュータについて詳細に説明する。   Hereinafter, the computer of the present invention will be described in detail with reference to the accompanying drawings.

(第1実施形態)
図3は、本発明の第1実施形態に係るコンピュータの構成を示すブロック図である。第1実施形態に係るコンピュータは、情報処理装置であり、パーソナルコンピュータ、携帯電話機、携帯情報端末を含んでいる。本実施形態では、第1実施形態に係るコンピュータは、パーソナルコンピュータとして使用されるものとする。第1実施形態に係るコンピュータは、本体部1と、表示装置2と、入力装置3とを具備している。表示装置2、入力装置3は、本体部1に接続されている。入力装置3は、キーボード、ポインティングデバイス(例示;マウス)を含んでいる。表示装置2としてはLCD(Liquid Crystal Display)、EL(Electroluminescence)ディスプレイ、プラズマディスプレイが例示される。
本体部1は、パーソナルコンピュータ(以下、PCとも称する)の機能を有するPC用制御装置10と、テレビジョン(以下、TV又はテレビとも称する)の機能を有するTV用制御装置20と、制御部4とを具備している。
(First embodiment)
FIG. 3 is a block diagram showing the configuration of the computer according to the first embodiment of the present invention. The computer according to the first embodiment is an information processing apparatus, and includes a personal computer, a mobile phone, and a portable information terminal. In this embodiment, the computer according to the first embodiment is used as a personal computer. The computer according to the first embodiment includes a main body 1, a display device 2, and an input device 3. The display device 2 and the input device 3 are connected to the main body 1. The input device 3 includes a keyboard and a pointing device (example: mouse). Examples of the display device 2 include an LCD (Liquid Crystal Display), an EL (Electroluminescence) display, and a plasma display.
The main body 1 includes a PC control device 10 having a function of a personal computer (hereinafter also referred to as a PC), a TV control device 20 having a function of a television (hereinafter also referred to as a TV or a television), and a control unit 4. It is equipped with.

PC用制御装置10は、CPU(Central Processing Unit)11と、メモリ12とを具備している。メモリ12には、CPU11が実行するためのコンピュータプログラムであるPC用プログラム13が格納されている。PC用プログラム13は、表示データ生成部14を含むOS(Operating System)を有している。
メモリ12には、更に、複数のソフトウェア15が格納されている。複数のソフトウェア15には、例えば、文書作成用ソフトウェア15、表計算用ソフトウェア15、メール用ソフトウェア15、ブラウザ用ソフトウェア15が含まれる。メモリ12のメモリ領域には、壁紙格納部16が含まれる。壁紙格納部16には、単色を表す単色背景表示データが格納されている。単色背景表示データは、デスクトップの壁紙として用いられる。
表示データ生成部14は、コンピュータ用の表示データ60を生成し、制御部4に出力する。表示データ60は、単色背景表示データを表す背景領域と、上記のソフトウェア15の表示データを表す領域とを含んでいる。
The PC control device 10 includes a CPU (Central Processing Unit) 11 and a memory 12. The memory 12 stores a PC program 13 that is a computer program to be executed by the CPU 11. The PC program 13 has an OS (Operating System) including a display data generation unit 14.
The memory 12 further stores a plurality of software 15. The plurality of software 15 includes, for example, document creation software 15, spreadsheet software 15, mail software 15, and browser software 15. The memory area of the memory 12 includes a wallpaper storage unit 16. The wallpaper storage unit 16 stores single-color background display data representing a single color. The monochrome background display data is used as desktop wallpaper.
The display data generation unit 14 generates computer display data 60 and outputs it to the control unit 4. The display data 60 includes a background area representing single color background display data and an area representing the display data of the software 15 described above.

TV用制御装置20は、CPU21と、メモリ22と、受信機25とを具備している。メモリ22には、CPU21が実行するためのコンピュータプログラムであるTV用プログラム23を含む。TV用プログラム23は、映像データ生成部24と、放送局を表す情報が格納された選局データベース(図示しない)とを有している。
受信機25は、チューナ26と、デコーダ27とを具備する。ユーザが入力装置3を用いて、テレビ用の番組データを要求するための番組要求(映像要求)を行なう。番組要求は、該当する放送局を表す情報を含んでいる。このとき、映像データ生成部24は、その番組要求に応じてTV用プログラム23の選局データベースに従い、該当する放送局から番組データを受信するようにチューナ26を制御する。あるいは、その番組要求を放送局のサーバに送信し、そのサーバからの番組データを受信するようにチューナ26を制御する。映像データ生成部24は、チューナ26により受信された番組データをデコーダ27によりデコードし、テレビ用の映像データ70として制御部4に出力する。
The TV control device 20 includes a CPU 21, a memory 22, and a receiver 25. The memory 22 includes a TV program 23 that is a computer program executed by the CPU 21. The TV program 23 includes a video data generation unit 24 and a channel selection database (not shown) in which information representing a broadcasting station is stored.
The receiver 25 includes a tuner 26 and a decoder 27. The user uses the input device 3 to make a program request (video request) for requesting TV program data. The program request includes information indicating the corresponding broadcasting station. At this time, the video data generation unit 24 controls the tuner 26 to receive program data from the corresponding broadcasting station according to the channel selection database of the TV program 23 in response to the program request. Alternatively, the program request is transmitted to the server of the broadcasting station, and the tuner 26 is controlled to receive the program data from the server. The video data generation unit 24 decodes the program data received by the tuner 26 by the decoder 27 and outputs it to the control unit 4 as video data 70 for television.

図4は、制御部4の機能ロジックを示している。制御部4は、ハードウェア(装置、回路)又はソフトウェアにより構成されている。ソフトウェアの場合、例えば制御部4の一部もしくは全部は、PC用プログラム13あるいはTV用プログラム23に含まれる。制御部4は、サイズ認識部5、映像合成部6、表示制御部7を具備している。
サイズ認識部5、映像合成部6は、PC用制御装置10から出力された表示データ60と、TV用制御装置20から出力された映像データ70とを受け取る。サイズ認識部5は、表示データ60、映像データ70を示す画面のサイズを認識し、映像合成部6に通知する。映像合成部6は、映像データ70を示す画面のサイズを、表示データ60を示す画面のサイズに変更し、表示データ60の背景領域として映像データ70を用いる合成映像表示データ80を生成する。表示制御部7は、その合成映像表示データ80を表示装置2に表示する。
FIG. 4 shows the functional logic of the control unit 4. The control unit 4 is configured by hardware (device, circuit) or software. In the case of software, for example, part or all of the control unit 4 is included in the PC program 13 or the TV program 23. The control unit 4 includes a size recognition unit 5, a video composition unit 6, and a display control unit 7.
The size recognition unit 5 and the video composition unit 6 receive the display data 60 output from the PC control device 10 and the video data 70 output from the TV control device 20. The size recognition unit 5 recognizes the size of the screen showing the display data 60 and the video data 70 and notifies the video composition unit 6 of the size. The video composition unit 6 changes the size of the screen showing the video data 70 to the size of the screen showing the display data 60, and generates composite video display data 80 using the video data 70 as the background area of the display data 60. The display control unit 7 displays the composite video display data 80 on the display device 2.

次に、図5〜図7を参照して、本発明の第1実施形態によるコンピュータの動作として映像表示方法について説明する。
表示データ生成部14は、上述の表示データ60を生成し、制御部4に出力し、制御部4は、その表示データ60を受け取る(ステップS1)。このとき、ユーザにより番組要求が行なわれていない場合(ステップS2−NO)、制御部4のサイズ認識部5は表示データ60を無視し、映像合成部6は、その表示データ60を表示制御部7に通知する。表示制御部7は、その表示データ60を表示装置2に表示する(ステップS6)。
例えば、表示データ60を示す表示画面は、背景領域61、第1表示領域62、第2表示領域63、第3表示領域64を含んでいる。背景領域61には、単色背景表示データを表す背景表示画面が表示される。第1表示領域62には、アイコンを表す第1表示画面が表示される。第2表示領域63には、文書作成用ソフトウェア15の表示データを表す第2表示画面が表示される。第3表示領域64には、表計算用ソフトウェア15の表示データを表す第3表示画面が表示される。例えば、第1表示画面は、背景表示画面の一部に重ねられて表示される。第2表示画面は、第1表示画面、背景表示画面の一部に重ねられて表示される。第3表示画面は、第2表示画面、第1表示画面、背景表示画面の一部に重ねられて表示される。
Next, with reference to FIGS. 5 to 7, an image display method will be described as an operation of the computer according to the first embodiment of the present invention.
The display data generation unit 14 generates the display data 60 described above and outputs it to the control unit 4, and the control unit 4 receives the display data 60 (step S1). At this time, when the program request is not made by the user (step S2-NO), the size recognition unit 5 of the control unit 4 ignores the display data 60, and the video composition unit 6 displays the display data 60 on the display control unit. 7 is notified. The display control unit 7 displays the display data 60 on the display device 2 (step S6).
For example, the display screen showing the display data 60 includes a background area 61, a first display area 62, a second display area 63, and a third display area 64. In the background area 61, a background display screen representing monochromatic background display data is displayed. In the first display area 62, a first display screen representing icons is displayed. In the second display area 63, a second display screen representing display data of the document creation software 15 is displayed. In the third display area 64, a third display screen representing display data of the spreadsheet software 15 is displayed. For example, the first display screen is displayed so as to overlap a part of the background display screen. The second display screen is displayed so as to overlap a part of the first display screen and the background display screen. The third display screen is displayed so as to overlap a part of the second display screen, the first display screen, and the background display screen.

一方、ユーザが入力装置3を用いて、テレビ用の番組データを要求するための番組要求(映像要求イベント)を行なう(ステップS2−YES)。このとき、映像データ生成部24は、その番組要求に応じて、上述の映像データ70を生成して制御部4に出力し、制御部4は、その映像データ70を受け取る(ステップS3)。
制御部4のサイズ認識部5は、表示データ60と映像データ70とを受け取ったとき、表示データ60、映像データ70を示す画面に用いられる解像度、垂直同期周波数、サイズを認識し、映像合成部6に通知する(ステップS4)。例えば、表示データ60を示す画面のサイズは、横の長さ、縦の長さがそれぞれX、Y(mm、あるいは画素、以下の説明ではmmで統一する)であり、映像データ70を示す画面のサイズは、横の長さ、縦の長さがそれぞれX、Yより小さいA、B(mm)であるものとする。表示データ60、映像データ70を示す画面に用いられる解像度は、それぞれ1024×768、340×240であるものとする。表示データ60、映像データ70を示す画面に用いられる垂直同期周波数は、それぞれ60、59.94(Hz)であるものとする。
制御部4の映像合成部6は、表示データ60と映像データ70とを受け取ったとき、映像合成処理を行なう(ステップS5)。
On the other hand, the user makes a program request (video request event) for requesting TV program data using the input device 3 (step S2-YES). At this time, the video data generation unit 24 generates the video data 70 described above in response to the program request and outputs the video data 70 to the control unit 4, and the control unit 4 receives the video data 70 (step S3).
When receiving the display data 60 and the video data 70, the size recognition unit 5 of the control unit 4 recognizes the resolution, vertical synchronization frequency, and size used for the screen indicating the display data 60 and the video data 70, and the video synthesis unit. 6 is notified (step S4). For example, the screen size indicating the display data 60 has a horizontal length and a vertical length of X and Y (mm or pixels, respectively, and unified in mm in the following description). The horizontal length and the vertical length are A and B (mm) smaller than X and Y, respectively. Assume that the resolutions used for the screens indicating the display data 60 and the video data 70 are 1024 × 768 and 340 × 240, respectively. It is assumed that the vertical synchronization frequencies used for the screen showing the display data 60 and the video data 70 are 60 and 59.94 (Hz), respectively.
When the video composition unit 6 of the control unit 4 receives the display data 60 and the video data 70, it performs a video composition process (step S5).

映像合成処理では、映像合成部6は、映像データ70を示す画面に用いられる解像度340×240を、表示データ60を示す画面に用いられる解像度1024×768に変更する(ステップS11)。また、映像合成部6は、表示装置2に使用する垂直同期周波数を、映像データ70を示す画面に用いられる垂直同期周波数59.94(Hz)と、表示データ60を示す画面に用いられる垂直同期周波数60(Hz)との一方の垂直同期周波数に設定する。例えば、映像データ70を示す画面に用いられる垂直同期周波数59.94(Hz)に設定する(ステップS12)。   In the video composition process, the video composition unit 6 changes the resolution 340 × 240 used for the screen showing the video data 70 to the resolution 1024 × 768 used for the screen showing the display data 60 (step S11). In addition, the video composition unit 6 uses the vertical synchronization frequency used for the display device 2 as the vertical synchronization frequency 59.94 (Hz) used for the screen showing the video data 70 and the vertical synchronization frequency used for the screen showing the display data 60. One vertical synchronization frequency with a frequency of 60 (Hz) is set. For example, the vertical synchronization frequency 59.94 (Hz) used for the screen showing the video data 70 is set (step S12).

映像合成部6は、表示データ60を示す画面に用いられる色と、単色を表す設定色とを比較する。例えば、コンピュータが起動したときに、あるいは番組要求が行なわれたときに、PC用制御装置10のCPU11は、壁紙格納部16に格納されている単色背景表示データが表す単色を設定色として認識し、その設定色を表す情報を制御部4に送り、制御部4は、内蔵されたメモリ(図示しない)に、上記の設定色を表す情報を格納しておく。また、単色は、複数{R(赤)、G(緑)、B(青)}の構成色を用いて表現される場合もある。これにより、制御部4の映像合成部6は、表示データ60を示す画面に用いられる色と、メモリに格納された情報が表す設定色とを比較する。比較の結果、表示データ60の設定色に一致する領域を背景領域61として認識する。即ち、表示データ60の表示領域のうちの、単色背景表示データと一致する領域を背景領域61として認識する(ステップS13)。
映像合成部6は、映像データ70を示す画面のサイズA×B(mm)を、表示データ60を示す画面のサイズX×Y(mm)に変更し、表示データ60の背景領域61として映像データ70を用いる合成映像表示データ80を生成する(ステップS14)。即ち、映像データ70のうちの、背景領域61の位置に対応する映像データ70を表す対応映像データを決定し、背景領域61として対応映像データを用いて表示させる合成映像表示データ80を生成する。この合成映像表示データ80は、背景領域61に映像データ70(対応映像データ)を重ね合わせたときの表示データである。
ステップS13、S14について、具体例を用いて説明する。例えば、表示データ60の領域(x1、y1)の位置の画像の色と設定色とを比較し、設定色に一致した背景領域61であれば、表示データ60の位置(x1、y1)の画像は用いずに同じ位置(x1、y1)の映像データ70の映像を用いて合成映像表示データ80を生成する。一致していなければ、その領域は表示データ60の画像を用いる。そして、表示データ60の次の領域(x2、y1)の画像を検証していく。
The video composition unit 6 compares the color used for the screen showing the display data 60 with the set color representing a single color. For example, when the computer is started or a program request is made, the CPU 11 of the PC control device 10 recognizes the single color represented by the single-color background display data stored in the wallpaper storage unit 16 as the set color. Then, the information representing the set color is sent to the control unit 4, and the control unit 4 stores the information representing the set color in a built-in memory (not shown). In addition, a single color may be expressed using a plurality of constituent colors {R (red), G (green), B (blue)}. Thereby, the video composition unit 6 of the control unit 4 compares the color used for the screen showing the display data 60 with the set color represented by the information stored in the memory. As a result of the comparison, an area that matches the set color of the display data 60 is recognized as the background area 61. That is, of the display area of the display data 60, an area that matches the monochrome background display data is recognized as the background area 61 (step S13).
The video composition unit 6 changes the screen size A × B (mm 2 ) indicating the video data 70 to the screen size X × Y (mm 2 ) indicating the display data 60, and serves as the background area 61 of the display data 60. Composite video display data 80 using the video data 70 is generated (step S14). That is, the corresponding video data representing the video data 70 corresponding to the position of the background area 61 in the video data 70 is determined, and the composite video display data 80 to be displayed using the corresponding video data as the background area 61 is generated. The composite video display data 80 is display data when the video data 70 (corresponding video data) is superimposed on the background area 61.
Steps S13 and S14 will be described using a specific example. For example, the color of the image at the position (x1, y1) of the display data 60 is compared with the set color, and if the background area 61 matches the set color, the image at the position (x1, y1) of the display data 60 The composite video display data 80 is generated using the video of the video data 70 at the same position (x1, y1) without using. If they do not match, the image of the display data 60 is used for that area. Then, the image of the next area (x2, y1) of the display data 60 is verified.

表示制御部7は、その合成映像表示データ80を表示装置2に表示する(ステップS6)。   The display control unit 7 displays the composite video display data 80 on the display device 2 (step S6).

表示データ60の背景領域61以外の領域は、ユーザが作業を行なうための作業領域である。即ち、ユーザは、背景領域61では作業しない。上述のように、本発明の第1実施形態によるコンピュータでは、この背景領域61に映像データ70を重ね合わせて表示する。このように、ユーザの作業を妨げることなく、コンピュータ用の表示データ60とテレビ用の映像データ70とを表示することができる。これにより、ユーザは、背景領域61で映像データ70を楽しみながら、作業領域で作業を行なうことができる。
また、本発明の第1実施形態によるコンピュータでは、表示データ60の背景領域61に用いられる色を単色にしているので、映像データ70を重ね合わせるときに、単色を表す設定色と一致する領域を背景領域61として認識することができる。
また、本発明の第1実施形態によるコンピュータでは、映像データ70を示す画面に用いられる解像度を、表示データ60を示す画面に用いられる解像度に合わせているので、違和感なくコンピュータ用の表示データ60とテレビ用の映像データ70とを表示することができる。
また、本発明の第1実施形態によるコンピュータでは、表示装置2に使用する垂直同期周波数を、映像データ70を示す画面に用いられる垂直同期周波数と、表示データ60を示す画面に用いられる垂直同期周波数との一方の垂直同期周波数に合わせているので、コンピュータ用の表示データ60とテレビ用の映像データ70とを同時に表示するときにズレが生じない。
An area other than the background area 61 of the display data 60 is a work area for the user to perform work. That is, the user does not work in the background area 61. As described above, the computer according to the first embodiment of the present invention displays the video data 70 superimposed on the background area 61. Thus, the display data 60 for the computer and the video data 70 for the television can be displayed without hindering the user's work. Thus, the user can work in the work area while enjoying the video data 70 in the background area 61.
In the computer according to the first embodiment of the present invention, since the color used for the background area 61 of the display data 60 is a single color, when the video data 70 is overlaid, an area that matches the set color representing the single color is displayed. It can be recognized as the background area 61.
Further, in the computer according to the first embodiment of the present invention, the resolution used for the screen showing the video data 70 is matched with the resolution used for the screen showing the display data 60. The video data 70 for television can be displayed.
In the computer according to the first embodiment of the present invention, the vertical synchronization frequency used for the display device 2 is divided into the vertical synchronization frequency used for the screen showing the video data 70 and the vertical synchronization frequency used for the screen showing the display data 60. Therefore, no shift occurs when the computer display data 60 and the television video data 70 are simultaneously displayed.

(第2実施形態)
本発明の第2実施形態によるコンピュータについて説明する。第2実施形態では、第1実施形態と異なる点のみ説明する。第2実施形態では、番組要求(映像要求イベント)発生時に現在設定されている壁紙を単色の壁紙(上記の単色背景表示データ)に代えてもよい。この場合、壁紙格納部16には、背景表示データと、単色を表す単色背景表示データとが格納されている。背景表示データは、ユーザにより設定され、デスクトップの壁紙として用いられる。番組要求(映像要求イベント)が行なわれたときに、CPU11が表示データ60の背景領域61に表示されるデータ(壁紙)を背景表示データから単色背景表示データに変更する。
(Second Embodiment)
A computer according to a second embodiment of the present invention will be described. In the second embodiment, only differences from the first embodiment will be described. In the second embodiment, the wallpaper currently set when a program request (video request event) occurs may be replaced with a monochrome wallpaper (the monochrome background display data). In this case, the wallpaper storage unit 16 stores background display data and single-color background display data representing a single color. The background display data is set by the user and used as a desktop wallpaper. When a program request (video request event) is made, the CPU 11 changes the data (wallpaper) displayed in the background area 61 of the display data 60 from background display data to monochromatic background display data.

次に、図8、図9を参照して、本発明の第2実施形態によるコンピュータの動作として映像表示方法について説明する。
表示データ生成部14は、上述の表示データ60を生成し、制御部4に出力し、制御部4は、その表示データ60を受け取る(ステップS1)。このとき、ユーザにより番組要求が行なわれていない場合(ステップS2−NO)、表示制御部7は、その表示データ60を表示装置2に表示する(ステップS6)。
例えば、表示データ60の背景領域61には、背景表示データを表す背景表示画面が表示される。
Next, with reference to FIGS. 8 and 9, a video display method will be described as an operation of the computer according to the second embodiment of the present invention.
The display data generation unit 14 generates the display data 60 described above and outputs it to the control unit 4, and the control unit 4 receives the display data 60 (step S1). At this time, if no program request is made by the user (step S2-NO), the display control unit 7 displays the display data 60 on the display device 2 (step S6).
For example, a background display screen representing background display data is displayed in the background area 61 of the display data 60.

一方、ユーザが入力装置3を用いて、番組要求を行なう(ステップS2−YES)。このとき、表示データ生成部14は、映像要求イベントに応じて、表示データ60の背景領域61に用いられる色を単色に変更する。即ち、表示データ生成部14は、壁紙格納部16から単色背景表示データを読み出し、表示データ60の背景領域61に表示されるデータを背景表示データから単色背景表示データに変更する(ステップS21)。
同時に、映像データ生成部24は、その番組要求に応じて、上述の映像データ70を生成して制御部4に出力し、制御部4は、その映像データ70を受け取る(ステップS3)。その後、上述のステップS4〜S6が制御部4により実行される。
On the other hand, the user makes a program request using the input device 3 (step S2-YES). At this time, the display data generation unit 14 changes the color used for the background region 61 of the display data 60 to a single color according to the video request event. That is, the display data generation unit 14 reads the monochromatic background display data from the wallpaper storage unit 16 and changes the data displayed in the background area 61 of the display data 60 from the background display data to the monochromatic background display data (step S21).
At the same time, the video data generator 24 generates the video data 70 described above in response to the program request and outputs it to the controller 4, and the controller 4 receives the video data 70 (step S3). Thereafter, the above-described steps S4 to S6 are executed by the control unit 4.

表示データ60の背景領域61に単色背景表示データが常に表示されている場合、デスクトップの壁紙として用いるには殺風景である。上述のように、本発明の第2実施形態によるコンピュータでは、ユーザが番組要求を行なったときに、表示データ60の背景領域61に表示されるデータを背景表示データから単色背景表示データに変更する。これにより、ユーザにより番組要求が行なわれるまで、ユーザの好みの背景表示データを背景領域61に表示することができる。   When monochromatic background display data is always displayed in the background area 61 of the display data 60, it is a murderous landscape for use as desktop wallpaper. As described above, in the computer according to the second embodiment of the present invention, when the user makes a program request, the data displayed in the background area 61 of the display data 60 is changed from the background display data to the monochrome background display data. . Thus, the user's favorite background display data can be displayed in the background area 61 until a program request is made by the user.

(第3実施形態)
本発明の第3実施形態によるコンピュータについて説明する。第3実施形態では、第1及び第2実施形態と異なる点のみ説明する。第3実施形態では、入力装置3は、ユーザ指定領域操作部(図示しない)と、映像形態指定操作部(図示しない)とを含んでいる。ユーザ指定領域操作部は、例えばポインティングデバイスであり、表示データ60の背景領域61の一部の領域をユーザが指定するために用いられる。映像形態指定操作部は、例えばスイッチであり、上記一部の領域に映像データ70を縮小して表示するための縮小映像指示、又は、上記一部の領域に映像データ70の一部分を表示する部分映像指示をユーザが指定するために用いられる。
(Third embodiment)
A computer according to a third embodiment of the present invention will be described. In the third embodiment, only differences from the first and second embodiments will be described. In the third embodiment, the input device 3 includes a user designation area operation unit (not shown) and a video form designation operation unit (not shown). The user designation area operation unit is, for example, a pointing device, and is used by the user to designate a partial area of the background area 61 of the display data 60. The video form designation operation unit is, for example, a switch, and a reduced video instruction for reducing and displaying the video data 70 in the partial area, or a part for displaying a part of the video data 70 in the partial area This is used by the user to specify video instructions.

次に、図10〜図13を参照して、本発明の第3実施形態によるコンピュータの動作として映像表示方法について説明する。
上述のように、ステップS1、S2−YES、S21、S3、S4が実行された場合、映像合成処理が実行され(ステップS5)、ステップS6が実行される。
Next, with reference to FIGS. 10 to 13, a video display method will be described as an operation of the computer according to the third embodiment of the present invention.
As described above, when steps S1, S2-YES, S21, S3, and S4 are executed, the video composition process is executed (step S5), and step S6 is executed.

映像合成処理(ステップS5)では、映像合成部6は、上述のステップS11〜S13を実行する。ユーザは、番組要求を行なった後、ユーザ指定領域操作部を操作して、表示データ60の背景領域61のうちの、一部の領域を表すユーザ指定領域66を指定するユーザ指定領域指示を出力する(ステップS31−YES)。この場合、映像合成部6は、ユーザ指定合成制御処理を行なう(ステップS32)。   In the video composition process (step S5), the video composition unit 6 executes steps S11 to S13 described above. After making a program request, the user operates a user specified area operation unit to output a user specified area instruction that specifies a user specified area 66 representing a part of the background area 61 of the display data 60. (Step S31-YES). In this case, the video composition unit 6 performs a user-designated composition control process (step S32).

ユーザ指定合成制御処理において、映像形態指定操作部は、ユーザの操作により、縮小映像指示を出力している(ステップS33−YES)。この場合、図10に示されるように、映像合成部6は、ユーザ指定領域指示と縮小映像指示に応じて、映像データ70を表す画面のサイズA×Bを、ユーザ指定領域66を表す画面のサイズA1×B1に変更して縮小映像データ71を生成する。映像合成部6は、ユーザ指定領域66として縮小映像データ71を用いる合成映像表示データ80を生成する(ステップS34)。この合成映像表示データ80は、ユーザ指定領域66に縮小映像データ71を重ね合わせたときの表示データである。
ここで、上記のステップS31−YESが実行されたときに、ユーザ指定領域66に関する情報(表示データ60に対する位置情報やサイズ情報)は、制御部4に内蔵されたメモリ(図示しない)に一時保存され、上記のステップS33−YESが実行されたときに、映像合成部6は、メモリからユーザ指定領域66に関する情報を読み出して、上記のステップS34を実行してもよい。
In the user-designated composition control process, the video form designating operation unit outputs a reduced video instruction by a user operation (step S33—YES). In this case, as illustrated in FIG. 10, the video composition unit 6 sets the screen size A × B representing the video data 70 in accordance with the user designated area instruction and the reduced video instruction, and the screen representing the user designated area 66. The reduced video data 71 is generated by changing the size to A1 × B1. The video composition unit 6 generates composite video display data 80 using the reduced video data 71 as the user-designated area 66 (step S34). The composite video display data 80 is display data when the reduced video data 71 is superimposed on the user designated area 66.
Here, when step S31-YES is executed, information related to the user-specified area 66 (position information and size information for the display data 60) is temporarily saved in a memory (not shown) built in the control unit 4. When step S33-YES is executed, the video composition unit 6 may read information related to the user designated area 66 from the memory and execute step S34 described above.

一方、映像形態指定操作部は、ユーザの操作により、部分映像指示を出力している(ステップS33−NO)。この場合、図11に示されるように、映像合成部6は、ユーザ指定領域指示と部分映像指示に応じて、ユーザ指定領域66として映像データ70を用いる合成映像表示データ80を生成する。即ち、ユーザ指定領域指示と部分映像指示に応じて、映像データ70のうちの、ユーザ指定領域66の位置に対応する映像データ70を表す部分映像データ72を決定し、ユーザ指定領域66として部分映像データ72を用いる合成映像表示データ80を生成する(ステップS35)。この合成映像表示データ80は、ユーザ指定領域66に部分映像データ72を重ね合わせたときの表示データである。
ここで、上記のステップS31−YESが実行されたときに、ユーザ指定領域66に関する情報(表示データ60に対する位置情報やサイズ情報)は、制御部4に内蔵されたメモリ(図示しない)に一時保存され、上記のステップS33−NOが実行されたときに、映像合成部6は、メモリからユーザ指定領域66に関する情報を読み出して、上記のステップS35を実行してもよい。
On the other hand, the video form designation operation unit outputs a partial video instruction by a user operation (step S33-NO). In this case, as shown in FIG. 11, the video composition unit 6 generates composite video display data 80 using the video data 70 as the user designated area 66 in accordance with the user designated area instruction and the partial video instruction. That is, in accordance with the user-specified area instruction and the partial video instruction, partial video data 72 representing the video data 70 corresponding to the position of the user-specified area 66 in the video data 70 is determined, and the partial video data The composite video display data 80 using the data 72 is generated (step S35). The composite video display data 80 is display data when the partial video data 72 is superimposed on the user designated area 66.
Here, when step S31-YES is executed, information related to the user-specified area 66 (position information and size information for the display data 60) is temporarily saved in a memory (not shown) built in the control unit 4. When step S33-NO is executed, the video composition unit 6 may read information about the user designated area 66 from the memory and execute step S35.

ユーザが番組要求を行なった後、ユーザ指定領域操作部を操作しない場合(ステップS31−NO)、映像合成部6は、上述のステップS14を実行する。即ち、映像データ70のうちの、背景領域61に対応する映像データを表す対応映像データを決定し、その対応映像データを背景領域61に重ね合わせて合成映像表示データ80を生成する。   After the user makes a program request, when the user designated area operation unit is not operated (step S31—NO), the video composition unit 6 executes the above-described step S14. That is, the corresponding video data representing the video data corresponding to the background area 61 in the video data 70 is determined, and the corresponding video data is superimposed on the background area 61 to generate the composite video display data 80.

背景領域61に映像データ70を重ね合わせて表示する場合、映像データ70の一部が作業領域(背景領域61以外の領域)に隠れて見えない部分がある。上述のように、本発明の第3実施形態によるコンピュータでは、表示データ60の背景領域61の一部の領域であるユーザ指定領域66をユーザが指定することにより、ユーザ指定領域66に映像データ70を重ね合わせて表示することができる。
例えば、ユーザが縮小映像指示を行なっている場合、ユーザ指定領域66内で縮小映像データ71(縮小された映像データ70)を視聴することができる。これにより、ユーザは、背景領域61で縮小映像データ71を楽しみながら、作業領域で作業を行なうことができる。
また、映像データ70がスポーツ中継を表していて、映像データ70の一部がスコアを表している場合がある。この場合、ユーザが部分映像指示を行なうことにより、ユーザ指定領域66内で部分映像データ72(スコアが表示された映像データ70)を視聴することができる。
When the video data 70 is displayed superimposed on the background area 61, there is a part where the video data 70 is partially hidden behind the work area (an area other than the background area 61). As described above, in the computer according to the third embodiment of the present invention, when the user designates the user designated area 66 that is a part of the background area 61 of the display data 60, the video data 70 is displayed in the user designated area 66. Can be superimposed and displayed.
For example, when the user gives a reduced video instruction, the reduced video data 71 (reduced video data 70) can be viewed in the user designated area 66. As a result, the user can work in the work area while enjoying the reduced video data 71 in the background area 61.
In some cases, the video data 70 represents a sports broadcast, and a part of the video data 70 represents a score. In this case, the partial video data 72 (video data 70 on which the score is displayed) can be viewed in the user designation area 66 by the user giving a partial video instruction.

(第4実施形態)
本発明の第4実施形態によるコンピュータについて説明する。第4実施形態では、第1〜第3実施形態と異なる点のみ説明する。第4実施形態では、入力装置3は、更に、自動指定領域操作部(図示しない)と、映像形態指定操作部(図示しない)とを含んでいる。自動指定領域操作部は、例えばスイッチであり、表示データ60の背景領域61の一部の領域を自動的に決定するために用いられる。映像形態指定操作部は、例えばスイッチであり、上記一部の領域に映像データ70を縮小して表示するための縮小映像指示、又は、上記一部の領域に映像データ70の一部分を表示する部分映像指示をユーザが指定するために用いられる。
(Fourth embodiment)
A computer according to a fourth embodiment of the present invention will be described. In the fourth embodiment, only differences from the first to third embodiments will be described. In the fourth embodiment, the input device 3 further includes an automatic designation region operation unit (not shown) and a video form designation operation unit (not shown). The automatic designation area operation unit is a switch, for example, and is used to automatically determine a part of the background area 61 of the display data 60. The video form designation operation unit is, for example, a switch, and a reduced video instruction for reducing and displaying the video data 70 in the partial area, or a part for displaying a part of the video data 70 in the partial area This is used by the user to specify video instructions.

次に、図14〜図17を参照して、本発明の第4実施形態によるコンピュータの動作として映像表示方法について説明する。
上述のように、ステップS1、S2−YES、S21、S3、S4が実行された場合、映像合成処理が実行され(ステップS5)、ステップS6が実行される。
Next, with reference to FIGS. 14 to 17, a video display method will be described as the operation of the computer according to the fourth embodiment of the present invention.
As described above, when steps S1, S2-YES, S21, S3, and S4 are executed, the video composition process is executed (step S5), and step S6 is executed.

映像合成処理(ステップS5)では、映像合成部6は、上述のステップS11〜S13を実行する。ユーザは、番組要求を行なった後、自動指定領域操作部を操作して、表示データ60の背景領域61のうちの、一部の領域を自動的に指定する自動指定領域指示を出力する(ステップS41−YES)。この場合、映像合成部6は、自動指定合成制御処理を行なう(ステップS42)。   In the video composition process (step S5), the video composition unit 6 executes steps S11 to S13 described above. After making the program request, the user operates the automatic designation area operation unit to output an automatic designation area instruction for automatically designating a part of the background area 61 of the display data 60 (step S41-YES). In this case, the video composition unit 6 performs automatic designated composition control processing (step S42).

自動指定合成制御処理において、映像合成部6は、自動指定領域指示に応じて、背景領域61の中から、表示データ60を表す画面のサイズX×Yに比例する複数の候補背景領域67を決定する。複数の候補背景領域67を第1〜第4候補背景領域67とする。第1候補背景領域67を示す画面のサイズは、横の長さ、縦の長さがそれぞれX、Yより小さいA2、B2(mm)であるものとする。第2候補背景領域67を示す画面のサイズは、横の長さ、縦の長さがそれぞれX、Yより小さいA3、B3(mm)であるものとする。第3候補背景領域67を示す画面のサイズは、横の長さ、縦の長さがそれぞれX、Yより小さいA4、B4(mm)であるものとする。第4候補背景領域67を示す画面のサイズは、横の長さ、縦の長さがそれぞれX、Yより小さいA5、B5(mm)であるものとする。第1〜第4候補背景領域67のうちの、そのサイズの面積が最大である候補背景領域67は、第1候補背景領域67(A2×B2)であるものとする。映像合成部6は、第1候補背景領域67(A2×B2)を自動指定領域68として決定する。
映像形態指定操作部は、ユーザの操作により、縮小映像指示を出力している(ステップS43−YES)。この場合、図14に示されるように、映像合成部6は、自動指定領域指示と縮小映像指示に応じて、映像データ70を表す画面のサイズA×Bを、自動指定領域68を表す画面のサイズA2×B2に変更して縮小映像データ71を生成する。映像合成部6は、自動指定領域68として縮小映像データ71を用いる合成映像表示データ80を生成する(ステップS44)。この合成映像表示データ80は、自動指定領域68に縮小映像データ71を重ね合わせたときの表示データである。
ここで、上記のステップS42により自動指定領域68が決定されたとき、自動指定領域68に関する情報(表示データ60に対する位置情報やサイズ情報)は、制御部4に内蔵されたメモリ(図示しない)に一時保存され、上記のステップS43−YESが実行されたときに、映像合成部6は、メモリから自動指定領域68に関する情報を読み出して、上記のステップS44を実行してもよい。
In the automatic designated composition control process, the video composition unit 6 determines a plurality of candidate background areas 67 proportional to the screen size X × Y representing the display data 60 from the background area 61 in accordance with the automatic designated area instruction. To do. The plurality of candidate background areas 67 are defined as first to fourth candidate background areas 67. The screen size indicating the first candidate background area 67 is assumed to be A2 and B2 (mm) whose horizontal length and vertical length are smaller than X and Y, respectively. The screen size indicating the second candidate background area 67 is assumed to be A3 and B3 (mm) whose horizontal length and vertical length are smaller than X and Y, respectively. The screen size indicating the third candidate background area 67 is assumed to be A4 and B4 (mm) whose horizontal length and vertical length are smaller than X and Y, respectively. The screen size indicating the fourth candidate background area 67 is assumed to be A5 and B5 (mm) whose horizontal length and vertical length are smaller than X and Y, respectively. Of the first to fourth candidate background regions 67, the candidate background region 67 having the largest area is assumed to be the first candidate background region 67 (A2 × B2). The video composition unit 6 determines the first candidate background area 67 (A2 × B2) as the automatic designation area 68.
The video form designation operation unit outputs a reduced video instruction by a user operation (step S43—YES). In this case, as shown in FIG. 14, the video composition unit 6 sets the screen size A × B representing the video data 70 in accordance with the automatic designation area instruction and the reduced video instruction, and the screen representing the automatic designation area 68. The reduced video data 71 is generated by changing the size to A2 × B2. The video composition unit 6 generates composite video display data 80 using the reduced video data 71 as the automatic designation area 68 (step S44). The composite video display data 80 is display data when the reduced video data 71 is superimposed on the automatic designation area 68.
Here, when the automatic designation area 68 is determined in step S42 described above, information about the automatic designation area 68 (position information and size information for the display data 60) is stored in a memory (not shown) built in the control unit 4. When temporarily stored and the above step S43-YES is executed, the video composition unit 6 may read information on the automatic designation area 68 from the memory and execute the above step S44.

一方、映像形態指定操作部は、ユーザの操作により、部分映像指示を出力している(ステップS43−NO)。この場合、図15に示されるように、映像合成部6は、自動指定領域指示と部分映像指示に応じて、自動指定領域68として映像データ70を用いる合成映像表示データ80を生成する。即ち、自動指定領域指示と部分映像指示に応じて、映像データ70のうちの、自動指定領域68に対応する映像データ70を表す部分映像データ72を決定し、自動指定領域68として部分映像データ72を用いる合成映像表示データ80を生成する(ステップS45)。この合成映像表示データ80は、自動指定領域68に部分映像データ72を重ね合わせたときの表示データである。
ここで、上記のステップS42により自動指定領域68が決定されたとき、自動指定領域68に関する情報(表示データ60に対する位置情報やサイズ情報)は、制御部4に内蔵されたメモリ(図示しない)に一時保存され、上記のステップS43−NOが実行されたときに、映像合成部6は、メモリから自動指定領域68に関する情報を読み出して、上記のステップS45を実行してもよい。
On the other hand, the video form designating operation unit outputs a partial video instruction by a user operation (step S43-NO). In this case, as shown in FIG. 15, the video composition unit 6 generates composite video display data 80 using the video data 70 as the automatic designation area 68 in accordance with the automatic designation area instruction and the partial video instruction. That is, in accordance with the automatic designation area instruction and the partial video instruction, partial video data 72 representing the video data 70 corresponding to the automatic designation area 68 in the video data 70 is determined, and the partial video data 72 is defined as the automatic designation area 68. The composite video display data 80 using is generated (step S45). The composite video display data 80 is display data when the partial video data 72 is superimposed on the automatic designation area 68.
Here, when the automatic designation area 68 is determined in step S42 described above, information about the automatic designation area 68 (position information and size information for the display data 60) is stored in a memory (not shown) built in the control unit 4. When temporarily stored and the above step S43-NO is executed, the video composition unit 6 may read information on the automatic designation area 68 from the memory and execute the above step S45.

ユーザが番組要求を行なった後、ユーザ指定領域操作部を操作しない場合(ステップS41−NO)、映像合成部6は、上述のステップS14を実行する。即ち、映像データ70のうちの、背景領域61に対応する映像データ70を表す対応映像データを決定し、背景領域61として対応映像データを用いる合成映像表示データ80を生成する。この合成映像表示データ80は、背景領域61に映像データ70(対応映像データ)を重ね合わせたときの表示データである。   After the user makes a program request, when the user designated area operation unit is not operated (step S41—NO), the video composition unit 6 executes the above-described step S14. That is, the corresponding video data representing the video data 70 corresponding to the background area 61 in the video data 70 is determined, and the composite video display data 80 using the corresponding video data as the background area 61 is generated. The composite video display data 80 is display data when the video data 70 (corresponding video data) is superimposed on the background area 61.

本発明の第4実施形態によるコンピュータでは、表示データ60の背景領域61の一部の領域である自動指定領域68を自動的に指定することにより、自動指定領域68に映像データ70を重ね合わせて表示することができる。自動指定領域68を示す画面のサイズA2×B2は、表示データ60を表す画面のサイズX×Yに比例しているので、自動指定領域68を示す画面の見栄えがよい。
例えば、ユーザが縮小映像指示を行なっている場合、自動指定領域68内で縮小映像データ71(縮小された映像データ70)を視聴することができる。これにより、ユーザは、背景領域61で縮小映像データ71を楽しみながら、作業領域で作業を行なうことができる。
In the computer according to the fourth embodiment of the present invention, the automatic designation area 68 that is a part of the background area 61 of the display data 60 is automatically designated, so that the video data 70 is superimposed on the automatic designation area 68. Can be displayed. Since the screen size A2 × B2 indicating the automatic designation area 68 is proportional to the size X × Y of the screen representing the display data 60, the screen showing the automatic designation area 68 has a good appearance.
For example, when the user gives a reduced video instruction, the reduced video data 71 (reduced video data 70) can be viewed in the automatic designation area 68. As a result, the user can work in the work area while enjoying the reduced video data 71 in the background area 61.

(第5実施形態)
本発明の第5実施形態によるコンピュータについて説明する。第5実施形態では、第1〜第4実施形態と異なる点のみ説明する。第4実施形態では、入力装置3は、更に、上記のユーザ指定領域操作部(図示しない)と、上記の自動指定領域操作部(図示しない)と、上記の映像形態指定操作部(図示しない)とを含んでいる。ユーザは、自動指定領域操作部により、表示データ60の背景領域61の一部の領域を自動的に指定してもよいし、ユーザ指定領域操作部により、表示データ60の背景領域61の一部の領域をユーザが指定してもよい。
(Fifth embodiment)
A computer according to a fifth embodiment of the present invention will be described. In the fifth embodiment, only differences from the first to fourth embodiments will be described. In the fourth embodiment, the input device 3 further includes the user-specified area operation unit (not shown), the automatic specification area operation unit (not shown), and the video form designation operation unit (not shown). Including. The user may automatically designate a part of the background area 61 of the display data 60 using the automatic designation area operation unit, or may select a part of the background area 61 of the display data 60 using the user designation area operation unit. The area may be designated by the user.

次に、図18を参照して、本発明の第5実施形態によるコンピュータの動作として映像表示方法について説明する。
上述のように、ステップS1、S2−YES、S21、S3、S4が実行された場合、映像合成処理が実行され(ステップS5)、ステップS6が実行される。
Next, with reference to FIG. 18, a video display method will be described as an operation of the computer according to the fifth embodiment of the present invention.
As described above, when steps S1, S2-YES, S21, S3, and S4 are executed, the video composition process is executed (step S5), and step S6 is executed.

映像合成処理(ステップS5)では、映像合成部6は、上述のステップS11〜S13を実行する。ユーザは、番組要求を行なった後、自動指定領域操作部を操作して、上記の自動指定領域指示を出力する(ステップS51−YES)。この場合、映像合成部6は、上述の自動指定合成制御処理を行なう(ステップS42)。   In the video composition process (step S5), the video composition unit 6 executes steps S11 to S13 described above. After making a program request, the user operates the automatic designation area operation unit to output the above automatic designation area instruction (step S51-YES). In this case, the video composition unit 6 performs the above-described automatic designated composition control process (step S42).

一方、ユーザは、番組要求を行なった後、ユーザ指定領域操作部を操作して、上記のユーザ指定領域指示を出力する(ステップS51−NO、S52−YES)。この場合、映像合成部6は、上述のユーザ指定合成制御処理を行なう(ステップS32)。   On the other hand, after making a program request, the user operates the user-specified area operation unit to output the user-specified area instruction (steps S51-NO, S52-YES). In this case, the video composition unit 6 performs the above-described user-designated composition control process (step S32).

ユーザが番組要求を行なった後、自動指定領域操作部、ユーザ指定領域操作部を操作しない場合(ステップS51−NO、S52−NO)、映像合成部6は、上述のステップS14を実行する。   After the user makes a program request, when the automatic designated area operation unit and the user designated area operation unit are not operated (steps S51-NO and S52-NO), the video composition unit 6 executes step S14 described above.

本発明の第5実施形態によるコンピュータでは、上記のユーザ指定領域66と自動指定領域68との一方の領域をユーザが選択することにより、その一方の領域に映像データ70を重ね合わせて表示することができる。   In the computer according to the fifth embodiment of the present invention, when the user selects one of the user-specified area 66 and the automatic-specified area 68, the video data 70 is displayed superimposed on the one area. Can do.

(第6実施形態)
本発明の第6実施形態によるコンピュータについて説明する。第6実施形態では、第1〜第5実施形態と異なる点のみ説明する。第6実施形態では、入力装置3は、更に、垂直同期周波数指定操作部を含んでいる。垂直同期周波数指定操作部は、例えばスイッチであり、映像データ70を示す画面に用いられる垂直同期周波数と、表示データ60を示す画面に用いられる垂直同期周波数との一方の垂直同期周波数をユーザが指定するために用いられる。
(Sixth embodiment)
A computer according to a sixth embodiment of the present invention will be described. In the sixth embodiment, only differences from the first to fifth embodiments will be described. In the sixth embodiment, the input device 3 further includes a vertical synchronization frequency designation operation unit. The vertical synchronization frequency designation operation unit is, for example, a switch, and the user designates one vertical synchronization frequency of the vertical synchronization frequency used for the screen showing the video data 70 and the vertical synchronization frequency used for the screen showing the display data 60. Used to do.

次に、図19、図20を参照して、本発明の第6実施形態によるコンピュータの動作として映像表示方法について説明する。
上述のように、ステップS1、S2−YES、S21、S3、S4が実行された場合、映像合成処理が実行され(ステップS5)、ステップS6が実行される。
Next, with reference to FIGS. 19 and 20, a video display method will be described as an operation of the computer according to the sixth embodiment of the present invention.
As described above, when steps S1, S2-YES, S21, S3, and S4 are executed, the video composition process is executed (step S5), and step S6 is executed.

映像合成処理(ステップS5)では、映像合成部6は、上述のステップS11を実行する。ユーザは、垂直同期周波数指定操作部を操作して、一方の垂直同期周波数として、表示データ60を示す画面に用いられる垂直同期周波数60(Hz)を指定する垂直同期周波数指定指示を出力する(ステップS61−YES)。この場合、映像合成部6は、表示装置2に使用する垂直同期周波数を、表示データ60を示す画面に用いられる垂直同期周波数60(Hz)に設定する(ステップS62)。
一方、ユーザは、垂直同期周波数指定操作部を操作して、一方の垂直同期周波数として、映像データ70を示す画面に用いられる垂直同期周波数59.94(Hz)を指定する垂直同期周波数指定指示を出力する(ステップS61−NO)。この場合、映像合成部6は、表示装置2に使用する垂直同期周波数を、映像データ70を示す画面に用いられる垂直同期周波数59.94(Hz)に設定する(ステップS63)。
その後、映像合成部6は、上述のステップS13以降を実行する。
In the video composition process (step S5), the video composition unit 6 executes step S11 described above. The user operates the vertical synchronization frequency designation operation unit to output a vertical synchronization frequency designation instruction for designating the vertical synchronization frequency 60 (Hz) used on the screen indicating the display data 60 as one vertical synchronization frequency (step) S61-YES). In this case, the video composition unit 6 sets the vertical synchronization frequency used for the display device 2 to the vertical synchronization frequency 60 (Hz) used for the screen indicating the display data 60 (step S62).
On the other hand, the user operates the vertical synchronization frequency designation operation unit to give a vertical synchronization frequency designation instruction for designating the vertical synchronization frequency 59.94 (Hz) used for the screen showing the video data 70 as one vertical synchronization frequency. It outputs (step S61-NO). In this case, the video composition unit 6 sets the vertical synchronization frequency used for the display device 2 to the vertical synchronization frequency 59.94 (Hz) used for the screen showing the video data 70 (step S63).
Thereafter, the video composition unit 6 executes the above-described step S13 and subsequent steps.

本発明の第6実施形態によるコンピュータでは、表示装置2に使用する垂直同期周波数をユーザの好みにより選択することで、合成映像表示データ80の垂直同期周波数を、表示データ60と映像データ70の異なる垂直同期周波数のどちらに一致させるかを選択することができる。   In the computer according to the sixth embodiment of the present invention, the vertical synchronization frequency used for the display device 2 is selected according to the user's preference, so that the vertical synchronization frequency of the composite video display data 80 is different between the display data 60 and the video data 70. It is possible to select which of the vertical synchronization frequencies is matched.

なお、本発明のコンピュータでは、受信機25は、テレビ用の番組データを受信するが、これに限定されない。番組データは、DVD再生等のビデオ入力用の番組データでもよい。また、受信機25は、ネットワーク経由で配信される番組データを受信する受信部を更に具備してもよい。
また、映像形態指定操作部、自動指定領域操作部、映像形態指定操作部、垂直同期周波数指定操作部は、入力装置3に設けられているが、本体部1に設けられていてもよい。
また、本実施形態では、表示データ60に用いられる色と比較するために、比較用の背景表示データ(単色背景表示データ)が表す色を単色としたが、これに限定されない。上記の第1〜第3表示領域と区別できれば、複数色でもよく、近似的な色を含めた色の範囲でもよい。例えば、赤1色の壁紙でも比較できる上に、赤と黄の壁紙でも比較でき、赤1色だけでなく明るい赤や多少黄色がかった赤などの類似色やグラデーションの壁紙でも比較できる。また、設定色との比較は領域毎に行なったが、画素単位や複数画素がまとまったブロック毎に比較してもよい。また、背景領域61は壁紙(デスクトップと呼ばれる場合もある)の表示されている部分だけでなく、第2表示領域63や第3表示領域64のウィンドウ内の使用されていない枠や一部分等でもよい。
In the computer of the present invention, the receiver 25 receives TV program data, but is not limited to this. The program data may be program data for video input such as DVD playback. The receiver 25 may further include a receiving unit that receives program data distributed via a network.
In addition, the video form designation operation unit, the automatic designation area operation unit, the video form designation operation unit, and the vertical synchronization frequency designation operation unit are provided in the input device 3, but may be provided in the main body unit 1.
Further, in this embodiment, in order to compare with the color used for the display data 60, the color represented by the comparison background display data (monochromatic background display data) is a single color. However, the present invention is not limited to this. A plurality of colors or a range of colors including approximate colors may be used as long as they can be distinguished from the first to third display areas. For example, a single red wallpaper can be compared, a red and yellow wallpaper can be compared, and a similar color or gradation wallpaper such as a bright red or a slightly yellowish red as well as a single red can be compared. The comparison with the set color is performed for each region, but the comparison may be performed for each pixel or for each block in which a plurality of pixels are grouped. Further, the background area 61 is not limited to a portion where wallpaper (sometimes referred to as a desktop) is displayed, but may be a frame or a portion of the second display area 63 or the third display area 64 that is not used. .

図1は、PinP表示方式を説明するための図である。FIG. 1 is a diagram for explaining the PinP display method. 図2は、PoutP表示方式を説明するための図である。FIG. 2 is a diagram for explaining the PoutP display method. 図3は、本発明のコンピュータの構成を示すブロック図である。(第1実施形態)FIG. 3 is a block diagram showing the configuration of the computer of the present invention. (First embodiment) 図4は、本発明のコンピュータの制御部4の機能ロジックを示している。(第1実施形態)FIG. 4 shows the functional logic of the control unit 4 of the computer of the present invention. (First embodiment) 図5は、本発明のコンピュータの動作を説明するための図である。(第1実施形態)FIG. 5 is a diagram for explaining the operation of the computer of the present invention. (First embodiment) 図6は、本発明のコンピュータの動作を示すフローチャートである。(第1実施形態)FIG. 6 is a flowchart showing the operation of the computer of the present invention. (First embodiment) 図7は、本発明のコンピュータの動作を示すフローチャートである。(第1実施形態)FIG. 7 is a flowchart showing the operation of the computer of the present invention. (First embodiment) 図8は、本発明のコンピュータの動作を説明するための図である。(第2実施形態)FIG. 8 is a diagram for explaining the operation of the computer of the present invention. (Second Embodiment) 図9は、本発明のコンピュータの動作を示すフローチャートである。(第2実施形態)FIG. 9 is a flowchart showing the operation of the computer of the present invention. (Second Embodiment) 図10は、本発明のコンピュータの動作を説明するための図である。(第3実施形態)FIG. 10 is a diagram for explaining the operation of the computer of the present invention. (Third embodiment) 図11は、本発明のコンピュータの動作を説明するための図である。(第3実施形態)FIG. 11 is a diagram for explaining the operation of the computer of the present invention. (Third embodiment) 図12は、本発明のコンピュータの動作を示すフローチャートである。(第3実施形態)FIG. 12 is a flowchart showing the operation of the computer of the present invention. (Third embodiment) 図13は、本発明のコンピュータの動作を示すフローチャートである。(第3実施形態)FIG. 13 is a flowchart showing the operation of the computer of the present invention. (Third embodiment) 図14は、本発明のコンピュータの動作を説明するための図である。(第4実施形態)FIG. 14 is a diagram for explaining the operation of the computer of the present invention. (Fourth embodiment) 図15は、本発明のコンピュータの動作を説明するための図である。(第4実施形態)FIG. 15 is a diagram for explaining the operation of the computer of the present invention. (Fourth embodiment) 図16は、本発明のコンピュータの動作を示すフローチャートである。(第4実施形態)FIG. 16 is a flowchart showing the operation of the computer of the present invention. (Fourth embodiment) 図17は、本発明のコンピュータの動作を示すフローチャートである。(第4実施形態)FIG. 17 is a flowchart showing the operation of the computer of the present invention. (Fourth embodiment) 図18は、本発明のコンピュータの動作を示すフローチャートである。(第5実施形態)FIG. 18 is a flowchart showing the operation of the computer of the present invention. (Fifth embodiment) 図19は、本発明のコンピュータの動作を説明するための図である。(第6実施形態)FIG. 19 is a diagram for explaining the operation of the computer of the present invention. (Sixth embodiment) 図20は、本発明のコンピュータの動作を示すフローチャートである。(第6実施形態)FIG. 20 is a flowchart showing the operation of the computer of the present invention. (Sixth embodiment)

符号の説明Explanation of symbols

1 本体部
2 表示装置
3 入力装置
4 制御部
5 認識部
6 映像合成部
7 表示制御部
10 PC用制御装置
11 CPU
12 メモリ
13 PC用プログラム
14 表示データ生成部
15 ソフトウェア
16 壁紙格納部
20 TV用制御装置
21 CPU
22 メモリ
23 TV用プログラム
24 映像データ生成部
25 受信機
26 チューナ
27 デコーダ
60 表示データ
61 背景領域
62 第1表示領域
63 第2表示領域
64 第3表示領域
66 ユーザ指定領域
67 候補背景領域
68 自動指定領域
70 映像データ
71 縮小映像データ
72 部分映像データ
80 合成映像表示データ
DESCRIPTION OF SYMBOLS 1 Main-body part 2 Display apparatus 3 Input device 4 Control part 5 Recognition part 6 Image | video synthetic | combination part 7 Display control part 10 PC control apparatus 11 CPU
12 Memory 13 Program for PC 14 Display Data Generation Unit 15 Software 16 Wallpaper Storage Unit 20 TV Control Device 21 CPU
22 memory 23 TV program 24 video data generator 25 receiver 26 tuner 27 decoder 60 display data 61 background area 62 first display area 63 second display area 64 third display area 66 user specified area 67 candidate background area 68 automatic specification Area 70 Video data 71 Reduced video data 72 Partial video data 80 Composite video display data

Claims (17)

表示装置と、
テレビ用の映像データを生成する映像データ生成処理を実行する映像データ生成部と、
コンピュータ用の表示データを生成する表示データ生成処理を実行する表示データ生成部と、
前記表示データの背景領域として前記映像データを用いる合成映像表示データを生成する映像合成処理を実行する映像合成部と、
前記合成映像表示データを前記表示装置に表示する表示制御処理を実行する表示制御部と
前記映像合成処理において、ユーザの操作により、前記背景領域のうちの、一部の領域を表すユーザ指定領域を指定するユーザ指定領域指示を出力するユーザ指定領域操作部と
を具備し、
前記映像合成部は、
前記映像合成処理において、前記ユーザ指定領域指示が出力されたとき、前記ユーザ指定領域指示に応じて、前記ユーザ指定領域として前記映像データを用いる前記合成映像表示データを生成するユーザ指定合成制御処理を実行し、
前記映像合成処理において、前記ユーザ指定領域指示が出力されないとき、自動指定領域指示に応じて、前記背景領域の中から、前記表示データを表す画面のサイズに比例する複数の候補背景領域を決定し、前記複数の候補背景領域の中から、そのサイズの面積が最大である候補背景領域を自動指定領域として決定し、前記自動指定領域として前記映像データを用いる前記合成映像表示データを生成する自動指定合成制御処理を実行する
コンピュータ。
A display device;
A video data generation unit that executes video data generation processing for generating video data for television;
A display data generation unit for executing display data generation processing for generating display data for a computer;
A video composition unit for performing a video composition process for generating composite video display data using the video data as a background area of the display data;
A display control unit for executing a display control process for displaying the composite video display data on the display device ;
In the video synthesis processing, the operation of the user, the one of the background region, comprising a <br/> a user specified area operation section for outputting a user-specified region instruction specifying a user-specified region representing a portion of the region ,
The video composition unit
In the video composition process, when the user designated area instruction is output, a user designated composition control process for generating the composite video display data using the video data as the user designated area according to the user designated area instruction. Run,
In the video composition process, when the user-designated area instruction is not output, a plurality of candidate background areas proportional to the size of the screen representing the display data are determined from the background areas in accordance with the automatic designated area instruction. Automatic specification for generating the composite video display data using the video data as the automatic specification region, determining the candidate background region having the largest area of the size as the automatic specification region from among the plurality of candidate background regions A computer that executes synthesis control processing .
請求項1に記載のコンピュータにおいて、
前記背景領域に用いられる色は単色であり、
前記映像合成部は、前記映像合成処理において、前記ユーザ指定合成制御処理、前記自動指定合成制御処理を実行する前に、
前記表示データに用いられる色と、単色を表す設定色とを比較し、前記表示データの前記設定色に一致する領域を前記背景領域として認識する背景領域認識処理を実行する
コンピュータ。
The computer of claim 1.
The color used for the background region is a single color,
In the video composition process, the video composition unit performs the user-designated composition control process and the automatic designated composition control process.
<br/> computer executing the color used for the display data is compared with the set color representing a single color, the background area recognizing process of recognizing the region that matches the set color of the display data as the background region.
請求項2に記載のコンピュータにおいて、
前記映像データ生成部は、
映像要求に応じて、前記映像データ生成処理を実行し、
前記表示データ生成部は、前記表示データ生成処理の後に、前記映像要求に応じて、前記背景領域に用いられる色を単色に変更する背景色変更処理を実行する
コンピュータ。
The computer according to claim 2.
The video data generation unit
In response to a video request, execute the video data generation process ,
The display data generation unit executes a background color change process for changing a color used for the background area to a single color in response to the video request after the display data generation process .
請求項1〜3のいずれかに記載のコンピュータにおいて、
前記映像合成処理において、ユーザの操作により、縮小映像指示又は部分映像指示を出力する映像形態指定操作部
を更に具備し、
前記映像合成部は、
前記ユーザ指定領域指示に応じて前記ユーザ指定合成制御処理を実行するとき、前記縮小映像指示に応じて、前記映像データを表す画面のサイズを、前記ユーザ指定領域を表す画面のサイズに変更して縮小映像データを生成し、前記ユーザ指定領域として前記縮小映像データを用いる前記合成映像表示データを生成する縮小映像合成制御処理を実行し、
前記ユーザ指定領域指示に応じて前記ユーザ指定合成制御処理を実行するとき、前記部分映像指示に応じて、前記映像データのうちの、前記ユーザ指定領域に対応する映像データを表す部分映像データを決定し、前記ユーザ指定領域として前記部分映像データを用いる前記合成映像表示データを生成する部分映像合成制御処理を実行する
コンピュータ。
The computer according to any one of claims 1 to 3 ,
The video composition processing further includes a video form designation operation unit that outputs a reduced video instruction or a partial video instruction by a user operation,
The video composition unit
When executing the user-designated composition control process according to the user-designated area instruction , the screen size representing the video data is changed to the screen size representing the user-designated area according to the reduced video instruction. Generating reduced video data , executing reduced video synthesis control processing for generating the synthesized video display data using the reduced video data as the user-designated area;
When executing the user-designated synthesis control process in response to the user-designated area instruction , partial video data representing video data corresponding to the user-designated area is determined from the video data in accordance with the partial video instruction. And executing a partial video composition control process for generating the composite video display data using the partial video data as the user designated area.
請求項1〜3のいずれかに記載のコンピュータにおいて、
前記映像合成処理において、ユーザの操作により、縮小映像指示又は部分映像指示を出力する映像形態指定操作部
を更に具備し、
前記映像合成部は、
前記自動指定領域指示に応じて前記自動指定合成制御処理を実行するとき、前記縮小映像指示に応じて、前記映像データを表す画面のサイズを、前記自動指定領域を表すサイズに変更して縮小映像データを生成し、前記自動指定領域として前記縮小映像データを用いる前記合成映像表示データを生成する縮小映像合成制御処理を実行し、
前記自動指定領域指示に応じて前記自動指定合成制御処理を実行するとき、前記部分映像指示に応じて、前記映像データのうちの、前記自動指定領域に対応する映像データを表す部分映像データを決定し、前記自動指定領域として前記部分映像データを用いる前記合成映像表示データを生成する部分映像合成制御処理を実行する
コンピュータ。
The computer according to any one of claims 1 to 3 ,
The video composition processing further includes a video form designation operation unit that outputs a reduced video instruction or a partial video instruction by a user operation,
The video composition unit
When executing the automatic designated synthesis control process in accordance with the automatic designated area instruction , the reduced size video is generated by changing the size of the screen representing the video data to the size representing the automatic designated area in accordance with the reduced video instruction. Generating data, and executing the reduced video composition control process for generating the composite video display data using the reduced video data as the automatic designation region,
When executing the automatic designation synthesis control process according to the automatic designation area instruction , the partial video data representing the video data corresponding to the automatic designation area is determined from the video data according to the partial video instruction. And executing a partial video composition control process for generating the composite video display data using the partial video data as the automatic designation area.
請求項1〜のいずれかに記載のコンピュータにおいて、
前記映像合成部は、
前記映像合成処理において、前記映像データを示す画面に用いられる解像度を、前記表示データを示す画面に用いられる解像度に変更する解像度変更処理を実行する
コンピュータ。
The computer according to any one of claims 1 to 5 ,
The video composition unit
A computer executing resolution changing processing for changing the resolution used for the screen showing the video data to the resolution used for the screen showing the display data in the video composition processing .
請求項1〜のいずれかに記載のコンピュータにおいて、
前記映像合成部は、
前記映像合成処理において、前記表示装置に使用する垂直同期周波数を、前記映像データを示す画面に用いられる垂直同期周波数と、前記表示データを示す画面に用いられる垂直同期周波数との一方の垂直同期周波数に設定する垂直同期周波数設定処理を実行する
コンピュータ。
The computer according to any one of claims 1 to 6 ,
The video composition unit
In the video composition process, the vertical synchronization frequency used for the display device is one of the vertical synchronization frequency used for the screen indicating the video data and the vertical synchronization frequency used for the screen indicating the display data. The computer executes the vertical synchronization frequency setting process to be set to <br/>.
請求項に記載のコンピュータにおいて、
前記垂直同期周波数設定処理において、ユーザの操作により、前記一方の垂直同期周波数を指定する垂直同期周波数指定指示を出力する垂直同期周波数指定操作部
を更に具備し、
前記映像合成部は、前記垂直同期周波数設定処理において、前記垂直同期周波数指定指示に応じて、前記表示装置に使用する垂直同期周波数を前記一方の垂直同期周波数に設定する
コンピュータ。
The computer according to claim 7 .
The vertical synchronization frequency setting process further includes a vertical synchronization frequency designation operation unit that outputs a vertical synchronization frequency designation instruction that designates the one vertical synchronization frequency by a user operation,
In the vertical synchronization frequency setting process, the video composition unit sets a vertical synchronization frequency used for the display device to the one vertical synchronization frequency in accordance with the vertical synchronization frequency designation instruction.
テレビ用の映像データを生成する映像データ生成処理を実行するステップと、
コンピュータ用の表示データを生成する表示データ生成処理を実行するステップと、
前記表示データの背景領域として前記映像データを用いる合成映像表示データを生成する映像合成処理を実行するステップと、
前記合成映像表示データを前記表示装置に表示する表示制御処理を実行するステップと
を具備し、
前記映像合成処理において、ユーザの操作により、前記背景領域のうちの、一部の領域を表すユーザ指定領域を指定するユーザ指定領域指示が出力されたとき、前記ユーザ指定領域指示に応じて、前記ユーザ指定領域として前記映像データを用いる前記合成映像表示データを生成するユーザ指定合成制御処理を実行するステップと、
前記映像合成処理において、前記ユーザ指定領域指示が出力されないとき、自動指定領域指示に応じて、前記背景領域の中から、前記表示データを表す画面のサイズに比例する複数の候補背景領域を決定し、前記複数の候補背景領域の中から、そのサイズの面積が最大である候補背景領域を自動指定領域として決定し、前記自動指定領域として前記映像データを用いる前記合成映像表示データを生成する自動指定合成制御処理を実行するステップと
を更に具備する映像表示方法。
Executing video data generation processing for generating video data for television;
Executing display data generation processing for generating display data for a computer;
Executing a video composition process for generating composite video display data using the video data as a background area of the display data;
Performing a display control process for displaying the composite video display data on the display device ,
In the video composition process, when a user-designated area instruction for designating a user-designated area representing a part of the background area is output by a user operation, the user-designated area instruction is output according to the user-designated area instruction. Executing user-designated synthesis control processing for generating the synthesized video display data using the video data as a user-designated area;
In the video composition process, when the user-designated area instruction is not output, a plurality of candidate background areas proportional to the size of the screen representing the display data are determined from the background areas in accordance with the automatic designated area instruction. Automatic specification for generating the composite video display data using the video data as the automatic specification region, determining the candidate background region having the largest area of the size as the automatic specification region from among the plurality of candidate background regions Executing the synthesis control process; and
An image display method further comprising :
請求項に記載の映像表示方法において、
前記背景領域に用いられる色は単色であり、
前記映像合成処理において、前記ユーザ指定合成制御処理、前記自動指定合成制御処理を実行する前に、
前記表示データに用いられる色と、単色を表す設定色とを比較し、前記表示データの前記設定色に一致する領域を前記背景領域として認識する背景領域認識処理を実行する
映像表示方法。
The video display method according to claim 9 ,
The color used for the background region is a single color,
In the video composition process, before executing the user-designated composition control process and the automatic designated composition control process,
The color used for the display data is compared with the set color representing a single color, the regions that match the set color of the display data executing the background area recognizing process of recognizing, as the background region <br/> video display Method.
請求項10に記載の映像表示方法において
像要求に応じて、前記映像データ生成処理を実行するステップ
前記表示データ生成処理の後に、前記映像要求に応じて、前記背景領域に用いられる色を単色に変更する背景色変更処理を実行するステップ
を更に具備する映像表示方法。
The video display method according to claim 10 ,
Depending on movies image request, and executing the image data generation process,
Executing a background color changing process for changing a color used for the background area to a single color in response to the video request after the display data generating process ;
An image display method further comprising :
請求項9〜11のいずれかに記載の映像表示方法において、
前記映像合成処理に応じて前記ユーザ指定合成制御処理を実行するとき、ユーザの操作により、縮小映像指示又は部分映像指示が出力された場合、
前記縮小映像指示に応じて、前記映像データを表す画面のサイズを、前記ユーザ指定領域を表す画面のサイズに変更して縮小映像データを生成し、前記ユーザ指定領域として前記縮小映像データを用いる前記合成映像表示データを生成する縮小映像合成制御処理を実行するステップと、
記部分映像指示に応じて、前記映像データのうちの、前記ユーザ指定領域に対応する映像データを表す部分映像データを決定し、前記ユーザ指定領域として前記部分映像データを用いる前記合成映像表示データを生成する部分映像合成制御処理を実行するステップと
を更に具備する映像表示方法。
The video display method according to any one of claims 9 to 11 ,
When executing the user-designated synthesis control process according to the video synthesis process, when a reduced video instruction or partial video instruction is output by a user operation ,
In response to the reduced video instruction, the screen size representing the video data is changed to the screen size representing the user designated area to generate reduced video data, and the reduced video data is used as the user designated area. Executing reduced video composition control processing for generating composite video display data;
Depending on the prior SL partial video instruction, the out of the video data, the determining the partial image data representing the image data corresponding to a user-specified region, the synthetic image display data using the partial image data as the user specified area further image display method and a step of performing partial image synthesis control process of generating.
請求項9〜11のいずれかに記載の映像表示方法において、
前記映像合成処理に応じて前記自動指定合成制御処理を実行するとき、ユーザの操作により、縮小映像指示又は部分映像指示が出力された場合、
前記縮小映像指示に応じて、前記映像データを表す画面のサイズを、前記自動指定領域を表すサイズに変更して縮小映像データを生成し、前記自動指定領域として前記縮小映像データを用いる前記合成映像表示データを生成する縮小映像合成制御処理を実行するステップと、
記部分映像指示に応じて、前記映像データのうちの、前記自動指定領域に対応する映像データを表す部分映像データを決定し、前記自動指定領域として前記部分映像データを用いる前記合成映像表示データを生成する部分映像合成制御処理を実行するステップと
を更に具備する映像表示方法。
The video display method according to any one of claims 9 to 11 ,
When executing the automatic designated synthesis control process according to the video synthesis process, when a reduced video instruction or partial video instruction is output by a user operation ,
In response to the reduced video instruction, the size of the screen representing the video data is changed to a size representing the automatic designated area to generate reduced video data, and the composite video using the reduced video data as the automatic designated area Executing a reduced video composition control process for generating display data;
Depending on the prior SL partial video instruction, the out of the video data, the determining the partial image data representing the image data corresponding to the automatic designation region, the synthetic image display data using the partial image data as the automatic designation area further image display method and a step of performing partial image synthesis control process of generating.
請求項12〜13のいずれかに記載の映像表示方法において、
前記映像合成処理において、前記映像データを示す画面に用いられる解像度を、前記表示データを示す画面に用いられる解像度に変更する解像度変更処理を実行するステップ
を更に具備する映像表示方法。
The video display method according to any one of claims 12 to 13 ,
The video display method further comprising the step of executing a resolution changing process for changing the resolution used for the screen showing the video data to the resolution used for the screen showing the display data in the video composition processing .
請求項12〜14のいずれかに記載の映像表示方法において、
前記映像合成処理において、前記表示装置に使用する垂直同期周波数を、前記映像データを示す画面に用いられる垂直同期周波数と、前記表示データを示す画面に用いられる垂直同期周波数との一方の垂直同期周波数に設定する垂直同期周波数設定処理を実行するステップ
を更に具備する映像表示方法。
The video display method according to any one of claims 12 to 14 ,
In the video composition process, the vertical synchronization frequency used for the display device is one of the vertical synchronization frequency used for the screen indicating the video data and the vertical synchronization frequency used for the screen indicating the display data. A video display method further comprising a step of executing a vertical synchronization frequency setting process to be set to .
請求項15に記載の映像表示方法において、
前記垂直同期周波数設定処理において、ユーザの操作により、前記一方の垂直同期周波数を指定する垂直同期周波数指定指示が出力されたとき、前記垂直同期周波数指定指示に応じて、前記表示装置に使用する垂直同期周波数を前記一方の垂直同期周波数に設定するステップ
を更に具備する映像表示方法。
The video display method according to claim 15 , wherein
In the vertical synchronization frequency setting process, the operation of the user, when the vertical synchronizing frequency designation instruction for designating the vertical synchronizing frequency of the one is output, in accordance with the prior SL vertical synchronizing frequency designation instruction, used in the display device An image display method further comprising a step of setting a vertical synchronization frequency to the one vertical synchronization frequency.
請求項16のいずれかに記載の映像表示方法の各ステップをコンピュータに実行させるコンピュータプログラム。 Computer program for executing the steps of the image display method according to the computer in any one of claims 9-16.
JP2005257093A 2005-09-05 2005-09-05 Computer Expired - Fee Related JP4593406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005257093A JP4593406B2 (en) 2005-09-05 2005-09-05 Computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005257093A JP4593406B2 (en) 2005-09-05 2005-09-05 Computer

Publications (2)

Publication Number Publication Date
JP2007072014A JP2007072014A (en) 2007-03-22
JP4593406B2 true JP4593406B2 (en) 2010-12-08

Family

ID=37933528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005257093A Expired - Fee Related JP4593406B2 (en) 2005-09-05 2005-09-05 Computer

Country Status (1)

Country Link
JP (1) JP4593406B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000181440A (en) * 1998-12-15 2000-06-30 Matsushita Electric Ind Co Ltd Display device
JP2001086423A (en) * 1999-09-09 2001-03-30 Dentsu Inc Method and device for selecting television program
JP2001186410A (en) * 1999-12-24 2001-07-06 Toshiba Corp Video signal processor and video signal processing method
JP2001268466A (en) * 2000-03-22 2001-09-28 Sharp Corp Broadcast receiver
JP2001285745A (en) * 2000-03-30 2001-10-12 Sony Corp Image synthesizer and image synthesizing method
JP2002006825A (en) * 2000-06-26 2002-01-11 Sharp Corp Video signal correcting device
JP2002175068A (en) * 2000-09-22 2002-06-21 Canon Inc System and method for image display, storage medium and image display device
JP2004220235A (en) * 2003-01-14 2004-08-05 Sanyo Electric Co Ltd Information processor with tv broadcast receiving function
JP2007057798A (en) * 2005-08-24 2007-03-08 Sharp Corp Image output apparatus and image signal generation apparatus

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59201591A (en) * 1983-04-28 1984-11-15 Sharp Corp Crt display device
JPS6095485A (en) * 1983-10-28 1985-05-28 シャープ株式会社 Crt display unit
US5220312A (en) * 1989-09-29 1993-06-15 International Business Machines Corporation Pixel protection mechanism for mixed graphics/video display adaptors
US5351067A (en) * 1991-07-22 1994-09-27 International Business Machines Corporation Multi-source image real time mixing and anti-aliasing
JPH0573019A (en) * 1991-09-17 1993-03-26 Canon Inc Image synthesizing and displaying device
JP2936373B2 (en) * 1992-01-08 1999-08-23 トムソン コンシユーマ エレクトロニクス インコーポレイテツド Television equipment
JPH1020844A (en) * 1996-06-28 1998-01-23 Toshiba Corp Image processor and personal computer
JPH11313339A (en) * 1998-04-30 1999-11-09 Toshiba Corp Display controller and dynamic image/graphics composite display method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000181440A (en) * 1998-12-15 2000-06-30 Matsushita Electric Ind Co Ltd Display device
JP2001086423A (en) * 1999-09-09 2001-03-30 Dentsu Inc Method and device for selecting television program
JP2001186410A (en) * 1999-12-24 2001-07-06 Toshiba Corp Video signal processor and video signal processing method
JP2001268466A (en) * 2000-03-22 2001-09-28 Sharp Corp Broadcast receiver
JP2001285745A (en) * 2000-03-30 2001-10-12 Sony Corp Image synthesizer and image synthesizing method
JP2002006825A (en) * 2000-06-26 2002-01-11 Sharp Corp Video signal correcting device
JP2002175068A (en) * 2000-09-22 2002-06-21 Canon Inc System and method for image display, storage medium and image display device
JP2004220235A (en) * 2003-01-14 2004-08-05 Sanyo Electric Co Ltd Information processor with tv broadcast receiving function
JP2007057798A (en) * 2005-08-24 2007-03-08 Sharp Corp Image output apparatus and image signal generation apparatus

Also Published As

Publication number Publication date
JP2007072014A (en) 2007-03-22

Similar Documents

Publication Publication Date Title
US7536657B2 (en) Information equipment remote operating system
KR101234158B1 (en) Method for displaying information window and display apparatus thereof
KR100699091B1 (en) Display apparatus and control method thereof
KR101700616B1 (en) Multimedia apparatus and remote controller for frame synchronization and synchronizing method
KR20060123033A (en) Display system and display apparatus and control method for video source and display apparatus
US20140096063A1 (en) Information display device, information display method, and computer program product
US20070094610A1 (en) Display apparatus and control method thereof
JP5414165B2 (en) Image quality adjusting apparatus, image quality adjusting method and program
JP4795906B2 (en) Video display device and multi-screen display method
US7889278B2 (en) Display apparatus that displays image and sub image and control method thereof
JP2011227540A (en) Display device
US20060190841A1 (en) Display apparatus and control method thereof
JP2009267612A (en) Image processor, and image processing method
JP4593406B2 (en) Computer
KR100880544B1 (en) Multiple pictures display control method and apparatus for controlling for a display device to output preparation picture reducing interference between multiple pictures
JP2014130419A (en) Information processing device, information processing method, and program
CN115547265A (en) Display apparatus and display method
KR100715847B1 (en) Image displaying apparatus for displaying Personal Computer&#39;s picture and Personal Computer&#39;s picture display method thereof
JPH1027087A (en) Screen display method and television receiver with built-in internet receiver
JP2005257948A (en) Image transmission system and method for transmitting image
KR20190106244A (en) Display device and image processing method thereof
KR100357155B1 (en) Apparatus and method for displaying internet picture of internet video apparatus
KR20020051446A (en) Display Apparatus and Control Method Thereof
KR100587567B1 (en) Apparatus for control bar display and method for numerical control using by apparatus for control bar display
JP2008171129A (en) Portable terminal device, program and information storage medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100915

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4593406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees