JP5354962B2 - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP5354962B2
JP5354962B2 JP2008150840A JP2008150840A JP5354962B2 JP 5354962 B2 JP5354962 B2 JP 5354962B2 JP 2008150840 A JP2008150840 A JP 2008150840A JP 2008150840 A JP2008150840 A JP 2008150840A JP 5354962 B2 JP5354962 B2 JP 5354962B2
Authority
JP
Japan
Prior art keywords
window
character string
display
screen
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008150840A
Other languages
Japanese (ja)
Other versions
JP2009294614A (en
JP2009294614A5 (en
Inventor
哲郎 北荘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008150840A priority Critical patent/JP5354962B2/en
Publication of JP2009294614A publication Critical patent/JP2009294614A/en
Publication of JP2009294614A5 publication Critical patent/JP2009294614A5/ja
Application granted granted Critical
Publication of JP5354962B2 publication Critical patent/JP5354962B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報の表示技術に関するものである。   The present invention relates to information display technology.

音声に対応する文字情報をこの音声に一致させて表示することで視聴者の理解を助ける為の技術として、字幕表示の技術がある。従来の基本的な字幕表示技術では、個々の映像毎に1つの字幕データを割り当て、各映像の規定の位置に字幕データを合成して表示する方法(第1の方法)があった。   As a technique for assisting the viewer's understanding by displaying character information corresponding to the voice in accordance with the voice, there is a caption display technique. In the conventional basic caption display technology, there is a method (first method) in which one caption data is assigned to each video and the caption data is synthesized and displayed at a specified position of each video.

しかしながら、上記の基本的な字幕表示方法では、映像表示装置においてピクチャインピクチャ(PINP)表示、或いはピクチャアウトピクチャ(POUTP)表示する場合、個々の画面における字幕表示が小さくなりすぎるという問題がある。これにより、ユーザは、個々の字幕が読みづらくなる。この問題を解決する為の方法として、PINP表示又はPOUTP表示する際、個々の画面に対応する字幕を個々の画面の枠を越えてレイアウトし直し、字幕を大きく表示する方法(第2の方法)がある。この方法により、PINP表示又はPOUTP表示した場合、小さく表示される側の映像に対応する字幕を画面全体を対象として再レイアウトするので、表示領域を大きく取ることができる。従って、文字を従来方法でPINP表示又はPOUTP表示した場合よりも大きく表示することが出来る為、ユーザにとって文字が読み易くなるという利点がある。   However, in the above-described basic caption display method, there is a problem that caption display on individual screens becomes too small when picture-in-picture (PINP) display or picture-out-picture (POUTP) display is performed on the video display device. This makes it difficult for the user to read individual subtitles. As a method for solving this problem, when PINP display or POUTP display is performed, the subtitles corresponding to the individual screens are laid out again beyond the frame of the individual screens, and the subtitles are displayed in a large size (second method). There is. With this method, when PINP display or POUTP display is performed, subtitles corresponding to the video on the small display side are re-laid out for the entire screen, so a large display area can be taken. Therefore, since the character can be displayed larger than the case of PINP display or POUTP display by the conventional method, there is an advantage that the character is easy to read for the user.

また、字幕表示に関する上記以外の課題として、複数画面を表示した場合に画面が他画面の字幕の上に表示されてしまい、ユーザにとって字幕の文字が読みにくくなるという問題がある。この問題を解決する為の方法として、映像表示装置において複数画面を表示する際、画面の重ならない位置に字幕を配置することで、字幕文字に欠損の無いよう表示する方法(第3の方法)がある。この方法により、映像表示装置において複数画面を表示する際にも、画面の重なりによって字幕が隠れるのを防止できるという効果がある。この様な技術の例として特許文献1が開示されている。
特開平7−236100号公報
Further, as a problem other than the above concerning the subtitle display, there is a problem that when a plurality of screens are displayed, the screen is displayed on the subtitles of the other screens, and it is difficult for the user to read the subtitle characters. As a method for solving this problem, when displaying a plurality of screens in a video display device, a method of displaying subtitle characters so that there is no defect by arranging subtitles at positions where the screens do not overlap (third method) There is. This method has an effect of preventing subtitles from being hidden by overlapping screens even when a plurality of screens are displayed on the video display device. Patent document 1 is disclosed as an example of such a technique.
JP-A-7-236100

しかしながら従来の字幕表示技術では、1つの映像に複数の字幕データが対応する場合において、一方の画面における字幕が他方の画面によって隠される際に、実際に表示される映像と表示される字幕が一致しないという問題があった。以下、背景技術で述べた第1〜3の方法についてこの問題を具体的に説明する。   However, in the conventional caption display technology, when multiple caption data correspond to one video, when the caption on one screen is hidden by the other screen, the actually displayed video matches the displayed caption. There was a problem of not doing. Hereinafter, this problem will be specifically described with respect to the first to third methods described in the background art.

背景技術で述べた第1の方法では、1つのウィンドウ内に複数のオブジェクトとそれぞれのオブジェクトに対応する字幕とを表示する場合に、例え一方のウィンドウにおける字幕が他方のウィンドウによって隠されても、字幕の表示については何等変化させない。そのため、他方のウィンドウが重なって見えないオブジェクトの字幕はそのまま表示されるので、ユーザの視聴する映像と字幕とが一致しないという問題がある。   In the first method described in the background art, when a plurality of objects and subtitles corresponding to each object are displayed in one window, even if the subtitles in one window are hidden by the other window, No changes are made to the subtitle display. Therefore, the caption of the object that cannot be seen with the other window overlapping is displayed as it is, and there is a problem that the video viewed by the user does not match the caption.

この例を図1と図2を用いて説明する。図1は、1つのウィンドウの表示例を示す図である。図1に示す如く、100は1枚のウィンドウを示しており、係るウィンドウ100内には、オブジェクト101,102、オブジェクト101に対応する文字列(キャプション)111、オブジェクト102に対応するキャプション112、が配置されている。図2は、図1に示したウィンドウ100内のオブジェクト102上に別のウィンドウ200を重ねて表示した場合の表示例を示す図である。図2では、ウィンドウ200を表示したことで画面上には表示されないオブジェクト102を点線で示している。   This example will be described with reference to FIGS. FIG. 1 is a diagram illustrating a display example of one window. As shown in FIG. 1, reference numeral 100 denotes one window. In the window 100, objects 101 and 102, a character string (caption) 111 corresponding to the object 101, and a caption 112 corresponding to the object 102 are included. Has been placed. FIG. 2 is a diagram showing a display example when another window 200 is displayed over the object 102 in the window 100 shown in FIG. In FIG. 2, the object 102 that is not displayed on the screen by displaying the window 200 is indicated by a dotted line.

このとき、図2に示す如く、オブジェクト102は非表示状態であるものの、オブジェクト102に対応するキャプション112は表示されている。従って、係る画面を見たユーザはあたかも、キャプション111とキャプション112とがオブジェクト101に対応するキャプションであるかのように誤解してしまう恐れがある。係る問題は、背景技術で説明した第2の方法を用いても解消できない。   At this time, as shown in FIG. 2, the object 102 is not displayed, but the caption 112 corresponding to the object 102 is displayed. Therefore, the user who sees such a screen may misunderstand that the caption 111 and the caption 112 are captions corresponding to the object 101. Such a problem cannot be solved even by using the second method described in the background art.

また、背景技術で説明した第3の方法は、映像上の字幕が隠れて見えなくなることを防ぐ為の技術であるので、第3の方法を用いても上記と同様の問題が生じる。具体例を図2と図3を用いて説明する。   Further, since the third method described in the background art is a technique for preventing the subtitles on the video from being hidden and invisible, the same problem as described above occurs even if the third method is used. A specific example will be described with reference to FIGS.

図2に示す如く、ウィンドウ200は、ウィンドウ100内の何れのキャプション111,112にも重なっていない。従って第3の方法では、この場合には、キャプション111,112は通常通り表示する。従って、オブジェクト102は非表示状態であるものの、オブジェクト102に対応するキャプション112は表示されることになり、第1の方法、第2の方法と同様の問題が生じ得る。即ち、係る画面を見たユーザはあたかも、キャプション111とキャプション112とがオブジェクト101に対応するキャプションであるかのように誤解してしまう恐れがある。   As shown in FIG. 2, the window 200 does not overlap any of the captions 111 and 112 in the window 100. Therefore, in the third method, the captions 111 and 112 are displayed as usual in this case. Therefore, although the object 102 is in a non-display state, the caption 112 corresponding to the object 102 is displayed, and the same problem as in the first method and the second method may occur. That is, the user who sees the screen may misunderstand as if the caption 111 and the caption 112 are captions corresponding to the object 101.

図3は、図2に示したキャプション111の一部にウィンドウ200が重なったために、キャプション111の代わりにキャプション111を縮小したキャプション113を配置したウィンドウ100の表示例を示す図である。図2に示したキャプション111の一部にウィンドウ200が重なると、キャプション111においてウィンドウ200と重なった部分が表示されなくなるため、キャプション111の代わりにキャプション113を配置する。キャプション113は、キャプション111のサイズを適当なサイズに縮小したものである。もちろん、キャプション111の配置位置を変更したものをキャプション113としても良い。   FIG. 3 is a diagram showing a display example of the window 100 in which a caption 113 obtained by reducing the caption 111 is arranged instead of the caption 111 because the window 200 overlaps a part of the caption 111 shown in FIG. When the window 200 overlaps a part of the caption 111 shown in FIG. 2, the portion overlapping the window 200 in the caption 111 is not displayed. Therefore, the caption 113 is arranged instead of the caption 111. The caption 113 is obtained by reducing the size of the caption 111 to an appropriate size. Of course, the caption 113 may be changed from the arrangement position of the caption 111.

しかしながら、第3の方法を用いても、オブジェクト102は非表示状態であるものの、オブジェクト102に対応するキャプション112は表示されている。従って、係る画面を見たユーザはあたかも、キャプション111とキャプション112とがオブジェクト101に対応するキャプションであるかのように誤解してしまう恐れがある。   However, even if the third method is used, the caption 112 corresponding to the object 102 is displayed although the object 102 is not displayed. Therefore, the user who sees such a screen may misunderstand that the caption 111 and the caption 112 are captions corresponding to the object 101.

以上をまとめると、第1の方法、第2の方法、第3の方法の何れを用いても、同様の問題が生じることになる。   Summarizing the above, the same problem occurs regardless of whether the first method, the second method, or the third method is used.

本発明は以上の問題に鑑みて成されたものであり、ウィンドウ内に配置されているオブジェクトの表示形態に応じて、このオブジェクトに対応するキャプションの表示形態を変更する為の技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technique for changing the display form of a caption corresponding to this object in accordance with the display form of the object arranged in the window. With the goal.

本発明の目的を達成するために、例えば、本発明の情報処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an information processing apparatus of the present invention comprises the following arrangement.

即ち、複数のウィンドウを生成して表示装置に表示させる情報処理装置であって、
1つのウィンドウ内に配置するオブジェクトと当該オブジェクトに関連する文字列、のデータを用いて1つのウィンドウを生成する生成手段と、
前記生成手段が生成したウィンドウを含む複数のウィンドウを1つの画面内に配置した表示画面を示す画面情報を生成し、生成した画面情報を前記表示装置に出力する出力手段とを備え、
前記出力手段は、
前記生成手段が生成した第1のウィンドウ内に配置した第1のオブジェクト及び第2のオブジェクトのうち該第1のオブジェクトが、該第1のウィンドウ以外に前記生成手段が生成した第2のウィンドウによって隠蔽されていることを検知した場合には、前記第1のオブジェクトに関連する文字列として前記第1のウィンドウ内に配置した第1の文字列の表示形態を、前記第2のオブジェクトに関連する文字列として前記第1のウィンドウ内に配置した第2の文字列の表示形態とは異なる表示形態に変更してから前記画面情報を生成することを特徴とする。
That is, an information processing apparatus that generates a plurality of windows and displays the windows on a display device,
Generating means for generating one window using data of an object to be arranged in one window and a character string related to the object;
Generating screen information indicating a display screen in which a plurality of windows including the window generated by the generating unit are arranged in one screen, and outputting the generated screen information to the display device;
The output means includes
Of the first object and the second object arranged in the first window generated by the generation unit, the first object becomes a second window generated by the generation unit other than the first window. Therefore , when it is detected that the character string is concealed, the display form of the first character string arranged in the first window as the character string related to the first object is related to the second object. The screen information is generated after changing to a display form different from the display form of the second character string arranged in the first window as the character string to be performed.

本発明の構成によれば、ウィンドウ内に配置されているオブジェクトの表示形態に応じて、このオブジェクトに対応するキャプションの表示形態を変更することができる。   According to the configuration of the present invention, the display form of the caption corresponding to the object can be changed according to the display form of the object arranged in the window.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
図5は、本実施形態に係る情報処理装置の機能構成例を示すブロック図である。図5に示す如く、本実施形態に係る情報処理装置550は、入力部510、重なり判定部511、キャプション表示形態制御部512、画面生成部513、出力部514、を有する。
[First Embodiment]
FIG. 5 is a block diagram illustrating a functional configuration example of the information processing apparatus according to the present embodiment. As illustrated in FIG. 5, the information processing apparatus 550 according to the present embodiment includes an input unit 510, an overlap determination unit 511, a caption display form control unit 512, a screen generation unit 513, and an output unit 514.

入力部510には、各ウィンドウ内に表示する情報が記述されたデータが入力される。ここで、入力部510に入力されるデータについて説明する。   Data describing information to be displayed in each window is input to the input unit 510. Here, data input to the input unit 510 will be described.

入力部510に入力されるデータは、ウィンドウ毎のデータに大別される。そして1つのウィンドウに対するデータは更に、係るウィンドウ内に表示されるオブジェクト毎のデータに大別される。   Data input to the input unit 510 is roughly classified into data for each window. The data for one window is further roughly divided into data for each object displayed in the window.

502は、あるウィンドウ(図5ではウィンドウA)に対するデータであり、実際にはデータファイルとして存在する。データファイル502には、各オブジェクト(図5ではオブジェクトA、オブジェクトB、オブジェクトC)に対するデータが含まれている。501はオブジェクトAに対するデータであり、実際にはデータファイルとして存在する。データファイル501には、オブジェクトデータ501a、オブジェクト表示領域データ501b、キャプションデータ501cが含まれている。   Reference numeral 502 denotes data for a certain window (window A in FIG. 5), which actually exists as a data file. The data file 502 includes data for each object (object A, object B, and object C in FIG. 5). Reference numeral 501 denotes data for the object A, which actually exists as a data file. The data file 501 includes object data 501a, object display area data 501b, and caption data 501c.

オブジェクトデータ501aは、オブジェクトAの画像を形成するためのデータである。オブジェクトデータ501aは、オブジェクトAの画像データそのものであっても良いし、ポリゴンなどの表示構成要素のデータであっても良い。何れにせよ、オブジェクトデータ501aは、オブジェクトAの画像を形成するためのデータであれば、如何なるデータであっても良い。例えば、データファイル502がMPEG−4に従った符号化データファイルである場合には、オブジェクトデータ501aは、各フレームにおけるオブジェクトAの画像を形成するための符号化データとなる。   The object data 501a is data for forming an image of the object A. The object data 501a may be the image data of the object A itself, or may be display component data such as a polygon. In any case, the object data 501a may be any data as long as it is data for forming an image of the object A. For example, when the data file 502 is an encoded data file according to MPEG-4, the object data 501a is encoded data for forming an image of the object A in each frame.

オブジェクト表示領域データ501bは、ウィンドウA内に表示するオブジェクトAの表示位置(例えばオブジェクトAの中心の表示位置)、オブジェクトAの縦横のサイズを示すデータである。例えば、データファイル502がMPEG−4に従った符号化データファイルである場合には、オブジェクト表示領域データ501bは、オブジェクトAの縦横のサイズを示すデータ、及び各フレームにおけるオブジェクトAの表示位置を示すデータとなる。なお、オブジェクト表示領域データ501bが示す内容は、表示位置及び縦横のサイズに限定するものではなく、ウィンドウA内でオブジェクトAが占める領域の範囲を示すデータであっても良い。   The object display area data 501b is data indicating the display position of the object A displayed in the window A (for example, the display position at the center of the object A) and the vertical and horizontal sizes of the object A. For example, when the data file 502 is an MPEG-4 encoded data file, the object display area data 501b indicates data indicating the vertical and horizontal sizes of the object A, and the display position of the object A in each frame. It becomes data. The contents indicated by the object display area data 501b are not limited to the display position and the vertical and horizontal sizes, but may be data indicating the range of the area occupied by the object A in the window A.

キャプションデータ501cは、オブジェクトAに関連する文字列のデータと、係る文字列のウィンドウA内における表示位置を示すデータと、で構成されている。係る文字列は、例えば、オブジェクトAの名前等のオブジェクト情報であっても良いし、オブジェクトAが発した台詞などの台詞情報であっても良い。何れにせよ、係る文字列は、オブジェクトAに関連しているものであれば、如何なる文字列であっても良い。もちろん、文字列の代わりに、他の情報を用いても良い。   The caption data 501c includes character string data related to the object A and data indicating the display position of the character string in the window A. Such a character string may be, for example, object information such as the name of the object A, or may be line information such as a line emitted by the object A. In any case, as long as the character string is related to the object A, any character string may be used. Of course, other information may be used instead of the character string.

入力部510は、ウィンドウ毎のデータを外部から受けると、これを重なり判定部511と画面生成部513とに送出する。なお、入力部510によるデータの取得形態については特に限定するものではなく、ネットワークを介して他の装置から無線若しくは有線を介して受信しても良いし、情報処理装置550が有するハードディスクなどのメモリからロードしても良い。   When the input unit 510 receives data for each window from the outside, the input unit 510 sends the data to the overlap determination unit 511 and the screen generation unit 513. Note that the form of data acquisition by the input unit 510 is not particularly limited, and data may be received from other devices via a network via wireless or wired communication, or a memory such as a hard disk included in the information processing device 550 You may load from.

重なり判定部511は、各ウィンドウに対応するデータを用いて、各ウィンドウを形成する。例えば、データファイル502を用いてウィンドウAを形成する。ウィンドウAを形成するとは、データファイル502内の各データを用いて、それぞれのオブジェクト及び対応する文字列をウィンドウA内に配置することである。例えばオブジェクトAについて処理する場合には次のような処理を行う。即ち、オブジェクトデータ501aに基づくオブジェクトAの画像を、オブジェクト表示領域データ501bが示す表示位置に配置すると共に、キャプションデータ501cに基づく文字列をキャプションデータ501cが示す位置に配置する。このような処理を、データファイル502に含まれる各オブジェクト(図5ではオブジェクトA、オブジェクトB、オブジェクトC)に対するデータを用いて行うことで、ウィンドウAを形成することができる。なお、重なり判定部511が行うウィンドウの形成は、実際に表示するためのものではなく、後述する演算処理を行うために、メモリ上で行うものである。   The overlap determination unit 511 forms each window using data corresponding to each window. For example, the window A is formed using the data file 502. Forming the window A means arranging each object and the corresponding character string in the window A using each data in the data file 502. For example, when processing the object A, the following processing is performed. That is, the image of the object A based on the object data 501a is arranged at the display position indicated by the object display area data 501b, and the character string based on the caption data 501c is arranged at the position indicated by the caption data 501c. By performing such processing using data for each object (object A, object B, and object C in FIG. 5) included in the data file 502, the window A can be formed. Note that the window formation performed by the overlap determination unit 511 is not performed for actual display, but is performed on a memory in order to perform arithmetic processing described later.

次に、重なり判定部511は、ウィンドウ毎に次のような処理を行う。即ち、他ウィンドウ(他方のウィンドウ)を表示することで、着目ウィンドウ内に配置したオブジェクトが隠蔽されるか否かを判定する。着目ウィンドウ内に表示したオブジェクトが他ウィンドウによって隠蔽されているか否かを判定する為の処理は、他ウィンドウが、着目ウィンドウを管理するアプリケーション、他のアプリケーション、の何れによって管理されているのかに応じて異なる。   Next, the overlap determination unit 511 performs the following process for each window. That is, by displaying another window (the other window), it is determined whether or not the object placed in the window of interest is hidden. The process for determining whether or not the object displayed in the target window is hidden by another window depends on whether the other window is managed by an application that manages the target window or another application. Different.

他ウィンドウが着目ウィンドウを管理するアプリケーションによって管理されている場合、重なり判定部511は、係るアプリケーションから、他ウィンドウの画面上における表示領域の範囲を取得する。一方、他ウィンドウが着目ウィンドウを管理するアプリケーション以外のアプリケーション(他アプリケーション)によって管理されている場合、重なり判定部511は、情報処理装置550のOS(オペレーティングシステム)にアクセスする。そしてOSに対して「他アプリケーションが現在動作させている他ウィンドウの画面上における表示領域の範囲」の取得を要求する。そして重なり判定部511は、係る要求に応じてOSから提供された、各ウィンドウの表示領域の範囲を取得する。これにより、重なり判定部511は、他ウィンドウの画面上における表示領域の範囲を取得することができる。   When the other window is managed by an application that manages the window of interest, the overlap determination unit 511 acquires the range of the display area on the screen of the other window from the application. On the other hand, when the other window is managed by an application (other application) other than the application that manages the window of interest, the overlap determination unit 511 accesses the OS (operating system) of the information processing apparatus 550. Then, the OS is requested to acquire “range of display area on the screen of another window currently being operated by another application”. Then, the overlap determination unit 511 acquires the display area range of each window provided from the OS in response to the request. Thereby, the overlap determination unit 511 can acquire the range of the display area on the screen of another window.

このように、他ウィンドウを管理するアプリケーションに応じた処理を行うことで、重なり判定部511は、他ウィンドウの画面上における表示領域の範囲を取得することができる。   In this way, by performing processing according to the application that manages the other window, the overlap determination unit 511 can acquire the range of the display area on the screen of the other window.

一方で重なり判定部511は、着目ウィンドウ内に配置したそれぞれのオブジェクトについては、対応するオブジェクト表示領域データによって、その表示位置、縦横のサイズは把握している。換言すれば、重なり判定部511は、着目ウィンドウ内でそれぞれのオブジェクトが占める領域の範囲を把握していることになる。例えば、オブジェクトAの場合、オブジェクト表示領域データ501bによってオブジェクトAの表示位置、縦横のサイズは把握しているので、結果としてウィンドウA内でオブジェクトAが占める領域の範囲は把握していることになる。   On the other hand, the overlap determination unit 511 grasps the display position and the vertical and horizontal sizes of each object arranged in the target window from the corresponding object display area data. In other words, the overlap determination unit 511 grasps the range of the area occupied by each object in the window of interest. For example, in the case of the object A, since the display position and the vertical and horizontal sizes of the object A are grasped by the object display area data 501b, the range of the area occupied by the object A in the window A is grasped as a result. .

そして重なり判定部511は、着目ウィンドウ内に表示した各オブジェクトについて、オブジェクトの表示領域面積のうち所定の割合(例えば60%)以上が、他ウィンドウの画面上における表示領域によって隠蔽されているか否かをチェックする。そして重なり判定部511は、係るチェックにおいて、「隠蔽されている」と判断(検知)したオブジェクトを、被隠蔽オブジェクトとして特定する。   Then, for each object displayed in the window of interest, the overlap determination unit 511 determines whether or not a predetermined ratio (for example, 60%) or more of the display area area of the object is hidden by the display area on the screen of the other window. Check. Then, the overlap determination unit 511 specifies an object that is determined (detected) as “hidden” in the check as a hidden object.

なお、着目ウィンドウ内に表示したオブジェクトが他ウィンドウによって隠蔽されているか否かを判定する為の処理についてはこのような処理に限定するものではなく、システムの構成に対応したものを用いればよい。   Note that the process for determining whether or not the object displayed in the window of interest is hidden by another window is not limited to such a process, and a process corresponding to the system configuration may be used.

一方、画面生成部513は、各ウィンドウに対応するデータを用いて、各ウィンドウ(複数のウィンドウ)を形成する。即ち、複数のウィンドウを1つの画面内に配置した表示画面を示す画面情報を生成する。画面生成部513が行うウィンドウの形成処理は、重なり判定部511が行ったウィンドウの形成処理と同様のものである。しかし、重なり判定部511が行ったウィンドウの形成処理は表示用のものではないのに対し、画面生成部513が行うウィンドウの形成処理は表示用のものである。また、画面生成部513は、キャプションデータに基づく文字列をウィンドウ上に配置する場合、キャプション表示形態制御部512からの指示に従う。   On the other hand, the screen generation unit 513 forms each window (a plurality of windows) using data corresponding to each window. That is, screen information indicating a display screen in which a plurality of windows are arranged in one screen is generated. The window formation process performed by the screen generation unit 513 is the same as the window formation process performed by the overlap determination unit 511. However, the window forming process performed by the overlap determining unit 511 is not for display, whereas the window forming process performed by the screen generating unit 513 is for display. Further, the screen generation unit 513 follows an instruction from the caption display form control unit 512 when arranging a character string based on the caption data on the window.

キャプション表示形態制御部512は、重なり判定部511によって被隠蔽オブジェクトとして特定されたオブジェクトに対応する文字列の表示形態を制御する。例えば、オブジェクトAが被隠蔽オブジェクトとして特定された場合、キャプション表示形態制御部512は、画面生成部513に対してキャプションデータ501cの使用を禁止する。即ち、オブジェクトAに対応する文字列を非表示にする。   The caption display form control unit 512 controls the display form of the character string corresponding to the object specified as the hidden object by the overlap determination unit 511. For example, when the object A is specified as a hidden object, the caption display form control unit 512 prohibits the screen generation unit 513 from using the caption data 501c. That is, the character string corresponding to the object A is hidden.

図4は、隠蔽されたオブジェクトに対応する文字列を非表示にしたウィンドウの表示例を示す図である。図4に示す如く、100は1枚のウィンドウを示しており、係るウィンドウ100内には、オブジェクト101,102、オブジェクト101に対応する文字列(キャプション)111が配置されている。ここで、オブジェクト102がウィンドウ200に隠蔽されていない場合には、オブジェクト102に対応するキャプション112を表示するのであるが、実際には、図4に示す如く、オブジェクト102はウィンドウ200に隠蔽されている。従って、この場合、キャプション112を非表示(図4では非表示状態を点線で示している)にする。   FIG. 4 is a diagram illustrating a display example of a window in which a character string corresponding to a hidden object is hidden. As shown in FIG. 4, reference numeral 100 denotes one window. In the window 100, objects 101 and 102 and a character string (caption) 111 corresponding to the object 101 are arranged. Here, when the object 102 is not hidden by the window 200, the caption 112 corresponding to the object 102 is displayed. In practice, however, the object 102 is hidden by the window 200 as shown in FIG. Yes. Therefore, in this case, the caption 112 is hidden (in FIG. 4, the non-display state is indicated by a dotted line).

なお、文字列の表示形態の制御についてはこれに限定するものではなく、様々なものが考えられる。   The control of the display form of the character string is not limited to this, and various things can be considered.

例えば、オブジェクトAが被隠蔽オブジェクトとして特定された場合、キャプション表示形態制御部512は、キャプションデータ501cに基づく文字列の透明度を上げるように、画面生成部513に指示する。これにより画面生成部513は、指示された透明度でもってキャプションデータ501cに対応する文字列を配置することになる。なお、透明度の代わりに、文字列のサイズや色を変更設定しても良いし、これらを組み合わせて設定変更しても良い。   For example, when the object A is specified as a hidden object, the caption display form control unit 512 instructs the screen generation unit 513 to increase the transparency of the character string based on the caption data 501c. As a result, the screen generation unit 513 arranges a character string corresponding to the caption data 501c with the instructed transparency. Note that the size and color of the character string may be changed and set instead of the transparency, or the setting may be changed by combining these.

もちろん、キャプション表示形態制御部512は、被隠蔽オブジェクトとして特定されていないオブジェクトについては何も画面生成部513には通知しない。この場合、画面生成部513は、被隠蔽オブジェクトとして特定されていないオブジェクトについては上述のような文字列の表示形態の制御は行わず、キャプションデータに基づいた文字列の配置を行う。   Of course, the caption display form control unit 512 does not notify the screen generation unit 513 of any object that is not specified as a hidden object. In this case, the screen generation unit 513 does not control the display mode of the character string as described above for an object that is not specified as the hidden object, and arranges the character string based on the caption data.

そして画面生成部513は、このようにして生成した画面情報を出力部514に対して送出する。   Then, the screen generation unit 513 sends the screen information generated in this way to the output unit 514.

出力部514は、画面生成部513から受けた画面情報を、外部の装置(例えば、CRTや液晶画面等により構成されている表示装置)に対して送出する。なお、画面情報を表示装置に送出する場合には、適当な画像処理を施した後、映像信号に変換してから送出することになる。このように、画面情報は、その送出先に応じて適宜処理が施される。   The output unit 514 sends the screen information received from the screen generation unit 513 to an external device (for example, a display device configured with a CRT, a liquid crystal screen, or the like). When the screen information is sent to the display device, it is sent after being converted into a video signal after appropriate image processing. In this way, the screen information is appropriately processed according to the transmission destination.

図6は、本実施形態に係る情報処理装置550が行う処理のフローチャートである。なお、各ステップにおける処理については上述の通りであるので、ここでは簡単に説明する。   FIG. 6 is a flowchart of processing performed by the information processing apparatus 550 according to the present embodiment. Since the processing in each step is as described above, it will be briefly described here.

先ずステップS601では、入力部510は、ウィンドウ毎のデータを外部から受けると、これを重なり判定部511と画面生成部513とに送出する。   First, in step S601, when the input unit 510 receives data for each window from the outside, the input unit 510 transmits the data to the overlap determination unit 511 and the screen generation unit 513.

次に、ステップS602では、重なり判定部511は、各ウィンドウに対応するデータを用いて、各ウィンドウを形成する。次に、重なり判定部511は、ウィンドウ毎に次のような処理を行う。即ち、他ウィンドウを表示することで、着目ウィンドウ内に配置したオブジェクトが隠蔽されるか否かを判定する。即ち、重なり判定部511は、着目ウィンドウ内に表示した各オブジェクトについて、オブジェクトの表示領域面積のうち所定の割合(例えば60%)以上が、他ウィンドウの画面上における表示領域によって隠蔽されているか否かをチェックする。そして重なり判定部511は、係るチェックにおいて、「隠蔽されている」と判断したオブジェクトを、被隠蔽オブジェクトとして特定する。   Next, in step S602, the overlap determination unit 511 forms each window using data corresponding to each window. Next, the overlap determination unit 511 performs the following process for each window. That is, by displaying another window, it is determined whether or not the object placed in the window of interest is hidden. That is, for each object displayed in the window of interest, the overlap determination unit 511 determines whether or not a predetermined ratio (for example, 60%) or more of the display area of the object is hidden by the display area on the screen of another window. To check. Then, the overlap determination unit 511 identifies an object that is determined to be “hidden” in the check as a hidden object.

そして、被隠蔽オブジェクトとして特定されたオブジェクトが1つでもある場合には、処理をステップS603を介してステップS604に進める。一方、被隠蔽オブジェクトとして特定されたオブジェクトが1つもない場合には、処理をステップS603を介してステップS605に進める。   If there is even one object identified as the hidden object, the process proceeds to step S604 via step S603. On the other hand, if there is no object identified as the hidden object, the process proceeds to step S605 via step S603.

ステップS604では、キャプション表示形態制御部512は、重なり判定部511によって被隠蔽オブジェクトとして特定されたオブジェクトに対応する文字列の表示形態を制御する。即ち、上述の通り、様々な考えられる表示形態制御を実現させるべく、画面生成部513に指示する。   In step S604, the caption display form control unit 512 controls the display form of the character string corresponding to the object specified as the hidden object by the overlap determination unit 511. That is, as described above, the screen generation unit 513 is instructed to realize various possible display mode controls.

ステップS605では、画面生成部513は、各ウィンドウに対応するデータを用いて、各ウィンドウ(複数のウィンドウ)を形成する。なお、画面生成部513はキャプション表示形態制御部512から文字列の表示形態制御の指示を受けている場合には、係る文字列については、係る指示に従って表示形態を変更する。そして画面生成部513は、このようにして生成した画面情報を出力部514に対して送出する。   In step S605, the screen generation unit 513 forms each window (a plurality of windows) using data corresponding to each window. When the screen generation unit 513 receives an instruction to control the display form of the character string from the caption display form control unit 512, the display form of the character string is changed according to the instruction. Then, the screen generation unit 513 sends the screen information generated in this way to the output unit 514.

ステップS606では、出力部514は、画面生成部513から受けた画面情報を、外部の装置(例えば、CRTや液晶画面等により構成されている表示装置)に対して送出する。   In step S606, the output unit 514 sends the screen information received from the screen generation unit 513 to an external device (for example, a display device configured with a CRT, a liquid crystal screen, or the like).

なお、本実施形態では、オブジェクトがウィンドウ表示によって隠蔽された場合に限って、このオブジェクトに対応する文字列の表示形態を制御した。しかし、係る表示形態制御を行うための条件はこれに限定するものではない。   In the present embodiment, the display form of the character string corresponding to the object is controlled only when the object is hidden by the window display. However, the conditions for performing such display form control are not limited to this.

[第2の実施形態]
図5に示した、情報処理装置550を構成する各部は、専用のハードウェアでもって実現しても良いが、一部若しくは全部をソフトウェアでもって実現させても良い。この場合、情報処理装置550には、係るソフトウェアを実行する一般のPC(パーソナルコンピュータ)などのコンピュータを適用することができる。
[Second Embodiment]
Each unit configuring the information processing apparatus 550 illustrated in FIG. 5 may be realized by dedicated hardware, or part or all may be realized by software. In this case, a computer such as a general PC (personal computer) that executes the software can be applied to the information processing apparatus 550.

図7は、情報処理装置550に適用可能なコンピュータのハードウェアを構成例を示すブロック図である。   FIG. 7 is a block diagram illustrating a configuration example of computer hardware applicable to the information processing apparatus 550.

CPU701は、RAM702やROM703に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、情報処理装置550が行うものとして第1の実施形態で説明した各処理を実行する。   The CPU 701 controls the entire computer using computer programs and data stored in the RAM 702 and the ROM 703 and executes each process described in the first embodiment as being performed by the information processing apparatus 550.

RAM702は、外部記憶装置706からロードされたコンピュータプログラムやデータ、I/F(インターフェース)707を介して外部から受信したデータなどを一時的に記憶するためのエリアを有する。更に、RAM702は、CPU701が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM702は、各種のエリアを適宜提供することができる。   The RAM 702 has an area for temporarily storing computer programs and data loaded from the external storage device 706, data received from the outside via an I / F (interface) 707, and the like. Further, the RAM 702 also has a work area used when the CPU 701 executes various processes. That is, the RAM 702 can provide various areas as appropriate.

ROM703には、ブートプログラムや、本コンピュータの設定データなどが格納されている。   The ROM 703 stores a boot program, setting data of the computer, and the like.

操作部704は、キーボードやマウスなどにより構成されており、本コンピュータの操作者が操作することで、各種の指示をCPU701に対して入力することができる。   The operation unit 704 is configured by a keyboard, a mouse, and the like, and various instructions can be input to the CPU 701 by an operator of the computer.

表示部705は、CRTや液晶画面などにより構成されており、CPU701による処理結果を画像や文字などでもって表示することができる。例えば、出力部514が出力するものとして説明した画面情報に基づく画面を表示することができる。   The display unit 705 is configured by a CRT, a liquid crystal screen, or the like, and can display a processing result by the CPU 701 using an image, text, or the like. For example, a screen based on the screen information described as being output by the output unit 514 can be displayed.

外部記憶装置706は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置706には、OS(オペレーティングシステム)や、情報処理装置550が行うものとして第1の実施形態で説明した各種の処理をCPU701に実行させるためのコンピュータプログラムやデータが保存されている。   The external storage device 706 is a large-capacity information storage device represented by a hard disk drive device. The external storage device 706 stores an OS (Operating System) and computer programs and data for causing the CPU 701 to execute various processes described in the first embodiment as performed by the information processing device 550.

係るコンピュータプログラムには、図5に示した重なり判定部511、キャプション表示形態制御部512、画面生成部513のそれぞれの機能をCPU701に実行させるためのコンピュータプログラムが含まれている。また、係るデータには、各ウィンドウ内に表示する情報が記述されたデータが含まれる。係るデータは、図5に示す如く、データファイル502を含む、ウィンドウ毎のデータファイルである。   The computer program includes a computer program for causing the CPU 701 to execute the functions of the overlap determination unit 511, the caption display form control unit 512, and the screen generation unit 513 illustrated in FIG. Such data includes data describing information to be displayed in each window. Such data is a data file for each window including a data file 502 as shown in FIG.

外部記憶装置706に保存されているコンピュータプログラムやデータは、CPU701による制御に従って適宜RAM702にロードされ、CPU701による処理対象となる。   Computer programs and data stored in the external storage device 706 are appropriately loaded into the RAM 702 under the control of the CPU 701 and are processed by the CPU 701.

I/F707は、本コンピュータと外部装置とのデータ通信を可能にする為のものであって、例えば、図5に示した入力部510、出力部514に対応するものである。   The I / F 707 is for enabling data communication between the computer and an external device, and corresponds to, for example, the input unit 510 and the output unit 514 shown in FIG.

708は上述の各部を繋ぐバスである。   Reference numeral 708 denotes a bus connecting the above-described units.

[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) that records a program code (computer program) of software that implements the functions of the above-described embodiments is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU included in the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. Needless to say.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

1つのウィンドウの表示例を示す図である。It is a figure which shows the example of a display of one window. 図1に示したウィンドウ100内のオブジェクト102上に別のウィンドウ200を重ねて表示した場合の表示例を示す図である。It is a figure which shows the example of a display when another window 200 is superimposed and displayed on the object 102 in the window 100 shown in FIG. 図2に示したキャプション111の一部にウィンドウ200が重なったために、キャプション111の代わりにキャプション111を縮小したキャプション113を配置したウィンドウ100の表示例を示す図である。FIG. 3 is a diagram illustrating a display example of a window 100 in which a caption 113 obtained by reducing the caption 111 is disposed instead of the caption 111 because the window 200 overlaps a part of the caption 111 illustrated in FIG. 2. 隠蔽されたオブジェクトに対応する文字列を非表示にしたウィンドウの表示例を示す図である。It is a figure which shows the example of a display of the window which hidden the character string corresponding to the hidden object. 本発明の第1の実施形態に係る情報処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the information processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る情報処理装置550が行う処理のフローチャートである。It is a flowchart of the process which the information processing apparatus 550 which concerns on the 1st Embodiment of this invention performs. 情報処理装置550に適用可能なコンピュータのハードウェアを構成例を示すブロック図である。And FIG. 20 is a block diagram illustrating a configuration example of computer hardware applicable to the information processing apparatus 550.

Claims (8)

複数のウィンドウを生成して表示装置に表示させる情報処理装置であって、
1つのウィンドウ内に配置するオブジェクトと当該オブジェクトに関連する文字列、のデータを用いて1つのウィンドウを生成する生成手段と、
前記生成手段が生成したウィンドウを含む複数のウィンドウを1つの画面内に配置した表示画面を示す画面情報を生成し、生成した画面情報を前記表示装置に出力する出力手段とを備え、
前記出力手段は、
前記生成手段が生成した第1のウィンドウ内に配置した第1のオブジェクト及び第2のオブジェクトのうち該第1のオブジェクトが、該第1のウィンドウ以外に前記生成手段が生成した第2のウィンドウによって隠蔽されていることを検知した場合には、前記第1のオブジェクトに関連する文字列として前記第1のウィンドウ内に配置した第1の文字列の表示形態を、前記第2のオブジェクトに関連する文字列として前記第1のウィンドウ内に配置した第2の文字列の表示形態とは異なる表示形態に変更してから前記画面情報を生成することを特徴とする情報処理装置。
An information processing apparatus that generates a plurality of windows and displays the windows on a display device,
Generating means for generating one window using data of an object to be arranged in one window and a character string related to the object;
Generating screen information indicating a display screen in which a plurality of windows including the window generated by the generating unit are arranged in one screen, and outputting the generated screen information to the display device;
The output means includes
Of the first object and the second object arranged in the first window generated by the generation unit, the first object becomes a second window generated by the generation unit other than the first window. Therefore , when it is detected that the character string is concealed, the display form of the first character string arranged in the first window as the character string related to the first object is related to the second object. The screen information is generated after the display form is changed to a display form different from the display form of the second character string arranged in the first window as the character string to be processed.
前記出力手段は、
前記第1のオブジェクトが前記第2のウィンドウによって隠蔽されていることを検知した場合、前記第1の文字列を非表示にしてから前記画面情報を生成することを特徴とする請求項1に記載の情報処理装置。
The output means includes
If the first object is detected that it is therefore concealed in the second window, to claim 1, characterized in that to generate the screen information from the hide the first string The information processing apparatus described.
前記出力手段は、
前記第1のオブジェクトが前記第2のウィンドウによって隠蔽されていることを検知した場合、前記第1の文字列の透明度を前記第2の文字列の透明度とは異なる透明度に変更してから前記画面情報を生成することを特徴とする請求項1に記載の情報処理装置。
The output means includes
If the first object is detected to be thus being concealed in the second window, the transparency of the first string after changing to a different transparency and transparency of the second string The information processing apparatus according to claim 1, wherein screen information is generated.
前記出力手段は、
前記第1のオブジェクトが前記第2のウィンドウによって隠蔽されていることを検知した場合、前記第1の文字列のサイズを前記第2の文字列のサイズとは異なるサイズに変更してから前記画面情報を生成することを特徴とする請求項1に記載の情報処理装置。
The output means includes
If the first object is detected to be thus being concealed in said second window, from said change the size different from the size of the first string size the second string The information processing apparatus according to claim 1, wherein screen information is generated.
前記出力手段は、
前記第1のオブジェクトが前記第2のウィンドウによって隠蔽されていることを検知した場合、前記第1の文字列の色を前記第2の文字列の色とは異なる色に変更してから前記画面情報を生成することを特徴とする請求項1に記載の情報処理装置。
The output means includes
If the first object is detected to be thus it is concealed in said second window, from said change to a different color from the color of the first character and the second character string color column The information processing apparatus according to claim 1, wherein screen information is generated.
複数のウィンドウを生成して表示装置に表示させる情報処理装置が行う情報処理方法であって、
前記情報処理装置の生成手段が、1つのウィンドウ内に配置するオブジェクトと当該オブジェクトに関連する文字列、のデータを用いて1つのウィンドウを生成する生成工程と、
前記情報処理装置の出力手段が、前記生成工程で生成したウィンドウを含む複数のウィンドウを1つの画面内に配置した表示画面を示す画面情報を生成し、生成した画面情報を前記表示装置に出力する出力工程とを備え、
前記出力工程では、
前記生成工程で生成した第1のウィンドウ内に配置した第1のオブジェクト及び第2のオブジェクトのうち該第1のオブジェクトが、該第1のウィンドウ以外に前記生成工程で生成した第2のウィンドウによって隠蔽されていることを検知した場合には、前記第1のオブジェクトに関連する文字列として前記第1のウィンドウ内に配置した第1の文字列の表示形態を、前記第2のオブジェクトに関連する文字列として前記第1のウィンドウ内に配置した第2の文字列の表示形態とは異なる表示形態に変更してから前記画面情報を生成することを特徴とする情報処理方法。
An information processing method performed by an information processing device that generates a plurality of windows and displays the windows on a display device,
A generation step of generating one window using data of an object to be arranged in one window and a character string related to the object, the generation unit of the information processing apparatus;
The output unit of the information processing device generates screen information indicating a display screen in which a plurality of windows including the window generated in the generating step are arranged in one screen, and outputs the generated screen information to the display device. An output process,
In the output step,
Of the first object and the second object arranged in the first window generated in the generation step, the first object is included in the second window generated in the generation step in addition to the first window. Therefore , when it is detected that the character string is concealed, the display form of the first character string arranged in the first window as the character string related to the first object is related to the second object. The screen information is generated after changing to a display form different from the display form of the second character string arranged in the first window as a character string to be processed.
コンピュータを請求項1乃至5の何れか1項に記載の情報処理装置が有する各手段として機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as each unit included in the information processing apparatus according to any one of claims 1 to 5. 請求項7に記載のコンピュータプログラムを格納した、コンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the computer program according to claim 7.
JP2008150840A 2008-06-09 2008-06-09 Information processing apparatus and information processing method Expired - Fee Related JP5354962B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008150840A JP5354962B2 (en) 2008-06-09 2008-06-09 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008150840A JP5354962B2 (en) 2008-06-09 2008-06-09 Information processing apparatus and information processing method

Publications (3)

Publication Number Publication Date
JP2009294614A JP2009294614A (en) 2009-12-17
JP2009294614A5 JP2009294614A5 (en) 2011-07-21
JP5354962B2 true JP5354962B2 (en) 2013-11-27

Family

ID=41542822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008150840A Expired - Fee Related JP5354962B2 (en) 2008-06-09 2008-06-09 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP5354962B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08272576A (en) * 1995-03-28 1996-10-18 Canon Inc Window display device and window display method
JPH1011263A (en) * 1996-06-20 1998-01-16 Sharp Corp Multiwindow system
JP3674164B2 (en) * 1996-07-11 2005-07-20 富士ゼロックス株式会社 Display device and display method
JP3919790B2 (en) * 2005-03-14 2007-05-30 株式会社コナミデジタルエンタテインメント Message image display device, control method and program for message image display device

Also Published As

Publication number Publication date
JP2009294614A (en) 2009-12-17

Similar Documents

Publication Publication Date Title
US20140068503A1 (en) Screen recording method and apparatus in terminal
US20110131480A1 (en) Method and system to process an electronic form
US8259133B2 (en) Image display apparatus and image display method
JP2007241410A (en) Display device and display control method
JP6265659B2 (en) Information processing apparatus, control method thereof, and program
JP5116513B2 (en) Image display apparatus and control method thereof
JP4876058B2 (en) Color processing apparatus and method
JP6058257B2 (en) Image output apparatus, image output method, and program
JP2008102332A (en) Projector
KR20180103239A (en) Display apparatus and control method thereof
KR20130034712A (en) Apparatus for displaying and method for displaying imaging thereof
JP2007114402A (en) Display processing apparatus
JP2008158977A5 (en)
JP2017009708A (en) Projection system, photographing device, and information processing method and program
JP5354962B2 (en) Information processing apparatus and information processing method
CN113010075B (en) Multi-signal source window interaction method and system, readable storage medium and electronic device
CN106415473B (en) Display device and control method thereof
CN103294618A (en) Information processing apparatus and control method
KR101116538B1 (en) Choreography production system and choreography production method
JP5055220B2 (en) Image display device and image display method
JP7009981B2 (en) VR content management method and management program that supports the operation and management of VR content
US20130314424A1 (en) Display System for Electronic Device and Display Module Thereof
KR100697425B1 (en) Method and apparatus displaying picture
KR20240015401A (en) Display mode adaptive video playback device and method
JP2000020743A (en) Device and method for controlling moving picture data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130827

R151 Written notification of patent or utility model registration

Ref document number: 5354962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees