JP2017111251A - Image display system and image display method - Google Patents

Image display system and image display method Download PDF

Info

Publication number
JP2017111251A
JP2017111251A JP2015244500A JP2015244500A JP2017111251A JP 2017111251 A JP2017111251 A JP 2017111251A JP 2015244500 A JP2015244500 A JP 2015244500A JP 2015244500 A JP2015244500 A JP 2015244500A JP 2017111251 A JP2017111251 A JP 2017111251A
Authority
JP
Japan
Prior art keywords
image
pointer
main
image display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015244500A
Other languages
Japanese (ja)
Inventor
今井 毅
Takeshi Imai
毅 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015244500A priority Critical patent/JP2017111251A/en
Publication of JP2017111251A publication Critical patent/JP2017111251A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To share a place pointed by a user on an image display device with the other user who uses the other image display device.SOLUTION: A first image display device comprises: first acquisition means for acquiring image data including a main image; display means for displaying the main image; generation means for generating a pointer image as an image indicating a position pointed by a user on a screen on which the main image is displayed; and output means for generating and outputting a multi-stream signal including the main image and the pointer image. A second image display device comprises: second acquisition means for acquiring the multi-stream signal; and second display means for generating and displaying a synthetic image as an image obtained by synthesizing the main image and the pointer image included in the multi-stream signal.SELECTED DRAWING: Figure 2

Description

本発明は、画像を表示する画像表示装置に関する。   The present invention relates to an image display device that displays an image.

コンピュータおよびディスプレイ装置(画像表示装置)間の画像伝送方法として、デジタル差動信号を用いる形態が主流となってきている。
デジタル差動信号を利用して画像を伝送する規格の一つに、ディスプレイポートがある。特に、ディスプレイポート Ver.1.2と呼ばれる規格では、マルチストリーム伝
送が可能となっている。これにより、複数の画像表示装置を直列に接続し、それぞれの装置に出力する複数の画像データを一本のケーブルで伝送することができる。
As an image transmission method between a computer and a display device (image display device), a form using a digital differential signal has become mainstream.
One standard for transmitting images using digital differential signals is a display port. In particular, display port Ver. The standard called 1.2 enables multi-stream transmission. Thereby, a plurality of image display devices can be connected in series, and a plurality of image data output to each device can be transmitted with a single cable.

ところで、プレゼンテーションや会議等において、複数の画像表示装置に同一の画像を出力する形態がある。このような形態において、プレゼンター(講演者)が行ったポインティング操作を、複数の画像表示装置に表示させたいという要望があった。
これに対する発明として、例えば、特許文献1には、タッチパネルを搭載したコンピュータを用い、出力する画像にポインタを重畳させて後段の画像表示装置に出力する装置が開示されている。
By the way, in a presentation or a meeting, there is a form in which the same image is output to a plurality of image display devices. In such a form, there has been a demand to display a pointing operation performed by a presenter (speaker) on a plurality of image display devices.
As an invention for this, for example, Patent Document 1 discloses a device that uses a computer equipped with a touch panel and superimposes a pointer on an output image and outputs the image to a subsequent image display device.

特開2007−310903号公報JP 2007-310903 A 特開2006−78645号公報JP 2006-78645 A

特許文献1に記載の装置では、講演者が行ったコンピュータの操作に基づいてポインタを生成しているため、講演者がコンピュータから離れて説明することができないという問題がある。すなわち、レーザーポインタ等の手段を用いて、モニタやスクリーンを直接ポイントした場合、接続されている他の画像表示装置に当該ポインタを反映させることができない。   In the apparatus described in Patent Document 1, since the pointer is generated based on the operation of the computer performed by the speaker, there is a problem that the speaker cannot be explained away from the computer. That is, when a monitor or screen is pointed directly using a means such as a laser pointer, the pointer cannot be reflected on another connected image display device.

本発明は、このような課題に鑑みてなされたものであり、ユーザが画像表示装置上で指し示した箇所を、他の画像表示装置を利用する他のユーザと共有することを目的とする。   The present invention has been made in view of such a problem, and an object of the present invention is to share a location indicated by a user on an image display device with another user who uses another image display device.

上記課題を解決するための、本発明に係る画像表示システムは、
第一の画像表示装置と、第二の画像表示装置と、を含む画像表示システムであって、前記第一の画像表示装置は、主画像を含む画像データを取得する第一の取得手段と、
前記主画像を表示する第一の表示手段と、前記主画像が表示された画面上においてユーザが指し示した位置を表す画像であるポインタ画像を生成する生成手段と、前記主画像と前記ポインタ画像とを含むマルチストリーム信号を生成して出力する出力手段と、を有し、前記第二の画像表示装置は、前記マルチストリーム信号を取得する第二の取得手段と、前記マルチストリーム信号に含まれる前記主画像およびポインタ画像を合成した画像である合成画像を生成し表示する第二の表示手段と、を有することを特徴とする。
In order to solve the above problems, an image display system according to the present invention includes:
An image display system including a first image display device and a second image display device, wherein the first image display device includes first acquisition means for acquiring image data including a main image;
First display means for displaying the main image; generation means for generating a pointer image which is an image representing a position pointed to by a user on a screen on which the main image is displayed; the main image and the pointer image; Output means for generating and outputting a multi-stream signal including the second image display device, second acquisition means for acquiring the multi-stream signal, and the multi-stream signal included in the multi-stream signal And second display means for generating and displaying a composite image that is an image obtained by combining the main image and the pointer image.

また、本発明に係る画像表示装置は、
主画像を含む画像データを取得する第一の取得手段と、前記主画像を表示する表示手段
と、前記主画像が表示された画面上においてユーザが指し示した位置を表す画像であるポインタ画像を生成する生成手段と、前記主画像と前記ポインタ画像とを含むマルチストリーム信号を生成して出力する出力手段と、を有することを特徴とする。
Moreover, an image display device according to the present invention includes:
A first acquisition unit that acquires image data including a main image, a display unit that displays the main image, and a pointer image that is an image representing a position pointed to by the user on the screen on which the main image is displayed And generating means for generating and outputting a multi-stream signal including the main image and the pointer image.

また、本発明に係る画像表示方法は、
第一の画像表示装置と、第二の画像表示装置と、が行う画像表示方法であって、前記第一の画像表示装置が、主画像を含む画像データを取得する第一の取得ステップと、前記主画像を表示する第一の表示ステップと、前記主画像が表示された画面上においてユーザが指し示した位置を表す画像であるポインタ画像を生成する生成ステップと、前記主画像と前記ポインタ画像とを含むマルチストリーム信号を生成して出力する出力ステップと、を実行し、前記第二の画像表示装置が、前記マルチストリーム信号を取得する第二の取得ステップと、前記マルチストリーム信号に含まれる前記主画像およびポインタ画像を合成した画像である合成画像を生成し表示する第二の表示ステップと、を実行することを特徴とする。
The image display method according to the present invention includes:
An image display method performed by a first image display device and a second image display device, wherein the first image display device acquires image data including a main image; A first display step for displaying the main image; a generation step for generating a pointer image which is an image representing a position pointed to by a user on a screen on which the main image is displayed; the main image and the pointer image; Generating and outputting a multistream signal including: a second acquisition step in which the second image display device acquires the multistream signal; and the multistream signal included in the multistream signal And a second display step of generating and displaying a composite image that is an image obtained by combining the main image and the pointer image.

本発明によれば、ユーザが画像表示装置上で指し示した箇所を、他の画像表示装置を利用する他のユーザと共有することができる。   ADVANTAGE OF THE INVENTION According to this invention, the location which the user pointed on on the image display apparatus can be shared with the other user using another image display apparatus.

第一の実施形態における複数のモニタの接続関係を表した図である。It is a figure showing the connection relation of the some monitor in 1st embodiment. メインモニタ200とサブモニタ300との関係を説明する図である。4 is a diagram for explaining a relationship between a main monitor 200 and a sub monitor 300. 第一の実施形態に係るメインモニタ200のブロック構成図である。It is a block block diagram of the main monitor 200 which concerns on 1st embodiment. 第一の実施形態に係るサブモニタ300のブロック構成図である。It is a block block diagram of the sub monitor 300 which concerns on 1st embodiment. 主画像とポインタ画像の解像度の違いを説明する図である。It is a figure explaining the difference in the resolution of a main image and a pointer image. 第二の実施形態に係るサブモニタ500のブロック構成図である。It is a block block diagram of the sub monitor 500 which concerns on 2nd embodiment. 第三の実施形態における複数のモニタの接続関係を表した図である。It is a figure showing the connection relation of the some monitor in 3rd embodiment. 第三の実施形態に係るメインモニタ600のブロック構成図である。It is a block block diagram of the main monitor 600 which concerns on 3rd embodiment. 第三の実施形態に係るサブモニタ700のブロック構成図である。It is a block block diagram of the sub monitor 700 which concerns on 3rd embodiment. 第四の実施形態におけるセンサ値を説明する図である。It is a figure explaining the sensor value in 4th embodiment. センサ値と画素値との関係を説明する図である。It is a figure explaining the relationship between a sensor value and a pixel value. 第四の実施形態の効果を説明する図である。It is a figure explaining the effect of 4th embodiment.

以下、図面を参照しつつ、本発明の実施形態を詳細に説明する。なお、同一の構成要素には原則として同一の参照番号を付して、説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In principle, the same components are denoted by the same reference numerals, and description thereof is omitted.

(第一の実施形態)
第一の実施形態の概要について、図1を参照しながら説明する。
第一の実施形態に係る画像表示システムは、画像を出力するコンピュータ101と、複数の画像表示装置(以下、モニタ200,300,400)とがデイジーチェーン接続されたシステムである。本実施形態では、コンピュータ101がプレゼンテーション用の画像を出力し、当該画像を各モニタが表示する。なお、メインモニタ200がプレゼンター(以下、講演者)用のモニタであり、サブモニタ300および400が聴講者用のモニタである。
(First embodiment)
The outline of the first embodiment will be described with reference to FIG.
The image display system according to the first embodiment is a system in which a computer 101 that outputs an image and a plurality of image display apparatuses (hereinafter, monitors 200, 300, and 400) are connected in a daisy chain. In this embodiment, the computer 101 outputs an image for presentation, and each monitor displays the image. The main monitor 200 is a monitor for a presenter (hereinafter referred to as a speaker), and the sub-monitors 300 and 400 are monitors for a listener.

また、第一の実施形態では、メインモニタ200が、講演者によって指し示された画面上の位置を取得する機能を有しており、また、サブモニタ300が当該位置に対応するポインタを表示する機能を有している。   In the first embodiment, the main monitor 200 has a function of acquiring a position on the screen pointed to by the speaker, and the sub monitor 300 displays a pointer corresponding to the position. have.

ポインティングについて、図2を参照して説明する。
ポインティングとは、画面上の任意の位置を指し示す動作を指す。例えば、ポインティングは、タッチ動作などによって行われる。
図2は、メインモニタ200とサブモニタ300との関係を表す図である。ここで、講演者が、メインモニタ200が有する画面(画面表示部204)に表示されているグラフチャートを説明するため、符号231で示した箇所をポインティングしたとする。
The pointing will be described with reference to FIG.
Pointing refers to an operation that points to an arbitrary position on the screen. For example, pointing is performed by a touch operation or the like.
FIG. 2 is a diagram illustrating the relationship between the main monitor 200 and the sub monitor 300. Here, in order to explain the graph chart displayed on the screen (screen display unit 204) of the main monitor 200, it is assumed that the speaker points at a location indicated by reference numeral 231.

本実施形態では、メインモニタ200が、前段のコンピュータ101から入力された主画像に加え、ポインタのみを含む画像(以下、ポインタ画像)を生成し、双方をマルチストリーム出力する。また、サブモニタ300が、マルチストリーム信号に含まれる主画像およびポインタ画像を取得し、双方を合成して表示する。これにより、主画像にポインタが重畳された画像を画面表示部308に表示させることができる。すなわち、サブモニタ300に表示されているグラフチャートの対応する位置にポインタ331が描画される。
なお、サブモニタ300の後段に接続されたサブモニタ400にも、同様のマルチストリーム信号が送信され、同様の処理が行われる。すなわち、サブモニタ400にも同様にポインタが重畳された主画像が表示される。
In the present embodiment, the main monitor 200 generates an image including only a pointer (hereinafter referred to as a pointer image) in addition to the main image input from the preceding computer 101, and outputs both of them as a multi-stream output. In addition, the sub monitor 300 acquires the main image and the pointer image included in the multi-stream signal, and combines and displays both. As a result, an image in which a pointer is superimposed on the main image can be displayed on the screen display unit 308. That is, the pointer 331 is drawn at a corresponding position on the graph chart displayed on the sub monitor 300.
Note that the same multi-stream signal is transmitted to the sub monitor 400 connected to the subsequent stage of the sub monitor 300, and the same processing is performed. That is, the main image with the pointer superimposed thereon is displayed on the sub monitor 400 as well.

各モニタの具体的な構成について説明する。
図3は、第一の実施形態に係るメインモニタ200の構成ブロック図である。
入力端子201は、コンピュータ101から出力された画像信号(主画像に対応する信号)が入力される端子であり、主画像受信部202は、当該画像信号を受信するインタフェースモジュール(本発明における第一の取得手段)である。受信された画像信号は、信号処理部203、同期信号抽出部206、ストリーム合成部208にそれぞれ入力される。
A specific configuration of each monitor will be described.
FIG. 3 is a configuration block diagram of the main monitor 200 according to the first embodiment.
The input terminal 201 is a terminal to which an image signal (a signal corresponding to the main image) output from the computer 101 is input, and the main image receiving unit 202 is an interface module that receives the image signal (first in the present invention). Acquisition means). The received image signal is input to the signal processing unit 203, the synchronization signal extraction unit 206, and the stream synthesis unit 208, respectively.

信号処理部203は、主画像を画像表示部204に表示させるための信号処理を行う手段である。また、画像表示部204は、画像を表示させる液晶パネル等の手段である。
画面タッチ検出部205は、画像表示部204の表面に配置されており、ユーザによってポインティングされた画面上の位置(ポイント位置)を取得する手段である。本実施形態では、画面タッチ検出部205は、ユーザによってタッチされた画面上の位置を検出し、位置情報を出力するタッチパネルである。
The signal processing unit 203 is a unit that performs signal processing for causing the image display unit 204 to display a main image. The image display unit 204 is a means such as a liquid crystal panel for displaying an image.
The screen touch detection unit 205 is arranged on the surface of the image display unit 204, and is a means for acquiring a position (point position) on the screen pointed by the user. In the present embodiment, the screen touch detection unit 205 is a touch panel that detects a position on the screen touched by the user and outputs position information.

画面タッチ検出部205が出力した位置情報は、ポインタ画像生成部207に送信され、ポインタ画像生成部207が、ポインタを表す画像(ポインタ画像)を生成する。ポインタ画像は、ポインティングされた位置を表すものであれば、カーソルなどのグラフィカルな表現を用いたものであってもよいし、単純にポインティングされた位置のみを特定の画素値で表すものであってもよい。
なお、ポインタ画像に対応する信号は、主画像に対応する信号と同期させる必要があるため、ポインタ画像生成部207は、同期信号抽出部206によって取得された主画像の同期信号を利用してポインタ画像を生成する。
生成されたポインタ画像は、主画像とともに、ストリーム合成部208でマルチストリーム信号に変換され、画像を送信するインタフェースモジュールであるマルチストリーム送信部209を介して出力される。出力端子210は、画像が出力される端子である。
以上に説明した処理は、不図示のCPUによって行われる。
The position information output by the screen touch detection unit 205 is transmitted to the pointer image generation unit 207, and the pointer image generation unit 207 generates an image (pointer image) representing the pointer. As long as the pointer image represents a pointed position, the pointer image may be a graphical representation such as a cursor, or simply a specific pixel value representing only the pointed position. Also good.
Since the signal corresponding to the pointer image needs to be synchronized with the signal corresponding to the main image, the pointer image generation unit 207 uses the synchronization signal of the main image acquired by the synchronization signal extraction unit 206 to perform the pointer. Generate an image.
The generated pointer image is converted together with the main image into a multi-stream signal by the stream synthesizing unit 208, and is output via the multi-stream transmission unit 209 that is an interface module that transmits the image. The output terminal 210 is a terminal from which an image is output.
The processing described above is performed by a CPU (not shown).

次に、サブモニタ300について説明する。図4は、第一の実施形態におけるサブモニタ300の構成ブロック図である(サブモニタ400も同様)。
入力端子301は、メインモニタ200から出力されたマルチストリーム信号が入力される端子であり、マルチストリーム受信部302は、当該マルチストリーム信号を受信するインタフェースモジュールである。
受信されたマルチストリーム信号は、マルチストリーム分割部303に入力され、主画像に対応する信号と、ポインタ画像に対応する信号の二つに分割される。主画像に対応する信号は主画像出力部305に入力され、ポインタ画像に対応する信号はポインタ画像出力部304に入力される。
Next, the sub monitor 300 will be described. FIG. 4 is a configuration block diagram of the sub monitor 300 in the first embodiment (the sub monitor 400 is also the same).
The input terminal 301 is a terminal to which a multi-stream signal output from the main monitor 200 is input, and the multi-stream receiving unit 302 is an interface module that receives the multi-stream signal.
The received multi-stream signal is input to the multi-stream dividing unit 303, and is divided into a signal corresponding to the main image and a signal corresponding to the pointer image. A signal corresponding to the main image is input to the main image output unit 305, and a signal corresponding to the pointer image is input to the pointer image output unit 304.

画像合成部306は、主画像出力部305が出力した主画像、および、ポインタ画像出力部304が出力したポインタ画像を合成することで一つの画像(以下、合成画像)を生成する手段である。ここで生成された合成画像は、主画像にポインタが重畳されたものとなる。
信号処理部307は、合成画像を画像表示部308に表示するための信号処理を行う手段である。また、画像表示部308は、画像を表示させる液晶パネル等の手段である。
The image composition unit 306 is a unit that generates one image (hereinafter referred to as a composite image) by compositing the main image output from the main image output unit 305 and the pointer image output from the pointer image output unit 304. The composite image generated here is obtained by superimposing a pointer on the main image.
The signal processing unit 307 is a unit that performs signal processing for displaying the composite image on the image display unit 308. The image display unit 308 is a means such as a liquid crystal panel for displaying an image.

サブモニタ300は、後段に接続されたモニタ(本例ではサブモニタ400)に、マルチストリーム信号を転送する機能を有している。具体的には、ストリーム合成部309が、主画像出力部305が出力した主画像と、ポインタ画像出力部304が出力したポインタ画像を再度合成し、マルチストリーム信号を出力する。
生成されたマルチストリーム信号は、信号を送信するインタフェースモジュールであるマルチストリーム送信部310を介して出力される。出力端子311は、映像信号を出力する端子である。
以上に説明した処理は、不図示のCPUによって行われる。
The sub-monitor 300 has a function of transferring a multi-stream signal to a monitor (sub-monitor 400 in this example) connected to the subsequent stage. Specifically, the stream synthesizing unit 309 again synthesizes the main image output from the main image output unit 305 and the pointer image output from the pointer image output unit 304, and outputs a multi-stream signal.
The generated multi-stream signal is output via a multi-stream transmission unit 310 that is an interface module that transmits the signal. The output terminal 311 is a terminal for outputting a video signal.
The processing described above is performed by a CPU (not shown).

以上のように、第一の実施形態に係るモニタ200は、主画像と、ポインタのみを含む画像であるポインタ画像とを生成し、マルチストリーム化して送信する。また、モニタ300が、マルチストリーム信号を分離して合成画像を再構成し、画面に出力する。かかる構成によると、モニタ200上にて講演者が行ったポインティング操作を、後段に接続されたモニタ上に反映させることができる。よって、従来技術のように、コンピュータ101が出力する画像にポインタを含ませなくても、聴講者に位置を指し示すことが可能になる。また、サブモニタは直列に接続可能であるため、複数のサブモニタに対して同様の情報を提供することができる。   As described above, the monitor 200 according to the first embodiment generates a main image and a pointer image that is an image including only a pointer, and transmits the multi-stream. In addition, the monitor 300 separates the multi-stream signal, reconstructs the composite image, and outputs it to the screen. According to this configuration, the pointing operation performed by the speaker on the monitor 200 can be reflected on the monitor connected in the subsequent stage. Therefore, it is possible to indicate the position to the listener without including a pointer in the image output from the computer 101 as in the prior art. Further, since the sub monitors can be connected in series, the same information can be provided to a plurality of sub monitors.

ところで、ポインタ画像は、主画像ほどの解像度を必要としないため、ポインタ画像の解像度を低くすることで、伝送されるデータ量を抑えることができる。ここでは、主画像の画素数を単純な整数比で小さくしたものをポインタ画像とし、フレームレートのみを同期させる手法について説明する。
図5(A)は、4096×2160ピクセルの解像度を持つ主画像を模式的に表した図であり、図5(B)は、1024×540ピクセルの解像度を持つポインタ画像を模式的に表した図である。本例では、画面タッチ検出部205は、4×4の画素領域に対して一つのセンサを備えるものとする。
例えば、図5(A)の点線内の何れかの画素がポインティングされたとする。ポインタ画像が主画像と同じ画素数である場合、縦横16画素分のデータを生成しなければならないが、本例の場合、図5(B)のように4分の1のデータ量で済む。このように構成した場合、サブモニタ300が、ポインタ画像の画素数を縦横それぞれ4倍に変換したのちに合成画像を生成すればよい。これにより、主画像上の同じ位置にポインタが表示される。
By the way, since the pointer image does not require the same resolution as the main image, the amount of transmitted data can be suppressed by reducing the resolution of the pointer image. Here, a method of synchronizing only the frame rate with a pointer image obtained by reducing the number of pixels of the main image by a simple integer ratio will be described.
FIG. 5A schematically shows a main image having a resolution of 4096 × 2160 pixels, and FIG. 5B schematically shows a pointer image having a resolution of 1024 × 540 pixels. FIG. In this example, it is assumed that the screen touch detection unit 205 includes one sensor for a 4 × 4 pixel region.
For example, it is assumed that any pixel within the dotted line in FIG. When the pointer image has the same number of pixels as the main image, data for 16 pixels in the vertical and horizontal directions must be generated, but in this example, the data amount is ¼ as shown in FIG. In such a configuration, the sub monitor 300 may generate a composite image after converting the number of pixels of the pointer image by four times in the vertical and horizontal directions. Thereby, the pointer is displayed at the same position on the main image.

また、主画像のフレーム周波数(フレームレート)とポインタ画像のフレーム周波数が、単純な整数比の関係にあってもよい。例えば、主画像のフレーム周波数が60Hzであった場合、ポインタ画像のフレーム周波数を15Hzにすれば、伝送すべきデータ量を1/4に減らす事ができる。
これらの、画素数を変換する処理、およびフレーム周波数を減らす処理は、例えばポインタ画像生成部207に行わせることができる。これにより、データ量を抑えたマルチス
トリーム信号を出力することができる。なお、解像度やフレームレートの変換は、既存のスケーリング技術やフレームメモリ制御を用いて行うことができる。
Further, the frame frequency (frame rate) of the main image and the frame frequency of the pointer image may have a simple integer ratio relationship. For example, when the frame frequency of the main image is 60 Hz, the amount of data to be transmitted can be reduced to ¼ by setting the frame frequency of the pointer image to 15 Hz.
The processing for converting the number of pixels and the processing for reducing the frame frequency can be performed by the pointer image generation unit 207, for example. As a result, a multi-stream signal with a reduced data amount can be output. Note that resolution and frame rate conversion can be performed using existing scaling techniques and frame memory control.

なお、本実施形態では、タッチパネルを用いて画面に対するタッチを検出したが、タッチパネルの代わりに、従来技術として挙げたような、レーザーポインタを用いて位置を検出する方法を採用してもよい。   In the present embodiment, a touch on the screen is detected using a touch panel, but a method of detecting a position using a laser pointer, such as the conventional technique, may be employed instead of the touch panel.

(第二の実施形態)
第二の実施形態は、メインモニタ200上でポインティングした箇所に対応するポインタをサブモニタ300で描画するか否かをユーザが選択できるようにした実施形態である。
(Second embodiment)
The second embodiment is an embodiment in which the user can select whether or not to draw a pointer corresponding to the pointed point on the main monitor 200 on the sub monitor 300.

図6は、第二の実施形態に係るサブモニタ300の構成ブロック図である。第二の実施形態では、サブモニタ300がスイッチ540を有しており、当該スイッチを切り替えることで、ポインタ画像を主画像に合成して表示するか否かを選択できる構成となっている。
なお、第二の実施形態に係るサブモニタ500の構成は、スイッチ540を有しているという点を除き、第一の実施形態に係るサブモニタ300と同等である。
FIG. 6 is a configuration block diagram of the sub-monitor 300 according to the second embodiment. In the second embodiment, the sub monitor 300 includes a switch 540, and by switching the switch, it is possible to select whether or not the pointer image is combined with the main image and displayed.
Note that the configuration of the sub monitor 500 according to the second embodiment is the same as that of the sub monitor 300 according to the first embodiment, except that the switch 540 is included.

第二の実施形態では、スイッチ540がONである場合、ポインタ画像出力部304から出力されたポインタ画像が、画像合成部306に出力される。すなわち、主画像とポインタ画像が合成され、画像表示部308に出力される。
一方、スイッチ540がOFFである場合、ポインタ画像出力部304から出力されたポインタ画像は画像合成部306に入力されない。すなわち、画像合成部306は、主画像出力部305から出力された主画像のみを用いて画像を生成するため、ポインタが画面上に反映されない状態となる。
In the second embodiment, when the switch 540 is ON, the pointer image output from the pointer image output unit 304 is output to the image composition unit 306. That is, the main image and the pointer image are combined and output to the image display unit 308.
On the other hand, when the switch 540 is OFF, the pointer image output from the pointer image output unit 304 is not input to the image composition unit 306. That is, since the image composition unit 306 generates an image using only the main image output from the main image output unit 305, the pointer is not reflected on the screen.

第二の実施形態では、このように、サブモニタ側に、画像を合成するか否かを選択させる機能を持たせることで、利用状況に応じて、ポインタの表示有無を設定することが可能になる。   In the second embodiment, as described above, by providing the sub-monitor side with a function for selecting whether or not to synthesize an image, it is possible to set whether or not to display the pointer according to the use situation. .

なお、本例では、サブモニタ500側にスイッチを設ける例を挙げたが、スイッチをメインモニタ200側に持たせてもよい。また、スイッチは必ずしも物理的な手段でなくてもよい。例えば、フラグまたは制御コマンド(合成可否情報)を用いて、ポインタの合成を行うか否かを制御してもよい。更には、当該フラグや制御コマンドを映像信号に含ませ、当該映像信号を受信したモニタが、合成の可否を判断するようにしてもよい。   In this example, the switch is provided on the sub monitor 500 side. However, the switch may be provided on the main monitor 200 side. The switch is not necessarily a physical means. For example, it may be controlled whether or not pointers are to be combined using a flag or a control command (combination enable / disable information). Furthermore, the flag or the control command may be included in the video signal, and the monitor that has received the video signal may determine whether or not the synthesis is possible.

(第三の実施形態)
第一および第二の実施形態では、複数のモニタを直列に接続した。これに対し、第三の実施形態は、図7に示したように、複数のモニタ(メインモニタ600およびサブモニタ700,800)をループ状に接続したシステムである。このように構成することで、複数のモニタが互いのポインタ情報を交換できるようになる。第三の実施形態は、特に会議システムなどに好適な実施形態である。
(Third embodiment)
In the first and second embodiments, a plurality of monitors are connected in series. On the other hand, the third embodiment is a system in which a plurality of monitors (main monitor 600 and sub monitors 700 and 800) are connected in a loop as shown in FIG. With this configuration, a plurality of monitors can exchange pointer information with each other. The third embodiment is an embodiment particularly suitable for a conference system or the like.

コンピュータ101から出力された画像は、主画像としてメインモニタ600に入力される。モニタ600がポインティング位置を取得し、マルチストリーム信号を出力する動作は第一の実施形態と同様である。メインモニタ600から出力されたマルチストリーム信号は、サブモニタ700に入力される。   An image output from the computer 101 is input to the main monitor 600 as a main image. The operation in which the monitor 600 acquires the pointing position and outputs the multi-stream signal is the same as that in the first embodiment. The multi-stream signal output from the main monitor 600 is input to the sub monitor 700.

サブモニタ700の機能は、マルチストリーム信号に含まれる主画像とポインタ画像を
合成し、画像表示部に出力するという点において、第一の実施形態におけるサブモニタ300と同様である。
加えて、第二の実施形態では、サブモニタ700が画面タッチ検出部を有しており、ポインティング位置を検出して第二のポインタ画像を生成し、主画像と合成して画像表示部に出力する。また、サブモニタ700は、メインモニタ600から取得したポインタ画像と、生成した第二のポインタ画像を合成し、第三のポインタ画像を生成し、後段のサブモニタ800にマルチストリーム出力する。
The function of the sub monitor 700 is the same as that of the sub monitor 300 in the first embodiment in that the main image and the pointer image included in the multi-stream signal are combined and output to the image display unit.
In addition, in the second embodiment, the sub-monitor 700 has a screen touch detection unit, detects the pointing position, generates a second pointer image, combines it with the main image, and outputs it to the image display unit. . Also, the sub monitor 700 combines the pointer image acquired from the main monitor 600 and the generated second pointer image to generate a third pointer image, and outputs it to the sub monitor 800 in the subsequent stage as a multistream.

サブモニタ800は、サブモニタ700と同一構成のモニタである。なお、図7の例ではサブモニタは2台だが、サブモニタの数に制限は無い。最終段に位置するサブモニタから出力されたマルチストリーム信号は、再度メインモニタ600に入力される。このため、メインモニタ600は、最終段に位置するサブモニタから出力されたマルチストリーム信号を入力するための端子を備えている。   The sub monitor 800 is a monitor having the same configuration as the sub monitor 700. In the example of FIG. 7, there are two sub monitors, but the number of sub monitors is not limited. The multi-stream signal output from the sub monitor located at the final stage is input to the main monitor 600 again. For this reason, the main monitor 600 includes a terminal for inputting a multi-stream signal output from the sub-monitor located at the final stage.

図8は、第三の実施形態におけるメインモニタ600の構成ブロック図である。
第三の実施形態におけるメインモニタ600は、第一の実施形態におけるメインモニタ200に、点線で示したブロックを追加したものである。
すなわち、第2の入力端子690、マルチストリーム受信部601、ポインタ画像抽出部602、ポインタ画像合成部603、画像合成部604の各手段を有するという点において、第一の実施形態に係るメインモニタ200と相違する。
FIG. 8 is a block diagram showing the configuration of the main monitor 600 according to the third embodiment.
The main monitor 600 in the third embodiment is obtained by adding blocks indicated by dotted lines to the main monitor 200 in the first embodiment.
That is, the main monitor 200 according to the first embodiment is provided with the second input terminal 690, the multi-stream receiving unit 601, the pointer image extracting unit 602, the pointer image synthesizing unit 603, and the image synthesizing unit 604. Is different.

点線で示したブロックは、サブモニタ800から出力されたポインタ画像を、主画像と、自身のタッチ箇所に対応するポインタとを合成して画像表示部204に出力するための機能ブロックである。点線で示したブロック以外の構成は第一の実施形態と同様であるため、説明は省略する。   A block indicated by a dotted line is a functional block for combining the pointer image output from the sub-monitor 800 with the main image and a pointer corresponding to the touch location of the pointer image and outputting the combined image to the image display unit 204. Since the configuration other than the blocks indicated by dotted lines is the same as that of the first embodiment, the description thereof is omitted.

入力端子690は、サブモニタ800から出力されたマルチストリーム信号が入力される端子であり、マルチストリーム受信部601は、当該マルチストリーム信号を受信するインタフェースモジュールである。
受信されたマルチストリーム信号は、ポインタ画像抽出部602に入力され、ポインタ画像のみが抽出される。抽出されたポインタ画像は、ポインタ画像合成部603に入力される。
The input terminal 690 is a terminal to which the multi-stream signal output from the sub monitor 800 is input, and the multi-stream receiving unit 601 is an interface module that receives the multi-stream signal.
The received multi-stream signal is input to the pointer image extraction unit 602, and only the pointer image is extracted. The extracted pointer image is input to the pointer image composition unit 603.

ポインタ画像合成部603は、ポインタ画像抽出部602から取得したポインタ画像と、ポインタ画像生成部207から取得したポインタ画像を合成する手段である。前者が、サブモニタ700および800で行われたポインティング操作に対応するポインタ画像であり、後者が、自モニタで行われたポインティング操作に対応するポインタ画像である。すなわち、ポインタ画像合成部603によって、全てのポインタが合成されたポインタ画像が生成される。   The pointer image synthesis unit 603 is a unit that synthesizes the pointer image acquired from the pointer image extraction unit 602 and the pointer image acquired from the pointer image generation unit 207. The former is a pointer image corresponding to the pointing operation performed on the sub-monitors 700 and 800, and the latter is the pointer image corresponding to the pointing operation performed on the own monitor. That is, the pointer image combining unit 603 generates a pointer image in which all pointers are combined.

合成されたポインタ画像は、画像合成部604に送信され、主画像とさらに合成されて表示用の画像となる。合成された画像は、信号処理部203で信号処理を施された後、画像表示部204に出力される。   The combined pointer image is transmitted to the image combining unit 604 and further combined with the main image to become a display image. The synthesized image is subjected to signal processing by the signal processing unit 203 and then output to the image display unit 204.

図9は、第三の実施形態に係るサブモニタ700の構成ブロック図である。
第三の実施形態におけるサブモニタ700は、点線で示したブロックを、第一の実施形態におけるサブモニタ300に追加したものである。すなわち、第三の実施形態におけるサブモニタ700は、ポインタ画像合成部701、画面タッチ検出部702、同期信号抽出部703、ポインタ画像生成部704の各ブロックを有するという点において、第一の実施形態に係るサブモニタ300と相違する。
点線で示したブロック以外の構成は第一の実施形態と同様であるため、説明は省略する。
FIG. 9 is a configuration block diagram of a sub-monitor 700 according to the third embodiment.
The sub-monitor 700 in the third embodiment is obtained by adding the blocks indicated by dotted lines to the sub-monitor 300 in the first embodiment. That is, the sub-monitor 700 in the third embodiment is the same as that in the first embodiment in that each of the blocks includes a pointer image synthesis unit 701, a screen touch detection unit 702, a synchronization signal extraction unit 703, and a pointer image generation unit 704. This is different from the sub monitor 300.
Since the configuration other than the blocks indicated by dotted lines is the same as that of the first embodiment, the description thereof is omitted.

サブモニタ700が、操作者によってポインティングされた箇所を、自身の画像表示部308に描画する方法を説明する。
画面タッチ検出部702、同期信号抽出部703、ポインタ画像生成部704は、それぞれ、第一の実施形態における画面タッチ検出部205、同期信号抽出部206、ポインタ画像生成部207と同様の手段である。
A description will be given of a method in which the sub monitor 700 draws the location pointed by the operator on its own image display unit 308.
The screen touch detection unit 702, the synchronization signal extraction unit 703, and the pointer image generation unit 704 are the same units as the screen touch detection unit 205, the synchronization signal extraction unit 206, and the pointer image generation unit 207, respectively, in the first embodiment. .

ポインタ画像合成部701は、ポインタ画像生成部704が生成したポインタ画像と、ポインタ画像出力部304から取得したポインタ画像を合成する手段(本発明におけるポインタ合成手段)である。前者が、自モニタで行われたポインティング操作に対応するポインタ画像であり、後者が、他のモニタで行われたポインティング操作に対応するポインタ画像である。合成の結果、新たなポインタ画像(すなわち、全てのポインタが合成されたポインタ画像)が生成され、画像合成部306に出力される。
合成されたポインタ画像は、画像合成部306に送信され、主画像とさらに合成されて表示用の画像となる。合成された画像は、信号処理部307で信号処理を施された後、画像表示部308に出力される。
The pointer image synthesis unit 701 is a unit that synthesizes the pointer image generated by the pointer image generation unit 704 and the pointer image acquired from the pointer image output unit 304 (pointer synthesis unit in the present invention). The former is a pointer image corresponding to a pointing operation performed on its own monitor, and the latter is a pointer image corresponding to a pointing operation performed on another monitor. As a result of the synthesis, a new pointer image (that is, a pointer image in which all pointers are synthesized) is generated and output to the image synthesis unit 306.
The combined pointer image is transmitted to the image combining unit 306 and further combined with the main image to become a display image. The synthesized image is subjected to signal processing by the signal processing unit 307 and then output to the image display unit 308.

また、ストリーム合成部309が、ポインタ画像合成部701が生成したポインタ画像と、主画像出力部305から出力された主画像を受信し、マルチストリーム信号を生成してマルチストリーム送信部310に出力する。生成されたマルチストリーム信号は、出力端子311を介して後段モニタに送信される。   Also, the stream synthesizing unit 309 receives the pointer image generated by the pointer image synthesizing unit 701 and the main image output from the main image output unit 305, generates a multi-stream signal, and outputs the multi-stream signal to the multi-stream transmission unit 310. . The generated multi-stream signal is transmitted to the subsequent stage monitor via the output terminal 311.

このように、第三の実施形態では、各モニタ600,700,800でポインティングを行うと、対応するポインタ画像が他のモニタに送信され、表示される。すなわち、参加者が行ったポインティングの位置が、全てのモニタで共有される。
例えば、図7のように、メインモニタ600の画面に表示されているグラフチャートの下方部651を操作者がポインティングしたとする。このポインティングした箇所は、後段のサブモニタ700および800のグラフチャート下方部(符号652)に描画される。
Thus, in the third embodiment, when pointing is performed on each of the monitors 600, 700, and 800, a corresponding pointer image is transmitted to another monitor and displayed. That is, the position of the pointing performed by the participant is shared by all monitors.
For example, as shown in FIG. 7, it is assumed that the operator points at the lower part 651 of the graph chart displayed on the screen of the main monitor 600. This pointed portion is drawn on the lower part (reference numeral 652) of the graph chart of the sub-monitors 700 and 800 in the subsequent stage.

サブモニタ700および800の画面表示部がポインティングされた場合も同様である。
例えば、サブモニタ700の画面に表示されているグラフチャートの上方部751を操作者がポインティングしたとする。このポインティングした箇所は、後段のサブモニタ700およびメインモニタ600のグラフチャート上方部(符号752)に描画される。
The same applies when the screen displays of the sub-monitors 700 and 800 are pointed.
For example, it is assumed that the operator points at the upper part 751 of the graph chart displayed on the screen of the sub monitor 700. The pointed portion is drawn on the upper graph chart (reference numeral 752) of the sub monitor 700 and the main monitor 600 in the subsequent stage.

なお、第二の実施形態で説明した方法を用いて、主画像とポインタ画像を重畳させるか否かを決定するようにしてもよい。
また、本実施形態では、モニタ同士の接続がループしているため、単純にポインタ画像を追加していくと、ポインタが無限に増えてしまう。よって、これを防ぐための処理を行うことが好ましい。例えば、マルチストリーム信号からポインタ画像を抽出する際に、自装置が生成したポインタ画像を抽出しないようにしてもよい。また、ポインタ画像を合成する際に、自装置が以前に生成したポインタ画像をリセットするようにしてもよい。
また、ポインタ画像に、生成元のモニタを識別するための情報を含ませてもよい。例えば、生成元のモニタに応じてポインタの色や形を変更してもよいし、ポインタごとにキャプション(モニタの識別子や利用者名など)を付すようにしてもよい。
Note that it may be determined whether to superimpose the main image and the pointer image using the method described in the second embodiment.
In this embodiment, since the connections between monitors are looped, if a pointer image is simply added, the pointer will increase infinitely. Therefore, it is preferable to perform a process for preventing this. For example, when the pointer image is extracted from the multi-stream signal, the pointer image generated by the own apparatus may not be extracted. Further, when the pointer image is synthesized, the pointer image previously generated by the own apparatus may be reset.
Further, the pointer image may include information for identifying the generation source monitor. For example, the color or shape of the pointer may be changed according to the monitor of the generation source, or a caption (monitor identifier, user name, etc.) may be attached to each pointer.

(第四の実施形態)
第四の実施形態は、ポインタ画像の描画方法を更に改良した実施形態である。
図10(A)〜(E)は、センサの配列を模式的に表した図である。各座標の値は、センシング結果を表す(以下、センサ値と称する)。0が非接触状態を表し、255が接触状態を表す。
本実施形態では、図10に示したようなセンサ値の配列をそのままポインタ画像として送信し、ポインタ画像合成部が、当該ポインタ画像に基づいて、実際に画面に表示する画像を生成する。
(Fourth embodiment)
The fourth embodiment is an embodiment in which the pointer image drawing method is further improved.
10A to 10E are diagrams schematically showing the arrangement of sensors. Each coordinate value represents a sensing result (hereinafter referred to as a sensor value). 0 represents a non-contact state, and 255 represents a contact state.
In the present embodiment, the sensor value array as shown in FIG. 10 is transmitted as it is as a pointer image, and the pointer image composition unit generates an image to be actually displayed on the screen based on the pointer image.

まず、図10(A)において、点線で示したエリア901がタッチされたとする。この場合、該当エリアのセンサ値が255となる。また、タッチされていない他の領域のセンサ値は0となる。
図10(B)は、1フレーム後を表した図である。ここで、タッチ位置がエリア902に移動したとすると、当該エリアのセンサ値に新たに255が設定される。一方、エリア901のセンサ値は、1を減じた値に更新される。結果として、図10(A)にて255が設定されていた、エリア901のセンサ値は254になる。
First, in FIG. 10A, it is assumed that an area 901 indicated by a dotted line is touched. In this case, the sensor value of the corresponding area is 255. In addition, the sensor values of other areas not touched are 0.
FIG. 10B is a diagram showing one frame later. Here, if the touch position is moved to the area 902, 255 is newly set as the sensor value of the area. On the other hand, the sensor value in the area 901 is updated to a value obtained by subtracting 1. As a result, the sensor value of the area 901 that has been set to 255 in FIG.

図10(C)は、更に1フレーム後を表した図である。ここでは、タッチ位置がエリア903に移動し、当該エリアのセンサ値に255が設定されるものとする。他のエリアのセンサ値は、同様に1を減じた値に更新される。その結果、エリア901のセンサ値は253となり、エリア902のセンサ値は254となる。   FIG. 10C shows a further one frame. Here, it is assumed that the touch position moves to the area 903 and 255 is set as the sensor value of the area. Similarly, the sensor values in other areas are updated to values obtained by subtracting one. As a result, the sensor value of area 901 is 253, and the sensor value of area 902 is 254.

このような更新を繰り返すと、128フレーム後には、図10(C)に示したような状態となり、255フレーム後には、図10(D)に示したような状態となる。
このようなセンサ値を、そのままポインタを表す画像の明度(以下、単に画素値と称する)として用いると、タッチされた時点で明るく表示され、時間の経過とともに徐々に明度が下がるという効果を得ることができる。本例の場合、255フレーム後にポインタが消滅する。すなわち、1フレームが15Hzである場合、約17秒かけてポインタが徐々に消える。
When such an update is repeated, the state shown in FIG. 10C is obtained after 128 frames, and the state shown in FIG. 10D is obtained after 255 frames.
When such a sensor value is used as it is as the brightness of an image representing a pointer as it is (hereinafter simply referred to as a pixel value), it is displayed bright when touched and the brightness gradually decreases with time. Can do. In this example, the pointer disappears after 255 frames. That is, when one frame is 15 Hz, the pointer gradually disappears over about 17 seconds.

なお、本例では、センサ値および画素値を256段階とし、センサ値が1減るごとに画素値を1段階ずつ減じたが、センサ値と画素値との関係を定義してもよい。例えば、図11のようなテーブルを作成してもよい。
図11のテーブルを用いた場合、センサ値が191〜255である場合において、画素値が最大(255)となる。また、センサ値が1減るごとに画素値が2ずつ減少し、センサ値が96となった時点で画素値が0となる。つまり、64フレーム(15Hzの場合約4秒)が経過するまでは画素値が最大となり、その後徐々に明るさが減じて、約6秒が経過した時点でポインタ表示が消滅する。
In this example, the sensor value and the pixel value have 256 levels, and each time the sensor value decreases by 1, the pixel value is decreased by 1 level. However, a relationship between the sensor value and the pixel value may be defined. For example, a table as shown in FIG. 11 may be created.
When the table of FIG. 11 is used, when the sensor value is 191 to 255, the pixel value is the maximum (255). Each time the sensor value decreases by 1, the pixel value decreases by 2. When the sensor value reaches 96, the pixel value becomes 0. That is, the pixel value becomes maximum until 64 frames (about 4 seconds at 15 Hz) elapse, and then the brightness gradually decreases, and the pointer display disappears when about 6 seconds elapse.

このように、第四の実施形態では、センサ値を時間の経過とともに減少させ、かつ、センサ値に対応した画素値でポインタを表示させることで、曳光表示を実現することができる。
例えば、図12(A)に示したように、グラフチャートの下方部911を指でポインティングした後、図12(B)に示したように、指をスライドさせたとする。この場合、ポイントされた箇所の明度が所定時間の間、維持されるため、符号912で示したような曳光効果を得ることができる。
Thus, in the fourth embodiment, fluorescent display can be realized by reducing the sensor value with the passage of time and displaying the pointer with the pixel value corresponding to the sensor value.
For example, as shown in FIG. 12A, it is assumed that the finger is slid as shown in FIG. 12B after pointing the lower part 911 of the graph chart with the finger. In this case, since the brightness of the pointed portion is maintained for a predetermined time, a fluorescent effect as indicated by reference numeral 912 can be obtained.

なお、本実施形態では画素の明度を用いたが、曳光表示は明度を用いたものに限られない。例えば、色相、色の濃さ、輝度などを用いてもよい。また、カラー表示を行う場合、R,G,Bのうち、いずれか1色または2色のみを用いて曳光表示を行うようにしてもよい。これにより、ポインタの色を任意の色に設定することができる。また、色の設定は、
不図示のCPUを用いてモニタ上で行うようにしてもよい。
また、曳光表示は、メインモニタ600に限らず、メインモニタ200、サブモニタ300,400,700,800上で行うようにしてもよい。
また、本実施形態ではポインタの明度がフェードアウトする例を挙げたが、ポインタが、所定時間の間表示を継続するものであれば、視覚的な効果は必須ではない。
In this embodiment, the brightness of the pixel is used, but the fluorescent display is not limited to the display using the brightness. For example, hue, color density, luminance, and the like may be used. Further, when performing color display, fluorescent display may be performed using only one or two of R, G, and B. Thereby, the color of the pointer can be set to an arbitrary color. The color setting is
You may make it perform on a monitor using CPU not shown.
The fluorescent display is not limited to the main monitor 600 but may be performed on the main monitor 200 and the sub monitors 300, 400, 700, and 800.
In this embodiment, the brightness of the pointer fades out. However, if the pointer continues to be displayed for a predetermined time, a visual effect is not essential.

(変形例)
なお、各実施形態の説明は本発明を説明する上での例示であり、本発明は、発明の趣旨を逸脱しない範囲で適宜変更または組み合わせて実施することができる。例えば、本発明は、上記処理の少なくとも一部を含む画像表示システムとして実施することもできる。また、画像表示装置単体として実施することもできる。また、画像表示システムが行う画像表示方法として実施することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
(Modification)
The description of each embodiment is an exemplification for explaining the present invention, and the present invention can be implemented with appropriate modifications or combinations without departing from the spirit of the invention. For example, the present invention can be implemented as an image display system including at least a part of the above processing. It can also be implemented as a single image display device. Moreover, it can also implement as an image display method which an image display system performs. The above processes and means can be freely combined and implemented as long as no technical contradiction occurs.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

200・・・メインモニタ、202・・・主画像受信部、203・・・信号処理部、204・・・画像表示部、205・・・画面タッチ検出部、207・・・ポインタ画像生成部、208・・・ストリーム合成部、300・・・サブモニタ、302・・・マルチストリーム受信部、306・・・画像合成部、308・・・画像表示部
200 ... main monitor, 202 ... main image receiving unit, 203 ... signal processing unit, 204 ... image display unit, 205 ... screen touch detection unit, 207 ... pointer image generation unit, 208: Stream composition unit, 300: Sub monitor, 302: Multi-stream reception unit, 306: Image composition unit, 308: Image display unit

Claims (12)

第一の画像表示装置と、第二の画像表示装置と、を含む画像表示システムであって、
前記第一の画像表示装置は、
主画像を含む画像データを取得する第一の取得手段と、
前記主画像を表示する第一の表示手段と、
前記主画像が表示された画面上においてユーザが指し示した位置を表す画像であるポインタ画像を生成する生成手段と、
前記主画像と前記ポインタ画像とを含むマルチストリーム信号を生成して出力する出力手段と、を有し、
前記第二の画像表示装置は、
前記マルチストリーム信号を取得する第二の取得手段と、
前記マルチストリーム信号に含まれる前記主画像およびポインタ画像を合成した画像である合成画像を生成し表示する第二の表示手段と、
を有することを特徴とする、画像表示システム。
An image display system including a first image display device and a second image display device,
The first image display device includes:
First acquisition means for acquiring image data including a main image;
First display means for displaying the main image;
Generating means for generating a pointer image which is an image representing a position pointed to by a user on a screen on which the main image is displayed;
Output means for generating and outputting a multi-stream signal including the main image and the pointer image,
The second image display device includes:
Second acquisition means for acquiring the multi-stream signal;
Second display means for generating and displaying a composite image that is an image obtained by combining the main image and the pointer image included in the multi-stream signal;
An image display system comprising:
前記第二の表示手段は、前記ユーザによって指し示された位置と同じ位置が主画像上において指し示されるように画像の合成を行う
ことを特徴とする、請求項1に記載の画像表示システム。
2. The image display system according to claim 1, wherein the second display unit performs image synthesis such that the same position as the position pointed to by the user is pointed on the main image.
前記第二の画像表示装置は、前記取得したマルチストリームを出力する第二の出力手段を有し、
複数の前記第二の画像表示装置が直列に接続可能である
ことを特徴とする、請求項1または2に記載の画像表示システム。
The second image display device has second output means for outputting the acquired multi-stream,
The image display system according to claim 1, wherein a plurality of the second image display devices can be connected in series.
前記ポインタ画像のフレームレートは、前記主画像のフレームレートより低い
ことを特徴とする、請求項1から3のいずれか1項に記載の画像表示システム。
4. The image display system according to claim 1, wherein a frame rate of the pointer image is lower than a frame rate of the main image. 5.
前記ポインタ画像の解像度は、前記主画像の解像度より低い
ことを特徴とする、請求項1から4のいずれか1項に記載の画像表示システム。
The image display system according to claim 1, wherein a resolution of the pointer image is lower than a resolution of the main image.
前記マルチストリーム信号は、前記第二の画像表示装置において主画像とポインタ画像の合成を行うか否かを表す情報である合成可否情報をさらに含み、
前記第二の表示手段は、前記合成可否情報に基づいて、前記マルチストリーム信号に含まれる主画像およびポインタ画像を合成するか否かを決定する
ことを特徴とする、請求項1から5のいずれか1項に記載の画像表示システム。
The multi-stream signal further includes compositability information that is information indicating whether or not the main image and the pointer image are to be combined in the second image display device,
6. The display device according to claim 1, wherein the second display unit determines whether to synthesize a main image and a pointer image included in the multi-stream signal based on the synthesizeability information. The image display system according to claim 1.
前記第二の表示手段は、
前記マルチストリーム信号に含まれる主画像およびポインタ画像を合成するか否かを、ユーザの選択に応じて決定する手段をさらに有する
ことを特徴とする、請求項1から5のいずれか1項に記載の画像表示システム。
The second display means includes
6. The apparatus according to claim 1, further comprising: a unit that determines whether to synthesize a main image and a pointer image included in the multi-stream signal according to a user's selection. Image display system.
前記第二の表示手段は、前記ポインタ画像に基づいて、所定時間の間表示を継続するポインタを生成し、前記主画像と合成する
ことを特徴とする、請求項1から7のいずれか1項に記載の画像表示システム。
The said 2nd display means produces | generates the pointer which continues a display for a predetermined time based on the said pointer image, and synthesize | combines with the said main image, The any one of Claim 1 to 7 characterized by the above-mentioned. The image display system described in 1.
前記ポインタは、所定の時間をかけてフェードアウトする
ことを特徴とする、請求項8に記載の画像表示システム。
The image display system according to claim 8, wherein the pointer fades out over a predetermined time.
前記第二の画像表示装置は、
前記合成画像が表示された画面上において第二のユーザが指し示した位置を表す画像である第二のポインタ画像を生成する第二の生成手段と、
前記マルチストリーム信号に含まれるポインタ画像に、前記第二のポインタ画像を合成するポインタ合成手段と、
前記主画像と前記合成されたポインタ画像をマルチストリーム信号に変換して出力する第二の出力手段と、をさらに有する、
請求項1から10のいずれか1項に記載の画像表示システム。
The second image display device includes:
Second generation means for generating a second pointer image that is an image representing a position pointed to by a second user on the screen on which the composite image is displayed;
Pointer combining means for combining the second pointer image with the pointer image included in the multi-stream signal;
A second output means for converting the main image and the combined pointer image into a multi-stream signal and outputting the multi-stream signal;
The image display system according to claim 1.
主画像を含む画像データを取得する第一の取得手段と、
前記主画像を表示する表示手段と、
前記主画像が表示された画面上においてユーザが指し示した位置を表す画像であるポインタ画像を生成する生成手段と、
前記主画像と前記ポインタ画像とを含むマルチストリーム信号を生成して出力する出力手段と、
を有することを特徴とする画像表示装置。
First acquisition means for acquiring image data including a main image;
Display means for displaying the main image;
Generating means for generating a pointer image which is an image representing a position pointed to by a user on a screen on which the main image is displayed;
Output means for generating and outputting a multi-stream signal including the main image and the pointer image;
An image display device comprising:
第一の画像表示装置と、第二の画像表示装置と、が行う画像表示方法であって、
前記第一の画像表示装置が、
主画像を含む画像データを取得する第一の取得ステップと、
前記主画像を表示する第一の表示ステップと、
前記主画像が表示された画面上においてユーザが指し示した位置を表す画像であるポインタ画像を生成する生成ステップと、
前記主画像と前記ポインタ画像とを含むマルチストリーム信号を生成して出力する出力ステップと、を実行し、
前記第二の画像表示装置が、
前記マルチストリーム信号を取得する第二の取得ステップと、
前記マルチストリーム信号に含まれる前記主画像およびポインタ画像を合成した画像である合成画像を生成し表示する第二の表示ステップと、
を実行することを特徴とする、画像表示方法。
An image display method performed by a first image display device and a second image display device,
The first image display device is
A first acquisition step of acquiring image data including a main image;
A first display step for displaying the main image;
Generating a pointer image that is an image representing a position pointed to by a user on the screen on which the main image is displayed;
An output step of generating and outputting a multi-stream signal including the main image and the pointer image; and
The second image display device is
A second acquisition step of acquiring the multi-stream signal;
A second display step of generating and displaying a composite image that is an image obtained by combining the main image and the pointer image included in the multi-stream signal;
A method of displaying an image, comprising:
JP2015244500A 2015-12-15 2015-12-15 Image display system and image display method Pending JP2017111251A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015244500A JP2017111251A (en) 2015-12-15 2015-12-15 Image display system and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015244500A JP2017111251A (en) 2015-12-15 2015-12-15 Image display system and image display method

Publications (1)

Publication Number Publication Date
JP2017111251A true JP2017111251A (en) 2017-06-22

Family

ID=59080649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015244500A Pending JP2017111251A (en) 2015-12-15 2015-12-15 Image display system and image display method

Country Status (1)

Country Link
JP (1) JP2017111251A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021193306A1 (en) * 2020-03-27 2021-09-30 パナソニックIpマネジメント株式会社 Display control device and display control system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021193306A1 (en) * 2020-03-27 2021-09-30 パナソニックIpマネジメント株式会社 Display control device and display control system

Similar Documents

Publication Publication Date Title
US20210082197A1 (en) Method and device for compositing an image
TWI462585B (en) Pip display apparatus having a stereoscopic display function and pip display method
CN106528025A (en) Multi-screen image screen-projection method, terminal, server and system
US8531599B2 (en) Apparatus, method and system for frame rate conversion of partial image
TWI391905B (en) Multiple video signals coexisting system and method thereof
US9118903B2 (en) Device and method for 2D to 3D conversion
CN104349124A (en) Structure and method for expanding multi-screen display on video recorder
GB2371161A (en) Synchronising a plurality of independent video signal generators
JP6051521B2 (en) Image composition system
EP3236423A1 (en) Method and device for compositing an image
US20160078664A1 (en) Image synthesizing apparatus and method
JP2014021989A (en) Video display device, video display method and computer readable recording medium
JP2017111251A (en) Image display system and image display method
US20110085029A1 (en) Video display apparatus and video display method
JP2010213254A (en) Image processing method for three-dimensional display device with multilayer structure
KR101506030B1 (en) Multi-vision system and picture visualizing method the same
US8289373B2 (en) Image processing method for multi-depth-of-field 3D-display
KR20140004490A (en) Display apparatus and control method thereof
JP2013005226A (en) Video signal processing device, control method thereof and display device
CN112882673A (en) Collage display system and data processing method thereof
JP2010217966A (en) Image display system and image data processor
CN108140357B (en) Information processing apparatus
JP2021076923A (en) Image processing device, image processing method, and program
JP2019020613A (en) Display device, display control device, and display method
JP2004085730A (en) Video display apparatus and synchronization controlling program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116