JP2005157135A - Information display method, system and program - Google Patents

Information display method, system and program Download PDF

Info

Publication number
JP2005157135A
JP2005157135A JP2003398026A JP2003398026A JP2005157135A JP 2005157135 A JP2005157135 A JP 2005157135A JP 2003398026 A JP2003398026 A JP 2003398026A JP 2003398026 A JP2003398026 A JP 2003398026A JP 2005157135 A JP2005157135 A JP 2005157135A
Authority
JP
Japan
Prior art keywords
screen
output
content
window
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003398026A
Other languages
Japanese (ja)
Inventor
Junji Tomita
準二 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003398026A priority Critical patent/JP2005157135A/en
Publication of JP2005157135A publication Critical patent/JP2005157135A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform a video output in public spaces of various shapes with various screen configurations and to control an output position and size of a window smoothly to human movement. <P>SOLUTION: In an output device, an area of a virtual screen and a display area allocated from an output controller are stored in a storage means, a screen state is updated by acquiring a screen state control instruction from a screen state controller, the virtual screens is set based on a screen update instruction, content is acquired, only a set display area in the virtual screen is drawn and displayed by an instruction from the output controller. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、情報表示方法及びシステム及びプログラムに係り、特に、1つまたは、複数の画面に対して、出力を制御する命令に基づき、静止画、動画、文字情報等のコンテンツの出力を動的に変更することが可能な情報表示方法及びシステム及びプログラムに関する。   The present invention relates to an information display method, system, and program, and in particular, dynamically outputs content such as still images, moving images, and character information based on a command for controlling output on one or a plurality of screens. The present invention relates to an information display method, system, and program that can be changed.

センサ技術の発達によって、人物の自然な動作を検出することが可能となってきている(例えば、特許文献1,2、非特許文献1参照)。このような認識技術と、情報表示技術とを組み合わせることによって、新しい形の情報提供が可能となってきている。本発明は、このような情報提供の中で特に駅構内やビルのエントランスといった大規模の公共空間の中で、人物等の動作をセンサによって検出し、センサから出力される情報に基づいて、画面出力を変更するサービスを実現するためのものである。   With the development of sensor technology, it has become possible to detect a natural movement of a person (see, for example, Patent Documents 1 and 2 and Non-Patent Document 1). Combining such recognition technology with information display technology has made it possible to provide new forms of information. The present invention detects a motion of a person or the like by a sensor in a large-scale public space such as a station premises or a building entrance, and provides a screen based on information output from the sensor. This is for realizing a service for changing the output.

具体的なサービスの例を以下に示す。   Examples of specific services are shown below.

・追従広告:
初期状態では、大画面に何も表示しないが、単なる背景画像等を表示する。ここで、大画面は、設置場所に応じて複数の出力装置で構成される。図15の例では、3台の出力装置を用いて横長の画面を生成している。
・ Follow-up advertisement:
In the initial state, nothing is displayed on the large screen, but a simple background image or the like is displayed. Here, the large screen includes a plurality of output devices according to the installation location. In the example of FIG. 15, a horizontally long screen is generated using three output devices.

人物の動作に応じて以下のように出力を変化させる。   The output is changed as follows according to the movement of the person.

―画面の前に人物が入ると情報表示用のウィンドウをポップアップする。ウィンドウ上には、静止画、動画、文字情報等を表示する。   -When a person enters in front of the screen, an information display window pops up. Still images, moving images, character information, and the like are displayed on the window.

−人物が画面の前を動くと、その動きに合わせてウィンドウが追従して動く。   -When a person moves in front of the screen, the window follows the movement.

このように、人物の自然な動きに合わせて、大画面上のウィンドウの出力位置や出力されるコンテンツが動的に変更され、効果的な情報提供を実現する。   As described above, according to the natural movement of the person, the output position of the window on the large screen and the content to be output are dynamically changed to realize effective information provision.

また、カメラの映像から人物の位置や指差し方向を検出することができる。従来技術では、このようにして検出された人物の位置や指差し方向を座標変換し、情報を出力する画面上での座標を決定する方法がある(例えば、特許文献3参照)。
特開2001−43384号公報「マルチメディア情報空間の入力方法及び入力装置及び入出力連携方法及び入出力連携装置及び入力プログラム及び入出力連携プログラムを記録した記録媒体」 特開2001−216527号公報「マルチメディア情報空間入力装置及びその方法、ならびにそのプログラムを記録した記録媒体」 特開2000−56917号公報 木原民雄、草原真知子、安田浩「場のアートとネットワークアート」情報処理学会論文誌Vol.44 No2, 2003年
In addition, the position of the person and the pointing direction can be detected from the camera image. In the prior art, there is a method of performing coordinate conversion on the position and pointing direction of the person detected in this way and determining coordinates on a screen for outputting information (see, for example, Patent Document 3).
JP 2001-43384 A "Multimedia Information Space Input Method, Input Device, Input / Output Cooperation Method, Input / Output Cooperation Device, Input Program, and Recording Medium Recording Input / Output Cooperation Program" Japanese Patent Application Laid-Open No. 2001-216527 “Multimedia Information Space Input Device and Method, and Recording Medium Recording the Program” JP 2000-55917 A Tamio Kihara, Machiko Prairie, Hiroshi Yasuda “The Art of the Place and Network Art” Information Processing Society of Japan Vol.44 No2, 2003

しかしながら、上記のようなサービスを実現する場合、従来技術では、以下のような問題がある。   However, when realizing the service as described above, the prior art has the following problems.

(1)出力画面構成の問題:
様々な公共空間を対象とする場合、表示装置(ディスプレイ等)の設置場所やプロジェクタで投影可能な投影面には、例えば、図16に示すような様々な画面構成を柔軟に作成できなければならない。
(1) Problems with output screen configuration:
When targeting various public spaces, for example, it is necessary to be able to flexibly create various screen configurations as shown in FIG. 16 on the installation location of the display device (display, etc.) and the projection surface that can be projected by the projector. .

(a)例えば、駅のコンコース等で、間に障害物がない空間で利用する場合には、プロジェクタを複数台横に並べて投影し、横長の画面を構成する。   (A) For example, when using in a space where there is no obstacle between station concourses or the like, a plurality of projectors are projected side by side to form a horizontally long screen.

(b)例えば、吹き抜けのあるような大きな空間で利用する場合等には、複数台のプロジェクタで上下左右に投影し、巨大な画面を構成する。   (B) For example, in the case of using in a large space with an atrium, a huge screen is formed by projecting up and down and left and right with a plurality of projectors.

(c)例えば、駅のコンコース等で、障害物の関係で連続した投影面が得られない空間で利用する場合等は、離れて設置した複数のディスプレイで全体の画面を構成する。   (C) For example, when used in a space where a continuous projection plane cannot be obtained due to obstacles, such as in a concourse at a station, the entire screen is composed of a plurality of distant displays.

上記の従来技術では、このような複数の画面出力を制御する場合、通常、1つの映像をまず生成し、専用ハードウェア装置等でその映像の中から各ディスプレイに出力領域を割り当てる方法を用いる。しかし、この方法では、上記のような画面構成を柔軟に切り替えることが難しく、使用できるディスプレイの台数も限られている。また、もともと生成した1つの映像の中から、領域を割り当てることになるので、各ディスプレイに表示される映像の解像度が低くなってしまうという問題がある。   In the above-described conventional technique, when controlling such a plurality of screen outputs, usually, a method is used in which one video is first generated and an output area is assigned to each display from the video by a dedicated hardware device or the like. However, with this method, it is difficult to flexibly switch the screen configuration as described above, and the number of displays that can be used is limited. In addition, since an area is allocated from one originally generated video, there is a problem that the resolution of the video displayed on each display is lowered.

(2)追従精度の問題:
現状の技術を用いると、カメラ映像から人物の位置や指差しの方向を検出することができる。従来技術では、このようにして検出された人物の位置や指差し方向を座標変換し、情報を出力する画面上での座標を決定する方法があるが、完全な人物の位置検出は、現状技術では困難であり、位置の検出誤差等のノイズが多く含まれる。また、検出にはある程度の時間がかかるため、検出値は、時間的に離散的な値となってしまっている。そのため、上記に述べた人物に追従する広告を実現する場合、人物の移動に応じて、滑らかな追従を実現することができず、情報表示用のウィンドウの出力位置がぶれてしまうという問題がある。また、多人数に追従する多数のウィンドウを同時に制御する場合、大量の位置制御のための命令を生成する必要がある。
(2) Tracking accuracy problem:
Using the current technology, the position of a person and the direction of pointing can be detected from a camera image. In the prior art, there is a method of converting the position and pointing direction of the person detected in this way and determining the coordinates on the screen for outputting information. However, there are many noises such as position detection errors. Moreover, since detection takes a certain amount of time, the detection value is a discrete value in time. Therefore, when realizing the advertisement that follows the person described above, there is a problem in that smooth follow-up cannot be realized according to the movement of the person, and the output position of the information display window is blurred. . In addition, when a large number of windows that follow a large number of people are controlled simultaneously, it is necessary to generate a large number of commands for position control.

本発明は、上記の点に鑑みなされたもので、様々な形状の公共空間に対して、様々な画面に構成で、映像出力を行うことができ、また、人物の動作に対して滑らかなウィンドウの出力位置、サイズの制御が可能な情報表示方法及びシステム及びプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and can output video with various screen configurations to public spaces of various shapes, and can provide a smooth window for human actions. It is an object to provide an information display method, system and program capable of controlling the output position and size.

図1は本発明の原理を説明するための図である。   FIG. 1 is a diagram for explaining the principle of the present invention.

本発明は、1つまたは、複数の出力装置の画面上への出力を制御命令に応じて動的に変更するシステムにおける情報表示方法において、
画面の状態制御を行うための画面状態制御命令を生成する画面状態制御装置と、
出力装置の表示する画面領域の管理と、表示の同期制御を行う出力制御装置と、
コンテンツを配信するコンテンツ管理装置と、
各出力装置上で稼動し、コンテンツの出力位置とサイズを自動計算する画面状態管理手段と、同期を取りながらコンテンツを表示する出力画面生成手段と、コンテンツの取得や管理を行うコンテンツ取得手段と、を有する出力装置からなるシステム上で、
出力制御装置において、仮想画面を設定し、仮想画面上の一部の領域を各出力装置の表示領域に割り当てる表示領域指定過程(ステップ1)と、
出力装置の出力画面生成手段において、出力制御装置により割り当てられた仮想画面の領域と表示領域を記憶手段に保存する表示領域設定過程(ステップ2)と、
画面状態制御装置において、ユーザによる入力またはセンサから取得した情報を元に画面状態制御命令を出力装置の画面状態管理手段に送信する状態制御命令生成過程(ステップ3)と、
出力装置の画面状態管理手段において、速度や加速度からウィンドウの座標やサイズを計算し、画面更新命令を出力画面生成手段に送信する画面状態更新過程(ステップ4)と、
出力装置の出力画面生成手段において、画面状態管理手段から画面更新命令を受け取ると、該画面更新命令に基づいて仮想画面を設定し、コンテンツ取得要求をコンテンツ取得手段に送信する仮想画面生成過程(ステップ5)と、
出力装置のコンテンツ取得手段において、コンテンツ管理装置に要求し、コンテンツを取得して、出力画面生成手段に送信するコンテンツ取得過程(ステップ6)と、
出力制御装置において、出力画面生成手段から描画を行う準備が整ったことを知らせる画面同期信号を取得すると、出力装置の出力画面生成手段に対して画面描画信号を送信する描画同期過程(ステップ7)と、
出力装置の出力画面生成手段において、仮想画面の中の表示領域設定過程で設定された表示領域のみ描画し、表示する画面描画過程(ステップ8)と、からなる。
The present invention relates to an information display method in a system that dynamically changes output on a screen of one or a plurality of output devices according to a control command.
A screen state control device for generating a screen state control command for performing screen state control; and
An output control device for managing the screen area displayed by the output device and performing synchronous control of the display;
A content management device for delivering content;
A screen state management unit that operates on each output device and automatically calculates the output position and size of content; an output screen generation unit that displays content while synchronizing; a content acquisition unit that acquires and manages content; On a system consisting of output devices having
In the output control device, a display area designation process (step 1) in which a virtual screen is set and a part of the area on the virtual screen is assigned to the display area of each output device;
In the output screen generating means of the output device, a display area setting process (step 2) for storing the virtual screen area and the display area allocated by the output control apparatus in the storage means;
In the screen state control device, a state control command generation process (step 3) for transmitting a screen state control command to the screen state management means of the output device based on information input from a user or acquired from a sensor;
In the screen state management means of the output device, a screen state update process (step 4) for calculating the coordinates and size of the window from the speed and acceleration and transmitting a screen update command to the output screen generation means;
In the output screen generation means of the output device, upon receiving a screen update command from the screen status management means, a virtual screen generation process (step for setting a virtual screen based on the screen update command and transmitting a content acquisition request to the content acquisition means (step 5) and
In the content acquisition unit of the output device, a content acquisition process (step 6) for requesting the content management device to acquire the content and transmitting it to the output screen generation unit;
In the output control apparatus, when a screen synchronization signal notifying that the preparation for drawing is completed is acquired from the output screen generating means, a drawing synchronization process for transmitting the screen drawing signal to the output screen generating means of the output device (step 7) When,
The output screen generating means of the output device comprises a screen drawing process (step 8) in which only the display area set in the display area setting process in the virtual screen is drawn and displayed.

また、本発明は、状態制御命令生成過程において、
画面状態制御装置が、
ユーザによる指定、または、センサ情報、または、別のプログラムによって生成された制御命令を元に、コンテンツを表示するためのウィンドウの生成、または、ウィンドウの削除、または、
各ウィンドウが持つ、出力座標、または、移動速度、または、移動加速度、または、サイズ、または、サイズの変更速度、または、サイズの変更加速度、または、コンテンツ名、または、コンテンツの形式、または、コンテンツの再生状態からなる、プロパティの値の取得、または、更新を行う画面状態制御命令を生成する過程を含む。
Further, the present invention provides a state control instruction generation process,
The screen state control device
Creation of a window for displaying content, deletion of a window, or deletion of a window based on a user designation, sensor information, or a control instruction generated by another program
Output coordinates, movement speed, movement acceleration, size, size change speed, size change acceleration, content name, content format, or content that each window has Including a process of generating a screen state control command for acquiring or updating a property value consisting of the playback state.

また、本発明は、画面状態更新過程において、
画像状態管理手段が、
状態制御命令生成過程において生成された画面状態制御命令に従い、
コンテンツを表示するためのウィンドウの生成、または、ウィンドウの削除、または、各ウィンドウが持つ、出力座標、または、移動速度、または、移動の加速度、または、サイズ、または、サイズの変更速度、または、サイズの変更加速度、または、コンテンツ名、または、コンテンツの形式、または、コンテンツの再生状態からなるプロパティの値の取得、または、変更を行う過程と、
画面状態制御命令がない場合でも、一定時間毎に、ウィンドウの移動の速度、または、移動の加速度、または、サイズの変更速度、または、サイズの変更加速度を用いて、ウィンドウの出力座標、または、サイズを計算する過程と、を含む。
Further, the present invention provides a screen state update process,
Image state management means
According to the screen state control command generated in the state control command generation process,
Generation of windows for displaying contents, deletion of windows, output coordinates of each window, movement speed, acceleration of movement, size, speed of resizing, or The process of obtaining or changing the value of the property that consists of the acceleration of the size change, the content name, the format of the content, or the playback state of the content,
Even if there is no screen state control command, the window output coordinates or the window movement speed, or the movement acceleration, or the size change speed, or the size change acceleration at regular intervals, or Calculating the size.

また、本発明は、表示領域指定過程において、
出力制御装置が、
ユーザによる指定、または、ネットワークで接続された各出力装置から自動収集した情報を元に、仮想的な画面の領域と、各出力装置が実際に表示する仮想的な画面の中の領域の指定とを行う過程を含み、
仮想画面生成過程において、
出力画面生成手段が、
任意の大きさの仮想的な画面の領域を内部に持ち、コンテンツを表示するためのウィンドウを仮想的な画面上の任意の位置に配置し、コンテンツを設定し、
仮想的な画面の中の指示された表示領域のみを描画し、ディスプレイに表示する過程を含む。
In the display area designation process, the present invention
The output controller is
Based on information specified by the user or automatically collected from each output device connected via the network, a virtual screen area and a virtual screen area actually displayed by each output device Including the process of
In the virtual screen generation process,
The output screen generation means
It has a virtual screen area of any size inside, arranges a window for displaying the content at an arbitrary position on the virtual screen, sets the content,
This includes a process of drawing only the designated display area in the virtual screen and displaying it on the display.

また、本発明は、描画同期過程において、
出力制御装置が、
各出力装置から、画面同期信号を受信し、全ての出力装置からの画面同期信号が揃う、または、一定時間が経過する毎に、画面描画信号を各出力装置に送信する過程を含む。
In the present invention, the drawing synchronization process
The output controller is
It includes a process of receiving a screen synchronization signal from each output device and transmitting a screen drawing signal to each output device every time when the screen synchronization signals from all the output devices are complete or a certain time elapses.

また、本発明は、仮想画面生成過程において、
出力画面生成手段が、
仮想的な画面に、ウィンドウを配置し、コンテンツの設定終了後すぐに、画面同期信号を出力制御装置に送信し、画面描画を待機し、画面描画信号を受信したらすぐに、描画処理を行う。
Further, the present invention provides a virtual screen generation process,
The output screen generation means
A window is arranged on a virtual screen, and immediately after the content setting is completed, a screen synchronization signal is transmitted to the output control device, the screen drawing is waited, and a drawing process is performed as soon as the screen drawing signal is received.

図2は、本発明の原理構成図である。   FIG. 2 is a principle configuration diagram of the present invention.

本発明は、1つまたは、複数の出力装置の画面上への出力を制御命令に応じて動的に変更する情報表示システムであって、
画面の状態制御を行うための画面状態制御命令を生成する画面状態制御装置10と、
出力装置100の表示する画面領域の管理と、表示の同期制御を行う出力制御装置20と、
コンテンツを配信するコンテンツ管理装置30と、
各出力装置100上で稼動し、コンテンツの出力位置とサイズを自動計算する画面状態管理手段40と、出力制御装置20からの信号と同期を取りながらコンテンツを表示する出力画面生成手段50と、コンテンツの取得や管理を行うコンテンツ取得手段60と、を有する出力装置100と、を有する。
The present invention is an information display system that dynamically changes the output on the screen of one or more output devices in response to a control command,
A screen state control device 10 that generates a screen state control command for performing screen state control;
An output control device 20 that performs management of a screen area displayed by the output device 100 and synchronous control of display;
A content management device 30 for distributing content;
A screen state management unit 40 that operates on each output device 100 and automatically calculates the output position and size of content, an output screen generation unit 50 that displays content in synchronization with a signal from the output control device 20, and a content And an output device 100 having content acquisition means 60 for acquiring and managing.

また、画面状態制御装置10は、
ユーザによる指定、または、センサ情報、または、別のプログラムによって生成された制御命令を元に、コンテンツを表示するためのウィンドウの生成、または、ウィンドウの削除、または、各ウィンドウが持つ、出力座標、または、移動速度、または、移動の加速度、または、サイズ、または、サイズの変更速度、または、サイズの変更加速度、または、コンテンツ名、または、コンテンツの形式、または、コンテンツの再生状態からなるプロパティの値の取得、または、更新を行う画面状態制御命令を生成する手段を含み、
出力装置100の画面状態管理手段40は、
画面状態制御命に従い、コンテンツを表示するためのウィンドウの生成、または、ウィドウの削除、または、各ウィンドウが持つ、出力座標、または、移動速度、または、移動の加速度、または、サイズ、または、サイズの変更速度、または、サイズの変更加速度、または、コンテンツ名、または、コンテンツの形式、または、コンテンツの再生状態からなるプロパティの値の取得、または、変更を行う手段と、
画面状態制御命令がない場合には、一定時間毎に、ウィンドウの移動速度、または、移動の加速度、または、サイズの変更速度、または、サイズの変更加速度を用いて、ウィンドウの出力座標、または、サイズを計算する手段と、を含む。
The screen state control device 10
Based on the specification by the user, sensor information, or control instructions generated by another program, generation of windows for displaying contents, deletion of windows, or output coordinates of each window, Or the speed of movement, acceleration of movement, size, speed of resize, acceleration of change of size, content name, content type, or content playback status Including means for generating a screen state control instruction for obtaining or updating a value;
The screen state management means 40 of the output device 100
Creates a window for displaying contents, deletes a window, or outputs coordinates, moving speed, moving acceleration, size, or size of each window according to the screen status control command A means for acquiring or changing the property value consisting of the change speed, the change acceleration of the size, the content name, the content format, or the playback state of the content;
When there is no screen state control command, the window output coordinates or the window moving speed, the moving acceleration, the size changing speed, or the size changing acceleration at a certain time, or Means for calculating the size.

また、本発明の出力制御装置20は、
ユーザによる指定、または、ネットワークで接続された各出力装置から自動収集した情報を元に、仮想的な画面の領域と、各出力装置が実際に表示する仮想的な画面の中の領域の指定とを行う手段を含み、
出力画面生成手段50は、
任意の大きさの仮想的な画面の領域を内部に持ち、コンテンツを表示するためのウィンドウを仮想的な画面上の任意の位置に配置し、コンテンツを設定し、仮想的な画面の中に指示された表示領域のみを描画し、ディスプレイに表示する手段を含む。
Further, the output control device 20 of the present invention includes:
Based on information specified by the user or automatically collected from each output device connected via the network, a virtual screen area and a virtual screen area actually displayed by each output device Including means for performing
The output screen generation means 50
A virtual screen area of arbitrary size is held inside, a window for displaying content is placed at an arbitrary position on the virtual screen, content is set, and instructions are displayed in the virtual screen. Means for drawing only the displayed area and displaying it on the display.

また、本発明の出力制御装置20は、
各出力装置100から、出力の準備が整ったことを知らせる画面同期信号を受信し、全ての出力装置100からの画面同期信号が揃う、または、一定時間が経過する毎に、描画を指示する画面描画信号を各出力装置100に送信する手段を含む。
Further, the output control device 20 of the present invention includes:
A screen for instructing drawing whenever a screen synchronization signal is received from each output device 100 to notify that the preparation for output has been completed and the screen synchronization signals from all the output devices 100 are available or a certain time has elapsed. Means for transmitting a drawing signal to each output device 100 is included.

また、本発明の出力画面生成手段50は、
仮想的な画面にウィンドウを配置し、コンテンツの設定後すぐに、画面同期信号を出力制御装置に送信し、画面の描画を待機し、画面描画信号を該出力制御装置20から受信後すぐに、描画処理を実行する手段を含む。
The output screen generation means 50 of the present invention
A window is arranged on a virtual screen, and immediately after setting the content, a screen synchronization signal is transmitted to the output control device, the screen drawing is waited, and immediately after receiving the screen drawing signal from the output control device 20, Means for executing a drawing process;

また、本発明のコンテンツ管理装置30は、
予め、または、具体的に指示された時に、データベース、または、ネットワークを介してコンテンツを取得し、取得した該コンテンツをすべての出力装置に配信する手段を含み、
出力装置のコンテンツ取得手段60は、
コンテンツ管理装置から予め配信されたコンテンツをデータベースに保存し、コンテンツの取得要求に応じて取り出し、コンテンツが該データベースに保存されていない場合には、コンテンツの配信要求を該コンテンツ管理装置に送信し、受信したコンテンツをコンテンツの要求元に転送する手段を含む。
The content management apparatus 30 of the present invention
Means for acquiring content via a database or a network when instructed in advance or specifically, and distributing the acquired content to all output devices;
The content acquisition means 60 of the output device
The content distributed in advance from the content management device is stored in the database, and is retrieved in response to the content acquisition request. If the content is not stored in the database, the content distribution request is transmitted to the content management device, Means for transferring the received content to the content requester;

本発明は、1つまたは、複数の出力装置の画面上への出力を制御命令に応じて動的に変更するシステムにおける出力制御装置に実行させる情報表示プログラムであって、
ユーザによる指定、または、ネットワークで接続された各出力装置から自動収集した情報を元に、仮想的な画面の領域と、各出力装置が実際に表示する仮想的な画面の中の領域の指定とを行うステップと、
各出力装置から、出力の準備が整ったことを知らせる画面同期信号を受信し、全ての出力装置からの画面同期信号が揃う、または、一定時間が経過する毎に、描画を指示する画面描画信号を各出力装置に送信するステップと、を実行させる。
The present invention is an information display program for causing an output control device in a system to dynamically change output on a screen of one or a plurality of output devices according to a control command,
Based on information specified by the user or automatically collected from each output device connected via the network, a virtual screen area and a virtual screen area actually displayed by each output device The steps of
A screen drawing signal for instructing drawing every time a screen synchronization signal is received from each output device, indicating that preparations for output have been completed, and the screen synchronization signals from all output devices are available Transmitting to each output device.

本発明は、1つまたは、複数の出力装置の画面上への出力を制御命令に応じて動的に変更するシステムにおける出力装置に実行させる情報表示プログラムであって、
コンテンツの取得や管理を行うコンテンツ取得ステップと、
コンテンツの出力位置とサイズを自動計算する画面状態管理ステップと、
出力装置の表示する画面領域の管理と、表示の同期制御を行なう出力制御装置からの信号との同期を取りながらコンテンツを表示する出力画面生成ステップと、を実行させる。
The present invention is an information display program for causing an output device in a system to dynamically change output on a screen of one or a plurality of output devices according to a control command,
A content acquisition step for acquiring and managing content;
Screen state management step that automatically calculates the output position and size of the content,
Management of a screen area displayed by the output device and an output screen generation step of displaying content while synchronizing with a signal from the output control device that performs display synchronization control are executed.

本発明は、1つまたは、複数の出力装置の画面上への出力を制御命令に応じて動的に変更するシステムにおける出力装置に実行させる情報表示プログラムであって、
コンテンツの取得や管理を行うコンテンツ取得ステップと、
コンテンツの出力位置とサイズを自動計算する画面状態管理ステップと、
出力装置の表示する画面領域の管理と、表示の同期制御を行なう出力制御装置からの信号との同期を取りながらコンテンツを表示する出力画面生成ステップと、を実行させる。
The present invention is an information display program for causing an output device in a system to dynamically change output on a screen of one or a plurality of output devices according to a control command,
A content acquisition step for acquiring and managing content;
Screen state management step that automatically calculates the output position and size of the content,
Management of a screen area displayed by the output device and an output screen generation step of displaying content while synchronizing with a signal from the output control device that performs display synchronization control are executed.

本発明の画面状態管理ステップにおいて、
画面の状態制御を行うための画面状態制御命令を生成する画面状態制御装置において生成された画面状態制御命令に従い、
コンテンツを表示するためのウィンドウの生成、または、ウィンドウの削除、または、各ウィンドウが持つ、出力座標、または、移動速度、または、移動の加速度、または、サイズ、または、サイズの変更速度、または、サイズの変更加速度、または、コンテンツ名、または、コンテンツの形式、または、コンテンツの再生状態からなるプロパティの値の取得、または、変更を行うステップと、
画面状態制御命令がない場合でも、一定時間毎に、ウィンドウの移動の速度、または、移動の加速度、または、サイズの変更速度、または、サイズの変更加速度を用いて、ウィンドウの出力座標、または、サイズを計算するステップと、を実行させる。
In the screen state management step of the present invention,
According to the screen state control command generated in the screen state control device that generates the screen state control command for performing the screen state control,
Generation of windows for displaying contents, deletion of windows, output coordinates of each window, movement speed, acceleration of movement, size, speed of resizing, or The step of obtaining or changing the value of the property including the acceleration of the size change, the content name, the format of the content, or the playback state of the content,
Even if there is no screen state control command, the window output coordinates or the window movement speed, or the movement acceleration, or the size change speed, or the size change acceleration at regular intervals, or And calculating a size.

また、本発明の出力画面生成ステップでは、
任意の大きさの仮想的な画面の領域を内部に持ち、コンテンツを表示するためのウィンドウを仮想的な画面上の任意の位置に配置し、コンテンツを設定するステップと、
仮想的な画面の中の指示された表示領域のみを描画し、ディスプレイに表示するステップと、を実行させる。
In the output screen generation step of the present invention,
Having a virtual screen area of an arbitrary size inside, placing a window for displaying the content at an arbitrary position on the virtual screen, and setting the content;
Only the designated display area in the virtual screen is drawn and displayed on the display.

また、本発明の出力画面生成ステップでは、
仮想的な画面に、ウィンドウを配置し、コンテンツの設定終了後すぐに、画面同期信号を出力制御装置に送信し、画面描画を待機し、画面描画信号を受信したらすぐに、描画処理を行うステップを実行させる。
In the output screen generation step of the present invention,
A step of placing a window on a virtual screen, sending a screen synchronization signal to the output control device immediately after the content setting is completed, waiting for screen drawing, and performing drawing processing immediately after receiving the screen drawing signal Is executed.

また、コンテンツ取得ステップでは、
コンテンツを配信するコンテンツ管理装置から予め配信されたコンテンツをデータベースに保存するステップと、
コンテンツの取得要求に応じてコンテンツをデータベースから取り出し、コンテンツが該データベースに保存されていない場合には、コンテンツの配信要求を該コンテンツ管理装置に送信し、受信したコンテンツをコンテンツの要求元に転送するステップと、を実行させる。
In the content acquisition step,
Storing in a database content that has been distributed in advance from a content management device that distributes content;
In response to the content acquisition request, the content is extracted from the database, and if the content is not stored in the database, the content distribution request is transmitted to the content management apparatus, and the received content is transferred to the content request source. Steps are executed.

本発明は、公共空間で、多くの人物がいる場合でも、公共空間内の個人やグループの動作に合わせたウィンドウ出力座標、サイズの制御を行うことができる。詳しくは、
−人数が、画面に出力できる最大ウィンドウ数よりも少ない場合は、各個人に合わせて1つのウィンドウを出力することができる。
The present invention can control window output coordinates and sizes according to the actions of individuals and groups in a public space even when there are many people in the public space. For more information,
-If the number of people is less than the maximum number of windows that can be output to the screen, one window can be output for each individual.

−人数が、最大ウィンドウ数を越えた場合は、自動的に人物のグルーピングを行い、各グループ人数に応じた個数のウィンドウを割り当てることができる。   -When the number of people exceeds the maximum number of windows, the grouping of people is automatically performed, and the number of windows corresponding to the number of people in each group can be assigned.

−グルーピングは、速度と位置データベース行っているので、似た速度を持ち、位置が近い人物を同じグループとすることができる(近くにいるが反対向きに歩いている人が同じグループになるということは起こらない)。   -Since the grouping is done with the speed and position database, people with similar speeds and close positions can be in the same group (those who are close but walking in the opposite direction are in the same group. Does not happen).

−全体が移動していて一人の人物が立ち止まった場合など、特徴的な動きをした人物には、優先的にウィンドウが割り当てられる。   -A window is preferentially assigned to a person who has a characteristic movement, such as when the whole person is moving and one person stops.

以下、図面と共に本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図3は、本発明の一実施の形態における情報表示システムの構成を示し、図4は、本発明の一実施の形態における情報表示システムの処理のシーケンス図を示す。   FIG. 3 shows a configuration of the information display system in one embodiment of the present invention, and FIG. 4 shows a sequence diagram of processing of the information display system in one embodiment of the present invention.

図3に示すシステムは、複数の出力PC(パーソナルコンピュータ)100と、画面状態制御装置10、出力制御装置20、コンテンツ管理装置30から構成される。   The system shown in FIG. 3 includes a plurality of output PCs (personal computers) 100, a screen state control device 10, an output control device 20, and a content management device 30.

出力PC100は、画面状態管理部40、出力画面生成部50、コンテンツ取得部60、コンテンツ保存データベース70、ディスプレイ80を有し、画面状態管理部40、出力画面生成部50、コンテンツ取得部60は当該出力PC100上で稼動するものとし、これらが稼動する出力PC100は複数台(n)あるものとする。   The output PC 100 includes a screen state management unit 40, an output screen generation unit 50, a content acquisition unit 60, a content storage database 70, and a display 80. The screen state management unit 40, the output screen generation unit 50, and the content acquisition unit 60 It is assumed that there are a plurality of (n) output PCs 100 that operate on the output PC 100.

画面状態制御装置10、出力制御装置20、コンテンツ管理装置30は、各1つであり、同一のPC上で稼動しても、別のPC上で稼動してもよい。各装置の処理は以下の通りである。図4に示す各処理と共に説明する。   The screen state control device 10, the output control device 20, and the content management device 30 are each one, and may operate on the same PC or on different PCs. The processing of each device is as follows. This will be described together with each process shown in FIG.

画面状態制御装置10は、ユーザによる入力または、センサ等から取得した情報に基づいて、状態制御命令生成処理(ステップ10)を実行し、画面状態制御命令を、全ての出力PC100上の画面状態管理部40へ送信する。ここで、センサ等から取得した情報から画面状態制御命令を生成する方法は特に限定しないが、その一例を実施例の欄で後述する。   The screen state control device 10 executes state control command generation processing (step 10) based on input by a user or information acquired from a sensor or the like, and manages screen state control commands on all output PCs 100. To the unit 40. Here, the method for generating the screen state control command from the information acquired from the sensor or the like is not particularly limited, but an example thereof will be described later in the section of the embodiment.

画面状態制御命令では、ウィンドウの生成、削除、及び、ディスプレイ80上に既に出力されているウィンドウが持つ変数(以下、プロパティ)の取得、及び、更新ができる。画面状態制御命令は、以下の形式である。   With the screen state control command, a window can be created, deleted, and a variable (hereinafter referred to as a property) of a window already output on the display 80 can be acquired and updated. The screen state control command has the following format.

<制御名>,<ウィンドウID>?,([<プロパティ名>,<プロパティ値>])*
上記の、‘<a>’は変数、‘?’は0か1回の出現、‘()*’は0回以上の繰り返しを表す。
<Control name>, <window ID>? , ([<Property name>, <Property value>]) *
In the above, '<a>' is a variable, '? 'Represents 0 or 1 occurrence, and' () * 'represents 0 or more repetitions.

また、上記の「制御名」は、画面に対する制御の名前であり、“ウィンドウ生成”or“ウィンドウ削除”or“プロパティ取得”or“プロパティ更新”が指定可能である。   The “control name” is the name of the control for the screen, and “window generation” or “window deletion” or “property acquisition” or “property update” can be specified.

・「ウィンドウID」は、ディスプレイ上のウィンドウを表す識別子である。   “Window ID” is an identifier representing a window on the display.

・「プロパティ名」は、プロパティの名前である。   “Property name” is the name of the property.

・「プロパティ値」は、プロパティの値である。   “Property value” is a property value.

上記のウィンドウID,プロパティ名、プロパティ値は、各制御毎に必要に応じて指定される。   The window ID, property name, and property value are specified as necessary for each control.

プロパティ名として指定できる変数は以下の通りである。   The variables that can be specified as property names are as follows.

・座標(x,y)
・座標速度(vx,vy)
・座標加速度(ax,ay)
・サイズ(width,height)
・サイズ変更速度(v_width,v_height)
・サイズ変更加速度(a_width,a_height)
・コンテンツ名,
・コンテンツ形式(文字列,静止画,動画等)、
・動画コンテンツの再生状態(再生,停止,逆再生等)
例えば、以下の画面状態制御命令は、ウィンドウIDが「W1」のウィンドウのサイズを(10,10)とし、座標を(30,20)に変更する。
・ Coordinates (x, y)
・ Coordinate velocity (vx, vy)
・ Coordinate acceleration (ax, ay)
・ Size (width, height)
・ Resize speed (v_width, v_height)
・ Resize acceleration (a_width, a_height)
・ Content name,
・ Content format (character string, still image, video, etc.)
・ Video content playback status (play, stop, reverse playback, etc.)
For example, the following screen state control instruction changes the size of the window having the window ID “W1” to (10, 10) and the coordinates to (30, 20).

プロパティ更新,W1,[サイズ(10,10)][座標(30,20)]
また、画面状態制御装置10は、画面状態制御命令の戻り値として、画面状態を取得する。画面状態は、以下の形式である。
Property update, W1, [Size (10, 10)] [Coordinates (30, 20)]
Further, the screen state control apparatus 10 acquires the screen state as a return value of the screen state control command. The screen state has the following format.

<状態1>、<制御名>、<ウィンドウID>?,([<プロパティ名>、<値>])*
ここで、「状態1」は、“成功”か“失敗”を持つ。他の項目は、画面状態制御命令自体に指定された値か、画面状態管理部40によって割り当てられた値である。詳細は、画面状態管理部40の処理において後述する。
<State 1>, <control name>, <window ID>? , ([<Property name>, <value>]) *
Here, “state 1” has “success” or “failure”. The other items are values specified in the screen state control command itself or values assigned by the screen state management unit 40. Details will be described later in the processing of the screen state management unit 40.

出力制御装置20は、前処理として、表示領域指定処理(ステップ20)では、仮想画面の領域と、各出力PC100が実際に表示する領域を指定し、これらの情報を表示領域指定命令として、各出力PC100上の出力画面生成部50へ送信する。表示領域指定処理(ステップ20)の詳細は、図5のフローチャートで後述する。   In the display area designation process (step 20), the output control device 20 designates a virtual screen area and an area actually displayed by each output PC 100 as pre-processing, and uses these pieces of information as display area designation instructions. This is transmitted to the output screen generation unit 50 on the output PC 100. Details of the display area designating process (step 20) will be described later with reference to the flowchart of FIG.

描画同期処理(ステップ30)では、出力制御装置20が、各出力PC100の出力画面生成部50から描画を行う準備が整ったことを知らせる画面同期信号を取得する。全ての出力PC100から画面同期信号を受け取るか、一定時間が経過した場合には、全ての出力PC100上の出力画面生成部50に対して、画面描画信号を送信する。   In the drawing synchronization process (step 30), the output control device 20 acquires a screen synchronization signal notifying that preparation for drawing is completed from the output screen generation unit 50 of each output PC 100. When screen synchronization signals are received from all output PCs 100 or when a predetermined time has elapsed, screen drawing signals are transmitted to the output screen generation units 50 on all output PCs 100.

コンテンツ管理装置30は、前処理として、プレ配信処理(ステップ40)では、全ての出力PC100上のコンテンツ取得部60へ利用が予定されているコンテンツを配信する。ここで、コンテンツは、文字列、静止画、動画等であり、コンテンツデータベース90に予め蓄積されているか、任意のタイミングでネットワーク200から取得する。   In the pre-distribution process (step 40), the content management apparatus 30 distributes the content scheduled to be used to the content acquisition units 60 on all output PCs 100 as pre-processing. Here, the content is a character string, a still image, a moving image, or the like, and is stored in advance in the content database 90 or acquired from the network 200 at an arbitrary timing.

リアルタイム配信処理(ステップ50)では、コンテンツ管理装置30が、コンテンツ配信要求をコンテンツ取得部60から受け取り、指定されたコンテンツを、全ての出力PC100上のコンテンツ取得部60へ配信する。ここで、コンテンツ配信要求は、以下の形式である。   In the real-time distribution process (step 50), the content management apparatus 30 receives a content distribution request from the content acquisition unit 60 and distributes the designated content to the content acquisition units 60 on all output PCs 100. Here, the content distribution request has the following format.

<ファイル名>、<ファイル形式>、<フレーム番号>
ここで、「フレーム番号」は、ファイル形式が動画の場合のみ指定される。
<File name>, <File format>, <Frame number>
Here, the “frame number” is specified only when the file format is a moving image.

画面状態管理部40は、画面状態更新処理(ステップ60)において、速度や加速度からウィンドウの座標やサイズを自動計算し、画面更新命令を出力画面生成部50に送信する。また、画面状態制御装置10から、画面状態制御命令を受け取ると、ウィンドウの生成や削除、プロパティの取得や更新を行い、画面状態を画面状態制御装置10へ送信する。画面状態更新処理(ステップ60)は、非常に短い時間で繰り返し実行される。画面状態更新処理(ステップ60)の処理は、図6、図7において後述する。   In the screen state update process (step 60), the screen state management unit 40 automatically calculates the coordinates and size of the window from the speed and acceleration, and transmits a screen update command to the output screen generation unit 50. When a screen state control command is received from the screen state control device 10, a window is generated or deleted, properties are acquired or updated, and the screen state is transmitted to the screen state control device 10. The screen state update process (step 60) is repeatedly executed in a very short time. The process of the screen state update process (step 60) will be described later with reference to FIGS.

出力画面生成部50は、前処理として、表示領域設定処理(ステップ70)において、表示領域指定命令に指定された、仮想画面の領域(x_low,,x_upper,y_low,y_upper)
と各出力PC100の表示領域(x1,x2,y1,y2)を内部記憶へ保存する。表示領域指定命令の詳細については、図5の表示領域指定処理(ステップ20)のフローチャートで後述する。
The output screen generation unit 50 performs the virtual screen areas (x_low, x_upper, y_low, y_upper) designated in the display area designation command in the display area setting process (step 70) as preprocessing.
And the display area (x1, x2, y1, y2) of each output PC 100 is stored in the internal storage. Details of the display area designation command will be described later with reference to the flowchart of the display area designation process (step 20) in FIG.

仮想画面生成処理(ステップ80)では、画面状態管理部40から画面更新命令を受け取ると、まず、出力コンテンツに変更があるかを確認する。出力コンテンツに変更がある場合には、コンテンツ取得要求をコンテンツ取得部60に送信し、コンテンツを取得する。次に、画面更新命令で指定された座標、サイズでウィンドウを仮想画面に配置し、コンテンツを設定する。このようにして、仮想画面の生成が完了すると、画面同期信号を、出力制御装置20へ送信する。仮想画面生成処理(ステップ80)の詳細は図8で後述する。   In the virtual screen generation process (step 80), when a screen update command is received from the screen state management unit 40, it is first confirmed whether there is a change in the output content. When there is a change in the output content, a content acquisition request is transmitted to the content acquisition unit 60 to acquire the content. Next, the window is arranged on the virtual screen with the coordinates and size specified by the screen update command, and the content is set. In this manner, when the generation of the virtual screen is completed, a screen synchronization signal is transmitted to the output control device 20. Details of the virtual screen generation process (step 80) will be described later with reference to FIG.

画面描画処理(ステップ90)では、出力制御装置20から画面描画信号を受け取ると、仮想画面の中の表示領域設定処理(ステップ70)で設定された表示領域のみを描画し、ディスプレイやプロジェクタに表示する。   In the screen drawing process (step 90), when a screen drawing signal is received from the output control device 20, only the display area set in the display area setting process (step 70) in the virtual screen is drawn and displayed on the display or projector. To do.

コンテンツ取得部60は、前処理として、コンテンツ蓄積処理(ステップ100)において、コンテンツ管理装置30からコンテンツを取得し、コンテンツ保存データベース70に格納する。   The content acquisition unit 60 acquires the content from the content management device 30 and stores it in the content storage database 70 in the content storage processing (step 100) as preprocessing.

コンテンツ取得処理(ステップ110)では、コンテンツ取得要求を出力画面生成部50から受信すると、コンテンツ保存データベース70からコンテンツを取得するか、コンテンツ配信要求をコンテンツ管理装置30に送信し、コンテンツを取得する。このようにして取得したコンテンツをコンテンツ転送処理(ステップ120)によって、出力画面生成部50へ送信する。   In the content acquisition process (step 110), when a content acquisition request is received from the output screen generation unit 50, the content is acquired from the content storage database 70, or the content distribution request is transmitted to the content management device 30 to acquire the content. The content acquired in this way is transmitted to the output screen generation unit 50 by content transfer processing (step 120).

次に、上記の処理の詳細な手順について説明する。   Next, a detailed procedure of the above process will be described.

図5は、本発明の一実施の形態における表示領域指定処理のフローチャートである。   FIG. 5 is a flowchart of the display area designation process according to the embodiment of the present invention.

出力制御装置20における表示領域指定処理(ステップ20)では、まず、仮想画面を指定し、仮想画面上の一部の領域を各出力PC100の表示領域に割り当てる。この処理を具体例を図9に示す。   In the display area designation process (step 20) in the output control device 20, first, a virtual screen is designated, and a part of the area on the virtual screen is assigned to the display area of each output PC 100. A specific example of this process is shown in FIG.

図9では、まず、仮想画面を、
(x_low,x_upper,y_low,y_upper))=(0,320,0,100)
と指定する。次に、出力PC1と出力PC2が、
(x1,x2,y1,y2)=(0,100,20,80),(100,200,20,80)
の連続した領域を、出力PC3が、
(x1,x2,y1,y2)=(220,320,20,80)
の少し離れた領域を表示する画面構成となるように指定している。
In FIG. 9, first, the virtual screen is
(x_low, x_upper, y_low, y_upper)) = (0, 320, 0, 100)
Is specified. Next, the output PC1 and the output PC2 are
(x1, x2, y1, y2) = (0,100,20,80), (100,200,20,80)
The output PC3 is a continuous area of
(x1, x2, y1, y2) = (220,320,20,80)
The screen is configured to display a slightly distant area.

以下の手順によって、このような割り当てが行われる。   Such allocation is performed by the following procedure.

ステップ201) 出力PC100の台数を手動または、自動的に指定する。以下出力PC100の台数をnとし、i番目の出力PC100を出力PC(i)で表す。ここで、出力PC100の台数の自動的な指定方法は、特に限定しないが、例えば、ネットワーク上に出力PC100の存在を確認する命令をブロードキャスト(または、マルチキャスト)し、返信があった出力PC100の台数を計測する方法等がある。   Step 201) The number of output PCs 100 is designated manually or automatically. Hereinafter, the number of output PCs 100 is n, and the i-th output PC 100 is represented by output PC (i). Here, the method of automatically specifying the number of output PCs 100 is not particularly limited. For example, a command for confirming the existence of the output PC 100 on the network is broadcast (or multicast), and the number of output PCs 100 that have received a reply is given. There is a method of measuring.

ステップ202) 手動または自動的に仮想画面の領域を指定する。ここで、仮想画面の領域は、(x_low, x_upper, y_low,,y_upper)で囲まれた矩形領域とする。   Step 202) The area of the virtual screen is designated manually or automatically. Here, the area of the virtual screen is a rectangular area surrounded by (x_low, x_upper, y_low ,, y_upper).

x_low< x_upper, y_low,<y_upper
を満たすものとする。
x_low <x_upper, y_low, <y_upper
Shall be satisfied.

ここで、自動的な指定方法は特に限定しないが、例えば、出力PC100の台数等から自動計算する方法がある。   Here, although the automatic designation method is not particularly limited, for example, there is a method of automatically calculating from the number of output PCs 100 or the like.

ステップ203) 変数iに0を代入する。また、空の出力PCリストを生成する。ここで、出力PCリストの要素は以下の形式である。   Step 203) 0 is substituted into the variable i. Also, an empty output PC list is generated. Here, the elements of the output PC list have the following format.

<ネットワークアドレス>,<表示領域(x1,x2,y1,y2)>
ステップ204) iとnを比較し、i<nの場合はステップ205へ移行し、そうでない場合はステップ210に移行する。
<Network address>, <Display area (x1, x2, y1, y2)>
Step 204) Compare i and n. If i <n, go to Step 205, otherwise go to Step 210.

ステップ205) 出力PC(i)のネットワークアドレスを、手動または自動的に指定する。自動的な指定方法は、特に限定しないが、例えば、ステップ201と同様の方法で、返信のあった各出力PC100のアドレスを自動設定する方法がある。   Step 205) The network address of the output PC (i) is designated manually or automatically. Although the automatic designation method is not particularly limited, for example, there is a method of automatically setting the address of each output PC 100 that has returned in the same manner as in step 201.

ステップ206) 出力PC(i)の表示領域を、手動または自動的に指定する。ここで、表示領域は、(x1,x2,y1,y2)で囲まれた矩形領域とする。自動的な指定方法は特に限定しないが、例えば、n台の横長ディスプレイを構成したい場合は、以下のように自動計算することができる。   Step 206) The display area of the output PC (i) is designated manually or automatically. Here, the display area is a rectangular area surrounded by (x1, x2, y1, y2). Although the automatic designation method is not particularly limited, for example, when it is desired to configure n horizontally long displays, the automatic calculation can be performed as follows.

出力PC(0)のx1=0
出力PC(0)のx2=width(各ディスプレイの表示領域の幅)
出力PC(0)のy1=0
出力PC(0)のy2=height(各ディスプレイの表示領域の高さ)
出力PC(i+1)のx1=出力PC(i)のx2
出力PC(i+1)のx2=出力PC(i+1)のx1+width
出力PC(i+1)のy1=0
出力PC(i+1)のy2=height
ステップ207) 以下の条件を満たすかを判定する。
X1 of output PC (0) = 0
X2 of output PC (0) = width (width of display area of each display)
Y1 = 0 of output PC (0)
Y2 = height of output PC (0) (height of display area of each display)
X1 of output PC (i + 1) = x2 of output PC (i)
X2 of output PC (i + 1) = x1 + width of output PC (i + 1)
Y1 = 0 of output PC (i + 1)
Y2 = height of output PC (i + 1)
Step 207) It is determined whether the following condition is satisfied.

x_low<x1<x2<x_upper
y_low<y1<y2<y_upper
を満たす場合はステップ208へ、満たさない場合はステップ206へ移行する。
x_low <x1 <x2 <x_upper
y_low <y1 <y2 <y_upper
If the condition is satisfied, the process proceeds to step 208;

ステップ208) ステップ205,206で指定された出力PC(i)のネットワークアドレスと、表示領域を出力PCリストへ追加する。   Step 208) The network address and display area of the output PC (i) designated in Steps 205 and 206 are added to the output PC list.

ステップ209) iにi+1を代入する。   Step 209) Substitute i + 1 for i.

ステップ210) iに0を代入する。   Step 210) Substitute 0 for i.

ステップ211) iとnを比較し、i<nの場合は、ステップ212へ移行し、そうでない場合は終了する。   Step 211) Compare i and n. If i <n, go to Step 212, otherwise end.

ステップ212) 出力PC(i)に指定されたネットワークアドレスを持つ出力PC上の出力画面生成部50に、仮想画面の領域と出力PC(i)の表示領域を、表示領域指定命令として送信する。   Step 212) The virtual screen area and the display area of the output PC (i) are transmitted as a display area designation command to the output screen generation unit 50 on the output PC having the network address designated by the output PC (i).

ステップ213) iにi+1を代入する。   Step 213) Substitute i + 1 for i.

次に、画面状態管理部40における、画面状態更新処理(ステップ60)の処理について図6、図7に沿って説明する。   Next, the screen state update process (step 60) in the screen state management unit 40 will be described with reference to FIGS.

ステップ601) 前回この処理が呼び出された時刻を内部記憶から取得し、現在時刻との差分時間をtに代入する。現在時刻を内部記憶へ保存する。   Step 601) The time when this process was last called is acquired from the internal memory, and the difference time from the current time is substituted into t. Save the current time to internal memory.

ステップ602) 画面状態制御装置10から送られてきた未処理の画面状態制御命令があるかを確認し、ある場合には、ステップ603へ、ない場合にはステップ618へ移行する。   Step 602) It is confirmed whether or not there is an unprocessed screen state control command sent from the screen state control device 10, and if there is, go to Step 603, otherwise go to Step 618.

ステップ603) 画面状態制御命令eを取得する。ここで、画面状態制御命令は、画面状態制御装置10の項で示したように以下の形式である。   Step 603) The screen state control instruction e is acquired. Here, the screen state control command has the following format as shown in the section of the screen state control device 10.

<制御名>,<ウィンドウID>、([<プロパティ名>,<プロパティ値>])*
ステップ604) 画面状態制御命令が正しく実行されたかを表す変数1に「失敗」を代入する。
<Control name>, <window ID>, ([<property name>, <property value>]) *
Step 604) “Fail” is substituted into variable 1 indicating whether the screen state control command has been executed correctly.

ステップ605) eの制御名を確認し、制御名が、ウィンドウ生成の場合にはステップ606へ、それ以外の場合にはステップ608へ移行する。   Step 605) The control name of e is confirmed. If the control name is a window generation, the process proceeds to Step 606. Otherwise, the process proceeds to Step 608.

ステップ606) 以下のステップによってウィンドウを生成する。   Step 606) The window is generated by the following steps.

(a)現在使用されていないウィンドウIDを自動的に生成する。   (A) A window ID that is not currently used is automatically generated.

(b)eに指定されたプロパティに、指定されたプロパティ値を設定する。   (B) The specified property value is set in the property specified in e.

(c)eに指定されていないプロパティには、デフォルト値を設定する。   (C) A default value is set for a property not specified in e.

(d)これらの値を持つ、ウィンドウ状態wを生成する。ここで、ウィンドウ状態は、以下の形式である。   (D) A window state w having these values is generated. Here, the window state has the following format.

<ウィンドウID>,([<プロパティ名>、<値>])*
(e)wを内部記憶に蓄積されているウィンドウ状態リストに追加する。
<Window ID>, ([<Property name>, <Value>]) *
(E) Add w to the window state list stored in the internal memory.

(f)内部記憶に、保存してあるウィンドウ状態の個数nにn+1を代入する。   (F) Substituting n + 1 into the number n of window states stored in the internal memory.

ステップ607) ウィンドウ生成処理(ステップ606)が問題なく終了した場合には、1に「成功」を代入する。失敗した場合は、何も行わない。   Step 607) If the window generation process (Step 606) is completed without any problem, "Success" is substituted for 1. If it fails, do nothing.

ステップ608) eの制御名を確認し、制御名がウィンドウ削除の場合には、ステップ609へ、それ以外の場合はステップ611へ移行する。   Step 608) The control name of e is confirmed. If the control name is a window deletion, the process proceeds to Step 609; otherwise, the process proceeds to Step 611.

ステップ609) eに指定されたウィンドウIDを持つウィンドウ状態を、内部記憶から削除する。内部記憶に保存してあるウィンドウ状態の個数nにn−1を代入する。   Step 609) Delete the window state having the window ID specified in e from the internal memory. N-1 is substituted into the number n of window states stored in the internal memory.

ステップ610) ウィンドウ削除処理(ステップ609)が問題なく終了した場合には、「成功」を代入する。失敗した場合は何も行わない。   Step 610) If the window deletion process (Step 609) is completed without any problem, "Success" is substituted. If it fails, do nothing.

ステップ611) 制御名を確認し、制御名がプロパティ更新の場合にはステップ612へ、それ以外の場合はステップ614へ移行する。   Step 611) The control name is confirmed. If the control name is property update, the process proceeds to Step 612. Otherwise, the process proceeds to Step 614.

ステップ612) eに指定されたウィンドウIDを持つウィンドウ状態wを、内部記憶から取得する。次に、wのプロパティを、eで指定されたプロパティ値に変更する。更新したウィンドウ状態wを内部記憶に保存する。   Step 612) The window state w having the window ID designated by e is acquired from the internal storage. Next, the property of w is changed to the property value specified by e. The updated window state w is saved in the internal memory.

ステップ613) プロパティ更新(ステップ612)が問題なく終了した場合には、1に「成功」を代入する。失敗した場合は何も行わない。   Step 613) If the property update (Step 612) is completed without any problem, “Success” is substituted for “1”. If it fails, do nothing.

ステップ614) 制御名を確認し、制御名が「プロパティ取得」の場合にはステップ615へ、それ以外の場合にはステップ617へ移行する。   Step 614) The control name is confirmed. If the control name is "property acquisition", the process proceeds to step 615. Otherwise, the process proceeds to step 617.

ステップ615) eに指定されたウィンドウIDを持つウィンドウ状態wを内部記憶から取得する。次に、eに指定されたプロパティのプロパティ値をwから取得する。   Step 615) The window state w having the window ID designated by e is acquired from the internal memory. Next, the property value of the property designated by e is acquired from w.

ステップ616) プロパティ取得(ステップ615)が問題なく終了した場合には、1に「成功」を代入する。失敗した場合は何も行わない。   Step 616) If the property acquisition (Step 615) is completed without any problem, “Success” is substituted for “1”. If it fails, do nothing.

ステップ617) 変数lとeに指定された制御名eやwから取得されたウィンドウID、プロパティ名、プロパティ値を、画面状態として画面状態制御装置10へ送信する。ここで画面状態は、画面状態制御装置10の項で述べたように以下の形式である。   Step 617) The window ID, property name, and property value acquired from the control names e and w specified in the variables l and e are transmitted to the screen state control apparatus 10 as the screen state. Here, the screen state has the following format as described in the section of the screen state control device 10.

<状態1>,<制御名>,<ウィンドウID>?,(「<プロパティ名>,<値>」)*
ステップ618) iに0を代入する。
<State 1>, <control name>, <window ID>? , ("<Property name>, <value>") *
Step 618) 0 is substituted into i.

ステップ619) iとnを比較し、i<nの場合は、ステップ620へ、そうでない場合はステップ631へ移行する。   Step 619) Compare i with n. If i <n, go to Step 620, otherwise go to Step 631.

ステップ620) 内部記憶に蓄積されているウィンドウ状態リストのi番目のウィンドウ状態wを取得する。   Step 620) Obtain the i-th window state w of the window state list accumulated in the internal memory.

ステップ621) wの座標加速度(ax,ay)が0かどうかを判定し、0の場合はステップ623へ、そうでない場合はステップ622へ移行する。   Step 621) It is determined whether or not the coordinate acceleration (ax, ay) of w is 0. If it is 0, the process proceeds to Step 623, and if not, the process proceeds to Step 622.

ステップ622) wの座標速度(vx,vy)を以下の値に更新する。   Step 622) The coordinate speed (vx, vy) of w is updated to the following value.

vx=vx+t ax
vy=vy+t ay
ステップ623) wの座標速度(vx,vy)が0かどうかを判定し、0の場合はステップ625へ、そうでない場合はステップ624へ移行する。
vx = vx + t ax
vy = vy + t ay
Step 623) It is determined whether or not the coordinate speed (vx, vy) of w is 0. If it is 0, the process proceeds to Step 625, and if not, the process proceeds to Step 624.

ステップ624) wの座標(x,y)を以下の値に更新する。   Step 624) The coordinates (x, y) of w are updated to the following values.

x=x+t vx
y=y+t vy
ステップ625) wのサイズ変更加速度(a_width,a_hight)が0かどうかを判定し、0の場合はステップ627へ、そうでない場合はステップ626へ移行する。
x = x + t vx
y = y + t vy
Step 625) It is determined whether or not the resize acceleration (a_width, a_hight) of w is 0. If it is 0, the process proceeds to Step 627. Otherwise, the process proceeds to Step 626.

ステップ626) wのサイズ変更速度(v_width,v_height)を以下の値に更新する。   Step 626) The resize speed (v_width, v_height) of w is updated to the following values.

v_width=v_width+t a_width
v_height=v_height+t a_height
ステップ627) wのサイズ変更速度(v_width,v_height)が0かどうか判定し、0の場合はステップ629へ、そうでない場合はステップ628へ移行する。
v_width = v_width + t a_width
v_height = v_height + t a_height
Step 627) It is determined whether or not the resize speed (v_width, v_height) of w is 0. If it is 0, the process proceeds to Step 629; otherwise, the process proceeds to Step 628.

ステップ628) wのサイズ(width,height)を以下の値に更新する。   Step 628) The size (width, height) of w is updated to the following values.

width=width+t v_width
height=height+t v_height
ステップ629) 更新後のwを内部記憶のウィンドウ状態リストに保存する。
width = width + t v_width
height = height + t v_height
Step 629) Save the updated w in the window state list in the internal memory.

ステップ630) iにi+1を代入する。   Step 630) Substitute i + 1 for i.

ステップ631) 画面更新命令を、出力画面生成部50に送信する。ここで画面更新命令は以下の要素を持つリストである。   Step 631) A screen update command is transmitted to the output screen generation unit 50. Here, the screen update command is a list having the following elements.

<ウィンドウID>,<座標(x,y)>,<サイズ(width,height)>,<コンテンツ名>,<コンテンツ形式>,<再生状態>
次に、出力PC100の出力画面生成部50における、仮想画面生成処理(ステップ80)を、図8に沿って説明する。
<Window ID>, <Coordinate (x, y)>, <Size (width, height)>, <Content name>, <Content format>, <Playback state>
Next, virtual screen generation processing (step 80) in the output screen generation unit 50 of the output PC 100 will be described with reference to FIG.

ステップ801) 画面状態管理部40から、画面更新命令を取得する。画面状態更新処理(ステップ60)の項で述べたように、画面更新命令は、以下の形式の要素を持つリスト(以下、ウィンドウリスト)である。   Step 801) A screen update command is acquired from the screen state management unit 40. As described in the section of the screen state update process (step 60), the screen update command is a list (hereinafter referred to as a window list) having elements of the following format.

<ウィンドウID>,<座標(x,y)>,<サイズ(width,height)>,<コンテンツ名>,<コンテンツ形式>,<再生状態>
ステップ802) ウィンドウリストが空でないかを判断し、空の場合はステップ813へ、空でない場合はステップ803へ移行する。
<Window ID>, <Coordinate (x, y)>, <Size (width, height)>, <Content name>, <Content format>, <Playback state>
Step 802) It is determined whether the window list is not empty. If it is empty, the process proceeds to Step 813. If it is not empty, the process proceeds to Step 803.

ステップ803) ウィンドウリストの先頭の要素wを取り出す。   Step 803) The top element w of the window list is extracted.

ステップ804) wのウィンドウIDがコンテンツリストに存在するかを確認し、存在する場合は、ステップ805へ、存在しない場合はステップ809へ移行する。ここで、コンテンツリストの各要素は以下の形式である。
<ウィンドウID>,<コンテンツ名>,<コンテンツ形式>,<フレーム番号>,<コンテンツの実体>
ステップ805) コンテンツリストから、wのウィンドウIDを持つ要素cを取得する。
Step 804) It is confirmed whether the window ID of w exists in the content list. If it exists, the process proceeds to Step 805, and if it does not exist, the process proceeds to Step 809. Here, each element of the content list has the following format.
<Window ID>, <Content name>, <Content format>, <Frame number>, <Content entity>
Step 805) The element c having the window ID of w is acquired from the content list.

ステップ806) wのコンテンツ名とcのコンテンツ名が一致するかを判断し、一致する場合はステップ807へ、一致しない場合はステップ809へ移行する。   Step 806) It is determined whether the content name of w matches the content name of c. If they match, the process proceeds to Step 807, and if they do not match, the process proceeds to Step 809.

ステップ807) cのコンテンツ形式が動画であり、かつ、wの再生状態が(逆)再生かどうかを判断する。これらの条件を満たす場合はステップ808へ、満たさない場合はステップ812へ移行する。   Step 807) It is determined whether the content format of c is a moving image and the playback state of w is (reverse) playback. If these conditions are satisfied, the process proceeds to step 808. Otherwise, the process proceeds to step 812.

ステップ808) 動画のフレーム番号の計算を行う。現在時刻と前回の呼び出し時刻の差分から、フレーム番号を自動計算する。現在時刻で内部記憶の呼び出し時刻を更新する。   Step 808) The frame number of the moving image is calculated. The frame number is automatically calculated from the difference between the current time and the previous call time. Update the call time of the internal memory with the current time.

ステップ809) コンテンツ取得要求を、コンテンツ取得部60に送信する。ここで、コンテンツ取得要求は、以下の形式である。   Step 809) The content acquisition request is transmitted to the content acquisition unit 60. Here, the content acquisition request has the following format.

<コンテンツ名>,<コンテンツ形式>,<フレーム番号>
なお、フレーム番号は、コンテンツ形式が動画の場合のみ指定される。
<Content name>, <Content format>, <Frame number>
The frame number is specified only when the content format is a moving image.

ステップ810) コンテンツ取得要求で指定されたコンテンツの実体を取得する。   Step 810) The content entity specified in the content acquisition request is acquired.

ステップ811) 「wのウィンドウID、wのコンテンツ名、wのコンテンツ形式、ステップ808で計算されたフレーム番号、ステップ810で取得されたコンテンツの実体」によって、コンテンツリストの要素を更新する。   Step 811) The elements of the content list are updated with “window ID of w, content name of w, content format of w, frame number calculated in step 808, substance of content acquired in step 810”.

ステップ812) 仮想画面の中に、wで指定された座標、サイズでウィンドウを出力し、wのウィンドウIDを持つコンテンツリストの要素の「コンテンツ実体」を設定する。   Step 812) In the virtual screen, a window is output with the coordinates and size specified by w, and the “content entity” of the content list element having the window ID of w is set.

ステップ813) 仮想画面の生成が完了したことを表す画面同期信号を出力制御装置20へ送信する。   Step 813) A screen synchronization signal indicating completion of generation of the virtual screen is transmitted to the output control device 20.

次に、多人数に対応するウィンドウ出力処理について説明する。   Next, window output processing corresponding to a large number of people will be described.

図10,図11は、本発明の一実施の形態における多人数対応ウィンドウ出力処理のフローチャートである。   10 and 11 are flowcharts of the multi-person window output processing in the embodiment of the present invention.

ステップ901) 画面状態制御装置10は、画面に出力することができるウィンドウの最大数nを設定する。   Step 901) The screen state control apparatus 10 sets the maximum number n of windows that can be output to the screen.

ステップ902) 速度の分類に用いるグループ数kを設定する。   Step 902) The number k of groups used for speed classification is set.

ステップ903) 人物リストLをセンサ等から取得する。人物リストの各要素は、検出された人物の位置と速度を持っている。ここで人物リストLの取得方法について説明する。   Step 903) The person list L is acquired from a sensor or the like. Each element of the person list has the position and speed of the detected person. Here, a method for obtaining the person list L will be described.

1つまたは、複数の監視カメラで撮影された撮影画像に対して、画像解析処理を実行することにより、複数の撮影画像を合成し、監視領域に写っている人物の位置、速度、加速度、指差し方向を検出し、人物リストとする。   By performing image analysis processing on a captured image captured by one or a plurality of surveillance cameras, the plurality of captured images are combined, and the position, speed, acceleration, and finger of the person appearing in the surveillance area are combined. The insertion direction is detected and a person list is generated.

また、1つまたは、複数の無線タグ受信機が受信した無線タグのIDに対して、無線タグ解析処理を実行することにより、各受信機の感知領域内に存在する無線タグのIDを取得し、無線タグ情報解析結果(時刻、無線タグ受信機ID、感知された無線タグID、位置)を人物リストとして出力する。   In addition, by executing the RFID tag analysis process on the RFID tag ID received by one or more RFID tag receivers, the ID of the RFID tag existing in the sensing area of each receiver is obtained. The RFID tag information analysis result (time, RFID tag receiver ID, sensed RFID tag ID, position) is output as a person list.

ステップ904) |L|が、ウィンドウ最大数nよりも小さいかを判断し、小さい場合はステップ905へ、そうでない場合はステップ910へ移行する。ここで、|X|は、リストXの要素数を表す。   Step 904) It is determined whether or not | L | is smaller than the maximum number n of windows. If it is smaller, the process proceeds to Step 905. If not, the process proceeds to Step 910. Here, | X | represents the number of elements in the list X.

ステップ905) iに0を代入する。   Step 905) 0 is substituted for i.

ステップ906) iが|L|より小さいかを判断し、小さい場合はステップ907へ移行し、そうでない場合は終了する。   Step 906) It is determined whether i is smaller than | L |. If it is smaller, the process proceeds to Step 907, and if not, the process ends.

ステップ907) 人物リストLのi番目の要素Iを取得する。   Step 907) The i-th element I of the person list L is acquired.

ステップ908) Iに対応するウィンドウを出力する。ここで、Iの速度、Iの位置を座標変換し、画面上のウィンドウの出力座標と速度を決める。   Step 908) The window corresponding to I is output. Here, the speed of I and the position of I are coordinate-transformed to determine the output coordinates and speed of the window on the screen.

ステップ909) iにi+1を代入する。   Step 909) i + 1 is substituted into i.

ステップ910) 人物リストLの全ての要素を速度に基づきk個のクラスタ(Li:0<i<k)に分類する。ここで、クラスタリング手法は特に限定しないが、似た速度を持つ要素が同一のクラスタに分類されるものとする。   Step 910) All elements of the person list L are classified into k clusters (Li: 0 <i <k) based on the speed. Here, although the clustering method is not particularly limited, it is assumed that elements having similar speeds are classified into the same cluster.

ステップ911) 各クラスタLiへの割り当てウィンドウ数wiを計算する。ここで、wiは、最低1、wiの合計はnである。割り当て方法については、図12で詳細に説明する。   Step 911) The number of assigned windows wi for each cluster Li is calculated. Here, wi is at least 1, and the total of wi is n. The allocation method will be described in detail with reference to FIG.

ステップ912) iに0を代入する。   Step 912) 0 is substituted for i.

ステップ913) i<kを満たすかを確認し、満たす場合はステップ914へ移行し、満たさない場合は処理を終了する。   Step 913) It is confirmed whether i <k is satisfied. If it is satisfied, the process proceeds to Step 914. If not satisfied, the process is terminated.

ステップ914) クラスタLiの全ての要素を位置に基づき、wi個のクラスタ(Lij:0<j<wi)に分類する。ここで、クラスタリング手法は特に限定しないが、似た位置にある要素が同一のクラスタに分類されるものとする。 Step 914) Classify all elements of the cluster Li into wi clusters (L ij : 0 <j <wi) based on the position. Here, the clustering method is not particularly limited, but elements at similar positions are classified into the same cluster.

ステップ915) jに0を代入する。   Step 915) 0 is substituted for j.

ステップ916) j<wiを満たすかを確認し、満たす場合はステップ917へ、満たさない場合はステップ921へ移行する。   Step 916) It is confirmed whether j <wi is satisfied. If it is satisfied, the process proceeds to Step 917. Otherwise, the process proceeds to Step 921.

ステップ917) Lijに含まれる要素の平均速度を計算する。 Step 917) The average speed of the elements included in L ij is calculated.

ステップ918) Lijに含まれる要素の平均位置を計算する。 Step 918) Calculate the average position of the elements included in L ij .

ステップ919) Lijに対応するウィンドウを出力する。ここで、ステップ917、ステップ918で求めた平均速度、平均位置を座標変換し、画面上のウィンドウの出力座標と速度を決める。 Step 919) The window corresponding to L ij is output. Here, the average speed and average position obtained in steps 917 and 918 are coordinate-transformed to determine the output coordinates and speed of the window on the screen.

ステップ920) jにj+1を代入する。   Step 920) Substitute j + 1 for j.

ステップ921) iにi+1を代入する。   Step 921) Substitute i + 1 for i.

次に、上記のステップ911におけるウィンドウ割当数計算処理について説明する。   Next, the window allocation number calculation process in step 911 will be described.

図12は、本発明の一実施の形態におけるウィンドウ割当数計算処理のフローチャートである。   FIG. 12 is a flowchart of window allocation number calculation processing according to an embodiment of the present invention.

ステップ1101) iに0を代入する。   Step 1101) 0 is substituted for i.

ステップ1102) i<kを満たすかを確認し、満たす場合はステップ1103へ、満たさない場合はステップ1106へ移行する。   Step 1102) It is confirmed whether i <k is satisfied, and if satisfied, the process proceeds to Step 1103, and if not satisfied, the process proceeds to Step 1106.

ステップ1103) 各クラスタLiに全体人数の中でどれくらいの割合の人数が含まれているのかを表す変数uiを計算する。計算には以下の計算式を用いる。   Step 1103) A variable ui is calculated that indicates how many people are included in the total number of people in each cluster Li. The following formula is used for the calculation.

ui=|Li|/|L|
ステップ1104) uiに応じて、ウィンドウの割当数wiを計算する。計算には以下の計算式を用いる。
ui = | Li | / | L |
Step 1104) The number of allocated windows wi is calculated according to ui. The following formula is used for the calculation.

wi=1+[ui*(n−k)]
ここで、[x]はxの整数部分を表す。
wi = 1 + [ui * (n−k)]
Here, [x] represents the integer part of x.

ステップ1105) iにi+1を代入する。   Step 1105) i + 1 is substituted into i.

ステップ1106) 現在割り当てが行われていないウィンドウ数を、以下の式によって計算する。   Step 1106) The number of windows that are not currently allocated is calculated according to the following formula.

m=n−Σwi
ステップ1107) m>0を満たすかを判定し、満たす場合は、ステップ1108へ移行し、満たさない場合は終了する。
m = n−Σwi
Step 1107) It is determined whether m> 0 is satisfied, and if satisfied, the process proceeds to Step 1108, and if not satisfied, the process is terminated.

ステップ1108) uiの少数部分が最大となるiを選択する。ここで少数部分は、ui−[ui]によって求める。   Step 1108) Select i that maximizes the decimal part of ui. Here, the decimal part is obtained by ui- [ui].

ステップ1109) wiにwi+1を代入する。   Step 1109) Substitute wi + 1 for wi.

ステップ1110) uiに0を代入する。   Step 1110) 0 is substituted into ui.

ステップ1111) mにm−1を代入する。   Step 1111) Substitute m-1 for m.

以下、図面と共に本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

以下では、実際の動作の説明として、図15の追従広告の情報表示用ウィンドウに、動画コンテンツを表示する例を用いる。但し、出力画面の構成は、図9に示すように、2台の横に連続した領域と、1台の離れた領域とする。   Hereinafter, as an explanation of the actual operation, an example in which moving image content is displayed in the information display window for the follow-up advertisement in FIG. 15 will be used. However, as shown in FIG. 9, the output screen is composed of two laterally continuous areas and one remote area.

監視カメラ等のセンサから人物の位置(x,y)が取得され、以下の単純な座標変換によって、画面上の座標(x’,y’)が決まるものとする。   It is assumed that the position (x, y) of a person is obtained from a sensor such as a monitoring camera, and the coordinates (x ′, y ′) on the screen are determined by the following simple coordinate conversion.

x’=x/2
y’=y/2
従来技術では、(x’,y’)の座標にウィンドウを出力する。
x ′ = x / 2
y '= y / 2
In the prior art, a window is output at coordinates (x ′, y ′).

しかしながら、実際の人物の位置検出を非常に短時間の間に繰り返し行うことは、困難であり、人物の位置検出は時間的に離散値となってしまう。図13は、このような人物の位置(x,y)の検出が1秒毎であり、検出が行なわれる度に、ウィンドウの座標を更新する例を示している。図14の(a)は、(x’,y’)の座標にウィンドウをそのまま出力した例である。ここで、グレーの部分が実際の表示領域である。このように、ウィンドウは一定時間同じ位置にあった後、次の人物の位置検出のタイミングで、少し離れた位置に出力されることになる。このように、従来技術では、人物の位置に対して、ウィンドウを滑らかに追従させることができない。   However, it is difficult to repeat the actual position detection of a person in a very short time, and the position detection of the person becomes a discrete value in time. FIG. 13 shows an example in which the position (x, y) of such a person is detected every second and the coordinates of the window are updated each time detection is performed. FIG. 14A shows an example in which a window is output as it is at the coordinates (x ′, y ′). Here, the gray portion is the actual display area. As described above, after the window is at the same position for a certain period of time, it is output to a position slightly apart at the timing of detecting the position of the next person. As described above, in the conventional technique, the window cannot smoothly follow the position of the person.

以下の例では、本発明によって、人物の動きの検出が離散値であった場合でも、ウィンドウ位置を滑らかに人物に追従させることができることを示す。ここでは、説明のため、人物の動きの検出は、1秒毎、各出力PCの画面状態更新処理(ステップ60)は、0.2秒毎に実行されるものとする。   In the following example, it is shown that the present invention allows the person to smoothly follow the window position even when the detection of the movement of the person is a discrete value. Here, for the sake of explanation, it is assumed that the detection of a person's movement is executed every second, and the screen state update process (step 60) of each output PC is executed every 0.2 seconds.

また、予め、画面状態制御装置10では、人物の検出位置から計算された画面上の座標(x”,y”)から、座標加速度(ax,ay)を以下のほうに自動計算するようにプログラミングされているものとする。   Further, in advance, the screen state control device 10 is programmed to automatically calculate the coordinate acceleration (ax, ay) as follows from the coordinates (x ″, y ″) on the screen calculated from the detected position of the person. It is assumed that

ax=k_1(x’-x”)
ay=k_2(y’-y”)
ここで、k_1,k_2は、適当な定数であり、ここでは、それぞれ、0.3,1とする。
ax = k_1 (x'-x ")
ay = k_2 (y'-y ”)
Here, k_1 and k_2 are appropriate constants, and are here set to 0.3 and 1, respectively.

まず、前処理として、以下を実行する。   First, as preprocessing, the following is executed.

(1) 出力制御装置20では、表示領域指定処理(ステップ20)を実行し、仮想画面の領域を(0,320,0,100)、各出力PC100の表示領域を以下のように指定し、表示領域指定命令を、各出力PC100上の出力画面生成部50へ送信する。   (1) The output control device 20 executes the display area designation process (step 20), designates the area of the virtual screen (0, 320, 0, 100), designates the display area of each output PC 100 as follows, A display area designation command is transmitted to the output screen generation unit 50 on each output PC 100.

出力PC1の表示領域(0,100,20,80)
出力PC2の表示領域(100,200,20,80)
出力PC3の表示領域(220,320,20,80)
(2) 各出力PC100上の画面生成部50は、表示領域設定処理(ステップ70)を実行し、表示領域指定命令に従い、表示領域を設定する。この結果、各出力PC100の出力領域は、図9のようになる。
Output PC1 display area (0, 100, 20, 80)
Output PC2 display area (100, 200, 20, 80)
Output PC3 display area (220, 320, 20, 80)
(2) The screen generation unit 50 on each output PC 100 executes a display area setting process (step 70), and sets a display area according to a display area designation command. As a result, the output area of each output PC 100 is as shown in FIG.

(3) コンテンツ管理装置30は、プレ配信処理(ステップ40)によって、3台全ての出力PC100上のコンテンツ取得部60へ動作コンテンツ(C1)を配信する。   (3) The content management apparatus 30 distributes the operating content (C1) to the content acquisition units 60 on all three output PCs 100 by the pre-distribution process (step 40).

(4) 各出力PC100上のコンテンツ取得部60は、コンテンツ蓄積処理(ステップ10)によって、C1をコンテンツ保存データベース70に蓄積し、コンテンツ取得要求に応じて利用可能となる。   (4) The content acquisition unit 60 on each output PC 100 stores C1 in the content storage database 70 by the content storage process (step 10), and can be used in response to the content acquisition request.

図13のように、人物の位置(x,y)が1秒毎に検出され、対応する画面上の座標(x’,y’)が計算された場合の処理手順を以下に示す。   A processing procedure in the case where the position (x, y) of the person is detected every second and the corresponding coordinates (x ′, y ′) on the screen are calculated as shown in FIG. 13 will be described below.

t=0.0で、新たな人物の位置が検出された際には、以下の処理を実行する。   When a position of a new person is detected at t = 0.0, the following processing is executed.

1.画面状態制御装置10では、状態制御命令生成処理(ステップ10)を実行し、3台全ての出力PC100上の画面状態管理部40に、以下の画面状態制御命令を送信する。   1. The screen state control device 10 executes state control command generation processing (step 10), and transmits the following screen state control commands to the screen state management units 40 on all three output PCs 100.

ウィンドウ生成,,[座標,(0,35)][座標速度,(50,0)][サイズ,(40,30)][コンテンツ名,C1][コンテンツ形式,動画][再生状態、再生]
ここで、制御名が、「ウィンドウ生成」であるため、ウィンドウIDは指定されていない。この命令は、「座標(0,35)の位置に、サイズ(40,30)の大きさのウィンドウを生成し、コンテンツC1を再生させる。次の画面状態制御命令がない間は、このウィンドウを、座標速度(50,0)で自動的に動かす.」ということを意味している。
Window generation, [coordinates, (0, 35)] [coordinate speed, (50, 0)] [size, (40, 30)] [content name, C1] [content format, video] [playback state, playback]
Here, since the control name is “window generation”, the window ID is not specified. This command generates a window of size (40, 30) at the position of coordinates (0, 35) and reproduces the content C1. While there is no next screen state control command, this window is displayed. , Automatically moves at the coordinate speed (50, 0).

2.各出力PC100上の画面状態管理部40では、画面状態更新処理(ステップ60)を実行し、以下の画面更新命令を、出力画面生成部50へ送信する。   2. The screen state management unit 40 on each output PC 100 executes screen state update processing (step 60), and transmits the following screen update command to the output screen generation unit 50.

W1,(0,35),(40,30),C1,動画,再生
ここで、W1は自動的に割り当てられたウィンドウIDである。
W1, (0, 35), (40, 30), C1, moving image, reproduction Here, W1 is an automatically assigned window ID.

3.出力画面生成部50では、仮想画面生成処理(ステップ80)を実行し、以下のコンテンツ取得要求をコンテンツ取得部60へ送信する。   3. The output screen generation unit 50 executes a virtual screen generation process (step 80) and transmits the following content acquisition request to the content acquisition unit 60.

C1,動画,1
4.コンテンツ取得部60では、コンテンツ取得処理(ステップ110)を実行し、コンテンツ保存データベース70に格納されたコンテンツ(C1)のフレーム番号1のコンテンツ実体を取得し、コンテンツ転送処理(ステップ120)によって、出力画面生成部50へ送信する。
C1, video, 1
4). The content acquisition unit 60 executes content acquisition processing (step 110), acquires the content entity of frame number 1 of the content (C1) stored in the content storage database 70, and outputs it by the content transfer processing (step 120). It transmits to the screen generation unit 50.

5.出力画面生成部50では、コンテンツ実体を取得し、仮想画面上の指定された座標(0,35)に指定されたサイズ(40,30)で、C1のフレーム番号1のコンテンツ実体を出力する。出力が完了したらすぐに、画面同期信号を、出力制御装置20へ送信する。   5). The output screen generation unit 50 acquires the content entity, and outputs the content entity of the frame number 1 of C1 with the size (40, 30) designated by the designated coordinates (0, 35) on the virtual screen. As soon as the output is completed, a screen synchronization signal is transmitted to the output control device 20.

6.出力制御装置20では、描画同期処理(ステップ30)を実行し、3台の出力PC100から、画面同期信号を受け取ると、画面描画信号を、これら3台の出力PC100に送信する。   6). The output control device 20 executes a drawing synchronization process (step 30), and when screen synchronization signals are received from the three output PCs 100, transmits the screen drawing signals to these three output PCs 100.

7.各出力PC100上の出力画面生成部50は、画面描画命令を受け取ると、画面描画処理(ステップ90)を実行し、表示領域設定処理(ステップ70)で設定された領域のみを描画し、ディスプレイ80やプロジェクタに表示する。この結果、図14(b)の“1”のウィンドウが出力される。   7). When receiving the screen drawing command, the output screen generating unit 50 on each output PC 100 executes the screen drawing process (step 90), draws only the area set by the display area setting process (step 70), and displays the display 80. Or display on a projector. As a result, the window “1” in FIG. 14B is output.

t=1.0で、次の人物の位置検出が行われるまで、ステップ20からステップ70が繰り返し実行される。但し、座標速度が(‘50’,0)と指定されているので、ウィンドウの座標は、x方向にこの速さで等速で移動する。また、ステップ30のコンテンツのフレーム番号は、仮想画面生成処理(ステップ80)のステップ808で、順次計算され、呼び出し時刻に適した番号となる。この結果図14(b)の“2”〜“5”の位置にウィンドウが順次出力される。   Steps 20 to 70 are repeatedly executed until the position of the next person is detected at t = 1.0. However, since the coordinate speed is specified as ('50', 0), the coordinates of the window move at a constant speed in this direction in the x direction. The frame number of the content in step 30 is sequentially calculated in step 808 of the virtual screen generation process (step 80), and becomes a number suitable for the calling time. As a result, windows are sequentially output at positions “2” to “5” in FIG.

次に、t=1.0で人物の位置が検出された際には、以下の処理を実行する。   Next, when the position of a person is detected at t = 1.0, the following processing is executed.

1.画面状態制御装置10では、状態制御生成処理(ステップ10)を実行し、以下の画面状態制御命令を出力PC100上の画面状態管理部40へ送信する。   1. The screen state control device 10 executes state control generation processing (step 10), and transmits the following screen state control command to the screen state management unit 40 on the output PC 100.

プロパティ取得,W1,[座標,(x,y)]
2.出力PC100上の画面状態管理部40では、画面状態更新処理(ステップ60)を実行し、以下の画面状態を返信する。
Property acquisition, W1, [coordinates, (x, y)]
2. The screen state management unit 40 on the output PC 100 executes screen state update processing (step 60), and returns the following screen states.

成功,プロパティ取得,W1,[座標,(40,35)]
このようにして、直前の時刻のウィンドウの出力座標を取得することができる。
Success, property acquisition, W1, [coordinates, (40, 35)]
In this way, the output coordinates of the window at the immediately preceding time can be acquired.

3.画面状態制御装置10では、以下のように座標加速度(ax,ay)を計算する。   3. The screen state control apparatus 10 calculates the coordinate acceleration (ax, ay) as follows.

ax=k_1(x’-x”)=0.3*(60-40)=6
ay=k_2(y’-y”)=1*(38-35)=3
以下の画面状態制御命令を3台全ての出力PC100上の画面状態管理部40へ送信する。
ax = k_1 (x'-x ") = 0.3 * (60-40) = 6
ay = k_2 (y'-y ”) = 1 * (38-35) = 3
The following screen state control command is transmitted to the screen state management unit 40 on all three output PCs 100.

プロパティ更新,W1,[座標加速度,(6,3)]
4.各出力PC100上の画面状態管理部40は、画面状態更新処理(ステップ60)を実行し、ウィンドウ座標を以下のように計算する。
Property update, W1, [Coordinate acceleration, (6, 3)]
4). The screen state management unit 40 on each output PC 100 executes screen state update processing (step 60), and calculates window coordinates as follows.

vx=vx+t ax=50+0.2*6=51.2
vy=vy+t ay=0+0.2*3=0.6
x=x+t vx=40+0.2*51.2=50.2
y=y+t vy=35+0.2*0.6=35.1
ここで、前述したように画面状態更新処理(ステップ60)を呼び出し間隔は、0.2秒であるので、t=0.2である。
vx = vx + t ax = 50 + 0.2 * 6 = 51.2
vy = vy + tay = 0 + 0.2 * 3 = 0.6
x = x + t vx = 40 + 0.2 * 51.2 = 50.2
y = y + t vy = 35 + 0.2 * 0.6 = 35.1
Here, since the calling interval of the screen state update process (step 60) is 0.2 seconds as described above, t = 0.2.

次に、以下の画面更新命令を出力画面生成部50に送信する。   Next, the following screen update command is transmitted to the output screen generation unit 50.

W1,(50.2,35.1), (40,30), C1,動画,再生
5.t=0.0のステップ30からステップ70と同様の処理を行い、各出力PC100に割り当てられた表示領域を描画する。
W1, (50.2,35.1), (40,30), C1, video, playback The same processing as in steps 30 to 70 at t = 0.0 is performed, and the display area assigned to each output PC 100 is drawn.

t=2.0で、次の人物の位置検出が行われるまで、ステップ40、ステップ50は繰り返し実行される。そのため、次のセンサ情報が来るまで、ウィンドウは等価速度(6,3)で移動する。この結果、図14(b)の“6”〜“10”が出力される。その後、1秒毎に次の人物の位置検出が行われる度に、t=1.0で人物の位置検出が行われたときと同様の処理を繰り返し実行する。このようにして計算された出力座標を図13の(x”、y”)に、実際の出力位置を図14(b)に示す。   Steps 40 and 50 are repeatedly executed until the position of the next person is detected at t = 2.0. Therefore, the window moves at the equivalent speed (6, 3) until the next sensor information comes. As a result, “6” to “10” in FIG. 14B are output. Thereafter, every time the position of the next person is detected every second, the same processing as when the position of the person is detected at t = 1.0 is repeatedly executed. The output coordinates thus calculated are shown in FIG. 13 (x ″, y ″), and the actual output position is shown in FIG.

このようにセンサで検出された人物の位置が離散値の場合でも、その間を補完し、滑らかにウィンドウを追従させることができる。また、連続する画面や離れた画面等の複雑な画面構成であっても、これらの構成を考慮することなく、仮想的な画面上の座標のみ考えて出力を行うことができる。   As described above, even when the position of the person detected by the sensor is a discrete value, it is possible to complement the gap and smoothly follow the window. Further, even in a complicated screen configuration such as a continuous screen or a distant screen, the output can be performed by considering only the coordinates on the virtual screen without considering these configurations.

次に、前述の出力画面構成の問題が解決されたことを説明する。   Next, it will be described that the problem of the output screen configuration described above has been solved.

本発明では、各出力PCは、仮想的な大画面を同期して生成し、指定された領域のみを表示することができる。また、出力PCの台数に制限はない。従って、表示領域の指定といった簡易な操作によって、横長画面、大画面、離れた画面等の様々な画面構成を実現できる。また、一つのPCの出力映像を分割するのではないので、各出力PCの持つ最大解像度で出力を行うことができる。従って、本発明では、非常に高解像度な様々な構成の大画面を生成することができる。   In the present invention, each output PC can generate a virtual large screen in synchronization and display only a designated area. There is no limit on the number of output PCs. Accordingly, various screen configurations such as a horizontally long screen, a large screen, and a remote screen can be realized by a simple operation such as designation of a display area. In addition, since the output video of one PC is not divided, it is possible to output at the maximum resolution of each output PC. Therefore, in the present invention, it is possible to generate a large screen having various configurations with very high resolution.

また、前述の追従制度の問題については、本発明では、座標だけでなく、速度や加速度によって情報表示用のウィンドウを制御することができる。従って、人物の位置取得が離散値であった場合でも、速度や加速度を利用した制御を行うことによって、その間の出力位置を補完することができる。そのため、滑らかにウィンドウを動かすことが可能である。また、画面状態制御命令がなくても、ウィンドウの出力座標等を自動計算することができる。従って、多くのウィンドウを同時に制御する場合でも、いちいち座標を指定する多数個の制御命令を生成する必要がなく、リアルタイムの動的制御を実現できる。   Further, regarding the problem of the tracking system described above, in the present invention, the information display window can be controlled not only by coordinates but also by speed and acceleration. Therefore, even when the position acquisition of a person is a discrete value, the output position during that time can be complemented by performing control using speed and acceleration. Therefore, it is possible to move the window smoothly. Further, the output coordinates of the window can be automatically calculated without the screen state control command. Therefore, even when many windows are controlled simultaneously, it is not necessary to generate a large number of control commands for designating coordinates one by one, and real-time dynamic control can be realized.

また、上記の図4に示すシーケンスチャートの各々の装置における動作、及び、図5〜図8、図10〜図12の動作をそれぞれプログラムとして構築し、画像状態制御装置、出力制御装置、コンテンツ管理装置及び出力装置として利用されるコンピュータにインストールし、CPU等の制御手段により実行する、または、ネットワークを介して流通させることが可能である。   Further, the operation in each device of the sequence chart shown in FIG. 4 and the operations in FIGS. 5 to 8 and 10 to 12 are respectively constructed as programs, and the image state control device, the output control device, and the content management It can be installed in a computer used as a device and an output device, executed by a control means such as a CPU, or distributed via a network.

また、構築されたプログラムを、画像状態制御装置、出力制御装置、コンテンツ管理装置及び出力装置として利用されるコンピュータに接続されるハードディスクや、フレキシブルディスク、CD−ROM等の可搬記憶媒体に格納しておき、インストールして実行させることも可能である。   Further, the constructed program is stored in a portable storage medium such as a hard disk, a flexible disk, or a CD-ROM connected to a computer used as an image state control device, an output control device, a content management device, and an output device. It can also be installed and executed.

なお、本発明は、上記の実施の形態及び実施例に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。   The present invention is not limited to the above-described embodiments and examples, and various modifications and applications are possible within the scope of the claims.

駅構内やビルのエントランス等の大規模な公共空間において、人物等の動作に応じて広告を表示するようなシステムに適用可能である。   The present invention can be applied to a system that displays an advertisement according to the action of a person or the like in a large-scale public space such as a station premises or a building entrance.

本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の原理構成図である。It is a principle block diagram of this invention. 本発明の一実施の形態における情報表示システムの構成図である。It is a block diagram of the information display system in one embodiment of this invention. 本発明の一実施の形態における情報表示システムの処理のシーケンス図である。It is a sequence diagram of a process of the information display system in one embodiment of the present invention. 本発明の一実施の形態における表示領域指定処理のフローチャートである。It is a flowchart of the display area designation | designated process in one embodiment of this invention. 本発明の一実施の形態における画面状態更新処理のフローチャートである。It is a flowchart of the screen state update process in one embodiment of this invention. 本発明の一実施の形態における画面状態更新処理のフローチャートである。It is a flowchart of the screen state update process in one embodiment of this invention. 本発明の一実施の形態における仮想画面生成処理のフローチャートである。It is a flowchart of the virtual screen generation process in one embodiment of the present invention. 本発明の一実施の形態における仮想画面と各出力PCの表示領域である。It is the display area of the virtual screen and each output PC in one embodiment of the present invention. 本発明の一実施の形態における多人数対応ウィンドウ出力処理のフローチャート(その1)である。It is a flowchart (the 1) of the multi-person corresponding window output process in one embodiment of this invention. 本発明の一実施の形態における多人数対応ウィンドウ出力処理のフローチャート(その2)である。It is a flowchart (the 2) of the multi-person corresponding window output process in one embodiment of this invention. 本発明の一実施の形態におけるウィンドウ割当数計算処理のフローチャートである。It is a flowchart of the window allocation number calculation process in one embodiment of the present invention. 本発明の一実施例のウィンドウ出力座標の比較である。It is a comparison of the window output coordinate of one Example of this invention. 本発明の一実施例のウィンドウ出力位置の比較である。It is a comparison of the window output position of one Example of this invention. 追従広告を示す図である。It is a figure which shows a following advertisement. 様々な画面構成を示す図である。It is a figure which shows various screen structures.

符号の説明Explanation of symbols

10 画面状態制御装置
20 出力制御装置
30 コンテンツ管理装置
40 画面状態管理手段、画面状態管理部
50 出力画面生成手段、出力画面生成部
60 コンテンツ取得手段、コンテンツ取得部
70 コンテンツ保存データベース
80 ディスプレイ
90 コンテンツデータベース
100 出力装置、出力PC
200 ネットワーク
DESCRIPTION OF SYMBOLS 10 Screen state control apparatus 20 Output control apparatus 30 Content management apparatus 40 Screen state management means, Screen state management part 50 Output screen generation means, Output screen generation part 60 Content acquisition means, Content acquisition part 70 Content storage database 80 Display 90 Content database 100 output device, output PC
200 network

Claims (19)

1つまたは、複数の出力装置の画面上への出力を制御命令に応じて動的に変更するシステムにおける情報表示方法において、
画面の状態制御を行うための画面状態制御命令を生成する画面状態制御装置と、
前記出力装置の表示する画面領域の管理と、表示の同期制御を行う出力制御装置と、
コンテンツを配信するコンテンツ管理装置と、
各出力装置上で稼動し、コンテンツの出力位置とサイズを自動計算する画面状態管理手段と、同期を取りながらコンテンツを表示する出力画面生成手段と、コンテンツの取得や管理を行うコンテンツ取得手段と、を有する出力装置からなるシステム上で、
前記出力制御装置において、仮想画面を設定し、仮想画面上の一部の領域を各出力装置の表示領域に割り当てる表示領域指定過程と、
前記出力装置の出力画面生成手段において、前記出力制御装置により割り当てられた仮想画面の領域と表示領域を記憶手段に保存する表示領域設定過程と、
前記画面状態制御装置において、ユーザによる入力またはセンサから取得した情報を元に前記画面状態制御命令を前記出力装置の前記画面状態管理手段に送信する状態制御命令生成過程と、
前記出力装置の前記画面状態管理手段において、速度や加速度からウィンドウの座標やサイズを計算し、画面更新命令を前記出力画面生成手段に送信する画面状態更新過程と、
前記出力装置の前記出力画面生成手段において、前記画面状態管理手段から前記画面更新命令を受け取ると、該画面更新命令に基づいて仮想画面を設定し、コンテンツ取得要求をコンテンツ取得手段に送信する仮想画面生成過程と、
前記出力装置の前記コンテンツ取得手段において、前記コンテンツ管理装置に要求し、コンテンツを取得して、前記出力画面生成手段に送信するコンテンツ取得過程と、
前記出力制御装置において、前記出力画面生成手段から描画を行う準備が整ったことを知らせる画面同期信号を取得すると、前記出力装置の前記出力画面生成手段に対して画面描画信号を送信する描画同期過程と、
前記出力装置の前記出力画面生成手段において、前記仮想画面の中の前記表示領域設定過程で設定された表示領域のみ描画し、表示する画面描画過程と、からなることを特徴とする情報表示方法。
In an information display method in a system that dynamically changes output on a screen of one or a plurality of output devices according to a control command,
A screen state control device for generating a screen state control command for performing screen state control; and
An output control device that performs management of a screen area displayed by the output device, and synchronous control of display;
A content management device for delivering content;
A screen state management unit that operates on each output device and automatically calculates the output position and size of content; an output screen generation unit that displays content while synchronizing; a content acquisition unit that acquires and manages content; On a system consisting of output devices having
In the output control device, setting a virtual screen, a display area designation process of assigning a partial area on the virtual screen to the display area of each output device,
In the output screen generating means of the output device, a display area setting process for storing the virtual screen area and the display area allocated by the output control apparatus in a storage means,
In the screen state control device, a state control command generation step of transmitting the screen state control command to the screen state management means of the output device based on information input from a user or acquired from a sensor,
In the screen state management means of the output device, the screen state update process of calculating the coordinates and size of the window from the speed and acceleration, and transmitting a screen update command to the output screen generation means,
In the output screen generation means of the output device, when the screen update command is received from the screen status management means, a virtual screen is set based on the screen update command and a content acquisition request is transmitted to the content acquisition means Generation process,
In the content acquisition unit of the output device, a content acquisition process of requesting the content management device, acquiring content, and transmitting the content to the output screen generation unit;
In the output control device, a drawing synchronization process of transmitting a screen drawing signal to the output screen generating unit of the output device upon acquiring a screen synchronization signal notifying that the preparation for drawing is completed from the output screen generating unit When,
An information display method comprising: a screen drawing process for drawing and displaying only a display area set in the display area setting process in the virtual screen in the output screen generating means of the output device.
前記状態制御命令生成過程において、
前記画面状態制御装置が、
ユーザによる指定、または、センサ情報、または、別のプログラムによって生成された制御命令を元に、コンテンツを表示するためのウィンドウの生成、または、ウィンドウの削除、または、
各ウィンドウが持つ、出力座標、または、移動速度、または、移動加速度、または、サイズ、または、サイズの変更速度、または、サイズの変更加速度、または、コンテンツ名、または、コンテンツの形式、または、コンテンツの再生状態からなる、プロパティの値の取得、または、更新を行う前記画面状態制御命令を生成する過程を含む請求項1記載の情報表示方法。
In the state control command generation process,
The screen state control device
Creation of a window for displaying content, deletion of a window, or deletion of a window based on a user designation, sensor information, or a control instruction generated by another program
Output coordinates, movement speed, movement acceleration, size, size change speed, size change acceleration, content name, content format, or content that each window has The information display method according to claim 1, further comprising a step of generating the screen state control command for acquiring or updating a property value including the playback state.
前記画面状態更新過程において、
前記画面状態管理手段が、
前記状態制御命令生成過程において生成された前記画面状態制御命令に従い、
コンテンツを表示するためのウィンドウの生成、または、ウィンドウの削除、または、各ウィンドウが持つ、出力座標、または、移動速度、または、移動の加速度、または、サイズ、または、サイズの変更速度、または、サイズの変更加速度、または、コンテンツ名、または、コンテンツの形式、または、コンテンツの再生状態からなるプロパティの値の取得、または、変更を行う過程と、
前記画面状態制御命令がない場合でも、一定時間毎に、ウィンドウの移動の速度、または、移動の加速度、または、サイズの変更速度、または、サイズの変更加速度を用いて、ウィンドウの出力座標、または、サイズを計算する過程と、を含む請求項2記載の情報表示方法。
In the screen state update process,
The screen state management means is
According to the screen state control command generated in the state control command generation process,
Generation of windows for displaying contents, deletion of windows, output coordinates of each window, movement speed, acceleration of movement, size, speed of resizing, or The process of obtaining or changing the value of the property that consists of the acceleration of the size change, the content name, the format of the content, or the playback state of the content,
Even in the absence of the screen state control command, the window output coordinates, or the window movement speed, the movement acceleration, the size change speed, or the size change acceleration at a certain time interval, or The method for displaying information according to claim 2, further comprising: calculating a size.
前記表示領域指定過程において、
前記出力制御装置が、
ユーザによる指定、または、ネットワークで接続された各出力装置から自動収集した情報を元に、仮想的な画面の領域と、各出力装置が実際に表示する仮想的な画面の中の領域の指定とを行う過程を含み、
前記仮想画面生成過程において、
前記出力画面生成手段が、
任意の大きさの仮想的な画面の領域を内部に持ち、コンテンツを表示するためのウィンドウを仮想的な画面上の任意の位置に配置し、コンテンツを設定し、
前記仮想的な画面の中の指示された表示領域のみを描画し、ディスプレイに表示する過程を含む請求項1記載の情報表示方法。
In the display area designation process,
The output control device is
Based on information specified by the user or automatically collected from each output device connected via the network, a virtual screen area and a virtual screen area actually displayed by each output device Including the process of
In the virtual screen generation process,
The output screen generating means
It has a virtual screen area of any size inside, arranges a window for displaying the content at an arbitrary position on the virtual screen, sets the content,
2. The information display method according to claim 1, further comprising a step of drawing only a designated display area in the virtual screen and displaying the drawn display area on the display.
前記描画同期過程において、
前記出力制御手段が、
各出力装置から、前記画面同期信号を受信し、全ての出力装置からの画面同期信号が揃う、または、一定時間が経過する毎に、前記画面描画信号を各出力装置に送信する過程を含む請求項1記載の情報表示方法。
In the drawing synchronization process,
The output control means is
Receiving the screen synchronization signal from each output device, and transmitting the screen drawing signal to each output device every time when the screen synchronization signals from all the output devices are complete or a certain time elapses. Item 1. An information display method according to Item 1.
前記仮想画面生成過程において、
前記出力画面生成手段が、
前記仮想的な画面に、ウィンドウを配置し、コンテンツの設定終了後すぐに、画面同期信号を前記出力制御装置に送信し、画面描画を待機し、前記画面描画信号を受信したらすぐに、描画処理を行う請求項4記載の情報表示方法。
In the virtual screen generation process,
The output screen generating means
A window is arranged on the virtual screen, and immediately after the content setting is completed, a screen synchronization signal is transmitted to the output control device, a screen drawing is waited, and a drawing process is performed as soon as the screen drawing signal is received. The information display method according to claim 4, wherein:
1つまたは、複数の出力装置の画面上への出力を制御命令に応じて動的に変更する情報表示システムであって、
画面の状態制御を行うための画面状態制御命令を生成する画面状態制御装置と、
前記出力装置の表示する画面領域の管理と、表示の同期制御を行う出力制御装置と、
コンテンツを配信するコンテンツ管理装置と、
各出力装置上で稼動し、コンテンツの出力位置とサイズを自動計算する画面状態管理手段と、前記出力制御装置からの信号と同期を取りながらコンテンツを表示する出力画面生成手段と、コンテンツの取得や管理を行うコンテンツ取得手段と、を有する出力装置と、を有することを特徴とする情報表示システム。
An information display system that dynamically changes output on a screen of one or a plurality of output devices according to a control command,
A screen state control device for generating a screen state control command for performing screen state control; and
An output control device that performs management of a screen area displayed by the output device, and synchronous control of display;
A content management device for delivering content;
A screen state management unit that operates on each output device and automatically calculates the output position and size of the content, an output screen generation unit that displays the content in synchronization with the signal from the output control device, An information display system comprising: an output device having content acquisition means for performing management.
前記画面状態制御装置は、
ユーザによる指定、または、センサ情報、または、別のプログラムによって生成された制御命令を元に、コンテンツを表示するためのウィンドウの生成、または、ウィンドウの削除、または、各ウィンドウが持つ、出力座標、または、移動速度、または、移動の加速度、または、サイズ、または、サイズの変更速度、または、サイズの変更加速度、または、コンテンツ名、または、コンテンツの形式、または、コンテンツの再生状態からなるプロパティの値の取得、または、更新を行う画面状態制御命令を生成する手段を含み、
前記出力装置の前記画面状態管理手段は、
前記画面状態制御命に従い、コンテンツを表示するためのウィンドウの生成、または、ウィドウの削除、または、各ウィンドウが持つ、出力座標、または、移動速度、または、移動の加速度、または、サイズ、または、サイズの変更速度、または、サイズの変更加速度、または、コンテンツ名、または、コンテンツの形式、または、コンテンツの再生状態からなるプロパティの値の取得、または、変更を行う手段と、
前記画面状態制御命令がない場合には、一定時間毎に、ウィンドウの移動速度、または、移動の加速度、または、サイズの変更速度、または、サイズの変更加速度を用いて、ウィンドウの出力座標、または、サイズを計算する手段と、を含む請求項7記載の情報表示システム。
The screen state control device
Based on the specification by the user, sensor information, or control instructions generated by another program, generation of windows for displaying contents, deletion of windows, or output coordinates of each window, Or the speed of movement, acceleration of movement, size, speed of resize, acceleration of change of size, content name, content type, or content playback status Including means for generating a screen state control instruction for obtaining or updating a value;
The screen state management means of the output device includes:
According to the screen state control instruction, generation of a window for displaying content, deletion of a window, output coordinates, movement speed, movement acceleration, size, or A means for obtaining or changing a property value including a size change speed, a size change acceleration, a content name, a content format, or a content playback state;
In the absence of the screen state control command, the window output coordinates, or the window moving speed, the moving acceleration, the size changing speed, or the size changing acceleration at a certain time interval, or The information display system according to claim 7, further comprising: means for calculating a size.
前記出力制御装置は、
ユーザによる指定、または、ネットワークで接続された各出力装置から自動収集した情報を元に、仮想的な画面の領域と、各出力装置が実際に表示する仮想的な画面の中の領域の指定とを行う手段を含み、
前記出力画面生成手段は、
任意の大きさの仮想的な画面の領域を内部に持ち、コンテンツを表示するためのウィンドウを前記仮想的な画面上の任意の位置に配置し、コンテンツを設定し、仮想的な画面の中に指示された表示領域のみを描画し、ディスプレイに表示する手段を含む請求項7記載の情報表示システム。
The output control device includes:
Based on information specified by the user or automatically collected from each output device connected via the network, a virtual screen area and a virtual screen area actually displayed by each output device Including means for performing
The output screen generation means includes
A virtual screen area of an arbitrary size is held inside, a window for displaying content is placed at an arbitrary position on the virtual screen, content is set, and the virtual screen is displayed. The information display system according to claim 7, further comprising means for drawing only the designated display area and displaying it on the display.
前記出力制御装置は、
各出力装置から、出力の準備が整ったことを知らせる画面同期信号を受信し、全ての出力装置からの画面同期信号が揃う、または、一定時間が経過する毎に、描画を指示する画面描画信号を各出力装置に送信する手段を含む請求項7記載の情報表示システム。
The output control device includes:
A screen drawing signal for instructing drawing every time a screen synchronization signal is received from each output device, indicating that preparations for output have been completed, and the screen synchronization signals from all output devices are available The information display system according to claim 7, further comprising means for transmitting the information to each output device.
前記出力画面生成手段は、
仮想的な画面にウィンドウを配置し、コンテンツの設定後すぐに、画面同期信号を前記出力制御装置に送信し、画面の描画を待機し、画面描画信号を該出力制御装置から受信後すぐに、描画処理を実行する手段を含む請求項9記載の情報表示システム。
The output screen generation means includes
Place a window on a virtual screen, immediately after setting the content, send a screen synchronization signal to the output control device, wait for screen drawing, and immediately after receiving the screen drawing signal from the output control device, The information display system according to claim 9, further comprising means for executing a drawing process.
前記コンテンツ管理装置は、
予め、または、具体的に指示された時に、データベース、または、ネットワークを介してコンテンツを取得し、取得した該コンテンツをすべての出力装置に配信する手段を含み、
前記出力装置の前記コンテンツ取得手段は、
前記コンテンツ管理装置から予め配信されたコンテンツをデータベースに保存し、コンテンツの取得要求に応じて取り出し、コンテンツが該データベースに保存されていない場合には、コンテンツの配信要求を該コンテンツ管理装置に送信し、受信したコンテンツをコンテンツの要求元に転送する手段を含む請求項7記載の情報表示システム。
The content management device includes:
Means for acquiring content via a database or a network when instructed in advance or specifically, and distributing the acquired content to all output devices;
The content acquisition unit of the output device includes:
The content distributed in advance from the content management device is stored in a database, retrieved in response to a content acquisition request, and if the content is not stored in the database, a content distribution request is transmitted to the content management device. 8. The information display system according to claim 7, further comprising means for transferring the received content to a content request source.
1つまたは、複数の出力装置の画面上への出力を制御命令に応じて動的に変更するシステムにおける画面状態制御装置に実行させる情報表示プログラムであって、
ユーザによる指定、または、センサ情報、または、別のプログラムによって生成された制御命令を元に、コンテンツを表示するためのウィンドウの生成、または、ウィンドウの削除、または、
各ウィンドウが持つ、出力座標、または、移動速度、または、移動加速度、または、サイズ、または、サイズの変更速度、または、サイズの変更加速度、または、コンテンツ名、または、コンテンツの形式、または、コンテンツの再生状態からなる、プロパティの値の取得、または、更新を行う前記画面状態制御命令を生成するステップを実行させることを特徴とする情報表示プログラム。
An information display program for causing a screen state control device in a system to dynamically change output on a screen of one or a plurality of output devices in response to a control command,
Creation of a window for displaying content, deletion of a window, or deletion of a window based on a user designation, sensor information, or a control instruction generated by another program
Output coordinates, movement speed, movement acceleration, size, size change speed, size change acceleration, content name, content format, or content that each window has An information display program for executing the step of generating the screen state control command for acquiring or updating a property value consisting of the playback state.
1つまたは、複数の出力装置の画面上への出力を制御命令に応じて動的に変更するシステムにおける出力制御装置に実行させる情報表示プログラムであって、
ユーザによる指定、または、ネットワークで接続された各出力装置から自動収集した情報を元に、仮想的な画面の領域と、各出力装置が実際に表示する仮想的な画面の中の領域の指定とを行うステップと、
各出力装置から、出力の準備が整ったことを知らせる画面同期信号を受信し、全ての出力装置からの画面同期信号が揃う、または、一定時間が経過する毎に、描画を指示する画面描画信号を各出力装置に送信するステップと、を実行させることを特徴とする情報表示プログラム。
An information display program for causing an output control device in a system to dynamically change output on a screen of one or a plurality of output devices according to a control command,
Based on information specified by the user or automatically collected from each output device connected via the network, a virtual screen area and a virtual screen area actually displayed by each output device The steps of
A screen drawing signal for instructing drawing every time a screen synchronization signal is received from each output device, indicating that preparations for output have been completed, and the screen synchronization signals from all output devices are available Transmitting the information to each output device.
1つまたは、複数の出力装置の画面上への出力を制御命令に応じて動的に変更するシステムにおける出力装置に実行させる情報表示プログラムであって、
コンテンツの取得や管理を行うコンテンツ取得ステップと、
コンテンツの出力位置とサイズを自動計算する画面状態管理ステップと、
出力装置の表示する画面領域の管理と、表示の同期制御を行なう出力制御装置からの信号との同期を取りながらコンテンツを表示する出力画面生成ステップと、を実行させることを特徴とする情報表示プログラム。
An information display program for causing an output device in a system to dynamically change output on a screen of one or a plurality of output devices according to a control command,
A content acquisition step for acquiring and managing content;
Screen state management step that automatically calculates the output position and size of the content,
An information display program that executes management of a screen area displayed by an output device and an output screen generation step of displaying content while synchronizing with a signal from an output control device that performs display synchronization control .
前記画面状態管理ステップにおいて、
画面の状態制御を行うための画面状態制御命令を生成する画面状態制御装置において生成された前記画面状態制御命令に従い、
コンテンツを表示するためのウィンドウの生成、または、ウィンドウの削除、または、各ウィンドウが持つ、出力座標、または、移動速度、または、移動の加速度、または、サイズ、または、サイズの変更速度、または、サイズの変更加速度、または、コンテンツ名、または、コンテンツの形式、または、コンテンツの再生状態からなるプロパティの値の取得、または、変更を行うステップと、
前記画面状態制御命令がない場合でも、一定時間毎に、ウィンドウの移動の速度、または、移動の加速度、または、サイズの変更速度、または、サイズの変更加速度を用いて、ウィンドウの出力座標、または、サイズを計算するステップと、を実行させる請求項15記載の情報表示プログラム。
In the screen state management step,
In accordance with the screen state control command generated in the screen state control device that generates a screen state control command for performing screen state control,
Generation of windows for displaying contents, deletion of windows, output coordinates of each window, movement speed, acceleration of movement, size, speed of resizing, or The step of obtaining or changing the value of the property including the acceleration of the size change, the content name, the format of the content, or the playback state of the content,
Even in the absence of the screen state control command, the window output coordinates, or the window movement speed, the movement acceleration, the size change speed, or the size change acceleration at a certain time interval, or The information display program according to claim 15, further comprising: calculating a size.
前記出力画面生成ステップでは、
任意の大きさの仮想的な画面の領域を内部に持ち、コンテンツを表示するためのウィンドウを仮想的な画面上の任意の位置に配置し、コンテンツを設定するステップと、
前記仮想的な画面の中の指示された表示領域のみを描画し、ディスプレイに表示するステップと、を実行させる請求項15記載の情報表示プログラム。
In the output screen generation step,
Having a virtual screen area of an arbitrary size inside, placing a window for displaying the content at an arbitrary position on the virtual screen, and setting the content;
The information display program according to claim 15, wherein only the designated display area in the virtual screen is drawn and displayed on a display.
前記出力画面生成ステップでは、
前記仮想的な画面に、ウィンドウを配置し、コンテンツの設定終了後すぐに、画面同期信号を前記出力制御装置に送信し、画面描画を待機し、前記画面描画信号を受信したらすぐに、描画処理を行うステップを実行させる請求項16記載の情報表示プログラム。
In the output screen generation step,
A window is arranged on the virtual screen, and immediately after the content setting is completed, a screen synchronization signal is transmitted to the output control device, a screen drawing is waited, and a drawing process is performed as soon as the screen drawing signal is received. The information display program according to claim 16, which causes a step of performing
前記コンテンツ取得ステップでは、
コンテンツを配信するコンテンツ管理装置から予め配信されたコンテンツをデータベースに保存するステップと、
コンテンツの取得要求に応じてコンテンツを前記データベースから取り出し、コンテンツが該データベースに保存されていない場合には、コンテンツの配信要求を該コンテンツ管理装置に送信し、受信したコンテンツをコンテンツの要求元に転送するステップと、を実行させる請求項15記載の情報表示プログラム。
In the content acquisition step,
Storing in a database content that has been distributed in advance from a content management device that distributes content;
In response to a content acquisition request, the content is extracted from the database, and if the content is not stored in the database, a content distribution request is transmitted to the content management device, and the received content is transferred to the content request source The information display program according to claim 15, wherein the information display program is executed.
JP2003398026A 2003-11-27 2003-11-27 Information display method, system and program Pending JP2005157135A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003398026A JP2005157135A (en) 2003-11-27 2003-11-27 Information display method, system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003398026A JP2005157135A (en) 2003-11-27 2003-11-27 Information display method, system and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009295884A Division JP2010107997A (en) 2009-12-25 2009-12-25 Information display method, system, and program

Publications (1)

Publication Number Publication Date
JP2005157135A true JP2005157135A (en) 2005-06-16

Family

ID=34723012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003398026A Pending JP2005157135A (en) 2003-11-27 2003-11-27 Information display method, system and program

Country Status (1)

Country Link
JP (1) JP2005157135A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007121798A (en) * 2005-10-31 2007-05-17 Denso Corp Display device for vehicle
JP2007148911A (en) * 2005-11-29 2007-06-14 Nippon Telegr & Teleph Corp <Ntt> Information output system, information output method and program
JP2007272365A (en) * 2006-03-30 2007-10-18 Advanced Telecommunication Research Institute International Content presenting device
JP2008164840A (en) * 2006-12-27 2008-07-17 Nippon Telegr & Teleph Corp <Ntt> Automatic presentation screen generating device, automatic presentation screen generating method, and program
JP2010086014A (en) * 2008-09-29 2010-04-15 Seiko Epson Corp Information processor and program
JP2011081483A (en) * 2009-10-05 2011-04-21 Sony Corp Apparatus, method and system for processing information
JP2011248548A (en) * 2010-05-25 2011-12-08 Fujitsu Ltd Content determination program and content determination device
JP2012118121A (en) * 2010-11-29 2012-06-21 Canon Inc Video display device, video display method, and program
JP2013077072A (en) * 2011-09-29 2013-04-25 Toshiba Corp Automatic ticket examination device
US9794532B2 (en) 2014-03-24 2017-10-17 Panasonic Intellectual Property Management Co., Ltd. Projector control apparatus, projector system, and projector control method
US10194125B2 (en) 2014-09-25 2019-01-29 Panasonic Intellectual Property Management Co., Ltd. Projection apparatus
US10248241B2 (en) 2015-05-07 2019-04-02 Ricoh Company, Ltd. Digital signage system
KR20190114465A (en) * 2018-03-30 2019-10-10 정원빈 Virtual area based contents management system
US10462133B2 (en) 2009-06-05 2019-10-29 Samsung Electronics Co., Ltd Method for providing user interface for each user, method for performing service, and device applying the same

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0389269U (en) * 1989-12-27 1991-09-11
JPH04116689A (en) * 1990-09-07 1992-04-17 Nippon Telegr & Teleph Corp <Ntt> Picture sharing control system
JPH0667630A (en) * 1991-06-12 1994-03-11 Fuji Xerox Co Ltd Electronic bulletin board system
JPH07184115A (en) * 1993-12-24 1995-07-21 Oyo Keisoku Kenkyusho:Kk Picture display device
JPH08278758A (en) * 1995-04-10 1996-10-22 Fujitsu General Ltd Image display device
JPH09305136A (en) * 1996-05-10 1997-11-28 Shimazu Yasumasa Dynamic multimedia space creating system
JPH11202818A (en) * 1998-01-16 1999-07-30 Sony Corp Device and method for image display for moving body
JP2001043384A (en) * 1999-07-29 2001-02-16 Nippon Telegr & Teleph Corp <Ntt> Input method and device of multimedia information space, input and output cooperation method and device, and recording medium recording input program and input and output cooperation program
JP2001184040A (en) * 1999-12-24 2001-07-06 Hitachi Ltd Image data display system and image data creation method
JP2001216527A (en) * 2000-02-04 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> Method and device for multi-media information space input/output and recording medium with its program recorded thereon
JP2002132197A (en) * 2000-08-19 2002-05-09 Ko Rin Moving video embodiment method using traveling speed of tracked vehicle
JP2002140058A (en) * 2000-07-25 2002-05-17 Casio Comput Co Ltd Device and method for image display, and program
JP2003195845A (en) * 2001-09-27 2003-07-09 Fuji Photo Film Co Ltd Image display method
JP2003208146A (en) * 2002-01-15 2003-07-25 Canon Inc Image display device and information processing method
JP2003271084A (en) * 2002-03-15 2003-09-25 Omron Corp Apparatus and method for providing information
JP2003271283A (en) * 2002-03-19 2003-09-26 Fuji Xerox Co Ltd Information display apparatus
JP2003280623A (en) * 2002-03-27 2003-10-02 Sony Corp Multidisplay device, image display device, image displaying method and computer program
JP2005115270A (en) * 2003-10-10 2005-04-28 Hiroshi Sugiyama Moving-body attached information display unit
JP2005157134A (en) * 2003-11-27 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> Information output method, device and program, and computer readable storage medium stored with information output program

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0389269U (en) * 1989-12-27 1991-09-11
JPH04116689A (en) * 1990-09-07 1992-04-17 Nippon Telegr & Teleph Corp <Ntt> Picture sharing control system
JPH0667630A (en) * 1991-06-12 1994-03-11 Fuji Xerox Co Ltd Electronic bulletin board system
JPH07184115A (en) * 1993-12-24 1995-07-21 Oyo Keisoku Kenkyusho:Kk Picture display device
JPH08278758A (en) * 1995-04-10 1996-10-22 Fujitsu General Ltd Image display device
JPH09305136A (en) * 1996-05-10 1997-11-28 Shimazu Yasumasa Dynamic multimedia space creating system
JPH11202818A (en) * 1998-01-16 1999-07-30 Sony Corp Device and method for image display for moving body
JP2001043384A (en) * 1999-07-29 2001-02-16 Nippon Telegr & Teleph Corp <Ntt> Input method and device of multimedia information space, input and output cooperation method and device, and recording medium recording input program and input and output cooperation program
JP2001184040A (en) * 1999-12-24 2001-07-06 Hitachi Ltd Image data display system and image data creation method
JP2001216527A (en) * 2000-02-04 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> Method and device for multi-media information space input/output and recording medium with its program recorded thereon
JP2002140058A (en) * 2000-07-25 2002-05-17 Casio Comput Co Ltd Device and method for image display, and program
JP2002132197A (en) * 2000-08-19 2002-05-09 Ko Rin Moving video embodiment method using traveling speed of tracked vehicle
JP2003195845A (en) * 2001-09-27 2003-07-09 Fuji Photo Film Co Ltd Image display method
JP2003208146A (en) * 2002-01-15 2003-07-25 Canon Inc Image display device and information processing method
JP2003271084A (en) * 2002-03-15 2003-09-25 Omron Corp Apparatus and method for providing information
JP2003271283A (en) * 2002-03-19 2003-09-26 Fuji Xerox Co Ltd Information display apparatus
JP2003280623A (en) * 2002-03-27 2003-10-02 Sony Corp Multidisplay device, image display device, image displaying method and computer program
JP2005115270A (en) * 2003-10-10 2005-04-28 Hiroshi Sugiyama Moving-body attached information display unit
JP2005157134A (en) * 2003-11-27 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> Information output method, device and program, and computer readable storage medium stored with information output program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007121798A (en) * 2005-10-31 2007-05-17 Denso Corp Display device for vehicle
JP2007148911A (en) * 2005-11-29 2007-06-14 Nippon Telegr & Teleph Corp <Ntt> Information output system, information output method and program
JP4632362B2 (en) * 2005-11-29 2011-02-16 日本電信電話株式会社 Information output system, information output method and program
JP2007272365A (en) * 2006-03-30 2007-10-18 Advanced Telecommunication Research Institute International Content presenting device
JP4644870B2 (en) * 2006-03-30 2011-03-09 株式会社国際電気通信基礎技術研究所 Content presentation device
JP2008164840A (en) * 2006-12-27 2008-07-17 Nippon Telegr & Teleph Corp <Ntt> Automatic presentation screen generating device, automatic presentation screen generating method, and program
JP2010086014A (en) * 2008-09-29 2010-04-15 Seiko Epson Corp Information processor and program
US10462133B2 (en) 2009-06-05 2019-10-29 Samsung Electronics Co., Ltd Method for providing user interface for each user, method for performing service, and device applying the same
JP2011081483A (en) * 2009-10-05 2011-04-21 Sony Corp Apparatus, method and system for processing information
JP2011248548A (en) * 2010-05-25 2011-12-08 Fujitsu Ltd Content determination program and content determination device
US8724845B2 (en) 2010-05-25 2014-05-13 Fujitsu Limited Content determination program and content determination device
JP2012118121A (en) * 2010-11-29 2012-06-21 Canon Inc Video display device, video display method, and program
JP2013077072A (en) * 2011-09-29 2013-04-25 Toshiba Corp Automatic ticket examination device
US9794532B2 (en) 2014-03-24 2017-10-17 Panasonic Intellectual Property Management Co., Ltd. Projector control apparatus, projector system, and projector control method
US10194125B2 (en) 2014-09-25 2019-01-29 Panasonic Intellectual Property Management Co., Ltd. Projection apparatus
US10248241B2 (en) 2015-05-07 2019-04-02 Ricoh Company, Ltd. Digital signage system
KR20190114465A (en) * 2018-03-30 2019-10-10 정원빈 Virtual area based contents management system
KR102085116B1 (en) 2018-03-30 2020-03-05 정원빈 Virtual area based contents management system

Similar Documents

Publication Publication Date Title
JP7169405B2 (en) Localization determination for mixed reality systems
JP4933438B2 (en) A system for distributed information presentation and interaction.
JP2005157135A (en) Information display method, system and program
US20160041728A1 (en) System For Storage And Navigation Of Application States And Interactions
JP2008519340A5 (en)
KR20130050701A (en) Method and apparatus for controlling content of the remote screen
WO2019017582A1 (en) Method and system for collecting cloud sourcing-based ar content templates and automatically generating ar content
JP6949612B2 (en) Video playback device, its control method, and program
CN110619659A (en) House resource display method, device, terminal equipment and medium
KR100489890B1 (en) Apparatus and Method to Provide Stereo Video or/and Detailed Information of Geographic Objects
US20180300552A1 (en) Differential Tracking for Panoramic Images
JP4377247B2 (en) Projector projection control system and projector projection control method
JP4110323B2 (en) Information output method and apparatus, program, and computer-readable storage medium storing information output program
JP2002342775A (en) Display state changing device, display state changing method, display state changing program, display state changing program storing medium, picture providing device, picture providing method, picture providing program, picture providing program storing medium and picture providing system
JP2002207774A (en) Internet dynamic image link system
JP6617547B2 (en) Image management system, image management method, and program
JP2010107997A (en) Information display method, system, and program
US20180232193A1 (en) Object-Based Presentation System
EP1955132B1 (en) Multiple target detection and application state navigation system
JP2008112425A (en) Data processor, data processing method, data processing program, and recording medium with data processing program recorded
KR102456134B1 (en) Method, device and system for creating 3d content of presenter participation type
JP7161635B2 (en) Program, video distribution method and video content distribution server
KR101722681B1 (en) Apparatus, method for processing video
JP2019531019A (en) Content providing method and system
JP2024027310A (en) Camera selection device, camera selection method, and camera selection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100914

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110329