JP4414708B2 - Movie display personal computer, data display system, movie display method, movie display program, and recording medium - Google Patents

Movie display personal computer, data display system, movie display method, movie display program, and recording medium Download PDF

Info

Publication number
JP4414708B2
JP4414708B2 JP2003329203A JP2003329203A JP4414708B2 JP 4414708 B2 JP4414708 B2 JP 4414708B2 JP 2003329203 A JP2003329203 A JP 2003329203A JP 2003329203 A JP2003329203 A JP 2003329203A JP 4414708 B2 JP4414708 B2 JP 4414708B2
Authority
JP
Japan
Prior art keywords
display
image
data
image display
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003329203A
Other languages
Japanese (ja)
Other versions
JP2005094713A (en
Inventor
憲彦 村田
青木  伸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2003329203A priority Critical patent/JP4414708B2/en
Publication of JP2005094713A publication Critical patent/JP2005094713A/en
Application granted granted Critical
Publication of JP4414708B2 publication Critical patent/JP4414708B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、1または複数の被写体を広角撮影した動画像や連続静止画像を付加情報とともにライブ配信して表示するか、要求時に配信して表示することが可能であり、かつ好みに応じて表示形態乃至表示位置を容易に変更したり全動画像や全連続静止画像のうち所望の位置の動画像等を容易に検索して表示したりすることが可能であるデータ表示技術の分野に係わり、具体的には、ユーザに対してわかり易い画像表示、並びに操作用の表示インタフェイスを提示することにより上記表示動作、表示形態の変更動作、検索動作を効率よく、かつ簡単に行うことを可能にする動画表示用パーソナルコンピュータ、データ表示システム、動画表示方法、動画表示プログラムおよび記録媒体に関する。   The present invention can display a moving image or continuous still image obtained by photographing a wide angle of one or a plurality of subjects together with additional information, or can be distributed and displayed when requested, and can be displayed as desired. The present invention relates to the field of data display technology that can easily change the form or display position, or can easily search and display a moving image at a desired position among all moving images and all continuous still images. Specifically, it is possible to efficiently and easily perform the display operation, the display form changing operation, and the search operation by presenting an easy-to-understand image display and a display interface for operation to the user. The present invention relates to a moving image display personal computer, a data display system, a moving image display method, a moving image display program, and a recording medium.

従来、例えば第1に、ディスプレイの右側に動画像を表示する動画像表示領域があり、動画像表示領域の下方に操作用の表示インタフェイスとして動画像の再生開始用の三角印のボタン、および停止用の四角印のボタンを設け、かつディスプレイの左側に所謂マーク表示領域があり、マーク表示領域には左側に記録時刻(乃至は記録開始後の相対時間)を表示し、右側に動画記録時に記録した横線を各記録時刻に対応して表示するとともに各横線上にキーデータの内容を表示し、更に動画再生を行う現在時刻に対応する位置に太い横線を表示するというもので、所望のキーデータの領域をクリックすると、動画表示を一時中断して対応する時刻にジャンプし該時刻の動画像を再生するという記録再生装置が知られている(例えば特許文献1参照。)。   Conventionally, for example, first, there is a moving image display area for displaying a moving image on the right side of the display, and a triangular mark button for starting reproduction of a moving image as a display interface for operation below the moving image display area, and A square button for stopping is provided, and there is a so-called mark display area on the left side of the display. The mark display area displays the recording time (or relative time after the start of recording) on the left side, and when recording a video on the right side. The recorded horizontal line is displayed corresponding to each recording time, the contents of the key data are displayed on each horizontal line, and a thick horizontal line is displayed at the position corresponding to the current time when the moving image is played back. A recording / playback apparatus is known in which when a data area is clicked, video display is temporarily interrupted, jumping to a corresponding time, and playing back a moving image at that time (see, for example, Patent Document 1). .).

上記記録再生装置には、画像表示領域中に左右のマイクで定められた横方向のある座標値に一致する音源方向に対応して音声レベルグラフを表示し、クリックでマーク付けしたい時刻を定め、かつキーデータを記録することで個人を特定し易くなり、これにより何時、誰が発言したかを観察しながらマーク付けし目的の時刻を指定できる構成を有し、また一方で、撮影した複数の被写体の画像を画像表示領域に表示し、任意の位置をクリックすると、ダイアログを表示して名前を書き込むことができ、該画像表示領域中に指定された範囲の角度に対応する領域(一つの被写体を囲う領域)を四角で囲い、その上に該名前を表示することができるという構成が備えられている。   In the recording / reproducing apparatus, an audio level graph is displayed corresponding to a sound source direction corresponding to a certain coordinate value in the horizontal direction determined by the left and right microphones in the image display area, and a time to be marked by clicking is determined, In addition, it is easy to identify individuals by recording key data. This makes it possible to mark and specify the target time while observing when and who speaks. If an arbitrary position is clicked, a dialog is displayed and a name can be written, and an area corresponding to an angle in a range specified in the image display area (one subject is selected). A configuration is provided in which a name of the name can be displayed on a box surrounded by a square.

また、例えば第2に、広角レンズを持つビデオカメラの出力映像信号を、ビデオ・キャプチャ装置を介してメモリに書き込み、該メモリから切り出す範囲の位置および大きさをマウスにより指定し、指定された切り出し範囲の画像データをメモリから読み出し、映像表示域の大きさに合うように画素密度を変換し、ディスプレイの映像表示ウインドウに表示する。これにより1台のカメラ装置で、方位およびズームを瞬時に切り換えた映像が得られるようにする映像処理装置が知られている(例えば特許文献2参照。)。   For example, secondly, an output video signal of a video camera having a wide-angle lens is written into a memory via a video capture device, the position and size of a range to be cut out from the memory are designated by a mouse, and the designated clipping is performed. The image data in the range is read from the memory, the pixel density is converted to fit the size of the video display area, and displayed in the video display window of the display. As a result, there is known a video processing apparatus that allows a single camera device to obtain an image in which the direction and zoom are instantaneously switched (see, for example, Patent Document 2).

上記映像処理装置には、ディスプレイ上に撮影映像の一部を表示する映像表示ウインドウを設定し、その右側の領域には操作パネルを設定し、該操作パネルには撮影画像のうち映像表示ウインドウに表示する部分を指定する位置指定パネル、および映像表示ウインドウに表示する画像の倍率を指定する倍率指定パネルが設けられている。また、他の例として、ディスプレイ上の離れた四箇所の位置に切り出し範囲から切り出された画像を表示するカメラウインドウを設定し、各カメラウインドウの各々の右側に上述と同様の操作パネルを設けるという構成も開示されている。   In the video processing apparatus, a video display window for displaying a part of the captured video on the display is set, an operation panel is set in a region on the right side of the video processing apparatus, and the video display window of the captured image is displayed on the operation panel. A position designation panel for designating a portion to be displayed and a magnification designation panel for designating the magnification of an image to be displayed in the video display window are provided. As another example, a camera window for displaying an image cut out from the cutout range is set at four positions on the display, and an operation panel similar to the above is provided on the right side of each camera window. A configuration is also disclosed.

また、例えば第3に、広角レンズを備えたビデオカメラの広範囲な実時間映像をフレームメモリに一時的に記憶し、複数端末から配信要求があると、フレームメモリの所定の部分領域映像または全体領域映像を同時に配信し、かつ一方で、複数端末からユーザが興味のある部分の領域映像の配信要求を受けると、フレームメモリから部分領域を切り出しカメラフレームと同一に生成した部分領域映像を同時に配信する。これにより、複数端末から同一カメラ映像を同時に制御可能とし、ユーザ毎に異なる視点で眺められる可変領域を得られるようにした可変領域を得うる映像配信方法が知られている(例えば特許文献3参照。)。   Also, for example, thirdly, a wide range of real-time video of a video camera equipped with a wide-angle lens is temporarily stored in a frame memory, and when there is a distribution request from a plurality of terminals, a predetermined partial area video or entire area of the frame memory Distribute video simultaneously, and on the other hand, when a distribution request for a region video of interest to a user is received from a plurality of terminals, the partial region is generated from the frame memory and generated in the same manner as the camera frame. . As a result, a video distribution method is known in which the same camera video can be controlled simultaneously from a plurality of terminals, and a variable area that can be viewed from different viewpoints for each user can be obtained (see, for example, Patent Document 3). .)

上記可変領域を得うる映像配信方法では、利用者が配信する部分領域映像を操作するためのインタフェイスとして、ディスプレイ内の映像を出力するウインドウの下方に、表示空間の8方向への移動用のボタン、全体表示用のボタン、拡大用のボタン、縮小用のボタン、配信開始用のボタン、および配信終了用のボタンを設定している。   In the video distribution method capable of obtaining the variable area, the interface for operating the partial area video distributed by the user is used for moving the display space in eight directions below the window for outputting the video in the display. A button, an entire display button, an enlargement button, a reduction button, a distribution start button, and a distribution end button are set.

特開2002−247489号公報Japanese Patent Application Laid-Open No. 2002-247489 特開平8−237590号公報JP-A-8-237590 特開平9−261522号公報JP-A-9-261522

しかしながら、第1の従来例においては、経時的に変化するため一瞥することができない音声や動画像の中の特に重要な部分を正確に、かつ簡単に取り出すことができるように所謂マーク表示領域や音声レベルグラフを設定し表示する旨が記載されているが、殊に動画像の表示に関してはあらかじめ設定された一つの動画像表示領域内に単に表示するのみであり、動画像表示領域内で複数の被写体の表示位置を所望の位置に変更するといったことを実現する構成は備えておらず、したがって被写体の表示が固定的で短調となり易い欠点がある。   However, in the first conventional example, a so-called mark display area or a so-called mark display area is provided so that particularly important parts of audio and moving images that cannot be glanced because they change with time can be extracted accurately and easily. Although it is described that an audio level graph is set and displayed, in particular, regarding the display of a moving image, it is simply displayed within a preset moving image display area, and a plurality of images are displayed within the moving image display area. There is no provision for changing the display position of the subject to a desired position, and therefore, there is a drawback that the display of the subject is likely to be fixed and minor.

第2の従来例においては、1台のカメラ装置で方位およびズームを瞬時に切り換えた映像が得られるようにディスプレイ上の離れた四箇所の位置に一つの撮影画像から切り出された画像を表示する4つのカメラウインドウを設定する旨開示されているが、一度、一つの撮影画像をチルトコマンド、パンコマンド、ズームコマンドにより切り出し範囲を定めて切り出し4つのカメラウインドウに振り分けて画像表示した後、各カメラウインドウの表示内容を入れ換えるには、最初の切り出し範囲の設定作業を行い直すか、あるいは例えばドラッグアンドドロップ等の技術を用いるかしなければならず、操作作業的に非常に面倒である欠点がある。   In the second conventional example, images cut out from one captured image are displayed at four positions distant from each other on the display so that a single camera device can instantaneously switch the direction and zoom. Although it is disclosed that four camera windows are set, once a photographed image is defined by a tilt command, a pan command, and a zoom command, a cutout range is cut out, divided into four camera windows, and an image is displayed. In order to replace the display contents of the window, it is necessary to re-set the initial cutout range or use a technique such as drag and drop, which is very troublesome in terms of operation. .

第3の従来例においては、複数端末から同一カメラ映像を同時に制御し、利用者毎に異なる視点で眺められる可変領域を得るためにフレームメモリから部分領域を切り出しカメラフレームと同一に生成した部分領域映像を配信するようにしているが、利用者側ディスプレイの映像出力用ウインドウには、一つのカメラ映像を例えば拡大し移動用のボタンを操作することで表示位置を変更することができるというもので、殊に映像出力用ウインドウに複数の画像を表示させるということは困難であり、このため映像出力用ウインドウ内で複数の画像の表示位置を容易に入れ換える等により変更するといったことは到底行い得ないという欠点がある。   In the third conventional example, a partial area obtained by cutting out a partial area from a frame memory and generating the same as a camera frame in order to obtain a variable area that can be viewed from different viewpoints for each user by simultaneously controlling the same camera video from a plurality of terminals. Although the video is distributed, the video output window of the user side display can change the display position by, for example, enlarging one camera video and operating the button for movement. In particular, it is difficult to display a plurality of images in the video output window. For this reason, it is impossible to change the display position of the plurality of images in the video output window by easily changing the display position. There is a drawback.

一方、本出願人は、複数の被験者に対して、広範囲のシーンを撮影した動画データの表示形態を複数提示し、どれが最も好ましいかを評価する試験を行った。その結果、1.部分的な画像よりもシーンの全体を示す画像の方が、臨場感が伝わりやすい。2.さらに、話者や主被写体の位置など、シーン全体の画像に説明を加えるような付加情報を同時に表示すると一層わかりやすい、という評価結果を得た。この評価結果から勘案すると、上記第1乃至第3の従来例においては、何れも所謂指定された部分的な映像領域を表示するよう構成されているため、ユーザにとっては必ずしもわかり易く利便性の高い表示形態ではないと言える。   On the other hand, the present applicant presented a plurality of subjects with a plurality of display forms of moving image data obtained by photographing a wide range of scenes, and conducted a test for evaluating which is most preferable. As a result, An image showing the entire scene is more easily transmitted than a partial image. 2. Furthermore, we obtained an evaluation result that it was easier to understand when additional information such as the position of the speaker and the main subject that added explanation to the image of the entire scene was displayed at the same time. Considering this evaluation result, the first to third conventional examples are all configured to display a so-called designated partial video area, so that the display is always easy to understand and highly convenient for the user. It can be said that it is not a form.

空間的に広範囲の画像を表示する際には、例えば、360度の撮像範囲を持つカメラ(全方位カメラ)で例えば会議の様子を撮影した例を考えると、例えば会議の主催Aが他の参加者B,C,D等に連絡事項を伝えている場合、このときに出力される画像は、全方位カメラの設置方向によっては、主催者Aが中途半端な位置に位置付けられてしまう可能性がある。これを防ぐためには、各参加者の居場所に注意しながら、全方位カメラの向きが適切となるよう設置する必要があり、この点使い慣れるまで面倒であり利便性を損ねる。また、全方位カメラが固定されている場合、画像の構図が適切となるよう、主催者の座る位置を予め規定することが要求されるが、これも利便性の点で好ましくない。   When displaying a wide range of images, for example, taking an example of a meeting taken with a camera having an imaging range of 360 degrees (omnidirectional camera), for example, the meeting organizer A participates in the other. When the communication items are transmitted to the persons B, C, D, etc., the image output at this time may cause the organizer A to be positioned at a halfway position depending on the installation direction of the omnidirectional camera. is there. In order to prevent this, it is necessary to install the camera so that the orientation of the omnidirectional camera is appropriate while paying attention to the location of each participant, which is troublesome and impairs convenience until it gets used to this point. Further, when the omnidirectional camera is fixed, it is required to predetermine the sitting position of the organizer so that the composition of the image is appropriate. This is also not preferable from the viewpoint of convenience.

本発明は、シーン撮影中または記録後に、ユーザ(視聴者)に煩雑な作業や配慮を強いることなく、ユーザの理解を補助しながらその時間的に変化する画像を所望の構図で表示乃至は表示変更することを可能にし、もって臨場感があり非常にわかり易くかつ見易く利便性に優れたデータ表示にすることを第1の目的とし、かつ撮影中または記録後に、画像の表示変更を行う際も、極めて簡単な操作性を実現するとともに画像理解を補助するための各被写体に関係する付加情報を各被写体との対応関係を損なわず非常にわかり易くかつ見易く利便性に優れるという観点を更に向上させることを第2の目的とし、しかも撮影中または記録後に、ユーザが既に視聴後の画像もしくは未視聴の画像の表示内容および音声内容の時間的変化を直観的に理解することを可能ならしめることを第3の目的とする動画表示用パーソナルコンピュータ、データ表示システム、動画表示方法、動画表示プログラムおよび記録媒体を提供するものである。   The present invention displays or displays a temporally changing image in a desired composition while assisting the user's understanding without forcing the user (viewer) to perform complicated work or consideration during or after scene shooting or recording. It is possible to change, and the first purpose is to provide a data display that is realistic, very easy to understand, easy to see, and excellent in convenience, and when changing the display of an image during shooting or after recording, To further improve the viewpoint of realizing extremely simple operability and making the additional information related to each subject for assisting image understanding extremely easy to understand, easy to see and easy to use without losing the correspondence with each subject. The second purpose is that the user can intuitively understand temporal changes in the display content and audio content of an image that has already been viewed or unviewed, during shooting or after recording. A third object to the dynamic image display for a personal computer, the data display system, video display method that makes it possible to, there is provided a moving picture display program, and a recording medium.

上述した課題を解決し、目的を達成するため、この発明にかかる動画表示用パーソナルコンピュータは、360度周囲の方向の被写体を撮影した全方位画像データをパノラマ画像に変換し、当該パノラマ画像を画像表示手段の画像表示領域に表示する第1の表示手段と、前記パノラマ画像の表示位置変更のための位置指定領域を表示する第2の表示手段と、前記位置指定領域上で前記パノラマ画像の表示位置変更を指定する指定手段と、前記位置指定領域中の位置が前記指定手段により指定されたことを検出すると、前記指定された位置のパノラマ画像を前記画像表示領域の一端に移動させて前記動画表示領域の表示を変更する表示変更手段と、を有し、前記表示変更手段は、前記指定手段で前記位置が指定された場合、前記指定された位置を先頭として後続する画像データを読み出すと共に、前記画像表示領域内の前記先頭位置から前記指定された位置までの画像データの読み出しを行い、前記画像表示領域内の前記位置に対する位置のパノラマ画像を先頭位置として後続するパノラマ画像とともに前記画像表示領域の一端に移動させ、かつ、前記画像表示領域内の前記先頭位置と前記画像表示領域の移動先との間のパノラマ画像を前記後続する画像データの最後尾にリンクさせることを特徴とする。 In order to solve the above-described problems and achieve the object, the personal computer for moving image display according to the present invention converts omnidirectional image data obtained by shooting a subject in a direction around 360 degrees into a panoramic image, and converts the panoramic image into an image. First display means for displaying in the image display area of the display means, second display means for displaying a position designation area for changing the display position of the panoramic image, and display of the panorama image on the position designation area When the designation means for designating position change and detecting that the position in the position designation area is designated by the designation means, the panorama image at the designated position is moved to one end of the image display area to move the moving image a display changing means for changing the display of the display area, wherein the display changing means, when the position is designated by said designating means, which is the designated location The subsequent image data is read out as the head, and the image data from the head position in the image display area to the designated position is read out, and the panorama image at the position relative to the position in the image display area is read as the head position. As a panorama image and a panorama image between the head position in the image display area and a destination of the image display area. It is characterized by linking to .

また、前記位置指定領域は、前記第1の表示手段によって表示される画像表示領域に隣接して表示されることを特徴とする。   The position designation area is displayed adjacent to an image display area displayed by the first display means.

また、前記指定手段により前記位置を指定する際は、前記画像表示領域内において前記被写体外の所要の空間内の方向を指定することを特徴とする。   Further, when the position is designated by the designation means, a direction in a required space outside the subject is designated in the image display area.

また、前記表示変更手段は、前記指定手段で前記位置が指定された場合、前記画像表示領域内の該位置のパノラマ画像を先頭位置として後続するパノラマ画像とともに前記画像表示領域の一端に移動させ、前記先頭位置の移動とともに前記一端からはみ出す分のパノラマ画像を前記後続するパノラマ画像の最後尾にリンクさせることを特徴とする。   Further, when the position is designated by the designation means, the display change means moves the panoramic image at the position in the image display area to one end of the image display area together with a subsequent panoramic image as a head position, A panoramic image that protrudes from the one end with the movement of the head position is linked to the tail end of the subsequent panoramic image.

また、前記全方位画像データは少なくとも1以上の被写体を含み、前記動画表示用パーソナルコンピュータはさらに、前記被写体に関連する付加情報を前記画像表示手段の付加情報表示領域に表示する第3の表示手段を備え、前記第3の表示手段は、前記画像表示領域に対し前記付加情報表示領域を隣接させて表示し、かつ、前記付加情報表示領域に前記画像表示領域内の被写体毎の位置に合わせ被写体毎に関係する前記付加情報を表示させることを特徴とする。   Further, the omnidirectional image data includes at least one subject, and the moving image display personal computer further includes third display means for displaying additional information related to the subject in the additional information display area of the image display means. The third display means displays the additional information display area adjacent to the image display area, and subjects the additional information display area to a position for each subject in the image display area. The additional information related to each is displayed.

また、前記第3の表示手段は、前記画像表示領域に対し、前記付加情報表示領域として、前記音源方向データに対応して発音者である前記被写体を指向する音源位置表示マークを表示する音源位置表示領域を隣接させることを特徴とする。   In addition, the third display means displays a sound source position display mark for directing the subject who is a speaker corresponding to the sound source direction data as the additional information display area with respect to the image display area. The display area is adjacent to each other.

また、前記第2の表示手段は、前記画像表示領域に画像表示した各被写体付近に該被写体に関係する付加情報として参加者IDもしくは参加者名を表示することを特徴とする。   Further, the second display means displays a participant ID or a participant name as additional information related to the subject in the vicinity of each subject displayed as an image in the image display area.

また、前記画像表示領域の付近に被写体毎の発音時の時刻乃至イベント開始後の経過時間、および発音継続時間を記録したタイムチャートを表示することを特徴とする。   In addition, a time chart in which the time of sound generation for each subject, the elapsed time after the start of the event, and the sound generation duration time are recorded is displayed in the vicinity of the image display area.

また、前記表示変更手段は、前記指定手段で前記位置が指定されて前記被写体のパノラマ画像を移動させる場合、該パノラマ画像の各被写体の移動に合わせて、前記タイムチャート内の該被写体の発音時の時刻乃至イベント開始後の経過時間、および発音継続時間の記録内容を移動させることを特徴とする。 In addition, when the panorama image of the subject is moved with the position designated by the designation unit, the display changing unit is adapted to generate a sound when the subject is sounded in the time chart in accordance with the movement of each subject of the panoramic image. The recorded content of the elapsed time from the start of the event, the elapsed time after the start of the event, and the duration of sound generation is moved.

また、前記表示変更手段は、前記タイムチャート内の所要の位置の記録内容が指定された場合、該位置からの画像データ、音声データ、付加情報を出力することを特徴とする。   Further, the display changing means outputs image data, audio data, and additional information from the position when the recording content at the required position in the time chart is designated.

また、前記画像表示領域の付近に再生用ボタン、停止用ボタン、一時停止用ボタン、巻き戻し用ボタン、早送り用ボタン等を含む操作インタフェイスを表示することを特徴とする。   In addition, an operation interface including a playback button, a stop button, a pause button, a rewind button, a fast-forward button, and the like is displayed near the image display area.

また、前記動画表示用パーソナルコンピュータはさらに、前記全方位画像データを記憶する記憶手段を備えることを特徴とする。   The moving image display personal computer further includes storage means for storing the omnidirectional image data.

また、前記記憶手段はさらに、前記被写体に関連する付加情報を記憶していることを特徴とする。   The storage means further stores additional information related to the subject.

また、前記動画表示用パーソナルコンピュータはネットワークを介してビデオサーバと接続され、前記全方位画像データは前記ビデオサーバから取得されることを特徴とする。   The moving image display personal computer is connected to a video server via a network, and the omnidirectional image data is acquired from the video server.

また、前記付加情報は前記ビデオサーバから取得されることを特徴とする。   Further, the additional information is acquired from the video server.

また、この発明のデータ表示システムは、上記のいずれか1に記載の動画表示用パーソナルコンピュータとネットワークを介して接続されるビデオサーバとからなるデータ表示システムであって、前記ビデオサーバは、少なくとも1以上の被写体を含む前記全方位画像データを取得する前記画像データ取得手段と、前記被写体に関連する付加情報を取得する前記付加情報取得手段と、前記被写体の音声や音もしくは楽音を収集する前記音響収集手段と、前記画像データ、前記付加情報、音声データ、音データ、もしくは楽音データを記憶する記憶手段と、前記画像データ、前記付加情報、前記音声データ等をライブ配信する配信手段とを備え、前記動画表示用パーソナルコンピュータはさらに、前記ビデオサーバが配信する前記画像データ、前記付加情報、前記音声データ、前記音データ、もしくは前記楽音データを受信する受信手段を備えることを特徴とする。   The data display system according to the present invention is a data display system including any one of the above-described personal computers for displaying moving images and a video server connected via a network, wherein the video server includes at least one video server. The image data acquisition unit that acquires the omnidirectional image data including the subject, the additional information acquisition unit that acquires additional information related to the subject, and the acoustic that collects voice, sound, or musical sound of the subject. Collecting means; storage means for storing the image data, the additional information, audio data, sound data, or musical sound data; and distribution means for live distribution of the image data, the additional information, the audio data, and the like, The moving image display personal computer further includes the image data distributed by the video server, Serial additional information, the audio data, characterized by comprising the sound data or receiving means for receiving the musical tone data.

また、この発明のデータ表示システムは、上記のいずれか1に記載の動画表示用パーソナルコンピュータとネットワークを介して接続されるビデオサーバとからなるデータ表示システムであって、前記ビデオサーバは、少なくとも1以上の被写体を含む前記全方位画像データを取得する前記画像データ取得手段と、前記被写体に関連する付加情報を取得する前記付加情報取得手段と、前記被写体の音声や音もしくは楽音を収集する前記音響収集手段と、前記画像データ、前記付加情報、音声データ、音データ、もしくは楽音データを記憶する記憶手段と、前記動画表示用パーソナルコンピュータはさらに、前記ビデオサーバが配信する前記画像データ、前記付加情報、前記音声データ、前記音データ、もしくは前記楽音データを受信する受信手段と、前記ビデオサーバに対して動画配信要求を送信する送信手段とを備え、前記ビデオデータはさらに、前記動画表示用パーソナルコンピュータから動画配信要求を受信すると、前記画像データ、前記付加情報、前記音声データ等を前記記憶手段から読み出して該ネットワークを介し配信する配信手段とを備えることを特徴とする。   The data display system according to the present invention is a data display system including any one of the above-described personal computers for displaying moving images and a video server connected via a network, wherein the video server includes at least one video server. The image data acquisition unit that acquires the omnidirectional image data including the subject, the additional information acquisition unit that acquires additional information related to the subject, and the acoustic that collects voice, sound, or musical sound of the subject. A collecting means; a storage means for storing the image data, the additional information, audio data, sound data, or musical sound data; and the moving picture display personal computer further includes the image data and the additional information distributed by the video server. Receiving the voice data, the sound data, or the musical sound data And transmitting means for transmitting a moving image distribution request to the video server, and the video data further receives the moving image distribution request from the moving image display personal computer, the image data, the additional information, And a distribution unit that reads out the audio data from the storage unit and distributes the data via the network.

また、この発明の動画表示方法は、動画表示用パーソナルコンピュータに動画を表示させる動画表示方法であって、360度周囲の方向の被写体を撮影した全方位画像データをパノラマ画像に変換し、当該パノラマ画像を画像表示手段の画像表示領域に表示する第1の表示工程と、前記パノラマ画像の表示位置変更のための位置指定領域を表示する第2の
表示工程と、前記位置指定領域上で前記パノラマ画像の表示位置変更を指定する指定工程と、前記位置指定領域中の位置が前記指定手段により指定されたことを検出すると、前記指定された位置のパノラマ画像を前記画像表示領域の一端に移動させて前記動画表示領域の表示を変更する表示変更工程と、を含み、前記表示変更工程は、前記指定工程で前記位置が指定された場合、前記指定された位置を先頭として後続する画像データを読み出すと共に、前記画像表示領域内の前記先頭位置から前記指定された位置までの画像データの読み出しを行い、前記画像表示領域内の前記位置に対する位置のパノラマ画像を先頭位置として後続するパノラマ画像とともに前記画像表示領域の一端に移動させ、かつ、前記画像表示領域内の前記先頭位置と前記画像表示領域の移動先との間のパノラマ画像を前記後続する画像データの最後尾にリンクさせることを特徴とする。
The moving image display method of the present invention is a moving image display method for displaying a moving image on a personal computer for moving image display. The moving image display method converts omnidirectional image data obtained by shooting a subject in a direction around 360 degrees into a panoramic image. A first display step of displaying an image in an image display area of the image display means; a second display step of displaying a position designation area for changing the display position of the panorama image; and the panorama on the position designation area When the designation step for designating the change of the display position of the image and detecting that the position in the position designation area is designated by the designation means, the panorama image at the designated position is moved to one end of the image display area. the includes a display change step of changing the display of the moving image display area, wherein the display changing step, when the position is designated by said designation step Te, the designation The subsequent image data is read starting from the specified position, and the image data from the start position in the image display area to the designated position is read, and the panorama of the position relative to the position in the image display area The image is moved to one end of the image display area together with the subsequent panorama image with the image as the head position, and the panorama image between the head position in the image display area and the destination of the image display area is moved to the subsequent image. It is characterized by linking to the end of the data .

また、この発明の動画表示プログラムは、上記に記載の方法をコンピュータに実行させることを特徴とする。   A moving image display program according to the present invention causes a computer to execute the method described above.

また、この発明の記録媒体は、上記に記載のプログラムを記録したことを特徴とする。   The recording medium of the present invention is characterized by recording the program described above.

本発明によれば、シーン撮影時にユーザに煩雑な作業や配慮を強いることなく、撮影中または記録後に、時間的に変化する画像を所望の構図で表示することが可能となり、かつ撮影中または記録後に、画像とその付加情報を互いの対応関係を明確にして表示し、その対応関係を保持したまま表示形態乃至表示位置を変更可能にし、更にタイムチャートの表示を含め直観的にユーザの理解を補助することが可能となり、非常にわかり易くかつ扱い易く利便性に優れるものである。   According to the present invention, it is possible to display a temporally changing image with a desired composition during shooting or after recording without forcing the user to perform complicated work or consideration during scene shooting, and during shooting or recording. Later, the image and its additional information are displayed with their corresponding relationship clearly displayed, the display form or display position can be changed while maintaining the corresponding relationship, and the user's understanding is intuitive including the time chart display. It is possible to assist, and it is very easy to understand, easy to handle and excellent in convenience.

即ち、本発明によれば、画像データ取得手段により360度周囲の方向の複数の被写体を撮影し、パノラマ画像(乃至パノラマ的画像)に変換して画像表示するよう構成したため、部分的な画像ではなく、360度周囲のシーン全体が広範囲な画像として表示されるものとなり非常に臨場感が伝わり易く、かつパノラマ画像(乃至パノラマ的画像)に隣接乃至近接して所定の付加情報表示領域を設けて例えば三角印の話者位置表示マーク(話者表示マーク)を話者である参加者の位置に対応させ表示するようにしたため、シーン全体の画像に話者位置や主被写体の位置等の所謂説明表示を加えるものとなりパノラマ画像(乃至パノラマ的画像)が一層わかり易く、かつ非常に見易く興味を引付けるものとなり、しかもパノラマ画像(乃至パノラマ的画像)に隣接乃至近接して位置指定領域を設けて例えば指定手段により所望の位置を指定すると、画像の所望の位置(指定位置)を先頭位置として所謂スクロールするように画像全体を移動させることが可能となるため、極めて簡単な操作で好みの画像に変更することが可能であり非常に操作性がよくかつ扱い易く利便性に優れる効果がある。   In other words, according to the present invention, the image data acquisition unit is configured to shoot a plurality of subjects in directions around 360 degrees, convert them into panoramic images (or panoramic images), and display the images. In addition, the entire 360-degree scene is displayed as a wide range of images, making it easy to convey a sense of realism, and providing a predetermined additional information display area adjacent to or close to the panoramic image (or panoramic image). For example, since a speaker position display mark (speaker display mark) indicated by a triangle is displayed in correspondence with the position of the participant who is the speaker, so-called explanations such as the position of the speaker and the position of the main subject are displayed on the entire scene image. A panoramic image (or panoramic image) is more easily understood and very easy to see and attracts, and a panoramic image (or panoramic image) is added. When a position designation area is provided adjacent to or close to the (ma- matic image) and a desired position is designated by, for example, designation means, the entire image is moved so as to be scrolled with the desired position (designated position) of the image as the head position. Therefore, it is possible to change to a favorite image by an extremely simple operation, and there is an effect that the operability is very good, the handling is easy, and the convenience is excellent.

また、本発明によれば、位置指定領域のような操作インタフェイスを表示するため、ユーザは、撮影中に画像データ取得手段の向きを変える等の調整を行わなくとも、撮影中のシーンの構図を容易に変更することができ、常にバランスよく最適で非常に見易い構図を設定し、この結果、今誰が発話しているのかを一目で直観的に知ることができる。このことは例えば画像データ取得手段の構成要素であるカメラ部を一度ある位置、例えばイベント会場等のテーブル上等のある位置等に一度置いた後は、カメラ部側の設定等を調整する必要が全くないことを意味しており、したがってイベント会場側においても高度な技術を要することなく誰でも使用することができ、この観点からも非常に扱い易く利便性に優れる効果がある。   Further, according to the present invention, since the operation interface such as the position designation area is displayed, the user can compose the scene being photographed without performing adjustments such as changing the orientation of the image data acquisition means during photographing. Can be easily changed, and a composition that is always optimally balanced and very easy to see is set. As a result, it is possible to intuitively know who is speaking at a glance. This means that, for example, once the camera unit, which is a component of the image data acquisition means, is once placed at a certain position, for example, a certain position on a table such as an event venue, it is necessary to adjust the settings on the camera unit side. This means that nobody can use it at the event venue side without requiring advanced technology, and from this point of view, it is very easy to handle and has the advantage of excellent convenience.

(実施の形態1)
以下に、図1乃至図14を参照し本発明の実施の形態1に係わるデータ表示システムについて説明する。図1は本実施の形態のデータ表示システム10を概略的に説明する説明図である。図1において、12はビデオサーバであり、14は動画表示用PC(Personal Computer)であり、互いにネットワーク(乃至はLANケーブル)16を通じて接続されている。但し、ビデオサーバ12と動画表示用PC14は同じ場所にある必要はなく、ネットワーク16を通じて物理的に接続されていれば任意の離れた場所に設置可能である。
(Embodiment 1)
The data display system according to Embodiment 1 of the present invention will be described below with reference to FIGS. FIG. 1 is an explanatory diagram schematically illustrating a data display system 10 according to the present embodiment. In FIG. 1, reference numeral 12 denotes a video server, and reference numeral 14 denotes a moving image display PC (Personal Computer), which are connected to each other through a network (or a LAN cable) 16. However, the video server 12 and the moving image display PC 14 do not need to be in the same place, and can be installed in any remote place as long as they are physically connected through the network 16.

ビデオサーバ12は、図2に示すように、例えば詳しくは後述する画像変換プログラム、話者検出プログラム、動画配信プログラム、動画表示プログラム等が記録可能なEPROM(記憶手段:Erasable Programmable Read-only Memory)22と、例えば後述する付加情報として参加者ID、参加者名、音源位置表示マーク(以下話者位置表示マーク23と称する)等が記憶可能なRAM(記憶手段:Random Access Memory)24と、VRAM(記憶手段:Video Random Access Memory)26と、カメラ(画像データ取得手段)28が撮影した画像データ(動画データもしくは連続静止画データ)を詳しくは後述する演算処理を用いて変換した横長矩形状の画像(以下パノラマ画像と称する)をVRAM26あるいはHDD(記憶手段:Hard Disk Drive)30に記憶するビデオキャプチャ32を有する。また、マイクアレイ(音響収集手段)34が被写体である話者(参加者)が発する音声や音、および話者もしくは周囲の音源が発する楽音等を集音し生成した音声データ、音データ、もしくは楽音データもHDD30に記録可能である。   As shown in FIG. 2, the video server 12 is an EPROM (storage means: Erasable Programmable Read-only Memory) capable of recording, for example, an image conversion program, a speaker detection program, a moving image distribution program, a moving image display program, etc., which will be described later in detail. 22, a RAM (storage means: Random Access Memory) 24 capable of storing, for example, a participant ID, a participant name, a sound source position display mark (hereinafter referred to as a speaker position display mark 23), and the like as additional information described later, and a VRAM (Storage means: Video Random Access Memory) 26 and image data (moving picture data or continuous still picture data) taken by a camera (image data acquisition means) 28 are converted into a horizontally long rectangular shape using arithmetic processing described later in detail. Video for storing images (hereinafter referred to as panoramic images) in the VRAM 26 or HDD (storage means: Hard Disk Drive) 30 With a Yapucha 32. Also, voice data, sound data, or sound data generated by collecting sounds and sounds produced by a speaker (participant) whose microphone array (sound collecting means) 34 is a subject and musical sounds emitted by a speaker or a surrounding sound source, or the like Musical sound data can also be recorded in the HDD 30.

また、RAM24、VRAM26、HDD30内の付加情報や、画像データ、音声データ等のアドレスを制御するアドレス制御部38と、パノラマ画像や付加情報等を画像表示する画像表示手段としてのディスプレイ40と、キーボード42と、マイクアレイ34が集音し生成した音声データ、音データ、もしくは楽音データを再生し出力する音響再生部(音響出力手段)44およびその一部をなすスピーカ46と、画像データ、音声データ等のネットワーク16を介しての送受信を行う送受信部(配信手段)48と、通信インタフェイス(例えばIEEE1394等)50と、全体を制御するCPU(Central Processing Unit)52とを備えている。   In addition, an address control unit 38 that controls addresses of RAM 24, VRAM 26, and HDD 30, additional information, image data, audio data, and the like, a display 40 as an image display unit that displays panoramic images, additional information, and the like, and a keyboard 42, a sound reproducing unit (sound output means) 44 for reproducing and outputting sound data, sound data, or musical sound data collected and generated by the microphone array 34, and a speaker 46 constituting a part thereof, image data, sound data A transmission / reception unit (distribution means) 48 that performs transmission / reception via the network 16, a communication interface (for example, IEEE 1394) 50, and a CPU (Central Processing Unit) 52 that controls the whole.

カメラ28は、図3に示すように、平板状の台座56上の中心位置に集光レンズ58を垂直上方に向けた状態で載置された所謂ビデオカメラ(全方位カメラ)であり、例えば外観的には円筒状の構成を有し、内部には撮像素子(図示せず)を備えている。カメラ28の上方を向く前面の外周側もしくは円筒状をなす側面には、カメラ28の外周位置より更に垂直上方の方向に延びてカメラ28の集光レンズ58を含む前面前方を円筒状に包囲する無色で光透過性のよい透明包囲体60が配設されている。透明包囲体60の上方先端側には、該先端側より集光レンズ58の方向(即ち下方)に全体的に双曲面をなして突出する双曲面ミラー62が装着されている。   As shown in FIG. 3, the camera 28 is a so-called video camera (omnidirectional camera) placed in a state where the condenser lens 58 is directed vertically upward at a center position on a flat pedestal 56. Specifically, it has a cylindrical configuration and includes an image sensor (not shown) inside. On the outer peripheral side of the front surface facing the upper side of the camera 28 or the side surface forming a cylindrical shape, the front side including the condenser lens 58 of the camera 28 is surrounded in a cylindrical shape. A transparent envelope 60 that is colorless and has good light transmission is disposed. A hyperboloid mirror 62 is mounted on the upper front end side of the transparent enclosure 60 so as to project a hyperboloid as a whole from the front end side in the direction of the condenser lens 58 (ie, downward).

カメラ28、透明包囲体60、および双曲面ミラー62でカメラ部64が構成される。集光レンズ58と双曲面ミラー62との間の距離は、双曲面ミラー62に略水平的外方の360度周囲の方向に存在する被写体(図示せず)が最適な大きさの被写体として撮影できる距離に設定されていることが好ましい。この関係で双曲面ミラー62は最適な大きさの被写体を撮影できるように上下の移動調整が可能となるようにしてもよい。   A camera unit 64 is configured by the camera 28, the transparent enclosure 60, and the hyperboloid mirror 62. The distance between the condensing lens 58 and the hyperboloidal mirror 62 is that a subject (not shown) that exists in the direction of 360 degrees around the hyperboloidal mirror 62 substantially horizontally outward is photographed as an optimal subject. It is preferable that the distance is set as possible. In this relationship, the hyperboloidal mirror 62 may be adjusted so that it can move up and down so that an object of an optimal size can be photographed.

カメラ28は、双曲面ミラー62に映る像を撮影することで、略水平的外方の360度周囲の方向(即ち全方位)に存在する被写体を撮影することができる。カメラ28が撮影した全方位の画像は、双曲面ミラー62に映る像を捉えるため、図4に示すように、ドーナッツ形状の画像(以下ドーナッツ画像と称する)となる。ドーナッツ画像は詳しくは後述する演算によりパノラマ画像に変換される。   The camera 28 can shoot a subject existing in a direction around 360 degrees (that is, omnidirectional) approximately horizontally outward by capturing an image reflected on the hyperboloidal mirror 62. The omnidirectional image captured by the camera 28 is a donut shaped image (hereinafter referred to as a donut image) as shown in FIG. The donut image is converted into a panoramic image by a calculation described in detail later.

マイクアレイ34は、図3に示すように、平板状の台座56上においてカメラ部64の周囲の例えば4箇所の位置に設置した4つのマイク66により構成されている。このように複数のマイク66を用いることにより360度周囲の被写体である参加者が複数存在する場合でも、発言を行う所謂話者である参加者の方向を検出することができる。即ち複数のマイク66に入力される音の時間差を検出することで話者の方向を検出することが可能となる。   As shown in FIG. 3, the microphone array 34 includes four microphones 66 installed at, for example, four positions around the camera unit 64 on the flat base 56. Thus, by using a plurality of microphones 66, even when there are a plurality of participants who are subjects around 360 degrees, it is possible to detect the direction of the participant who is a so-called speaker who speaks. That is, the direction of the speaker can be detected by detecting the time difference between the sounds input to the plurality of microphones 66.

動画表示用PC14は、図5に示すように、例えば詳しくは後述する動画表示プログラム等が記録可能なEPROM(記憶手段:Erasable Programmable Read-only Memory)72と、ネットワーク16を介しビデオサーバ12から取得した後述する付加情報として例えば参加者ID、参加者名、話者位置表示マーク23等が記憶可能であるRAM(記憶手段:Random Access Memory)74と、VRAM(記憶手段:Video Random Access Memory)76と、ネットワーク16を介しビデオサーバ12から取得した時間的に変化し得る画像データをVRAM76に記憶する他、所要の操作でHDD(記憶手段:Hard Disk Drive)78にも記憶するビデオキャプチャ80とを有する。また、ネットワーク16を介しビデオサーバ12から取得した音声データ、音データ、もしくは楽音データもHDD78に記録可能である。   As shown in FIG. 5, the moving image display PC 14 is acquired from the video server 12 via the EPROM (storage means: Erasable Programmable Read-only Memory) 72 capable of recording a moving image display program, which will be described in detail later, and the network 16. As additional information described later, for example, a RAM (storage means: Random Access Memory) 74 and a VRAM (storage means: Video Random Access Memory) 76 capable of storing a participant ID, a participant name, a speaker position display mark 23, and the like. In addition to storing the image data acquired from the video server 12 via the network 16 and changing with time in the VRAM 76, the video capture 80 is also stored in an HDD (storage means: Hard Disk Drive) 78 by a required operation. Have. Also, audio data, sound data, or musical sound data acquired from the video server 12 via the network 16 can be recorded in the HDD 78.

また、RAM74、VRAM76、HDD78内の画像データや音声データ、付加情報等のアドレスを制御するアドレス制御部84と、パノラマ画像や付加情報等を画像表示する画像表示手段としてのディスプレイ86と、キーボード88と、ディスプレイ86上に表示された詳しくは後述する操作用の表示インタフェイスとしての位置指定領域90に操作入力を与えるマウス(指定手段)92と、ネットワーク16を介しビデオサーバ12から取得した音声データ、音データ、もしくは楽音データを再生する音響再生部(音響出力手段)94およびその一部をなすスピーカ96と、画像データ、音声データ等を含む所要のデータのネットワーク16を介しての送受信を行う送受信部(受信手段、画像データ取得手段、音響収集手段、付加情報取得手段)98と、通信インタフェイス(例えばIEEE1394等)100と、全体を制御するCPU(Central Processing Unit)102とを備えている。   The RAM 74, the VRAM 76, and the HDD 78 have an address control unit 84 for controlling addresses of image data, audio data, additional information, a display 86 as an image display means for displaying panoramic images and additional information, and a keyboard 88. In addition, a mouse (designating means) 92 for giving an operation input to a position designation area 90 as a display interface for operation described later in detail displayed on the display 86, and audio data acquired from the video server 12 via the network 16 , And a sound reproducing unit (sound output means) 94 for reproducing sound data or musical sound data and a speaker 96 constituting a part thereof, and necessary data including image data, sound data and the like are transmitted / received via the network 16. Transmission / reception unit (reception means, image data acquisition means, sound collection means, additional information And acquisition means) 98, a communication interface (e.g., IEEE1394 or the like) 100, and a CPU (Central Processing Unit) 102 that controls the entire.

尚、VRAM76、ビデオキャプチャ80、ディスプレイ86、マウス92、動画表示プログラム、および、動画表示プログラムを実行するCPU102等により特許請求の範囲に記載の第1の表示手段、第2の表示手段、第3の表示手段、指定手段、表示変更手段、および、音源方向識別手段が構成される。即ち具体的には動画表示プログラムを構成する各ステップのうち所定のステップを実行することにより第1の表示手段、第2の表示手段、第3の表示手段、指定手段、および表示変更手段等を機能的に構成するものである。   Note that the VRAM 76, the video capture 80, the display 86, the mouse 92, the moving image display program, the CPU 102 that executes the moving image display program, etc. Display means, designation means, display change means, and sound source direction identification means. Specifically, the first display means, the second display means, the third display means, the designation means, the display change means, etc. are executed by executing predetermined steps among the steps constituting the moving image display program. It is configured functionally.

本実施の形態のデータ表示システム10の動作上の概要は、図6に示すように、例えば動画表示用PC14が動画表示プログラムに基づいてビデオサーバ12に対し動画配信要求を送信し、ビデオサーバ12が動画配信要求を受信すると、ビデオサーバ12が動画配信プログラムに基づいてカメラ28からの画像データ、およびマイクアレイ34からの音声データ等を取込むとともに、話者検出プログラムを実行させマイクアレイ34からの音声データに基づいて話者の方向を示す話者方向データ(音源方向データ)を生成させ、この話者方向データをも取込み、かつ動画配信プログラムに基づいて画像データ、音声データ、話者方向データ等を動画表示用PC14に配信する。これにより動画表示用PC14が動画表示プログラムに基づいてディスプレイ86に被写体である参加者を含むパノラマ画像114(図7参照)を生成して画像表示し、かつスピーカ96から話者の音声を出力させるというものである。   As shown in FIG. 6, for example, the moving image display PC 14 transmits a moving image distribution request to the video server 12 based on the moving image display program as shown in FIG. When the video server 12 receives the video distribution request, the video server 12 takes in the image data from the camera 28, the voice data from the microphone array 34, and the like based on the video distribution program, and executes the speaker detection program from the microphone array 34. The speaker direction data (sound source direction data) indicating the direction of the speaker is generated based on the voice data, and the speaker direction data is also captured, and the image data, the voice data, and the speaker direction based on the video distribution program Data and the like are distributed to the moving image display PC 14. Thus, the moving image display PC 14 generates a panoramic image 114 (see FIG. 7) including the participant who is the subject on the display 86 based on the moving image display program, displays the image, and outputs the speaker's voice from the speaker 96. That's it.

一方、ビデオサーバ12から取得した時間的に変化し得る画像データは、カメラ部64が360度周囲の方向を撮影するため、図4に示すように、時間的に変化し得るドーナッツ画像を形成するが、動画表示プログラムの実行により、図7に示すように、このドーナッツ画像は、所謂横長矩形状の画像、即ちパノラマ画像114に変換される。パノラマ画像114に変換した場合、カメラ部64を囲うようにカメラ部64の周囲に存在する複数の被写体としての参加者は、横1列に並んで画像表示されるものとなる。これにより複数の被験者に対して広範囲のシーンを撮影した動画データの表示形態を複数提示し、どれが最も好ましいかを評価する試験を行った際の多くの評価である、上記1.部分的な画像よりもシーンの全体を示す画像の方が、臨場感が伝わりやすい、という評価結果を満たすものとなった。   On the other hand, the time-varying image data acquired from the video server 12 forms a donut image that can change with time as shown in FIG. 4 because the camera unit 64 captures a direction around 360 degrees. However, by executing the moving image display program, as shown in FIG. 7, this donut image is converted into a so-called horizontally long rectangular image, that is, a panoramic image 114. When converted to the panoramic image 114, participants as a plurality of subjects existing around the camera unit 64 so as to surround the camera unit 64 are displayed in a horizontal row. As a result, a number of evaluations are performed when a plurality of test forms are presented in which a plurality of display forms of moving image data obtained by photographing a wide range of scenes are presented to a plurality of subjects and which is most preferable is evaluated. The image showing the whole scene is more satisfying than the partial image, and the evaluation result that the sense of reality is more easily transmitted is satisfied.

パノラマ画像114は、図8に示すように、第1の表示手段の起動とともに動画表示用PC14におけるディスプレイ86の所定の動画表示領域112内に表示されるものであり、パノラマ画像114の下端の境界には第2の表示手段の起動とともに所定の付加情報表示領域(音源位置表示領域)116が隣接して表示され、この付加情報表示領域116中には各被写体のうち話者である参加者を示す付加情報として例えば三角印の話者位置表示マーク23が該話者の位置に対応し、かつ該話者を指し示して表示される。この話者位置表示マーク23により、複数の被験者に対して広範囲のシーンを撮影した動画データの表示形態を複数提示し、どれが最も好ましいかを評価する試験を行った際の多くの評価である、上記の2.話者や主被写体の位置など、シーン全体の画像に説明を加えるような付加情報を同時に表示すると一層わかりやすい、という評価結果を満たすものとなった。   As shown in FIG. 8, the panoramic image 114 is displayed in a predetermined moving image display area 112 of the display 86 in the moving image display PC 14 when the first display unit is activated. When the second display means is activated, a predetermined additional information display area (sound source position display area) 116 is displayed adjacently. In this additional information display area 116, a participant who is a speaker among the subjects is displayed. As additional information to be displayed, for example, a speaker position display mark 23 with a triangle mark corresponds to the position of the speaker and is displayed by pointing to the speaker. This speaker position display mark 23 shows many evaluations when a plurality of subjects are presented with a plurality of display forms of moving image data obtained by photographing a wide range of scenes, and a test for evaluating which is most preferable is performed. 2 above. The evaluation result that the additional information that adds explanation to the image of the entire scene, such as the position of the speaker and the main subject, is displayed at the same time is easier to understand.

また、図8に示すように、パノラマ画像114の上端の境界には例えば第3の表示手段の起動とともに位置指定領域90が隣接して表示される。例えば、図9−1に示すように、位置指定領域90内で、例えばマウス92により画像を移動する際の先頭位置Eを指定しクリックすると、図9−2に示すように、パノラマ画像114中の該先頭位置Eに対応する点線で示した位置を先頭位置として、この先頭位置から図示右側に続く(後続する)画像、即ち参加者A,Bを含む画像を先頭位置がパノラマ画像114中の図示左側の一端の位置に一致するまで移動させ、かつ移動する参加者A,Bを含む画像の最後尾に先端位置よりも図示左側に位置した画像、即ち参加者C,Dを含む画像をリンクさせ、これにより前記画像データの表示位置を所謂スクロールする如く変更する。   As shown in FIG. 8, for example, a position designation area 90 is displayed adjacent to the upper boundary of the panoramic image 114 when the third display unit is activated. For example, as shown in FIG. 9A, when the head position E when the image is moved with the mouse 92 is designated and clicked in the position designation area 90, for example, in the panoramic image 114, as shown in FIG. The position indicated by the dotted line corresponding to the head position E is the head position, and an image that continues from the head position to the right side of the figure (that is, an image including the participants A and B) has a head position in the panoramic image 114. The image is moved until it coincides with the position of one end on the left side in the drawing, and an image located on the left side in the drawing from the tip position, that is, an image including the participants C and D, is linked to the end of the image including the moving participants A and B. Thus, the display position of the image data is changed so as to be scrolled.

また、この画像データの表示位置を変更する際には、第2の表示手段の起動とともに付加情報表示領域116内において該変更後の話者である参加者に対応する位置に話者位置表示マーク23も移動する。   When the display position of the image data is changed, the speaker position display mark is placed at a position corresponding to the participant who is the speaker in the additional information display area 116 upon activation of the second display means. 23 also moves.

但し、パノラマ画像114の画像データの表示位置を変更する際には、位置指定領域90内においてマウス92により先頭位置Eを指定しクリックした後マウス92により移動先位置を指定しクリックすると、該先頭位置に後続する画像データが2回目のクリックによる移動先位置に移動するというようにしてもよい。この場合、画像データを図示右方向に所謂スクロールするように移動させることも可能となる。   However, when changing the display position of the image data of the panoramic image 114, if the head position E is designated and clicked with the mouse 92 in the position designation area 90 and then clicked, the destination position is designated with the mouse 92 and clicked. The image data following the position may be moved to the movement destination position by the second click. In this case, the image data can be moved so as to scroll in the right direction in the figure.

尚、動画表示領域112の上方側において、Video Viewerを表示したフィールド120をマウス92で指定しドラッグアンドドロップ等を行うと、該動画表示領域112全体を所要の位置に移動させることが可能である。   When the field 120 displaying the Video Viewer is designated with the mouse 92 and dragging and dropping or the like is performed above the moving image display area 112, the entire moving image display area 112 can be moved to a required position. .

次に、例えば文献(A.M.Bruckstein and T.J.Richardson: “Omniview Cameras with Curved Surface Mirrors”, Proc. of the IEEE Workshop on Omnidirectional Vision 2000, pp.79-84) に記載された方法を参考に、ドーナッツ画像をパノラマ画像に変換する方法の一例を説明する。図10−1は、双曲面ミラー62を使用したカメラ28における画像の変換原理を説明する説明図である。動画表示プログラムは図10−1に示すように、ドーナッツ画像を、横軸を方位角、縦軸を仰角とする曲面に映されたパノラマ画像に座標変換する。また 図10−2は、図4に示したカメラ28の幾何的関係を説明する説明図であり、図10−2中のカメラ28の光学系は中心射影モデルである。ここで、図10−1、図10−2中の各変数の意味は、下記の通りである。   Next, referring to the method described in the literature (AMBruckstein and TJRichardson: “Omniview Cameras with Curved Surface Mirrors”, Proc. Of the IEEE Workshop on Omnidirectional Vision 2000, pp. 79-84), An example of a method for converting to a panoramic image will be described. FIG. 10A is an explanatory diagram for explaining the principle of image conversion in the camera 28 using the hyperboloid mirror 62. As shown in FIG. 10A, the moving image display program coordinate-converts the donut image into a panoramic image projected on a curved surface having the horizontal axis as the azimuth and the vertical axis as the elevation angle. 10-2 is an explanatory diagram for explaining the geometric relationship of the camera 28 shown in FIG. 4, and the optical system of the camera 28 in FIG. 10-2 is a central projection model. Here, the meaning of each variable in FIGS. 10A and 10B is as follows.

(u, v):ドーナッツ画像における座標
(u0, v0):ドーナッツ画像における双曲面ミラー62の中心の座標
(X, Y):パノラマ画像114における座標
r: (u0, v0)から(u, v)への画素単位の距離
rmax:ドーナッツ画像における双曲面ミラー62の画素単位の半径
θ:方位角 (°)
φ:仰角(°)
ψ:カメラ28の光軸からの頂角 (°)
F:双曲面ミラー62の焦点
F’:双曲面ミラー62と対をなす双曲面の焦点、カメラ28の光学中心に一致する。
このとき、頂角ψと仰角φとの間に、以下の関係が成立する。
(u, v): Coordinates in the donut image
(u 0 , v 0 ): coordinates of the center of the hyperboloidal mirror 62 in the donut image
(X, Y): Coordinates in panorama image 114
r: Distance in pixels from (u 0 , v 0 ) to (u, v)
r max : Radius of the hyperboloidal mirror 62 in the donut image in pixel units θ: Azimuth angle (°)
φ: Elevation angle (°)
ψ: vertical angle from the optical axis of the camera 28 (°)
F: Focus of hyperboloid mirror 62
F ′: The focal point of the hyperboloid paired with the hyperboloidal mirror 62 coincides with the optical center of the camera 28.
At this time, the following relationship is established between the apex angle ψ and the elevation angle φ.

Figure 0004414708
Figure 0004414708

ここで、 here,

Figure 0004414708
Figure 0004414708

である。また、φmaxはドーナッツ画像上の半径rmaxの位置に対応する仰角φの値であり、これはカメラ28の仰角方向の上側撮影許容限界値を表す。rmaxとφmaxの値は一般に容易に知ることができる。 It is. Φ max is the value of the elevation angle φ corresponding to the position of the radius r max on the donut image, and this represents the upper photographing allowable limit value of the camera 28 in the elevation angle direction. The values of r max and φ max are generally easily known.

ここで、以上の関係式を用いて、ドーナッツ画像をパノラマ画像114に変換する手順を説明する。撮影からパノラマ画像114の配信を一時に行う場合、変換処理の処理コストが問題となるため、図11に示すように、上記の手順に基づいた座標変換テーブルを予め作成しておくと好適である。図11の座標変換テーブルにおいては、θ= 0°を基準としたときのパノラマ画像114の各座標(X, Y)に対応するドーナッツ画像の座標(u, v)を格納しておく。   Here, a procedure for converting a donut image into a panoramic image 114 using the above relational expression will be described. When the panoramic image 114 is delivered at a time from shooting, the processing cost of the conversion process becomes a problem. Therefore, as shown in FIG. 11, it is preferable to create a coordinate conversion table based on the above procedure in advance. . In the coordinate conversion table of FIG. 11, the coordinates (u, v) of the donut image corresponding to the respective coordinates (X, Y) of the panoramic image 114 with θ = 0 ° as a reference are stored.

以下、座標変換テーブルの作成方法を説明する。
1.点(X, Y)に対応する方位角θおよび仰角φを、次式により求める。
Hereinafter, a method for creating a coordinate conversion table will be described.
1. An azimuth angle θ and an elevation angle φ corresponding to the point (X, Y) are obtained by the following equations.

Figure 0004414708
Figure 0004414708

ここで、Xmax、Ymaxは、パノラマ114画像の横方向、縦方向の画素数をそれぞれ表し、これは動画表示領域の大きさに一致する。また、φminは、カメラ28の仰角方向の下側撮影許容限界値を表す。また、図11に示す座標変換テーブルにおいて、θを左向き正としたのは、図3のカメラ28において双曲面ミラー62が上側に付けられており、画像を左右反転する必要があることによる。
2.(1)式を用いて、仰角φに対応する頂角ψを算出する。
3.頂角ψに対応する半径rを、次式により求める。
Here, X max and Y max represent the number of pixels in the horizontal direction and the vertical direction of the panorama 114 image, respectively, and this corresponds to the size of the moving image display area. Further, φ min represents the lower photographing allowable limit value of the camera 28 in the elevation angle direction. In the coordinate conversion table shown in FIG. 11, the reason why θ is positive to the left is that the hyperboloidal mirror 62 is attached on the upper side in the camera 28 of FIG. 3, and the image needs to be reversed left and right.
2. The vertex angle ψ corresponding to the elevation angle φ is calculated using the equation (1).
3. A radius r corresponding to the apex angle ψ is obtained by the following equation.

Figure 0004414708
Figure 0004414708

ここで、 here,

Figure 0004414708
Figure 0004414708

であり、ψmaxはドーナッツ画像上の半径rmaxの位置に対応する頂角ψの値である。ψmaxの値は、(1)式にφmaxを代入することにより求めることができる。
4.以上で得られた (r, θ)に対応するドーナッツ画像上の座標(u, v)を、次式により求める。
Ψ max is the value of the apex angle ψ corresponding to the position of the radius r max on the donut image. The value of ψ max can be obtained by substituting φ max into equation (1).
4). The coordinates (u, v) on the donut image corresponding to (r, θ) obtained above are obtained by the following equation.

Figure 0004414708
Figure 0004414708

5.(7)式で求めた(u,v)は一般に整数とはならないため、ドーナッツ画像において、その最近傍の座標(u,v)(u,v共に整数)を参照するためのアドレスを座標変換テーブルに書き込む。以上の1.乃至5.の動作を、全ての(X, Y) (0 < X < Xmax, 0 < Y < Ymax)について実行することにより、座標変換テーブルを作成することができる。 5). Since (u, v) obtained by equation (7) is generally not an integer, the address used to refer to the nearest coordinates (u, v) (both u and v are integers) in the donut image is coordinate-transformed. Write to the table. 1 above. To 5. Operation, all of the (X, Y) by performing the (0 <X <X max, 0 <Y <Y max), it is possible to create a coordinate conversion table.

次に、図12を参照しビデオサーバ12側の話者検出プログラムについて説明する。まずステップ1201において起動命令を認識した後、ステップ1202においてマイクアレイ34の各マイク66から音声データを取得する。続いてステップ1203(音源方向検出手段)において各マイク66に入力される音声の時間差から話者方向を検出し話者方向データを生成し例えばRAM24に記憶する。しかる後、ステップ1204において本フローを終了するか(ステップ1204:Yes)、否かを判定し、終了でない場合は(ステップ1204:No)、ステップ1202に戻る。但し、話者方向を検出する際は、例えば1秒毎のタイミングで検出するように設定する。   Next, a speaker detection program on the video server 12 side will be described with reference to FIG. First, after an activation command is recognized in step 1201, voice data is acquired from each microphone 66 of the microphone array 34 in step 1202. Subsequently, in step 1203 (sound source direction detection means), the speaker direction is detected from the time difference between the sounds input to the microphones 66, and the speaker direction data is generated and stored in the RAM 24, for example. Thereafter, in step 1204, it is determined whether or not to end this flow (step 1204: Yes). If not (step 1204: No), the process returns to step 1202. However, when detecting the speaker direction, for example, it is set to detect at the timing of every second.

次に、図13を参照しビデオサーバ12側の動画配信プログラムについて説明する。まずステップ1301において例えばネットワーク16を介し動画配信要求を受信した場合、ステップ1302において動画配信要求とともに動画表示プログラムがある旨を示すデータがあるか否かを検出することで、今回の動画配信要求を送信した動画表示用PC14に動画表示プログラムがあるか否かを判定し、ステップ1304に移行する。   Next, the moving picture distribution program on the video server 12 side will be described with reference to FIG. First, when a moving image distribution request is received via the network 16 in step 1301, for example, by detecting whether or not there is data indicating that there is a moving image display program together with the moving image distribution request in step 1302, the current moving image distribution request is determined. It is determined whether or not there is a moving image display program in the transmitted moving image display PC 14, and the process proceeds to step 1304.

但し、ステップ1302においてはビデオサーバ12側の所要のメモリ(例えばRAM24や所定のテーブル等)に記憶されたデータを参照することにより動画表示用PC14が動画表示プログラムを所持するか否かを能動的に判定するようにしてもよい。かくてステップ1302において動画表示用PC14が動画表示プログラムを所持していないことが判定された場合は(ステップ1302:No)、ステップ1303において例えばEPROM22に格納されている動画表示プログラムをネットワーク16を介し動画表示用PC14にダウンロードし、ステップ1304に進む。   However, in step 1302, whether or not the moving picture display PC 14 has a moving picture display program is actively determined by referring to data stored in a required memory (for example, the RAM 24 or a predetermined table) on the video server 12 side. You may make it determine to. Thus, when it is determined in step 1302 that the moving image display PC 14 does not have a moving image display program (step 1302: No), the moving image display program stored in, for example, the EPROM 22 is transmitted via the network 16 in step 1303. Download to the moving image display PC 14 and proceed to Step 1304.

ステップ1304においては今回の動画配信要求がライブ配信を要求するものであることを認識し、ステップ1305においてカメラ28から現在の動画データを取得するとともにエンコード(例えば圧縮を含む、以下同様)し例えばMMS(Microsoft Media Server)プロトコルによりネットワーク16を介して動画表示用PC14に送信し、ステップ1306においてマイクアレイ34から現在の音声データ等を取得するとともにエンコードし、例えばMMSプロトコルによりネットワーク16を介して動画表示用PC14に送信し、かつステップ1307(付加情報取得手段)において付加情報(例えばRAM24に記憶した参加者ID、参加者名、話者方向データ等を含む)を取得するとともにエンコードし、例えばMMSプロトコルによりネットワーク16を介して動画表示用PC14に送信する。   In step 1304, it is recognized that the current video distribution request is a request for live distribution, and in step 1305, current video data is acquired from the camera 28 and encoded (for example, including compression, the same applies hereinafter), for example, MMS. (Microsoft Media Server) The protocol is transmitted to the moving picture display PC 14 via the network 16 by the protocol, and the current audio data and the like are acquired and encoded from the microphone array 34 in step 1306, and the moving picture is displayed via the network 16 by the MMS protocol, for example. The additional information (including the participant ID, the participant name, the speaker direction data, etc. stored in the RAM 24) is acquired and encoded in step 1307 (additional information acquisition means), and encoded, for example, MMS protocol By The image is transmitted to the moving image display PC 14 via the network 16.

但し、ステップ1307においてライブ配信中に付加情報を取得する際は、上述した話者検出プログラムを実行させ現在の話者方向を示す話者方向データを取得する処理を含む。そして、画像データ、音声データ、付加情報等を送信した後、ステップ1308において本フローを終了するか否かを判定し、動画表示用PC14から例えば終了指令の送信がなく、もしくはイベントが継続中であり終了でない場合は(ステップ1308:No)、ステップ1305に戻り上述の処理を繰り返すが、終了である場合は(ステップ1308:Yes)、本フローを終了する。   However, when additional information is acquired during live distribution in step 1307, the above-described speaker detection program is executed to acquire speaker direction data indicating the current speaker direction. Then, after transmitting image data, audio data, additional information, etc., it is determined in step 1308 whether or not to end this flow. For example, the end command is not transmitted from the moving image display PC 14 or the event is continuing. If it is not finished (step 1308: No), the process returns to step 1305 and the above-described processing is repeated. If it is finished (step 1308: Yes), this flow is finished.

尚、話者方向データを送信する際は、常時送信する必要はなく、例えば1秒毎の所定時間毎に例えばHTTP(Hyper Text Transfer Protocol)サーバプログラムの実行により送信することができる。   In addition, when transmitting speaker direction data, it is not necessary to always transmit, for example, it can transmit by execution of an HTTP (Hyper Text Transfer Protocol) server program, for example for every predetermined time for every second.

次に、図14を参照し動画表示用PC14側の動画表示プログラムについて説明する。まずステップ1401において動画配信要求をネットワーク16を介しビデオサーバ12に送信する。   Next, a moving image display program on the moving image display PC 14 side will be described with reference to FIG. First, in step 1401, a moving image distribution request is transmitted to the video server 12 via the network 16.

続いてステップ1402において、図8に示した如くレイアウトを有するHTMLドキュメントをビデオサーバより受信すると、該HTMLドキュメントを画像表示する。その後、ステップ1403(第1の表示手段、画像変換手段)においてビデオサーバ12から例えばMMSプロトコルによりネットワーク16を介し送信された画像データを取得する。これとともに該画像データをデコード(例えば解凍を含む、以下同様)し、かつ上述した如く変換テーブルを用いてθ=0°が両端となるようにパノラマ画像114に変換し上記レイアウトにしたがってディスプレイ86の所定の動画表示領域112に画像表示し、また、ステップ1404(第3の表示手段)において所定の動画表示領域112の上端に隣接させパノラマ画像114の表示形態乃至表示位置を変更する際の表示インタフェイスとなる位置指定領域90を画像表示する。   Subsequently, in step 1402, when an HTML document having a layout as shown in FIG. 8 is received from the video server, the HTML document is displayed as an image. Thereafter, in step 1403 (first display means, image conversion means), the image data transmitted from the video server 12 via the network 16 by the MMS protocol is acquired. At the same time, the image data is decoded (for example, including decompression, the same applies hereinafter), and converted into a panoramic image 114 so that θ = 0 ° becomes both ends using the conversion table as described above, and the display 86 An image is displayed in the predetermined moving image display area 112, and a display interface for changing the display form or display position of the panoramic image 114 adjacent to the upper end of the predetermined moving image display area 112 in step 1404 (third display means). The position designation area 90 to be a face is displayed as an image.

また、ステップ1405においてビデオサーバ12から例えばMMSプロトコルによりネットワーク16を介し送信された音声データを取得するとともにデコードし音響再生部94を経てスピーカ96から出力し、かつステップ1406(第2の表示手段)においてビデオサーバ12から例えばMMSプロトコルによりネットワーク16を介し送信された付加情報を取得するとともにデコードし上記レイアウトにしたがってディスプレイ86の上記動画表示領域112に隣接させ他の所定の付加情報表示領域(音源位置表示領域)116を表示し、この所定の付加情報表示領域116内に所定の付加情報を表示する。   Also, in step 1405, the audio data transmitted from the video server 12 via the network 16, for example, by the MMS protocol is acquired, decoded and output from the speaker 96 via the sound reproduction unit 94, and in step 1406 (second display means). The additional information transmitted from the video server 12 via the network 16 by, for example, the MMS protocol is acquired and decoded in the video server 12 to be adjacent to the moving image display area 112 of the display 86 according to the layout described above. Display area) 116 is displayed, and predetermined additional information is displayed in the predetermined additional information display area 116.

但し、付加情報のうち話者方向データを取得した場合は、図8に示すように、例えば三角印の話者位置表示マーク23を生成し、該マーク23を所定の付加情報表示領域116内において所定の動画表示領域112中に画像表示された話者である参加者の表示位置に対応させ、かつ話者である参加者を指し示すように表示させることになる。また、パノラマ画像114の画像表示と同時に、ビデオサーバ12から例えばMMSプロトコルによりネットワーク16を介し送信された話者方向データを取得する場合は、常時取得する必要はなく、例えば1秒毎の一定時間毎に送信するよう要求するか、あるいはビデオサーバ12が例えば1秒毎の一定時間毎に送信するよう設定したところにしたがって取得する。   However, when the speaker direction data is acquired from the additional information, as shown in FIG. 8, for example, a triangular speaker position display mark 23 is generated, and the mark 23 is displayed in a predetermined additional information display area 116. The display is made to correspond to the display position of the participant who is the speaker displayed as an image in the predetermined moving image display area 112 and to indicate the participant who is the speaker. In addition, when acquiring the speaker direction data transmitted from the video server 12 via the network 16 by the MMS protocol, for example, simultaneously with the display of the panoramic image 114, it is not always necessary to acquire the data, for example, a fixed time every second. It is acquired according to a request for transmission every time, or the video server 12 is set to transmit at regular intervals of, for example, every second.

しかる後、ステップ1407(指定手段)において表示形態乃至表示位置変更を示すべく位置指定領域90中の所定の位置がマウス92により指定されクリックされたことを検出した場合は(ステップ1407:Yes)、ステップ1408(表示変更手段)において所定の動画表示領域112中で該指定された位置を先頭位置として先頭位置が所定の動画表示領域112の図示左側の一端(θ=0°)に位置するまで、先頭位置から図示右側に続く画像を図示左側の方向へ移動させ、かつ移動させた画像の最後尾に対し先端位置より図示左側に位置した画像をリンクする。   Thereafter, if it is detected in step 1407 (designating means) that a predetermined position in the position designation area 90 is designated and clicked by the mouse 92 to indicate a display form or display position change (step 1407: Yes), In step 1408 (display changing means), until the head position is located at one end (θ = 0 °) on the left side of the predetermined moving image display area 112 with the designated position in the predetermined moving image display area 112 as the head position. The image continuing from the head position to the right side in the figure is moved in the left direction in the figure, and the image located on the left side in the figure from the tip position is linked to the tail of the moved image.

即ち、例えば位置指定領域90において、左端からX0の位置を左クリックした場合、座標変換テーブルの左端からX0列目より図示右方向の画像データ(画素データ)の読み出しを開始し、パノラマ画像114の右端までの読み出しを行うとともに左端に戻り引き続きX0-1列目までの画像データ(画素データ)の読み出しを行い、かつ上述の如く各画像データの移動、即ち表示位置変更の処理を行なった画像表示を行う。また、続いてステップ1409(第2の表示手段:表示変更手段)において所定の付加情報表示領域116に表示されていた話者位置表示マーク23も所定の動画表示領域112内において移動後における話者である参加者が表示された位置に対応してその表示位置を移動する。話者である参加者の方向と話者方向データに記述された話者の方位角とを照合することにより話者の方向と最もよく一致する参加者を特定することができる。このように現在どの参加者が発話しているのかを特定し、所定の付加情報表示領域116中で発話者である参加者画像に対応する位置に話者位置表示マーク23を表示する。 Thus, for example at the location specified region 90, when the left click the position of the X 0 from the left edge, and starts reading the image data in the rightward direction from the X 0 column from the left edge of the coordinate conversion table (pixel data), the panoramic image 114 is read to the right end, returns to the left end, and continues to read image data (pixel data) up to the X 0 -1 column, and performs the process of moving each image data, that is, changing the display position as described above. Display the image. Subsequently, in step 1409 (second display means: display change means), the speaker position display mark 23 displayed in the predetermined additional information display area 116 is also moved in the predetermined moving image display area 112. The display position is moved corresponding to the position where the participant is displayed. By comparing the direction of the participant who is the speaker with the azimuth angle of the speaker described in the speaker direction data, the participant who best matches the direction of the speaker can be identified. In this way, which participant is currently speaking is specified, and the speaker position display mark 23 is displayed at a position corresponding to the participant image as the speaker in the predetermined additional information display area 116.

そして、ステップ1410において今回の画像データ、音声データ、付加情報を保存するか否かを判定し、保存する場合は(ステップ1410:Yes)、ステップ1411において今回の画像データ、音声データ、付加情報を保存した上でステップ1412へ進むが、保存しない場合は(ステップ1410:No)、直接にステップ1412へ進んで本フローを終了するか否かを判定し、終了でない場合は(ステップ1412:No)、上述したステップ1403へ戻り上述の処理を繰り返す。尚、ステップ1411において今回の画像データ、音声データ、付加情報を保存する場合は、例えば上述した如く所定の動画表示領域112に表示したパノラマ画像114の表示形態乃至表示位置の変更を常時可能とするため、あらかじめの非保存指定がない場合に行うようにしてもよい。   In step 1410, it is determined whether or not the current image data, audio data, and additional information are to be stored. If the image data, audio data, and additional information are to be stored (step 1410: Yes), the current image data, audio data, and additional information are stored in step 1411. After saving, the process proceeds to step 1412. If not saved (step 1410: No), the process directly proceeds to step 1412 to determine whether or not to end the flow. If not (step 1412: No). Then, the process returns to the above-described step 1403 and the above-described processing is repeated. If the current image data, audio data, and additional information are stored in step 1411, for example, as described above, the display form or display position of the panoramic image 114 displayed in the predetermined moving image display area 112 can always be changed. Therefore, it may be performed when there is no prior non-save designation.

本実施の形態においては、第1に上方を向くカメラ28と集光レンズ58により360度周囲の方向の被写体を撮影し、パノラマ画像114に変換して画像表示するよう構成したため、部分的な画像でなく、360度周囲のシーン全体が広範囲な画像として表示されるものとなり非常に臨場感が伝わり易く、かつ第2にパノラマ画像114に隣接して所定の付加情報表示領域を設けて例えば三角印の話者位置表示マーク23を話者である参加者の位置に対応させ表示するようにしたため、シーン全体の画像に話者位置や主被写体の位置等の所謂説明表示を加えるものとなりパノラマ画像114が一層わかり易く、かつ非常に見易く興味を引付けるものとなり、しかも第3にパノラマ画像114に隣接して位置指定領域90を設けて、例えばマウス92の操作により所望の位置を指定しクリックすると、画像の所望の位置(指定位置)を先頭位置として所謂スクロールするように画像全体を移動させることが可能となるため、極めて簡単な操作で好みの画像に移動させることが可能であり非常に操作性がよくかつ扱い易く利便性に優れる利点がある。   In the present embodiment, first, the camera 28 and the condensing lens 58 facing upward are used to shoot a subject in a direction around 360 degrees, and are converted into a panoramic image 114 and displayed as an image. In addition, the entire scene around 360 degrees is displayed as a wide range of images, and it is very easy to convey a sense of realism. Second, a predetermined additional information display area is provided adjacent to the panoramic image 114, for example, a triangle mark. The speaker position display mark 23 is displayed in correspondence with the position of the participant who is the speaker, so that a so-called explanation display such as the position of the speaker and the position of the main subject is added to the image of the entire scene. Is easy to understand and very easy to see, and thirdly, a position designation area 90 is provided adjacent to the panoramic image 114, for example, If the desired position is designated and clicked by the operation of the screen 92, the entire image can be moved so as to scroll so that the desired position (designated position) of the image is the top position. It is possible to move to an image of the above, and there is an advantage that the operability is very good, the handling is easy, and the convenience is excellent.

また、位置指定領域90のような操作インタフェイスにより、ユーザは、撮影中にカメラ28の向きを変えなくても、撮影中のシーンの構図を容易に変更することができるため、常にバランスよく最適で非常に見易い構図を設定し、今誰が発話しているのかを一目で直観的に知ることができる。このことは台座56上のカメラ28を一度ある位置に置いた後は、カメラ28側の設定等を調整する必要が全くないことを意味しており、したがってイベント会場側においても高度な技術を要することなく誰でも使用することができ、この観点からも非常に扱い易く利便性に優れる。   In addition, the operation interface such as the position designation area 90 allows the user to easily change the composition of the scene being shot without changing the orientation of the camera 28 during shooting, so that it is always optimal in a balanced manner. You can set up a very easy-to-read composition and intuitively know who is speaking at a glance. This means that once the camera 28 on the pedestal 56 is placed at a certain position, there is no need to adjust the settings on the camera 28 side, and therefore, a high level of skill is required even on the event venue side. Anyone can use it, and from this point of view, it is very easy to handle and excellent in convenience.

(実施の形態2)
次に、図15乃至図19を参照し本発明の実施の形態2に係わるデータ表示システムについて説明する。図15は本実施の形態のデータ表示システムを概略的に説明する説明図である。即ち、図15に示すように、本実施の形態のデータ表示システムも構成的には実施の形態1で説明したシステムと基本的に同様の構成であり、ビデオサーバ12と動画表示用PC14とをネットワーク(乃至はLANケーブル)16を通じて接続し構成したものであるが、詳しくは後述するように動画表示プログラムの内容が相違するものである。
(Embodiment 2)
Next, a data display system according to the second embodiment of the present invention will be described with reference to FIGS. FIG. 15 is an explanatory diagram schematically illustrating the data display system according to the present embodiment. That is, as shown in FIG. 15, the data display system of the present embodiment is basically the same as the system described in the first embodiment, and the video server 12 and the moving image display PC 14 are connected. Although it is configured to be connected through a network (or LAN cable) 16, the contents of the moving image display program are different as will be described in detail later.

本実施の形態の場合、動作上の概要としては、図16に示すように、動画表示用PC14が動画表示プログラムに基づいてネットワーク16を介しビデオサーバ12に動画表示要求を送信した場合、ビデオサーバ12は動画配信プログラム基づいてHDD30から既に記録済みのイベントの画像データ、音声データ、付加情報(参加者ID、参加者名、話者方向データ等)を読み出すとともにネットワーク16を介し動画表示用PC14に送信し、この結果、動画表示用PC14が動画表示プログラムに基づいて画像データをパノラマ画像114に変換して画像表示するとともに、音声データを再生出力し、かつ付加情報を画像表示するというものである。   In the case of the present embodiment, as an outline of the operation, as shown in FIG. 16, when the moving image display PC 14 transmits a moving image display request to the video server 12 via the network 16 based on the moving image display program, 12 reads out the image data, audio data, and additional information (participant ID, participant name, speaker direction data, etc.) of the already recorded event from the HDD 30 based on the moving image distribution program, and sends them to the moving image display PC 14 via the network 16. As a result, the moving image display PC 14 converts the image data into the panoramic image 114 based on the moving image display program, displays the image, reproduces and outputs the sound data, and displays the additional information as an image. .

また、本実施の形態の場合、画像データ、音声データ、付加情報(例えば話者方向データ等)は、例えば一つのメディアビデオファイルという形態でビデオサーバ12のHDD30に保存されているが、このメディアビデオファイルの中には例えばWindows(R) Mediaテクノロジーのスクリプト埋め込み機能を利用し、そのサイトで規定されているフォーマット(Time、Type、Parameterで規定される)にしたがった所定のスクリプトを埋め込んで、送信先である動画表示用PC14に所要の動作を行わせるように仕組むことも可能である。図17に、メディアビデオファイルの中にWindows(R) Mediaテクノロジーで規定されているフォーマットにしたがったスクリプトを、話者位置データとして埋め込んだ一例を示す。図のように、話者位置データには左から、ビデオの先頭を0とした時刻、イベントのタイプ(”angle ”)、該タイプに関連したパラメータ(即ち、話者位置表示マーク23の位置に対応する方位角)が1秒ごとに記載されている。このようにすることで、動画表示プログラムはイベントという形で、話者位置表示マークを表示させる位置を毎秒受け取ることができる。   In the case of the present embodiment, image data, audio data, and additional information (for example, speaker direction data) are stored in the HDD 30 of the video server 12 in the form of, for example, one media video file. In the video file, for example, by using the script embedding function of Windows (R) Media technology, a predetermined script according to the format (specified by Time, Type, Parameter) specified by the site is embedded, It is also possible to make the moving image display PC 14 as a transmission destination perform a required operation. FIG. 17 shows an example in which a script conforming to a format defined by Windows® Media technology is embedded as speaker position data in a media video file. As shown in the figure, the speaker position data includes the time from the left, the time when the top of the video is 0, the event type (“angle”), and parameters related to the type (ie, the position of the speaker position display mark 23). Corresponding azimuth) is listed every second. By doing so, the moving image display program can receive the position for displaying the speaker position display mark every second in the form of an event.

一方、本実施の形態の場合、動画表示用PC14のディスプレイ86に表示される所定の動画表示領域112には、図18に示すように、動画表示プログラムの実行により、所定の付加情報表示領域116の下方に、再生コントロールの操作インタフェイス122が画像表示されるものであり、操作インタフェイス122には、パノラマ画像114を再生する再生用ボタン124、停止用ボタン126、一時停止用ボタン128、巻き戻し用ボタン130、早送り用ボタン132等が設けられるが、動画表示プログラムに、各ボタン124の操作の認識、および各ボタン124の操作に対応する動作の実行を行う処理ステップが含まれているものである。   On the other hand, in the case of the present embodiment, a predetermined additional information display area 116 is displayed in the predetermined moving picture display area 112 displayed on the display 86 of the moving picture display PC 14 by executing the moving picture display program as shown in FIG. The playback control operation interface 122 is displayed as an image below the operation interface 122. The operation interface 122 includes a playback button 124 for playing the panoramic image 114, a stop button 126, a pause button 128, a winding button. A return button 130, a fast-forward button 132, and the like are provided. The moving image display program includes processing steps for recognizing the operation of each button 124 and executing an operation corresponding to the operation of each button 124. It is.

次に、図20を参照し本実施の形態における動画表示用PC14が所持する動画表示プログラムについて説明する。まずステップ2001において動画配信要求をネットワーク16を介しビデオサーバ12に送信する。   Next, a moving picture display program possessed by the moving picture display PC 14 in the present embodiment will be described with reference to FIG. First, in step 2001, a moving image distribution request is transmitted to the video server 12 via the network 16.

続いてステップ2002において、図18に示した如くレイアウトを有するHTMLドキュメントをビデオサーバより受信すると、該HTMLドキュメントを画像表示する。要求した画像データがある場合は(ステップ2003:Yes)、ステップ2005に移り、要求した画像データがない場合は(ステップ2003:No)、図19に示すように、ステップ2004において所定の動画表示領域112に「指定されたデータがありません」等のメッセージを表示して本フローを終了する。   Subsequently, in step 2002, when an HTML document having a layout as shown in FIG. 18 is received from the video server, the HTML document is displayed as an image. If there is requested image data (step 2003: Yes), the process proceeds to step 2005. If there is no requested image data (step 2003: No), a predetermined moving image display area is displayed in step 2004 as shown in FIG. A message such as “there is no specified data” is displayed in 112, and this flow is terminated.

該HTMLドキュメント上にはイベント表示領域142が表示され、このイベント表示領域142には、所定の動画(パノラマ画像)表示領域112、所定の動画表示領域112の下端に隣接する所定の付加情報表示領域(音源位置表示領域)116、所定の動画表示領域112の上端に隣接する位置指定領域90、および、所定の付加情報表示領域116の下方に位置する操作インタフェイス122が備わる。また、ステップ2005においてビデオサーバ12から例えばMMSプロトコルによりネットワーク16を介し送信された画像データ、音声データ、付加情報(参加者ID、参加者名、話者方向データ等)を受信するとともにRAM74、VRAM76、もしくはHDD78に記憶する。   An event display area 142 is displayed on the HTML document. The event display area 142 includes a predetermined moving image (panoramic image) display area 112 and a predetermined additional information display area adjacent to the lower end of the predetermined moving image display area 112. (Sound source position display area) 116, a position designation area 90 adjacent to the upper end of the predetermined moving image display area 112, and an operation interface 122 positioned below the predetermined additional information display area 116 are provided. In step 2005, image data, audio data, and additional information (participant ID, participant name, speaker direction data, etc.) transmitted from the video server 12 via the network 16 by, for example, the MMS protocol are received, and the RAM 74 and VRAM 76 are received. Or stored in the HDD 78.

続いてステップ2006において操作インタフェイス122がマウス92による指定とともにクリックされたか否かを判定する。ここで再生用ボタン124がクリックされたことを判定した場合は、ステップ2007(第1の表示手段、画像変換手段)においてVRAM76から画像データを取得するとともに該画像データをデコードし、かつ上述した如く変換テーブルを用いてθ=0°が両端となるように時間的に変化し得るパノラマ画像114に変換し上記レイアウトにしたがってディスプレイ86の所定の動画表示領域112に画像表示し、かつ画像データに所定のスクリプトがある場合には該スクリプトを実行し、また、ステップ2008(第2の表示手段)において所定の付加情報表示領域116に付加情報(例えば話者方向データに基づく話者位置表示マーク23等)を表示し、かつステップ2009においてHDD78から音声データを取り出しスピーカ96から出力させる。   Subsequently, in step 2006, it is determined whether or not the operation interface 122 has been clicked with designation by the mouse 92. If it is determined that the playback button 124 has been clicked, the image data is acquired from the VRAM 76 and decoded in step 2007 (first display means, image conversion means), and as described above. Using the conversion table, the image is converted into a panoramic image 114 that can change with time so that θ = 0 ° is at both ends, and is displayed in a predetermined moving image display area 112 of the display 86 according to the layout described above. If there is a script, the script is executed. In step 2008 (second display means), additional information (for example, speaker position display mark 23 based on speaker direction data) is displayed in a predetermined additional information display area 116. ) And the audio data is extracted from the HDD 78 in step 2009 and the speaker 96 To al output.

しかし、ステップ2006において停止用ボタン126がクリックされたことを判定した場合は、ステップ2010においてパノラマ画像114を静止させるとともに音声データの再生を停止させ、巻き戻し用ボタン130がクリックされたことを判定した場合は、ステップ2011においてパノラマ画像114を巻き戻すとともに音声データの再生を停止させ、早送り用ボタン132がクリックされたことを判定した場合は、ステップ2012においてパノラマ画像114を早送りさせるとともに音声データの再生を停止させる。ステップ2006にて操作がなければステップ2013に移行する。   However, if it is determined in step 2006 that the stop button 126 has been clicked, it is determined in step 2010 that the panoramic image 114 is stopped and the reproduction of the audio data is stopped, and the rewind button 130 is clicked. In step 2011, the panorama image 114 is rewound and the reproduction of the audio data is stopped. If it is determined that the fast-forward button 132 is clicked, the panorama image 114 is fast-forwarded in step 2012 and the audio data Stop playback. If there is no operation in step 2006, the process proceeds to step 2013.

但し、本例の場合もビデオサーバ12からネットワーク16を介し話者方向データを取得する場合は、常時取得する必要はなく、例えば1秒毎の一定時間毎に送信するよう要求するか、あるいはビデオサーバ12が例えば1秒毎の一定時間毎に送信するよう設定したところにしたがって取得する。   However, in the case of this example as well, when the speaker direction data is acquired from the video server 12 via the network 16, it is not always necessary to acquire the speaker direction data. Acquired according to the setting where the server 12 is set to transmit, for example, at regular intervals of one second.

しかる後、ステップ2013(指定手段)において表示形態乃至表示位置変更を示すべく位置指定領域90中の所定の位置がマウス92の操作により指定されクリックされたことを検出した場合は(ステップ2013:Yes)、ステップ2014(表示変更手段)において所定の動画表示領域112中で該指定された位置を先頭位置として先頭位置が所定の動画表示領域112の図示左側の一端(θ=0°)に位置するまで、先頭位置から図示右側に続く画像を図示左側の方向へ移動させ、かつ移動させた画像の最後尾に対し先端位置より図示左側に位置した画像をリンクする。   Thereafter, when it is detected in step 2013 (designating means) that a predetermined position in the position designation area 90 is designated and clicked by the operation of the mouse 92 in order to indicate the display form or display position change (step 2013: Yes). ) In step 2014 (display changing means), the head position is located at one end (θ = 0 °) on the left side of the predetermined moving image display area 112 with the designated position as the starting position in the predetermined moving image display area 112. The image continuing from the head position to the right side of the figure is moved in the direction of the left side of the figure, and the image located on the left side of the figure from the front end position is linked to the tail of the moved image.

即ち、例えば位置指定領域90において、左端からX0の位置を左クリックした場合、座標変換テーブルの左端からX0列目より図示右方向の画像データ(画素データ)の読み出しを開始し、パノラマ画像114の右端までの読み出しを行うとともに左端に戻り引き続きX0-1列目までの画像データ(画素データ)の読み出しを行い、かつ上述の如く各画像データの移動、即ち表示位置変更の処理を行なった画像表示を行う。また、続いてステップ2015(第2の表示手段:表示変更手段)において所定の付加情報表示領域116に表示されていた話者方向検出マーク23も所定の動画表示領域112内において移動後に話者である参加者が表示された位置に対応してその表示位置を移動する。 Thus, for example at the location specified region 90, when the left click the position of the X 0 from the left edge, and starts reading the image data in the rightward direction from the X 0 column from the left edge of the coordinate conversion table (pixel data), the panoramic image subsequently returns to the left end with read out to the right end of the 114 reads the image data to the X 0 -1 column (pixel data), and the movement of the image data as described above, i.e., the processing of the display position change made Display the image. Subsequently, the speaker direction detection mark 23 displayed in the predetermined additional information display area 116 in step 2015 (second display means: display change means) is also a speaker after moving in the predetermined moving image display area 112. A participant moves the display position corresponding to the displayed position.

この後、ステップ2016へ進んで本フローを終了するか否かを判定し、終了でない場合は(ステップ2016:No)、上述したステップ2005へ戻り上述の処理を繰り返す。   Thereafter, the process proceeds to step 2016 to determine whether or not to end this flow. If not (step 2016: No), the process returns to step 2005 described above and the above-described processing is repeated.

本実施の形態においては、上記実施の形態1の利点に加えて、ディスプレイ86に操作インタフェイス122を表示するようにしたため、時間的に変化し得るパノラマ画像114のうち任意の時点のパノラマ画像114を自在に表示させることが可能であり、かつ例えば所要あって動画表示用PC14から離れる場合でもその時点でパノラマ画像114を静止させ、後にパノラマ画像114の再生を見ることも可能であり、利便性を各段に向上させる利点がある。   In the present embodiment, since the operation interface 122 is displayed on the display 86 in addition to the advantages of the first embodiment, the panorama image 114 at an arbitrary time point among the panorama images 114 that can change over time. Can be displayed freely, and for example, even when the user is away from the moving image display PC 14 if necessary, the panoramic image 114 can be stopped at that point and the reproduction of the panoramic image 114 can be viewed later. There is an advantage of improving each stage.

(実施の形態3)
次に、図21乃至図25を参照し本発明の実施の形態3に係わるデータ表示システムについて説明する。本実施の形態のデータ表示システムも構成的には上述した実施の形態で説明したシステムと基本的に同様の構成であり、ビデオサーバ12と動画表示用PC14とをネットワーク(乃至はLANケーブル)16を通じて接続し構成したものであるが、ビデオサーバ12に参加者特定プログラムを備え、動画表示用PC14に備わる動画表示プログラムが主に互いに所定間隔毎に離間する複数の参加者表示領域(被写体表示領域)を表示するとともに、操作インタフェイスとして、表示順序変更ボタン(即ち左変更ボタン144、右変更ボタン146)を表示する点が相違するものである。
(Embodiment 3)
Next, a data display system according to the third embodiment of the present invention will be described with reference to FIGS. The data display system of the present embodiment is basically the same as the system described in the above embodiment, and the video server 12 and the moving image display PC 14 are connected to a network (or LAN cable) 16. The video server 12 includes a participant specifying program, and the video display program provided in the video display PC 14 mainly includes a plurality of participant display areas (subject display areas) separated from each other at predetermined intervals. ) And a display order change button (that is, a left change button 144 and a right change button 146) are displayed as an operation interface.

本実施の形態の場合、動作上の概要については、図21に示すように、動画表示用PC14が動画表示プログラムに基づいてネットワーク16を介しビデオサーバ12に動画表示要求を送信した場合、ビデオサーバ12は動画配信プログラムに基づいて話者検出プログラムを実行させマイクアレイ34の集音タイミングから生成した付加情報としての話者方向データを取込むとともに、参加者特定プログラムを実行させカメラ28で撮影し生成した付加情報としての被写体である参加者を特定する参加者特定データを取込み、かつ動画配信プログラムに基づいてカメラ28から取込んだ画像データ、マイクアレイ34から取込んだ音声データとともにネットワーク16を介し動画表示用PC14に送信し、この結果、動画表示用PC14が動画表示プログラムに基づいてディスプレイ86に互いに離間する複数の参加者表示領域を表示するとともに音声を出力し、かつ各参加者表示領域の付近に上述の付加情報を表示させるというものである。   In the case of the present embodiment, as for the operational overview, as shown in FIG. 21, when the moving image display PC 14 transmits a moving image display request to the video server 12 via the network 16 based on the moving image display program, 12 executes the speaker detection program based on the moving image distribution program, captures the speaker direction data as additional information generated from the sound collection timing of the microphone array 34, executes the participant identification program, and shoots with the camera 28. The network 16 together with the image data captured from the camera 28 and the audio data captured from the microphone array 34 based on the participant distribution data for identifying the participant as the subject as the generated additional information is captured. To the moving image display PC 14, and as a result, the moving image display PC 14 is activated. It is that output audio and display the additional information described above in the vicinity of each participant display region which displays a plurality of participants display region spaced apart from each other on the display 86 based on the display program.

参加者特定データのレイアウトとしては、例えば、図22に示すように、左側に各参加者ID(例えばA,B,C,D)を示し、右側に各参加者の顔領域の中心が位置する方位角(°)というテキスト形式であり、方位角の昇順に記載されている。但し、参加者A,B,C,D毎に該参加者A,B,C,Dを一意に示す例えば10進数の数値等を割り当てるという形態で、例えば10進数の各数値が1人の参加者を特定し各数値が参加者ID、参加者名と一意に対応するというものであってもよい。   As the layout of the participant specifying data, for example, as shown in FIG. 22, each participant ID (for example, A, B, C, D) is shown on the left side, and the center of each participant's face area is located on the right side. It is a text format of azimuth angle (°) and is described in ascending order of azimuth angle. However, for example, each participant A, B, C, D is assigned a numerical value such as a decimal number uniquely indicating the participant A, B, C, D. A person may be specified, and each numerical value may uniquely correspond to a participant ID and a participant name.

一方、本実施の形態の画像表示プログラムを実行した場合、図23−1に示すように、イベント表示領域142には、例えば被写体である参加者の数に応じて互いに所定間隔毎に離間する複数の参加者表示領域148が表示されるものとなり、各参加者表示領域148には1人の参加者が画像表示されるとともに、各参加者表示領域148の下方に付加情報として参加者ID、もしくは参加者名が表示される。また、複数の参加者表示領域148の一部付近の下方には、操作インタフェイスとして、表示順序変更ボタン、即ち左変更ボタン144、右変更ボタン146が表示される。そして、複数の参加者表示領域148のうち話者である参加者を表示する参加者表示領域148の四角い枠部分には、該枠部分を所定の幅で所定色にマーキングする話者表示マーク150が表示される。   On the other hand, when the image display program according to the present embodiment is executed, as shown in FIG. 23A, the event display area 142 includes a plurality of objects spaced apart from each other at predetermined intervals according to the number of participants as subjects, for example. Participant display area 148 is displayed, and one participant is image-displayed in each participant display area 148, and a participant ID or additional information is displayed below each participant display area 148, or The participant name is displayed. A display order change button, that is, a left change button 144 and a right change button 146 are displayed as operation interfaces below a part of the vicinity of a part of the plurality of participant display areas 148. Then, a speaker display mark 150 for marking the frame portion with a predetermined width and a predetermined color on a square frame portion of the participant display region 148 that displays a participant who is a speaker among the plurality of participant display regions 148. Is displayed.

次に、図24を参照し本実施の形態におけるビデオサーバ12が所持する参加者特定プログラムについて説明する。まずステップ2401において起動命令の出力を検出した場合、ステップ2402においてカメラ28で撮影したドーナッツ画像から被写体である参加者の顔領域の位置を検出するとともに、例えばHDD30から該顔領域の画像的な特徴に一致する顔画像データ(例えば顔写真)を検索し、一致する顔画像データがある場合は該顔画像データを一意に特定するデータ(例えば上述した10進数の数値に対応する参加者ID、参加者名であり、以下参加者特定データと称する)を取り出す。   Next, the participant identification program possessed by the video server 12 in the present embodiment will be described with reference to FIG. First, when the output of the start command is detected in step 2401, the position of the face area of the participant as the subject is detected from the donut image photographed by the camera 28 in step 2402, and the image characteristics of the face area are detected from the HDD 30, for example. If there is face image data that matches the face image data (for example, a face photo), and data that uniquely identifies the face image data (for example, the participant ID corresponding to the decimal number described above, participation (Name of person, hereinafter referred to as participant identification data).

但し、HDD30内に一致する顔画像データ(顔写真)が存在しない場合は例えばディスプレイ40に今回の参加者の参加者ID、参加者名を入力することを促す画像を表示し、ここで入力された参加者ID、参加者名を参加者特定データとして今回の顔画像データに関連付けて該顔画像データとともに例えばHDD30に保存し、かつ、この場合も新しい参加者特定データとしての新しい参加者ID、参加者名をRAM24に記憶させる。参加者特定データをRAM24に記憶させるのは画像配信プログラムの実行に伴って動画表示用PC14に送信する際にそのアクセスを容易にするためである。そして、ステップ2403において次の検索対象の参加者が存在するか否かを判定し、次の検索対象の参加者が存在する場合は(ステップ2403:Yes)、ステップ2402に戻り上述の処理を繰り返すが、次の検索対象の参加者が存在しない場合は(ステップ2403:No)、本フローを終了する。   However, if there is no matching face image data (face photo) in the HDD 30, for example, an image prompting the user to input the participant ID and participant name of the current participant is displayed on the display 40, and is input here. The participant ID and the participant name are associated with the current face image data as participant specifying data and stored together with the face image data, for example, in the HDD 30, and in this case, a new participant ID as new participant specifying data, The participant name is stored in the RAM 24. The reason why the participant specifying data is stored in the RAM 24 is to facilitate the access when the participant specifying data is transmitted to the moving image display PC 14 along with the execution of the image distribution program. In step 2403, it is determined whether or not there is a next search target participant. If there is a next search target participant (step 2403: Yes), the process returns to step 2402 and the above processing is repeated. However, when the next search target participant does not exist (step 2403: No), this flow ends.

尚、参加者特定データは、図22に示したように、例えば、左から参加者ID、参加者の顔領域の中心が位置する方位角(°)というテキスト形式であり、この参加者特定データにおける方位角は、後にドーナッツ画像がパノラマ画像114に変換された時に、左端が0°となるように、図10および図11に示したθとは逆向きとなっている。また一方、話者特定プログラムは常時繰り返し実行する必要はなく、例えば1秒毎の一定時間毎に実行するようにしてもよい。   As shown in FIG. 22, the participant specifying data is, for example, a text format of a participant ID from the left and an azimuth angle (°) where the center of the participant's face area is located. The azimuth angle at is opposite to θ shown in FIGS. 10 and 11 so that the left end is 0 ° when the donut image is converted to the panoramic image 114 later. On the other hand, the speaker specifying program does not need to be repeatedly executed at all times. For example, the speaker specifying program may be executed at regular intervals of one second.

次に、図25を参照し本実施の形態における動画表示用PC14が所持する動画表示プログラムについて説明する。まずステップ2501において動画配信要求をネットワーク16を介しビデオサーバ12に送信する。   Next, a moving picture display program possessed by the moving picture display PC 14 in the present embodiment will be described with reference to FIG. First, in step 2501, a moving image distribution request is transmitted to the video server 12 via the network 16.

続いてステップ2502において、図23−1に示した如くレイアウトを有するHTMLドキュメントをビデオサーバより受信すると、該HTMLドキュメントを画像表示する。要求した画像データがある場合は(ステップ2503:Yes)、ステップ2505に移り、ここで、要求した画像データがない場合は(ステップ2503:No)、図19に示すように、ステップ2504において所定の動画表示領域112に「指定されたデータがありません」と書かれたメッセージを表示して本フローを終了する。ステップ2505では、動画配信開始を示す情報に続く画像データ、音声データ、付加情報等を受信するとともに、ステップ2506において画像データをVRAM76に記憶させ、音声データをHDD78に記憶させ、付加情報をRAM74に記憶させる。   Subsequently, in step 2502, when an HTML document having a layout as shown in FIG. 23-1 is received from the video server, the HTML document is displayed as an image. If there is requested image data (step 2503: Yes), the process proceeds to step 2505. If there is no requested image data (step 2503: No), as shown in FIG. A message stating “There is no specified data” is displayed in the moving image display area 112, and this flow is finished. In step 2505, image data, audio data, additional information and the like following the information indicating the start of moving image distribution are received. In step 2506, the image data is stored in the VRAM 76, the audio data is stored in the HDD 78, and the additional information is stored in the RAM 74. Remember me.

また、ステップ2507(第1の表示手段、画像変換手段)において図23−2に示した如く上記レイアウトおよび座標変換テーブルに基づいて互いに所定間隔毎に離間する複数の参加者表示領域148を画像表示するとともに、上記画像データを取得し該参加者表示領域148に、被写体である1人ずつの参加者を画像表示する。尚、複数の参加者表示領域148を画像表示する場合、参加者特定データに記述された参加者数を認識し同数の参加者表示領域148を生成し表示する。一方、複数の参加者表示領域148に各参加者を表示する場合、参加者特定データを行毎に読み出しそれに対応する参加者画像を画像表示する。   Further, in step 2507 (first display means, image conversion means), as shown in FIG. 23-2, a plurality of participant display areas 148 that are separated from each other at predetermined intervals based on the layout and coordinate conversion table are displayed as images. At the same time, the image data is acquired, and each participant who is a subject is displayed as an image in the participant display area 148. When displaying a plurality of participant display areas 148 as images, the number of participants described in the participant specifying data is recognized and the same number of participant display areas 148 are generated and displayed. On the other hand, when each participant is displayed in the plurality of participant display areas 148, the participant specifying data is read for each row, and the corresponding participant image is displayed as an image.

例えば、図22に示す最初の参加者Cが方位52°に位置する場合を考える。総画像表示領域の横方向の表示範囲が60°であるとすると、座標変換テーブルの方位角22°に相当する列の上端を読み出し開始位置、座標変換テーブルの方位角82°に相当する列の下端を読み出し終了位置と定める。このようにして得られた読み出し範囲にしたがって変換テーブルを読み出すことによりドーナッツ画像において参加者Cが映された領域を抽出して変換表示することができる。以上の動作を各参加者D,A,B毎に実行することにより全ての参加者画像を表示することができる。この際、参加者特定データに記述されている順序にしたがって各参加者画像は左から順に表示されるものとなる。   For example, consider the case where the first participant C shown in FIG. If the display range in the horizontal direction of the total image display area is 60 °, the upper end of the column corresponding to the azimuth angle 22 ° of the coordinate conversion table is the read start position and the column corresponding to the azimuth angle 82 ° of the coordinate conversion table. The lower end is defined as the reading end position. By reading the conversion table in accordance with the read range thus obtained, it is possible to extract and convert and display the area where the participant C is shown in the donut image. By executing the above operation for each participant D, A, B, all participant images can be displayed. At this time, each participant image is displayed in order from the left according to the order described in the participant specifying data.

また、ステップ2508(第2の表示手段)において付加情報である例えば参加者IDを複数の参加者表示領域148の下方付近で各参加者に対応する位置に表示させ、かつステップ2509において複数の参加者表示領域148のうち例えば最も図示左側の参加者表示領域148の下方の位置に操作インタフェイスとしての表示順序変更ボタン(左変更ボタン144、右変更ボタン146)を表示させる。また、ステップ2510において複数の参加者表示領域148に表示した各被写体である参加者のうち何れかの参加者が発言したことを検出する場合、その話者である参加者の音声データを再生し出力し、かつステップ2511(第2の表示手段)において今回の話者である参加者を表示した参加者表示領域148の四角い枠部分に付加情報である話者表示マーク150を表示させる。この場合も話者である参加者の方向と話者方向データに記述された話者の方位角とを照合することにより話者の方向と最もよく一致する参加者と特定することができる。このように現在どの参加者が発話しているのかを特定し、複数の参加者表示領域148のうち発話者である参加者が画像表示された参加者表示領域148に話者表示マーク150を表示する。   In step 2508 (second display means), for example, a participant ID, which is additional information, is displayed at a position corresponding to each participant near the lower part of the plurality of participant display areas 148, and in step 2509, a plurality of participants are displayed. For example, display order change buttons (left change button 144 and right change button 146) as an operation interface are displayed in a position below the leftmost participant display area 148 in the person display area 148, for example. In addition, when it is detected in step 2510 that one of the participants as the subjects displayed in the plurality of participant display areas 148 speaks, the voice data of the participant who is the speaker is reproduced. In step 2511 (second display means), the speaker display mark 150 as additional information is displayed in the square frame portion of the participant display area 148 that displays the participant as the speaker at this time. Also in this case, it is possible to identify the participant who best matches the direction of the speaker by checking the direction of the participant who is the speaker and the azimuth angle of the speaker described in the speaker direction data. In this way, it is specified which participant is currently speaking, and the speaker display mark 150 is displayed in the participant display area 148 in which the participant who is the speaker among the plurality of participant display areas 148 is displayed as an image. To do.

しかる後、ステップ2512において左変更ボタン144がクリックされたことを判定した場合は、ステップ2513(画像変換手段)において例えば図23−2に示すように、参加者表示領域148内の話者である参加者を表示した画像を図示左側の参加者表示領域148に移し、かつ該参加者表示領域148に話者表示マーク150を表示させ、また同じく各参加者表示領域148内の参加者を表示した画像を図示左方向に所謂スクロールするように移動させ、かつ最も図示左側の参加者表示領域148内の参加者を表示した画像を最も図示右側の参加者表示領域148に移す。   Thereafter, when it is determined in step 2512 that the left change button 144 has been clicked, in step 2513 (image conversion means), for example, as shown in FIG. 23-2, the speaker is in the participant display area 148. The image displaying the participant is moved to the participant display area 148 on the left side of the figure, and the speaker display mark 150 is displayed in the participant display area 148. Similarly, the participants in each participant display area 148 are displayed. The image is moved so as to scroll in the left direction in the figure, and the image displaying the participant in the leftmost participant display area 148 is moved to the rightmost participant display area 148.

具体的には、例えば左端の参加者表示領域148における座標変換テーブルの読み出し範囲を参加者Cのものから参加者Dのものに変更し、これにより上述した画像変換方法に基づいてドーナッツ画像において参加者Dが表示された領域を抽出して変換表示する。この処理を全ての参加者表示領域148に対して実行することにより表示順序を図示左より参加者C,D,A,Bを参加者D,A,B,Cに変更することが可能となる。尚、この処理は左変更ボタン144をクリックし続ける間、順次更にスクロールするように参加者を表示した画像の図示左方向への移動が続けられる。そして、話者表示マーク150もその話者である参加者の画像の移動に追随して表示位置を変更してゆく。   Specifically, for example, the reading range of the coordinate conversion table in the leftmost participant display area 148 is changed from that of the participant C to that of the participant D, thereby participating in the donut image based on the image conversion method described above. The area where the person D is displayed is extracted and converted and displayed. By executing this processing for all the participant display areas 148, the display order can be changed from the left in the figure to the participants D, A, B, and C from the participants C, D, A, and B. . In this process, while the left change button 144 is continuously clicked, the image displaying the participant is continuously moved in the left direction in the figure so as to further scroll. The speaker display mark 150 also changes the display position following the movement of the image of the participant who is the speaker.

一方、ステップ2512において右変更ボタン146のクリックを判定した場合は、ステップ2514(画像変換手段)において上述と逆方向の移動が実行されることになる。そして、ステップ2512において表示順序変更ボタン(左変更ボタン144、右変更ボタン146)のクリックが判定されない場合は(ステップ2512:No)、ステップ2515に進んで終了であるか否かを判定し、終了でない場合は(ステップ2515:No)、ステップ2505に戻り上述の処理を繰り返すが、終了である場合は(ステップ2515:Yes)、本フローを終了させる。   On the other hand, if it is determined in step 2512 that the right change button 146 has been clicked, movement in the direction opposite to that described above is executed in step 2514 (image conversion means). If it is not determined in step 2512 that the display order change button (left change button 144, right change button 146) has been clicked (No in step 2512), the process proceeds to step 2515 to determine whether or not the process is completed. If not (step 2515: No), the process returns to step 2505 and the above-described processing is repeated. If it is completed (step 2515: Yes), this flow is terminated.

本実施の形態においては、第1に例えば参加者の数に応じた複数の参加者表示領域148をパノラマ画像的に表示することで、全体的には360度周囲のシーン全体が広範囲な画像として表示されるものと等価となり非常に臨場感が伝わり易く、かつ複数の参加者表示領域148を横1列に並べて表示するため、臨場感の伝わりとともに一層わかり易く、また第2に話者表示マーク150が参加者表示領域148を大きく囲って表示されるため、話者の見極めがより一層容易となり、この点からもより一層わかり易く、かつ興味を引付けるおもしろみがあり、しかも第3に表示順序変更ボタン(左変更ボタン144、右変更ボタン146)を表示させたため、単にクリックを繰り返すか、クリックを継続するだけで画像を所望の位置に移動させることができ、更に操作性がよくかつ扱い易く利便性に優れる利点がある。   In the present embodiment, first, for example, a plurality of participant display areas 148 corresponding to the number of participants are displayed in a panoramic image, so that the entire scene around 360 degrees as a wide range image as a whole. It is equivalent to what is displayed, and it is very easy to convey a sense of reality, and since a plurality of participant display areas 148 are displayed side by side in a row, it is easier to understand along with the transmission of the sense of reality, and secondly, the speaker display mark 150 Is displayed so as to encircle the participant display area 148, making it easier to identify the speaker. From this point of view, there is an interest that is more understandable and interesting, and third, the display order is changed. Since the buttons (the left change button 144 and the right change button 146) are displayed, the image is moved to a desired position simply by repeating the click or continuing the click. Rukoto can, there is an advantage that further excellent operability is good and easy to handle convenience.

(実施の形態4)
次に、図26乃至図29を参照し本発明の実施の形態4に係わるデータ表示システムについて説明する。本実施の形態のデータ表示システムも構成的には上述した実施の形態で説明したシステムと基本的に同様の構成であり、ビデオサーバ12と動画表示用PC14とをネットワーク(乃至はLANケーブル)16を通じて接続し構成したものであるが、動画表示プログラムにこのタイムチャートを表示する処理が含まれる点が相違するものである。ここでは、実施の形態2で示したオンデマンド型データ表示システムにおいて、話者位置の変化をタイムチャートとして、動画データと共に表示する例について説明する。
(Embodiment 4)
Next, a data display system according to the fourth embodiment of the present invention will be described with reference to FIGS. The data display system of the present embodiment is basically the same as the system described in the above embodiment, and the video server 12 and the moving image display PC 14 are connected to a network (or LAN cable) 16. However, it is different in that the moving image display program includes a process for displaying the time chart. Here, in the on-demand data display system shown in the second embodiment, an example will be described in which changes in speaker position are displayed together with moving image data as a time chart.

タイムチャート156は、図26に示すように、縦軸には時間軸を定め、横軸には左端を0°で右向きの方向を正とした方位角を示すとともにパノラマ画像(乃至は複数の参加者表示領域)114に対応する長さ(例えば参加者の横軸と一致するよう所定の幅として60°の広さ)があり、各参加者に対応する位置に各参加者が発言した時刻および発言継続時間もしくはイベント開始後の経過時間および発言継続時間を所定幅で所定色の帯状ライン158として表示したものである。このタイムチャート156は、記録終了後にビデオサーバにより生成された画像データであり、ビデオサーバのHDD30に保管されている。   As shown in FIG. 26, the time chart 156 has a time axis on the vertical axis, and a horizontal axis showing an azimuth angle with the left end being 0 ° and a rightward direction being positive, and a panoramic image (or a plurality of participation images). (Participant display area) 114 has a length (for example, a predetermined width of 60 ° so as to coincide with the horizontal axis of the participant), and the time when each participant speaks at a position corresponding to each participant and The speech continuation time or the elapsed time after the start of the event and the speech continuation time are displayed as a belt-like line 158 of a predetermined color with a predetermined width. This time chart 156 is image data generated by the video server after the end of recording, and is stored in the HDD 30 of the video server.

タイムチャート156は、図27−1、図27−2に示すように、イベント表示領域142内において、所定の動画表示領域112の下方の位置に各参加者の位置に各帯状ライン158が位置するように対応させ画像表示される。また、タイムチャート156は、再生位置表示バー160により現在の発話位置を示しており、図示右端側にはタイムチャート156を図示上下の方向にスクロールさせるスクロールバー162が設けられている。   In the time chart 156, as shown in FIGS. 27-1 and 27-2, in the event display area 142, each band-like line 158 is located at the position of each participant at a position below the predetermined moving image display area 112. The images are displayed in correspondence with each other. The time chart 156 indicates the current utterance position by the reproduction position display bar 160, and a scroll bar 162 for scrolling the time chart 156 in the up and down directions in the figure is provided on the right end side in the figure.

ここで、図28を参照し、タイムチャート156を生成する方法を、以下に説明する。まずステップ2801において起動命令を検出した場合、ステップ2802においてHDD30から話者方向データを読み出すとともに、生成するタイムチャートの大きさを算出する。タイムチャート156の横方向のサイズは、パノラマ画像の横幅と一致させるようにする。すなわち、パノラマ画像114の横方向の画素数が720である場合、タイムチャート156の横方向のサイズも720画素とする。また、タイムチャート156の縦方向のサイズは、話者方向データの時間長により計算される。例えば、タイムチャート156の縦方向の解像度を1画素/秒、また話者方向データの時間長を1時間(=3600秒)とすると、タイムチャート156の縦方向のサイズは3600画素と算出される。   Here, a method for generating the time chart 156 will be described below with reference to FIG. First, when an activation command is detected in step 2801, the speaker direction data is read from the HDD 30 in step 2802, and the size of the time chart to be generated is calculated. The size of the time chart 156 in the horizontal direction is made to match the horizontal width of the panoramic image. That is, when the number of pixels in the horizontal direction of the panoramic image 114 is 720, the size of the time chart 156 in the horizontal direction is also 720 pixels. Further, the vertical size of the time chart 156 is calculated by the time length of the speaker direction data. For example, when the vertical resolution of the time chart 156 is 1 pixel / second and the time length of the speaker direction data is 1 hour (= 3600 seconds), the vertical size of the time chart 156 is calculated as 3600 pixels. .

続いてステップ2803において、タイムチャートの全体を一旦白画素で塗り潰す。続いてステップ2804において、話者方向データに記載されている話者位置に対応する帯状ライン158を描画する処理を行う。具体的には、図17の話者方向データを1行読み出す度に、時刻と話者位置から、所定色(ここでは紺色とする)で塗り潰すべき領域を計算し、該領域を塗り潰すという処理を行う。例えば、読み出した時刻が30秒、話者位置が231度である場合、縦方向の解像度が1画素/秒、横方向の解像度は2画素/°、帯状ラインの幅が60°という条件から、左上座標(30,402)−右下座標(30,522)で示される範囲が、塗り潰し領域と計算される。以上の処理を繰り返すことにより、タイムチャート156が生成される。   In step 2803, the entire time chart is once filled with white pixels. Subsequently, in step 2804, processing for drawing a band-like line 158 corresponding to the speaker position described in the speaker direction data is performed. Specifically, each time one line of the speaker direction data in FIG. 17 is read, an area to be filled with a predetermined color (in this case, dark blue) is calculated from the time and the speaker position, and the area is filled. Process. For example, when the read time is 30 seconds and the speaker position is 231 degrees, the vertical resolution is 1 pixel / second, the horizontal resolution is 2 pixels / °, and the width of the strip line is 60 °. A range indicated by upper left coordinates (30, 402) −lower right coordinates (30, 522) is calculated as a filled area. By repeating the above processing, a time chart 156 is generated.

次に、図29を参照し本実施の形態における動画表示用PC14が所持する動画表示プログラムについて説明する。まずステップ2901において動画配信要求をネットワーク16を介しビデオサーバ12に送信する。   Next, a moving picture display program possessed by the moving picture display PC 14 in the present embodiment will be described with reference to FIG. First, in step 2901, a moving image distribution request is transmitted to the video server 12 via the network 16.

一方、ステップ2902において図27に示した如くレイアウトを有するHTMLドキュメントをビデオサーバより受信すると、該HTMLドキュメントを画像表示する。   On the other hand, when an HTML document having a layout as shown in FIG. 27 is received from the video server in step 2902, the HTML document is displayed as an image.

即ち、イベント表示領域142には、所定の動画(パノラマ画像)表示領域112、所定の動画表示領域112の下端に隣接する所定の付加情報表示領域116、所定の動画表示領域112の上端に隣接する位置指定領域90、位置指定領域90の上方に位置する操作インタフェイス122、および、所定の付加情報表示領域(音源位置表示領域)116の下方に位置するタイムチャート表示領域164が備わる。   That is, the event display area 142 is adjacent to the predetermined moving image (panoramic image) display area 112, the predetermined additional information display area 116 adjacent to the lower end of the predetermined moving picture display area 112, and the upper end of the predetermined moving picture display area 112. A position designation area 90, an operation interface 122 located above the position designation area 90, and a time chart display area 164 located below a predetermined additional information display area (sound source position display area) 116 are provided.

続いてステップ2903においてビデオサーバ12からMMSプロトコルによりネットワーク16を介し送信された画像データ、及びHTTPプロトコルによりネットワーク16を介し送信された音声データ、付加情報(参加者ID、参加者名、話者方向データ、タイムチャート等)を受信する。   Subsequently, in step 2903, the image data transmitted from the video server 12 via the network 16 using the MMS protocol, the voice data transmitted via the network 16 using the HTTP protocol, and additional information (participant ID, participant name, speaker direction). Data, time chart, etc.).

しかる後、ステップ2904において操作インタフェイス122がマウス92による指定とともにクリックされたか否かを判定する。ここで再生用ボタン124がクリックされたことを判定した場合は、ステップ2905(第1の表示手段、画像変換手段)において画像データをデコードし、かつ上述した如く変換テーブルを用いてθ=0°が両端となるように時間的に変化し得るパノラマ画像114に変換し上記レイアウトにしたがってディスプレイ86の所定の動画表示領域112に画像表示する。ステップ2906(第2の表示手段)において付加情報、即ち話者方向データに基づく話者位置表示マーク23を所定の付加情報表示領域116に表示する。かつステップ2907において音声データをスピーカ96から出力させる。   Thereafter, in step 2904, it is determined whether or not the operation interface 122 has been clicked with designation by the mouse 92. If it is determined that the playback button 124 has been clicked, the image data is decoded in step 2905 (first display means, image conversion means), and θ = 0 ° using the conversion table as described above. Is converted into a panoramic image 114 that can be changed with time so that the two are at both ends, and an image is displayed in a predetermined moving image display area 112 of the display 86 according to the layout. In step 2906 (second display means), the additional information, that is, the speaker position display mark 23 based on the speaker direction data is displayed in the predetermined additional information display area 116. In step 2907, audio data is output from the speaker 96.

しかし、ステップ2904において停止用ボタン126がクリックされたことを判定した場合は、ステップ2908においてパノラマ画像114を静止させるとともに音声データの再生を停止させ、巻き戻し用ボタン130がクリックされたことを判定した場合は、ステップ2909においてパノラマ画像114を巻き戻しさせ、早送り用ボタン132がクリックされたことを判定した場合は、ステップ2910においてパノラマ画像114を早送りさせる。ステップ2904における操作がないときには(ステップ2904:No)、ステップ2911に移行する。   However, if it is determined in step 2904 that the stop button 126 has been clicked, it is determined in step 2908 that the panoramic image 114 is stopped and the reproduction of the audio data is stopped, and the rewind button 130 is clicked. If it is determined that the panorama image 114 has been rewound in step 2909 and it is determined that the fast-forward button 132 has been clicked, the panorama image 114 is fast-forwarded in step 2910. When there is no operation in step 2904 (step 2904: No), the process proceeds to step 2911.

しかる後、ステップ2911(指定手段)において表示形態乃至表示位置変更を示すべく位置指定領域90中の所定の位置がマウス92の操作により指定されクリックされたことを検出した場合は(ステップ2911:Yes)、図27−2に示すように、ステップ2912(表示変更手段)において所定の動画表示領域112中で該指定された位置を先頭位置として先頭位置が所定の動画表示領域112の図示左側の一端(θ=0°)に位置するまで、先頭位置から図示右側に続く画像を図示左側の方向へ移動させ、かつ移動させた画像の最後尾に対し先端位置より図示左側に位置した画像をリンクする。ステップ2911にて表示形態乃至表示位置の変更がなければ(ステップ2911:No)、ステップ2915に移行する。   Thereafter, when it is detected in step 2911 (designating means) that a predetermined position in the position designation area 90 is designated and clicked by the operation of the mouse 92 in order to indicate the display form or display position change (step 2911: Yes). 27-2, as shown in FIG. 27-2, in step 2912 (display changing means), the specified position in the predetermined moving image display area 112 is set as the starting position, and the head position is one end on the left side of the predetermined moving image display area 112 in the figure. The image following the right side in the figure is moved from the head position to the left side in the figure until it is located at (θ = 0 °), and the image located on the left side from the tip position is linked to the tail of the moved image. . If there is no change in the display form or the display position in step 2911 (step 2911: No), the process proceeds to step 2915.

即ち、例えば位置指定領域において、左端からX0の位置を左クリックした場合、座標変換テーブルの左端からX0列目より図示右方向の画像データ(画素データ)の読み出しを開始し、パノラマ画像114の右端までの読み出しを行うとともに左端に戻り引き続きX0-1列目までの画像データ(画素データ)の読み出しを行い、かつ上述の如く各画像データの移動、即ち表示位置変更の処理を行なった画像表示を行う。また、ステップ2913(第2の表示手段)において所定の付加情報表示領域116に表示されていた話者位置表示マーク23も所定の動画表示領域112内において移動後に話者である参加者が表示された位置に対応してその表示位置を移動する。 Thus, for example at the location specified region, it starts reading in the case of left-click the position of X 0 from the left end, the image data in the rightward direction from the X 0 column from the left edge of the coordinate conversion table (pixel data), the panoramic image 114 The image data (pixel data) up to the X 0 -1 column is read out and the image data is moved, that is, the display position is changed as described above. Display an image. In addition, the speaker position display mark 23 displayed in the predetermined additional information display area 116 in step 2913 (second display means) also displays the participant who is the speaker after moving in the predetermined moving image display area 112. The display position is moved corresponding to the selected position.

また続いて、図27−2に示すように、ステップ2914(表示変更手段)においてタイムチャート表示領域164に画像表示されたタイムチャート156についてもパノラマ画像114中の各参加者が移動したのに追随させ各参加者の所謂発話履歴を示す各帯状ライン158の表示位置を移動させる。各帯状ライン158の表示位置の移動については、例えばタイムチャート座標変換テーブル等を用いて各帯状ライン158の表示位置の座標系を変更することで順次一意に定めてゆくことができる。   Subsequently, as shown in FIG. 27-2, the time chart 156 displayed in the time chart display area 164 in step 2914 (display changing means) also follows the movement of each participant in the panoramic image 114. The display position of each band-like line 158 indicating the so-called utterance history of each participant is moved. The movement of the display position of each band-like line 158 can be uniquely determined sequentially by changing the coordinate system of the display position of each band-like line 158 using, for example, a time chart coordinate conversion table.

一方、ステップ2915(表示変更手段)においてタイムチャート156中の任意の位置の帯状ライン158を例えばマウス92によりクリックしたことを判定した場合は(ステップ2915:Yes)、ステップ2916において該クリック位置に対応する時刻乃至イベント開始後の経過時間の時点からのパノラマ画像114を画像表示し、かつ該時点からの音声データを再生する。帯状ライン158をクリックしていなければステップ2917に移行する。   On the other hand, if it is determined in step 2915 (display changing means) that the band-like line 158 at an arbitrary position in the time chart 156 has been clicked with, for example, the mouse 92 (step 2915: Yes), it corresponds to the clicked position in step 2916. The panoramic image 114 from the time to the time elapsed or the time elapsed after the start of the event is displayed and the audio data from that time is reproduced. If the band 158 has not been clicked, the process proceeds to step 2917.

このマウス92によるクリック時点からのパノラマ画像114の画像表示および音声出力については、マウス92によるクリック位置に係わるデータをネットワーク16を介しビデオサーバ12に送信し、ビデオサーバ12のHDD30から要求に沿う画像データおよび音声データを検索しネットワーク16を介し取得する。次にステップ2917において終了するか否かを判定し、終了でない場合は(ステップ2917:No)、上述のステップ2903もしくはステップ2904に戻り上述の処理を繰り返すが、終了である場合は(ステップ2917:Yes)、本フローを終了する。   As for the image display and audio output of the panoramic image 114 from the point of time when the mouse 92 is clicked, data relating to the click position by the mouse 92 is transmitted to the video server 12 via the network 16 and the image according to the request is sent from the HDD 30 of the video server 12. Data and voice data are retrieved and acquired via the network 16. Next, in step 2917, it is determined whether or not to end. If not (step 2917: No), the process returns to the above-described step 2903 or step 2904 and the above-described processing is repeated, but if it is completed (step 2917: Yes), this flow ends.

本実施の形態においては、各参加者に対応する位置に各参加者が発言した時刻および発言継続時間もしくはイベント開始後の経過時間および発言継続時間を所定幅で所定色の帯状ライン158を表示するタイムチャート156を表示するようにしたため、第1に各参加者の発言状況を一目で見極めることが可能でありより一層わかり易く見易い映像を提供することができ、第2にタイムチャート156の各帯状ライン158のうち任意の位置をクリックすると、その時点からの画像および音声を再生することが可能であり、したがって利用する時間を任意に決められる他、繰り返し見たいシーン等があれば何度でも繰り返し見ることができ、この観点からも各段に利便性が向上する利点がある。   In the present embodiment, a band-shaped line 158 of a predetermined color is displayed with a predetermined width for the time and the speech continuation time of each participant or the elapsed time and the speech continuation time after the start of the event at a position corresponding to each participant. Since the time chart 156 is displayed, first, it is possible to determine the speech status of each participant at a glance, and it is possible to provide a more easily understandable and easy-to-understand video. Second, each band line of the time chart 156 Clicking an arbitrary position in 158 can play back the image and sound from that point, so that the time to use can be arbitrarily determined, and if there is a scene or the like to be repeatedly viewed, it can be repeatedly viewed. From this point of view, there is an advantage that convenience is improved in each stage.

ところで、上述した各種プログラムのうち、特に画像表示プログラム等は、ビデオサーバ12からネットワーク16を介し動画表示用PC14にダウンロードする場合を例に説明したが、動画表示用PC14には、図30にも示すように、一般に記録メディア(記憶媒体)としてCD―ROMの読取り装置をも備えており、したがってCD−ROMからEPROM72もしくはHDD78にインストールしてもよいことは勿論である。   Of the various programs described above, the image display program and the like have been described by way of example as being downloaded from the video server 12 to the video display PC 14 via the network 16. As shown in the figure, a CD-ROM reader is generally provided as a recording medium (storage medium). Therefore, it is needless to say that the EPROM 72 or the HDD 78 may be installed from the CD-ROM.

また、上述した各実施の形態は、本発明の技術的思想の一例を説明したものにすぎず、即ち本発明の権利範囲は上述した実施の形態の通りに限定し、縮小して解釈するべきではなく、下記のように本発明の構成要素を別の要素に変更した例も本発明と均等な発明として本発明の権利範囲に含まれるものである。   Further, each of the above-described embodiments is merely an example of the technical idea of the present invention, that is, the scope of rights of the present invention is limited to the above-described embodiments, and should be interpreted in a reduced manner. Instead, examples in which the constituent elements of the present invention are changed to other elements as described below are also included in the scope of the present invention as equivalent to the present invention.

即ち、例えば上記各実施の形態等において、カメラ(全方位カメラ)28および4チャンネルのマイク66を用いると説明したが、これらの入力形態は上記以外のものであっても構わない。例えば広角レンズ等を用いた広角カメラ等の既に利用されている撮像装置を使用して上述と同様の動作を実現した場合も、本願の権利範囲に含まれる。   In other words, for example, in each of the above-described embodiments, the camera (omnidirectional camera) 28 and the 4-channel microphone 66 are used. However, these input forms may be other than those described above. For example, a case where the same operation as described above is realized by using an already-used imaging device such as a wide-angle camera using a wide-angle lens or the like is also included in the scope of the right of the present application.

また、上記各実施の形態において、動画表示プログラムは動画表示用PC14にダウンロード乃至インストールされていると説明したが、必ずしもこのような形態でなくても構わない。例えば、動画表示用PC14がウェブブラウザを介してビデオサーバ12に対して配信要求を送信すると、ビデオサーバ12が動画表示用PC14に、例えばActiveX(R)コンポーネントとして実装された動画表示プログラムを動画データおよびHTMLデータとともに送信し、動画表示用PC14のウェブブラウザ上でこのプログラムを実行するようにしてもよい。このような構成にすることで、ユーザはネットワーク接続機能のあるPCさえあれば、特別なプログラムを事前にインストール等しなくても上述の動作を実現でき、大変好適である。   In the above embodiments, the moving image display program has been described as being downloaded or installed in the moving image display PC 14, but the present invention is not necessarily limited to such a form. For example, when the moving image display PC 14 transmits a distribution request to the video server 12 via a web browser, the video server 12 loads a moving image display program implemented as an ActiveX (R) component on the moving image display PC 14, for example, as moving image data. Alternatively, the program may be transmitted together with the HTML data and executed on the web browser of the moving image display PC 14. With such a configuration, if the user has only a PC with a network connection function, the above-described operation can be realized without installing a special program in advance, which is very suitable.

また、上記各実施の形態において、ビデオサーバ12よりドーナッツ画像が送信され、動画表示プログラムによりパノラマ画像114に変換した後に、動画表示用PC14のディスプレイ86上に表示されると説明したが、動画データの表示までの動作は上記以外のものであっても構わない。例えば、ビデオサーバ12が元々パノラマ画像114を送信する場合は、動画表示プログラムは表示形態の変更のみを行うなど、別の形態であっても構わない。   In each of the above embodiments, the donut image is transmitted from the video server 12 and converted to the panoramic image 114 by the moving image display program, and then displayed on the display 86 of the moving image display PC 14. The operations up to the display of may be other than the above. For example, when the video server 12 originally transmits the panoramic image 114, the moving image display program may be in another form such as only changing the display form.

また、上記各実施の形態において、動画表示プログラムは、ユーザが位置指定領域において指定した位置を左端とするようパノラマ画像114を表示すると説明したが、該位置を中央に位置するよう表示しても構わない。また、ユーザがパノラマ画像114の表示形態を指定するために、以下の1.〜3.のように別のインタフェイスを備えた場合でも、本願の権利範囲に含まれる。   Further, in each of the embodiments described above, it has been described that the moving image display program displays the panoramic image 114 so that the position designated by the user in the position designation area is the left end. However, the moving image display program may be displayed so that the position is centered. I do not care. In addition, in order for the user to specify the display form of the panoramic image 114, the following 1. ~ 3. Even if another interface is provided as described above, it is included in the scope of rights of the present application.

即ち、1.位置指定領域において、1回目の左クリックで移動元を指定し、2回目の左クリックで該移動元の移動先を指定する。2.マウス92のドラッグアンドドロップによる方法。位置指定領域において、移動元の位置にマウスカーソルが重なった状態で左ボタンを押下し、そのままの状態で該移動元の移動先にマウスカーソルを移動させ、そこで左ボタンを離す。3.図31に示すように、位置指定領域の代わりに位置指定ボタンを用意する。例えば、左向き三角印が記されたボタンが押下されると、動画表示プログラムは、パノラマ画像と話者位置表示マークとを所定量、例えば方位角30°に相当する量だけ、左向きにパンさせて表示する、等である。   That is: In the position designation area, the movement source is designated by the first left click, and the movement destination of the movement source is designated by the second left click. 2. A method by drag and drop of the mouse 92. In the position designation area, the left button is pressed in a state where the mouse cursor is overlapped with the position of the movement source, and the mouse cursor is moved to the movement destination of the movement source as it is, and the left button is released there. 3. As shown in FIG. 31, a position designation button is prepared instead of the position designation area. For example, when a button marked with a left triangle is pressed, the moving image display program pans the panoramic image and the speaker position display mark to the left by a predetermined amount, for example, an amount corresponding to an azimuth angle of 30 °. Display, etc.

また、実施の形態1において、ビデオサーバ12にカメラ28およびマイクアレイ34が接続されており、これらの機器により取得されたデータを動画表示用PC14にライブ配信すると説明したが、特許請求の範囲を見て分かるように、ビデオサーバ12によるライブ配信をもって本願記載の発明を限定するものではなく、したがって、動画表示用PC14にカメラ28およびマイク66が接続され、該PC14上で動画画表示プログラムがこれらの機器により取得されたデータを上述の如く表示する場合でも、本願の権利範囲に含まれる。   In the first embodiment, the camera 28 and the microphone array 34 are connected to the video server 12, and the data acquired by these devices is live-distributed to the moving image display PC 14. As can be seen, the invention described in the present application is not limited by the live distribution by the video server 12. Therefore, the camera 28 and the microphone 66 are connected to the moving image display PC 14, and the moving image display program is executed on the PC 14. Even when the data acquired by the device is displayed as described above, it is included in the scope of rights of the present application.

また、実施の形態2において、ビデオサーバ12内に画像データ、音声データ等を蓄えておき、動画表示用PC14からの配信要求に応じてオンデマンド配信すると説明したが、特許請求の範囲を見て分かるように、ビデオサーバ12によるオンデマンド配信をもって本願記載の発明を限定するものではなく、したがって、動画表示用PC14内に画像データ、音声データ等を蓄えておき、該PC114上で画像表示プログラムがこれらのデータを読み出して、上述の如く表示する場合でも、本願の権利範囲に含まれる。また、実施の形態2において、画像配信プログラムは記録開始時刻を0とする相対時刻をパラメータにとると説明したが、絶対時刻であっても構わない。   Further, in the second embodiment, it has been described that image data, audio data, and the like are stored in the video server 12 and are distributed on demand in response to a distribution request from the moving image display PC 14. As can be seen, the on-demand distribution by the video server 12 does not limit the invention described in the present application. Therefore, image data, audio data, etc. are stored in the moving image display PC 14, and an image display program is stored on the PC 114. Even when these data are read and displayed as described above, they are within the scope of the present application. In the second embodiment, the image distribution program is described as taking the relative time with the recording start time as 0 as a parameter, but it may be an absolute time.

また、実施の形態3において説明した参加者特定プログラムの動作も、上述の通りに限定されず、全く別の形態であってもよい。例えば、ドーナッツ画像をパノラマ画像114に変形するハードウェア又はプログラムをビデオサーバ12に実装し、パノラマ画像114に変形した後に参加者の特定および追跡を行っても構わない。また、各々の参加者が電波送信機能を有したICカードを装着し、各々のICカードから送られてくる電波を読み取ることにより参加者IDと位置を取得し、その結果と画像データとを照合することにより、画像データ中の参加者を特定するなど、全く別の構成であっても構わない。   Further, the operation of the participant specifying program described in the third embodiment is not limited as described above, and may be completely different. For example, hardware or a program that transforms a donut image into a panoramic image 114 may be installed in the video server 12, and the participants may be identified and tracked after being transformed into the panoramic image 114. Each participant wears an IC card with a radio wave transmission function, reads the radio wave sent from each IC card, acquires the participant ID and position, and collates the result with the image data. By doing so, the configuration may be completely different, such as specifying the participants in the image data.

また、実施の形態3において説明した話者検出プログラムの動作も、上述の通りに限定されず、全く別の形態であってもよい。例えば、一つのマイクより入力される音声データを予めビデオサーバ12に登録された参加者の声と照合することにより話者を特定し、その結果を参加者特定プログラムの出力と照合させることにより、話者の位置を検出するよう構成しても構わない。また、実施の形態4において、動画配信プログラムはタイムチャート156を画像データとして動画表示用PC14に送信すると説明したが、これとは異なる形態であってもよい。例えば、図17に示すような話者方向データを送信し、動画表示の際にタイムチャート156をリアルタイムに生成し表示しても構わない。   Further, the operation of the speaker detection program described in the third embodiment is not limited as described above, and may be completely different. For example, by identifying voice data input from one microphone with the voice of a participant registered in the video server 12 in advance, the speaker is identified, and the result is collated with the output of the participant identification program. You may comprise so that the position of a speaker may be detected. In the fourth embodiment, it has been described that the moving image distribution program transmits the time chart 156 to the moving image display PC 14 as image data. However, the moving image distribution program may have a different form. For example, speaker direction data as shown in FIG. 17 may be transmitted, and the time chart 156 may be generated and displayed in real time when displaying a moving image.

また、実施の形態4は、カメラ28とマイクアレイ34で取得された画像データ、音声データをライブ配信する用途にも適用できる。例えば、動画表示プログラムがビデオサーバ12より受信した話者の方向の履歴を蓄えておき、画像表示の際に随時タイムチャート156を更新しながら表示した場合も、本願の権利範囲に含まれる。また、動画表示用PC14側に動画を表示する際は、所定の動画表示領域112と複数の参加者表示領域148との何れにも任意に切り換えられるようにしても構わない。   Further, the fourth embodiment can be applied to an application in which image data and audio data acquired by the camera 28 and the microphone array 34 are distributed live. For example, a case where the moving image display program stores the history of the direction of the speaker received from the video server 12 and displays it while updating the time chart 156 at the time of image display is also included in the scope of rights of the present application. Further, when a moving image is displayed on the moving image display PC 14 side, it may be arbitrarily switched between the predetermined moving image display area 112 and a plurality of participant display areas 148.

本発明に係わるデータ表示システム、データ表示方法、プログラム、および記録媒体においては、360度周囲の方向を撮影した画像を時間的に変化し得るパノラマ画像乃至パノラマ的画像に変換してディプレイ上に画像表示するようにし、かつ1クリック等の簡単な操作で表示形態乃至表示位置を自在に変更できるようにしたので、非常にわかり易くかつ見易く各段に利便性が高くなり、例えば円卓を囲む複数の参加者で社内会議や時節懇談会、あるいは国際的な民族間の協議会やトークショー等の実況を行って例えば遠隔地の多数の人が観覧するというあらゆる電子会議的な分野において優れた利便性の付加価値を提供し多くの人々の間で利用することが可能である。   In the data display system, the data display method, the program, and the recording medium according to the present invention, an image obtained by photographing a direction around 360 degrees is converted into a panorama image or a panoramic image that can be changed with time, and displayed on the display. Since the image display and the display form or the display position can be freely changed by a simple operation such as one click, it is very easy to understand and easy to see. Excellent convenience in all electronic conference fields where many participants from remote locations watch live events such as in-house conferences, occasional round-table conferences, and international ethnic conferences and talk shows. It provides added value and can be used by many people.

実施の形態1に係わるデータ表示システムの構成を説明する説明図である。1 is an explanatory diagram illustrating a configuration of a data display system according to a first embodiment. 実施の形態1に係わるビデオサーバの構成を示すブロック図である。1 is a block diagram illustrating a configuration of a video server according to Embodiment 1. FIG. 実施の形態1に係わるカメラ部およびマイクアレイの構成を説明する斜視図である。FIG. 3 is a perspective view illustrating the configuration of a camera unit and a microphone array according to the first embodiment. 前記カメラ部で撮影した画像の一例を説明する説明図である。It is explanatory drawing explaining an example of the image image | photographed with the said camera part. 実施の形態1に係わる動画表示用PCの構成を示すブロック図である。3 is a block diagram illustrating a configuration of a moving image display PC according to Embodiment 1. FIG. 実施の形態1に係わるデータ表示システムのプログラム構成を説明する説明図である。FIG. 3 is an explanatory diagram for explaining a program configuration of the data display system according to the first embodiment. 実施の形態1におけるパノラマ画像の一例を説明する説明図である。6 is an explanatory diagram illustrating an example of a panoramic image in Embodiment 1. FIG. 実施の形態1における画像表示レイアウトの具体例を説明する説明図である。6 is an explanatory diagram illustrating a specific example of an image display layout according to Embodiment 1. FIG. 前記パノラマ画像の表示位置変更の指定操作の一例を説明する説明図である。It is explanatory drawing explaining an example of designation | designated operation of the display position change of the said panoramic image. 前記パノラマ画像の表示形態変更後の一例を説明する説明図である。It is explanatory drawing explaining an example after the display form change of the said panoramic image. 前記パノラマ画像に変換する一原理の一要素を説明する説明図である。It is explanatory drawing explaining the element of the one principle converted into the said panoramic image. 前記パノラマ画像に変換する一原理の他の一要素を説明する説明図である。It is explanatory drawing explaining another element of the one principle converted into the said panorama image. 前記パノラマ画像の表示形態を変更する際の座標変換テーブルを説明する説明図である。It is explanatory drawing explaining the coordinate conversion table at the time of changing the display form of the said panoramic image. 実施の形態1における話者検出プログラムの処理を示すフローチャートである。4 is a flowchart showing processing of a speaker detection program in the first embodiment. 実施の形態1における動画配信プログラムの処理を示すフローチャートである。4 is a flowchart showing processing of a moving image distribution program in the first embodiment. 実施の形態1における動画表示プログラムの処理を示すフローチャートである。3 is a flowchart illustrating processing of a moving image display program according to Embodiment 1. 実施の形態2に係わるデータ表示システムの構成を説明する説明図である。6 is an explanatory diagram illustrating a configuration of a data display system according to Embodiment 2. FIG. 実施の形態2に係わるデータ表示システムのプログラム構成を説明する説明図である。10 is an explanatory diagram illustrating a program configuration of a data display system according to Embodiment 2. FIG. 実施の形態2における話者方向データのフォーマットを説明する説明図である。FIG. 11 is an explanatory diagram for explaining a format of speaker direction data in the second embodiment. 実施の形態2における画像表示レイアウトの具体例を説明する説明図である。10 is an explanatory diagram illustrating a specific example of an image display layout in Embodiment 2. FIG. 実施の形態2における非動画配信時の画像表示例を説明する説明図である。10 is an explanatory diagram illustrating an image display example at the time of non-moving image distribution in Embodiment 2. FIG. 実施の形態2における動画表示プログラムの処理を示すフローチャートである。10 is a flowchart illustrating processing of a moving image display program according to Embodiment 2. 実施の形態3に係わるデータ表示システムのプログラム構成を説明する説明図である。10 is an explanatory diagram illustrating a program configuration of a data display system according to Embodiment 3. FIG. 実施の形態3における参加者特定データのレイアウトの具体例を説明する説明図である。10 is an explanatory diagram illustrating a specific example of a layout of participant specifying data in Embodiment 3. FIG. 実施の形態3における画像表示レイアウトの具体例を説明する説明図である。10 is an explanatory diagram illustrating a specific example of an image display layout according to Embodiment 3. FIG. 実施の形態3における複数の参加者表示画像の表示形態変更後の一例を説明する説明図である。FIG. 10 is an explanatory diagram for explaining an example after a display form change of a plurality of participant display images in the third embodiment. 実施の形態3における参加者特定プログラムの処理を示すフローチャートである。10 is a flowchart showing processing of a participant specifying program in the third embodiment. 実施の形態3における動画表示プログラムの処理を示すフローチャートである。10 is a flowchart illustrating processing of a moving image display program according to Embodiment 3. 実施の形態4に係わるデータ表示システムが生成するタイムチャートの一例を説明する説明図である。FIG. 10 is an explanatory diagram illustrating an example of a time chart generated by the data display system according to the fourth embodiment. 実施の形態4における画像表示レイアウトの具体例を説明する説明図である。FIG. 16 is an explanatory diagram for explaining a specific example of an image display layout in a fourth embodiment. 実施の形態4におけるパノラマ画像およびタイムチャートの表示形態変更後の一例を説明する説明図である。FIG. 10 is an explanatory diagram illustrating an example after changing the display form of a panoramic image and a time chart in the fourth embodiment. 実施の形態4におけるタイムチャート生成プログラムの処理を示すフローチャートである。14 is a flowchart showing processing of a time chart generation program in the fourth embodiment. 実施の形態4における動画表示プログラムの処理を示すフローチャートである。10 is a flowchart illustrating processing of a moving image display program according to Embodiment 4. 動画表示用PCに動画表示プログラム等をインストールする場合を説明する説明図である。It is explanatory drawing explaining the case where a moving image display program etc. are installed in PC for moving image display. 操作インタフェイスの他の具体例を説明する説明図である。It is explanatory drawing explaining the other specific example of an operation interface.

符号の説明Explanation of symbols

10 データ表示システム
12 ビデオサーバ
14 動画表示用PC
16 ネットワーク
22,72 EPROM
23 話者位置表示マーク
24,74 RAM
26,76 VRAM
28 カメラ
30,78 HDD
32,80 ビデオキャプチャ
34 マイクアレイ
38,84 アドレス制御部
40,86 ディスプレイ
42,88 キーボード
44,94 音響再生部
46,96 スピーカ
48,98 送受信部
50,100 通信インタフェイス
52,102 CPU
56 台座
58 集光レンズ
60 透明包囲体
62 双曲面ミラー
64 カメラ部
66 マイク
90 位置指定領域
92 マウス
112 動画表示領域
114 パノラマ画像
116 所定の付加情報表示領域
120 フィールド
122 操作インタフェイス
124 再生用ボタン
126 停止用ボタン
128 一時停止用ボタン
130 巻き戻し用ボタン
132 早送り用ボタン
142 イベント表示領域
144 左変更ボタン
146 右変更ボタン
148 参加者表示領域
150 話者表示マーク
156 タイムチャート
158 帯状ライン
160 再生位置表示バー
162 スクロールバー
164 タイムチャート表示領域
10 Data Display System 12 Video Server 14 Video Display PC
16 Network 22, 72 EPROM
23 Speaker position indication mark 24, 74 RAM
26,76 VRAM
28 Camera 30, 78 HDD
32, 80 Video capture 34 Microphone array 38, 84 Address control unit 40, 86 Display 42, 88 Keyboard 44, 94 Sound reproduction unit 46, 96 Speaker 48, 98 Transmission / reception unit 50, 100 Communication interface 52, 102 CPU
56 pedestal 58 condensing lens 60 transparent enclosure 62 hyperboloid mirror 64 camera unit 66 microphone 90 position designation area 92 mouse 112 moving image display area 114 panoramic image 116 predetermined additional information display area 120 field 122 operation interface 124 reproduction button 126 Stop button 128 Pause button 130 Rewind button 132 Fast forward button 142 Event display area 144 Left change button 146 Right change button 148 Participant display area 150 Speaker display mark 156 Time chart 158 Band-shaped line 160 Playback position display bar 162 Scroll bar 164 Time chart display area

Claims (20)

動画表示用パーソナルコンピュータであって、
360度周囲の方向の被写体を撮影した全方位画像データをパノラマ画像に変換し、当該パノラマ画像を画像表示手段の画像表示領域に表示する第1の表示手段と、
前記パノラマ画像の表示位置変更のための位置指定領域を表示する第2の表示手段と、
前記位置指定領域上で前記パノラマ画像の表示位置変更を指定する指定手段と、
前記位置指定領域中の位置が前記指定手段により指定されたことを検出すると、前記指定された位置のパノラマ画像を前記画像表示領域の一端に移動させて前記動画表示領域の表示を変更する表示変更手段と、を有し、
前記表示変更手段は、前記指定手段で前記位置が指定された場合、
前記指定された位置を先頭として後続する画像データを読み出すと共に、前記画像表示領域内の前記先頭位置から前記指定された位置までの画像データの読み出しを行い、
前記画像表示領域内の前記位置に対する位置のパノラマ画像を先頭位置として後続するパノラマ画像とともに前記画像表示領域の一端に移動させ、かつ、前記画像表示領域内の前記先頭位置と前記画像表示領域の移動先との間のパノラマ画像を前記後続する画像データの最後尾にリンクさせることを特徴とする動画表示用パーソナルコンピュータ。
A personal computer for displaying video,
First display means for converting omnidirectional image data obtained by photographing a subject around 360 degrees into a panoramic image and displaying the panoramic image in an image display area of the image display means;
Second display means for displaying a position designation area for changing the display position of the panoramic image;
A designation means for designating a change in the display position of the panoramic image on the position designation area;
When it is detected that the position in the position designation area is designated by the designation means, a display change is performed in which the panoramic image at the designated position is moved to one end of the image display area and the display of the moving image display area is changed. includes a means, a,
The display changing means, when the position is designated by the designation means,
Read the subsequent image data with the designated position as the head, and read out the image data from the head position in the image display area to the designated position,
A panoramic image at a position relative to the position in the image display area is moved to one end of the image display area together with a subsequent panorama image as a head position, and the head position and the image display area in the image display area are moved. A personal computer for displaying a moving image, wherein a panoramic image between the first and the last is linked to the last of the subsequent image data .
前記位置指定領域は、前記第1の表示手段によって表示される画像表示領域に隣接して表示されることを特徴とする請求項1に記載の動画表示用パーソナルコンピュータ。   2. The moving image display personal computer according to claim 1, wherein the position designation area is displayed adjacent to an image display area displayed by the first display means. 前記指定手段により前記位置を指定する際は、前記画像表示領域内において前記被写体外の所要の空間内の方向を指定することを特徴とする請求項1または2に記載の動画表示用パーソナルコンピュータ。   3. The moving picture display personal computer according to claim 1, wherein when the position is designated by the designation means, a direction in a required space outside the subject is designated in the image display area. 前記表示変更手段は、前記指定手段で前記位置が指定された場合、前記画像表示領域内の該位置のパノラマ画像を先頭位置として後続するパノラマ画像とともに前記画像表示領域の一端に移動させ、前記先頭位置の移動とともに前記一端からはみ出す分のパノラマ画像を前記後続するパノラマ画像の最後尾にリンクさせることを特徴とする請求項1〜3のいずれか一つに記載の動画表示用パーソナルコンピュータ。When the position is designated by the designation means, the display changing means moves the panoramic image at the position in the image display area to one end of the image display area together with the following panoramic image as a head position, and The personal computer for moving image display according to any one of claims 1 to 3, wherein a panoramic image that protrudes from the one end with the movement of the position is linked to the tail of the subsequent panoramic image. 前記全方位画像データは少なくとも1以上の被写体を含み、The omnidirectional image data includes at least one subject,
前記動画表示用パーソナルコンピュータはさらに、The moving image display personal computer further includes:
前記被写体に関連する付加情報を前記画像表示手段の付加情報表示領域に表示する第3の表示手段を備え、Third display means for displaying additional information related to the subject in the additional information display area of the image display means;
前記第3の表示手段は、前記画像表示領域に対し前記付加情報表示領域を隣接させて表示し、かつ、前記付加情報表示領域に前記画像表示領域内の被写体毎の位置に合わせ被写体毎に関係する前記付加情報を表示させることを特徴とする請求項1〜4のいずれかに記載の動画表示用パーソナルコンピュータ。The third display means displays the additional information display area adjacent to the image display area, and is related to each subject in accordance with the position of each subject in the image display area in the additional information display area. The moving image display personal computer according to claim 1, wherein the additional information to be displayed is displayed.
前記第3の表示手段は、前記画像表示領域に対し、前記付加情報表示領域として、前記音源方向データに対応して発音者である前記被写体を指向する音源位置表示マークを表示する音源位置表示領域を隣接させることを特徴とする請求項5に記載の動画表示用パーソナルコンピュータ。The third display means is a sound source position display area for displaying a sound source position display mark pointing to the subject who is a speaker corresponding to the sound source direction data as the additional information display area with respect to the image display area. The personal computer for displaying moving images according to claim 5, wherein: 前記第2の表示手段は、前記画像表示領域に画像表示した各被写体付近に該被写体に関係する付加情報として参加者IDもしくは参加者名を表示することを特徴とする請求項5または6に記載の動画表示用パーソナルコンピュータ。The second display means displays a participant ID or a participant name as additional information related to the subject in the vicinity of each subject displayed as an image in the image display area. Personal video display personal computer. 前記画像表示領域の付近に被写体毎の発音時の時刻乃至イベント開始後の経過時間、および発音継続時間を記録したタイムチャートを表示することを特徴とする請求項6または7に記載の動画表示用パーソナルコンピュータ。8. The moving image display according to claim 6, wherein a time chart in which the time of sound generation for each subject, the elapsed time after the start of the event, and the sound generation duration time are recorded is displayed in the vicinity of the image display area. Personal computer. 前記表示変更手段は、The display changing means includes
前記指定手段で前記位置が指定されて前記被写体のパノラマ画像を移動させる場合、該パノラマ画像の各被写体の移動に合わせて、前記タイムチャート内の該被写体の発音時の時刻乃至イベント開始後の経過時間、および発音継続時間の記録内容を移動させることを特徴とする請求項8に記載の動画表示用パーソナルコンピュータ。When the position is designated by the designation means and the panoramic image of the subject is moved, the time at which the subject is sounded in the time chart or the time after the start of the event in accordance with the movement of each subject of the panoramic image 9. The moving picture display personal computer according to claim 8, wherein the recorded contents of the time and the pronunciation duration are moved.
前記表示変更手段は、前記タイムチャート内の所要の位置の記録内容が指定された場合、該位置からの画像データ、音声データ、付加情報を出力することを特徴とする請求項9に記載の動画表示用パーソナルコンピュータ。The moving image according to claim 9, wherein the display change unit outputs image data, audio data, and additional information from the position when a recording content at a required position in the time chart is designated. Personal computer for display. 前記画像表示領域の付近に再生用ボタン、停止用ボタン、一時停止用ボタン、巻き戻し用ボタン、早送り用ボタン等を含む操作インタフェイスを表示することを特徴とする請求項1〜10のいずれか一つに記載の動画表示用パーソナルコンピュータ。11. An operation interface including a playback button, a stop button, a pause button, a rewind button, a fast-forward button, and the like is displayed in the vicinity of the image display area. The personal computer for moving image display as described in one. 前記動画表示用パーソナルコンピュータはさらに、The moving image display personal computer further includes:
前記全方位画像データを記憶する記憶手段を備えることを特徴とする請求項1〜11のいずれか一つに記載の動画表示用パーソナルコンピュータ。The personal computer for moving image display according to claim 1, further comprising storage means for storing the omnidirectional image data.
前記記憶手段はさらに、前記被写体に関連する付加情報を記憶していることを特徴とする請求項12に記載の動画表示用パーソナルコンピュータ。13. The moving image display personal computer according to claim 12, wherein the storage means further stores additional information related to the subject. 前記動画表示用パーソナルコンピュータはネットワークを介してビデオサーバと接続され、The video display personal computer is connected to a video server via a network,
前記全方位画像データは前記ビデオサーバから取得されることを特徴とする請求項12に記載の動画表示用パーソナルコンピュータ。13. The moving image display personal computer according to claim 12, wherein the omnidirectional image data is acquired from the video server.
前記付加情報は前記ビデオサーバから取得されることを特徴とする請求項13に記載の動画表示用パーソナルコンピュータ。14. The moving image display personal computer according to claim 13, wherein the additional information is acquired from the video server. 請求項1〜11のいずれか一つに記載の動画表示用パーソナルコンピュータとネットワークを介して接続されるビデオサーバとからなるデータ表示システムであって、A data display system comprising a moving image display personal computer according to any one of claims 1 to 11 and a video server connected via a network,
前記ビデオサーバは、The video server is
少なくとも1以上の被写体を含む前記全方位画像データを取得する前記画像データ取得手段と、The image data acquisition means for acquiring the omnidirectional image data including at least one subject;
前記被写体に関連する付加情報を取得する前記付加情報取得手段と、The additional information acquisition means for acquiring additional information related to the subject;
前記被写体の音声や音もしくは楽音を収集する前記音響収集手段と、The sound collecting means for collecting voice, sound or music of the subject;
前記画像データ、前記付加情報、音声データ、音データ、もしくは楽音データを記憶する記憶手段と、Storage means for storing the image data, the additional information, audio data, sound data, or musical sound data;
前記画像データ、前記付加情報、前記音声データ等をライブ配信する配信手段とを備え、Distribution means for live distribution of the image data, the additional information, the audio data, and the like,
前記動画表示用パーソナルコンピュータはさらに、The moving image display personal computer further includes:
前記ビデオサーバが配信する前記画像データ、前記付加情報、前記音声データ、前記音データ、もしくは前記楽音データを受信する受信手段を備えることを特徴とするデータ表示システム。A data display system comprising receiving means for receiving the image data, the additional information, the audio data, the sound data, or the musical sound data distributed by the video server.
請求項1〜11のいずれか一つに記載の動画表示用パーソナルコンピュータとネットワークを介して接続されるビデオサーバとからなるデータ表示システムであって、A data display system comprising a moving image display personal computer according to any one of claims 1 to 11 and a video server connected via a network,
前記ビデオサーバは、The video server is
少なくとも1以上の被写体を含む前記全方位画像データを取得する前記画像データ取得手段と、  The image data acquisition means for acquiring the omnidirectional image data including at least one subject;
前記被写体に関連する付加情報を取得する前記付加情報取得手段と、The additional information acquisition means for acquiring additional information related to the subject;
前記被写体の音声や音もしくは楽音を収集する前記音響収集手段と、The sound collecting means for collecting voice, sound or music of the subject;
前記画像データ、前記付加情報、音声データ、音データ、もしくは楽音データを記憶する記憶手段と、Storage means for storing the image data, the additional information, audio data, sound data, or musical sound data;
前記動画表示用パーソナルコンピュータはさらに、The moving image display personal computer further includes:
前記ビデオサーバが配信する前記画像データ、前記付加情報、前記音声データ、前記音データ、もしくは前記楽音データを受信する受信手段と、Receiving means for receiving the image data, the additional information, the audio data, the sound data, or the musical sound data distributed by the video server;
前記ビデオサーバに対して動画配信要求を送信する送信手段とを備え、Transmission means for transmitting a moving image distribution request to the video server,
前記ビデオデータはさらに、前記動画表示用パーソナルコンピュータから動画配信要求を受信すると、前記画像データ、前記付加情報、前記音声データ等を前記記憶手段から読み出して該ネットワークを介し配信する配信手段とを備えることを特徴とするデータ表示システム。The video data further comprises distribution means for reading out the image data, the additional information, the audio data, and the like from the storage means and distributing them via the network when a video distribution request is received from the video display personal computer. A data display system characterized by that.
動画表示用パーソナルコンピュータに動画を表示させる動画表示方法であって、A video display method for displaying a video on a personal computer for video display,
360度周囲の方向の被写体を撮影した全方位画像データをパノラマ画像に変換し、当該パノラマ画像を画像表示手段の画像表示領域に表示する第1の表示工程と、A first display step of converting omnidirectional image data obtained by photographing a subject in a direction around 360 degrees into a panoramic image and displaying the panoramic image in an image display area of an image display unit;
前記パノラマ画像の表示位置変更のための位置指定領域を表示する第2の表示工程と、A second display step of displaying a position designation area for changing the display position of the panoramic image;
前記位置指定領域上で前記パノラマ画像の表示位置変更を指定する指定工程と、A designation step for designating a change in the display position of the panoramic image on the position designation area;
前記位置指定領域中の位置が前記指定手段により指定されたことを検出すると、前記指定された位置のパノラマ画像を前記画像表示領域の一端に移動させて前記動画表示領域の表示を変更する表示変更工程と、を含み、When it is detected that the position in the position designation area is designated by the designation means, a display change is performed in which the panoramic image at the designated position is moved to one end of the image display area and the display of the moving image display area is changed. Including a process,
前記表示変更工程は、前記指定工程で前記位置が指定された場合、In the display change step, when the position is designated in the designation step,
前記指定された位置を先頭として後続する画像データを読み出すと共に、前記画像表示領域内の前記先頭位置から前記指定された位置までの画像データの読み出しを行い、Read the subsequent image data with the designated position as the head, and read out the image data from the head position in the image display area to the designated position,
前記画像表示領域内の前記位置に対する位置のパノラマ画像を先頭位置として後続するパノラマ画像とともに前記画像表示領域の一端に移動させ、かつ、前記画像表示領域内の前記先頭位置と前記画像表示領域の移動先との間のパノラマ画像を前記後続する画像データの最後尾にリンクさせることを特徴とする動画表示方法。A panoramic image at a position relative to the position in the image display area is moved to one end of the image display area together with a subsequent panorama image as a head position, and the head position and the image display area in the image display area are moved. A moving image display method characterized by linking a panoramic image between the previous image data and the last image data.
請求項18に記載の方法をコンピュータに実行させることを特徴とする動画表示プログラム。A moving image display program for causing a computer to execute the method according to claim 18. 請求項19に記載のプログラムを記録したことを特徴とする記録媒体。A recording medium on which the program according to claim 19 is recorded.
JP2003329203A 2003-09-19 2003-09-19 Movie display personal computer, data display system, movie display method, movie display program, and recording medium Expired - Fee Related JP4414708B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003329203A JP4414708B2 (en) 2003-09-19 2003-09-19 Movie display personal computer, data display system, movie display method, movie display program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003329203A JP4414708B2 (en) 2003-09-19 2003-09-19 Movie display personal computer, data display system, movie display method, movie display program, and recording medium

Publications (2)

Publication Number Publication Date
JP2005094713A JP2005094713A (en) 2005-04-07
JP4414708B2 true JP4414708B2 (en) 2010-02-10

Family

ID=34458509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003329203A Expired - Fee Related JP4414708B2 (en) 2003-09-19 2003-09-19 Movie display personal computer, data display system, movie display method, movie display program, and recording medium

Country Status (1)

Country Link
JP (1) JP4414708B2 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4228010B2 (en) * 2006-09-29 2009-02-25 Necエンジニアリング株式会社 Video conferencing equipment
JP5203628B2 (en) * 2007-04-19 2013-06-05 株式会社東芝 Medical site display system
US9065971B2 (en) * 2012-12-19 2015-06-23 Microsoft Technology Licensing, Llc Video and audio tagging for active speaker detection
JP5949843B2 (en) * 2013-06-28 2016-07-13 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing apparatus control method, and program
CN105100677A (en) * 2014-05-21 2015-11-25 华为技术有限公司 Method for presenting video conference, devices for presenting video conference and system for presenting video conference
JP6589294B2 (en) * 2015-02-27 2019-10-16 株式会社ニコン Image display device
US9602758B2 (en) 2015-07-10 2017-03-21 Ricoh Company, Ltd. Communication apparatus, conference system, computer-readable recording medium, and display control method
JP5979458B1 (en) * 2015-11-06 2016-08-24 パナソニックIpマネジメント株式会社 Unmanned air vehicle detection system and unmanned air vehicle detection method
JP6711118B2 (en) * 2016-05-02 2020-06-17 株式会社リコー Image management system, program and information terminal
JP2018026792A (en) * 2016-07-28 2018-02-15 パナソニックIpマネジメント株式会社 Unmanned flying object detection system and unmanned flying object detection method
US10721116B2 (en) 2016-09-30 2020-07-21 Ricoh Company, Ltd. Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium
US10264302B2 (en) 2016-09-30 2019-04-16 Ricoh Company, Ltd. Communication management apparatus, method and computer-readable storage medium for generating image data identification information
JP6756269B2 (en) 2017-01-05 2020-09-16 株式会社リコー Communication terminals, image communication systems, communication methods, and programs
JP6805861B2 (en) 2017-02-09 2020-12-23 株式会社リコー Image processing equipment, image processing system, image processing method and program
JP6864833B2 (en) * 2017-06-05 2021-04-28 株式会社Jvcケンウッド Chat terminal device, chat system, chat display method, and chat display program
CN108682032B (en) * 2018-04-02 2021-06-08 广州视源电子科技股份有限公司 Method and device for controlling video image output, readable storage medium and terminal
CN109089087B (en) * 2018-10-18 2020-09-29 广州市盛光微电子有限公司 Multi-channel audio-video linkage device
JP7152453B2 (en) * 2020-09-29 2022-10-12 ソフトバンク株式会社 Information processing device, information processing method, information processing program, and information processing system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3140866B2 (en) * 1992-11-06 2001-03-05 株式会社リコー Video conference system
JPH07236128A (en) * 1994-02-25 1995-09-05 Sharp Corp Multi-position conference controller
JP3625549B2 (en) * 1995-10-20 2005-03-02 ヒューレット・パッカード・カンパニー Multipoint video conferencing system
JPH10145763A (en) * 1996-11-15 1998-05-29 Mitsubishi Electric Corp Conference system
JP2002109099A (en) * 2000-09-28 2002-04-12 Nippon Telegraph & Telephone West Corp System and device for recording data and video image/ voice, and computer readable recording medium
JP2002320215A (en) * 2001-02-16 2002-10-31 Fujitsu Ltd Servo computer for distributing moving image, method for editing moving image, client computer for receiving moving image, method for distributing moving image, client server system for distributing moving image moving image reproduction processing program, and recording medium
JP2002247489A (en) * 2001-02-21 2002-08-30 Ricoh Co Ltd Recorder, recording method, recording program, recording and reproducing device, recording and reproducing program, and recording medium
JP4439763B2 (en) * 2001-07-04 2010-03-24 株式会社リコー Image recording / reproducing system and image recording / reproducing method

Also Published As

Publication number Publication date
JP2005094713A (en) 2005-04-07

Similar Documents

Publication Publication Date Title
JP4414708B2 (en) Movie display personal computer, data display system, movie display method, movie display program, and recording medium
JP6770061B2 (en) Methods and devices for playing video content anytime, anywhere
JP4760892B2 (en) Display control apparatus, display control method, and program
JP5027400B2 (en) Automatic facial region extraction for use in recorded meeting timelines
US20070122786A1 (en) Video karaoke system
JP6787394B2 (en) Information processing equipment, information processing methods, programs
KR101530826B1 (en) Playing method and the system of 360 degree spacial video
GB2342802A (en) Indexing conference content onto a timeline
TW201501510A (en) Method and system for displaying multi-view images and non-transitory computer readable storage medium thereof
JP2003018561A (en) Pantoscopic video image recording/reproducing system, conference recording/reproducing system, pantoscopic video image transmitting apparatus, conference video image transmitting apparatus, pantoscopic video image reproducing apparatus, conference video image reproducing apparatus, pantoscopic video image recording/reproducing method, conference video image reproducing method, pantoscopic video image transmitting method, conference video image transmitting method, pantoscopic video image reproducing method, conference video image reproducing method and program
WO2018020841A1 (en) Voice monitoring system and voice monitoring method
KR101398032B1 (en) Method of creating and reproducing a panoramic sound image, and apparatus for reproducing such an image
JP4451892B2 (en) Video playback device, video playback method, and video playback program
JP2006245648A (en) Information processing system, information processing apparatus, information processing method, program and recording medium
CN114327700A (en) Virtual reality equipment and screenshot picture playing method
KR20160021706A (en) Playing method and the system of 360 degree spacial video
TWI439134B (en) 3d digital image monitor system and method
CN110730340B (en) Virtual audience display method, system and storage medium based on lens transformation
JP5490689B2 (en) Method for generating sound sequence of a plurality of photographs and device for generating and reproducing the sound sequence
JP2009246917A (en) Video display device, and video processing apparatus
WO2017022296A1 (en) Information management device, information management method, image reproduction device and image reproduction method
JP5201540B2 (en) Karaoke device and karaoke singer&#39;s still image output method
JP3954439B2 (en) Video recording system, program, and recording medium
JP6720575B2 (en) Video playback device and video processing device
US20220264008A1 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090831

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091120

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4414708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131127

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees