JP2006211524A - Video display apparatus, control method of video processing apparatus, program, and storage medium - Google Patents

Video display apparatus, control method of video processing apparatus, program, and storage medium Download PDF

Info

Publication number
JP2006211524A
JP2006211524A JP2005023504A JP2005023504A JP2006211524A JP 2006211524 A JP2006211524 A JP 2006211524A JP 2005023504 A JP2005023504 A JP 2005023504A JP 2005023504 A JP2005023504 A JP 2005023504A JP 2006211524 A JP2006211524 A JP 2006211524A
Authority
JP
Japan
Prior art keywords
video
camera control
camera
information
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005023504A
Other languages
Japanese (ja)
Inventor
Takahiro Kurosawa
貴弘 黒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005023504A priority Critical patent/JP2006211524A/en
Publication of JP2006211524A publication Critical patent/JP2006211524A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To easily know contents of camera control that may occur next, when reproducing and displaying a video clip. <P>SOLUTION: Prior to the video display of a video file, camera control information contained in the video file is extracted, a video image of the video file is displayed and based on the extracted camera control information, camera control contents relating to video images of time bands with no display are displayed. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ネットワークを介して接続されたカメラサーバから受信した映像ファイルを表示する映像表示装置、映像処理装置の制御方法、プログラム、及び記憶媒体に関するものである。   The present invention relates to a video display device that displays a video file received from a camera server connected via a network, a control method for the video processing device, a program, and a storage medium.

カメラ装置などのライブ映像ソースの制御情報を反映して作成された映像データ(映像クリップ)を再生利用する場合の映像クリップ再生利用技術が知られている。以下この技術に関係する既存の技術を説明する。   2. Description of the Related Art There is known a technique for reproducing and using video clips when video data (video clips) created by reflecting control information of a live video source such as a camera device is reproduced. The existing technology related to this technology will be described below.

<ライブ映像通信システム>
撮影したライブ映像を、インターネットなどの通信インフラストラクチャを使って配信するとともに、撮影のためのカメラ設定やカメラ操作などを指示する技術が確立され、製品が販売されている。例えば、キヤノン社の映像配信システムWebView/Livescope、および、同社のライブネットワークカメラサーバVB101やネットワークカメラVB−C10などである。
<Live video communication system>
A technology for instructing camera settings for camera shooting and camera operation, etc., has been established and products are being sold while delivering live video using a communication infrastructure such as the Internet. For example, Canon's video distribution system WebView / Livescope, the company's live network camera server VB101, network camera VB-C10, and the like.

キヤノン社の映像配信システムなどでは、映像配信に加えて、パン、チルト、ズーム、逆光補正といったカメラ制御を、ネットワークを介して提供可能となっている。また、アクセス制御機能を備え、利用者のアクセス権限に応じて、カメラ制御や映像配信の制限を行うことができる。   In the video distribution system of Canon Inc., in addition to video distribution, camera control such as pan, tilt, zoom, and backlight correction can be provided via a network. In addition, an access control function is provided, and camera control and video distribution can be restricted according to the access authority of the user.

さらに、カメラ制御によって撮像される領域に関しても制限することが可能になっている。例えば、特権ユーザでは、カメラに備わるズーム機能のすべてを利用できるが、通常ユーザは、ズーム機能の一部(たとえば、テレ端を使い切れない)のみ利用可能とするような制限である。パン機能やチルト機能についても同様である。   Furthermore, it is possible to limit the area to be imaged by camera control. For example, the privileged user can use all of the zoom functions provided in the camera, but the normal user is limited so that only a part of the zoom function (for example, the tele end cannot be used up) can be used. The same applies to the pan function and tilt function.

<第三世代携帯電話技術>
従来の携帯電話サービスよりも高い電波利用効率と通信帯域を備えた携帯電話サービスとして、第三世代(3G)の携帯電話サービスが提供されるようになっている。例えば、NTTドコモ社の第三世代(3G)携帯電話サービスFOMAやKDDI社のcdma2000 1xがある。
<Third generation mobile phone technology>
A third generation (3G) mobile phone service is provided as a mobile phone service having higher radio wave use efficiency and communication band than conventional mobile phone services. For example, NTT Docomo's third generation (3G) mobile phone service FOMA and KDDI's cdma2000 1x.

第三世代(3G)の携帯電話では、電話通話しながらインターネットアクセスなどのデータ通信が可能となっている。例えば、NTTドコモ社によるFOMAサービスでは、マルチアクセスと呼ばれる接続形態を用意しており、これを利用することで、ウェブブラウジングなどのデータ通信を行いながら、電話通話を可能にしている。   The third generation (3G) mobile phone can perform data communication such as Internet access while making a telephone call. For example, the FOMA service provided by NTT Docomo provides a connection form called multi-access, which makes it possible to make a telephone call while performing data communication such as web browsing.

さらに、第三世代携帯電話端末では、端末自体の処理能力も強化されており、これまでPC(パーソナルコンピュータ)などで行っていた作業を携帯電話端末で処理可能になっている。例えば、メイルやウェブブラウジングおよび映像送受信などの機能を実装している携帯電話端末が提供されている。また、第三世代携帯電話サービスでは、映像配信のサービスも行われており、ドコモ社のiモーションやM−stage Visual、あるいは、KDDI社のezmovieなどのサービスが行われている。   Furthermore, in the third-generation mobile phone terminal, the processing capability of the terminal itself has been strengthened, so that work that has been performed on a PC (personal computer) or the like can be processed by the mobile phone terminal. For example, mobile phone terminals equipped with functions such as mail, web browsing and video transmission / reception have been provided. In the third-generation mobile phone service, video distribution service is also provided, and services such as i-motion and M-stage Visual from Docomo, or ezmovie from KDDI are provided.

<MPEG−4コーデック>
移動体通信網に接続する携帯情報端末から広帯域インターネットに接続するPCまでの映像送受信端末の広がりを受けて、数十kpbsから数十Mbpsの広いビットレートをカバーする高圧縮符号化効率、および、無線やインターネットなどの伝送路誤りに対する強い耐性などを備えた動画像圧縮符号化方式として、ISOで1999年にMPEG−4が制定されている。
<MPEG-4 codec>
High compression coding efficiency covering a wide bit rate from several tens of kbps to several tens of Mbps in response to the spread of video transmission / reception terminals from portable information terminals connected to mobile communication networks to PCs connected to broadband Internet, and MPEG-4 was established in 1999 by ISO as a moving image compression encoding system having strong resistance to transmission path errors such as radio and the Internet.

また、MPEG−4を用いた映像配信サービスが、個人情報端末(PDA)や携帯電話端末向けに提供されている。例えば、NTTドコモ社やKDDI社の第三世代(3G)携帯電話サービスでは、携帯電話端末(ビジュアル端末)間でMPEG−4を用いて相互に映像を送受信するサービスを提供している。   In addition, a video distribution service using MPEG-4 is provided for personal information terminals (PDAs) and mobile phone terminals. For example, the third generation (3G) mobile phone service of NTT Docomo or KDDI provides a service for transmitting and receiving video between mobile phone terminals (visual terminals) using MPEG-4.

<携帯電話向けMPEG−4クリップ技術>
携帯電話端末に映像クリップ(ファイル)を表示する技術が提供されている。例えば、NTTドコモ社のiモーションやM−stage visual、あるいは、KDDI社のezmovieなどがある。
<MPEG-4 clip technology for mobile phones>
A technique for displaying a video clip (file) on a mobile phone terminal is provided. For example, there are i-motion and M-stage visual from NTT Docomo, or ezmovie from KDDI.

これらのサービスでは、MPEG−4コーデックなどで圧縮符号化された映像データ(映像クリップあるいは映像ファイル)をサーバに保存し、携帯電話端末に内蔵するデータ通信機能を使ってサーバからダウンロードした上で、同じく携帯電話端末に内蔵するデコーダを使って映像を携帯電話端末の画面に表示する。   In these services, video data (video clips or video files) compressed and encoded by the MPEG-4 codec is stored on the server and downloaded from the server using the data communication function built in the mobile phone terminal. Similarly, video is displayed on the screen of the mobile phone terminal using a decoder built in the mobile phone terminal.

また、これらの映像クリップのデータフォーマットは、マイクロソフト社のASF(Advanced Streaming Format)形式や、ISO標準のMP4形式(ISO/IEC14496−1 Amd1 MPEG−4システムVersion2)など、インターネットやPCなどで広く普及している形式に準拠している。   In addition, the data format of these video clips is widely spread on the Internet and PCs such as Microsoft's Advanced Streaming Format (ASF) format and the ISO standard MP4 format (ISO / IEC 14496-1 Amd1 MPEG-4 system Version 2). It conforms to the format.

また、これらのサービスでは、いずれも映像クリップの上限が決められており、例えば、KDDI社のezmovieの場合、240kbytesが上限となっている。   Also, in these services, the upper limit of the video clip is determined. For example, in the case of KDDI ezmovie, the upper limit is 240 kbytes.

<映像クリップへのリンクやコマンドの関連付け技術>
マイクロソフト社のASF(Advanced Streaming Format)形式やApple社QuickTime File Formatなどでは、映像クリップにURLなどのハイパーリンク機能を関連付けることができる。
<Link technology to video clips and command association technology>
In Microsoft's ASF (Advanced Streaming Format) format, Apple's QuickTime File Format, and the like, hyperlink functions such as URLs can be associated with video clips.

例えば、ASFでは、“Script Command Object”を定義することが可能であり、このオブジェクト内に、ASFファイル再生時のタイムラインに同期するように設定したリンク情報をリストできる。さらに、ASFでは、Script Command Objectの名前のとおり、リンク情報ばかりでなく、スクリプトなどのコマンド情報も記述可能となっている。   For example, in ASF, “Script Command Object” can be defined, and link information set to synchronize with the timeline at the time of ASF file playback can be listed in this object. Furthermore, in the ASF, command information such as script as well as link information can be described as the name of Script Command Object.

また、KDDI社のezmovie仕様にも、映像クリップにハイパーリンク機能付きのテキストテロップ(字幕)を追加する機能が備わっている。このテロップ記述言語には、KDDI社のSTML(Synchronous Telop Mark−up Languageの略)を利用する。この機能により、ユーザは、音声通話やメール送信やホームページリンクなどを、映像クリップと関連付けることができる。3GPP(The 3rd Generation Partnership Project)の映像クリップ仕様3gpも同様である。   The ezdi specification of KDDI also has a function of adding a text telop (caption) with a hyperlink function to a video clip. As this telop description language, KDDI's STML (abbreviation of Synchronous Telop Mark-up Language) is used. With this function, the user can associate voice calls, e-mail transmissions, homepage links, and the like with video clips. The same applies to 3GPP (The 3rd Generation Partnership Project) video clip specification 3gp.

<映像クリップへのカメラ制御シーケンス組み込み技術>
ネットワーク上に配置されたカメラサーバを映像ソースとして生成した映像クリップに、そのカメラサーバを制御するカメラ制御情報を組み込む方法が、特許文献1において開示されている。
<Technology for incorporating camera control sequences into video clips>
Patent Document 1 discloses a method of incorporating camera control information for controlling a camera clip into a video clip generated using a camera server arranged on a network as a video source.

ここでは、映像クリップが生成された時点でのカメラ制御情報シーケンスを、映像クリップの時系列に沿って、映像内容と同期するよう映像クリップに組み込む方法が示されている。さらに、そのカメラ制御情報シーケンスを、映像クリップ再生時点でカメラサーバに適用し、カメラ制御情報シーケンスに沿って制御したライブ映像を取得する方法が示されている。   Here, a method is shown in which the camera control information sequence at the time when the video clip is generated is incorporated into the video clip so as to be synchronized with the video content along the time series of the video clip. Further, a method is shown in which the camera control information sequence is applied to a camera server at the time of video clip playback, and a live video controlled in accordance with the camera control information sequence is acquired.

<デジタルSTB技術>
CATVやインターネットTVなどで、デジタルTV放送を受信するための機器として、デジタルSTB(Set Top Box)と呼ばれる装置が、開発されている。これらの装置では、ストリーミング映像や映像クリップ(ファイル)を受信し、TV画面上に、再生映像を表示する機能が備わっている。これらの映像コーデックには、多くの場合、MPEG−2やMPEG−4などの標準的な映像コーデックが利用される。また、ストリーミングの通信手順としては、RTSP(Real Time Streaming Protocol;RFC2326)やRTP(Real−time Transport Protocol;RFC1889)などが利用されている。
<Digital STB technology>
As a device for receiving a digital TV broadcast on a CATV, an Internet TV, or the like, a device called a digital STB (Set Top Box) has been developed. These devices have a function of receiving streaming video and video clips (files) and displaying playback video on a TV screen. In many cases, standard video codecs such as MPEG-2 and MPEG-4 are used as these video codecs. As a streaming communication procedure, RTSP (Real Time Streaming Protocol; RFC2326), RTP (Real-time Transport Protocol; RFC1889), or the like is used.

さらに、ISMA(Internet Streaming Media Alliance)などの団体では、機器間の相互接続性を向上させる目的で、これら個々の規約を包括的にとりまとめた仕様を提案している。例えば、ISMAでは、MPEG−4とRTSPとRTPとを基本とし、ISMA Profile 0として、MPEG−4 Simple Visual Profile、QCIF(176x144)、15fps、64Kbps maxを既定している。同様に、ISMA Profile 1として、MPEG−4 Advanced Simple Profile(ASP)or Simple Visual Profile、CIF(352x288)、30fps、1.5Mbps maxを既定している。
特開2004−304651号公報
Furthermore, organizations such as ISMA (Internet Streaming Media Alliance) have proposed specifications that comprehensively summarize these individual rules for the purpose of improving the interoperability between devices. For example, in ISMA, MPEG-4, RTSP, and RTP are basically used, and MPEG-4 Simple Visual Profile, QCIF (176 × 144), 15 fps, and 64 Kbps max are defined as ISMA Profile 0. Similarly, MPEG-4 Advanced Simple Profile (ASP) or Simple Visual Profile, CIF (352 × 288), 30 fps, 1.5 Mbps max is defined as ISMA Profile 1.
JP 2004-304651 A

しかしながら、インターネット上でサービスされている膨大な数のカメラ制御可能なカメラサーバの映像情報を映像クリップとして提供する場合、映像情報に付帯するカメラ制御情報(パン、チルト、ズーム、あるいは、制御権などの情報)が適切に利用できないという問題があった。あるいは、利用できた場合でも、そこに含まれるカメラ制御情報を、映像クリップ再生の利便性向上に利用することが困難だった。   However, when providing video information from a vast number of camera servers that can be controlled on the Internet as video clips, camera control information (pan, tilt, zoom, control right, etc.) attached to the video information Information) could not be used properly. Alternatively, even if it can be used, it has been difficult to use the camera control information included therein to improve the convenience of video clip playback.

また、従来、映像コンテンツの内容を、画像レベルで解析することで、シーン分割など区切りを検出する事が可能になっているが、多くの計算能力を必要とし、携帯電話端末やSTB(SetTopBox)などでの実現が、計算リソースあるいは消費電力などの点から困難であった。   Conventionally, it has been possible to detect breaks such as scene division by analyzing the content of video content at the image level. However, it requires a lot of computing power and is required for mobile phone terminals and STB (SetTopBox). It has been difficult to realize the above in terms of computing resources or power consumption.

また、インターネット上で流通する映像クリップの爆発的な増加や、ネットワークカメラなど動的に生成される映像クリップの登場のため、映像クリップの供給量が増え、ハードウェア性能の向上だけでは、問題解決に至っていない。   In addition, because of the explosive increase in video clips distributed on the Internet and the appearance of dynamically generated video clips such as network cameras, the supply of video clips increases, and simply improving hardware performance solves the problem. It has not reached.

本発明は、上述した問題点を解決するためのものであり、映像クリップの再生表示時において次に起こるカメラ制御内容を容易に知ることができる映像表示装置、映像処理装置の制御方法、プログラム、及び記憶媒体を提供することを目的とする。   The present invention is intended to solve the above-described problems, and a video display device, a video processing device control method, a program, and a video processing device capable of easily knowing the next camera control content at the time of video clip reproduction display. And a storage medium.

上記目的を達成するために、本発明の映像表示装置は、ネットワークを介して接続されたカメラサーバから受信した映像ファイルを表示する映像表示装置であって、前記映像ファイルの映像表示に先立ち、前記映像ファイルに含まれるカメラ制御情報を抽出する情報抽出手段と、前記映像ファイルの映像を表示するとともに、前記情報抽出手段により抽出されたカメラ制御情報に基づき、表示されていない時間帯の映像に関るカメラ制御内容を表示する表示手段と、を備えることを特徴とする。   In order to achieve the above object, a video display device of the present invention is a video display device that displays a video file received from a camera server connected via a network, and prior to video display of the video file, Information extracting means for extracting camera control information contained in the video file; and displaying the video of the video file and relating to video in a time zone not displayed based on the camera control information extracted by the information extracting means. Display means for displaying the contents of camera control.

また、本発明の映像表示装置の制御方法は、ネットワークを介して接続されたカメラサーバから受信した映像ファイルを表示する映像表示装置の制御方法であって、前記映像ファイルの映像表示に先立ち、前記映像ファイルに含まれるカメラ制御情報を抽出する情報抽出工程と、前記映像ファイルの映像を表示するとともに、前記情報抽出工程により抽出されたカメラ制御情報に基づき、表示されていない時間帯の映像に関るカメラ制御内容を表示する表示工程と、を備えることを特徴とする。   The video display device control method of the present invention is a video display device control method for displaying a video file received from a camera server connected via a network, prior to video display of the video file, An information extraction step for extracting camera control information included in the video file, and a video in the time zone that is not displayed based on the camera control information extracted by the information extraction step while displaying the video of the video file. And a display step for displaying camera control content.

また、本発明のプログラムは、ネットワークを介して接続されたカメラサーバから受信した映像ファイルを表示する映像表示装置の制御方法を実行するためのプログラムであって、前記映像ファイルの映像表示に先立ち、前記映像ファイルに含まれるカメラ制御情報を抽出する情報抽出ステップと、前記映像ファイルの映像を表示するとともに、前記情報抽出ステップにより抽出されたカメラ制御情報に基づき、表示されていない時間帯の映像に関るカメラ制御内容を表示する表示ステップと、を備えることを特徴とする。   The program of the present invention is a program for executing a control method of a video display device that displays a video file received from a camera server connected via a network, prior to video display of the video file, An information extraction step for extracting camera control information included in the video file; and a video of the video file is displayed, and a video in a time zone that is not displayed is displayed based on the camera control information extracted by the information extraction step. And a display step for displaying related camera control contents.

また、本発明の記憶媒体は、ネットワークを介して接続されたカメラサーバから受信した映像ファイルを表示する映像表示装置の制御方法を実行するためのプログラムコードを記憶した記憶媒体であって、前記映像ファイルの映像表示に先立ち、前記映像ファイルに含まれるカメラ制御情報を抽出する情報抽出コードと、前記映像ファイルの映像を表示するとともに、前記情報抽出コードにより抽出されたカメラ制御情報に基づき、表示されていない時間帯の映像に関るカメラ制御内容を表示する表示コードと、を備えることを特徴とする。   The storage medium of the present invention is a storage medium storing a program code for executing a control method of a video display device that displays a video file received from a camera server connected via a network, the video Prior to video display of the file, an information extraction code for extracting camera control information included in the video file and a video of the video file are displayed and displayed based on the camera control information extracted by the information extraction code. And a display code for displaying camera control contents related to the video in the non-time zone.

本発明によれば、映像クリップの再生表示時において次に起こるカメラ制御内容を容易に知ることができる。また、映像クリップの内容に応じたカメラサーバへの接続も容易になる。   According to the present invention, it is possible to easily know the camera control content that will occur next when the video clip is reproduced and displayed. In addition, connection to the camera server according to the contents of the video clip is facilitated.

以下、図面を参照して本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施形態)
第1の実施形態では、ネットワーク上に配置された多数のカメラサーバのライブ映像から生成したカメラ制御情報付き映像クリップを再生する例について説明する。
(First embodiment)
In the first embodiment, an example will be described in which a video clip with camera control information generated from live video of a large number of camera servers arranged on a network is played back.

特に、映像クリップ再生中に、映像クリップを先読みし、映像の区切りとなるカメラ制御状態の変化を検出した上で、カメラ制御状態の変化を予報し、ユーザからの入力を受付ける、そして、ユーザ入力(ボタンクリックなど)があれば、映像クリップを早送りなどして予報地点の映像を提供する点に特徴がある。   In particular, during video clip playback, the video clip is prefetched, the change in the camera control state that becomes the video break is detected, the change in the camera control state is predicted, the input from the user is accepted, and the user input If there is (button click etc.), the feature is that the video of the forecast point is provided by fast-forwarding the video clip.

図1は、本実施形態のシステム構成を示した図であり、101および102はライブ映像通信システムによるカメラサーバ、200はネットワークに接続されたPCなどにインストールされたビューワである。カメラサーバとビューワとはそれぞれネットワークに接続され、ビューワからネットワークを介してリクエストがカメラサーバへ送られ、これが受け入れられるとカメラサーバからビューワへ映像データが配送され、ビューワでカメラ映像を表示することが可能となる。またビューワからカメラ制御コマンドがカメラサーバへ送られ、カメラのズーム、パン、チルトなどの操作が可能となる。さらに、ネットワーク上には、中継サーバ300が置かれビューワとカメラサーバとの通信を中継することがある。   FIG. 1 is a diagram showing a system configuration of the present embodiment, in which 101 and 102 are camera servers using a live video communication system, and 200 is a viewer installed on a PC or the like connected to a network. The camera server and viewer are each connected to a network, and a request is sent from the viewer to the camera server via the network. When the request is accepted, video data is delivered from the camera server to the viewer, and the camera video is displayed on the viewer. It becomes possible. In addition, a camera control command is sent from the viewer to the camera server, and operations such as zooming, panning, and tilting of the camera are possible. Further, a relay server 300 may be placed on the network to relay communication between the viewer and the camera server.

さらに、400は本発明を適用可能な映像変換サーバであり、カメラサーバが提供する映像データを携帯電話端末向けに変換した上で、携帯電話向けに中継する。   Further, reference numeral 400 denotes a video conversion server to which the present invention can be applied. The video data provided by the camera server is converted for a mobile phone terminal and then relayed to the mobile phone.

また、500は本実施形態のネットワークと携帯電話回線網とを仲介するゲートウェイであり、601および602は、本発明を適用可能なビューワを搭載した携帯電話端末である。このゲートウェイ500を介して、本実施形態のネットワークに接続された機器と携帯電話端末601および602とが通信可能となる。なお、携帯電話端末上のビューワプログラムは、典型的には、工場出荷時にインストールされるが、Java(登録商標)プログラムのように実行時(利用時)にダウンロードされて実行される形態であっても良い。   Reference numeral 500 denotes a gateway that mediates between the network of the present embodiment and the mobile phone network, and reference numerals 601 and 602 denote mobile phone terminals equipped with a viewer to which the present invention can be applied. Via the gateway 500, the devices connected to the network of the present embodiment and the mobile phone terminals 601 and 602 can communicate. Note that the viewer program on the mobile phone terminal is typically installed at the time of shipment from the factory, but is downloaded and executed at the time of execution (when used) like a Java (registered trademark) program. Also good.

図のネットワークは企業あるいは組織内で運用されるイントラネットである場合もあり、広く世界をつないでいるインターネットである場合もある。また、中継サーバや映像変換サーバは、典型的には、インターネットイクスチェンジ(IX)やデータセンター(IDC:Internet Data Center)に配置され、通信負荷の軽減を図るよう設計される。   The network shown in the figure may be an intranet operated in a company or organization, or may be the Internet that widely connects the world. In addition, the relay server and the video conversion server are typically arranged in an Internet exchange (IX) or a data center (IDC: Internet Data Center) and designed to reduce a communication load.

図2は、映像変換サーバ400を動作させるハードウェア構成の一例を示したものであり、サーバ向けコンピュータ、より詳細には、プログラムやデータを格納する記憶装置、ネットワークと接続するためのネットワークI/F2001、プログラムによる各種の処理を実行するCPU2002などからなる。記憶装置は、主記憶装置となるRAM2003、フラッシュメモリやHD装置などからなる二次記憶装置2004、および、プログラムを媒体からロードするためのFD装置2005などから構成される。   FIG. 2 shows an example of a hardware configuration for operating the video conversion server 400. The computer for the server, more specifically, a storage device for storing programs and data, and a network I / O for connection to a network. F2001, CPU2002 which performs various processes by a program, etc. consist of. The storage device includes a RAM 2003 serving as a main storage device, a secondary storage device 2004 including a flash memory and an HD device, and an FD device 2005 for loading a program from a medium.

また、図示しないが、設定などを行うための入出力装置を備える場合もある。具体的には、ディスプレイを接続する表示装置、キーボードやマウスなどのコントローラなどである。   Further, although not shown, there may be an input / output device for performing setting or the like. Specifically, a display device to which a display is connected, a controller such as a keyboard and a mouse, and the like.

図3はカメラサーバ102のハードウェア構成の一例を示したものであり、実際に撮像を行うカメラ装置3001とコンピュータ、より詳細には、プログラムやデータを格納する記憶装置、映像データを取り込むための映像キャプチャボード3002、カメラ装置3001にコマンドを送るためのシリアルI/F3003、ネットワークと接続するためのネットワークI/F3004、プログラムによる各種の処理を実行するCPU3005、などからなる。記憶装置は、主記憶装置となるRAM3006、フラッシュメモリやHD装置などからなる二次記憶装置3007、および、プログラムを媒体からロードするためのFD装置3008などから構成される。   FIG. 3 shows an example of the hardware configuration of the camera server 102. The camera device 3001 and the computer that actually take an image, more specifically, a storage device that stores programs and data, and a video data fetcher. The video capture board 3002, a serial I / F 3003 for sending commands to the camera device 3001, a network I / F 3004 for connecting to a network, a CPU 3005 for executing various processes by programs, and the like. The storage device includes a RAM 3006 serving as a main storage device, a secondary storage device 3007 including a flash memory and an HD device, and an FD device 3008 for loading a program from a medium.

また、図示しないが、設定などを行うための入出力装置を備える場合もある。具体的には、ディスプレイを接続する表示装置、キーボードやマウスなどのコントローラなどである。   Further, although not shown, there may be an input / output device for performing setting or the like. Specifically, a display device to which a display is connected, a controller such as a keyboard and a mouse, and the like.

さらに、図示しないが、カメラサーバ102は、カメラ装置3001とコンピュータとが一体化されたサーバ内蔵型ネットワークカメラで構成されても良い。   Further, although not shown, the camera server 102 may be configured by a server built-in network camera in which the camera device 3001 and a computer are integrated.

図4はビューワ200を動作させるハードウェア構成の一例を示したものであり、携帯電話端末を使ってビューワを動作させる場合について説明している。より詳細には、プログラムやデータを格納する記憶装置4001、携帯電話網と接続するための無線通信I/F4002、プログラムによる各種の処理を実行するCPU4003、ディスプレイ装置4004における表示制御を行う表示コントローラ4005、周辺装置を制御する周辺コントローラ4006などからなる。記憶装置4001は、主記憶装置となるRAM、フラッシュメモリなどからなる。周辺装置は、携帯電話端末上に配置されたボタン類4007やスイッチ類4008などの入力装置、ディスプレイ装置4004などの表示出力装置、および、マイクロフォンやスピーカなどの音声入出力装置4009を含む。   FIG. 4 shows an example of a hardware configuration for operating the viewer 200, and describes a case where the viewer is operated using a mobile phone terminal. More specifically, a storage device 4001 that stores programs and data, a wireless communication I / F 4002 for connection to a mobile phone network, a CPU 4003 that executes various processes according to the program, and a display controller 4005 that performs display control in the display device 4004 And a peripheral controller 4006 for controlling peripheral devices. The storage device 4001 includes a RAM that is a main storage device, a flash memory, and the like. Peripheral devices include input devices such as buttons 4007 and switches 4008 arranged on a mobile phone terminal, display output devices such as a display device 4004, and audio input / output devices 4009 such as a microphone and a speaker.

図5はプログラムの構成する部分を模式化した図であり、カメラサーバ101、102内にはカメラの制御をつかさどるカメラ制御サーバ5001と映像の配送をつかさどる映像サーバ5002の2つのモジュールを含む。   FIG. 5 is a diagram schematically showing the components of the program, and the camera servers 101 and 102 include two modules, a camera control server 5001 that controls the camera and a video server 5002 that controls video distribution.

同様に、携帯電話端末上で動作するビューワ200内にはカメラ制御コマンドの発行やカメラ状態通知に対応するカメラ制御入力部5003、映像クリップの表示を担当する映像表示部5004、ならびに、複数の映像クリップを識別管理するための映像クリップ管理部5005を含む。   Similarly, in the viewer 200 operating on the mobile phone terminal, a camera control input unit 5003 corresponding to the issuance of camera control commands and camera state notification, a video display unit 5004 responsible for displaying video clips, and a plurality of videos A video clip management unit 5005 for identifying and managing clips is included.

さらに、映像変換サーバ400には、カメラ制御コマンド列(以下、PTZシーケンスと呼ぶ)を解釈し、カメラサーバにカメラ制御命令を発行するカメラ制御部5006、ならびに、カメラサーバから映像を取得し、携帯電話向けに変換し、さらに、それを携帯電話網向け映像クリップに編集するモジュール(映像取得部5007、映像変換部5008、映像送信部5009)、がそれぞれ含まれる。   Further, the video conversion server 400 interprets a camera control command sequence (hereinafter referred to as a PTZ sequence), acquires a video from the camera control unit 5006 that issues a camera control command to the camera server, and the mobile phone. Modules (video acquisition unit 5007, video conversion unit 5008, video transmission unit 5009) for converting to a phone and editing it into a video clip for a mobile phone network are included.

図6は携帯電話上で映像クリップを再生表示する映像クリップビューワの動作の流れを示す図である。   FIG. 6 is a diagram showing the flow of the operation of the video clip viewer for reproducing and displaying the video clip on the mobile phone.

ステップS601で、まず、映像変換サーバ400の識別子を入手する。これは、ユーザが直接キー操作により識別子を入力するのでも良いし、メイルやウェブページに含まれる識別子を選択するのであっても良い。また、この場合の識別子は、典型的には、映像変換サーバ400を識別するURLである。   In step S601, first, the identifier of the video conversion server 400 is obtained. In this case, the user may directly input an identifier by a key operation, or may select an identifier included in a mail or a web page. The identifier in this case is typically a URL that identifies the video conversion server 400.

続いて、ステップS602で、映像変換サーバ400が接続すべきカメラサーバの識別子、そのカメラサーバに指示するカメラ制御用のPTZシーケンス、および、ユーザ識別子やパスワードなどアクセス制御用のユーザ識別情報を入手する。   Subsequently, in step S602, the identifier of the camera server to which the video conversion server 400 is to be connected, the PTZ sequence for camera control instructed to the camera server, and the user identification information for access control such as the user identifier and password are obtained. .

ここで、カメラサーバ識別子やPTZシーケンスは、ユーザが直接キー操作によりカメラ制御コマンドを構成するよう入力するのでも良いし、メイルやウェブページに含まれるカメラサーバ識別子やPTZシーケンスを選択するのであっても良い。また、PTZシーケンスは、空であっても構わない。この場合、カメラ制御を伴わないカメラサーバの現状の映像クリップを意味する。また、ユーザ識別情報は、通常、ユーザが直接キー操作により入力するが、空であっても構わない。この場合、通常ユーザとしてのカメラサーバへの接続を意味する。   Here, the camera server identifier and the PTZ sequence may be input by the user so as to constitute a camera control command by direct key operation, or the camera server identifier and the PTZ sequence included in the mail or web page are selected. Also good. The PTZ sequence may be empty. In this case, it means a current video clip of the camera server without camera control. In addition, the user identification information is normally input by a user directly through a key operation, but may be empty. In this case, it means connection to the camera server as a normal user.

続いてステップS603で、ゲートウェイ500を経由して、入手した映像変換サーバ400の識別子に基づき映像変換サーバ400の映像送信部に接続する。さらにステップS604で、携帯電話ビューワ200は、映像変換サーバ400に映像クリップを要求する。この要求は、要求する映像クリップの作成方法の指定などを含み、典型的には、HTTPプロトコルに則り送信される。   In step S603, the video transmission server 400 connects to the video transmission unit of the video conversion server 400 based on the obtained identifier of the video conversion server 400 via the gateway 500. In step S604, the cellular phone viewer 200 requests the video conversion server 400 for a video clip. This request includes designation of a method for creating a requested video clip, and is typically transmitted according to the HTTP protocol.

この際、PTZシーケンスを入手している場合には、そのPTZシーケンスを映像変換サーバ400に送信する。この要求およびPTZシーケンスの送信は、HTTP接続のGETメソッドでURLに組み込んでも良いし、HTTP接続のPOSTメソッドで送信されても良い。ここでは、POSTメソッドで送信される場合について説明する。例えば、以下の通りである。なお、実際には、URLエンコードが適用されるが、以下では、説明の都合上URLエンコードを適用していない部分もある。
POST /getvideoclip/HTTP/1.1
Host:202.28.30.208:8080
User−Agent:MozilePhone/2.0 C2101V(c100)
Pragma:no−cache
videoencodeparam=QCIF:fps15.0:bps64000:intraframe5:me8
cameraservers=webview://vb101_4.x−zone.canon.co.jp:34560+34561+34562
PTZ=HZ15_30S3_40S4_40P−10_20
moviesizemax=240kbytes
notifyto=mailto:riyousha3@mailserver.usersite.co.jp
userid=331245
userpw=15215294
ただし、『videoencodeparam=』に続く部分は、映像変換サーバ400がカメラサーバから受取ったソース映像を携帯電話向けにエンコードする際のパラメータ情報を指示するものである。また、『cameraservers=』に続く部分は、映像変換サーバ400が接続するカメラサーバを指定している。また、『PTZ=』に続く部分は、映像変換サーバ400がカメラサーバに関して実行すべきカメラ制御のコマンドを並べたPTZシーケンスを指定している。また、『moviesizemax=』に続く部分は、携帯電話端末あるいは携帯電話網が規定する映像クリップの最大サイズを指定している。また、『notifyto=』に続く部分は、映像クリップ作成時に通知すべき連絡先である。典型的には、携帯電話端末ユーザのメイルアドレスを指定する。また、『userid=』と『userpw=』とに続く部分は、それぞれ、ユーザ識別子とパスワードとである。
At this time, if the PTZ sequence is obtained, the PTZ sequence is transmitted to the video conversion server 400. This request and the transmission of the PTZ sequence may be incorporated into the URL by the HTTP connection GET method, or may be transmitted by the HTTP connection POST method. Here, a case where transmission is performed by the POST method will be described. For example, it is as follows. In practice, URL encoding is applied. However, in the following, there is a part where URL encoding is not applied for convenience of explanation.
POST /getvideoclip/HTTP/1.1
Host: 202.28.30.208:8080
User-Agent: MozillaPhone / 2.0 C2101V (c100)
Pragma: no-cache
videoencodeparam = QCIF: fps15.0: bps64000: intraframe5: me8
cameraservers = webview: // vb101_4. x-zone. canon. co. jp: 34560 + 34561 + 34562
PTZ = HZ15_30S3_40S4_40P-10_20
moviesizemax = 240 kbytes
notifyto = mailto: riyousha3 @ mailserver. usersite. co. jp
userid = 331245
userpw = 1515294
However, the portion following “videoencodeparam =” indicates parameter information when the video conversion server 400 encodes the source video received from the camera server for the mobile phone. The part following “cameraservers =” designates the camera server to which the video conversion server 400 is connected. The part following “PTZ =” designates a PTZ sequence in which commands for camera control to be executed by the video conversion server 400 regarding the camera server are arranged. The part following “moviesizemax =” designates the maximum size of the video clip defined by the mobile phone terminal or the mobile phone network. Further, the part following “notifyto =” is a contact to be notified when creating a video clip. Typically, the mail address of the mobile phone terminal user is designated. The portions following “userid =” and “userpw =” are a user identifier and a password, respectively.

この中で、PTZシーケンスの構成要素は、以下のような意味を持つ。nは、数値データ(正負あり)である。
Pn パン(水平方向カメラ制御)指定。
Tn チルト(垂直方向カメラ制御)指定。
Zn ズーム指定。
Bn 逆光補正。逆光補正のON/OFF。
H ホームポジション指定。
Sn プリセット位置指定。n番目のプリセット位置。
Cn カメラサーバ接続切換え指定。n番目のカメラサーバ。
Kn カメラサーバ内カメラ切換え指定。n番目のカメラ。
_n 時間経過指定。0.1秒単位。
Among these, the components of the PTZ sequence have the following meanings. n is numerical data (positive and negative).
Pn pan (horizontal camera control) designation.
Tn tilt (vertical camera control) designation.
Zn Zoom designation.
Bn Backlight correction. ON / OFF for backlight compensation.
H Specify home position.
Sn Preset position designation. nth preset position.
Cn Camera server connection switching specification. The nth camera server.
Kn Specify camera switching within the camera server. nth camera.
_N Time elapsed specification. 0.1 second unit.

続いて、ステップS605で、映像変換サーバ400からのレスポンスを待つ。続いて、ステップS606で、映像変換サーバ400から受取ったレスポンスを解釈して携帯電話端末の表示装置に表示する。例えば、図15(a)の通りである。   In step S605, a response from the video conversion server 400 is waited for. In step S606, the response received from the video conversion server 400 is interpreted and displayed on the display device of the mobile phone terminal. For example, as shown in FIG.

もし、映像変換サーバ400からのレスポンスが、何らかの理由からすぐに映像を生成できないことを示す内容であった場合には(S607、No)、ステップS609に進む。反対に、映像をすぐに生成できたことを示す内容であった場合には(S607、Yes)、ステップS608に進む。   If the response from the video conversion server 400 indicates that the video cannot be generated immediately for some reason (S607, No), the process proceeds to step S609. On the other hand, if the content indicates that the video can be generated immediately (S607, Yes), the process proceeds to step S608.

ステップS609では、映像変換サーバ400からのメイル通知を待受ける。メイル通知は、例えば、SMTP(Simple Mail Transfer Protocol)によるが、SMS Short Message Service)であってもよい。メイル通知を受取った場合には、そのメイル内容を映像変換サーバ400からのレスポンスとして表示し、ステップS608に進む。例えば、図15(b)の通りである。   In step S609, a mail notification from the video conversion server 400 is awaited. The mail notification is based on, for example, SMTP (Simple Mail Transfer Protocol), but may be SMS Short Message Service (SMS). If a mail notification is received, the mail content is displayed as a response from the video conversion server 400, and the process proceeds to step S608. For example, as shown in FIG.

ステップS608では、レスポンスに含まれる映像クリップの一つを選択し、ダウンロードして再生表示する。例えば、図15(c)の通りである。ここでは、ダウンロード完了を待っているが、映像クリップの再生表示処理は、ダウンロード完了を待たず、表示再生可能な映像クリップデータが揃った時点で、再生表示処理を開始しても良い。   In step S608, one of the video clips included in the response is selected, downloaded, and reproduced and displayed. For example, as shown in FIG. Although the download completion is awaited here, the reproduction display processing of the video clip may be started when video clip data that can be displayed / reproduced is ready without waiting for the completion of the download.

この中で、ステップS608の携帯電話ビューワでの映像クリップ表示中には、映像クリップ中のリンク情報部分を先読みし、図9に示すように、リンク情報として組み込まれたカメラ制御情報を解析した上で、映像表示画面上にカメラ制御内容を予報し、ユーザによって番号ボタンが押された際には、その番号のリンク情報に対応する映像クリップの映像セグメント(映像チャプタ)までジャンプ(映像早送り)する。例えば、数字ボタンの『3』が押下られた場合、映像クリップ再生を42秒先送りし、カメラ制御として、プリセット#90の選択が行われた際の映像を再生表示する。
[1] 8秒後 パン右
[2] 10秒後 ズーム遠
[3] 42秒後 プリセット#90
[4] 50秒後 カメラ#2
[5] 83秒後 チルト下
[6] 96秒後 プリセット#5
また、ステップS608の携帯電話ビューワでの映像クリップ表示中に、携帯電話端末ユーザがクリック(選択ボタンの押下)した場合には、クリック時点に表示中の映像データ(映像区間、または、映像セグメントと呼ぶ事がある)に対応するリンク情報が映像クリップから抽出され、携帯電話端末に備わるブラウザ機能を使って、そのリンク情報が示すリンク先情報にアクセスする。リンク先情報へのアクセスでは、典型的には、カメラ制御を可能とする専用ビューワを起動するが、携帯電話端末の設定によっては、設定されたアクションを行う場合もある。例えば、アクセスされたリンク情報をメイル添付したメイルの発信である。
Among these, during the video clip display in the mobile phone viewer in step S608, the link information portion in the video clip is prefetched, and the camera control information incorporated as the link information is analyzed as shown in FIG. Then, the camera control content is predicted on the video display screen, and when the user presses the number button, it jumps to the video segment (video chapter) of the video clip corresponding to the link information of that number (video fast forward). . For example, when the number button “3” is pressed, the video clip playback is advanced by 42 seconds, and the video when the preset # 90 is selected is played back and displayed as camera control.
[1] 8 seconds later Pan right [2] 10 seconds later Zoom far [3] 42 seconds later Preset # 90
[4] After 50 seconds Camera # 2
[5] 83 seconds later Tilt down [6] 96 seconds later Preset # 5
In addition, when the mobile phone terminal user clicks (presses the selection button) while the video clip is displayed on the mobile phone viewer in step S608, the video data (video section or video segment) being displayed at the time of the click is displayed. Link information corresponding to the link information is extracted from the video clip, and the link destination information indicated by the link information is accessed using the browser function provided in the mobile phone terminal. In accessing link destination information, a dedicated viewer that enables camera control is typically activated, but depending on the setting of the mobile phone terminal, a set action may be performed. For example, it is a transmission of a mail with the accessed link information attached as a mail.

図14は、カメラサーバと通信しライブ映像の表示ならびにカメラ制御を行うライブ映像ビューワの動作の流れを説明している。   FIG. 14 illustrates an operation flow of a live video viewer that communicates with the camera server to display a live video and perform camera control.

ステップS651で起動時に指示されたカメラサーバを構成する映像サーバのアドレスおよび接続ポートの情報に従い、映像サーバへ接続する。ここで、接続以降の処理を行うための動作プログラム(実現方法としては、スレッドあるいはプロセスの起動となる)が起動され、このプログラムは終了までステップS661を繰り返す。ステップS661では、映像サーバからの映像データが届くたびにそれを受け取り表示する。   In step S651, connection is made to the video server in accordance with the address and connection port information of the video server constituting the camera server instructed at the time of startup. Here, an operation program for performing processing after connection (actually, a thread or process is activated) is activated, and this program repeats step S661 until the end. In step S661, every time video data from the video server arrives, it is received and displayed.

さらにメインのプログラムはステップS652で、同じく起動時に指示されたカメラ制御サーバのアドレスおよび接続ポートの情報に従い、カメラ制御サーバへ接続する。   Further, in step S652, the main program connects to the camera control server in accordance with the camera control server address and connection port information that are also instructed at the time of activation.

そして、これ以降メインプログラムはユーザからの操作要求を受け付け、実行するメインループへ続く。   Thereafter, the main program receives an operation request from the user and continues to the main loop to be executed.

まず、ステップS653でユーザの操作をキーボタン操作などから受け取る。これがカメラ制御に関する場合にはステップS654でカメラ制御サーバへコマンドを発行する。   First, in step S653, a user operation is received from a key button operation or the like. If this is related to camera control, a command is issued to the camera control server in step S654.

また、映像サーバに関する場合にはステップS655で映像サーバへコマンドを発する。また、ユーザの操作がビューワの状態を変更する操作(たとえば表示サイズの変更操作など)の場合にはステップS656で内部状態を更新する。   If it is related to the video server, a command is issued to the video server in step S655. If the user operation is an operation for changing the viewer state (for example, a display size changing operation), the internal state is updated in step S656.

そして、ユーザの操作が終了の場合には、ステップS657でビューワの動作に関連する各プログラムを順次終了する。S654〜S657の処理が完了するとS653へ戻り、ユーザの操作入力を待つ。   If the user operation is finished, the programs related to the operation of the viewer are sequentially finished in step S657. When the processes of S654 to S657 are completed, the process returns to S653 and waits for a user operation input.

携帯電話端末上で動作するライブ映像ビューワは、携帯電話端末の出荷時に備わるソフトウェアとして実装される場合もあるが、Java(登録商標)プログラムのようにネットワークからダウンロードして実装されるソフトウェアである場合もある。   A live video viewer that operates on a mobile phone terminal may be implemented as software provided at the time of shipment of the mobile phone terminal, but is a software that is downloaded and implemented from a network, such as a Java (registered trademark) program. There is also.

図7はカメラサーバ内のカメラ制御サーバの動作を示した流れ図である。カメラ制御サーバはまず起動時にステップS701で特定のファイル(OSによってはレジストリなどのシステムデータベース)からカメラ制御サーバの動作設定情報を読み出して、それに基づき動作を開始する。ここでクライアントであるビューワプログラムや映像変換サーバからのリクエストを受け付けるポートを開き、続いて、ステップS702のリクエスト受付状態に入る。   FIG. 7 is a flowchart showing the operation of the camera control server in the camera server. First, the camera control server reads operation setting information of the camera control server from a specific file (a system database such as a registry depending on the OS) at the time of activation in step S701, and starts an operation based on the information. Here, a port for accepting a request from a viewer program as a client or a video conversion server is opened, and then a request acceptance state of step S702 is entered.

リクエスト(接続リクエストもしくは操作コマンドリクエスト)が受け付けられたら、S702を抜け、接続リクエストならばステップS703で接続の可否の判定を行う。否ならば接続拒否のエラーコードを返し、S702に戻る。可ならば、ステップS704で接続処理として、クライアントからのコマンドの受付処理を行うスレッドを生成し、クライアントの登録を行ってから、S702に戻る。   If a request (connection request or operation command request) is accepted, the process exits S702, and if it is a connection request, it is determined whether or not connection is possible in step S703. If not, a connection rejection error code is returned, and the process returns to S702. If YES in step S704, a thread for receiving a command from the client is generated as a connection process in step S704, the client is registered, and the process returns to step S702.

生成されたスレッドでは、ステップS707で対応するクライアントからのコマンドの受付を行う。コマンドが届いたならば、それを受け付け、カメラ操作を行う主プログラムへ受け渡す。主プログラムはステップS702でこれを受け、操作コマンドに対してはステップS705へ進み、操作コマンドを発行したスレッドが接続しているクライアントの権限に応じてカメラ操作を行って、その結果(操作が成功か失敗かを示すコードなど)をカメラ操作要求を受け付けたクライアント対応のスレッドへ伝える。   In the generated thread, a command is received from the corresponding client in step S707. If a command arrives, it is accepted and passed to the main program that operates the camera. The main program receives this in step S702, and proceeds to step S705 for the operation command, performs the camera operation according to the authority of the client to which the thread that issued the operation command is connected, and the result (operation succeeded). Is transmitted to the thread corresponding to the client that has received the camera operation request.

このクライアント対応のスレッドはステップS708で結果をクライアントへ送り返す。主プログラム部分では、ステップS706でカメラの操作により変化した状態(たとえば、パン・チルト・ズームの値、および、禁止エリア検出の有無などを含むカメラ状態情報など)をすべてのクライアント対応のスレッドに伝える。各クライアント対応のスレッドはステップS709でカメラ制御状態の変化をクライアントへ通達する。クライアント対応のスレッドはクライアントから接続終了のコマンドを受けたならば、それを主プログラムへ通達し、さらにステップS710で自身のスレッドを終了する。   The thread corresponding to the client sends the result back to the client in step S708. In the main program portion, in step S706, the state changed by the camera operation (for example, camera state information including pan / tilt / zoom values, presence / absence of prohibited area detection, etc.) is transmitted to all client-corresponding threads. . In step S709, the thread corresponding to each client notifies the client of the change in the camera control state. If the thread corresponding to the client receives a connection termination command from the client, it notifies the main program, and terminates its own thread in step S710.

尚、操作コマンドの扱いにおいては、具体的な操作コマンドの発行の前に、カメラ操作権の割り当て要求を必要とすることも可能である。これは複数の人間がカメラの操作を要求するような状況での混乱を無くす。この場合、まず、クライアントからはカメラ操作権獲得の要求コマンドが発行され、これに対して、カメラ制御サーバは現在のカメラ制御権の割り当て状態から、拒絶・割り当て・順番待ちを選びクライアントへ返答する。カメラ制御権は前もって定められた特定の時間か、クライアントが接続を終了するまでの短いほうの時間で剥奪され、次の順番待ちの人に割り当てられる。順番待ち人数はやはり前もって定められた人数(たとえば5人)に制限され、それ以上のリクエストは拒絶される。   In handling the operation command, it is possible to require a camera operation right assignment request before issuing a specific operation command. This eliminates confusion in situations where multiple people require camera operation. In this case, first, a request command for acquiring the camera operation right is issued from the client. In response to this, the camera control server selects rejection / allocation / wait in order from the current assignment state of the camera control right and responds to the client. . The camera control right is deprived at a predetermined time or a shorter time until the client terminates the connection, and assigned to the next waiting person. The number of people waiting in the queue is still limited to a predetermined number (for example, 5 people), and further requests are rejected.

クライアントはカメラ制御権が獲得されてから剥奪されるまでの間だけ、操作コマンドを発行する。カメラ制御サーバはカメラ制御権が付与されているクライアントからの操作コマンドのみを受け付ける。   The client issues an operation command only from when the camera control right is acquired until it is revoked. The camera control server accepts only operation commands from clients to which camera control rights are granted.

また、特権ユーザからの接続に関しては、優先的にカメラ操作権を割り当てられる点、および、操作コマンドが、禁止エリアを含む撮像領域へのカメラ制御であっても許可される点などが、通常ユーザからの接続とは異なる。   In addition, with respect to connections from privileged users, the point that camera operation rights are preferentially assigned, and that operation commands are permitted even when camera control is performed on an imaging area including a prohibited area, etc. It is different from the connection from.

図8はカメラサーバ内の映像サーバの動作を示した流れ図である。映像サーバはまず起動時にステップS801で特定のファイル(OSによってはレジストリなどのシステムデータベース)から映像サーバの動作設定情報を読み出して、それに基づき動作を開始する。ここで、映像の獲得と符号化と蓄積を行うスレッドを生成し(最初このスレッドは休止状態)、クライアントであるビューワプログラムや映像変換サーバからのリクエストを受け付けるポートを開き、続いて、ステップS802のリクエスト受付状態に入る。   FIG. 8 is a flowchart showing the operation of the video server in the camera server. The video server first reads the operation setting information of the video server from a specific file (a system database such as a registry depending on the OS) in step S801 at the time of start-up, and starts the operation based on the information. Here, a thread for acquiring, encoding, and accumulating video is generated (initially this thread is in a dormant state), and a port for receiving a request from a viewer program as a client or a video conversion server is opened. Subsequently, in step S802 Enter the request acceptance state.

リクエスト(接続リクエストもしくはコマンドリクエスト)が受け付けられたら、S802を抜け、接続リクエストならばステップS803で接続の可否の判定を行う。否ならば接続拒否のエラーコードを返し、S802に戻る。   If a request (connection request or command request) is accepted, the process exits S802, and if it is a connection request, it is determined whether or not connection is possible in step S803. If not, a connection rejection error code is returned, and the process returns to S802.

可ならば、ステップS804で接続処理として、クライアントごとのセッションを識別するためのセッション識別子を生成し、クライアントからのコマンドの受付処理を行うスレッドを生成し、接続リクエストを発行したクライアントのアクセス権情報などに則してクライアントの登録を行い、S802に戻る。なお、この際、リクエスト内容がライブ映像への接続であり、かつ、映像の獲得と符号化を行うスレッドが休止状態ならば、S802に戻る前に、動作開始を指示する。   If yes, as a connection process in step S804, a session identifier for identifying a session for each client is generated, a thread for receiving a command from the client is generated, and the access right information of the client that issued the connection request The client is registered in accordance with the above, and the process returns to S802. At this time, if the request content is a connection to a live video and the thread for acquiring and encoding the video is in a dormant state, an operation start is instructed before returning to S802.

生成されたクライアント対応のスレッドでは、ステップS807で対応するクライアントからのコマンドの受付を行う。コマンドが届いたならば、それを受け付け、映像処理を行う主プログラムへ受け渡す。   The generated client-compatible thread accepts a command from the corresponding client in step S807. If a command arrives, it is received and transferred to the main program that performs video processing.

主プログラムはステップS802でこれを受け、操作コマンドに対してはステップS805へ進み、映像の獲得や符号化・送信などに関する設定の変更操作を行って、その結果(操作の成功か失敗を示すコード)をコマンド要求を受け付けたクライアント対応のスレッドへ伝える。   The main program receives this in step S802, and proceeds to step S805 in response to the operation command, performs a setting change operation regarding acquisition, encoding, transmission, etc. of the video, and the result (a code indicating success or failure of the operation). ) To the thread corresponding to the client that received the command request.

クライアント対応のスレッドはステップS808で、この結果をクライアントへ送り返す。   The thread corresponding to the client sends this result back to the client in step S808.

主プログラム部分では、ステップS804からの映像の獲得と符号化を行うスレッドへの動作開始の指示により、ステップS806では前もって設定された時間間隔で映像データを映像キャプチャボードを使って獲得し、これを圧縮データに変換する。さらにこの圧縮データを、ライブ映像に接続しているすべてのクライアント対応のスレッドに伝える。   In the main program part, in accordance with an instruction to start the operation from the acquisition and encoding thread from step S804, in step S806, video data is acquired using a video capture board at a preset time interval. Convert to compressed data. Further, this compressed data is transmitted to all client-compatible threads connected to the live video.

各クライアント対応のスレッドはステップS809で、クライアントからの次映像フレーム送信要求の有無を判定し、要求があるならば、圧縮データをクライアントへ配送する。   In step S809, the thread corresponding to each client determines whether there is a next video frame transmission request from the client, and if there is a request, delivers the compressed data to the client.

この際、禁止エリアが検出されている場合には、登録されているクライアント情報に照らして、特権ユーザの接続以外には、禁止エリアに該当しているため圧縮データを配信しない旨(禁止エリア検出通知)を通知する。そして、ライブ映像に接続しているクライアント対応のスレッドが、クライアントからの次映像フレーム送信要求(これはクライアントでの圧縮映像データの受け取り完了に対して、送り返されるのが一般的である)を受け取った場合には映像フレーム送信要求のフラグを設定する。   At this time, if a prohibited area is detected, the compressed data is not distributed because it corresponds to the prohibited area except for the connection of privileged users in light of the registered client information (detection of prohibited area). Notification). Then, the client-compatible thread connected to the live video receives the next video frame transmission request from the client (this is generally returned when the client receives the compressed video data). If it is, the video frame transmission request flag is set.

また、クライアントから接続終了のコマンドを受けたならば、それを主プログラムへ通達し、さらにステップS810で自身のスレッドを終了する。   If a connection termination command is received from the client, it is notified to the main program, and its thread is terminated in step S810.

図10はカメラサーバの用いる設定値、すなわち、カメラ制御サーバや映像サーバが読み出す動作設定情報を特定のファイル(OSによってはレジストリなどのシステムデータベース)に設定するカメラサーバ設定プログラムの表示画面の一例を示した図であり、カメラ制御サーバ、映像サーバ、動画品質、接続制限事項などに関する各種のパラメータ(後述)を設定できるようになっている。OKボタンを押すと設定した値が特定のファイルあるいはレジストリに書き込まれ、キャンセルすると書き込まれずに終了する。   FIG. 10 shows an example of a display screen of a camera server setting program for setting setting values used by the camera server, that is, operation setting information read by the camera control server or video server in a specific file (system database such as a registry depending on the OS). In the figure, various parameters (described later) relating to a camera control server, a video server, moving image quality, connection restriction items, and the like can be set. When the OK button is pressed, the set value is written to a specific file or registry, and when canceled, the process ends without being written.

図11は、図10のカメラサーバの設定プログラムの動作を示す流れ図である。設定プログラムは起動時にまずステップS1101でカメラ制御サーバおよび映像サーバに関する設定情報を格納した特定のファイル(OSによってはレジストリなどのシステムデータベース)から設定情報を読み出し、内部データに設定する。以降、ユーザの操作入力を受け取り、実施するループを繰り返す。   FIG. 11 is a flowchart showing the operation of the setting program of the camera server in FIG. At the time of activation, the setting program first reads setting information from a specific file (system database such as a registry depending on the OS) that stores setting information regarding the camera control server and the video server in step S1101, and sets the setting information as internal data. Thereafter, the user's operation input is received and the loop to be executed is repeated.

ステップ1102でユーザの操作入力を待ち、入力があればそれを受け取り、続いてステップ1103で入力された値が適正範囲内であるか否かを判定し、適正でなければステップ1104でエラーメッセージを出力して、値を戻して、ユーザの入力待ちS1102へ戻る。適正範囲内であるならば、内部データを更新して、S1102に戻る。(ここで設定できる値には次の項目がある。カメラ制御の通信用のTCPポート番号、カメラと接続するCOM(シリアル)ポート、シャッタースピード、カメラ制御関連のログ情報の有無とログファイル名、映像関連の通信用のTCPポート番号、ログ情報の有無とログファイル名、映像をキャプチャする時間間隔を規定するフレームレートと圧縮の品質を決めるQ−Factor、圧縮の元データの画面サイズ、1つのクライアントビューワの最大接続時間、カメラ制御に関する制御権の順番待ち人数、1つのビューワの制御権保持占有時間、映像とカメラ制御に関する接続可能な最大クライアント数など)。   In step 1102, the user waits for an operation input. If there is an input, it receives it. Then, in step 1103, it is determined whether the input value is within an appropriate range. If not, an error message is output in step 1104. Output, return the value, and return to the user input wait S1102. If it is within the proper range, the internal data is updated, and the process returns to S1102. (Values that can be set here include the following items: TCP port number for camera control communication, COM (serial) port connected to the camera, shutter speed, presence / absence of log information related to camera control, and log file name, TCP port number for video-related communication, presence / absence of log information and log file name, frame rate that defines the time interval for capturing video, Q-Factor that determines compression quality, screen size of original data of compression, one The maximum connection time of the client viewer, the number of persons waiting for the control right related to the camera control, the control right holding occupation time of one viewer, the maximum number of connectable clients related to video and camera control, etc.).

ユーザからの入力がOKボタンの場合には、S1102からステップS1105に進み、更新された内部データをカメラ制御サーバおよび映像サーバに関する設定情報を格納する特定のファイルなどへ書き出し、ステップS1106で変更を反映するためにカメラサーバを再起動するかを尋ねるパネルを出す。再起動する場合にはステップS1107でカメラ制御サーバや映像サーバなどを再起動して、ステップS1108で設定プログラムを終了する。再起動しない場合にはS1106から直接S1108に進み、終了する。また、S1102でのユーザの入力がキャンセルボタンである場合には、S1102から直接S1108に進み、終了する。   If the input from the user is an OK button, the process advances from step S1102 to step S1105, and the updated internal data is written to a specific file for storing setting information related to the camera control server and the video server, and the change is reflected in step S1106. A panel that asks if you want to restart the camera server. When restarting, the camera control server, the video server, etc. are restarted in step S1107, and the setting program is terminated in step S1108. If it is not restarted, the process directly proceeds from S1106 to S1108 and ends. If the user input in S1102 is a cancel button, the process proceeds directly from S1102 to S1108 and ends.

図12は、映像変換サーバにおける映像データの大まかな流れを、模式化した図である。カメラサーバから送信されたソース映像データ(Motion JPEG、QVGAサイズ320x240)は、映像変換サーバのカメラサーバ向け通信スタックを経由して受信され、JPEGデコーダに渡され、続いて、携帯電話向けに設定されたMPEG−4エンコーダに渡され、携帯電話向け映像データ(MPEG−4 simpleprofile、QCIFサイズ176x144、64Kbps)に加工された上で、映像クリップとして、携帯電話網向けの通信スタックを経由して、携帯電話ビューワへと送信される。   FIG. 12 is a diagram schematically showing a rough flow of video data in the video conversion server. Source video data (Motion JPEG, QVGA size 320x240) transmitted from the camera server is received via the camera server communication stack of the video conversion server, passed to the JPEG decoder, and then set for the mobile phone. Passed to the MPEG-4 encoder, processed into video data for mobile phones (MPEG-4 simple profile, QCIF size 176x144, 64 Kbps), and then transferred as a video clip via a communication stack for mobile phone networks. Sent to the phone viewer.

図13は映像変換サーバの動作を示した流れ図である。映像変換サーバはまず起動時にステップS1301で特定のファイル(OSによってはレジストリなどのシステムデータベース)から映像変換サーバの動作設定情報を読み出して、それに基づき動作を開始する。ここで、クライアントである携帯電話ビューワプログラムからのリクエストを受け付ける通信ポートを開き、続いて、ステップS1302のリクエスト受付状態に入る。   FIG. 13 is a flowchart showing the operation of the video conversion server. The video conversion server first reads the operation setting information of the video conversion server from a specific file (or a system database such as a registry depending on the OS) in step S1301 at the time of start-up, and starts the operation based on it. Here, a communication port that accepts a request from the mobile phone viewer program as a client is opened, and then the request acceptance state of step S1302 is entered.

リクエスト(HTTPリクエストのメッセージなど)が受け付けられたら、S1302を抜け、ステップS1303で接続の可否の判定を行う。否ならば接続拒否のエラーコードを返し、S1302に戻る。可ならば、ステップS1304で接続処理として、クライアントとの情報の受渡しを行うクライアント対応スレッドを生成し、クライアントの登録を行い、S1302に戻る。   When a request (such as an HTTP request message) is received, the process exits S1302 and determines whether or not connection is possible in step S1303. If not, a connection rejection error code is returned, and the process returns to S1302. If YES in step S1304, as a connection process, a client-compatible thread for exchanging information with the client is generated, the client is registered, and the process returns to S1302.

生成されたクライアント対応スレッドでは、ステップS1311で対応するクライアントからのリクエストを読み込み、内容を解析する。リクエストは、典型的には、HTTPリクエストとして、映像変換サーバに渡される。なお、HTTPリクエストには、POSTメソッドが使われる場合もあり、GETメソッドが利用される場合もある。   In the generated client corresponding thread, a request from the corresponding client is read in step S1311 and the content is analyzed. The request is typically passed to the video conversion server as an HTTP request. Note that a POST method may be used for the HTTP request, and a GET method may be used.

次に、ステップS1312で、リクエスト内容から、エンコードパラメータ情報(映像変換パラメータ)、カメラサーバへの接続情報(ソース映像情報)、PTZシーケンス、映像クリップの最大サイズ(映像クリップ上限値)、通知先情報(通知先アドレス)、および、ユーザ識別子やパスワードなどユーザ識別情報を取り出す。これらは、それぞれ『videoencodeparam=』『cameraservers=』『PTZ=』『moviesizemax=』『notifyto=』『userid=』『userpw=』の値として指示されている。   In step S1312, from the request content, encoding parameter information (video conversion parameter), connection information to the camera server (source video information), PTZ sequence, maximum size of video clip (upper limit value of video clip), notification destination information (Notification destination address) and user identification information such as a user identifier and a password are extracted. These are indicated as values of “videoencodeparam =”, “cameraservers =”, “PTZ =”, “moviesizemax =”, “notifyto”, “userid =”, and “userpw =”, respectively.

映像変換パラメータは、変換用コーデックの選択やそのコーデックへのパラメータ、および、コーデック入力用/出力用のデータ形式などを記述している。ソース映像情報とは、例えば、ライブ映像を提供するカメラサーバのネットワークアドレスとポート番号などの通信属性情報である。通知先アドレスとは、典型的には、ユーザの携帯電話端末を指定したメイルアドレスである。   The video conversion parameters describe selection of a conversion codec, parameters to the codec, a data format for codec input / output, and the like. The source video information is, for example, communication attribute information such as a network address and a port number of a camera server that provides a live video. The notification destination address is typically a mail address that designates a user's mobile phone terminal.

次に、ステップS1313で、HTTPリクエストに対するHTTPレスポンスとして、『すぐに映像を生成できないので、しばらくしてメイル連絡します』との旨を示す情報を返す。次に、ステップS1314で、ソース映像情報およびユーザ識別情報にしたがって、映像取得部を初期化する。具体的には、ソース映像を提供するカメラサーバに接続し、ソース映像取得を開始する。   In step S1313, information indicating that “the video cannot be generated immediately and will be contacted in a while” will be returned as an HTTP response to the HTTP request. Next, in step S1314, the video acquisition unit is initialized according to the source video information and the user identification information. Specifically, it connects to the camera server that provides the source video and starts acquiring the source video.

そして、ステップS1315に進み、映像変換パラメータに従って映像変換部を初期化する。この映像変換部は、MPEG−4エンコーダなどから構成される。そして、ステップS1316に進み、映像送信部を初期化する。この際、映像送信部に映像クリップ上限値、および、通知先アドレスを指示する。   In step S1315, the video conversion unit is initialized according to the video conversion parameters. This video conversion unit includes an MPEG-4 encoder or the like. In step S1316, the video transmission unit is initialized. At this time, the video transmission unit is instructed to the video clip upper limit value and the notification destination address.

さらに、ステップS1317に進み、映像取得部から映像変換部へ、映像変換部から映像送信部へとそれぞれの処理データが受渡しされるように相互の関連付けを行った上で、カメラ制御部が、PTZシーケンスにしたがってカメラサーバのカメラ制御を行う。そして、ステップS1318に進み、映像取得部、映像変換部、映像送信部の後処理を行う。そして、ステップS1319に進み、クライアント対応スレッドを終了する。   Further, the process proceeds to step S1317, and the camera control unit performs the correlation so that each processing data is transferred from the video acquisition unit to the video conversion unit and from the video conversion unit to the video transmission unit. Camera control of the camera server is performed according to the sequence. In step S1318, post-processing is performed on the video acquisition unit, the video conversion unit, and the video transmission unit. Then, the process proceeds to step S1319, and the client-compatible thread is terminated.

次に、図5の映像変換サーバの中で機能している映像取得部5007、映像変換部5008、映像送信部5009、カメラ制御部5006について順次説明する。   Next, the video acquisition unit 5007, the video conversion unit 5008, the video transmission unit 5009, and the camera control unit 5006 that function in the video conversion server of FIG.

映像取得部5007は、まず、初期化時に受取ったソース映像情報およびユーザ識別情報に従って、ライブ映像を提供するカメラサーバ(以下カメラサーバ101とする)に接続する。そして、カメラサーバ101から映像データを取得し、取得時のタイムスタンプを付与して映像データを映像変換部5008へ渡す。本実施形態におけるカメラサーバ101は、映像データをMotion JPEG形式で提供するので、タイムスタンプが付与されるのは、個々のJPEGデータである。また、カメラサーバから禁止エリア検出を通知された場合には、映像データに代えて禁止エリア検出通知を映像変換部5008へ渡す。   The video acquisition unit 5007 first connects to a camera server (hereinafter referred to as camera server 101) that provides a live video according to the source video information and user identification information received at the time of initialization. Then, video data is acquired from the camera server 101, a time stamp at the time of acquisition is added, and the video data is passed to the video conversion unit 5008. Since the camera server 101 in this embodiment provides video data in the Motion JPEG format, each JPEG data is given a time stamp. In addition, when a prohibited area detection is notified from the camera server, a prohibited area detection notification is passed to the video conversion unit 5008 instead of the video data.

次に、映像変換部5008では、まず、初期化時に受取ったコーデックへのパラメータ、および、コーデック入力用/出力用のデータ形式などをMPEG−4エンコーダに設定する。そして、映像取得部5008から受取ったソース映像データを、コーデック入力用のデータ形式および画像サイズに整えてからMPEG−4エンコーダに入力し、その処理結果を、映像送信部5009へ渡す。本実施形態における映像変換部5008では、JPEG形式のソース映像データを、予め、QCIFサイズかつYUV411形式に整えてからMPEG−4コーデックへ入力し、生成されたMPEG−4データ(I−frameまたはP−frame)を映像送信部5009へ受け渡す。この際、映像取得部5007で付与されたタイムスタンプも併せてMPEG−4コーデックへ入力される。   Next, the video conversion unit 5008 first sets the parameters for the codec received at initialization, the data format for codec input / output, and the like in the MPEG-4 encoder. Then, the source video data received from the video acquisition unit 5008 is adjusted to the data format and image size for codec input and then input to the MPEG-4 encoder, and the processing result is passed to the video transmission unit 5009. In the video conversion unit 5008 in this embodiment, source video data in JPEG format is preliminarily arranged in QCIF size and YUV411 format, and then input to the MPEG-4 codec, and the generated MPEG-4 data (I-frame or P -Frame) to the video transmission unit 5009. At this time, the time stamp given by the video acquisition unit 5007 is also input to the MPEG-4 codec.

なお、映像取得部5007から禁止エリア検出が通知されている場合には、カメラ制御を制限された領域であって映像を表示できない旨を示す合成画面を、ソース映像データに代えて、MPEG−4コーデックへ入力する。   When the prohibited area detection is notified from the video acquisition unit 5007, a composite screen indicating that the video cannot be displayed because the camera control is limited is replaced with the source video data instead of the MPEG-4. Input to the codec.

次に、映像送信部5009では、まず、初期化時に受取った映像クリップ上限値にしたがってメモリ領域を確保する。そして、映像変換部5008が生成した携帯電話向け映像データを受取り、確保したメモリ領域に保持する。   Next, video transmission section 5009 first secures a memory area according to the video clip upper limit value received at the time of initialization. Then, the mobile phone video data generated by the video converter 5008 is received and held in the secured memory area.

さらに、映像送信部5009では、禁止エリア検出通知を受け取った時点で、メモリ領域の利用率をも加味した上で、映像クリップの分割点を決定する。そして、分割点と判断した場合には、携帯電話向け映像クリップのデータフォーマットに準拠したヘッダー情報を前置して、メモリ領域に保持している映像データをファイルとして保存し、メモリ領域を再利用する。これによって、映像クリップが複数のファイルに分割保存される。   Furthermore, when the video transmission unit 5009 receives the prohibited area detection notification, the video clip division point is determined in consideration of the utilization rate of the memory area. If it is determined as a division point, the header information conforming to the data format of the video clip for mobile phones is prepended, the video data held in the memory area is saved as a file, and the memory area is reused. To do. As a result, the video clip is divided and saved into a plurality of files.

また、映像送信部5009では、映像取得部5007で得られるカメラ制御状態情報を受け取り、時間軸に沿って保持する。そして、予め設定されている時間周期でカメラ制御状態情報から、カメラ制御状態情報に相当するカメラ制御シーケンス(PTZシーケンス)を生成して、そのPTZシーケンスをパラメータとする専用ビューワの起動支持をリンク情報として映像クリップに組み込む。典型的には、隣接するカメラ制御状態情報の差分からPTZシーケンスを構成するが、PTZシーケンス初期値を指定する場合やプリセット位置やホームポジションなどと一致する場合には、絶対値指定を指示する。   The video transmission unit 5009 receives camera control state information obtained by the video acquisition unit 5007 and holds it along the time axis. Then, a camera control sequence (PTZ sequence) corresponding to the camera control state information is generated from the camera control state information at a preset time period, and the support for starting the dedicated viewer using the PTZ sequence as a parameter is linked information. As a video clip. Typically, a PTZ sequence is formed from the difference between adjacent camera control state information. When the initial value of the PTZ sequence is designated, or when it matches the preset position, home position, etc., an absolute value designation is instructed.

そして、カメラ制御部5006からPTZシーケンスの終了を通知された時点で、メモリ領域に保持している映像データの残りを同様にファイルとして保存した上で、それまでに保存している複数の映像クリップへのリンク情報を埋め込んだ携帯電話端末への通知情報を作成し、初期化時に受取った通知先アドレスへ通知する。これによって、通知情報を受取った携帯電話端末から各映像クリップへのダウンロード要求を可能とする。なお、映像送信部5009は、HTTPサーバ機能を備えており、携帯電話端末からのHTTP利用の映像クリップのダウンロード要求に対応する。   When the end of the PTZ sequence is notified from the camera control unit 5006, the remaining video data stored in the memory area is similarly stored as a file, and a plurality of video clips stored so far are stored. The notification information to the mobile phone terminal in which the link information is embedded is created and notified to the notification destination address received at the time of initialization. This enables a download request to each video clip from the mobile phone terminal that has received the notification information. Note that the video transmission unit 5009 has an HTTP server function and responds to an HTTP-based video clip download request from a mobile phone terminal.

次に、カメラ制御部5006では、PTZシーケンスを解釈して、カメラサーバ101に送るべきカメラ制御コマンドを作成し、PTZシーケンスに指示されたタイミングで作成したカメラ制御コマンドをカメラサーバ101に送信することで、カメラサーバ101のカメラ制御を行う。そして、PTZシーケンスを解釈し終えた時点で、PTZシーケンスの終了を映像送信部5009に通知する。   Next, the camera control unit 5006 interprets the PTZ sequence, creates a camera control command to be sent to the camera server 101, and transmits the created camera control command to the camera server 101 at the timing instructed by the PTZ sequence. Thus, camera control of the camera server 101 is performed. Then, when the interpretation of the PTZ sequence is completed, the video transmission unit 5009 is notified of the end of the PTZ sequence.

以上の構成で、携帯電話端末上に実装された映像クリップビューワを使うユーザは、映像変換サーバ400に映像クリップを要求することができる。そして、映像変換サーバ400の機能により、映像クリップが作成された時点のカメラ制御状態情報を、映像クリップ再生ユーザが利用可能となる。   With the above configuration, a user who uses a video clip viewer mounted on a mobile phone terminal can request a video clip from the video conversion server 400. Then, the function of the video conversion server 400 makes it possible for the video clip playback user to use the camera control state information at the time when the video clip is created.

特に、本実施形態の映像クリップビューワでは、映像クリップ中にリンク情報として組み込まれたカメラ制御情報部分を先読みし、カメラ制御内容を解析した上で、映像表示画面上にカメラ制御内容を予報し、ユーザからの指示に応じて、予報先の映像セグメントにジャンプ(映像早送り)する点に特徴がある。   In particular, in the video clip viewer of the present embodiment, the camera control information part embedded as link information in the video clip is pre-read, the camera control content is analyzed, the camera control content is predicted on the video display screen, It is characterized in that it jumps to the forecasted video segment (video fast-forward) in response to an instruction from the user.

本実施形態では、映像変換サーバ400を介してカメラサーバへ間接的にアクセスする例について説明しているが、ビューワは、ステップ602で得られた情報(カメラ接続情報ならびにカメラ制御情報)に基づいて、直接カメラサーバ101へアクセスしても良い。   In the present embodiment, an example in which the camera server is indirectly accessed via the video conversion server 400 is described. However, the viewer is based on the information (camera connection information and camera control information) obtained in step 602. The camera server 101 may be directly accessed.

本実施形態では、携帯電話網とネットワークとを結ぶゲートウェイ500とは独立に、ネットワーク上に映像変換サーバ400が実装される例について説明しているが、映像変換サーバ400が、ゲートウェイ500の一部として実装されても良い。また、映像変換サーバとゲートウェイとが、VPN(Virtual Private Network)なども含めて専用線で接続されるような接続形態も容易に想像できる。   In the present embodiment, an example is described in which the video conversion server 400 is mounted on the network independently of the gateway 500 that connects the mobile phone network and the network. However, the video conversion server 400 is a part of the gateway 500. May be implemented as Also, it is possible to easily imagine a connection form in which the video conversion server and the gateway are connected by a dedicated line including a VPN (Virtual Private Network).

また、本実施形態では、HTTP通信を用いて、携帯電話ビューワ200と映像変換サーバ400とが通信する例について説明しているが、この通信は、SMTP(Simple Mail Transfer Protocol)を用いた通信であっても良い。   In the present embodiment, an example in which the mobile phone viewer 200 communicates with the video conversion server 400 using HTTP communication is described. This communication is communication using SMTP (Simple Mail Transfer Protocol). There may be.

また、携帯電話ビューワ200と映像変換サーバ400とのHTTP通信やSMTP通信は、SSL(Secure Socket Layer)などの併用により、安全な通信経路を利用しても良い。   Further, the HTTP communication and the SMTP communication between the mobile phone viewer 200 and the video conversion server 400 may use a secure communication path by using SSL (Secure Socket Layer) or the like together.

本実施形態では、カメラサーバ101と映像変換サーバ400とが独立である例について説明しているが、カメラサーバ101と映像変換サーバ400とは、一体化されていても良い。その場合、映像変換サーバ400は、カメラサーバ101の映像サーバと同様に、カメラサーバ101のハードウェア構成の映像キャプチャボードを使って映像データを獲得すれば良い。また、カメラサーバ101と映像変換サーバ400とが、一体化した映像変換サーバであっても、本実施形態同様に、他のカメラサーバの映像サーバからも映像データを取得できるよう設計することも容易に想像できる。これによって、カメラサーバのエンコード処理の負荷分散、配送処理の負荷分散、および、ネットワーク通信インフラにおける輻輳防止などの効果がある。   In the present embodiment, an example in which the camera server 101 and the video conversion server 400 are independent has been described. However, the camera server 101 and the video conversion server 400 may be integrated. In that case, the video conversion server 400 may acquire the video data using the video capture board having the hardware configuration of the camera server 101 as in the video server of the camera server 101. In addition, even if the camera server 101 and the video conversion server 400 are an integrated video conversion server, it is easy to design so that video data can be acquired from video servers of other camera servers as in the present embodiment. I can imagine. As a result, there are effects such as load distribution of the encoding process of the camera server, load distribution of the distribution process, and prevention of congestion in the network communication infrastructure.

本実施形態では、映像クリップ中のすべてのカメラ制御情報を先読みする例について説明しているが、先読み量は、映像クリップの全体に限定されない。例えば、映像クリップを再生する装置(本実施形態では、携帯電話端末)のメモリ容量に応じて、映像クリップの一部分を先読みし、その範囲内に検出された情報を予報する事も考えられる。   In this embodiment, an example in which all camera control information in a video clip is prefetched has been described, but the amount of prefetching is not limited to the entire video clip. For example, a part of the video clip may be pre-read according to the memory capacity of the device that plays back the video clip (in this embodiment, a mobile phone terminal), and information detected within the range may be predicted.

また、カメラ制御内容(カメラ制御コマンドの種類、図9参照)やカメラ制御による変動の累積値から、一部のカメラ制御内容を選択的に予報することも容易に想像できる。例えば、カメラ制御内容を選択するために、変動累積値ならびにカメラ制御内容(カメラ制御コマンドの種類)を引数とする評価関数を導入しても良い。   It can also be easily imagined that some camera control contents are selectively predicted from the camera control contents (types of camera control commands, see FIG. 9) and the accumulated values of fluctuations due to camera control. For example, in order to select the contents of camera control, an evaluation function using arguments of the accumulated variation value and the contents of camera control (camera control command type) may be introduced.

例えば、プリセット制御のように平均して大きな変動があるカメラ制御の場合は、大きな値を返し、単純なパン、チルト、ズームコマンドのように平均して小さな変動があるカメラ制御の場合は小さな値を返す関数を使用する。また、全コマンドによる変動を累積した変動累積値より求められた閾値に対して、それ単体のコマンドの変動値がある閾値より少ないコマンドは表示させないといった制御が可能である。図19に、図9の制御を行う場合の一例を示す。この場合、100秒間における変動累積値は15であり、時間単位の平均値(1.5)よりも、値の低いコマンド[2]は表示させないようにする制御である。   For example, in the case of camera control with a large fluctuation on average such as preset control, a large value is returned, and in the case of camera control with a small fluctuation on average such as simple pan, tilt and zoom commands, a small value is returned. Use a function that returns. Further, it is possible to control such that a command having a variation value of a single command less than a certain threshold value is not displayed with respect to a threshold value obtained from a variation accumulation value obtained by accumulating variations due to all commands. FIG. 19 shows an example when the control of FIG. 9 is performed. In this case, the variation accumulated value in 100 seconds is 15, and control is performed so that the command [2] having a value lower than the average value (1.5) in time units is not displayed.

本実施形態では、映像クリップビューワが携帯電話端末で動作する例について説明しているが、動作環境は、これに限定されない。例えば、PCなどとは異なり、様々な制約の多い環境で動作するという点では、STB(Set Top Box)での利用も同様に説明できる。STBへの適用では、表示画面としてTV画面を用い、ユーザからの入力を受け取るボタンとしてSTBのリモコン入力を用いる点、ならびに、通信媒体として携帯電話の無線通信に替えて、CATV通信やインターネット通信を用いる点が異なる。   In this embodiment, an example in which the video clip viewer operates on a mobile phone terminal has been described, but the operating environment is not limited to this. For example, unlike a PC or the like, use in an STB (Set Top Box) can be explained in the same manner in that it operates in an environment with many restrictions. In application to STB, a TV screen is used as a display screen, STB remote control input is used as a button for receiving input from a user, and CATV communication or Internet communication is used instead of mobile phone wireless communication as a communication medium. The point to use is different.

本実施形態では、映像クリップビューワが、映像クリップの再生時に、映像クリップの各映像セグメントにリンク情報として関連付けられたカメラ制御情報を先読みする例について説明しているが、映像変換サーバが、カメラ制御情報をまとめて映像クリップのヘッダ情報などに組み入れる事で、再生時のビューワ負担を軽減することも容易に想像できる。   In this embodiment, an example is described in which the video clip viewer pre-reads camera control information associated with each video segment of the video clip as link information when the video clip is played back. It can easily be imagined that the burden on the viewer during playback can be reduced by integrating the information into the header information of the video clip.

図15(b)の映像セグメント分割と、直接表示のための映像分割点に対するマーク付け(映像セグメントマーカ)に関しては単純にデータ量に基づき行う手法があるが、この分割に関しても、上記のような評価関数を利用することができる。   Regarding the video segment division of FIG. 15B and the marking (video segment marker) for the video division point for direct display, there is a method based simply on the amount of data. An evaluation function can be used.

即ち、各制御が集中し評価値の平均が全体平均よりも高くなっている時間帯を短い映像クリップとなるようマーク付けし(例えば、図15(b)の3と4で適用)、表価値が全体平均よりも低くなる時間を長い映像クリップとなるようマーク付けする(例えば、図15(b)の1と2で適用)ことができる。   That is, the time zone in which each control is concentrated and the average evaluation value is higher than the overall average is marked to be a short video clip (for example, applied in 3 and 4 in FIG. 15B), and the table value Can be marked to be a long video clip (for example, applied in 1 and 2 of FIG. 15B).

本実施形態では、同一映像クリップ内に含まれる映像情報ならびにカメラ制御情報を先読みして再生時に利用する例について説明しているが、これは、同一映像クリップ(ファイル)に限定されない。異なるファイルとして提供されても良い。さらに、積極的に、異なる映像クリップ内に含まれる映像情報ならびにカメラ制御情報を組み合わせて利用してもよい。   In the present embodiment, an example is described in which video information and camera control information included in the same video clip are pre-read and used at the time of playback. However, this is not limited to the same video clip (file). It may be provided as a different file. Furthermore, video information and camera control information included in different video clips may be actively used in combination.

本実施形態では、再生中の映像クリップの再生表示時点からの相対時刻で、カメラ制御内容を予報する例について説明しているが、予報する時刻は、表示時点からの相対時刻に限定されない。例えば、映像クリップの冒頭からの相対時刻を利用することも容易に想像できる。また、映像クリップが生成時刻を保持している場合、絶対時刻で、カメラ制御内容を予報する事も考えられる。   In the present embodiment, an example in which the camera control content is predicted based on the relative time from the playback display time of the video clip being played back has been described, but the time to be predicted is not limited to the relative time from the display time. For example, it is easy to imagine using the relative time from the beginning of the video clip. In addition, when the video clip holds the generation time, it is conceivable to predict the camera control content at the absolute time.

(第2の実施形態)
第2の実施形態では、第1の実施形態同様、インターネット上に配置されたカメラサーバから取得したライブ映像を映像クリップに変換して送信し再生表示する例について説明する。
(Second Embodiment)
In the second embodiment, as in the first embodiment, an example will be described in which a live video acquired from a camera server arranged on the Internet is converted into a video clip, transmitted, reproduced, and displayed.

特に、本実施形態では、インターネットに接続された多数のカメラサーバのライブ映像から生成した膨大な数の映像クリップ群を蓄積および閲覧する蓄積映像クリップ用ビューワが、蓄積された膨大な数の映像クリップ群の中の、注目の映像クリップについて、カメラ制御情報をリスト表示し、その中の一部(区切り点として検出された部分)を、ユーザの識別しやすい方法で提供する点に特徴がある。   In particular, in this embodiment, a viewer for accumulated video clips that accumulates and browses a large number of video clip groups generated from live video of a large number of camera servers connected to the Internet has a large number of accumulated video clips. A feature is that camera control information is displayed in a list for a video clip of interest in the group, and a part thereof (a part detected as a breakpoint) is provided in a manner that is easy for the user to identify.

さらに本実施形態では、注目している映像クリップから抽出したカメラ制御情報リストの一部をユーザが選択し、それを別の映像クリップに適用(ドラッグアンドドロップ操作)することで、適用された映像クリップを生成したカメラサーバへライブ接続し、さらに、選択されたカメラ制御情報に相当するカメラ制御内容(カメラ制御コマンド)を要求する点に特徴がある。   Furthermore, in the present embodiment, the user selects a part of the camera control information list extracted from the video clip of interest and applies it to another video clip (drag and drop operation), thereby applying the applied video. It is characterized in that a live connection is made to the camera server that generated the clip, and the camera control content (camera control command) corresponding to the selected camera control information is requested.

本実施形態では、ネットワークの接続形態やハードウェア構成、および、各ソフトウェアの動作の多くは、第1の実施形態で説明した通りである。ただし、図4で説明したビューワを動作させるハードウェア構成は、携帯電話ではなく、PCのハードウェアとなる(図示せず)。また、図6で示した映像クリップビューワの動作が、第1の実施形態と異なる。   In the present embodiment, the network connection mode, hardware configuration, and the operation of each software are the same as described in the first embodiment. However, the hardware configuration for operating the viewer described with reference to FIG. 4 is not the mobile phone but the PC hardware (not shown). Further, the operation of the video clip viewer shown in FIG. 6 is different from that of the first embodiment.

本実施形態では、映像クリップビューワがPCなどの制約の少ない環境上で動作しており、GUIを用いた操作によって、映像クリップの選択ならびに再生制御が行われる点で、第1の実施形態と異なる。   This embodiment is different from the first embodiment in that the video clip viewer operates in an environment with few restrictions such as a PC, and video clip selection and playback control are performed by an operation using a GUI. .

第2の実施形態の映像クリップビューワは、蓄積映像クリップ用ビューワとして動作し、動作するハードウェア内あるいは映像蓄積サーバに蓄積されている作成済み映像クリップを表示対象とする。これらの映像クリップ中に、カメラサーバ接続情報ならびにカメラ制御情報が組み込まれている点は、第1の実施形態で説明した通りである。   The video clip viewer according to the second embodiment operates as a stored video clip viewer, and displays a created video clip stored in the operating hardware or the video storage server as a display target. The point that camera server connection information and camera control information are incorporated in these video clips is as described in the first embodiment.

蓄積映像クリップ用ビューワの映像クリップ再生表示処理では、図17に示すように、複数の映像クリップを同時に再生可能であり、第1の実施形態の映像クリップビューワ同様、リンク情報として組み込まれているカメラ制御情報を先読みし、予報する。   In the video clip playback / display processing of the stored video clip viewer, as shown in FIG. 17, a plurality of video clips can be played back simultaneously, and the camera incorporated as link information is the same as the video clip viewer of the first embodiment. Pre-read and forecast control information.

さらに、複数の映像クリップの中で、注目している(フォーカスされている)映像クリップについては、より詳細なカメラ制御内容をリスト表示する。   Furthermore, for a video clip of interest (focused) among a plurality of video clips, a more detailed camera control content is displayed in a list.

そして、リスト表示されたカメラ制御情報の一部を選択可能であり、蓄積映像クリップ用ビューワのマルチ表示している別の映像クリップ画面にdrag−n−dropする事で、別の映像クリップを生成したカメラサーバにライブ接続し、選択したカメラ制御情報をカメラサーバに適用する。   A part of the camera control information displayed in the list can be selected, and another video clip can be generated by drag-n-dropping to another video clip screen displayed in the multi-view of the stored video clip viewer. Live connection to the selected camera server, and the selected camera control information is applied to the camera server.

図16は、第2の実施形態の映像クリップビューワの表示動作の流れを示す図である。   FIG. 16 is a diagram illustrating the flow of the display operation of the video clip viewer according to the second embodiment.

ステップS1601で、PC内に保持されているカメラ制御情報付き映像クリップを複数取得する。これらの映像クリップは、ネットワークからのダウンロード、メイルへの添付、あるいは、メモリカードからのコピー、などの経路からPC内の映像クリップビューワへ取得される。典型的には、映像蓄積サーバに蓄積されている作成済み映像クリップを取得する。   In step S1601, a plurality of video clips with camera control information held in the PC are acquired. These video clips are acquired to the video clip viewer in the PC through a route such as downloading from a network, attachment to a mail, or copying from a memory card. Typically, the created video clip stored in the video storage server is acquired.

続いて、ステップS1602で、カメラ制御情報を先読みし予報するための映像クリップを選択し、カメラ制御情報を先読みしてリスト表示する。典型的には、一つの映像クリップを選択するが、複数の映像クリップを選択して、それらの映像クリップに組み込まれたカメラ制御情報を連続して利用しても良い。これらを映像クリップB1〜映像クリップBnとする。   In step S1602, a video clip for prefetching and predicting camera control information is selected, and camera control information is prefetched and displayed in a list. Typically, one video clip is selected, but a plurality of video clips may be selected, and camera control information incorporated in these video clips may be used continuously. These are designated as video clip B1 to video clip Bn.

続いて、ステップS1603では、接続先となるカメラサーバを指定するための映像クリップ(映像クリップA)を選択する。典型的には、ステップS1602で選択した映像クリップB1〜映像クリップBnを、映像クリップAへドラッグアンドドロップ操作する(図17)。   In step S1603, a video clip (video clip A) for designating a camera server to be connected is selected. Typically, the video clip B1 to video clip Bn selected in step S1602 are dragged and dropped to the video clip A (FIG. 17).

そして、ステップS1604で、上記で選択された映像クリップAに組み込まれたカメラ接続情報を取り出す。続いて、ステップS1605で、映像クリップB1〜映像クリップBnにおいて、ユーザに選択されたカメラ制御情報から、カメラ制御用のPTZシーケンスを取り出す。   In step S1604, camera connection information incorporated in the video clip A selected above is extracted. In step S1605, a camera control PTZ sequence is extracted from the camera control information selected by the user in the video clip B1 to the video clip Bn.

そして、ステップS1606で、得られたカメラ接続情報を使って、指定のカメラサーバにライブ接続し、PTZシーケンスを、カメラ制御コマンドとして要求する。   In step S1606, the obtained camera connection information is used for live connection to a designated camera server, and a PTZ sequence is requested as a camera control command.

以上の構成で、PCなどコンピュータ上に実装された映像クリップビューワを使うユーザは、映像変換サーバに映像クリップを要求することができる。そして、映像変換サーバの機能により、映像クリップが作成された時点のカメラ制御状態情報を、映像クリップ再生ユーザが利用可能となる。   With the above configuration, a user using a video clip viewer mounted on a computer such as a PC can request a video clip from the video conversion server. The video clip playback user can use the camera control state information at the time when the video clip is created by the function of the video conversion server.

特に、本実施形態では、蓄積された膨大な数の映像クリップを再生表示する映像蓄積ビューワにおいて、映像クリップ中に組み込まれたカメラ制御情報を先読みし、予報情報を表示することで、それらのカメラ制御情報を部分的に選択し、別のカメラサーバへのライブ映像配信接続に適用する例について説明した。   In particular, in the present embodiment, in a video accumulation viewer that reproduces and displays a huge number of accumulated video clips, the camera control information incorporated in the video clips is pre-read and forecast information is displayed, so that these cameras are displayed. An example in which control information is partially selected and applied to a live video distribution connection to another camera server has been described.

本実施形態では、映像クリップから抽出したカメラ制御情報を、ライブ映像配信中のカメラサーバを制御する例について説明しているが、これは、ライブ接続に限定されない。例えば、抽出したカメラ制御情報のPTZシーケンスを利用して、再び映像クリップを作成することも容易に想像できる。   In the present embodiment, the camera control information extracted from the video clip is described as an example of controlling the camera server that is delivering live video, but this is not limited to live connection. For example, it can be easily imagined that a video clip is created again using the PTZ sequence of the extracted camera control information.

また、本実施形態では、ライブ映像配信中のカメラサーバのカメラ制御に用いる場合にも、抽出したカメラ制御情報のPTZシーケンス(の選択された部分)による自動制御を行う例について説明しているが、これは、自動制御に限定されない。例えば、自動制御に加えて、ユーザが自動制御に割り込んで、カメラ制御用のPTZシーケンスを、早送り1801、逆送り1802、停止1803、一時停止1804、再生1805など操作することが考えられる。あるいは、自動制御を一時停止1084して、ユーザの好みに応じて、PTZシーケンスをスクロールバー1806を使用して手動制御しても良い(図18)。この場合、ユーザ操作によるライブ制御と、PTZシーケンスによる自動制御とを、相互に排他制御する。   In the present embodiment, an example is described in which automatic control is performed using a PTZ sequence (selected portion) of the extracted camera control information even when used for camera control of a camera server during live video distribution. This is not limited to automatic control. For example, in addition to automatic control, it is conceivable that the user interrupts automatic control and operates a PTZ sequence for camera control, such as fast-forward 1801, reverse-feed 1802, stop 1803, pause 1804, and playback 1805. Alternatively, the automatic control may be temporarily stopped 1084 and the PTZ sequence may be manually controlled using the scroll bar 1806 according to the user's preference (FIG. 18). In this case, the live control by the user operation and the automatic control by the PTZ sequence are mutually exclusive controlled.

(他の実施形態)
本発明の目的は、前述した各実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行することによっても達成される。
(Other embodiments)
An object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus stores the storage medium. It is also achieved by reading out and executing the program code stored in.

この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   The storage medium for supplying the program code is, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW. DVD-R, magnetic tape, nonvolatile memory card, ROM, and the like can be used.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on an instruction of the program code, etc. Includes a case where the function of each embodiment described above is realized by performing part or all of the actual processing.

更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。   Further, after the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. This includes the case where the CPU or the like provided in the board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

本発明を用いた典型的な利用形態を示した図である。It is the figure which showed the typical usage pattern using this invention. 映像変換サーバのハードウェア構成の一例を示した図である。It is the figure which showed an example of the hardware constitutions of a video conversion server. カメラサーバのハードウェア構成の一例を示した図である。It is the figure which showed an example of the hardware constitutions of a camera server. ビューワを動作させるハードウェア構成の一例を示した図である。It is the figure which showed an example of the hardware constitutions which operate a viewer. プログラムの構成する部分を模式化した図である。It is the figure which modeled the part which the program comprises. 携帯電話の映像クリップビューワの動作の流れを示す図である。It is a figure which shows the flow of operation | movement of the video clip viewer of a mobile telephone. カメラサーバ内のカメラ制御サーバの動作を示した流れ図である。It is the flowchart which showed operation | movement of the camera control server in a camera server. カメラサーバ内の映像サーバの動作を示した流れ図である。It is the flowchart which showed operation | movement of the video server in a camera server. 携帯電話上での映像クリップ再生表示を例示した図である。It is the figure which illustrated the video clip reproduction display on a mobile telephone. カメラサーバの設定画面を例示した図である。It is the figure which illustrated the setting screen of the camera server. カメラサーバの設定プログラムの動作を示す流れ図である。It is a flowchart which shows operation | movement of the setting program of a camera server. 映像変換サーバにおける映像データの流れを模式化した図である。It is the figure which modeled the flow of the video data in a video conversion server. 映像変換サーバの動作を示した流れ図である。It is the flowchart which showed operation | movement of the video conversion server. ライブ映像ビューワの流れを示す図である。It is a figure which shows the flow of a live video viewer. 携帯電話端末上で映像クリップ選択画面を例示した図である。It is the figure which illustrated the video clip selection screen on a mobile telephone terminal. 第2の実施形態の映像クリップビューワの動作の流れを示す図である。It is a figure which shows the flow of operation | movement of the video clip viewer of 2nd Embodiment. 第2の実施形態のドラッグアンドドロップ画面を例示した図である。It is the figure which illustrated the drag and drop screen of 2nd Embodiment. 第2の実施形態の自動制御割り込み時の画面を例示した図である。It is the figure which illustrated the screen at the time of automatic control interruption of a 2nd embodiment. 評価関数によるコマンド選択を説明するための図である。It is a figure for demonstrating the command selection by an evaluation function.

符号の説明Explanation of symbols

101 カメラサーバ
102 カメラサーバ
200 ビューワ
300 中継サーバ
400 映像変換サーバ
500 ゲートウェイ
601 携帯電話端末
602 携帯電話端末
DESCRIPTION OF SYMBOLS 101 Camera server 102 Camera server 200 Viewer 300 Relay server 400 Video conversion server 500 Gateway 601 Mobile phone terminal 602 Mobile phone terminal

Claims (16)

ネットワークを介して接続されたカメラサーバから受信した映像ファイルを表示する映像表示装置であって、
前記映像ファイルの映像表示に先立ち、前記映像ファイルに含まれるカメラ制御情報を抽出する情報抽出手段と、
前記映像ファイルの映像を表示するとともに、前記情報抽出手段により抽出されたカメラ制御情報に基づき、表示されていない時間帯の映像に関るカメラ制御内容を表示する表示手段と、
を備えることを特徴とする映像表示装置。
A video display device for displaying a video file received from a camera server connected via a network,
Prior to video display of the video file, information extracting means for extracting camera control information contained in the video file;
Display means for displaying the video of the video file, and displaying camera control contents related to video in a time zone not displayed based on the camera control information extracted by the information extraction means;
A video display device comprising:
前記抽出手段は、カメラ制御情報として、カメラサーバへの接続情報とカメラ制御コマンドとを抽出することを特徴とする請求項1の映像表示装置。   2. The video display device according to claim 1, wherein the extraction unit extracts connection information to a camera server and a camera control command as camera control information. 前記抽出手段は、前記映像ファイルに含まれる全時間の映像に関するカメラ制御情報を抽出することを特徴とする請求項1または2に記載の映像表示装置。   The video display apparatus according to claim 1, wherein the extraction unit extracts camera control information related to a video of all time included in the video file. 前記抽出手段は、前記映像ファイルに含まれる一部の時間の映像に関するカメラ制御情報を抽出することを特徴とする請求項1または2に記載の映像表示装置。   The video display apparatus according to claim 1, wherein the extraction unit extracts camera control information relating to a video of a part of time included in the video file. 前記抽出手段は、前記映像表示装置の利用可能記憶容量に基づき、前記映像ファイルに含まれる一部の時間の映像に関するカメラ制御情報を抽出することを特徴とする請求項1または2に記載の映像表示装置。   3. The video according to claim 1, wherein the extraction unit extracts camera control information related to a video of a part of time included in the video file based on an available storage capacity of the video display device. Display device. 前記表示手段は、抽出されたカメラ制御情報に評価関数を適用し、評価値が設定された閾値を越えた場合のみ前記制御内容を表示することを特徴とする請求項5の映像表示装置。   6. The video display device according to claim 5, wherein the display means applies an evaluation function to the extracted camera control information and displays the control content only when the evaluation value exceeds a set threshold value. 前記表示手段は、抽出されたカメラ制御情報に加えてカメラ変動累積値を含む履歴情報をも併せて評価関数を適用し、評価値が設定された閾値を越えた場合のみ前記制御内容を表示することを特徴とする請求項6の映像表示装置。   The display means applies the evaluation function together with the extracted camera control information and the history information including the camera fluctuation accumulated value, and displays the control content only when the evaluation value exceeds a set threshold value. The video display device according to claim 6. カメラ制御内容に関連付けされている映像部分を直接表示させるための映像セグメントマーカを生成する生成手段をさらに備えることを特徴とする請求項1の映像表示装置。   2. The video display device according to claim 1, further comprising generating means for generating a video segment marker for directly displaying a video portion associated with camera control content. カメラサーバにカメラ制御コマンドを発行する発行手段をさらに備え、前記抽出手段は、映像ファイルから接続先カメラサーバ情報を抽出し、前記発行手段は、接続先のカメラサーバにカメラ制御コマンドを発行することを特徴とする請求項1の映像再生表示装置。   Issue means for issuing a camera control command to the camera server, wherein the extraction means extracts connection destination camera server information from the video file, and the issue means issues a camera control command to the connection destination camera server. The video reproduction display device according to claim 1. 前記抽出手段は、複数の映像ファイルからカメラ制御情報を抽出し、得られた各映像ファイルのカメラ制御情報を組み合わせて利用することを特徴とする請求項9に記載の映像表示装置。   The video display apparatus according to claim 9, wherein the extraction unit extracts camera control information from a plurality of video files and uses the obtained camera control information in combination with each video file. 前記抽出手段が1つの映像ファイルの情報を抽出しているときに、前記表示手段は異なる映像ファイルを表示していることを特徴とする請求項10に記載の映像表示装置。   11. The video display apparatus according to claim 10, wherein when the extraction unit extracts information of one video file, the display unit displays a different video file. 前記発行手段は、前記抽出したカメラ制御情報の一部を、選択的にカメラサーバに適用して自動制御する選択的自動制御コマンドを発行することを特徴とする請求項9〜11のいずれかに記載の映像表示装置。   12. The issuing means issues a selective automatic control command for selectively applying a part of the extracted camera control information to a camera server for automatic control. The video display device described. 前記発行手段は、ユーザが前記カメラ制御コマンドによる制御に割り込み、前記制御を一時停止、あるいは、ユーザ入力に基づくカメラ制御操作をするコマンドを発行することを特徴とする請求項12のいずれかに記載の映像表示装置。   13. The issuing unit according to claim 12, wherein the issuing unit issues a command for interrupting control by the camera control command, temporarily stopping the control, or performing a camera control operation based on a user input. Video display device. ネットワークを介して接続されたカメラサーバから受信した映像ファイルを表示する映像表示装置の制御方法であって、
前記映像ファイルの映像表示に先立ち、前記映像ファイルに含まれるカメラ制御情報を抽出する情報抽出工程と、
前記映像ファイルの映像を表示するとともに、前記情報抽出工程により抽出されたカメラ制御情報に基づき、表示されていない時間帯の映像に関るカメラ制御内容を表示する表示工程と、
を備えることを特徴とする映像表示装置の制御方法。
A control method of a video display device for displaying a video file received from a camera server connected via a network,
Prior to video display of the video file, an information extraction step of extracting camera control information included in the video file;
Displaying the video of the video file, and displaying the camera control content related to the video of the time zone not displayed based on the camera control information extracted by the information extraction step;
A method for controlling a video display device, comprising:
ネットワークを介して接続されたカメラサーバから受信した映像ファイルを表示する映像表示装置の制御方法を実行するためのプログラムであって、
前記映像ファイルの映像表示に先立ち、前記映像ファイルに含まれるカメラ制御情報を抽出する情報抽出ステップと、
前記映像ファイルの映像を表示するとともに、前記情報抽出ステップにより抽出されたカメラ制御情報に基づき、表示されていない時間帯の映像に関るカメラ制御内容を表示する表示ステップと、
を備えることを特徴とするプログラム。
A program for executing a control method of a video display device that displays a video file received from a camera server connected via a network,
Prior to video display of the video file, an information extraction step of extracting camera control information included in the video file;
Displaying the video of the video file, and displaying the camera control content related to the video of the time zone not displayed based on the camera control information extracted by the information extraction step;
A program comprising:
ネットワークを介して接続されたカメラサーバから受信した映像ファイルを表示する映像表示装置の制御方法を実行するためのプログラムコードを記憶した記憶媒体であって、
前記映像ファイルの映像表示に先立ち、前記映像ファイルに含まれるカメラ制御情報を抽出する情報抽出コードと、
前記映像ファイルの映像を表示するとともに、前記情報抽出コードにより抽出されたカメラ制御情報に基づき、表示されていない時間帯の映像に関るカメラ制御内容を表示する表示コードと、
を備えることを特徴とする記憶媒体。
A storage medium storing a program code for executing a control method of a video display device that displays a video file received from a camera server connected via a network,
Prior to video display of the video file, an information extraction code for extracting camera control information contained in the video file;
A display code for displaying the video of the video file, and displaying the camera control content related to the video of the time zone not displayed based on the camera control information extracted by the information extraction code;
A storage medium comprising:
JP2005023504A 2005-01-31 2005-01-31 Video display apparatus, control method of video processing apparatus, program, and storage medium Withdrawn JP2006211524A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005023504A JP2006211524A (en) 2005-01-31 2005-01-31 Video display apparatus, control method of video processing apparatus, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005023504A JP2006211524A (en) 2005-01-31 2005-01-31 Video display apparatus, control method of video processing apparatus, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2006211524A true JP2006211524A (en) 2006-08-10

Family

ID=36967848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005023504A Withdrawn JP2006211524A (en) 2005-01-31 2005-01-31 Video display apparatus, control method of video processing apparatus, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2006211524A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008104158A (en) * 2006-10-18 2008-05-01 Sharp Corp Wireless communication device and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008104158A (en) * 2006-10-18 2008-05-01 Sharp Corp Wireless communication device and method

Similar Documents

Publication Publication Date Title
US8692897B2 (en) Method of generating moving picture information
CA2569610C (en) Personal media broadcasting system
US8074244B2 (en) Receiving apparatus and method
US8429703B2 (en) Video distribution apparatus, viewer apparatus, video distribution system including these apparatuses, control method for the video distribution apparatus, control method for the viewer apparatus, and computer program for the apparatuses
US20090070840A1 (en) Terminal-Cooperated System, Terminal, Server and Method for Uninterrupted Reception of Contents
JP4100421B2 (en) Computer system
JP2009130876A (en) Terminal cooperation continuation viewing-and-listening system, terminal, server, and method
KR101965806B1 (en) Content playback device, content playback method, content playback program and content distribution system
KR20180073228A (en) Method and Device for media streaming between server and client using RTP/RTSP standard protocol
JP2006101009A (en) Imaging apparatus, image display device, and image distribution system and control method thereof
CN105812892A (en) Method, device and system for obtaining screenshot of dynamic display picture of television
JP6238255B2 (en) Surveillance method and video segmentation apparatus using surveillance camera system
JP6327816B2 (en) Transmission device, reception device, transmission / reception system, transmission device control method, reception device control method, transmission / reception system control method, and program
US7239343B2 (en) Image distribution method employing both a first network whose bandwidth is not assured and second network whose bandwidth is assured for control and image transmission
JP2009065305A (en) Terminal cooperation system for seamless viewing and listening, terminal, server, and method
EP2741490B1 (en) Information processing apparatus and control methods for the same
US10542213B2 (en) Imaging apparatus
JP4401672B2 (en) Information processing apparatus, information processing method, and program
KR20000054715A (en) Method and system for servicing by using the internet, method for producing and transmitting moving picture files and recording medium thereof
JP2006211524A (en) Video display apparatus, control method of video processing apparatus, program, and storage medium
JP6063952B2 (en) Method for displaying multimedia assets, associated system, media client, and associated media server
JP4510519B2 (en) Video communication apparatus, video communication method, and computer program
JP2004343175A (en) Video relaying apparatus
JP4250449B2 (en) Video communication system, video communication apparatus, terminal, and camera control method for terminal
JP4261934B2 (en) Video clip generation device, video clip generation method, program, and storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080401