JP2006135569A - Data distributing method and information processing apparatus - Google Patents

Data distributing method and information processing apparatus Download PDF

Info

Publication number
JP2006135569A
JP2006135569A JP2004321444A JP2004321444A JP2006135569A JP 2006135569 A JP2006135569 A JP 2006135569A JP 2004321444 A JP2004321444 A JP 2004321444A JP 2004321444 A JP2004321444 A JP 2004321444A JP 2006135569 A JP2006135569 A JP 2006135569A
Authority
JP
Japan
Prior art keywords
data
file
distribution
information
streaming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004321444A
Other languages
Japanese (ja)
Other versions
JP2006135569A5 (en
JP4756848B2 (en
Inventor
Hajime Oshima
肇 大嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004321444A priority Critical patent/JP4756848B2/en
Priority to US10/986,108 priority patent/US7555009B2/en
Publication of JP2006135569A publication Critical patent/JP2006135569A/en
Publication of JP2006135569A5 publication Critical patent/JP2006135569A5/ja
Application granted granted Critical
Publication of JP4756848B2 publication Critical patent/JP4756848B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a data distributing method and an information processing apparatus that enable streaming distribution regardless of whether a file includes control information for distribution. <P>SOLUTION: The processing method of content data comprises: analyzing the structure of the content data to be distributed (step S202); generating distribution information on the basis of the analysis result (step S203) when it is decided that the content data include no description for distribution control; and distributing the content data to a network on the basis of the generated distribution control information (step S204). <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、マルチメディアファイルの処理に好適なデータ配信方法および装置およびプログラムに関する。特に、ストリーミング配信のための通信制御情報およびコンテンツデータ間の関連定義を記述するオブジェクトディスクリプタ情報を含む、MP4ファイル形式あるいは類似のファイル形式で記述されたマルチメディアファイルのデータ配信処理に好適なものである。   The present invention relates to a data distribution method, apparatus, and program suitable for processing multimedia files. In particular, it is suitable for data distribution processing of multimedia files described in MP4 file format or similar file format, including communication control information for streaming distribution and object descriptor information that describes the relationship between content data. is there.

映像、音声の圧縮符号化技術の進歩にともない、さまざまな圧縮符号化形式が標準として規格化され、現在利用されている。また、映像や音声といったコンテンツデータを単独で扱うのではなく、複数種のコンテンツデータが互いに関連付けられて単一のコンテンツとして扱われる、いわゆるマルチメディアコンテンツも一般的に利用されている。このようなマルチメディアコンテンツの圧縮符号化形式の典型として、ISO(Internarional Organization for Standardization)によって制定された動画・音声符号化形式であるMPEG(Moving Picture Expert Group)が挙げられる。   With the progress of video and audio compression encoding technology, various compression encoding formats have been standardized as standards and are currently used. In addition, so-called multimedia content in which a plurality of types of content data are associated with each other and handled as a single content, rather than handling content data such as video and audio alone, is also generally used. A typical example of such a multimedia content compression coding format is the Moving Picture Expert Group (MPEG), which is a video / audio coding format established by ISO (International Organization for Standardization).

上述のISOでは、MPEGなどの動画・音声のコンテンツデータをファイルに記録するために「ISO Base Mediaファイル形式」という汎用のファイル形式を規格化している(ISO/IEC 14496-12。非特許文献1参照)。さらに、このファイル形式をベースに、特定の符号化形式のデータを記録するために拡張されたファイル形式も標準化されている。MPEG-4の動画・音声符号化データを記録するための標準ファイル形式である「MP4ファイル形式」(ISO/IEC 14496-14。非特許文献2参照)はその代表例である。   In the above-mentioned ISO, a general-purpose file format called “ISO Base Media file format” is standardized in order to record moving image / audio content data such as MPEG (ISO / IEC 14496-12, Non-Patent Document 1). reference). Further, based on this file format, a file format extended to record data of a specific encoding format is also standardized. The “MP4 file format” (ISO / IEC 14496-14; see Non-Patent Document 2), which is a standard file format for recording MPEG-4 video / audio encoded data, is a typical example.

デジタルカメラや携帯電話などの機器では、動画・音声データをMPEG-4形式で符号化し、その符号化データはファイルに記録するために多重化され、また、多重化された符号化データを分離されてファイルから抽出され、再生される。このような符号化データの多重化分離のために、上記のMP4ファイル形式を採用するケースが増えてきている。   In devices such as digital cameras and mobile phones, video / audio data is encoded in MPEG-4 format, and the encoded data is multiplexed for recording in a file, and the multiplexed encoded data is separated. Extracted from the file and played. In order to multiplex and demultiplex such encoded data, an increasing number of cases adopt the above-mentioned MP4 file format.

一方、インターネット環境、通信環境の整備によって、上記のようなファイル形式で記録されたマルチメディアコンテンツを、機器内で再生するだけでなく、ネットワークを介してストリーミング配信するといった利用形態も増加しつつある。そのため、上述のISO Base Mediaファイル形式では、ファイル中の動画・音声データのストリーミング配信を支援するための「ヒントトラック」と呼ばれる追加のデータ構造が定義されている。   On the other hand, with the development of the Internet environment and the communication environment, usage forms such as multimedia content recorded in the file format as described above are not only reproduced within the device but also streamed via a network are increasing. . Therefore, in the above-mentioned ISO Base Media file format, an additional data structure called “hint track” for supporting streaming distribution of moving image / audio data in the file is defined.

<ヒントトラック>
ストリーミング配信処理で用いられるデータ単位は、使用される通信プロトコルの「パケット」であり、動画・音声符号化データのデータ単位とは必ずしも一致しない。そのため、配信時には動画・音声符号化データを通信プロトコルのパケットとして伝送可能な単位に分割・結合する必要が生じる。さらに、通信パケットには、通信制御のための付加情報(例えばプロトコル・ヘッダ情報、以下、通信制御情報という)を付加しなければならない場合もある。
<Hint track>
The data unit used in the streaming distribution process is a “packet” of the communication protocol used, and does not necessarily match the data unit of the moving image / audio encoded data. Therefore, at the time of distribution, it is necessary to divide and combine the moving image / audio encoded data into units that can be transmitted as communication protocol packets. Further, additional information for communication control (for example, protocol header information, hereinafter referred to as communication control information) may need to be added to the communication packet.

ヒントトラックには、これらのコンテンツデータの分割・結合や通信制御情報の付与といった処理を行うための指示が記述される。ストリーミング配信を行うファイルにヒントトラックとして上記のような指示情報を記録しておき、ストリーミングを行う配信装置(以下、ストリーミングサーバ)が配信プロトコルに対応するヒントトラックをファイルから抽出して記述されている指示にしたがってパケット化処理を行うことで、通信プロトコルに準じた形でパケットが生成される。   In the hint track, an instruction for performing processing such as division / combination of these content data and addition of communication control information is described. The instruction information as described above is recorded as a hint track in a file for streaming distribution, and a distribution apparatus (hereinafter referred to as a streaming server) for streaming extracts a hint track corresponding to the distribution protocol from the file and is described. By performing packetization processing in accordance with the instruction, a packet is generated in a form conforming to the communication protocol.

一般的に、パケット化の方法は、使用する通信プロトコルや配信対象となるコンテンツデータの符号化形式によって異なる。例えば、通信プロトコルにRTP(非特許文献4参照)、符号化形式にMPEG-4を用いる場合、RFC3640(非特許文献5参照)、RFC3016(非特許文献6参照)といったパケット化方法が規格化されている。上述のISO Base Mediaファイル形式規格では、現在、通信プロトコルにRTPを用いる場合に対応したヒントトラックの形式が規格化されている。   In general, the packetization method differs depending on the communication protocol used and the encoding format of the content data to be distributed. For example, when RTP (see Non-Patent Document 4) is used as a communication protocol and MPEG-4 is used as an encoding format, packetization methods such as RFC3640 (see Non-Patent Document 5) and RFC3016 (see Non-Patent Document 6) are standardized. ing. In the above-mentioned ISO Base Media file format standard, a hint track format corresponding to the case where RTP is used as a communication protocol is standardized.

なお、このヒントトラックの概念および利用法は、特許文献1および特許文献2においても言及されている。   The concept and usage of the hint track are also mentioned in Patent Document 1 and Patent Document 2.

<オブジェクトディスクリプタ>
また、MPEG-4は、映像、音声といった個々のコンテンツデータの符号化に加えて、各コンテンツデータをシーンを構成する物体(オブジェクト)として扱い、オブジェクト単位で符号化する「オブジェクトベース符号化形式」であるという特徴も持っている。そのため、MPEG-4では、映像、音声といった各オブジェクトの属性情報と、各オブジェクトに対応する符号化データとの関連付けを行うために、「オブジェクトディスクリプタ」と呼ばれる両者の関連を記述するための情報が用いられる。このオブジェクトディスクリプタによって、コンテンツデータの属性を正しく扱うことができる。なお、このオブジェクトディスクリプタは、MPEG-4の1パートであり、同期制御等の制御システムに関する標準を規定しているMPEG-4 Systems(非特許文献3参照)によって規格化されている。
<Object descriptor>
In addition to encoding individual content data such as video and audio, MPEG-4 treats each content data as an object (object) that constitutes a scene and encodes it in units of objects. It also has the feature of being. Therefore, in MPEG-4, in order to associate the attribute information of each object such as video and audio with the encoded data corresponding to each object, information for describing the relationship between both is called an “object descriptor”. Used. By this object descriptor, the attribute of the content data can be handled correctly. This object descriptor is one part of MPEG-4, and is standardized by MPEG-4 Systems (see Non-Patent Document 3) that defines a standard for control systems such as synchronization control.

MPEG-4では、コンテンツデータは、エレメンタリーストリーム(Elementary Stream、以下、ESと記述)と呼ばれるデータ列として独立して符号化される。ESとして扱われるコンテンツデータは、映像、音声に限らず、上述のオブジェクトディスクリプタなども対象となる。また、このESを一意に識別できるようにするため、各ESにはエレメンタリー・ストリームID(ES_IDと記述)と呼ばれる固有の識別子が割り当てられる。MPEG-4では、ES_IDを用いることによって、特定のESに含まれるコンテンツデータを参照できる。すなわち、このES_IDをオブジェクトディスクリプタに記述することで、オブジェクトディスクリプタとコンテンツデータとの関連付けが実現できる。   In MPEG-4, content data is independently encoded as a data stream called an elementary stream (hereinafter referred to as ES). The content data handled as ES is not limited to video and audio, but also includes the object descriptors described above. In order to uniquely identify this ES, each ES is assigned a unique identifier called an elementary stream ID (described as ES_ID). In MPEG-4, content data included in a specific ES can be referred to by using ES_ID. That is, by describing this ES_ID in the object descriptor, association between the object descriptor and the content data can be realized.

オブジェクトディスクリプタには、再生を開始する時の初期データとして用いられるInitialObjectDescriptor(以下、IODと記述)と、再生動作が開始されてから用いられるObjectDescriptor(以下、ODと記述)の2種類のデータ構造が定義されている。通常は、ODはESのデータとして記録され、IODはESとは異なる独立したデータとして扱われる。   The object descriptor has two types of data structures: an InitialObjectDescriptor (hereinafter referred to as IOD) used as initial data when playback is started and an ObjectDescriptor (hereinafter referred to as OD) used after the playback operation is started. Is defined. Normally, OD is recorded as ES data, and IOD is treated as independent data different from ES.

IODおよびODは、参照されるESの属性情報を記述するためのES_Descriptor(以下、ESDと記述)というデータ構造を含んでいる。ESDには、ストリームの符号化形式の種類やビットレート、デコーダを初期化するためのDecoderSpecificInfoと呼ばれるデータとともに、ES_IDが含まれる。そのため、IOD、ODのいずれからもESを参照することが可能となっている。   The IOD and OD include a data structure called ES_Descriptor (hereinafter referred to as ESD) for describing the attribute information of the referenced ES. The ESD includes ES_ID together with the type of stream encoding format, bit rate, and data called DecoderSpecificInfo for initializing the decoder. Therefore, ES can be referenced from both IOD and OD.

典型的なMPEG-4のコンテンツでは、図1に示すように、ODのESを示すES_IDを含んだIODが最初に処理される。まず、IODに記述されているES_IDからODのデータを参照する。そして、同様にODに記述されているES_IDからコンテンツデータを参照するといった手順で処理が行われる。   In a typical MPEG-4 content, as shown in FIG. 1, an IOD including an ES_ID indicating an ES of an OD is first processed. First, OD data is referenced from ES_ID described in IOD. Similarly, the process is performed by referring to the content data from the ES_ID described in the OD.

<BIFS>
さらに、MPEG-4では、オブジェクトを合成して一つのシーンを構成するためにシーン記述と呼ばれる考え方が導入されている。シーン記述は、映像、音声などのオブジェクトのコンテンツデータとは別に、オブジェクトのシーン上の位置を示す空間的属性、オブジェクトの出現や消滅のタイミングを示す時間的属性が記述された情報であり、オブジェクトからシーンを合成するのに利用される。MPEG-4では、シーン記述情報はBIFS(Binary Format for Scene)と呼ばれる符号化データとして記述される。一般的なMP4ファイル形式のコンテンツは、上述のIOD、OD、BIFSデータを含んでいる。
<BIFS>
Furthermore, in MPEG-4, a concept called scene description is introduced in order to compose a single scene by synthesizing objects. The scene description is information describing a spatial attribute indicating the position of the object in the scene and a temporal attribute indicating the timing of appearance and disappearance of the object separately from the content data of the object such as video and audio. Used to synthesize scenes from In MPEG-4, scene description information is described as encoded data called BIFS (Binary Format for Scene). General MP4 file format content includes the IOD, OD, and BIFS data described above.

<ISMA>
上記のヒントトラックやOD、BIFSといったデータは、MPEG-4コンテンツをストリーミング配信するための通信手段を規定するための仕様として、米Apple Computer社、米Philips社などの企業が参加している業界団体であるISMA(Internet Streaming Media Alliance)によって規定されている標準仕様“Internet Streaming Media Alliance Implementation Specification”(非特許文献7参照。以降、ISMA仕様と表記する)でも規定されている。
<ISMA>
The above-mentioned data such as hint track, OD, and BIFS are industry groups in which companies such as US Apple Computer and Philips are participating as specifications to define the communication means for streaming MPEG-4 content. It is also defined in the standard specification “Internet Streaming Media Alliance Implementation Specification” (see Non-Patent Document 7, hereinafter referred to as ISMA specification) defined by ISMA (Internet Streaming Media Alliance).

このISMA仕様において、ヒントトラックやOD、BIFSがどのように用いられるかの概略を図2を用いて説明する。   An outline of how hint tracks, OD, and BIFS are used in this ISMA specification will be described with reference to FIG.

ISMA仕様では、多くの映像配信方式と同様に、セッション制御プロトコルとしてRTSP(非特許文献8参照)およびSDP(非特許文献9参照)が用いられており、また、映像・音声符号化データのストリーミング・プロトコルとして前述のRTPが用いられている。   The ISMA specification uses RTSP (see Non-Patent Document 8) and SDP (see Non-Patent Document 9) as session control protocols, as well as many video distribution methods, and streaming video / audio encoded data.・ The above-mentioned RTP is used as a protocol.

ストリーミングサーバは、まず、SDP形式で記述されたセッション記述情報をRTSPなどのプロトコルで受信端末に送付する(21)。このとき、IOD、OD、BIFSの情報は、Base64形式でエンコードされたテキストデータとしてセッション記述情報の一部として送付される。すなわち、このセッション記述情報を配信対象のファイル中にSDP形式で記述しておけば、配信時にストリーミングサーバによって当該ファイルから取得され、送信されることになる。   The streaming server first sends session description information described in the SDP format to the receiving terminal using a protocol such as RTSP (21). At this time, IOD, OD, and BIFS information is sent as part of the session description information as text data encoded in Base64 format. That is, if this session description information is described in the SDP format in the file to be distributed, it is acquired from the file by the streaming server at the time of distribution and transmitted.

セッションが確立されたら、引き続き、あらかじめファイルに記録されているヒントトラックから、SDP形式で記述された映像・音声データストリームの情報をRTSPで送信し、ストリーミングを行うためのRTPセッションを確立する(22)。そして、ヒントトラックの内容に基づいて映像・音声データを分割、パケット化し、上記確立されたRTPセッション上で受信端末にストリーミングする(23)といった手順で配信処理が行われる。   After the session is established, the video / audio data stream information described in the SDP format is transmitted from the hint track recorded in the file in advance by RTSP, and the RTP session for streaming is established (22) ). Then, the video / audio data is divided and packetized on the basis of the contents of the hint track, and the distribution process is performed by the procedure of streaming to the receiving terminal on the established RTP session (23).

以上述べたように、MPEG-4コンテンツを含むファイルに、ヒントトラック、およびIOD、OD、BIFSを含むセッション記述情報をあらかじめ記録しておくことによって、それらの情報はストリーミングサーバによって配信処理に使用される。
米国特許第6717952 特表2004−505519 ISO/IEC 14496-12; “Information technology -- Coding of audio-visual objects -- Part 12: ISO base media file format”; ISO/IEC; 2004-01-23 ISO/IEC 14496-14; “Information technology -- Coding of audio-visual objects -- Part 14: MP4 file format”; ISO/IEC; 2003-11-24 ISO/IEC 14496-1; “Information technology -- Coding of audio-visual objects -- Part 1: Systems”; ISO/IEC; 2003-02-20 RFC1889; “RTP: A Transport Protocol for Real-Time Applications”; H.Schulzrinne, S.Casner, R.Frederick, V.Jacobson; January 1996; IETF RFC3640; “RTP Payload Format for Transport of MPEG-4 Elementary Streams”; J.van der Meer, D.Mackie, V.Swaminathan, D.Singer, P.Gentric; November 2003; IETF RFC3016; “RTP Payload Format for MPEG-4 Audio/Visual Stream”; Y.Kikuchi, T.Nomura, S.Fukunaga, Y.Matsui, H.Kimata; November 2000; IETF “Internet Streaming Media Alliance Implementation Specification Version 1.0”; Internet Streaming Media Alliance; 2001-08-28 RFC2326; “Real Time Streaming Protocol (RTSP)”; H.schlzrinne, A.Rao, R.Lanphier; April.1998; IETF RFC2327; “SDP: Session Description Protocol”; M.Handley, V.Jacobson; April.1998; IETF 3GPP TS 26.244 “Technical Specification Group Services and System Aspects Transparent end-to-end packet switched streaming service (PSS); 3GPP file format (3GP) (Release 6)” 3rd Generation Partnership Project; 2003-02-28
As described above, by recording the hint description and session description information including IOD, OD, and BIFS in advance in a file containing MPEG-4 content, the information is used by the streaming server for distribution processing. The
US Pat. No. 6,717,952 Special table 2004-505519 ISO / IEC 14496-12; “Information technology-Coding of audio-visual objects-Part 12: ISO base media file format”; ISO / IEC; 2004-01-23 ISO / IEC 14496-14; “Information technology-Coding of audio-visual objects-Part 14: MP4 file format”; ISO / IEC; 2003-11-24 ISO / IEC 14496-1; “Information technology-Coding of audio-visual objects-Part 1: Systems”; ISO / IEC; 2003-02-20 RFC1889; “RTP: A Transport Protocol for Real-Time Applications”; H. Schulzrinne, S. Casner, R. Frederick, V. Jacobson; January 1996; IETF RFC3640; “RTP Payload Format for Transport of MPEG-4 Elementary Streams”; J.van der Meer, D.Mackie, V.Swaminathan, D.Singer, P.Gentric; November 2003; IETF RFC3016; “RTP Payload Format for MPEG-4 Audio / Visual Stream”; Y.Kikuchi, T.Nomura, S.Fukunaga, Y.Matsui, H.Kimata; November 2000; IETF “Internet Streaming Media Alliance Implementation Specification Version 1.0”; Internet Streaming Media Alliance; 2001-08-28 RFC2326; “Real Time Streaming Protocol (RTSP)”; H.schlzrinne, A.Rao, R.Lanphier; April.1998; IETF RFC2327; “SDP: Session Description Protocol”; M.Handley, V.Jacobson; April.1998; IETF 3GPP TS 26.244 “Technical Specification Group Services and System Aspects Transparent end-to-end packet switched streaming service (PSS); 3GPP file format (3GP) (Release 6)” 3rd Generation Partnership Project; 2003-02-28

上述のストリーミングサーバの処理は、ヒントトラックやIOD、OD、BIFSを含むセッション記述情報といったストリーミング情報がファイルに含まれていることが前提となっていた。言い換えれば、ストリーミングを行うためには、配信対象のファイルにあらかじめこれらの情報を記録しておかなければならなかった。   The above streaming server processing is based on the premise that streaming information such as hint description, session description information including IOD, OD, and BIFS is included in the file. In other words, in order to perform streaming, such information had to be recorded in advance in a file to be distributed.

しかし、これらのストリーミング情報は必ずしもファイルに記述されているとは限らない。実際、デジタルカメラやカメラ付き携帯電話などの撮像機器で作成されるファイルには、データの冗長性を抑えるためにこれらのストリーミング情報は付加されないケースがほとんどである。   However, such streaming information is not always described in the file. In fact, in most cases, such streaming information is not added to a file created by an imaging device such as a digital camera or a camera-equipped mobile phone in order to suppress data redundancy.

そのため、コンテンツの作成者は、ストリーミング配信を行う前準備として、撮像機器や記録機器で作成されたファイルに対してストリーミング情報を付加してからストリーミングサーバにアップロードするという作業を行う必要があった。   Therefore, as a preparation for performing streaming distribution, the content creator needs to add the streaming information to the file created by the imaging device or the recording device and then upload it to the streaming server.

このため、コンテンツ作成者は、ストリーミングを行うか行わないかによって2種類のファイルを扱わなければならなくなり、ファイルの管理が複雑になるといった課題が生じる。更に、ストリーミング情報をファイルに付与するための追加作業が発生するためコンテンツ作成者の作業負荷が高まるといった課題、ストリーミング情報の付加によりデータ量が増加するため、ストリーミングサーバへのアップロードによけいに時間がかかるといった課題が発生し、コンテンツ配信のための作業が煩雑で非効率的なものになってしまっていた。   For this reason, the content creator has to deal with two types of files depending on whether or not streaming is performed, which causes a problem that the management of the files becomes complicated. In addition, additional work for adding streaming information to a file occurs, which increases the workload of the content creator, and the amount of data increases due to the addition of streaming information. Such a problem has occurred, and the work for content distribution has become complicated and inefficient.

上記の課題を解決するための一案として、撮像機器・記録機器のファイル作成処理において、ストリーミングを行うか否かに関わらずヒントトラックなどのストリーミング情報を付与するという方法が考えられる。   As a proposal for solving the above-described problem, there is a method in which streaming information such as a hint track is given regardless of whether or not streaming is performed in the file creation processing of the imaging device / recording device.

しかしこの方法によれば、ストリーミング配信を行わない場合は、付与したストリーミング情報は使用されない冗長なデータとしてファイルに残されてしまうため、データ効率が悪くなってしまう。また、撮像機器・記録機器が本来行うべき動画記録処理を遂行するための処理能力やメモリなどの資源をストリーミング情報の記録に割り当てなければならなくなるため、機器の性能が劣化してしまうといった別の課題が発生してしまう。更に、この方法を用いても、上述したストリーミングサーバへのアップロードに時間がかかるといった課題は依然として解決することはできない。   However, according to this method, when streaming distribution is not performed, the added streaming information is left in the file as redundant data that is not used, and thus data efficiency is deteriorated. In addition, it is necessary to allocate processing capacity and memory resources for performing video recording processing that should be originally performed by the imaging device / recording device to the streaming information recording. Challenges will occur. Furthermore, even if this method is used, the above-described problem that it takes a long time to upload to the streaming server cannot be solved.

また、前述のIOD、OD、BIFSといった情報は、MPEG-4を扱えるすべてのファイル形式においてファイル中に保持されるとは限らない。例えば、第三世代携帯電話向けに3GPP(3rd Generation Partnership Project)によって定義された3GPPファイル形式(非特許文献10参照)や、KDDI株式会社の携帯電話の動画記録形式として用いられていたAMCファイル形式では、これらの情報はファイル中には記録されない。したがって、上記のような形式のファイルは、ISMA仕様により規定されている形式でIOD、OD、BIFSデータを送付することが出来ないため、仕様に準拠することは出来なかった。   Further, the information such as IOD, OD, and BIFS described above is not always held in a file in all file formats that can handle MPEG-4. For example, the 3GPP file format defined by 3GPP (3rd Generation Partnership Project) for 3G mobile phones (see Non-Patent Document 10) and the AMC file format used as a video recording format for mobile phones by KDDI Corporation Then, this information is not recorded in the file. Therefore, IOD, OD, and BIFS data cannot be sent to files in the above format in the format specified by the ISMA specification, so it was not possible to comply with the specification.

本発明は上記の課題に鑑みてなされたものであり、ファイルに配信のための制御情報が含まれているか否かに関わらず、ストリーミング配信を行うことを可能にするデータ配信方法および情報処理装置を提供せんとするものである。   The present invention has been made in view of the above problems, and a data distribution method and an information processing apparatus capable of performing streaming distribution regardless of whether or not a file includes control information for distribution. Is intended to provide.

上記の目的を達成するための本発明によるデータ処理方法は、
コンテンツデータの処理方法であって、
配信対象のコンテンツデータの構造を解析する解析工程と、
前記解析工程の解析結果により前記コンテンツデータに配信制御のための記述が含まれていないと判断された場合に、該解析工程の解析結果に基づいて配信制御情報を生成する生成工程と、
前記生成工程で生成された配信制御情報に基づいて前記コンテンツデータをネットワークに配信する配信工程とを備える。
In order to achieve the above object, a data processing method according to the present invention comprises:
A method of processing content data,
An analysis process for analyzing the structure of the content data to be distributed;
A generation step of generating distribution control information based on an analysis result of the analysis step when it is determined that a description for distribution control is not included in the content data according to an analysis result of the analysis step;
A distribution step of distributing the content data to a network based on the distribution control information generated in the generation step.

また、上記の目的を達成するための本発明による情報処理装置は、
コンテンツデータをメモリに格納する格納手段と、
前記メモリに格納されたコンテンツデータのうち、配信対象のコンテンツデータの構造を解析する解析手段と、
前記解析手段の解析結果により前記コンテンツデータに配信制御のための記述が含まれていないと判断された場合に、該解析手段の解析結果に基づいて配信制御情報を生成する生成手段と、
前記生成手段で生成された配信制御情報に基づいて前記コンテンツデータをネットワークに配信する配信手段とを備える。
An information processing apparatus according to the present invention for achieving the above object is
Storage means for storing content data in memory;
Analysis means for analyzing the structure of content data to be distributed among the content data stored in the memory;
Generating means for generating distribution control information based on the analysis result of the analysis means when it is determined by the analysis result of the analysis means that the description for distribution control is not included in the content data;
Distribution means for distributing the content data to a network based on the distribution control information generated by the generation means.

本発明によれば、ファイルに配信のための制御情報が含まれているか否かに関わらずストリーミング配信を行うことが可能になる。   According to the present invention, streaming distribution can be performed regardless of whether or not the file includes control information for distribution.

以下、本発明の実施形態を添付の図面を参照しながら詳細に説明する。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

なお、以下の実施形態ではコンテンツデータがMP4ファイル形式である場合を中心に説明されるが、MP4に限らず類似のファイル形式およびアーキテクチャを用いるケースに対しても適用できる。例えば、ISOではMP4と同様のアーキテクチャを用いる規格として、「Motion JPEG 2000ファイル形式」(ISO/IEC 15444-3)や、「AVCファイル形式」(ISO/IEC 14496-15)といった標準規格が制定されている。これらの標準規格や、上述の3GPPファイル形式など、MP4で規定されるものと類似のファイル形式およびアーキテクチャが採用されている規格に対しても、本発明を適用することが可能である。加えて、本実施形態に適用するファイル形式規格で用いるように規定されているものであれば、いかなるビデオ符号化形式およびオーディオ符号化形式が用いられてもよい。例えば、ファイル形式として3GPPファイル形式を適用する場合、ビデオ符号化形式としてH.263、オーディオ符号化形式としてAMR(Adaptive Multi-Rate)といった符号化形式が用いられてもよい。   In the following embodiment, the case where the content data is in the MP4 file format will be mainly described. However, the present invention can be applied not only to MP4 but also to a case using a similar file format and architecture. For example, ISO standards such as “Motion JPEG 2000 file format” (ISO / IEC 15444-3) and “AVC file format” (ISO / IEC 14496-15) are established as standards that use the same architecture as MP4. ing. The present invention can also be applied to these standards and standards adopting a file format and architecture similar to those defined in MP4, such as the 3GPP file format described above. In addition, any video encoding format and audio encoding format may be used as long as they are defined for use in the file format standard applied to the present embodiment. For example, when the 3GPP file format is applied as the file format, an encoding format such as H.263 as the video encoding format and AMR (Adaptive Multi-Rate) as the audio encoding format may be used.

また、本明細書で述べている「コンテンツデータがMP4ファイル形式で記述されている」という状態は、取り扱うデータの実体が物理的なファイルであることを示すものではない。ネットワークを介して伝送されたデータや、メモリ上に記憶されているデータに対しても本発明を適用することができる。   Further, the state “content data is described in the MP4 file format” described in this specification does not indicate that the substance of the data to be handled is a physical file. The present invention can also be applied to data transmitted via a network and data stored on a memory.

<第1実施形態>
図3は、第1実施形態におけるマルチメディアコンテンツの配信処理を実現するネットワークカメラの構成を示すブロック図である。第1実施形態のネットワークカメラは、撮影した映像をMP4ファイルとして保存する機能と、保存されたMP4ファイルをネットワークを介してストリーミング配信する機能とを備える。
<First Embodiment>
FIG. 3 is a block diagram illustrating a configuration of a network camera that realizes multimedia content distribution processing according to the first embodiment. The network camera according to the first embodiment has a function of storing captured video as an MP4 file and a function of streaming the stored MP4 file via a network.

図3のネットワークカメラにおいて、撮影時の映像情報はカメラ100から入力され、映像I/F102を介してビデオキャプチャコントローラ104に渡される。同様に、撮影時の音声情報はマイク101から入力され、音声I/F103を介してオーディオキャプチャコントローラ105に渡される。ビデオキャプチャコントローラ104は、入力された映像情報をデジタル映像信号に変換し、ビデオエンコーダ106の入力として渡す。同様に、オーディオキャプチャコントローラ105は、入力された音声信号をデジタル音声信号に変換し、オーディオエンコーダ107に渡す。   In the network camera of FIG. 3, video information at the time of shooting is input from the camera 100 and passed to the video capture controller 104 via the video I / F 102. Similarly, audio information at the time of shooting is input from the microphone 101 and passed to the audio capture controller 105 via the audio I / F 103. The video capture controller 104 converts the input video information into a digital video signal and passes it as an input of the video encoder 106. Similarly, the audio capture controller 105 converts the input audio signal into a digital audio signal and passes it to the audio encoder 107.

ビデオエンコーダ106は、入力された映像信号に対して圧縮符号化を行い、MPEG-4ビデオ符号化データを生成する。また、オーディオエンコーダ107も同様に、入力された音声信号を圧縮符号化し、MPEG-4オーディオ符号化データを生成する。ビデオエンコーダ106およびオーディオエンコーダ107が生成した符号化データは、ファイル多重化コントローラ108によってMP4ファイル形式に多重化され、ファイルとして出力される。このとき、ファイル多重化コントローラ108は、外部記憶I/F111を介して、出力するMP4ファイルのデータを外部記憶112に書き出す。本実施形態では、外部記憶112はSDカード等の不揮発性メモリーカードを想定しているが、CD(Compact Disc)やDVD(Digital Versatile Disc)等の記録媒体を用いるようにしてもよいし、ハードディスク等の記憶装置であってもよい。   The video encoder 106 performs compression encoding on the input video signal to generate MPEG-4 video encoded data. Similarly, the audio encoder 107 compresses and encodes the input audio signal to generate MPEG-4 audio encoded data. The encoded data generated by the video encoder 106 and the audio encoder 107 are multiplexed into the MP4 file format by the file multiplexing controller 108 and output as a file. At this time, the file multiplexing controller 108 writes the MP4 file data to be output to the external storage 112 via the external storage I / F 111. In the present embodiment, the external storage 112 is assumed to be a non-volatile memory card such as an SD card, but a recording medium such as a CD (Compact Disc) or a DVD (Digital Versatile Disc) may be used, or a hard disk Or a storage device such as

さらに、図3のネットワークカメラでは、ストリーミング配信機能を実現するために、ストリーミングコントローラ113およびネットワークI/F114を備える。ストリーミングコントローラ113は、上述のRTP、RTSPを用いてMP4ファイルの内容をストリーミング配信する機能を提供する。ストリーミングコントローラ113は、配信先端末からMP4ファイルの配信要求をネットワークI/F114を介して受け取ると、要求されたMP4ファイルを外部記憶I/F111を介して外部記憶112から取得する。そして、多重化分離して得られた符号化データからRTPパケットを生成し、ネットワークI/F114を介して上記配信先端末に対してRTPでストリーミング配信を行う。   Further, the network camera of FIG. 3 includes a streaming controller 113 and a network I / F 114 in order to realize a streaming distribution function. The streaming controller 113 provides a function of streaming the contents of the MP4 file using the above-described RTP and RTSP. When the streaming controller 113 receives an MP4 file distribution request from the distribution destination terminal via the network I / F 114, the streaming controller 113 acquires the requested MP4 file from the external storage 112 via the external storage I / F 111. Then, an RTP packet is generated from the encoded data obtained by demultiplexing, and streaming distribution is performed by RTP to the distribution destination terminal via the network I / F 114.

なお、図3のネットワークカメラの各構成部は、内部バス118によって相互に通信可能なように接続されており、各構成部の処理はシステムコントローラ115によって制御される。また、カメラシステムの固定的な情報はシステムROM116に、システムの状態など変動する情報はシステムRAM117に保持される。ただし、ビデオデータやオーディオデータのような大容量データは、ビデオフレームメモリ109、オーディオフレームメモリ110といった専用のメモリに保持される。各構成部間のデータのやりとりは、上記のシステムRAM117、あるいはビデオフレームメモリ109、オーディオフレームメモリ110を介することによって行われる。   3 are connected so that they can communicate with each other via an internal bus 118, and the processing of each component is controlled by the system controller 115. In addition, fixed information of the camera system is stored in the system ROM 116, and information such as the system state is stored in the system RAM 117. However, large-capacity data such as video data and audio data is held in dedicated memories such as the video frame memory 109 and the audio frame memory 110. Data is exchanged between the components via the system RAM 117, the video frame memory 109, and the audio frame memory 110.

図4は、第1実施形態のネットワークカメラにおいて、ストリーミングコントローラ113で実行される処理の概略手順を説明するフローチャートである。   FIG. 4 is a flowchart for explaining a schematic procedure of processing executed by the streaming controller 113 in the network camera of the first embodiment.

図4のフローチャートにおいて、まず、ステップS201において、ストリーミングコントローラ113は配信対象のMP4ファイルの内容を取得する。本実施形態では、ストリーミングコントローラ113は、配信先端末から送付されたファイル配信要求に関する情報をネットワークI/F114を介して取得し、要求されたファイルの内容を外部記憶I/F111を介して外部記憶112から取得する。配信先端末からのファイル配信要求は、上述のRTSPを用いて送信されるものと想定する。   In the flowchart of FIG. 4, first, in step S201, the streaming controller 113 acquires the contents of the MP4 file to be distributed. In the present embodiment, the streaming controller 113 acquires information regarding a file distribution request sent from the distribution destination terminal via the network I / F 114, and stores the requested file contents via the external storage I / F 111. 112. It is assumed that the file distribution request from the distribution destination terminal is transmitted using the above RTSP.

次に、ステップS202において、ストリーミングコントローラ113は、配信対象のMP4ファイルの内部構造を解析し、多重化分離して得られる符号化データの配信などの後続の処理で必要となる情報を抽出する。抽出された情報はシステムRAM117上に保持され、ストリーミングコントローラ113によって管理される。   Next, in step S202, the streaming controller 113 analyzes the internal structure of the MP4 file to be distributed, and extracts information necessary for subsequent processing such as distribution of encoded data obtained by demultiplexing. The extracted information is held on the system RAM 117 and managed by the streaming controller 113.

次に、ステップS203において、上述のステップS202で抽出された情報に基づいてストリーミング情報を生成する。ストリーミング情報には、典型的には、配信先端末と通信セッションを確立するために必要なセッション記述情報、タイムスタンプなどパケットヘッダーの生成に必要な情報、パケットのペイロードとなる符号化データを配信対象のMP4ファイルから抽出するための情報、符号化データを配信プロトコルや配信条件に適したパケットサイズに分割するための分割情報、あるいはペイロードとなる符号化データ自体が含まれる。本実施形態の場合、これらのストリーミング情報は、MP4ファイルに記録されるSDP情報およびRTPヒントトラック情報であると換言することも出来る。   Next, in step S203, streaming information is generated based on the information extracted in step S202 described above. Streaming information typically includes session description information necessary to establish a communication session with a delivery destination terminal, information necessary for generating a packet header such as a time stamp, and encoded data serving as a packet payload. Information for extracting from the MP4 file, division information for dividing the encoded data into packet sizes suitable for the distribution protocol and distribution conditions, or encoded data itself as a payload. In the case of this embodiment, it can be said that these streaming information is SDP information and RTP hint track information recorded in the MP4 file.

そして、ステップS204において、ストリーミングコントローラ113は上述の処理で生成されたストリーミング情報に含まれるセッション記述情報をRTSPで配信することによって通信セッションを確立する、その後、上記のストリーミング情報を元にRTPパケッタイズ処理を行い、配信ファイルの符号化データを含むRTPパケットを生成する。このようにして生成されたRTPパケットは、ネットワークI/F114を介してネットワーク上に送出され、配信先端末にRTPでストリーミング配信される。すなわち、ステップS204では、SDP形式のセッション記述情報がRTSPプロトコルで、符号化A/VデータがRTPプロトコルのパケットとして送信されることになる。なお、第2実施形態で説明するように、ISMA仕様に則って配信する場合は、セッション記述情報はISMA仕様で定められる内容を含んだ形で送信されることになる。   In step S204, the streaming controller 113 establishes a communication session by distributing the session description information included in the streaming information generated by the above-described processing by RTSP, and then performs the RTP packetizing process based on the streaming information. To generate an RTP packet including the encoded data of the distribution file. The RTP packet generated in this way is transmitted over the network via the network I / F 114, and is stream-distributed by RTP to the distribution destination terminal. That is, in step S204, the session description information in the SDP format is transmitted as a packet of the RTSP protocol, and the encoded A / V data is transmitted as a packet of the RTP protocol. As described in the second embodiment, in the case of distribution according to the ISMA specification, the session description information is transmitted in a form including the contents defined by the ISMA specification.

次に、第1実施形態において、図4のステップS203で行われるストリーミング情報の生成処理を図5のフローチャートを参照して詳細に説明する。図5は、第1実施形態におけるストリーミング情報の生成処理手順を説明するためのフローチャートである。   Next, in the first embodiment, the streaming information generation process performed in step S203 of FIG. 4 will be described in detail with reference to the flowchart of FIG. FIG. 5 is a flowchart for explaining a streaming information generation processing procedure in the first embodiment.

まず、ステップS301において、ストリーミングコントローラ113は、配信対象のMP4ファイルの内容の解析結果を参照する。この解析結果は、上述のステップS202の解析処理によってあらかじめ参照可能な状態でシステム内(システムRAM117)に保持されているものとする。   First, in step S301, the streaming controller 113 refers to the analysis result of the contents of the MP4 file to be distributed. This analysis result is assumed to be held in the system (system RAM 117) in a state where it can be referred to in advance by the analysis processing in step S202 described above.

次に、ステップS302において、配信対象のMP4ファイルの配信処理を行うためにストリーミング情報を生成する必要があるか否かをチェックする。本実施形態では、RTPヒントトラックの情報やSDP情報といった、配信を行うプロトコルで用いられるストリーミング情報がMP4ファイル内に記述されていない場合に、ストリーミング情報の生成が必要であると判断する。したがって、ステップS302では、配信対象のMP4ファイルがこの条件と一致するか確認し、ストリーミング情報の生成が必要な場合にはステップS303以降のストリーミング情報生成処理を実行する。ストリーミング情報が存在する場合は、ステップS303からステップS305までの処理はスキップし、ステップS306で、MP4ファイル中に含まれるストリーミング情報を、そのまま後続のステップS204に受け渡して配信処理を行う。なお、この場合の処理は一般的なストリーミングサーバと同様の処理である。   Next, in step S302, it is checked whether or not it is necessary to generate streaming information in order to perform distribution processing of the MP4 file to be distributed. In the present embodiment, it is determined that the generation of streaming information is necessary when the streaming information used in the protocol for distribution, such as RTP hint track information and SDP information, is not described in the MP4 file. Accordingly, in step S302, it is confirmed whether the MP4 file to be distributed matches this condition, and if the generation of streaming information is necessary, the streaming information generation process in step S303 and subsequent steps is executed. If there is streaming information, the processing from step S303 to step S305 is skipped, and in step S306, the streaming information included in the MP4 file is transferred to the subsequent step S204 as it is to perform distribution processing. Note that the processing in this case is the same processing as a general streaming server.

ストリーミング情報の生成が必要である場合は、まず、ステップS303において、ストリーミング情報を構成するデータ項目に関連するMP4ファイル中のデータ構造を参照する(ストリーミング情報を構成するデータ項目の具体例については、図6および図7で示されるデータ項目を例に後述する)。言うまでもなく、この処理を行うためには、ステップS202で配信対象のMP4ファイルの内部構造があらかじめ解析され、その結果がストリーミングコントローラ113が参照可能な状態でシステム内(システムRAM117)に保持されていることが必要である。   If it is necessary to generate streaming information, first, in step S303, the data structure in the MP4 file related to the data items constituting the streaming information is referred to (for specific examples of data items constituting the streaming information, The data items shown in FIGS. 6 and 7 will be described later as an example). Needless to say, in order to perform this processing, in step S202, the internal structure of the MP4 file to be distributed is analyzed in advance, and the result is stored in the system (system RAM 117) in a state that the streaming controller 113 can refer to. It is necessary.

次に、ステップS304において、ステップS303で参照されたMP4ファイルのデータ構造の内容にしたがって、ストリーミング情報を設定する(設定の具体例については後述する)。設定された内容は、全てのストリーミング情報のデータ項目の設定が終了するまで、後続のステップS306には受け渡されずに保持される。   Next, in step S304, streaming information is set according to the contents of the data structure of the MP4 file referred to in step S303 (a specific example of setting will be described later). The set contents are held without being transferred to the subsequent step S306 until the setting of all the data items of the streaming information is completed.

以上のステップS303及びステップS304の処理が、生成されるストリーミング情報を構成する全てのデータ項目に対して実行される。すなわち、ステップS305において、ステップS303、S304の処理が全てのデータ項目に対して実行されたか否かを判定し、全項目が処理されるまでステップS303とステップS304の処理を繰り返す。   The processes in steps S303 and S304 described above are executed for all data items constituting the generated streaming information. That is, in step S305, it is determined whether or not the processing in steps S303 and S304 has been executed for all data items, and the processing in steps S303 and S304 is repeated until all items are processed.

ストリーミング情報の全てのデータ項目の設定が終了すると、ステップS305からステップS306に進み、上記ステップS303〜S305の実行によって得られたストリーミング情報の内容を、後続のステップS204に受け渡す。   When the setting of all data items of the streaming information is completed, the process proceeds from step S305 to step S306, and the contents of the streaming information obtained by executing the above steps S303 to S305 are transferred to the subsequent step S204.

上記の手順によって、本実施形態のネットワークカメラにおいて配信に用いられるストリーミング情報が得られるようになる。   Through the above procedure, streaming information used for distribution in the network camera of this embodiment can be obtained.

次に、より詳細な実施形態について具体例を挙げて説明する。具体例として、処理対象のコンテンツ・データに含まれているMPEG-4 Videoの動画データをRTSPおよびRTPを用いてストリーミング配信する場合について、ステップS303、S304で行われる処理の詳細を説明する。この例において、ステップS303、S304では、RTSPでの通信時にはSDP形式で記述される映像・音声データストリーム情報が、RTPでの通信時にはRFC3016によって規定されるペイロード形式のRTPパケットがストリーミング情報として生成される。以降の説明では、これらの2種類の情報がどのようにして生成されるかを、順を追って説明する。   Next, a more detailed embodiment will be described with a specific example. As a specific example, details of processing performed in steps S303 and S304 will be described in the case of streaming delivery of MPEG-4 Video moving image data included in content data to be processed using RTSP and RTP. In this example, in steps S303 and S304, the video / audio data stream information described in the SDP format is generated as streaming information in RTSP communication, and the RTP packet in the payload format specified by RFC3016 is generated as streaming information in RTP communication. The In the following description, how these two types of information are generated will be described step by step.

[映像・音声データストリーム情報の生成]
まず、RTSPで送信されるSDP形式の映像・音声データストリーム情報の生成手順を示す。
[Generation of video / audio data stream information]
First, a procedure for generating video / audio data stream information in the SDP format transmitted by RTSP will be described.

図6は、SDP形式で記述された映像・音声データストリーム情報の典型例を示す図である。図6に示されるセッション記述の内容は、RFC3016で示される仕様にしたがって記述されたものである。この情報は、配信される映像・音声データに対するヒントトラックに含まれるデータとして、通常はMP4ファイルのヒントトラック中に記述されている。なお、図6に示される情報構成は一例であり、実際の配信処理で用いられるデータおよび形式、順序は必ずしもこの図で示される内容と一致するとは限らない。従って、その場合は、実際の配信処理の仕様に合わせてデータが出力されるよう生成手順が変更されることになる。   FIG. 6 is a diagram showing a typical example of video / audio data stream information described in the SDP format. The contents of the session description shown in FIG. 6 are described according to the specification shown in RFC3016. This information is usually described in the hint track of the MP4 file as data included in the hint track for the video / audio data to be distributed. Note that the information configuration shown in FIG. 6 is an example, and the data, format, and order used in the actual distribution processing do not necessarily match the contents shown in this figure. Therefore, in this case, the generation procedure is changed so that data is output in accordance with the actual distribution processing specifications.

始めに、図6の1行目(61)に示されるメディア情報を設定する。この情報として、メディアタイプとしてビデオを扱うことを示す“video”、後続のストリーミング処理で使用するRTPセッションのポート番号、および、RFC3016におけるMPEG-4 Videoのペイロード・フォーマットを示す値“RTP/AVP 96”を設定する。   First, the media information shown in the first line (61) of FIG. 6 is set. As this information, “video” indicating that the video is handled as a media type, the port number of the RTP session used in the subsequent streaming process, and a value “RTP / AVP 96” indicating the payload format of MPEG-4 Video in RFC3016 ”Is set.

次に、図6の2行目(62)に示される帯域幅情報を設定する。“AS”は、Application-Specificの略である。すなわちこの情報はアプリケーションおよび環境依存であり、任意の内容を設定する。   Next, the bandwidth information shown in the second row (62) of FIG. 6 is set. “AS” is an abbreviation for Application-Specific. That is, this information depends on the application and the environment, and an arbitrary content is set.

次に、図6の3行目(63)に示される、メディアのサブタイプおよびタイムスタンプの解像度を設定する。メディアのサブタイプは、RFC3016におけるMPEG-4 Videoを示す“MP4V-ES”を設定する。タイムスタンプの解像度は、特に指定が必要なければ、90000(90kHz)を設定する。   Next, the media subtype and time stamp resolution shown in the third line (63) of FIG. 6 are set. As the media subtype, “MP4V-ES” indicating MPEG-4 Video in RFC3016 is set. The time stamp resolution is set to 90000 (90 kHz) unless otherwise specified.

次に、図6の4行目(64)に示される、ISMA仕様におけるヒントトラックに対する操作を行うためのトラック識別子を設定する。しかし、この例ではヒントトラックは存在しないため、配信対象の映像ストリームのデータを保持するビデオトラックに対する仮想的なヒントトラックを示す識別子として“trackID=5”を設定する。この内容は、「5番のIDを持つトラックは、配信される映像ストリームのヒントトラック」であることを示している。ただし、実際にはそのようなトラックは存在しないので、“trackID=5”が指定された場合は、仮想的に関連付けられたビデオトラックに対して操作を行うように振る舞う。このIDの値は、他の実在するトラックおよび仮想的なトラックのIDと重複せず、トラック間の関連が一意に管理できるようになっている限りは、仕様で許可される範囲内で任意の値を用いることができる。なお、この行の内容は、後述の第2実施形態で説明するISMA仕様に準拠する機器においては必須となるため、第2実施形態を実施する場合はこの記述にしたがって設定されなければならない。   Next, a track identifier for performing an operation on the hint track in the ISMA specification shown in the fourth line (64) of FIG. 6 is set. However, since there is no hint track in this example, “trackID = 5” is set as an identifier indicating a virtual hint track for the video track holding the data of the video stream to be distributed. This content indicates that “the track having the ID No. 5 is a hint track of the video stream to be distributed”. However, since such a track does not actually exist, when “trackID = 5” is designated, it behaves so as to perform an operation on a virtually associated video track. The value of this ID does not overlap with the IDs of other existing tracks and virtual tracks, and is arbitrary within the range permitted by the specification as long as the relationship between tracks can be managed uniquely. A value can be used. Note that the content of this line is essential for a device that conforms to the ISMA specification described in the second embodiment to be described later, and therefore, when the second embodiment is implemented, it must be set according to this description.

次に、図6の5行目(65)に示される、メディアのフォーマット・タイプおよびプロファイル・レベル、デコーダの設定情報を設定する。フォーマット・タイプは、RFC3016におけるMPEG-4 Videoフォーマットを示す値96を指定する。プロファイル・レベル(profile-level-id)には、入力ファイル中のビデオトラックのESDに含まれるDecoderSpecificInfoに記述されているプロファイル・レベルの値を、デコーダの設定情報(config)には、上記DecoderSpecificInfo全体のデータを16進テキスト化して設定する。   Next, the media format type and profile level, and decoder setting information shown in the fifth line (65) of FIG. 6 are set. The format type specifies a value 96 indicating the MPEG-4 Video format in RFC3016. The profile level (profile-level-id) is the profile level value described in the DecoderSpecificInfo included in the ESD of the video track in the input file, and the decoder setting information (config) is the entire DecoderSpecificInfo Is converted into hexadecimal text and set.

次に、図6の6行目(66)に示される、ISMA仕様におけるMPEG-4 Videoストリームのエレメンタリー・ストリームIDを設定する。このエレメンタリー・ストリームIDは、入力ファイル中のビデオトラックのESDに記述されているES_IDの値を取得、設定するか、あるいは第2実施形態で後述するISMA仕様に準拠する場合においては、ISMA仕様によってあらかじめビデオストリームに対して設定されている固定値(ここでは201)を設定する。なお、この行の内容は、後述の第2実施形態で説明するISMA仕様に準拠する機器においては必須となるため、第2実施形態を実施する場合はこの記述にしたがって設定されなければならない。   Next, the elementary stream ID of the MPEG-4 Video stream in the ISMA specification shown in the sixth line (66) of FIG. 6 is set. This elementary stream ID is the ISMA specification if the ES_ID value described in the ESD of the video track in the input file is acquired and set, or if it conforms to the ISMA specification described later in the second embodiment. To set a fixed value (201 in this case) set in advance for the video stream. Note that the content of this line is essential for a device that conforms to the ISMA specification described in the second embodiment to be described later, and therefore, when the second embodiment is implemented, it must be set according to this description.

以上の手順にしたがって設定されたデータは、図6で示される形式に整形され、ストリーミング情報を構成するセッション記述情報として生成される。   Data set in accordance with the above procedure is shaped into the format shown in FIG. 6 and is generated as session description information constituting streaming information.

[RTPパケットの生成]
次に、RTPで送信されるRFC3016で示される形式のパケットの生成手順を示す。
[Generate RTP packet]
Next, a procedure for generating a packet of the format indicated by RFC3016 transmitted by RTP will be described.

図7は、RFC3016で規定されるパケットの各項目のレイアウトを示す図である。左端の列は各項目の4バイト単位のバイトオフセットNを示す列であり、上段の行はバイトオフセットNに対してさらにバイト単位のオフセットを示す行である。すなわち、例えばTimestamp(タイムスタンプ)の項目は、パケットの先頭から5バイト目に配置される(N=4であり、N+1から配置される)ことを示している。なお、この実施形態では、拡張ヘッダおよびSSRCおよびCSRCは使用しないものと想定する。   FIG. 7 is a diagram showing a layout of each item of a packet defined by RFC3016. The leftmost column is a column indicating the byte offset N of each item in units of 4 bytes, and the upper row is a row indicating an offset in units of bytes with respect to the byte offset N. That is, for example, the item “Timestamp” indicates that the packet is arranged at the fifth byte from the head of the packet (N = 4 and arranged from N + 1). In this embodiment, it is assumed that the extension header, SSRC, and CSRC are not used.

まず、項目Version(V)に、0x02を設定する。この項目はRTPのプロトコルバージョンを示すもので、現在は2が用いられているためである。その次の項目Padding Flag(P)は、一連の処理の最後に設定するものであり、ここでは設定しない。項目Extension Flag(X)は、RTPヘッダに拡張ヘッダが付加されるかどうかを示す。本実施形態では拡張ヘッダは使用されないものと想定しているため、0を指定する。項目CCRC Count(CC)は、後続のCSRCのエントリ数を示す。本実施形態ではCSRCは使用されないものと想定しているため、0を指定する。   First, 0x02 is set in the item Version (V). This item indicates the protocol version of RTP, because 2 is currently used. The next item Padding Flag (P) is set at the end of a series of processing and is not set here. The item Extension Flag (X) indicates whether or not an extension header is added to the RTP header. In this embodiment, it is assumed that no extension header is used, so 0 is specified. The item CCRC Count (CC) indicates the number of subsequent CSRC entries. In this embodiment, it is assumed that CSRC is not used, so 0 is specified.

その次の項目Marker Bit(M)は、一連の処理の最後に設定されるものであり、ここでは設定しない。項目Payload Type(PT)は、パケットのペイロード・タイプを示す。本実施形態では、入力データに、MPEG-4 Videoストリーム・データが格納されていることを示すデータ構造であるMP4VSample Entry(“mp4v”)が存在している場合、もしくは、このMP4VSample Entryを構成する前述のES_Descriptorに含まれる項目objectTypeIndicationにMPEG-4 Visualを示す値0x20がセットされている場合に、RFC3016におけるMPEG-4 Videoのペイロード・フォーマットを示す値96を項目PTに設定する。   The next item Marker Bit (M) is set at the end of the series of processing and is not set here. The item Payload Type (PT) indicates the payload type of the packet. In the present embodiment, when MP4VSample Entry (“mp4v”) which is a data structure indicating that MPEG-4 Video stream data is stored is present in the input data, or this MP4VSample Entry is configured. When the value 0x20 indicating MPEG-4 Visual is set in the item objectTypeIndication included in the ES_Descriptor, a value 96 indicating the MPEG-4 Video payload format in RFC3016 is set in the item PT.

項目Sequence Numberは、ある特定のランダムな値から始まり、RTPパケットの送信毎にインクリメントされるシーケンシャルな番号で、RTPセッションの開始時に任意の初期値が選択される。本実施形態では、RTPセッションの開始時に選択されたSequence Numberの初期値がRTPパケットの送信毎にインクリメントされる。   The item “Sequence Number” is a sequential number that starts from a certain random value and is incremented every time an RTP packet is transmitted. An arbitrary initial value is selected at the start of the RTP session. In the present embodiment, the initial value of the Sequence Number selected at the start of the RTP session is incremented each time an RTP packet is transmitted.

項目Timestampは、コンポジット時刻を示すタイムスタンプである。本実施形態では、入力MP4ファイルにコンポジット時刻を記述するデータ構造であるCompositionTimeToSampleBox(“ctts”)が存在している場合は、そこから伝送対象のフレームのコンポジット時刻を取得し、Timestampに設定する。ただし、入力MP4ファイルにCompositionTimeToSampleBoxが存在しない場合は、代わりにデコード時刻を記述するデータ構造であるTimeToSampleBox(“stts”)から伝送対象フレームのデコード時刻を取得し、コンポジット時刻として設定するようにする。伝送対象フレームが複数のパケットに分割される場合、最初のパケットと同じTimestampの値を同一のフレームを示す2番目以降のパケットに対しても適用する。   The item Timestamp is a time stamp indicating the composite time. In the present embodiment, when CompositionTimeToSampleBox (“ctts”), which is a data structure describing the composite time, exists in the input MP4 file, the composite time of the transmission target frame is acquired from this, and set in Timestamp. However, if CompositionTimeToSampleBox does not exist in the input MP4 file, the decoding time of the transmission target frame is acquired from TimeToSampleBox (“stts”), which is a data structure describing the decoding time, and set as the composite time instead. When the transmission target frame is divided into a plurality of packets, the same Timestamp value as that of the first packet is applied to the second and subsequent packets indicating the same frame.

項目SSRC(Syncronization Source Identifier)は、同期して扱われる複数のストリームが同じパラメータを共有するために割り当てられる識別子である。本実施形態ではSSRCは使用されないものと想定しているため、0を指定する。   The item SSRC (Syncronization Source Identifier) is an identifier assigned so that a plurality of streams handled in synchronization share the same parameter. In this embodiment, it is assumed that SSRC is not used, so 0 is specified.

項目CSRC(Contributing Source Identifiers)は、ストリームが変形・編集された場合に、処理後のストリームの提供元を示す識別子である。本実施形態ではCSRCは使用されない(CC=0)ものと想定しているため、CSRCは設定しない。   The item CSRC (Contributing Source Identifiers) is an identifier indicating the provider of the stream after processing when the stream is transformed or edited. In the present embodiment, since it is assumed that CSRC is not used (CC = 0), CSRC is not set.

以上のパケットヘッダー項目に続けて、送信対象のフレーム・データをペイロード・データとして設定する。本実施形態では、フレーム・データは1488バイト毎に分割され、ペイロード・データとして用いられるものとする。   Following the above packet header items, the frame data to be transmitted is set as payload data. In this embodiment, it is assumed that the frame data is divided every 1488 bytes and used as payload data.

なお、上記のフレーム・データの分割単位である1488バイトは、主にLAN環境で用いられるIEEE802.3(イーサネット(登録商標))を伝送媒体に用いる場合を前提に設定された値である。図8は、イーサネット(登録商標)におけるデータ伝送単位のレイアウトを示す図である。図において、イーサネット(登録商標)で伝送可能なデータ・ブロックのサイズは48バイトから1500バイトであると示されている。すなわち、前述の1488バイトは、イーサネット(登録商標)を用いる場合の最大MTU(Maximum Transmission Unit Size)である1500バイトから、図7で説明したRTPヘッダのサイズである12バイトを減じたもので、イーサネット(登録商標)上でRTPパケットを伝送する場合の最大ペイロード・サイズを示す値である。   Note that 1488 bytes, which is the frame data division unit, is a value set on the assumption that IEEE 802.3 (Ethernet (registered trademark)), which is mainly used in a LAN environment, is used as a transmission medium. FIG. 8 is a diagram illustrating a layout of data transmission units in Ethernet (registered trademark). In the figure, the size of a data block that can be transmitted by Ethernet (registered trademark) is 48 to 1500 bytes. That is, the aforementioned 1488 bytes is obtained by subtracting 12 bytes, which is the size of the RTP header described in FIG. 7, from 1500 bytes, which is the maximum MTU (Maximum Transmission Unit Size) when Ethernet (registered trademark) is used. This is a value indicating the maximum payload size when an RTP packet is transmitted on Ethernet (registered trademark).

上記のように、フレーム・データを分割して生成されるペイロード・データのサイズが4バイトの倍数に満たない場合、ペイロードの末尾にパディング・ビットを付加し、さらに前述のヘッダ項目Padding Bit(P)に1を設定する。また、1つのフレーム・データから生成される最後のパケットに対しては、前述のヘッダ項目Marker Bit(M)に1を設定する。   As described above, when the size of the payload data generated by dividing the frame data is less than a multiple of 4 bytes, a padding bit is added to the end of the payload, and the header item Padding Bit (P ) Is set to 1. For the last packet generated from one frame data, 1 is set in the header item Marker Bit (M).

なお、上記の手順では分割された符号化データがペイロードとしてパケットに含まれた形で送信パケットの情報を生成しているが、必ずしも符号化データの内容を含んだ形でパケット情報を生成する必要はなく、パケットヘッダー情報とペイロードとして設定される符号化データを取得するためのオフセット位置やサイズなどの参照情報を1組としてパケット情報が構成されてもよい。その場合は、後続のステップS204では、パケット情報に含まれるペイロードの参照情報を元に、MP4ファイルから符号化データを参照し、データを取得する必要がある。なお、ペイロードとして設定される符号化データを参照するための関連情報は、後述のトラック参照としてMP4ファイル中に記述される。   In the above procedure, the transmission packet information is generated in a form in which the divided encoded data is included in the packet as a payload. However, it is not necessary to generate the packet information in a form including the contents of the encoded data. Rather, the packet information may be composed of a set of reference information such as an offset position and a size for acquiring the encoded data set as the packet header information and payload. In that case, in subsequent step S204, it is necessary to refer to the encoded data from the MP4 file based on the reference information of the payload included in the packet information to acquire the data. The related information for referring to the encoded data set as the payload is described in the MP4 file as a track reference described later.

以上述べたような手順にしたがって、上記ステップS203によって送信パケットの生成に必要な情報が生成される。   According to the procedure as described above, information necessary for generating a transmission packet is generated in step S203.

上記の手順によって、ステップS203で生成されたセッション記述情報および送信パケットはストリーミング情報としてステップS204に渡され、ステップS204ではその情報を元に、RTSPおよびRTPの送信手順にしたがってネットワークI/F114を介して送信される。   Through the above procedure, the session description information and the transmission packet generated in step S203 are passed to step S204 as streaming information. In step S204, the information is transmitted via the network I / F 114 according to the RTSP and RTP transmission procedures. Sent.

このように本実施形態で示されるネットワークカメラは、ヒントトラックやセッション記述情報を含んでいないMP4ファイルの配信が要求された場合にも、配信に必要なストリーミング情報を逐次生成しストリーミング配信を行うことができる。   As described above, the network camera shown in the present embodiment sequentially generates streaming information necessary for distribution and performs streaming distribution even when distribution of an MP4 file not including a hint track or session description information is requested. Can do.

<第2実施形態>
次に、第2実施形態として、前述のISMA仕様によって規定される通信方法に準拠したネットワークカメラを例にとって説明する。
Second Embodiment
Next, as a second embodiment, a network camera that complies with the communication method defined by the aforementioned ISMA specification will be described as an example.

ISMA仕様においては、図2で説明したように、RTSPにより通信セッションを開始する時点で、IOD、OD、BIFSのデータを送信するように規定されている。これらのデータの実体は、図9で示されるように、SDP形式で記述されたRTSPのヘッダ項目中、“a=mpeg4-iod:”で始まる行のデータとして記述される。この行のデータはURL(Uniform Resource Locator)として表され、URLの末尾には、二進データのテキスト符号化形式の一つであるBase64形式で符号化されたIODのデータをセットするように規定している。さらに、ODおよびBIFSストリームのデータも、IOD同様のURL形式で符号化され、IODのデータ中に埋め込まれるものとしている
すなわち、ISMA仕様で規定される形式での通信処理に対応する場合は、MP4ファイルに含まれるIOD、ODおよびBIFSデータをISMA仕様で規定されるURL形式に符号化し、RTSPによるセッションの開始時にSDP形式のRTSPヘッダとして送信するといった処理が必要になる。本実施形態では、このようなIOD、OD、BIFSデータを含むセッション記述情報を生成するために行われる処理の詳細を説明する。
In the ISMA specification, as described in FIG. 2, it is defined that IOD, OD, and BIFS data are transmitted when a communication session is started by RTSP. As shown in FIG. 9, these data entities are described as data on a line starting with “a = mpeg4-iod:” in the RTSP header item described in the SDP format. The data of this line is expressed as URL (Uniform Resource Locator), and it is specified that IOD data encoded in Base64 format, which is one of the text encoding formats of binary data, is set at the end of the URL. is doing. In addition, OD and BIFS stream data are encoded in the same URL format as IOD and embedded in IOD data.In other words, MP4 is used to support communication processing in the format specified by the ISMA specification. Processing such as encoding IOD, OD, and BIFS data contained in the file into the URL format specified by the ISMA specification and sending it as an RTSP header in the SDP format at the start of the RTSP session is required. In the present embodiment, details of processing performed to generate session description information including such IOD, OD, and BIFS data will be described.

[IOD、OD、BIFSデータを含むセッション記述情報の生成]
ISMA仕様にしたがって配信を行うにあたり、図5のステップS302において、配信を行うコンテンツ・データがISMA仕様で定められている要件を満たしているかチェックする。例えば、映像・音声ストリームが複数存在するようなケースは要件外であるため、エラーとして以降の処理をキャンセルしたり、要件と適合するストリームのみを選択して使用するなどの制御を行う。なお、要件の詳細に関しては、ISMA仕様文書に定義されているため、本明細書では説明を省略する。
[Generate session description information including IOD, OD, and BIFS data]
When performing distribution according to the ISMA specification, it is checked in step S302 in FIG. 5 whether the content data to be distributed satisfies the requirements defined in the ISMA specification. For example, since a case in which a plurality of video / audio streams exist is out of the requirement, control is performed such as canceling the subsequent processing as an error or selecting and using only a stream that meets the requirement. Note that details of the requirements are defined in the ISMA specification document, and will not be described in this specification.

その後、ステップS303、S304の処理により、図9に示されるセッション記述情報を生成する。なお、図9に示される情報構成は一例であり、実際の配信処理で用いられるデータおよび形式、順序は必ずしも図9で示される内容と一致するとは限らない。従って、その場合は、実際の配信処理の仕様に合わせてデータが出力されるよう生成手順が変更されることになる。   Thereafter, the session description information shown in FIG. 9 is generated by the processing of steps S303 and S304. Note that the information configuration shown in FIG. 9 is an example, and the data, format, and order used in the actual distribution process do not necessarily match the contents shown in FIG. Therefore, in this case, the generation procedure is changed so that data is output in accordance with the actual distribution processing specifications.

始めに、図9の1行目(91)に示される帯域幅情報を設定する。この情報はアプリケーションおよび環境に依存するものであり、任意の内容を設定する。   First, the bandwidth information shown in the first line (91) of FIG. 9 is set. This information depends on the application and the environment, and arbitrary contents are set.

その次に、図9の2行目(92)に示されるように、ISMA仕様準拠であることを示す文字列“isma-compliance:1,1.0,1”を設定する。更に、次に、図9の3行目(93)で示されるような形式で、ISMA仕様で示される形式で符号化された、OD、BIFS を含むIODデータを設定する。   Next, as shown in the second line (92) of FIG. 9, a character string “isma-compliance: 1,1.0,1” indicating that the ISMA specification is compliant is set. Next, IOD data including OD and BIFS encoded in the format shown in the ISMA specification in the format shown in the third line (93) of FIG. 9 is set.

ただし、MP4ファイルに含まれるIOD、ODデータは、ISMA仕様で規定されているIOD、ODのデータとは異なる構造になっているため、MP4ファイルに記録されているデータをそのまま取得して使用することは出来ず、データ構造の変換処理が必要になる。その処理の説明に先立って、IOD、ODデータがどのような構造になっているかを説明する。   However, since the IOD and OD data included in the MP4 file has a different structure from the IOD and OD data defined in the ISMA specifications, the data recorded in the MP4 file is used as it is. Cannot be done, and data structure conversion processing is required. Prior to explaining the processing, the structure of the IOD and OD data will be explained.

[IOD、ODのデータ構造]
ISMA仕様で定義されるIODおよびODは、図1で示されるように、エレメンタリーストリームを一意に識別する識別子であるES_IDを用いて記述対象のエレメンタリーストリームとの関連を記述する。図1の場合、IODにはODストリームのES_IDが記述され、ODにはビデオあるいはオーディオストリームのES_IDが記述されていることが示されている。
[Data structure of IOD and OD]
As shown in FIG. 1, the IOD and OD defined by the ISMA specification describe the relationship with the elementary stream to be described using ES_ID which is an identifier for uniquely identifying the elementary stream. In the case of FIG. 1, it is shown that the ES_ID of the OD stream is described in the IOD, and the ES_ID of the video or audio stream is described in the OD.

しかしながら、MP4ファイルに記録されるIODおよびODのデータ構造は、図1で示されるものとは若干異なっている。MP4ファイルに記録される場合のIODおよびODのデータ構造について、図10を用いて説明する。   However, the data structure of the IOD and OD recorded in the MP4 file is slightly different from that shown in FIG. The data structure of IOD and OD when recorded in an MP4 file will be described with reference to FIG.

図10に示されるように、MP4ファイルに記録されるデータは「ボックス」(Box)と呼ばれるいわゆる入れ子型のデータ構造によって構造化されて記述される。コンテンツの情報は「ムービー」(moov)と呼ばれるコンテンツ全体を示すボックス内に、個々のエレメンタリーストリームに対応する「トラック」(trak)というボックスを包含する形で構造化される。また、トラックに対応するエレメンタリーストリームの符号化データは、「メディアデータ」(mdat)というボックス内に格納される。   As shown in FIG. 10, data recorded in an MP4 file is structured and described by a so-called nested data structure called a “Box”. The content information is structured so as to include a box called “track” (trak) corresponding to each elementary stream in a box called “movie” (moov) indicating the whole content. The encoded data of the elementary stream corresponding to the track is stored in a box called “media data” (mdat).

トラックを一意に識別できるようにするため、各トラックには「トラックID」(Track ID)という識別子が割り当てられ、そのトラックIDを「トラック参照」(tref)と呼ばれるボックス中に記述することによって、複数のトラック間の関連を定義することが可能となっている。トラック参照には、意味が異なる複数の関連を定義できるようにするため、関連の意味を示すタイプ情報を持たせることができる。ODから参照されるストリームの関連情報は、mpodというタイプを持ったトラック参照として記述される。また、ヒントトラックから参照される符号化データを含むトラックの関連情報は、hintというタイプを持ったトラック参照として記述される。   In order to be able to uniquely identify a track, each track is assigned an identifier called “Track ID” (Track ID), and the track ID is described in a box called “Track Reference” (tref), It is possible to define relationships between multiple tracks. In order to be able to define a plurality of relationships having different meanings, the track reference can have type information indicating the meaning of the relationship. The related information of the stream referenced from the OD is described as a track reference having the type mpod. The related information of the track including the encoded data referred from the hint track is described as a track reference having a type of hint.

図10が示す通り、MP4ファイル形式の場合はこのトラック参照を用いてエレメンタリーストリームの参照を行うようになっている。そのため、関連の記述方法は図1とは明らかに異なった形となっている。   As shown in FIG. 10, in the case of the MP4 file format, the elementary stream is referred to using this track reference. Therefore, the related description method is clearly different from that in FIG.

まず、IODはESDを持っておらず、参照するESに対応するトラックのトラックIDのみを持つ。本来IODに含まれるESDは、参照先のトラックのデータとして、IODとは独立したデータとして記録される。   First, the IOD has no ESD, only the track ID of the track corresponding to the referenced ES. The ESD originally included in the IOD is recorded as data of a reference destination track as data independent of the IOD.

また、ODもESDを持たず、mpodタイプのトラック参照に含まれるデータのインデックスを示す1から始まる番号のみが記録される。ODとESの関連を示すタイプのトラック参照のデータ中のインデックス番号で示される位置のデータに、参照するESに対応するトラックのトラックIDが記述されており、このトラックIDによってODが参照するESが特定される。IODと同様に、本来ODに含まれるESDは、参照先のトラック中にODとは独立したデータとして記録される。   Also, OD has no ESD, and only numbers starting from 1 indicating the index of data included in mpod type track references are recorded. The track ID of the track corresponding to the ES to be referenced is described in the data at the position indicated by the index number in the track reference data of the type indicating the relationship between OD and ES, and the ES referenced by the OD is described by this track ID. Is identified. Similar to the IOD, the ESD originally included in the OD is recorded as data independent of the OD in the reference destination track.

このように、MP4ファイル形式の場合、IOD、ODおよびESDに相当するデータの形式は通常と異なっているため、それぞれに対して割り当てられているタグの値もMP4ファイル形式用の特殊な値が使用される。図10のように、IODに相当するデータには0x10(MP4_IOD_Tag)が、その中に含まれるESDに代わるデータには0x0E(ES_ID_IncTag)が使用される。また、ODに相当するデータには0x11(MP4_OD_Tag)、その中に含まれるESDに代わるデータには0x0F(ES_ID_RefTag)が使用される。   In this way, in the case of MP4 file format, the data format corresponding to IOD, OD, and ESD is different from the usual, so the tag value assigned to each also has a special value for MP4 file format. used. As shown in FIG. 10, 0x10 (MP4_IOD_Tag) is used for the data corresponding to the IOD, and 0x0E (ES_ID_IncTag) is used for the data replacing the ESD included therein. In addition, 0x11 (MP4_OD_Tag) is used for data corresponding to OD, and 0x0F (ES_ID_RefTag) is used for data replacing ESD contained therein.

上記のようなIOD、ODの記述形式の違いが存在するため、ISMA仕様に従ったIODおよびODデータを生成するには、MP4ファイルのボックス構造を解析し、各トラックの参照関係が正しく反映されたES_ID、および各トラックのESDが含まれた形でIODおよびODデータを生成しなければならない。   Because there are differences in the IOD and OD description formats as described above, to generate IOD and OD data according to the ISMA specifications, the MP4 file box structure is analyzed and the reference relationship of each track is correctly reflected. IOD and OD data must be generated in a form that includes the ES_ID and the ESD of each track.

以下、、MP4ファイルの内部に格納される形式のIODのデータ構造の変換処理について、図11のフローチャートを用いて説明する。なお、図11のフローチャートは、ストリーミングコントローラ113によって実行されるステップS304におけるIODの設定処理をより詳細に説明するものである。   Hereinafter, the conversion process of the IOD data structure in the format stored in the MP4 file will be described with reference to the flowchart of FIG. Note that the flowchart of FIG. 11 explains the IOD setting process in step S304 executed by the streaming controller 113 in more detail.

[IODの変換処理]
まず、ステップS401において、ファイルにIODデータが含まれているか否かを確認する。通常、MP4ファイルにはIODデータは含まれているが、含まれていない場合はステップS402へ進み、デフォルトのIODデータを作成する処理を実行して、後続の処理はスキップする。なお、ステップS402によるデフォルトのIOD生成処理の詳細については後述する。
[IOD conversion processing]
First, in step S401, it is confirmed whether or not IOD data is included in the file. Normally, the MP4 file contains IOD data, but if not, the process proceeds to step S402 to execute processing for creating default IOD data and skip subsequent processing. Details of the default IOD generation processing in step S402 will be described later.

ファイル中にIODデータが含まれている場合は、ステップS403へ進み、MP4ファイルの内部に格納される形式のIODのバイナリデータを取得する。このIODデータは、あらかじめステップS202でMP4ファイルを解析して得られた結果として、ストリーミングコントローラ113によって取得可能な状態で保持されている(システムRAM117に保持されている)ものとする。   When IOD data is included in the file, the process proceeds to step S403, and IOD binary data in a format stored in the MP4 file is acquired. It is assumed that this IOD data is held in a state that can be acquired by the streaming controller 113 (held in the system RAM 117) as a result obtained by analyzing the MP4 file in step S202 in advance.

次に、ステップS404において、IOD中のES_ID_IncTagをES_DescrTagに置換する。同時に、ES_ID_IncTagに続くトラックIDで参照されるトラックの“esds”ボックスからESDデータを取得し、IOD中のES_DescrTagで示される位置にセットする。図12を例に挙げて説明すると、MP4ファイルにおいて、IOD501内のTrack IDによってトラック502が指定されている。このTrack IDを示すES_ID_IncTagを、ESDを示すES_DescrTagに置換する。そして、指示されたトラック502内の“esds”ボックス503にあるESD504を取得し、これを置換したES_DescrTagの位置にセットする。こうして、ESD504を含んだIOD501'に変換される。   Next, in step S404, ES_ID_IncTag in the IOD is replaced with ES_DescrTag. At the same time, the ESD data is acquired from the “esds” box of the track referred to by the track ID following ES_ID_IncTag, and set at the position indicated by ES_DescrTag in the IOD. Referring to FIG. 12 as an example, in the MP4 file, the track 502 is designated by the Track ID in the IOD 501. ES_ID_IncTag indicating this Track ID is replaced with ES_DescrTag indicating ESD. Then, the ESD 504 in the “esds” box 503 in the designated track 502 is acquired, and set to the position of the replaced ES_DescrTag. In this way, it is converted into an IOD 501 ′ including the ESD 504.

そして、ステップS405において、IODから参照される全てのエレメンタリーストリームに対して、ESDを設定する処理が行われたかチェックする。全てのエレメンタリーストリームの処理が完了していなければ、ステップS404に戻り、未処理のエレメンタリーストリームの処理を行う。   In step S405, it is checked whether ESD setting processing has been performed for all elementary streams referenced from the IOD. If all the elementary streams have not been processed, the process returns to step S404 to process the unprocessed elementary streams.

上述のような変換処理によって、MP4ファイルに格納される形式のIODデータを適切に変換できるようになる。   With the conversion process as described above, IOD data in a format stored in an MP4 file can be appropriately converted.

[ODの変換処理]
引き続き、MP4ファイル形式のODデータを変換する場合の手順を、図13を用いて説明する。なお、図13のフローチャートは、ストリーミングコントローラ113によりステップS304として行われるODの設定処理をより詳細に説明するものである。
[OD conversion processing]
The procedure for converting MP4 file format OD data will be described with reference to FIG. Note that the flowchart in FIG. 13 explains the OD setting process performed in step S304 by the streaming controller 113 in more detail.

ODのデータは、IODと異なり、エレメンタリーストリームのデータとしてMP4ファイルに記録される。すなわち、ODのデータは他のビデオやオーディオなどのデータ形式と同じように、メディアデータの構成単位である「サンプル」として扱われる。従って、ODデータを処理するためには、ODストリームのサンプルデータをそのままの状態で参照できるようにするための解析処理がステップS202で行われなければならない。さらに、ODのデータを取得するためには、サンプルデータを取得しようとするトラックがODデータのトラックであるかどうかを判断するための情報が必要である。トラックがODデータのトラックであるかどうかは、そのトラックのESDに含まれるDecoderConfigDescriptorのstreamTypeが0x01(ObjectDescriptorStream)であるかによって判断可能である。したがって、ステップS202の処理でにおいてトラックのstreamTypeを参照可能な状態でシステムRAM117に保持しておく必要がある。   Unlike IOD, OD data is recorded in an MP4 file as elementary stream data. That is, OD data is handled as a “sample” that is a unit of media data, as in other data formats such as video and audio. Therefore, in order to process the OD data, an analysis process must be performed in step S202 so that the sample data of the OD stream can be referred to as it is. Furthermore, in order to acquire OD data, information for determining whether or not the track from which sample data is to be acquired is a track of OD data is necessary. Whether or not the track is a track of OD data can be determined based on whether or not the streamType of DecoderConfigDescriptor included in the ESD of the track is 0x01 (ObjectDescriptorStream). Therefore, it is necessary to store the streamType of the track in the system RAM 117 in a state where it can be referred to in the process of step S202.

以下のODの変換処理では、トラックのstreamTypeの内容を確認し、streamType=0x01の時であればそのトラックはODストリームであると判断し、そのトラックのデータの変換処理を行うようにする。   In the following OD conversion processing, the content of the streamType of the track is confirmed. If streamType = 0x01, it is determined that the track is an OD stream, and the data conversion processing of the track is performed.

ODに含まれるESDも、IODと同様に、MP4ファイルの内部では別のタグおよび参照形式として表わされ、記録される。具体的には、ODに含まれるESDは、MP4ファイル内では“mpod”トラック参照のインデックスを保持するES_ID_Refとして保持される。そのため、MP4ファイル形式のODデータの変換は、IODの変換とおおむね同じ処理手順で行える。   Like the IOD, the ESD included in the OD is represented and recorded as a separate tag and reference format within the MP4 file. Specifically, the ESD included in the OD is held as ES_ID_Ref that holds an index of “mpod” track reference in the MP4 file. Therefore, conversion of OD data in MP4 file format can be performed with the same processing procedure as IOD conversion.

まず、ステップS601において、ファイルにODデータが含まれているか否かを確認する。ODデータの有無は、ESD中のstreamTypeが0x01であるトラックがファイルにあるか否かをチェックすることによって確認できる。通常、MP4ファイルにはODデータは含まれているが、含まれていない場合は、ステップS402においてデフォルトIODデータ作成処理を実行し、IODと一緒にデフォルトのODデータを作成する。なお、ステップS402のデフォルトのIOD生成処理の詳細については後述する。   First, in step S601, it is confirmed whether or not OD data is included in the file. The presence / absence of OD data can be confirmed by checking whether the track has a track type stream type of 0x01 in the ESD. Normally, OD data is included in the MP4 file, but if it is not included, default IOD data creation processing is executed in step S402, and default OD data is created together with the IOD. Details of the default IOD generation processing in step S402 will be described later.

ODデータがある場合は、ステップS602において、MP4ファイルの内部に格納される形式のODデータを取得する。次に、ステップS603において、ODデータ中のES_ID_RefTagをES_DescrTagに置換する。同時に、そのODデータを取得したトラックに含まれる“mpod”タイプのトラック参照データ中、ES_ID_RefTagに続くインデックス番号の位置のトラックIDで参照されるトラックの“esds”ボックスからESDデータを取得し、OD中のES_DescrTagで示される位置にセットする。   If there is OD data, in step S602, OD data in a format stored in the MP4 file is acquired. In step S603, ES_ID_RefTag in the OD data is replaced with ES_DescrTag. At the same time, ESD data is acquired from the “esds” box of the track referenced by the track ID at the index number position following ES_ID_RefTag in the “mpod” type track reference data included in the track from which the OD data was acquired, and OD Set to the position indicated by ES_DescrTag.

例えば、図14の場合、トラック702において、DecoderConfigDescriptorのstreamTypeが0x01であり、トラック702に対応するエレメンタリーストリームがOD701であった場合、OD701内のES_ID_RefTagで示される領域710をES_DescrTagに置換する。そして、ODトラックに含まれる“mpod”タイプのトラック参照705から、領域710内のindex711によって示されるトラックID706を取得し、そのトラックID706で示されるODの参照トラック707のesdsボックス708よりESD709を取得する。そして、ES_DescrTagの部分にこのESD709を組み込んだODデータ701'を生成する。   For example, in the case of FIG. 14, when the streamType of DecoderConfigDescriptor is 0x01 in the track 702 and the elementary stream corresponding to the track 702 is OD701, the area 710 indicated by ES_ID_RefTag in the OD701 is replaced with ES_DescrTag. Then, the track ID 706 indicated by the index 711 in the area 710 is obtained from the “mpod” type track reference 705 included in the OD track, and the ESD 709 is obtained from the esds box 708 of the OD reference track 707 indicated by the track ID 706. To do. Then, OD data 701 ′ in which the ESD 709 is incorporated in the ES_DescrTag portion is generated.

そして、ステップS604において、ODが参照する全てのエレメンタリーストリームに対して、ESDの設定処理が行われたかをチェックし、未処理のエレメンタリーストリームがある場合はステップS603に戻る。   In step S604, it is checked whether ESD setting processing has been performed for all elementary streams referred to by the OD. If there is an unprocessed elementary stream, the process returns to step S603.

[IODデータのISMA形式への変換]
ISMA仕様で配信に用いられるIODデータの場合、上述の処理によって、MP4ファイルに格納される形式のIODデータおよびODデータから、さらにISMA仕様で規定される形式に変換しなければならない。
[Conversion of IOD data to ISMA format]
In the case of IOD data used for distribution in the ISMA specification, it is necessary to convert the IOD data and OD data in the format stored in the MP4 file into the format specified in the ISMA specification by the above processing.

上記の処理で変換されたIOD、ODと、ISMA仕様のIOD、ODのデータ構造の違いを図15に示す。上記の変換によって得られる形式の場合、図15におけるIOD801は、典型的にはODストリーム804に対応するESD802と、BIFSストリーム805に対応するESD803とを含んでいる。しかし、ODストリーム804およびBIFSストリーム805のストリームデータ自体はIOD801とは独立したデータとして存在している。   The difference in data structure between the IOD and OD converted by the above processing and the ISMA specification IOD and OD is shown in FIG. In the case of the format obtained by the above conversion, the IOD 801 in FIG. 15 typically includes an ESD 802 corresponding to the OD stream 804 and an ESD 803 corresponding to the BIFS stream 805. However, the stream data itself of the OD stream 804 and the BIFS stream 805 exists as data independent of the IOD 801.

これに対して、ISMA形式の場合、IODの形式はODデータ804、BIFSデータ805が組み込まれた形のIOD801'のような形式になる。そのため、ISMA準拠のストリーミング情報を作成するには、上記の処理によって得られたIODをさらにISMA形式に変換しなければならない。その変換処理の手順を図16のフローチャートで説明する。   On the other hand, in the case of the ISMA format, the IOD format is a format such as IOD 801 ′ in which OD data 804 and BIFS data 805 are incorporated. Therefore, in order to create ISMA-compliant streaming information, the IOD obtained by the above processing must be further converted into the ISMA format. The procedure of the conversion process will be described with reference to the flowchart of FIG.

まず、ステップS901において、図11のフローチャートで示した手順によりMP4ファイルからIODデータを取得し、変換する処理を行う。次に、ステップS902において、図13で示した手順によりMP4ファイルからODデータを取得し、変換する処理を行う。   First, in step S901, IOD data is acquired from the MP4 file and converted according to the procedure shown in the flowchart of FIG. In step S902, OD data is acquired from the MP4 file and converted according to the procedure shown in FIG.

次に、ステップS903において、MP4ファイルからBIFSデータを取得する処理を行う。BIFSデータを取得するには、前述のDecoderConfigDescriptorのstreamTypeが0x03(SceneDescriptionStream)であるESDを持ったトラックを探し、そのトラックのデータを取得する。なお、MP4ファイルには通常、BIFSトラックは必ず存在するので、本例ではBIFSトラックが存在しない場合を考慮していない。   Next, in step S903, processing for acquiring BIFS data from the MP4 file is performed. In order to acquire BIFS data, a track having an ESD whose streamType of DecoderConfigDescriptor is 0x03 (SceneDescriptionStream) is searched, and the data of the track is acquired. Since MP4 files usually have a BIFS track, this example does not consider the case where no BIFS track exists.

そして、ステップS904において、上記のステップS901で得られたIODデータに、ステップS902、S903で得られたODデータ、BIFSデータを、ISMA仕様で規定される形式で組み込む。ISMA仕様では、IODに組み入れられるODおよびBIFSデータは、Base64形式でテキスト符号化され、先頭に“data:application/mpeg4-od-au;base64,”(ODの場合)、あるいは“data:application/mpeg4-bifs-au;base64,”(BIFSの場合)という接頭句が付加されたテキストの形で、ESDのURLstringフィールドで保持される。以上のような形式でIOD、OD、BIFSデータの統合および符号化処理を行い、ISMA仕様で規定された形態のIODデータが生成されることになる。   In step S904, the OD data and BIFS data obtained in steps S902 and S903 are incorporated into the IOD data obtained in step S901 in a format defined by the ISMA specification. According to the ISMA specification, OD and BIFS data included in the IOD are text-encoded in Base64 format and preceded by “data: application / mpeg4-od-au; base64,” (for OD) or “data: application / mpeg4-bifs-au; base64, ”(in the case of BIFS), it is stored in the URL URL field of the ESD in the form of text. IOD, OD, and BIFS data are integrated and encoded in the above format, and IOD data in the form defined by the ISMA specification is generated.

以上述べたような処理を行うことによって、MP4ファイルに含まれるIOD、OD、BIFSなどのシステムデータをISMA仕様準拠の形に変換できる。このことにより、MP4ファイルにISMA準拠のIODデータが含まれていなくても、ISMAに準拠したストリーミング配信に対応した形式のIODデータを生成し、これを送信できるようになる。   By performing the processing described above, system data such as IOD, OD, and BIFS contained in MP4 files can be converted into a format that conforms to the ISMA specification. As a result, even if the MP4 file does not contain ISMA-compliant IOD data, IOD data in a format compatible with ISMA-compliant streaming delivery can be generated and transmitted.

[デフォルトIODの生成処理(ステップS402の処理)]
以上、MP4ファイルから取得したIODおよびODデータをISMA仕様の形式に変換する処理について説明してきたが、IOD、ODといったデータはどのようなファイルにも含まれているとは限らない。例えば、3GPPファイルはMP4ファイルとは異なり、IOD、BIFS、ODといったデータは含まれない。そのため、3GPPファイルのようなファイルを扱う場合には、IODなどのデータをファイルから取得せず、デフォルトのIODとして作成するといった処理を行う必要がある。
[Default IOD Generation Process (Step S402)]
As described above, the process of converting the IOD and OD data acquired from the MP4 file into the format of the ISMA specification has been described, but data such as IOD and OD is not necessarily included in any file. For example, a 3GPP file is different from an MP4 file and does not include data such as IOD, BIFS, and OD. Therefore, when handling a file such as a 3GPP file, it is necessary to create a default IOD without acquiring data such as IOD from the file.

デフォルトのIODデータは、あらかじめ本実施形態のネットワークカメラのシステムROM116で固定のデータとして準備しておく。あるいは、システムROM116に保持されている固定IODデータを「テンプレート」として、システムROM116のIODデータの内容のうち、ビットレートやデコードバッファサイズ、DecoderSpecificInfoなど条件によって変動する一部のデータ項目を書き換えたIODデータを、システムRAM117に保持して使用するような処理を行ってもよい。なお、デフォルトIODの内容は配信するファイルのストリーム構成(例えば、映像のみ、音声のみ、映像・音声といったストリームの組み合わせ)によって異なるため、構成毎に複数のデフォルトIODを準備しておく必要がある。   The default IOD data is prepared in advance as fixed data in the system ROM 116 of the network camera of this embodiment. Alternatively, fixed IOD data held in the system ROM 116 is used as a “template”, and IOD data obtained by rewriting some data items that vary depending on conditions such as bit rate, decode buffer size, and DecoderSpecificInfo among the contents of the IOD data in the system ROM 116. Processing may be performed such that data is stored in the system RAM 117 and used. The contents of the default IOD vary depending on the stream configuration of the file to be distributed (for example, a combination of streams such as video only, audio only, and video / audio). Therefore, it is necessary to prepare a plurality of default IODs for each configuration.

以下、ファイル中にIODデータが存在しない3GPPファイルを扱う場合に、デフォルトのIODを生成する処理を図17のフローチャートを用いて説明する。なお、このフローチャートは、上述の図11および図13の処理において、3GPPファイルを扱った場合のステップS402における処理を詳細に説明するものである。   Hereinafter, processing for generating a default IOD when a 3GPP file having no IOD data in the file will be described with reference to the flowchart of FIG. This flowchart describes in detail the processing in step S402 when a 3GPP file is handled in the processing of FIGS. 11 and 13 described above.

まず、ステップS1001において、処理対象の3GPPファイルのストリーム構成が、映像のみ、音声のみ、映像・音声の組み合わせのいずれであるかを確認する。次に、ステップS1002において、ステップS1001で確認された3GPPファイルのストリーム構成に対応するデフォルトのIODデータを、システムROM116から取得し、システムRAM117上に保持する。そして、ステップS1003において、システムRAM117上に保持されているデフォルトのIODデータ中、ビットレートやデコードバッファサイズ、DecoderSpecificInfoなど、エンコード条件によって変化するデータや、ES_IDなどファイルから取得可能なデータの内容を3GPPファイルから取得し、システムRAM117上のデフォルトのIODデータに上書きして書き換える。   First, in step S1001, it is confirmed whether the stream structure of the 3GPP file to be processed is video only, audio only, or a combination of video and audio. Next, in step S1002, default IOD data corresponding to the stream configuration of the 3GPP file confirmed in step S1001 is acquired from the system ROM 116 and stored in the system RAM 117. In step S1003, the default IOD data held in the system RAM 117 includes data that changes according to the encoding condition such as bit rate, decode buffer size, and DecoderSpecificInfo, and data contents that can be acquired from the file such as ES_ID. It is acquired from the file and rewritten by overwriting the default IOD data on the system RAM 117.

このような処理を行うことによって、3GPPファイルのようにファイル中にIOD、OD、BIFSデータが含まれていないファイルであっても、ISMA仕様で規定されているIODデータを生成し利用することが可能になる。   By performing such processing, even if the file does not contain IOD, OD, or BIFS data, such as 3GPP files, IOD data defined by the ISMA specifications can be generated and used. It becomes possible.

以上のように、本実施形態のネットワークカメラでは、以上述べたような諸々の処理によって、ステップS203でストリーミング情報を作成し、それを用いてストリーミング配信を行うことができる。これまでの説明で述べたように、特に、第2実施形態で示されるネットワークカメラは、ストリーミング配信用に図9のようなセッション記述情報を含んでいないコンテンツファイルや、3GPPファイル形式のようにIOD、OD、BIFSを含まない形式のファイルに対しても、ISMA仕様に準拠した形でセッション記述情報を生成し、ストリーミング配信が行うことが出来る。   As described above, in the network camera of the present embodiment, streaming information can be created in step S203 through various processes as described above, and streaming distribution can be performed using the streaming information. As described in the above description, in particular, the network camera shown in the second embodiment is a content file that does not include session description information as shown in FIG. 9 for streaming delivery, or an IOD like a 3GPP file format. , OD and BIFS files can be streamed by generating session description information that conforms to the ISMA specification.

<第3実施形態>
第3実施形態では、配信時に生成するストリーミング情報をファイルとして出力するネットワークカメラを例にとって説明する。
<Third Embodiment>
In the third embodiment, a network camera that outputs streaming information generated during distribution as a file will be described as an example.

図4のステップS203で生成されたストリーミング情報は、第1実施形態では、作成直後にストリーミング配信処理で用いられた後は保存されずに破棄されていた。第3実施形態では、この出力データを配信処理が終わっても利用できるようファイルなどの形で装置内で保持・管理し、以前に配信されたことのあるファイルの配信が再び要求された場合にはこの出力データを再利用することで、ストリーミング情報の生成処理を逐一行わずとも配信が行えるようにするる。   In the first embodiment, the streaming information generated in step S203 of FIG. 4 is discarded without being saved after being used in the streaming distribution process immediately after creation. In the third embodiment, when the output data is held and managed in the device in the form of a file so that it can be used even after the distribution process is completed, and distribution of a file that has been distributed before is requested again By reusing this output data, it is possible to distribute without having to perform streaming information generation processing one by one.

[ストリーミング情報ファイルの出力処理]
以下、第3実施形態のネットワークカメラにおいて、配信時に生成されたストリーミング情報をファイルとして出力、記録する処理について、図18のフローチャートを用いて説明する。
[Streaming information file output processing]
Hereinafter, processing for outputting and recording streaming information generated at the time of distribution as a file in the network camera of the third embodiment will be described with reference to the flowchart of FIG.

図18のフローチャートの処理は図4とほぼ同じであり、ステップS1101からS1104の処理は、図4におけるステップS201からS204と同じであるため、説明は省略する。図18のフローチャートでは、ステップS1101からS1104の処理が行われた後に、ステップS1105において、ステップS1103で生成したストリーミング情報の出力処理が行われる。   The process of the flowchart in FIG. 18 is almost the same as that in FIG. 4, and the processes in steps S1101 to S1104 are the same as those in steps S201 to S204 in FIG. In the flowchart of FIG. 18, after the processing of steps S1101 to S1104 is performed, the output processing of the streaming information generated in step S1103 is performed in step S1105.

ステップS1105で、ストリーミングコントローラ113は、ステップS1103で生成されたストリーミング情報をファイルとして外部記憶I/F111を介して外部記憶112に記録していく。ストリーミング情報はその生成もとのコンテンツデータとの対応がわかり、後から読み出し可能に記録されればよい。本実施形態では、図19に示されるようにファイルの形態でストリーミング情報を保存する。この例では、配信対象のMP4ファイルが“MOV0001.MP4”というファイル名である場合、ステップS1105で出力される情報は、配信対象ファイルのファイル名のベース名“MOV0001”に、出力される情報の種類を示す拡張子が付加されたファイル名で出力される。さらに、ファイルの各トラックの情報は、ベース名“MOV0001”にトラックを識別する連番を付加したファイル名として出力される。例えば、ムービーのセッション記述情報は“MOV0001.SDP”、1番目のトラックに対して付与されたヒントトラック情報は、“MOV0001-1.HNT”というファイル名でストリーミング情報が出力される。   In step S1105, the streaming controller 113 records the streaming information generated in step S1103 as a file in the external storage 112 via the external storage I / F 111. The streaming information only needs to be recorded so that the correspondence with the content data from which the streaming information is generated can be read out later. In this embodiment, streaming information is stored in the form of a file as shown in FIG. In this example, when the MP4 file to be distributed has a file name “MOV0001.MP4”, the information output in step S1105 is the base name “MOV0001” of the file name of the distribution target file. Output as a file name with an extension indicating the type. Further, information on each track of the file is output as a file name in which a base number “MOV0001” is added with a sequential number for identifying the track. For example, the movie session description information is “MOV0001.SDP”, and the hint track information given to the first track is streaming information with a file name “MOV0001-1.HNT”.

[ストリーミング情報ファイルを用いる配信処理]
引き続き、上記の処理によってファイルに記録されたストリーミング情報を用いる配信処理の手順を、図20のフローチャートを用いて説明する。
[Delivery process using streaming information file]
Next, the procedure of the distribution process using the streaming information recorded in the file by the above process will be described with reference to the flowchart of FIG.

まず、ステップS1201において、ストリーミングコントローラ113はネットワークI/F114を介して配信先端末から送付されたMP4ファイルの配信要求を受信する。本実施形態では、MP4ファイルの配信要求はRTSPを用いて図21で示されるような書式で配信先端末から送付されるものと想定する。図21では、配信対象のMP4ファイルは、RTSPのDESCRIBEコマンド(211)で指定されているURL文字列“rtsp://192.168.0.1/MOV0001.MP4”中の、“MOV0001.MP4”の部分で示される。   First, in step S1201, the streaming controller 113 receives the MP4 file distribution request sent from the distribution destination terminal via the network I / F 114. In the present embodiment, it is assumed that the MP4 file distribution request is sent from the distribution destination terminal in the format shown in FIG. 21 using RTSP. In FIG. 21, the MP4 file to be distributed is the part of “MOV0001.MP4” in the URL character string “rtsp: //192.168.0.1/MOV0001.MP4” specified by the DESCRIBE command (211) of RTSP. Indicated.

ステップS1202では、ストリーミングコントローラ113は受信した配信要求に含まれる配信対象のファイル名を取得する。図22の例の場合は、“MOV0001.MP4”の部分をURLを解析して取得する。   In step S1202, the streaming controller 113 acquires a file name to be distributed included in the received distribution request. In the case of the example in FIG. 22, the part “MOV0001.MP4” is obtained by analyzing the URL.

次に、ステップS1203で、ストリーミングコントローラ113は要求されたファイルが存在するかどうかをチェックする。図21の例の場合、ファイル名が“MOV0001.MP4”のファイルが外部記憶112に存在するかチェックし、存在しない場合はステップS1204で示されるエラー処理を行い、後続の処理は行わずに当該配信要求に対する処理を終了する。   In step S1203, the streaming controller 113 checks whether the requested file exists. In the case of the example in FIG. 21, it is checked whether or not a file with the file name “MOV0001.MP4” exists in the external storage 112. If not, the error processing shown in step S1204 is performed, and the subsequent processing is not performed. The process for the distribution request is terminated.

要求されたファイルが存在する場合は、ステップS1205において、ストリーミングコントローラ113は要求されたMP4ファイルの内容を解析する。ただし、本実施例の場合、解析結果は後続の符号化データの配信などの処理に用いられるが、ストリーミング情報の生成には利用されない。なお、この処理は、上述の図4のステップS202の処理と同じであるため、ここでの説明は省略する。次に、ステップS1206において、ストリーミングコントローラ113は要求されたMP4ファイルに対応するストリーミング情報が記録されたファイルが存在するかチェックする。図21の例の場合、要求されたファイル名が“MOV0001.MP4”であるので、ファイルのベース名として“MOV0001”を有する、図19で示されるようなストリーミング情報ファイル群が外部記憶112に存在するか否かをチェックする。   If the requested file exists, in step S1205, the streaming controller 113 analyzes the content of the requested MP4 file. However, in the case of the present embodiment, the analysis result is used for processing such as distribution of subsequent encoded data, but is not used for generating streaming information. Since this process is the same as the process in step S202 of FIG. 4 described above, description thereof is omitted here. Next, in step S1206, the streaming controller 113 checks whether there is a file in which streaming information corresponding to the requested MP4 file is recorded. In the case of the example in FIG. 21, since the requested file name is “MOV0001.MP4”, a streaming information file group having “MOV0001” as the base name of the file as shown in FIG. Check whether or not to do.

要求ファイルに対応するストリーミング情報ファイルが存在する場合は、ステップS1207において、外部記憶112からストリーミング情報ファイルの内容を取得する。ストリーミング情報ファイルが存在しない場合は、ステップS1208において、ストリーミング情報の生成処理を行う。なお、この生成処理は上述の図4のステップS203の処理と同じであるため、ここでの説明は省略する。   If there is a streaming information file corresponding to the request file, the content of the streaming information file is acquired from the external storage 112 in step S1207. If there is no streaming information file, streaming information generation processing is performed in step S1208. Since this generation processing is the same as the processing in step S203 in FIG. 4 described above, description thereof is omitted here.

そして、ステップS1209において、ストリーミングコントローラ113は上記のステップS1207で取得あるいはステップS1208で生成されたストリーミング情報に基づいて、要求されたMP4ファイルの符号化データをネットワークI/F114を介してストリーミング配信する。   In step S1209, the streaming controller 113 performs streaming distribution of the requested encoded data of the MP4 file via the network I / F 114 based on the streaming information acquired in step S1207 or generated in step S1208.

このように、配信対象のファイルと関連付けられた形でファイルを生成することにより、後で再びファイルの配信が要求された時に、要求されたファイルのベース名を持ったストリーミング情報ファイルが存在する場合は、そのファイルの情報を使用してストリーミング配信処理を行うということが可能になる。   In this way, when a file is generated in a form associated with a file to be distributed, when a file distribution is requested later, a streaming information file with the requested file base name exists. Can perform streaming distribution processing using the information of the file.

なお、本実施形態では、ステップS1105でファイルに出力されるストリーミング情報の記述形式は、MP4ファイル形式のような標準ファイル形式で記述されても、任意の独自の形式で記述されてもよい。   In the present embodiment, the description format of the streaming information output to the file in step S1105 may be described in a standard file format such as the MP4 file format or may be described in any unique format.

また、本実施形態では、配信対象のMP4ファイルとストリーミング情報ファイルとの相関をファイル名を用いて定義しているが、配信対象のMP4ファイルにストリーミング情報ファイルとの関連を定義するための管理用データを別途生成したり、あるいはストリーミング情報自体を配信対象のMP4ファイルに追加記録するようにしてもよい。   In this embodiment, the correlation between the MP4 file to be distributed and the streaming information file is defined by using the file name. However, for management to define the relationship between the MP4 file to be distributed and the streaming information file Data may be generated separately, or the streaming information itself may be additionally recorded in the distribution target MP4 file.

<第4実施形態>
第4実施形態として、ストリーミング情報の生成のしかたを静的に、あるいは実行時に動的に変更することができるネットワークカメラを例にとって説明する。
<Fourth embodiment>
As a fourth embodiment, a network camera that can change the method of generating streaming information statically or dynamically at the time of execution will be described as an example.

本実施形態では、ストリーミング制御情報の生成方法に関する設定情報をストリーミングコントローラ113に与えることによって、ストリーミングコントローラ113はストリーミング情報の生成方針や生成形態を変化させることが出来るものとする。   In the present embodiment, it is assumed that the streaming controller 113 can change the generation policy and the generation form of the streaming information by providing the streaming controller 113 with the setting information regarding the generation method of the streaming control information.

ストリーミングコントローラ113に与えられる設定情報の例を図22に示す。例えば図22の1行目(221)に示される“max_pdu_size”は、ストリーミングコントローラ113が生成するパケットの最大サイズを示す。ストリーミングコントローラ113はこの値に基づいて、ペイロード・データの分割を制御する。2行目(222)に示される“repeat”は、伝送エラーに備えてパケットを複数回送信するか否かを示す。ストリーミングコントローラ113はこの値に基づいてパケットに再送フラグ等の設定を行う。3行目(223)の“approval_packet_loss”は、許容されるパケット損失率(%)を示すもので、ネットワークI/F114において検出されたパケット損失率が指定されたパケット損失率を上回った場合に、ストリーミングコントローラ113はパケットの再送フラグを設定するなど、エラーに対する耐性を高めるための制御を行う。   An example of the setting information given to the streaming controller 113 is shown in FIG. For example, “max_pdu_size” shown in the first line (221) of FIG. 22 indicates the maximum size of a packet generated by the streaming controller 113. The streaming controller 113 controls the division of the payload data based on this value. “Repeat” shown in the second line (222) indicates whether or not to transmit a packet a plurality of times in preparation for a transmission error. The streaming controller 113 sets a retransmission flag or the like in the packet based on this value. “Approval_packet_loss” in the third line (223) indicates an allowable packet loss rate (%). When the packet loss rate detected in the network I / F 114 exceeds the designated packet loss rate, The streaming controller 113 performs control for increasing resistance to errors, such as setting a packet retransmission flag.

なお、これらの設定情報は、システムROM116上に固定データとして保持されても、あるいは外部記憶112やシステムRAM117に書き換え可能なデータとして保持されてもよい。また、複数の設定情報をテーブルとして保持し、配信時のモードやネットワークの混み具合、セッション数などの配信条件に応じて適応的に設定条件を選択するようにしてもよい。このようにすることで、本実施形態で示されるネットワークカメラは、ストリーミング情報が実際に適用されるネットワーク環境と適合していなくても、適応的なストリーミング配信を行えるようにすることができる。   The setting information may be held as fixed data on the system ROM 116 or may be held as rewritable data in the external storage 112 or the system RAM 117. A plurality of setting information may be stored as a table, and the setting conditions may be selected adaptively according to the distribution conditions such as the mode at the time of distribution, the degree of network congestion, and the number of sessions. By doing in this way, the network camera shown by this embodiment can perform adaptive streaming delivery, even if streaming information is not compatible with the network environment to which streaming information is actually applied.

<第5実施形態>
第5実施形態として、配信されるMP4ファイルが登録された時点で、ストリーミング情報を生成するネットワークカメラを例にとって説明する。
<Fifth Embodiment>
As a fifth embodiment, a network camera that generates streaming information at the time when an MP4 file to be distributed is registered will be described as an example.

本実施形態のネットワークカメラは、図23で示されるようなコンテンツ配信システムの構成要素として用いられるものと想定する。図23は典型的なコンテンツ配信システムの概略構成を示している。図23において、コンテンツの作成者は、ファイル作成端末1303から作成したMP4ファイルを配信サーバの役割を果たすネットワークカメラ1301へアップロードすることにより、配信対象のファイルとして登録出来るものとする。このファイル作成端末1303は、パーソナルコンピュータや携帯電話、PDA、あるいは他のネットワークカメラなど、ネットワークカメラ1301に対してコンテンツファイルの送信が可能な機器であれば、いかなるものであってもよい。また、アップロード時の通信経路は、インターネット等の公衆網であっても、BluetoothやUWB、IEEE 802.11などの無線通信路であっても、USBやIEEE1394などの機器間接続用外部バスであってもよい。   It is assumed that the network camera of this embodiment is used as a component of a content distribution system as shown in FIG. FIG. 23 shows a schematic configuration of a typical content distribution system. In FIG. 23, it is assumed that a content creator can register an MP4 file created from the file creation terminal 1303 as a file to be distributed by uploading it to the network camera 1301 serving as a distribution server. The file creation terminal 1303 may be any device that can transmit a content file to the network camera 1301, such as a personal computer, a mobile phone, a PDA, or another network camera. The communication path for uploading may be a public network such as the Internet, a wireless communication path such as Bluetooth, UWB, or IEEE 802.11, or an external bus for inter-device connection such as USB or IEEE1394. Good.

上記のアップロード処理によってネットワークカメラ1301に登録されたMP4ファイルは、配信先端末1302から閲覧、配信要求が可能になる。すなわち、ネットワークカメラ1301は配信先端末1302からの要求に応じてMP4ファイルをストリーミング配信する。   The MP4 file registered in the network camera 1301 by the upload process described above can be viewed and requested for distribution from the distribution destination terminal 1302. That is, the network camera 1301 performs streaming delivery of the MP4 file in response to a request from the delivery destination terminal 1302.

図23のコンテンツ配信システムにおいて、ネットワークカメラ1301は、ファイル作成端末1303からアップロードされるMP4ファイルの受信時に、第3実施形態で示されるようにストリーミング情報をファイルに出力する処理を行う。本実施形態では、MP4ファイルがネットワークカメラ1301に登録された時点では、ストリーミング情報の生成のみを行い、登録されたファイルの配信は行わない。ネットワークカメラ1301は、、配信先端末1302から配信要求を受け付けてから、MP4ファイルの登録時に生成されたストリーミング情報を利用して要求されたファイルの配信を行う。   In the content distribution system of FIG. 23, when receiving the MP4 file uploaded from the file creation terminal 1303, the network camera 1301 performs a process of outputting streaming information to a file as shown in the third embodiment. In this embodiment, when an MP4 file is registered in the network camera 1301, only streaming information is generated, and the registered file is not distributed. After receiving the distribution request from the distribution destination terminal 1302, the network camera 1301 distributes the requested file using the streaming information generated when registering the MP4 file.

[ファイル登録時のストリーミング情報の生成処理]
以下に、本実施形態のネットワークカメラにおいてファイルの登録時に行われるストリーミング情報の生成処理の手順を、図24のフローチャートを用いて説明する。
[Streaming information generation process during file registration]
Hereinafter, the procedure of the streaming information generation process performed at the time of file registration in the network camera of this embodiment will be described with reference to the flowchart of FIG.

まず、ステップS1401で、ネットワークカメラ1301はファイル作成端末1303からアップロードされたMP4ファイルをネットワークI/F114から受け取り、外部記憶I/F112を介して外部記憶112に保存する。なお、この処理はストリーミング配信処理と連動して行われる必要はないため、ストリーミングコントローラ113によってではなく、システムコントローラ115やその他の図示されない制御モジュールによって行われてもよい。ただしその場合、後続の処理をストリーミングコントローラ113で実行するため、ステップS1401の処理を実行したモジュールはストリーミングコントローラ113に対して、ファイルが登録されたことを何らかの手段で通知する必要がある。   First, in step S1401, the network camera 1301 receives the MP4 file uploaded from the file creation terminal 1303 from the network I / F 114, and stores it in the external storage 112 via the external storage I / F 112. Note that this process need not be performed in conjunction with the streaming distribution process, and therefore may be performed not by the streaming controller 113 but by the system controller 115 or other control module (not shown). However, in this case, since the subsequent processing is executed by the streaming controller 113, the module that executed the processing of step S1401 needs to notify the streaming controller 113 that the file has been registered by some means.

次に、ストリーミングコントローラ113は、ステップS1401で登録されたMP4ファイルの内容を外部記憶112から取得し、ステップS1403で取得したMP4ファイルを解析し、ステップS1404でMP4ファイルのストリーミング情報を生成する。なお、これらステップS1402からステップS1404の処理は、図4のステップS201からS203の処理と同じである。   Next, the streaming controller 113 acquires the contents of the MP4 file registered in step S1401 from the external storage 112, analyzes the MP4 file acquired in step S1403, and generates streaming information of the MP4 file in step S1404. Note that the processing from step S1402 to step S1404 is the same as the processing from step S201 to step S203 in FIG.

そして、ステップS1405において、ストリーミングコントローラ113は、生成されたストリーミング情報をファイルとして出力する。このファイルは、第3実施形態で説明したように、処理対象のMP4ファイルに対する配信要求が発生した時にストリーミング配信制御に用いられる。なお、ステップS1405の処理は、図18におけるステップS1105の処理と同じであるためここでの説明は省略する。   In step S1405, the streaming controller 113 outputs the generated streaming information as a file. As described in the third embodiment, this file is used for streaming distribution control when a distribution request for an MP4 file to be processed occurs. Note that the processing in step S1405 is the same as the processing in step S1105 in FIG.

このように第5実施形態で示されるネットワークカメラでは、あらかじめストリーミング用に作成されていないMP4ファイルでも、ストリーミング用の制御情報をMP4ファイルに付加するといった追加の作業を行うことなくストリーミングを行える。その際、アップロードされるMP4ファイルのデータ量も小さくて済むため、アップロードにかかる負荷や時間を圧縮することが出来る。   As described above, with the network camera shown in the fifth embodiment, even an MP4 file that has not been created for streaming in advance can be streamed without additional work such as adding control information for streaming to the MP4 file. At that time, since the data amount of the uploaded MP4 file can be small, the load and time required for the upload can be reduced.

<第6実施形態>
図25は、第6実施形態による、マルチメディアコンテンツのストリーミング配機能を提供するストリーミングサーバの構成を示すブロック図である。本実施形態のストリーミングサーバは、接続されている外部装置からMP4ファイルを取得し、ネットワークを介してストリーミング配信する機能を備える。
<Sixth Embodiment>
FIG. 25 is a block diagram showing a configuration of a streaming server that provides a streaming distribution function of multimedia contents according to the sixth embodiment. The streaming server of the present embodiment has a function of acquiring an MP4 file from a connected external device and performing streaming distribution over a network.

図25において、ストリーミングサーバ1501は、第1実施形態のネットワークカメラと同様に、ストリーミングコントローラ113、ネットワークI/F114、システムコントローラ115、システムROM116、システムRAM117を備える。また、各構成部は内部バス118によって接続されており、各部の処理はシステムコントローラ115によって制御される。また、ストリーミングサーバ1501は接続されている外部装置とのデータ入出力機能を提供する外部バスI/F1502を備える。本実施形態では、外部装置としてUSBマスストレージクラスに対応しているデジタルビデオカメラ1503が接続されているものと想定する。   In FIG. 25, the streaming server 1501 includes a streaming controller 113, a network I / F 114, a system controller 115, a system ROM 116, and a system RAM 117, similarly to the network camera of the first embodiment. In addition, each component is connected by an internal bus 118, and processing of each unit is controlled by the system controller 115. In addition, the streaming server 1501 includes an external bus I / F 1502 that provides a data input / output function with a connected external device. In this embodiment, it is assumed that a digital video camera 1503 compatible with the USB mass storage class is connected as an external device.

ストリーミングコントローラ113は、外部バスI/F1502を介してデジタルビデオカメラ1503から配信対象のMP4ファイルを取得し、第1実施形態と同様に、多重化分離して得られた符号化データからRTPパケットを生成し、ネットワークI/F114を介して配信先端末にRTPでストリーミング配信を行う。   The streaming controller 113 acquires the MP4 file to be distributed from the digital video camera 1503 via the external bus I / F 1502, and, as in the first embodiment, converts the RTP packet from the encoded data obtained by demultiplexing. Generate and perform streaming delivery by RTP to the delivery destination terminal via the network I / F 114.

なお、以上のようなMP4ファイルを外部装置(ストリーミングサーバ1501)に蓄積する機器構成であっても、上記の第1実施形態から第5実施形態において説明した処理手順をそのまま当該外部装置に適用することができる。   Note that the processing procedure described in the first to fifth embodiments is applied to the external device as it is even in the device configuration in which the MP4 file as described above is stored in the external device (streaming server 1501). be able to.

<第7実施形態>
図26は、第7実施形態によるストリーミングサーバの構成を示すブロック図である。本実施形態のストリーミングサーバ1601は、接続されている撮像装置から送信されたビデオデータおよびオーディオデータを多重化してMP4ファイルとして記録する機能と、記録されたMP4ファイルをネットワークを介してストリーミング配信する機能とを備える。
<Seventh embodiment>
FIG. 26 is a block diagram showing a configuration of a streaming server according to the seventh embodiment. The streaming server 1601 of the present embodiment has a function of multiplexing video data and audio data transmitted from a connected imaging device and recording them as an MP4 file, and a function of streaming the recorded MP4 file via a network. With.

ストリーミングサーバ1601は、第6実施形態のストリーミングサーバ1501の構成に加え、さらに第1実施形態のネットワークカメラで示されたものと同様のファイル多重化コントローラ108、外部記憶I/F111、外部記憶112を備えるものとする。また、本実施形態では、撮像装置としてUSBビデオクラスに対応しているデジタルビデオカメラ1602が接続され、撮影されたビデオ、オーディオデータはMPEG-4符号化され、USBでアイソクロナス伝送されるものと想定する。   In addition to the configuration of the streaming server 1501 of the sixth embodiment, the streaming server 1601 further includes a file multiplexing controller 108, an external storage I / F 111, and an external storage 112 similar to those shown in the network camera of the first embodiment. Shall be provided. Also, in this embodiment, it is assumed that a digital video camera 1602 that supports the USB video class is connected as an imaging device, and the video and audio data shot are MPEG-4 encoded and transmitted isochronously via USB. To do.

ストリーミングサーバ1601に、デジタルビデオカメラ1602で撮影されたビデオおよびオーディオの符号化データが外部バスI/F1502を介して入力されると、ファイル多重化コントローラ108は第1実施形態のネットワークカメラと同様に、符号化データをMP4ファイル形式に多重化し、外部記憶I/F111を介して、MP4ファイルを外部記憶112に出力する。   When encoded data of video and audio captured by the digital video camera 1602 is input to the streaming server 1601 via the external bus I / F 1502, the file multiplexing controller 108 is similar to the network camera of the first embodiment. The encoded data is multiplexed into the MP4 file format, and the MP4 file is output to the external storage 112 via the external storage I / F 111.

さらに、ストリーミングコントローラ113では、第1実施形態と同様に、外部記憶I/F111からMP4ファイルを取得、多重化分離してRTPパケットを生成し、ネットワークI/F114を介して配信先端末にRTPでストリーミング配信する。   Furthermore, in the streaming controller 113, as in the first embodiment, the MP4 file is acquired from the external storage I / F 111, demultiplexed to generate an RTP packet, and is sent to the distribution destination terminal via the network I / F 114 by RTP. Stream it.

以上のように、撮影機能を持たない機器構成(ストリーミングサーバ1601)であっても、第1実施形態から第5実施形態において説明した処理手順は、そのまま同じように適用することができる。   As described above, the processing procedure described in the first to fifth embodiments can be applied in the same manner as it is even in a device configuration (streaming server 1601) that does not have a shooting function.

<他の実施形態>
本発明で生成される情報は、任意の通信手段(装置間プロトコル)およびデータフォーマットに適合する形式に加工することで、ネットワークなどの伝送路を介した他の機器に対しても本実施形態による出力を提供することが可能である。すなわち、本発明は、複数の機器から構成されるシステムに適用しても、単一の機器からなる装置に適用してもよい。
<Other embodiments>
The information generated by the present invention is processed into a format compatible with an arbitrary communication means (inter-device protocol) and data format, so that the present embodiment also applies to other devices via a transmission line such as a network. It is possible to provide an output. In other words, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Another object of the present invention is to supply a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and the computer (or CPU or CPU) of the system or apparatus. Needless to say, this can also be achieved by the MPU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.

以上説明したように、上記各実施形態によれば、コンテンツ作成者はストリーミングを行うか行わないかによって関わらず単一のファイルのみを扱えばよくなるため、ファイルの管理を簡略化することが出来る。また、ストリーミング情報をファイルに付与するための追加作業が不要になるため、コンテンツ作成者の作業負荷を軽減できる。また、冗長なデータが付加されなくなるため、ストリーミングサーバへのアップロードに要する時間を短縮する事が出来る。さらに、例えば、IOD、OD、BIFSデータを含まないファイルでも、ISMA仕様により規定されている形式で配信することが可能になり、互換性を保つことが出来る。   As described above, according to each of the above-described embodiments, the content creator only needs to handle a single file regardless of whether or not streaming is performed, so that file management can be simplified. Further, since the additional work for adding the streaming information to the file is not necessary, the work load of the content creator can be reduced. Also, since redundant data is not added, the time required for uploading to the streaming server can be shortened. Furthermore, for example, even files that do not contain IOD, OD, and BIFS data can be distributed in a format defined by the ISMA specification, and compatibility can be maintained.

MPEG-4におけるオブジェクトディスクリプタ情報を用いたメディアデータの関連定義を説明する図である。It is a figure explaining the relevant definition of the media data using the object descriptor information in MPEG-4. ISMA仕様におけるストリーミング処理の手順を説明する図である。It is a figure explaining the procedure of the streaming process in ISMA specification. 第1実施形態による処理を実現するネットワークカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the network camera which implement | achieves the process by 1st Embodiment. 第1実施形態における、MP4ファイルの配信処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the delivery process of MP4 file in 1st Embodiment. 第1実施形態によるストリーミング情報生成処理を説明するフローチャートである。It is a flowchart explaining the streaming information generation process by 1st Embodiment. SDP形式で記述された映像・音声データストリームの情報の例を示す図である。It is a figure which shows the example of the information of the video / audio data stream described in the SDP format. RFC3016で規定されるパケットの各項目のレイアウトを示す図である。It is a figure which shows the layout of each item of the packet prescribed | regulated by RFC3016. イーサネット(登録商標)におけるデータ伝送単位のレイアウトを示す図である。It is a figure which shows the layout of the data transmission unit in Ethernet (trademark). SDP形式で記述されたRTSPセッション記述情報の例を示す図である。It is a figure which shows the example of the RTSP session description information described in the SDP format. MP4ファイルにおけるメディアデータの関連定義を説明する図である。It is a figure explaining the related definition of the media data in an MP4 file. MP4ファイルに格納される形式のIODデータ変換処理手順を示すフローチャートである。It is a flowchart which shows the IOD data conversion processing procedure of the format stored in an MP4 file. IODデータ変換処理を説明する図である。It is a figure explaining an IOD data conversion process. MP4ファイルに格納される形式のODデータ変換処理手順を示すフローチャートである。It is a flowchart which shows the OD data conversion processing procedure of the format stored in an MP4 file. IODデータ変換処理を説明する図である。It is a figure explaining an IOD data conversion process. IODデータのISMA形式への変換処理を説明する図である。It is a figure explaining the conversion process to the ISMA format of IOD data. IODデータのISMA形式への変換処理手順を示すフローチャートである。It is a flowchart which shows the conversion processing procedure to the ISMA format of IOD data. デフォルトIOD生成処理手順を示すフローチャートである。It is a flowchart which shows a default IOD production | generation processing procedure. 第3実施形態の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of 3rd Embodiment. ストリーミング情報ファイルの構成例を示す図である。It is a figure which shows the structural example of a streaming information file. ストリーミング情報出力処理手順を示すフローチャートである。It is a flowchart which shows a streaming information output processing procedure. RTSPのファイル要求を例を示す図である。It is a figure which shows an example of the file request of RTSP. ストリーミング情報生成動作の設定に用いられる設定情報の例を示す図である。It is a figure which shows the example of the setting information used for the setting of streaming information production | generation operation | movement. 典型的なコンテンツ配信システムの概略構成を示す図である。It is a figure which shows schematic structure of a typical content delivery system. 第5実施形態の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of 5th Embodiment. 第6実施形態による処理を実現するストリーミングサーバの構成を示すブロック図であるIt is a block diagram which shows the structure of the streaming server which implement | achieves the process by 6th Embodiment. 第7実施形態による処理を実現するストリーミングサーバの構成を示すブロック図であるIt is a block diagram which shows the structure of the streaming server which implement | achieves the process by 7th Embodiment.

Claims (13)

コンテンツデータの処理方法であって、
配信対象のコンテンツデータの構造を解析する解析工程と、
前記解析工程の解析結果より前記コンテンツデータに配信制御のための記述が含まれていないと判断された場合に、該解析工程の解析結果に基づいて配信制御情報を生成する生成工程と、
前記生成工程で生成された配信制御情報に基づいて前記コンテンツデータをネットワークに配信する配信工程とを備えることを特徴とするデータ処理方法。
A method of processing content data,
An analysis process for analyzing the structure of the content data to be distributed;
A generation step of generating distribution control information based on the analysis result of the analysis step when it is determined from the analysis result of the analysis step that the description for distribution control is not included in the content data;
A data processing method comprising: a distribution step of distributing the content data to a network based on the distribution control information generated in the generation step.
前記配信制御情報は、通信先とのセッションを確立するための情報を含み、
前記配信工程は、前記生成工程で生成された配信制御情報に基づいて前記通信先とのセッションを確立し、前記コンテンツデータを前記ネットワークを介して前記通信先に配信することを特徴とする請求項1に記載のデータ処理方法。
The delivery control information includes information for establishing a session with a communication destination,
The distribution step includes establishing a session with the communication destination based on the distribution control information generated in the generation step, and distributing the content data to the communication destination via the network. The data processing method according to 1.
前記生成工程は、前記解析結果に基づいて、前記コンテンツデータが有するオブジェクトに関する記述を前記配信工程における配信プロトコルに適応した記述に変換することを含むことを特徴とする請求項1又は2に記載のデータ処理方法。   3. The method according to claim 1, wherein the generation step includes converting a description related to an object included in the content data into a description adapted to a distribution protocol in the distribution step based on the analysis result. Data processing method. 前記生成工程は、前記配信プロトコルに対応した記述が前記コンテンツデータに存在しない場合、予め用意したデフォルトの記述を前記解析結果に基づいて修正することにより該配信プロトコルに適応した記述を取得することを特徴とする請求項3に記載のデータ処理方法。   In the generation step, when a description corresponding to the distribution protocol does not exist in the content data, a description adapted to the distribution protocol is obtained by correcting a default description prepared in advance based on the analysis result. The data processing method according to claim 3, wherein: 前記生成工程は、前記マルチメディアコンテンツデータの送信が要求され、配信を行う時点で前記配信制御情報を生成することを特徴とする請求項1乃至4のいずれかに記載のデータ配信方法。   5. The data distribution method according to claim 1, wherein the generation step generates the distribution control information when transmission of the multimedia content data is requested and distribution is performed. 前記マルチメディアコンテンツに対して予め前記生成工程を実行し、生成された配信制御情報を当該マルチメディアコンテンツとの関連を特定可能な形態でメモリに保存する保持工程を更に備え、
前記配信工程は、前記マルチメディアコンテンツの配信の指示に応じて、関連する配信制御情報を前記メモリより読み出し、読み出した配信制御情報に基づいて該マルチメディアコンテンツの配信を行うことを特徴とする請求項1乃至4のいずれかに記載のデータ処理方法。
Further comprising a holding step of executing the generation step for the multimedia content in advance, and storing the generated distribution control information in a memory in a form capable of specifying the association with the multimedia content;
The distribution step reads out related distribution control information from the memory in accordance with an instruction to distribute the multimedia content, and distributes the multimedia content based on the read distribution control information. Item 5. A data processing method according to any one of Items 1 to 4.
前記生成工程は、設定情報に基づいて前記配信制御情報の生成動作を変更することを特徴とする請求項1乃至6のいずれかに記載のデータ配信方法。   The data distribution method according to claim 1, wherein the generation step changes a generation operation of the distribution control information based on setting information. 前記配信工程は、前記配信制御情報の内容に基づいてパケットを生成子、これを配信することを特徴とする請求項1乃至7のいずれかに記載のデータ配信方法。   8. The data distribution method according to claim 1, wherein the distribution step generates a packet based on the content of the distribution control information and distributes the packet. コンテンツデータをメモリに格納する格納手段と、
前記メモリに格納されたコンテンツデータのうち、配信対象のコンテンツデータの構造を解析する解析手段と、
前記解析手段の解析結果により前記コンテンツデータに配信制御のための記述が含まれていないと判断された場合に、該解析手段の解析結果に基づいて配信制御情報を生成する生成手段と、
前記生成手段で生成された配信制御情報に基づいて前記コンテンツデータをネットワークに配信する配信手段とを備えることを特徴とする情報処理装置。
Storage means for storing content data in memory;
Analysis means for analyzing the structure of content data to be distributed among the content data stored in the memory;
Generating means for generating distribution control information based on the analysis result of the analysis means when it is determined by the analysis result of the analysis means that the description for distribution control is not included in the content data;
An information processing apparatus comprising: distribution means for distributing the content data to a network based on the distribution control information generated by the generation means.
録画手段及び/又は録音手段により得られた画像データ及び/又は音声データを取得する取得手段を更に備え、
前記格納手段は前記取得手段で得られた画像データ及び/又は音声データをコンテンツデータとしてメモリに格納することを特徴とする請求項9に記載の情報処理装置。
And further comprising an acquisition means for acquiring image data and / or audio data obtained by the recording means and / or the recording means,
The information processing apparatus according to claim 9, wherein the storage unit stores image data and / or audio data obtained by the acquisition unit in a memory as content data.
外部装置より画像データ及び/又は音声データを入力するためのインターフェースを更に備え、
前記格納手段は、前記インターフェースを介して入力されたデータをコンテンツデータとしてメモリに格納することを特徴とする請求項9に記載の情報処理装置。
An interface for inputting image data and / or audio data from an external device;
The information processing apparatus according to claim 9, wherein the storage unit stores data input through the interface as content data in a memory.
請求項1乃至8のいずれかに記載のデータ処理方法をコンピュータによって実行させるための制御プログラム。   A control program for causing a computer to execute the data processing method according to claim 1. 請求項1乃至8のいずれかに記載のデータ処理方法をコンピュータによって実行させるための制御プログラムを格納した記憶媒体。   A storage medium storing a control program for causing a computer to execute the data processing method according to claim 1.
JP2004321444A 2003-11-14 2004-11-05 Data distribution method and information processing apparatus Expired - Fee Related JP4756848B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004321444A JP4756848B2 (en) 2004-11-05 2004-11-05 Data distribution method and information processing apparatus
US10/986,108 US7555009B2 (en) 2003-11-14 2004-11-12 Data processing method and apparatus, and data distribution method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004321444A JP4756848B2 (en) 2004-11-05 2004-11-05 Data distribution method and information processing apparatus

Publications (3)

Publication Number Publication Date
JP2006135569A true JP2006135569A (en) 2006-05-25
JP2006135569A5 JP2006135569A5 (en) 2007-12-20
JP4756848B2 JP4756848B2 (en) 2011-08-24

Family

ID=36728723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004321444A Expired - Fee Related JP4756848B2 (en) 2003-11-14 2004-11-05 Data distribution method and information processing apparatus

Country Status (1)

Country Link
JP (1) JP4756848B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008066898A (en) * 2006-09-05 2008-03-21 Sony Corp Transmitter and receiver
JP2012133472A (en) * 2010-12-20 2012-07-12 Nec Corp Data transfer method and program for remote connection screen
JPWO2016151798A1 (en) * 2015-03-25 2017-09-07 三菱電機株式会社 Communication system, facility management apparatus, communication method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001197120A (en) * 2000-07-17 2001-07-19 Apple Computer Inc Method and device for transmitting media data
JP2003230117A (en) * 2002-01-31 2003-08-15 Nec Commun Syst Ltd Transmission system, transmission device, transmission scheme and transmission method for dynamic image data
JP2004112425A (en) * 2002-09-19 2004-04-08 Sony Corp Conversion apparatus and conversion method, program, and data structure
JP2004312713A (en) * 2003-03-25 2004-11-04 Matsushita Electric Ind Co Ltd Data transmitting apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001197120A (en) * 2000-07-17 2001-07-19 Apple Computer Inc Method and device for transmitting media data
JP2003230117A (en) * 2002-01-31 2003-08-15 Nec Commun Syst Ltd Transmission system, transmission device, transmission scheme and transmission method for dynamic image data
JP2004112425A (en) * 2002-09-19 2004-04-08 Sony Corp Conversion apparatus and conversion method, program, and data structure
JP2004312713A (en) * 2003-03-25 2004-11-04 Matsushita Electric Ind Co Ltd Data transmitting apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008066898A (en) * 2006-09-05 2008-03-21 Sony Corp Transmitter and receiver
JP2012133472A (en) * 2010-12-20 2012-07-12 Nec Corp Data transfer method and program for remote connection screen
JPWO2016151798A1 (en) * 2015-03-25 2017-09-07 三菱電機株式会社 Communication system, facility management apparatus, communication method, and program

Also Published As

Publication number Publication date
JP4756848B2 (en) 2011-08-24

Similar Documents

Publication Publication Date Title
CN110431850B (en) Signaling important video information in network video streaming using MIME type parameters
TWI729997B (en) Transporting coded audio data
CN110447234B (en) Method, apparatus and storage medium for processing media data and generating bit stream
RU2492585C2 (en) Method and apparatus for track and track subset grouping
JP6285608B2 (en) Error handling for files exchanged over the network
CN110870282B (en) Processing media data using file tracks of web content
US20050160177A1 (en) Storage medium storing multimedia data, and method and apparatus for reproducing multimedia data
CN110832872B (en) Processing media data using generic descriptors for file format boxes
TWI458334B (en) Media extractor tracks for file format track selection
US7555009B2 (en) Data processing method and apparatus, and data distribution method and information processing apparatus
US20050193138A1 (en) Storage medium storing multimedia data, and method and apparatus for reproducing the multimedia data
TW202032998A (en) Multiple decoder interface for streamed media data
US20120233345A1 (en) Method and apparatus for adaptive streaming
JP2005504480A (en) Streaming multimedia files including metadata and media data
CN110870323B (en) Processing media data using omnidirectional media format
JP4756848B2 (en) Data distribution method and information processing apparatus
CN110832878B (en) Enhanced region-oriented encapsulation and view-independent high-efficiency video coding media profile
JP2008187500A (en) Data transmission apparatus, and data transmission method
KR20120058373A (en) Video transmission and device playing system based on http streaming using svc server

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071102

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20071102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101112

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110520

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110531

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees