JP2000278643A - Data conversion device - Google Patents

Data conversion device

Info

Publication number
JP2000278643A
JP2000278643A JP8490299A JP8490299A JP2000278643A JP 2000278643 A JP2000278643 A JP 2000278643A JP 8490299 A JP8490299 A JP 8490299A JP 8490299 A JP8490299 A JP 8490299A JP 2000278643 A JP2000278643 A JP 2000278643A
Authority
JP
Japan
Prior art keywords
video
information
picture
video information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8490299A
Other languages
Japanese (ja)
Inventor
Takahide Taniguchi
▲隆▼英 谷口
Mitsuaki Nakamura
三津明 中村
Hiroyuki Akagi
宏之 赤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP8490299A priority Critical patent/JP2000278643A/en
Publication of JP2000278643A publication Critical patent/JP2000278643A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate intermittent video sound without decoding and encoding again encoded video information by separating first video information and encoded non-video information and converting encoded first video information into encoded second video information. SOLUTION: A separation part 22 receives MPEG video sound information from an encoded video sound input part 20 and separates it into encoded video information and encoded non-video information. The separation processing is executed in the form of digital data without decoding it. Separated video information is outputted to a video conversion part 24 and non-video information is outputted to a connection part 26. The separation part 22 outputs information showing by what kind of relation video information and non-video information constitute MPEG video sound information to the video conversion part 24 as connection information. The video conversion part 24 receives encoded video information from the separation part 22 and converts received video information into different video information.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ディジタル圧縮符
号化された映像音声データを、映像は間欠的に、音声は
連続的に記録し、再生する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for recording and reproducing digitally compressed and encoded video and audio data intermittently for video and audio continuously.

【0002】[0002]

【従来の技術】近年、衛星ディジタル放送、DVDな
ど、映像がディジタルデータの形態で配信される機会が
増えている。将来的には地上波でのディジタル放送も計
画されており、映像のディジタルデータ化に一層拍車が
かかることは容易に予想される。よって、今後、ディジ
タル化された映像情報が多くの映像関連分野で使用され
るようになると考えられる。
2. Description of the Related Art In recent years, there has been an increasing number of occasions in which images such as satellite digital broadcasts and DVDs are distributed in the form of digital data. In the future, terrestrial digital broadcasting is also planned, and it is easily expected that digitalization of video will be further spurred. Therefore, it is considered that digitized video information will be used in many video-related fields in the future.

【0003】ディジタル化映像情報を取り扱うための処
理、例えばノンリニア映像編集や映像検索といった比較
的負荷の大きい処理は、今までは高価な編集機器を有す
る映像業界のプロだけが行うことのできる処理であっ
た。しかし、近年、大量のデータを高速に処理できる高
性能パソコン等が普及したことにより、一般の個人が取
り扱うことのできる情報量が飛躍的に増大した。その結
果、上述した負荷の大きい処理は、個人が家庭で行うこ
とのできる範疇の処理になってきている。一般の個人が
音声情報を含む大量の映像情報を受け取り、蓄積し、編
集して利用するという生活スタイルが定着するのはもは
や時間の問題であろう。
[0003] Processing for handling digitized video information, for example, processing with a relatively large load such as non-linear video editing and video search, is processing that can be performed only by professionals in the video industry having expensive editing equipment. there were. However, in recent years, with the spread of high-performance personal computers and the like capable of processing large amounts of data at high speed, the amount of information that can be handled by ordinary individuals has increased dramatically. As a result, the processing with a large load described above is becoming a category of processing that can be performed by an individual at home. It will only be a matter of time before the lifestyle in which ordinary individuals receive, store, edit and use a large amount of video information including audio information is established.

【0004】ところが、情報収集に費やすことのできる
個人の時間は往々にして限られており、その時間内に処
理しうる情報量も限られるので、大量に送られてくる情
報を有効に活用できないおそれが生じる。したがって、
個人にとって重要な情報だけを効率的に利用できるよう
にする技術が必要である。
[0004] However, personal time that can be spent on information collection is often limited, and the amount of information that can be processed within that time is limited, so that a large amount of transmitted information cannot be used effectively. There is a fear. Therefore,
There is a need for technology that enables efficient use of only information important to individuals.

【0005】重要な情報だけを利用するにあたり、携帯
端末で映像情報あるいは音声情報を処理する際に問題と
なるのは、映像情報あるいは音声情報のデータサイズで
ある。携帯端末に映像情報あるいは音声情報をそのまま
記憶させるには容量的に無理が多くかつ無駄であること
が多い。
In using only important information, a problem in processing video information or audio information in a portable terminal is a data size of the video information or audio information. Storing video information or audio information in a portable terminal as it is is often too much and wasteful in terms of capacity.

【0006】したがって、情報を重要度に応じて自動的
に取捨選択し、どこででもすばやく参照することができ
るようにすることが有用であろう。特に近年は、モバイ
ル機器の普及により、携帯端末でも手軽に情報を参照す
ることが可能である。例えば、自宅のパソコンで映像情
報あるいは音声情報を蓄積し、重要な映像情報あるいは
音声情報を検索した後、携帯端末にコピーしておくこと
により、出先などで空いた時間内に手軽に情報を参照す
ることができる。
Therefore, it would be useful to automatically sort information according to its importance so that it can be referenced quickly anywhere. In particular, in recent years, with the spread of mobile devices, information can be easily referred to even on a mobile terminal. For example, by storing video or audio information on a personal computer at home, searching for important video or audio information, and then copying it to a mobile terminal, you can easily refer to the information when you are away from home, etc. can do.

【0007】映像情報の容量を携帯端末であっても十分
記憶できる容量にするため、連続した映像を、例えばコ
マ送り映像などのような、連続した映像を間引いた間欠
映像に変換することができる。間欠映像であってもユー
ザは十分情報を活用することができる。ユーザが必要と
している情報は、連続した映像情報のうちの代表的な映
像フレームだけ十分であることが多く、必ずしも連続映
像として提供される必要はないからである。したがっ
て、大量の映像情報を間引きするために効率的な間引き
処理手法が望まれている。
In order to make the capacity of video information enough to be stored even in a portable terminal, a continuous video can be converted into an intermittent video such as a frame-by-frame video, which is a thinned-out continuous video. . Even in the case of intermittent video, the user can sufficiently utilize information. This is because the information required by the user is often sufficient for a representative video frame in the continuous video information, and need not always be provided as a continuous video. Therefore, an efficient thinning processing method for thinning a large amount of video information is desired.

【0008】特開平8−98133号公報は、映像を間
欠的に、音声を連続的に記録することにより記憶領域を
効率的に使用するシステムを開示する。
Japanese Patent Laid-Open Publication No. Hei 8-98133 discloses a system that efficiently uses a storage area by recording video intermittently and audio continuously.

【0009】図9は、特開平8−98133号公報に開
示されたシステムのブロック図を示す。
FIG. 9 shows a block diagram of a system disclosed in Japanese Patent Application Laid-Open No. Hei 8-98133.

【0010】映像データ101は、映像データ記録部1
02とシーンチェンジ検出部103とに入力される。音
声データ104は、シーンチェンジ検出部103と音声
データ記録部105とに入力される。
The video data 101 is stored in the video data recording unit 1
02 and the scene change detection unit 103. The audio data 104 is input to the scene change detection unit 103 and the audio data recording unit 105.

【0011】シーンチェンジ検出部103は、画像メモ
リ121とデータ比較部122とを用いてシーンチェン
ジを検出する。シーンチェンジの検出は、映像データ1
01と音声データ104とを用いて行われる。シーンチ
ェンジを検出する際の映像データ101は、映像そのも
のを表すデータである。すなわち、映像データ101は
ディジタル符号化された映像データではなく、復号化さ
れた映像データである。シーンチェンジ検出部103の
データ比較部122は、シーンチェンジが検出されたこ
とを示す検出信号106を記録制御部107に出力す
る。
The scene change detecting section 103 detects a scene change using the image memory 121 and the data comparing section 122. The scene change is detected by the video data 1
01 and the audio data 104. The video data 101 at the time of detecting a scene change is data representing a video itself. That is, the video data 101 is not video data that has been digitally encoded but is video data that has been decoded. The data comparison unit 122 of the scene change detection unit 103 outputs a detection signal 106 indicating that a scene change has been detected to the recording control unit 107.

【0012】記録制御部107は、検出信号106に基
づいて映像データ記録信号108と再生タイミング情報
109とを出力する。映像データ記録信号108は、映
像データ記録部102を制御するための信号である。記
録制御部107は、再生タイミング情報109を制御情
報記録部112に入力する。制御情報記録部112は、
入力された再生タイミング情報109に対し半導体メモ
リ111に記録するために必要な信号処理を行った後、
再生タイミング情報109を半導体メモリ111に書き
込む。
The recording control unit 107 outputs a video data recording signal 108 and reproduction timing information 109 based on the detection signal 106. The video data recording signal 108 is a signal for controlling the video data recording unit 102. The recording control unit 107 inputs the reproduction timing information 109 to the control information recording unit 112. The control information recording unit 112
After performing signal processing necessary for recording the input reproduction timing information 109 in the semiconductor memory 111,
The reproduction timing information 109 is written in the semiconductor memory 111.

【0013】映像データ記録部102は、入力端からの
映像データ101または映像データ記録信号108に関
連するシーンチェンジ検出部103からの映像データ1
10に対して、半導体メモリ111への記録に必要な信
号処理を行う。映像データ記録部102は、信号処理さ
れた映像データ101または映像データ110を記録媒
体である半導体メモリ111に書き込む。
The video data recording section 102 receives the video data 101 from the input terminal or the video data 1 from the scene change detection section 103 related to the video data recording signal 108.
The signal processing required for recording on the semiconductor memory 111 is performed on the data 10. The video data recording unit 102 writes the signal-processed video data 101 or video data 110 in a semiconductor memory 111 that is a recording medium.

【0014】音声データ104は、音声データ記録部1
05において記録に必要な信号処理を受けて半導体メモ
リ111に書き込まれる。
The audio data 104 is stored in the audio data recording unit 1
At 05, the signal processing required for recording is performed and written into the semiconductor memory 111.

【0015】上述の特開平8−98133号公報は、音
声は連続して記録されるのに対して、映像は変化があっ
た場合のみ記録する技術である。間欠的に記録された映
像の間欠部は情報が存在しないため、半導体メモリが無
駄に使用されてしまう問題がある。上述のシステムで
は、この無駄をなくすため情報が存在しない部分を省略
し、映像データ間の隙間を詰めて記録するようにしてい
る。映像データ間の隙間を詰めて記録するためには、映
像と音声の同期を取る必要があるため、間欠映像と音声
を記録する際に映像と音声の同期情報もあわせて記録さ
れる。
The above-mentioned Japanese Patent Laid-Open Publication No. Hei 8-98133 is a technique in which audio is continuously recorded, while video is recorded only when there is a change. Since there is no information in the intermittent part of the intermittently recorded video, there is a problem that the semiconductor memory is wasted. In the above-mentioned system, in order to eliminate this waste, a portion where no information exists is omitted, and a gap between video data is recorded in a narrowed state. In order to close the gap between the video data and record, it is necessary to synchronize the video and the audio. Therefore, when the intermittent video and the audio are recorded, the synchronization information of the video and the audio is also recorded.

【0016】[0016]

【発明が解決しようとする課題】しかし、上記システム
が出力する間欠映像音声情報は独自のフォーマットであ
るため、ユーザの利用環境を制約することになり不都合
である。
However, since the intermittent video / audio information output by the above system has its own format, it restricts the user's use environment and is inconvenient.

【0017】さらに上記システムでは、シーンチェンジ
を検出するために、まずディジタル化された映像情報を
復号化しなければならない。この復号化は、全てのディ
ジタル情報に対して必要であるため、処理量が多い。
Further, in the above system, digitized video information must first be decoded in order to detect a scene change. Since this decoding is necessary for all digital information, the amount of processing is large.

【0018】加えてこの復号化プロセスにより、シーン
チェンジの検出に使用した映像を記憶装置に書き込む際
に画質劣化が生じる。
In addition, the decoding process causes image quality degradation when writing the video used for detecting a scene change to the storage device.

【0019】さらに、処理の最終段階では映像と音声を
再符号化する必要があり処理量が大きい。
Further, in the final stage of the processing, it is necessary to re-encode the video and the audio, and the processing amount is large.

【0020】本発明は上記課題を解決するためになされ
たものであって、MPEG規格で符号化された映像音声
情報のデータ構造を利用することにより、符号化された
映像音声情報を復号化および再符号化することなくMP
EG規格に準拠した間欠映像音声を作成することを目的
とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and uses the data structure of video and audio information encoded according to the MPEG standard to decode and decode the encoded video and audio information. MP without re-encoding
An object is to create intermittent video and audio that conforms to the EG standard.

【0021】[0021]

【課題を解決するための手段】本発明のデータ変換装置
は、映像を表す符号化された第1の映像情報と映像以外
の情報を表す符号化された非映像情報とを含む第1のデ
ータ列を入力する入力部と、前記符号化された第1の映
像情報と前記符号化された非映像情報とを復号化するこ
となく、前記第1のデータ列に含まれる前記符号化され
た第1の映像情報と前記符号化された非映像情報とを分
離する分離部と、分離された前記符号化された第1の映
像情報を符号化された第2の映像情報に変換する映像変
換部と、前記符号化された第2の映像情報と分離された
前記符号化された非映像情報とを結合することにより、
第2のデータ列を生成する結合部とを有するデータ変換
装置であって、これにより上記目的を達成することがで
きる。
According to the present invention, there is provided a data conversion apparatus comprising: first data which includes encoded first video information representing video and encoded non-video information representing information other than video; An input unit for inputting a sequence, and without decoding the encoded first video information and the encoded non-video information, the encoded first video information and the encoded first video information included in the first data sequence. 1 video information and the coded non-video information, and a video conversion unit that converts the separated coded first video information into coded second video information. And combining the encoded second video information with the separated encoded non-video information,
A data conversion device having a combining unit that generates a second data string, whereby the above object can be achieved.

【0022】前記符号化された第2の映像情報は、前記
映像を間引いた間欠映像を表してもよい。
[0022] The encoded second video information may represent an intermittent video obtained by thinning the video.

【0023】前記分離部は、分離された前記符号化され
た第1の映像情報と前記符号化された非映像情報との結
合に関する第1の結合情報を前記映像変換部に出力し、
前記映像変換部は、前記符号化された第1の映像情報か
ら前記符号化された第2の映像情報への変換にしたがっ
て、前記第1の結合情報から、前記符号化された第2の
映像情報と前記符号化された非映像情報との結合に関す
る第2の結合情報を生成し、前記結合部は、前記第2の
結合情報に基づいて前記符号化された第2の映像情報と
前記符号化された非映像情報とを結合することにより前
記第2のデータ列を生成してもよい。
The separating section outputs first combined information relating to combining the separated coded first video information and the coded non-video information to the video converting section;
The video converter is configured to convert the encoded second video information from the first combined information in accordance with the conversion from the encoded first video information to the encoded second video information. Generating second combination information relating to a combination of information and the encoded non-video information, wherein the coupling unit generates the second video information encoded based on the second combination information and the code The second data string may be generated by combining the converted non-video information.

【0024】前記符号化された非映像情報は、前記第1
のデータ列に含まれる前記符号化された第1の映像情報
の再生と前記符号化された非映像情報との再生を同期さ
せるための同期情報を含み、前記結合部は、前記同期情
報を前記符号化された第2のデータの同期情報として用
いてもよい。
[0024] The encoded non-video information includes the first
Including synchronization information for synchronizing the reproduction of the encoded first video information and the reproduction of the encoded non-video information included in the data sequence, and wherein the combining unit converts the synchronization information into It may be used as synchronization information of the encoded second data.

【0025】前記第1のデータ列はMPEG圧縮符号化
された第1のMPEGデータ列であり、前記第2のデー
タ列はMPEG圧縮符号化された第2のMPEGデータ
列であり、前記符号化された第1の映像情報は、所定の
数の第1のピクチャを含み、前記符号化された第2の映
像情報は、前記所定の数の第2のピクチャを含んでもよ
い。
The first data stream is a first MPEG data stream that has been MPEG-compressed and encoded, and the second data stream is a second MPEG data stream that has been MPEG-compressed and encoded. The encoded first video information may include a predetermined number of first pictures, and the encoded second video information may include the predetermined number of second pictures.

【0026】前記映像変換部は、前記所定の数の前記第
1のピクチャのうち、少なくとも1つのピクチャを除く
ピクチャをダミーピクチャに変換することによって、前
記少なくとも1つのピクチャと前記ダミーピクチャとか
ら前記所定の数の前記第2のピクチャを生成し、前記少
なくとも1つのピクチャは前記映像の一部を表す情報を
含むピクチャであり、前記ダミーピクチャは前記映像の
一部の表示を保持させるための情報を含むピクチャであ
ってもよい。
[0026] The video converter converts the at least one picture and the dummy picture out of the predetermined number of the first pictures excluding at least one picture into a dummy picture. Generating a predetermined number of the second pictures, wherein the at least one picture is a picture including information representing a part of the video, and the dummy picture is information for holding a display of a part of the video. May be included.

【0027】前記所定の数の第1のピクチャは、少なく
ともイントラピクチャと非イントラピクチャとを含み、
前記イントラピクチャと前記非イントラピクチャは所定
の順序で配置されており、前記少なくとも1つのピクチ
ャは、最初に配置されたイントラピクチャを含んでもよ
い。
[0027] The predetermined number of first pictures includes at least an intra picture and a non-intra picture,
The intra picture and the non-intra picture may be arranged in a predetermined order, and the at least one picture may include an intra picture arranged first.

【0028】前記第1のデータ列はMPEG圧縮符号化
された第1のMPEGデータ列であり、前記第2のデー
タ列はMPEG圧縮符号化された第2のMPEGデータ
列であり、前記符号化された第1の映像情報は、各々が
複数のピクチャを有する複数のGOPを含み、前記映像
変換部は、複数のGOPのうち第1のGOPの少なくと
も1つのピクチャを除くピクチャと、前記第1のGOP
を除く前記複数のGOPの各々に含まれる前記複数のピ
クチャをダミーピクチャに変換することによって、前記
第1のGOPの少なくとも1つのピクチャと前記ダミー
ピクチャとから単一のGOPを生成し、前記第1のGO
Pの前記少なくとも1つのピクチャは前記映像の一部を
表す情報を含むピクチャであり、前記ダミーピクチャは
前記映像の一部の表示を保持させるための情報を含むピ
クチャであり、前記複数のGOPに含まれる前記複数の
ピクチャの総数と、前記映像変換部によって生成された
前記単一のGOPに含まれるピクチャの総数は同じであ
ってもよい。
The first data sequence is a first MPEG data sequence that has been MPEG-compressed and coded, and the second data sequence is a second MPEG data sequence that has been MPEG-compressed and coded. The first video information includes a plurality of GOPs each having a plurality of pictures, and the video conversion unit includes a picture excluding at least one picture of a first GOP among the plurality of GOPs, GOP
Generating a single GOP from at least one picture of the first GOP and the dummy picture by converting the plurality of pictures included in each of the plurality of GOPs to a dummy picture, 1 GO
The at least one picture of P is a picture including information representing a part of the video, the dummy picture is a picture including information for holding a display of a part of the video, and the plurality of GOPs The total number of the plurality of pictures included may be the same as the total number of pictures included in the single GOP generated by the video conversion unit.

【0029】前記複数のGOPの各々は第1の所定の順
序で配置されており、前記複数のGOPの各々に含まれ
る前記複数のピクチャは、少なくともイントラピクチャ
と非イントラピクチャとを含み、前記イントラピクチャ
と前記非イントラピクチャは、第2の所定の順序で配置
されており、前記第1のGOPは、前記第1の所定の順
序で配置された前記複数のGOPのうち最初に配置され
たGOPであり、前記第1のGOPの少なくとも1つの
ピクチャは、前記第2の所定の順序で配置された前記第
1のGOPの前記複数のピクチャのうち最初に配置され
たイントラピクチャであってもよい。
[0029] Each of the plurality of GOPs is arranged in a first predetermined order, and the plurality of pictures included in each of the plurality of GOPs include at least an intra picture and a non-intra picture; The picture and the non-intra picture are arranged in a second predetermined order, and the first GOP is a first GOP among the plurality of GOPs arranged in the first predetermined order. And at least one picture of the first GOP may be an intra picture arranged first among the plurality of pictures of the first GOP arranged in the second predetermined order. .

【0030】前記符号化された第1の映像情報は、所定
の順序で配置され、各々が少なくともイントラピクチャ
を含む複数のGOPを含み、前記データ変換装置は、前
記符号化された第1の映像情報の所定の部分を復号化す
る部分復号部と、前記復号された前記所定の部分に基づ
いて、前記映像の特性が大きく変化する画像を表すイベ
ントを検出するイベント検出部とをさらに含み、前記映
像変換部は、前記イベントに対応するピクチャに基づい
て少なくとも1つのピクチャを選択し、前記所定の数の
前記第2のピクチャを生成してもよい。
[0030] The encoded first video information is arranged in a predetermined order, and includes a plurality of GOPs each including at least an intra picture. A partial decoding unit that decodes a predetermined portion of information, and further includes, based on the decoded predetermined portion, an event detection unit that detects an event representing an image in which characteristics of the video greatly change, The video converter may select at least one picture based on a picture corresponding to the event and generate the predetermined number of the second pictures.

【0031】前記少なくとも1つのピクチャは、前記イ
ベントに対応するピクチャを含むGOPの次に配置され
たGOPのイントラピクチャであってもよい。
[0031] The at least one picture may be an intra picture of a GOP arranged next to a GOP including a picture corresponding to the event.

【0032】前記少なくとも1つのピクチャは、前記イ
ベントに対応するピクチャの次のピクチャであってもよ
い。
[0032] The at least one picture may be a picture next to a picture corresponding to the event.

【0033】前記少なくとも1つのピクチャは、前記イ
ベントに対応するピクチャが再生されてから所定の時間
を経過した後に再生されるピクチャであってもよい。
[0033] The at least one picture may be a picture that is played after a predetermined time has elapsed since the picture corresponding to the event was played.

【0034】前記データ変換装置は、所定のパラメータ
に応じて、前記所定の順序で配置されているピクチャの
うちの任意のピクチャを、前記少なくとも1つのピクチ
ャとして利用してもよい。
[0034] The data conversion device may use an arbitrary picture among the pictures arranged in the predetermined order as the at least one picture according to a predetermined parameter.

【0035】前記符号化された非映像情報は、前記第1
の映像情報の情報量を示す第1のパケット長データを含
み、前記結合部は、前記第2の映像情報の情報量にした
がって前記第1のパケット長データを修正することによ
り、第2のパケット長データを生成し、前記非映像情報
として前記第2のデータ列に含めてもよい。
The coded non-video information includes the first
The first packet length data indicating the information amount of the second video information, and the combining unit modifies the first packet length data in accordance with the information amount of the second video information to thereby obtain a second packet length. Long data may be generated and included in the second data string as the non-video information.

【0036】以下、作用を説明する。The operation will be described below.

【0037】本発明の請求項1に係る発明によれば、符
号化された第1の映像情報と符号化された非映像情報と
を復号化することなく、第1のデータ列に含まれる符号
化された第1の映像情報と符号化された非映像情報とを
分離し、かつ、符号化された第1の映像情報を符号化さ
れた第2の映像情報に変換する。これにより、復号化に
よる画質劣化のない映像情報を得ることができる。さら
に、復号化に要する計算に必要な負荷を減少することが
できる。
According to the invention of claim 1 of the present invention, the encoded first video information and the encoded non-video information are not decoded and the code included in the first data string is not decoded. The encoded first video information is separated from the encoded non-video information, and the encoded first video information is converted into the encoded second video information. This makes it possible to obtain video information without image quality degradation due to decoding. Furthermore, the load required for the calculation required for decoding can be reduced.

【0038】本発明の請求項3に係る発明によれば、映
像変換部は、符号化された第1の映像情報から符号化さ
れた第2の映像情報への変換にしたがって、第1の結合
情報から、符号化された第2の映像情報と符号化された
非映像情報との結合に関する第2の結合情報を生成す
る。第2の結合情報を用いることにより、符号化された
第1の映像情報を符号化された第2の映像情報に変換し
ても、第2の映像情報と非映像情報とを結合することが
できる。
According to the invention according to claim 3 of the present invention, the video conversion unit performs the first combination according to the conversion from the encoded first video information to the encoded second video information. From the information, second combined information relating to a combination of the encoded second video information and the encoded non-video information is generated. By using the second combined information, it is possible to combine the second video information and the non-video information even if the encoded first video information is converted to the encoded second video information. it can.

【0039】本発明の請求項4に係る発明によれば、符
号化された第1の映像情報の再生と符号化された非映像
情報との再生を同期させるための同期情報を、符号化さ
れた第2のデータの同期情報として用いる。これによ
り、第1の映像情報を第2の映像情報に変換しても、同
一の同期情報を利用することができ、同期情報を新たに
生成する処理を行う必要がなくなる。
According to the invention of claim 4 of the present invention, the synchronization information for synchronizing the reproduction of the encoded first video information and the reproduction of the encoded non-video information is encoded. This is used as synchronization information for the second data. Thereby, even if the first video information is converted to the second video information, the same synchronization information can be used, and it is not necessary to perform a process of newly generating the synchronization information.

【0040】本発明の請求項5に係る発明によれば、M
PEG圧縮符号化されたデータ列の第1の映像情報およ
び第2の映像情報は、同数のピクチャを含む。これによ
り、第1の映像情報を第2の映像情報に変換しても、再
生時間が同じ映像情報を得ることができる。
According to the fifth aspect of the present invention, M
The first video information and the second video information of the PEG compression-encoded data string include the same number of pictures. Thus, even if the first video information is converted to the second video information, video information having the same reproduction time can be obtained.

【0041】本発明の請求項8に係る発明によれば、映
像変換部は、複数のGOPを含む第1の映像情報を単一
のGOPを含む第2の映像情報に変換する。これによ
り、第1の映像情報を第2の映像情報に変換しても、再
生時間が同じ映像情報を得ることができる。
According to the eighth aspect of the present invention, the video converter converts the first video information including a plurality of GOPs into the second video information including a single GOP. Thus, even if the first video information is converted to the second video information, video information having the same reproduction time can be obtained.

【0042】本発明の請求項15に係る発明によれば、
結合部は、第2の映像情報の情報量にしたがって第1の
映像情報の情報量を示す第1のパケット長データを修正
し、第2のパケット長データを生成する。生成された第
2のパケット長データは、非映像情報として第2のデー
タ列に含められる。これにより、第1の映像情報を第2
の映像情報に変換しても、第2の映像情報に基づいて生
成された第2のデータ列を適切に再生することができ
る。
According to the fifteenth aspect of the present invention,
The combining unit corrects the first packet length data indicating the information amount of the first video information according to the information amount of the second video information, and generates second packet length data. The generated second packet length data is included in the second data string as non-video information. As a result, the first video information is
, The second data string generated based on the second video information can be appropriately reproduced.

【0043】[0043]

【発明の実施の形態】本発明のデータ変換装置では、入
力される映像情報および/あるいは音声情報を含むデー
タ列は、例えばMPEG規格のデータ構造を有するディ
ジタルデータ列である。以下では、入力されるデータ列
はMPEG規格で符号化されたディジタルデータ列(以
下「MPEGデータ列」と呼ぶ)であるとして説明す
る。MPEGデータ列のうち、特に、MPEG符号化さ
れた映像音声情報をMPEG映像音声情報と呼ぶ。MP
EG映像音声情報は、例えば、衛星放送やDVDなどの
メディアによって配信される。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In a data converter according to the present invention, a data string containing video information and / or audio information to be inputted is a digital data string having a data structure of the MPEG standard, for example. In the following, description will be made assuming that the input data string is a digital data string encoded according to the MPEG standard (hereinafter, referred to as “MPEG data string”). In the MPEG data sequence, particularly, the MPEG-encoded video / audio information is referred to as MPEG video / audio information. MP
The EG video and audio information is distributed by media such as satellite broadcasting and DVD.

【0044】なお、言うまでもなく、以下で説明する方
法が適用できる場合にはMPEGデータ列に限られない
他のデジタル形式の圧縮データであってもよい。
Needless to say, if the method described below can be applied, compressed data in another digital format other than the MPEG data string may be used.

【0045】以下ではまず、本発明によるデータ変換装
置が扱うMPEGデータ列の構造を説明する。
First, the structure of an MPEG data string handled by the data converter according to the present invention will be described.

【0046】図1は、MPEGデータ列の一般的なデー
タ構造(データフォーマット)を示す。
FIG. 1 shows a general data structure (data format) of an MPEG data string.

【0047】MPEGデータ列は、データブロックであ
るパック11を複数個含む。パック11は、パックヘッ
ダ12とシステムヘッダ13と1以上のパケット14と
を含む。
The MPEG data string includes a plurality of packs 11 which are data blocks. The pack 11 includes a pack header 12, a system header 13, and one or more packets 14.

【0048】パックヘッダ12は、バッファを同期させ
るためのバッファ同期情報(図示せず)を含む。システ
ムヘッダ13は、各パックのシステム情報(図示せず)
を含む。パケット14は、パケットヘッダと呼ばれるパ
ケット開始コード15とパケットのデータ長を示すパケ
ット長16と同期情報17とパケットデータ18とを含
む。
The pack header 12 includes buffer synchronization information (not shown) for synchronizing buffers. The system header 13 includes system information (not shown) of each pack.
including. The packet 14 includes a packet start code 15 called a packet header, a packet length 16 indicating the data length of the packet, synchronization information 17, and packet data 18.

【0049】パケット開始コード15は32ビット幅を
持つデータブロックである。パケット開始コード15は
パケットの開始を示す情報であり、さらにその下位8ビ
ットを見ることによりそのパケットが映像パケットであ
るのか音声パケットであるのかを識別することができ
る。同期情報17は、再生時にそのパケットに含まれる
データと他のパケットのデータとの再生の同期を取らせ
るために用いられる情報である。パケットデータ18に
は実際の映像あるいは音声を表す情報の他に、そのパケ
ットデータ18の属性を示す属性情報等が含まれる。
The packet start code 15 is a data block having a 32-bit width. The packet start code 15 is information indicating the start of a packet, and by looking at the lower 8 bits, it is possible to identify whether the packet is a video packet or an audio packet. The synchronization information 17 is used for synchronizing the reproduction of the data included in the packet with the data of another packet during reproduction. The packet data 18 includes attribute information indicating the attribute of the packet data 18 in addition to the information indicating the actual video or audio.

【0050】以下では、映像情報とは、パケット開始コ
ード15で映像パケットであると識別されたパケット1
4のパケットデータ18のみに含まれる情報をいう。
Hereinafter, the video information is the packet 1 identified as a video packet by the packet start code 15.
4 refers to information included only in the packet data 18.

【0051】音声情報とは、パケット開始コード15で
音声パケットであると識別されたパケット14のパケッ
トデータ18のみに含まれる情報をいう。
The voice information is information included only in the packet data 18 of the packet 14 identified as a voice packet by the packet start code 15.

【0052】非映像情報とは、MPEG映像音声情報に
おける映像情報以外の情報、すなわちMPEG映像音声
情報におけるパックヘッダ12、システムヘッダ13、
パケット開始コード15、パケット長16、同期情報1
7および音声情報であると識別されたパケットのパケッ
トデータ18に含まれる情報をいう。
The non-video information is information other than the video information in the MPEG video / audio information, that is, the pack header 12, system header 13,
Packet start code 15, packet length 16, synchronization information 1
7 and information included in the packet data 18 of the packet identified as audio information.

【0053】(実施の形態1)以下、図面を参照しなが
ら本発明の第1の実施の形態におけるデータ変換装置を
説明する。
(Embodiment 1) Hereinafter, a data conversion apparatus according to a first embodiment of the present invention will be described with reference to the drawings.

【0054】1.本発明のデータ変換装置の動作の概要 本発明のデータ変換装置は、連続映像を表す入力された
MPEG映像情報のGOP(Group Of Pic
ture)構造を保持したまま、間欠映像情報に変換す
る装置である。ここでGOPとは、数フレームの符号化
されたピクチャ(映像の1画面あるいは1コマ)が複数
集められたデータの単位をいう。
1. Overview of Operation of Data Conversion Apparatus of the Present Invention The data conversion apparatus of the present invention provides a GOP (Group Of Pic) of input MPEG video information representing continuous video.
This is a device that converts the data into intermittent video information while maintaining the structure. Here, the GOP refers to a unit of data in which a plurality of coded pictures (one screen or one frame of video) of several frames are collected.

【0055】以下の説明で言及されるGOPは、GOP
ヘッダ、Iピクチャ、BピクチャおよびPピクチャを含
む(GOPの具体的データ構造は図5Bに例示され
る)。GOPヘッダには、GOPの属性やタイムコード
等が記録されている。Iピクチャはフレーム内符号化画
像を、Bピクチャは双方向予測符号化画像を、Pピクチ
ャはフレーム間順方向予測符号化画像を表す。なお、I
ピクチャはイントラピクチャ、PピクチャおよびBピク
チャは非イントラピクチャである。
A GOP referred to in the following description is a GOP.
It includes a header, an I picture, a B picture, and a P picture (a specific data structure of a GOP is illustrated in FIG. 5B). The GOP header records GOP attributes, time codes, and the like. An I picture represents an intra-frame coded image, a B picture represents a bidirectional predictive coded image, and a P picture represents an inter-frame forward predicted coded image. Note that I
The picture is an intra picture, and the P and B pictures are non-intra pictures.

【0056】データ変換装置は、GOPヘッダとGOP
の最初のIピクチャを除く他のピクチャをダミーPピク
チャに置換する。ダミーPピクチャは、前フレームから
の変化がないという情報、すなわち映像の一部を表すフ
レームの表示を保持させるための情報だけを含んだピク
チャである。ダミーPピクチャの再生時にはIピクチャ
で表された映像情報が保持されるので、静止画像として
表示される間欠映像情報を作成することができる。な
お、ダミーピクチャにはBピクチャを使うこともでき
る。ダミーBピクチャも、ダミーPピクチャと同様、前
フレームからの変化がないという情報、すなわち映像の
一部を表すフレームの表示を保持させるための情報だけ
を含んだピクチャである。したがって、Pピクチャをダ
ミーPピクチャで、BピクチャをダミーBピクチャで置
換してもよい。あるいは、GOPヘッダとGOPの最初
のIピクチャを除く他のピクチャをダミーBピクチャに
置換してもよい。
The data conversion device includes a GOP header and a GOP
Are replaced with dummy P pictures except for the first I picture. The dummy P picture is a picture including only information indicating that there is no change from the previous frame, that is, only information for holding display of a frame representing a part of a video. Since the video information represented by the I picture is retained when the dummy P picture is reproduced, the intermittent video information displayed as a still image can be created. Note that a B picture can also be used as a dummy picture. Like the dummy P picture, the dummy B picture is a picture including only information indicating that there is no change from the previous frame, that is, only information for holding the display of a frame representing a part of the video. Therefore, the P picture may be replaced with a dummy P picture, and the B picture may be replaced with a dummy B picture. Alternatively, other pictures than the GOP header and the first I picture of the GOP may be replaced with dummy B pictures.

【0057】2.本発明のデータ変換装置100(図2
A)の構成 図2Aは、映像変換処理を行うための本発明のデータ変
換装置100の構成を示す。
[0057] 2. The data converter 100 of the present invention (FIG. 2)
Diagram 2A of A) shows a configuration of a data conversion apparatus 100 of the present invention for performing an image conversion process.

【0058】データ変換装置100は、映像音声情報入
力部20と、分離部22と、映像変換部24と、結合部
26と、映像音声情報記録部28とを含む。
The data conversion device 100 includes a video / audio information input unit 20, a separation unit 22, a video conversion unit 24, a combining unit 26, and a video / audio information recording unit 28.

【0059】MPEG符号化された映像音声情報は、ま
ず映像音声情報入力部20に入力され、データ変換装置
100内部の記憶作業領域(図示せず)に読み込まれ
る。映像音声入力部20は読み込んだMPEG映像音声
情報を分離部22に出力する。
The MPEG-encoded video / audio information is first input to the video / audio information input unit 20, and is read into a storage work area (not shown) inside the data converter 100. The video / audio input unit 20 outputs the read MPEG video / audio information to the separation unit 22.

【0060】分離部22は、映像音声入力部20からM
PEG映像音声情報を受け取り、符号化された映像情報
と符号化された非映像情報とに分離する。後述のよう
に、MPEG規格のデータ構造を利用することにより、
MPEG映像音声情報から映像情報および非映像情報を
分離する処理は復号化することなくディジタルデータの
形態で行われる。分離された映像情報は映像変換部24
に、非映像情報は結合部26に出力される。さらに分離
部22は、映像情報と非映像情報とが互いにどのような
関係でMPEG映像音声情報を構成していたかを示す情
報を、結合情報として映像変換部24へ出力する。後述
するように、結合情報は例えば分離された映像情報およ
び非映像情報のそれぞれの情報量(データ長)等を格納
した情報である。
The separation unit 22 receives the M
The PEG video / audio information is received and separated into coded video information and coded non-video information. As described later, by using the data structure of the MPEG standard,
The process of separating video information and non-video information from MPEG video / audio information is performed in the form of digital data without decoding. The separated video information is supplied to the video conversion unit 24.
Then, the non-video information is output to the combining unit 26. Further, the separating unit 22 outputs to the video converting unit 24 information indicating how the video information and the non-video information form the MPEG video / audio information as combined information. As will be described later, the combined information is, for example, information that stores the information amount (data length) of each of the separated video information and non-video information.

【0061】映像変換部24は、分離部22から符号化
された映像情報を受け取り、受け取った符号化された映
像情報を、異なる別の映像情報に変換する。例えばこの
変換は、連続映像を表す映像情報からその連続映像を間
引くことによって得られる間欠映像を表す映像情報への
変換である。ここで間欠映像は連続映像(すなわち分離
された映像情報によって表される映像)を間引くことに
よって得られる映像であるため、間欠映像のデータ量は
連続映像のデータ量よりも小さい。映像変換部24は、
このデータ量の減少に応じて結合情報を修正する。映像
変換部24は、間欠映像情報および修正された結合情報
を結合部26に出力する。
The video conversion unit 24 receives the encoded video information from the separation unit 22, and converts the received encoded video information into different video information. For example, this conversion is conversion from video information representing a continuous video to video information representing an intermittent video obtained by thinning out the continuous video. Here, the intermittent video is a video obtained by thinning out a continuous video (that is, a video represented by separated video information), and thus the data amount of the intermittent video is smaller than the data amount of the continuous video. The video conversion unit 24
The combination information is corrected according to the decrease in the data amount. The video conversion unit 24 outputs the intermittent video information and the corrected combined information to the combining unit 26.

【0062】後述のようにMPEG規格のデータ構造を
利用することにより、連続映像情報から間欠映像情報へ
の変換を含む、ある映像情報から別の異なる映像情報へ
の変換は、復号化することなくディジタルデータの形態
で行われる。
By using the data structure of the MPEG standard as described later, conversion from one video information to another different video information, including conversion from continuous video information to intermittent video information, can be performed without decoding. Performed in the form of digital data.

【0063】結合部26は、映像変換部24から受け取
った間欠映像情報と、分離部22から受け取った非映像
情報とを結合する。結合に際して、結合部26は、映像
変換部24から受け取った結合情報を用い、間欠映像と
音声とを同期させた間欠映像音声情報を作成する。作成
された間欠映像音声情報は、映像音声記録部28に出力
される。
The combining unit 26 combines the intermittent video information received from the video conversion unit 24 and the non-video information received from the separation unit 22. At the time of combining, the combining unit 26 uses the combined information received from the video converting unit 24 to create intermittent video / audio information in which intermittent video and audio are synchronized. The created intermittent video / audio information is output to the video / audio recording unit 28.

【0064】映像音声記録部28は、結合部26から受
け取った間欠映像音声情報を、メモリあるいは携帯端末
(図示せず)等に書き込む。
The video / audio recording unit 28 writes the intermittent video / audio information received from the combining unit 26 into a memory or a portable terminal (not shown).

【0065】3.本発明のデータ変換装置100(図2
A)が行う映像変換処理 図2Bは、本発明のデータ変換装置が行う映像変換処理
の手順を示すフローチャートである。ここでいう映像変
換処理とは、連続映像を間引くことにより間欠映像を生
成する処理のことをいう。
[0065] 3. The data converter 100 of the present invention (FIG. 2)
Image conversion-2B which A) is carried out is a flowchart illustrating a procedure of image conversion processing in which the data conversion device of the present invention is performed. Here, the video conversion process refers to a process of generating an intermittent video by thinning out a continuous video.

【0066】データ変換装置100(図2A)は、映像
音声情報入力部20(図2A)を介してMPEG映像音
声情報を読み込むと(ステップ201)、分離部22
(図2A)は、読み込まれたMPEG映像音声情報を映
像情報と非映像情報とに分離する(ステップ202)。
上述のように、MPEG映像音声情報はMPEG符号化
されている。したがってMPEG映像音声情報に含まれ
る映像情報と非映像情報のいずれも符号化されている。
MPEG映像音声情報を映像情報と非映像情報とに分離
するステップは、符号化されたMPEG映像音声情報を
復号化することなく行われ得る。続いて映像変換部24
(図2A)は、分離した映像情報に対し変換処理を行う
ことによって元の映像情報とは異なる映像情報を生成す
る(ステップ203)。結合部22(図2A)は、生成
した元の映像情報とは異なる映像情報と分離した非映像
情報とを再び結合する(ステップ204)。上述した映
像情報の変換処理には、例えば連続映像を表す映像情報
を、その連続映像を間引くことによって得られる間欠映
像を表す映像情報に変換する処理が含まれる。本実施の
形態のデータ変換装置は、映像情報および非映像情報を
復号化することなく、これらの変換処理および結合処理
を行うことができる。このような分離処理、変換処理お
よび結合処理によって得られた映像音声情報を、映像音
声情報記録部28(図2A)がメモリ等の記憶媒体へ書
き込むと一連の映像変換処理が終了する。
When data converter 100 (FIG. 2A) reads MPEG video / audio information via video / audio information input unit 20 (FIG. 2A) (step 201), separation unit 22
(FIG. 2A) separates the read MPEG video / audio information into video information and non-video information (step 202).
As described above, MPEG video / audio information is MPEG-encoded. Therefore, both the video information and the non-video information included in the MPEG video / audio information are encoded.
The step of separating the MPEG video / audio information into video information and non-video information may be performed without decoding the encoded MPEG video / audio information. Subsequently, the video converter 24
(FIG. 2A) generates video information different from the original video information by performing a conversion process on the separated video information (step 203). The combining unit 22 (FIG. 2A) combines again the generated video information different from the original video information and the separated non-video information (Step 204). The above-described video information conversion process includes, for example, a process of converting video information representing a continuous video into video information representing an intermittent video obtained by thinning out the continuous video. The data conversion device according to the present embodiment can perform the conversion processing and the combination processing without decoding the video information and the non-video information. The video / audio information recording unit 28 (FIG. 2A) writes the video / audio information obtained by such separation processing, conversion processing, and combination processing into a storage medium such as a memory, and a series of video conversion processing ends.

【0067】本発明のデータ変換装置は映像情報および
非映像情報の復号化が必要ないので、画質劣化のない映
像情報を得ることができる。さらに、復号化に要する計
算に必要な負荷を減少することができる。
Since the data converter of the present invention does not need to decode video information and non-video information, it is possible to obtain video information without image quality deterioration. Furthermore, the load required for the calculation required for decoding can be reduced.

【0068】4.本発明のデータ変換装置100(図2
A)の各部の説明 以下では、本発明のデータ変換装置100(図2A)に
含まれる構成要素のうち、特に主要な分離部22(図2
A)、映像変換部24(図2A)および結合部26(図
2A)の動作をさらに詳しく説明する。
[0068] 4. The data converter 100 of the present invention (FIG. 2)
Description of each part of A) In the following, among the constituent elements included in the data conversion device 100 (FIG. 2A) of the present invention, particularly the main separation unit 22 (FIG.
A) The operations of the video conversion unit 24 (FIG. 2A) and the combining unit 26 (FIG. 2A) will be described in further detail.

【0069】4.1 分離部22(図2A)の動作 図3Aは、分離部22(図2A)がMPEG映像音声情
報を映像情報と非映像情報に分離する処理の手順を示す
フローチャートである。
4.1 Operation of Separation Unit 22 (FIG. 2A) FIG. 3A is a flowchart showing a procedure of a process in which the separation unit 22 (FIG. 2A) separates MPEG video / audio information into video information and non-video information.

【0070】分離部22(図2A)は、映像音声情報入
力部20(図2A)を介して入力されたMPEG映像音
声情報から、パックヘッダ12(図1)およびシステム
ヘッダ13(図1)を読み込む(ステップ301)。パ
ックヘッダ12(図1)およびシステムヘッダ13(図
1)は映像情報を含まない。したがって分離部22(図
2A)は、パックヘッダ12(図1)およびシステムヘ
ッダ13(図1)を非映像情報としてバッファあるいは
メモリに書き出し、蓄積する(ステップ302)。次に
分離部22(図2A)は、映像音声情報からパケットヘ
ッダ、すなわちパケット開始コード15(図1)、パケ
ット長16(図1)および同期情報17(図1)を読み
込む(ステップ303)。パケットヘッダも映像情報を
含まない。したがって分離部22(図2A)は、非映像
情報としてバッファに書き出し、蓄積する(ステップ3
04)。
The separation section 22 (FIG. 2A) converts the pack header 12 (FIG. 1) and the system header 13 (FIG. 1) from the MPEG video / audio information input via the video / audio information input section 20 (FIG. 2A). Read (step 301). The pack header 12 (FIG. 1) and the system header 13 (FIG. 1) do not include video information. Therefore, the separation unit 22 (FIG. 2A) writes the pack header 12 (FIG. 1) and the system header 13 (FIG. 1) as non-video information to a buffer or memory and accumulates them (Step 302). Next, the separation unit 22 (FIG. 2A) reads the packet header, that is, the packet start code 15 (FIG. 1), the packet length 16 (FIG. 1), and the synchronization information 17 (FIG. 1) from the video / audio information (step 303). The packet header also contains no video information. Therefore, the separation unit 22 (FIG. 2A) writes and stores the non-video information in the buffer (step 3).
04).

【0071】分離部22(図2A)は、上述のパケット
ヘッダに続き、パケットデータ18(図1)を読み込む
(ステップ305)。パケットヘッダのうち、パケット
開始コード15(図1)には続くパケットデータが映像
情報であるか音声情報であるかを示す情報が含まれてい
る。したがって分離部22(図2A)は、その情報を読
み取ることにより、後の処理が映像情報を対象とすべき
か否かを判断することができる(ステップ306)。パ
ケットヘッダに含まれている情報が、パケットデータ1
8(図1)には映像情報が含まれていることを示してい
る場合には、分離部22(図2A)は、そのパケットデ
ータを映像情報としてバッファに蓄積する(ステップ3
07)。その後分離部22(図2A)は、結合情報を作
成し、バッファに書き込む(ステップ308)。
The demultiplexer 22 (FIG. 2A) reads the packet data 18 (FIG. 1) following the above-described packet header (step 305). In the packet header, the packet start code 15 (FIG. 1) includes information indicating whether the subsequent packet data is video information or audio information. Therefore, by reading the information, the separation unit 22 (FIG. 2A) can determine whether or not subsequent processing should target video information (step 306). The information included in the packet header is packet data 1
8 (FIG. 1) indicates that video information is included, the separation unit 22 (FIG. 2A) stores the packet data as video information in the buffer (step 3).
07). After that, the separation unit 22 (FIG. 2A) creates the combination information and writes it to the buffer (Step 308).

【0072】バッファへの書き込みが終了すると、分離
部22(図2A)は、1つのパック11(図1)の映像
音声情報の終端まで処理を行ったかを判断し(ステップ
310)、さらにパック11(図1)が終端かを判断す
る(ステップ311)。処理すべき映像音声情報が残っ
ている場合には、分離部22(図2A)は、それぞれス
テップ303およびステップ301から上述した処理を
繰り返す。処理すべき映像音声情報が残っていない場合
には、処理を終了する。
When the writing to the buffer is completed, the separation unit 22 (FIG. 2A) determines whether the processing has been performed up to the end of the video / audio information of one pack 11 (FIG. 1) (step 310). It is determined whether (FIG. 1) is the end (step 311). If video / audio information to be processed remains, the separation unit 22 (FIG. 2A) repeats the above-described processing from step 303 and step 301, respectively. If there is no video / audio information to be processed, the process ends.

【0073】以上、分離部22(図2A)で行われる処
理の手順を説明した。
The procedure of the processing performed by the separation unit 22 (FIG. 2A) has been described above.

【0074】図3Bを参照して、分離部22(図2A)
が、MPEG映像音声情報すなわちMPEG映像音声情
報に含まれる映像情報と非映像情報とをどのように分離
するかを具体的に説明する。
Referring to FIG. 3B, separation section 22 (FIG. 2A)
Will be specifically described how MPEG video / audio information, that is, video information and non-video information included in the MPEG video / audio information are separated.

【0075】図3Bは、MPEG映像音声情報すなわち
MPEG映像音声情報が映像情報と非映像情報とに分離
される処理を示す。図3Bには、入力されたMPEG映
像音声情報32と、分離された映像情報30および非映
像情報34とが示されている。
FIG. 3B shows a process in which MPEG video / audio information, that is, MPEG video / audio information is separated into video information and non-video information. FIG. 3B shows the input MPEG video / audio information 32 and the separated video information 30 and non-video information 34.

【0076】MPEG映像音声情報32は、映像情報を
表す映像データブロックV、映像情報以外のパケットデ
ータ(主に音声情報)ブロックNおよび同期情報や属性
情報を含むデータブロックPを含む。データブロックP
は、パックヘッダ、システムヘッダ、パケット開始コー
ド、パケット長、同期情報を表す情報である。個々のデ
ータブロックPにつけられた数字は、それぞれのデータ
の種類に関する通し番号である。図示されるように、M
PEG映像音声情報32には、映像データブロックVと
映像データブロック以外のデータブロックNおよびPが
交互に出現する。
The MPEG video / audio information 32 includes a video data block V representing video information, a packet data (mainly audio information) block N other than video information, and a data block P containing synchronization information and attribute information. Data block P
Is information indicating a pack header, a system header, a packet start code, a packet length, and synchronization information. The number given to each data block P is a serial number for each data type. As shown, M
In the PEG video / audio information 32, video data blocks V and data blocks N and P other than the video data blocks appear alternately.

【0077】分離部22(図2A)の動作(図3A)に
したがって、MPEG映像音声情報32は、映像データ
ブロックVと非映像情報のデータブロック、すなわち映
像情報以外のパケットデータブロックNおよび同期情報
や属性情報を含むデータブロックPとに分離される。図
3Bには、映像情報30中での映像データブロックVの
開始位置VPと、映像データブロックV間のサイズ(映
像データブロックVの開始位置VP間のサイズ)VSと、
非映像情報34中のデータブロックの開始位置NPと、
データブロック間のサイズ(データブロックの開始位置
P間のサイズ)NSとが示されている。
In accordance with the operation (FIG. 3A) of the separating section 22 (FIG. 2A), the MPEG video / audio information 32 includes the video data block V and the data block of the non-video information, that is, the packet data block N other than the video information and the synchronization information. And a data block P including attribute information. FIG 3B, a start position V P of the video data blocks V of within the image information 30, (size between the starting position V P of the video data blocks V) size between video data blocks V and V S,
A start position N P of a data block in the non-video information 34;
And N S (size between the start position N P of the data block) sizes between data blocks is shown.

【0078】図示されるように、MPEG映像音声情報
32は、映像情報30と非映像情報34とに分離され
る。
As shown, the MPEG video / audio information 32 is separated into video information 30 and non-video information 34.

【0079】次に、分離部22(図2A)がステップ3
08(図3A)において作成する結合情報を説明する。
Next, the separation unit 22 (FIG. 2A)
08 (FIG. 3A) will be described.

【0080】図4は、結合情報の例を示す。図4に示さ
れる例では、複数の結合情報が表形式で記録されてい
る。結合情報は、映像データブロックV(図3B)およ
び非映像情報データブロックそれぞれの開始位置VP
PおよびそのサイズVS、NSと、映像を切り出したと
きのその映像パケットの同期情報のサイズPVSとを含
む。
FIG. 4 shows an example of the combination information. In the example shown in FIG. 4, a plurality of pieces of connection information are recorded in a table format. Binding information, video data blocks V (Figure 3B) and non-video information data blocks each start position V P,
N P and its sizes V S and N S, and the size PVS of the synchronization information of the video packet when the video is cut out.

【0081】結合情報は、映像データブロックV(図3
B)を出力する際に記録された、それまでに出力した映
像データブロックVおよび非映像情報のデータブロック
の情報量(データサイズ)である。結合情報を用いるこ
とにより、分離され、さらに間引かれた映像情報の映像
データブロックと非映像情報のデータブロックとを映像
音声情報に再結合することができる(再結合処理は、結
合部26(図2A)の動作に関連して後述する)。
The combination information is stored in the video data block V (FIG. 3).
B) is the information amount (data size) of the video data block V and the data block of non-video information that have been output up to that recorded when outputting B). By using the connection information, the separated video data block of the video information and the data block of the non-video information which are further thinned out can be reconnected to the video / audio information (the reconnection processing is performed by the connection unit 26 ( It will be described later in connection with the operation of FIG. 2A).

【0082】結合情報は、同期情報17のデータサイズ
を含む。この理由を簡単に述べる。分離部22(図2
A)によって分離された後、映像変換部24(図2A)
によって映像情報が間引かれると、映像情報の情報量
(データサイズ)は変化する。情報量(データサイズ)
が変わってしまった映像情報と非映像情報とを再結合す
るには、映像情報のもとのパケット長を修正する必要が
ある。間引くことにより小さくなった映像情報の情報量
(データサイズ)の減少分をパケット長16から減算
し、MPEG規格に適合させるためである。映像情報の
パケット長16の値を修正する際には、既に受け取られ
たパケット長16(図1)が格納されている位置を逆算
して修正することになる。パケット14(図1)では、
パケット長16、同期情報17、パケットデータ18の
順にデータが配置されている。パケット長16(図1)
が格納されている位置の逆算は、パケットデータの先頭
の位置から、同期情報17(図1)の情報量(データサ
イズ)に相当するデータサイズだけ前の位置を差し引く
ことにより実現される。ここで、同期情報17(図1)
のサイズは一定でないため、後方から走査すると処理の
負荷が大きく処理が面倒になる。したがって、パケット
長16(図1)の位置の逆算を容易にするために同期情
報17のデータサイズを記録しておくと、その後の処理
の負荷を軽減できる。
The connection information includes the data size of the synchronization information 17. The reason will be briefly described. The separation unit 22 (FIG. 2)
After being separated by A), the video converter 24 (FIG. 2A)
When the video information is thinned out, the information amount (data size) of the video information changes. Information volume (data size)
In order to re-combine the video information and the non-video information for which the video information has changed, it is necessary to correct the original packet length of the video information. This is because the amount of decrease in the information amount (data size) of the video information reduced by the thinning is subtracted from the packet length 16 to conform to the MPEG standard. When correcting the value of the packet length 16 of the video information, the position where the already received packet length 16 (FIG. 1) is stored is calculated by back calculation. In packet 14 (FIG. 1)
Data is arranged in the order of packet length 16, synchronization information 17, and packet data 18. Packet length 16 (Fig. 1)
The back calculation of the position where is stored is realized by subtracting the previous position by the data size corresponding to the information amount (data size) of the synchronization information 17 (FIG. 1) from the head position of the packet data. Here, the synchronization information 17 (FIG. 1)
Is not constant, so that scanning from the rear increases the processing load and complicates the processing. Therefore, if the data size of the synchronization information 17 is recorded in order to facilitate the back calculation of the position of the packet length 16 (FIG. 1), the load of the subsequent processing can be reduced.

【0083】なお結合情報には、それまでに出力した映
像情報の情報量だけでなく、これから出力するデータの
サイズも記録しておくことにより、その後の処理の負荷
を軽減することができる。
By recording not only the information amount of the video information output up to that time but also the size of the data to be output in the combination information, the load of subsequent processing can be reduced.

【0084】図4に示される結合情報の1行目は、最初
の映像データブロックV(図3B)が記録されたとき、
非映像情報34(図3B)および映像情報30(図3
B)の位置NPおよびVPがいずれも「0000」であ
り、記録された非映像情報34(図3B)のデータブロ
ックのサイズNSが30バイト、映像情報30(図3
B)のデータブロックのサイズVSが20バイト、パケ
ットの同期情報のサイズPVSが12バイトであること
を示す。
The first line of the combination information shown in FIG. 4 is obtained when the first video data block V (FIG. 3B) is recorded.
The non-video information 34 (FIG. 3B) and the video information 30 (FIG. 3)
B), the positions N P and V P are both “0000”, the size N S of the data block of the recorded non-video information 34 (FIG. 3B) is 30 bytes, and the video information 30 (FIG. 3).
Size V S is 20 bytes of data block B), the size PVS synchronization information of the packet indicates that it is a 12 bytes.

【0085】図4に示される結合情報の2行目は、非映
像情報34(図3B)の開始位置N Pが「0030」、
映像情報30(図3B)の映像データブロックV(1)
(図3B)の開始位置VPが「0020」であり、記録
された非映像情報34(図3B)のデータブロックのサ
イズNSが30バイト、映像情報(図3B)のデータブ
ロックのサイズVSが20バイト、パケットの同期情報
のサイズPVSが3バイトであることを示す。
The second line of the combination information shown in FIG.
Start position N of image information 34 (FIG. 3B) PIs "0030",
Video data block V (1) of video information 30 (FIG. 3B)
(FIG. 3B) start position VPIs “0020” and the record
Of the data block of the obtained non-video information 34 (FIG. 3B).
Is NSIs 30 bytes and the video data (Fig. 3B)
Lock size VSIs 20 bytes, packet synchronization information
Indicates that the size PVS is 3 bytes.

【0086】図4に示される結合情報の3行目も上記同
様の内容を示す。ここで、記録された非映像情報34の
データブロックのサイズNSが100バイトの大きさに
なっているのは、パケットデータに含まれていた情報が
映像情報以外の情報(主に音声情報)を含んでいるた
め、次のパケットの同期情報のサイズもデータブロック
のサイズに含まれたからである。
The third line of the combination information shown in FIG. 4 shows the same contents as described above. Here, the size N S data blocks recorded non-video information 34 is in the size of 100 bytes, the information contained in the packet data other than the video information information (mainly voice information) This is because the size of the synchronization information of the next packet is also included in the size of the data block.

【0087】以下、映像パケットが記録されるたびに、
同様に繰り返し結合情報が追加記録され結合情報が作成
される。このようにして、パケット構造にしたがって映
像情報と非映像情報を繰り返し交互に切り出す操作をM
PEG映像情報32(図3B)の終端に達するまで行
い、かつ結合情報を作成することによって、映像情報3
0(図3B)および非映像情報34(図3B)の分離が
どのような情報に基づいて行われているのかが判断でき
る。
Hereinafter, every time a video packet is recorded,
Similarly, additional combination information is additionally recorded to create combination information. In this manner, the operation of repeatedly and alternately cutting out video information and non-video information according to the packet structure is M
The processing is performed until the end of the PEG video information 32 (FIG. 3B) is reached, and the combined information is created.
0 (FIG. 3B) and non-video information 34 (FIG. 3B) can be determined based on what information is being separated.

【0088】4.2 映像変換部24(図2A)の動作 映像変換部24(図2A)は、連続した映像を示す映像
情報を解析し編集した後、入力された映像と同数のピク
チャを持つ映像を出力することによって間欠映像情報を
生成する。すなわちこの動作は、映像変換部24(図2
A)は、重要な情報を持つピクチャのみを残しその他の
フレームを情報を含まないダミーPピクチャと置換する
動作である。したがって、出力される映像は間欠映像と
なる。さらに映像変換部24(図2A)は、編集による
映像のサイズ変化に応じて結合情報(図4)を修正す
る。
4.2 Operation of Video Converter 24 (FIG. 2A) The video converter 24 (FIG. 2A) analyzes and edits video information indicating a continuous video, and then has the same number of pictures as the input video. The intermittent video information is generated by outputting the video. That is, this operation is performed by the video converter 24 (FIG. 2).
A) is an operation of leaving only a picture having important information and replacing other frames with a dummy P picture not including information. Therefore, the output video is an intermittent video. Further, the video conversion unit 24 (FIG. 2A) corrects the combination information (FIG. 4) according to a change in the size of the video due to editing.

【0089】図5Aは、映像変換部24(図2A)が連
続する映像情報を間欠映像情報に変換する処理の手順を
示すフローチャートである。
FIG. 5A is a flowchart showing a procedure of a process in which the video converter 24 (FIG. 2A) converts continuous video information into intermittent video information.

【0090】まず映像変換部24(図2A)は、映像情
報からシーケンスヘッダを読み込み(ステップ50
1)、シーケンスヘッダをそのまま間欠映像情報に書き
出す(ステップ502)。映像情報のシーケンスが終端
でない場合、続いて処理が進められる。次に映像変換部
24(図2A)は、映像情報からGOPヘッダを読み込
み(ステップ504)、間欠映像情報のGOPヘッダに
書き込む(ステップ505)。これは、映像情報のGO
Pヘッダが間欠映像情報のGOPヘッダとして用いられ
ることを意味する。その後映像変換部24(図2A)
は、映像情報からIピクチャを読み込み(ステップ50
6)、そのIピクチャをそのまま間欠映像情報のIピク
チャとして間欠映像情報として書き込む(ステップ50
7)。映像情報のGOPが終端でなければ、そのまま処
理が進められる(ステップ508)。続いて、映像変換
部24(図2A)は、映像情報のGOPから、GOPに
含まれる残りのピクチャを読み込む(ステップ50
9)。このピクチャの読み込みは、Iピクチャ以外のピ
クチャ(例えばBピクチャあるいはPピクチャ)であり
うる。映像変換部24(図2A)は、読み込んだピクチ
ャに含まれる映像情報を棄却し、そのピクチャの数と同
数のダミーピクチャを間欠映像情報のGOPとして書き
込む(ステップ510)。ダミーピクチャは、前フレー
ムからの変化がないという情報だけを含んだ、サイズの
小さなピクチャである。このようなGOPの変換をシー
ケンス終端まで繰り返す。シーケンス終端に達すると、
シーケンスヘッダの読み込み(ステップ501)に戻っ
て処理を繰り返す。映像終端に達すると、映像から間欠
映像への変換は終了する。映像情報のGOPが終端でな
く、シーケンスが終端でなく、かつ映像情報が終端でな
い場合には、そのまま処理が続けられる。
First, the video converter 24 (FIG. 2A) reads the sequence header from the video information (step 50).
1), the sequence header is directly written as intermittent video information (step 502). If the sequence of the video information is not at the end, the process proceeds. Next, the video conversion unit 24 (FIG. 2A) reads the GOP header from the video information (Step 504), and writes it into the GOP header of the intermittent video information (Step 505). This is the video information GO
This means that the P header is used as the GOP header of the intermittent video information. Then, the video converter 24 (FIG. 2A)
Reads an I picture from video information (step 50).
6) The I picture is written as the intermittent video information as the intermittent video information as it is (step 50).
7). If the GOP of the video information is not at the end, the process proceeds as it is (step 508). Subsequently, the video conversion unit 24 (FIG. 2A) reads the remaining pictures included in the GOP from the GOP of the video information (Step 50).
9). The reading of the picture may be a picture other than the I picture (for example, a B picture or a P picture). The video converter 24 (FIG. 2A) rejects the video information included in the read picture and writes the same number of dummy pictures as the number of the pictures as the GOP of the intermittent video information (step 510). The dummy picture is a small-sized picture that includes only information that there is no change from the previous frame. Such GOP conversion is repeated until the end of the sequence. When the end of the sequence is reached,
Returning to the reading of the sequence header (step 501), the processing is repeated. When the end of the video is reached, the conversion from the video to the intermittent video ends. If the GOP of the video information is not at the end, the sequence is not at the end, and the video information is not at the end, the processing is continued as it is.

【0091】図5Bを参照して、上述のように動作する
映像変換部24(図2A)が映像情報のGOPを読み込
み、間欠映像情報のGOPを出力する処理をより具体的
に説明する。
With reference to FIG. 5B, the process in which the video converter 24 (FIG. 2A) operating as described above reads the GOP of video information and outputs the GOP of intermittent video information will be described more specifically.

【0092】図5Bは、入力された映像情報から取り出
したあるGOP50と、GOP50を変換して得られる
間欠映像情報のGOP52の対応関係を示す。GOP5
0は、映像情報に含まれる任意のGOPである。GOP
に付されているマーカーVPは、結合情報(図4)に記
録された映像開始位置を示す。
FIG. 5B shows the correspondence between a certain GOP 50 extracted from the input video information and the GOP 52 of the intermittent video information obtained by converting the GOP 50. GOP5
0 is an arbitrary GOP included in the video information. GOP
Marker V P which is attached to indicate the recorded video start position in the binding information (FIG. 4).

【0093】まず映像変換部24(図2A)は、GOP
50のGOPヘッダおよび最初のIピクチャを読みこ
み、それをそのままGOP52に書き出す。続いて、G
OP50の2枚目以降のすべてのピクチャを読み込む。
読み込まれたピクチャに含まれる映像情報は棄却され、
代わりに読み込まれたピクチャの数と同数のダミーPピ
クチャに置換されGOP52に書き込まれる。ダミーP
ピクチャは、前フレームからの変化がないという情報だ
けを含んだピクチャである。ダミーPピクチャは映像情
報を含まないためサイズが極めて小さい。このピクチャ
が存在すると、再生系は前フレームを継続表示する。な
お、ダミーピクチャのこのような仕様はMPEG規格に
定められている。このダミーピクチャの存在により、G
OP52は最初のIピクチャの静止画のように再生され
る。さらに、GOP52はGOP50と同数のピクチャ
を含むため、再生時間はGOP50と同じである。
First, the video converter 24 (FIG. 2A)
The GOP header of 50 and the first I picture are read, and are written to the GOP 52 as they are. Then G
All the pictures after the OP50 are read.
The video information contained in the loaded picture is rejected,
Instead, it is replaced with the same number of dummy P pictures as the number of read pictures and written to the GOP 52. Dummy P
The picture is a picture containing only information that there is no change from the previous frame. The size of the dummy P picture is extremely small because it does not include video information. When this picture exists, the reproduction system continuously displays the previous frame. Such a specification of the dummy picture is defined in the MPEG standard. Due to the presence of this dummy picture, G
OP52 is reproduced like a still image of the first I picture. Further, since the GOP 52 includes the same number of pictures as the GOP 50, the reproduction time is the same as that of the GOP 50.

【0094】ここで留意すべき点は、GOP50をGO
P52に変換すると、ダミーピクチャのサイズが比較的
小さいことに起因してGOP52のサイズが小さくな
り、映像開始位置VPがGOP52の外部に存在すると
いう矛盾が生じることである。そこでこの矛盾をなくす
ために、映像開始位置VPがGOP52内に含まれるよ
うに修正する必要がある。以下にその修正を行うための
一例を示す。映像ストリーム中でのGOPの開始位置を
S、終了位置をEとし、n番目の映像開始位置V
P(n)がVP’(n)に修正され、VP’(n)の開始
位置がS’、終了位置がE’とすると、 VP’(n)=(VP(n)−S)*(E’−S’)/
(E−S)+S’ という計算を行うことにより、映像開始位置がGOP5
2内に含まれるように修正することができる。
It should be noted here that GOP50 is
When converted to P52, the size of the dummy picture
The size of the GOP 52 is small due to its small size.
Video start position VPIs outside GOP52
Inconsistency. So eliminate this contradiction
The video start position VPIs included in GOP52
Need to be modified as follows. Below are some of the fixes
An example is shown. The starting position of the GOP in the video stream
S, the end position is E, and the n-th video start position V
P(N) is VP’(N) and VP’(N) start
If the position is S 'and the end position is E', then VP’(N) = (VP(N) -S) * (E'-S ') /
By performing the calculation of (E−S) + S ′, the video start position becomes GOP5
2 can be modified to be included.

【0095】このような一連のGOP変換動作がシーケ
ンス終端まで繰り返される。シーケンス終端に達する
と、シーケンスヘッダの読み込みに戻って処理を繰り返
す。映像終端に達すると、映像から間欠映像への変換は
終了する。
Such a series of GOP conversion operations is repeated until the end of the sequence. When the end of the sequence is reached, the process returns to reading the sequence header and repeats the processing. When the end of the video is reached, the conversion from the video to the intermittent video ends.

【0096】GOPの変換では、GOP50に含まれる
ピクチャ数と、GOP52に含まれるピクチャ数は同じ
になる。仮に、GOP50に含まれるピクチャ数および
GOP52に含まれるピクチャ数が異なる場合は、後続
のすべてのGOPに対してGOPヘッダ内のTC(タイ
ムコード)値をずらす必要が生じ、処理量が多くなる。
したがって本実施例は、GOP50とGOP52に含ま
れるそれぞれのピクチャ数を同じにすることにより、G
OPヘッダを変更することなく処理することができると
いう利点がある。
In the GOP conversion, the number of pictures included in the GOP 50 is the same as the number of pictures included in the GOP 52. If the number of pictures included in the GOP 50 and the number of pictures included in the GOP 52 are different, it is necessary to shift the TC (time code) value in the GOP header with respect to all subsequent GOPs, thereby increasing the processing amount.
Therefore, in the present embodiment, the GOP50 and the GOP52 have the same
There is an advantage that processing can be performed without changing the OP header.

【0097】なお、GOPの途中のイントラピクチャを
棄却せず、間欠映像として利用することができる。例え
ば、1枚のイントラピクチャを棄却せず間欠映像に利用
する場合は、最初のIピクチャのあといくつかのピクチ
ャをダミーPピクチャで置換した後、2枚目のイントラ
ピクチャを抜き出して挿入し、さらにその後のピクチャ
をダミーPピクチャで置換することになる。一般にGO
Pは、2分の1秒程度のピクチャを構成するように符号
化されることが多い。したがって、1GOPにつきイン
トラピクチャを1枚程度用いると、1秒に2コマ程度ず
つ進行する適度な間欠映像になる。
Note that an intra picture in the middle of a GOP can be used as an intermittent video without rejection. For example, in the case where one intra picture is used for intermittent video without rejection, after replacing some pictures with a dummy P picture after the first I picture, a second intra picture is extracted and inserted, Further, the subsequent pictures are replaced with dummy P pictures. Generally GO
P is often encoded to make up a picture of about half a second. Therefore, if about one intra picture is used for one GOP, a moderate intermittent video that advances about two frames per second is obtained.

【0098】しかし、さらに細かくコマ送りする間欠映
像にしたい場合や、映像情報自体がGOPを構成するピ
クチャの数が多くなるように符号化されている場合に
は、GOP最初のIピクチャに限らず、任意の位置で任
意の数のイントラピクチャを使うことにより、間欠映像
のコマ毎の間隔を任意に調節することができる。このよ
うな柔軟性により、使用される携帯端末の処理速度に応
じた速度、またはユーザが選択した速度で間欠的に表示
される間欠映像を生成することができる。携帯端末の処
理速度に応じた速度あるいはユーザが選択した速度は、
パラメータとしてデータ変換装置へ入力され、そのパラ
メータの値に応じてイントラピクチャが間欠映像の各コ
マとして利用される。
However, when it is desired to make an intermittent video to be more finely frame-advanced or when the video information itself is coded so that the number of pictures constituting the GOP is increased, not only the I picture at the beginning of the GOP but also By using an arbitrary number of intra pictures at an arbitrary position, it is possible to arbitrarily adjust the interval between frames of the intermittent video. With such flexibility, it is possible to generate an intermittent video that is displayed intermittently at a speed corresponding to the processing speed of the mobile terminal used or at a speed selected by the user. The speed according to the processing speed of the mobile terminal or the speed selected by the user is
The data is input to the data conversion device as a parameter, and the intra picture is used as each frame of the intermittent video according to the value of the parameter.

【0099】逆に複数のGOPを1つのGOPに統合
し、間欠映像のコマの間隔をGOPの再生期間よりも長
くすることも可能である。
Conversely, a plurality of GOPs can be integrated into one GOP, and the interval between frames of intermittent video can be made longer than the GOP playback period.

【0100】図6は、映像情報に含まれる複数のGOP
列60から間欠映像情報の単一のGOP62を生成する
場合のヘッダおよびピクチャの対応関係を示す。
FIG. 6 shows a plurality of GOPs included in video information.
The correspondence between a header and a picture when a single GOP 62 of intermittent video information is generated from the column 60 is shown.

【0101】GOP列60は、元の映像情報から任意の
数の連続するGOPを抜き出して得られたGOPの集合
である。簡略化のため、切り出された最初のGOPと最
後のGOPのみが図示され、途中のGOPは省略されて
いる。GOP列60が変換され、単一のGOPとして統
合された結果得られたのがGOP62である。
The GOP column 60 is a set of GOPs obtained by extracting an arbitrary number of continuous GOPs from the original video information. For simplicity, only the first GOP and the last GOP that have been cut out are shown, and GOPs in the middle are omitted. The GOP 62 is obtained by converting the GOP sequence 60 and integrating it as a single GOP.

【0102】まず、GOP列60の最初のGOPのGO
Pヘッダ情報と最初のGOPの最初のIピクチャが間欠
映像情報のGOPとして用いられる。それ以降のGOP
列60のピクチャは棄却され、それに代えて、情報量を
持たないダミーのPピクチャがGOP62のピクチャと
して用いられる。この際、各ピクチャが有するTR(テ
ンポラルリファレンス値)が、GOP62における通し
番号になるように修正する。GOP列の2つ目以降のG
OPのGOPヘッダは棄却される。GOPヘッダの中に
は、タイムコードなどの同期情報が含まれるが、必ずし
も必要ではないので棄てても問題は起きない。これは最
終的にMPEG映像音声情報に再構成すると、MPEG
映像音声情報に含まれる同期情報が同期安定性を補償す
るためである。
First, GO of the first GOP in GOP column 60
The P header information and the first I picture of the first GOP are used as the GOP of the intermittent video information. Subsequent GOP
The picture in column 60 is rejected, and a dummy P picture having no information amount is used as a picture of GOP 62 instead. At this time, the TR (temporal reference value) of each picture is corrected so as to be a serial number in the GOP 62. G after the second GOP column
The GOP header of the OP is discarded. Although the GOP header contains synchronization information such as time code, it is not always necessary, and there is no problem if it is discarded. This is, when finally reconstructed into MPEG video / audio information, MPEG
This is because the synchronization information included in the video / audio information compensates for synchronization stability.

【0103】作成されたGOP62は、最初のGOPの
最初のIピクチャのみが映像情報を持ち、それに続くピ
クチャはダミーPピクチャで、前ピクチャを継続表示す
ることを再生系に伝える以上に情報を持たない。したが
って、GOP62を再生すると、最初のIピクチャがG
OP62の再生期間中継続表示される。GOP62に
は、GOP列60と同数のピクチャが含まれる。したが
って、GOP62は、GOP列60の再生期間と同じ長
さの静止映像となる。こうして、複数のGOPをひとつ
のGOPに統合することにより、GOPの再生期間より
長い静止コマ映像を作成することができる。
In the created GOP 62, only the first I picture of the first GOP has video information, and the subsequent picture is a dummy P picture, which has more information than telling the reproducing system that the previous picture is continuously displayed. Absent. Therefore, when GOP62 is reproduced, the first I picture is G
It is displayed continuously during the playback period of OP62. The GOP 62 includes the same number of pictures as the GOP sequence 60. Therefore, the GOP 62 is a still image having the same length as the reproduction period of the GOP sequence 60. In this way, by integrating a plurality of GOPs into one GOP, a still frame video longer than the GOP playback period can be created.

【0104】映像に含まれるすべてのGOPに対して、
上記操作を行うことにより、間欠映像を作成することが
できる。
For all GOPs included in the video,
By performing the above operation, an intermittent video can be created.

【0105】なおGOP50(図5B)からGOP52
(図5B)を生成した際にも述べたように、GOP62
はGOP列60に比べてサイズが小さくなっているた
め、結合情報に含まれる映像開始位置に関して矛盾が生
じてしまう。そこで、結合情報が保持する映像開始位置
もGOPサイズの縮小に応じて、修正する必要がある。
以下にその修正を行うための一例を示す。映像ストリー
ム中でのGOP列60の開始位置をS、終了位置をEと
し、n番目の映像開始位置NP(n)がNP’(n)に修
正され、間欠映像中でのGOP62の開始位置がS’、
終了位置がE’とすると、 NP’(n)=(NP(n)−S)*(E’−S’)/
(E−S)+S’ のように計算すればよい。
Note that GOP50 (FIG. 5B) to GOP52
(FIG. 5B), as described above, GOP62
Since the size is smaller than that of the GOP sequence 60, inconsistency occurs in the video start position included in the combination information. Therefore, the video start position held by the combination information also needs to be corrected according to the reduction in the GOP size.
An example for performing the correction will be described below. The start position of the GOP sequence 60 in the video stream is S, the end position is E, the n-th video start position N P (n) is corrected to N P ′ (n), and the start of the GOP 62 in the intermittent video The position is S ',
'When, N P' end position E (n) = (N P (n) -S) * (E'-S ') /
It may be calculated as (E−S) + S ′.

【0106】4.3 結合部26(図2A)の動作 結合部26(図2A)は、映像変換部24(図2A)で
作成された間欠映像情報と、分離部22によって分離さ
れた非映像情報とを、映像変換部53より出力される結
合情報に基づいて映像音声情報に再結合する。間欠映像
情報と非映像情報とを結合すると、間欠映像音声情報と
なる。再結合は、MPEG映像音声情報と非映像情報と
がいずれも符号化されたままで行われるため、計算量を
少なくすることができる。
4.3 Operation of Combining Unit 26 (FIG. 2A) The combining unit 26 (FIG. 2A) includes the intermittent video information created by the video converting unit 24 (FIG. 2A) and the non-video separated by the separating unit 22. The information is recombined with the video and audio information based on the combination information output from the video conversion unit 53. When the intermittent video information and the non-video information are combined, it becomes intermittent video audio information. The recombination is performed with both the MPEG video / audio information and the non-video information encoded, so that the amount of calculation can be reduced.

【0107】図7Aは、結合部26(図2A)が間欠映
像情報と非映像情報とを結合する処理の手順を示すフロ
ーチャートである。
FIG. 7A is a flowchart showing a procedure of a process in which the combining unit 26 (FIG. 2A) combines intermittent video information and non-video information.

【0108】結合処理では、結合部26(図2A)はま
ず、映像変換部24(図2A)からの結合情報を読み込
み(ステップ701)、続いて非映像情報から非映像デ
ータブロックを読み込む(ステップ702)。結合部2
6(図2A)は、読み込んだ結合情報を用いて非映像情
報を映像音声情報として書き込む(ステップ703)。
この後結合部26(図2A)は、読み込んだ結合情報
が、最終の非映像情報のデータブロックを示しているか
否かを判断する(ステップ704)。結合情報が最終の
非映像情報のデータブロックを示している場合には、処
理は終了する。結合情報が最終の非映像情報のデータブ
ロックを示していない場合には、結合部26(図2A)
は続いて映像情報から映像データブロックを読み込む
(ステップ705)。その後結合部26(図2A)は、
映像音声情報に映像情報の映像データブロックを書き込
み(ステップ706)、再び結合情報を読み込む処理
(ステップ701)に戻る。
In the combining process, the combining unit 26 (FIG. 2A) first reads the combined information from the video converter 24 (FIG. 2A) (step 701), and then reads a non-video data block from the non-video information (step 701). 702). Coupling part 2
6 (FIG. 2A) writes non-video information as video / audio information using the read combination information (step 703).
Thereafter, the combining unit 26 (FIG. 2A) determines whether the read combined information indicates the final data block of non-video information (step 704). If the combined information indicates the final data block of the non-video information, the process ends. If the combined information does not indicate the final non-video information data block, the combining unit 26 (FIG. 2A)
Reads a video data block from the video information (step 705). Thereafter, the connecting portion 26 (FIG. 2A)
The video data block of the video information is written in the video / audio information (step 706), and the process returns to the process of reading the combined information again (step 701).

【0109】図7Bを参照して、上述のように動作する
結合部26(図2A)が間欠映像情報と非映像情報とが
結合される処理を示す。図7Bには、間欠映像情報70
と非映像情報74と生成されたMPEG映像音声情報7
2とが示されている。MPEG映像音声情報72は間欠
映像情報である。
Referring to FIG. 7B, a process in which intermittent video information and non-video information are combined by combining unit 26 (FIG. 2A) operating as described above will be described. FIG. 7B shows the intermittent video information 70.
And non-video information 74 and generated MPEG video / audio information 7
2 is shown. The MPEG video / audio information 72 is intermittent video information.

【0110】間欠映像音声情報72は、非映像情報のデ
ータブロックPで始まり、その後交互に映像情報と非映
像情報および音声情報が繰り返し出現し、最後に非映像
情報で終わることがあらかじめ分かっている。
It is known in advance that the intermittent video / audio information 72 starts with a data block P of non-video information, and thereafter, video information, non-video information and audio information appear repeatedly and alternately, and finally ends with non-video information. .

【0111】結合部26(図2A)は、結合情報を読み
込み、非映像情報のデータブロックの切り出し開始位置
Pと切り出しサイズNS、映像データブロックVの切り
出し開始位置VPと切り出しサイズVSを取得する。ただ
し、最後の結合情報には、非映像データブロックの切り
出し開始位置NPと切り出しサイズNSのみであり、映像
データブロックの切り出し開始位置VPおよび切り出し
サイズVSには情報は書かれていないか、もしくは事前
に定めらたエンドコードが書かれている。次に結合部2
6(図2A)は、非映像情報74から、データ結合情報
に書かれている切り出し開始位置NPより切り出しサイ
ズNS分だけ、データブロックを切り出す。たとえば、
Pの値が0、NSの値が30であれば、非映像情報74
の最初から30バイト分が切り出される。結合部26
(図2A)は、切り出されたデータブロックを間欠映像
音声情報72に記録する。読みこまれた結合情報が最終
の非映像データブロックを示している場合は、ここで結
合処理は終了する。読みこまれた結合情報が最終の非映
像データブロックを表しているのでなければ、結合部2
6(図2A)は、間欠映像70から切り出し開始位置V
Pより切り出しサイズVS分だけデータブロックを切り出
す。たとえば、VPの値が0、VSの値が20であれば、
間欠映像を表す映像情報70の最初から20バイトのデ
ータブロックを切り出す。結合部26(図2A)は、間
欠映像音声情報72の末尾に切り出されたデータブロッ
クを結合する。結合部26(図2A)は再び結合情報の
読み込み処理に戻り、次の非映像情報74および映像情
報70から切り出すべきデータブロックの開始位置およ
びデータブロックサイズを結合情報からそれぞれ読み込
む。そして、結合情報を読みこみ、非映像情報74から
データブロックを切り出してそのデータブロックを間欠
映像音声72に追加し、最後の結合情報でなければ間欠
映像を表す映像情報70からデータブロックを切り出し
てそのデータブロックを間欠映像音声情報72に追加す
る処理を繰り返す。この繰り返し操作が最後の結合情報
に達すると、結合された間欠映像音声情報72が生成さ
れる。
The combining section 26 (FIG. 2A) reads the combined information, and starts the cut-out start position N P and cut-out size N S of the non-video information data block, and the cut-out start position V P and cut-out size V S of the video data block V. To get. However, at the end of the binding information, only clipping start position N P and clipping size N S non-video data blocks, the extraction start position V P and clipping size V S of the video data block information is not written Or pre-defined end code. Next, joint 2
6 (FIG. 2A), the non-video information 74, from the cutout start position N P written to the data binding information clipping size N S content only, cut out data blocks. For example,
The value of N P is 0, if the value of N S 30, the non-image information 74
The first 30 bytes are cut out from the beginning. Coupling part 26
(FIG. 2A) records the cut-out data block in the intermittent video / audio information 72. If the read combination information indicates the final non-video data block, the combination processing ends here. If the read combination information does not represent the final non-video data block, the combination unit 2
6 (FIG. 2A) is a cutout start position V from the intermittent video 70.
A data block is cut out from P by a cutout size V S. For example, if the value of the value of V P is 0, V S is 20,
A 20-byte data block is cut out from the beginning of the video information 70 representing the intermittent video. The combining unit 26 (FIG. 2A) combines the data blocks cut out at the end of the intermittent video / audio information 72. The combining unit 26 (FIG. 2A) returns to the process of reading the combined information again, and reads the start position and the data block size of the data block to be cut out from the next non-video information 74 and the video information 70 from the combined information. Then, the combined information is read, a data block is cut out from the non-video information 74, and the data block is added to the intermittent video / audio 72. If not the last combined information, a data block is cut out from the video information 70 representing the intermittent video. The process of adding the data block to the intermittent video / audio information 72 is repeated. When the repetition operation reaches the last combined information, combined intermittent video / audio information 72 is generated.

【0112】ここで、パケットに含まれる、パケット長
以外の情報すわなちパケット開始コードと同期情報のう
ち同期情報は、映像データブロックのサイズが増加する
ことがない場合は非映像情報74に含まれる情報がその
まま再利用できる。一般に、映像を間欠映像に変換する
とデータブロックのサイズは大幅に小さくなるので、同
期情報は変更する必要がない。パケット開始コードは例
えばMPEG規格に定められた固定値である。また、パ
ックヘッダには同期情報とパケットの属性情報が含まれ
るが、同期情報は上記パケットと同じ理由で変更の必要
はない。パケットの属性情報は、間欠映像にすることで
は変化しない。したがって、本発明において修正しなけ
ればならないヘッダ情報は、パケット長16(図1)の
みである。
Here, the information other than the packet length included in the packet, that is, the synchronization information among the packet start code and the synchronization information is included in the non-video information 74 when the size of the video data block does not increase. Information can be reused as it is. In general, when a video is converted to an intermittent video, the size of a data block is significantly reduced, so that it is not necessary to change the synchronization information. The packet start code is, for example, a fixed value defined in the MPEG standard. The pack header includes the synchronization information and the attribute information of the packet, but the synchronization information does not need to be changed for the same reason as the packet. The attribute information of the packet is not changed by making the intermittent video. Therefore, the header information that needs to be modified in the present invention is only the packet length 16 (FIG. 1).

【0113】以上、本発明の実施の形態1によるデータ
変換装置の構成および動作の説明を終わる。
The description of the configuration and operation of the data conversion device according to the first embodiment of the present invention has been completed.

【0114】(実施の形態2)次に、図8を参照しなが
ら、本発明の第2の実施の形態におけるデータ変換装置
を説明する。
(Embodiment 2) Next, a data conversion device according to a second embodiment of the present invention will be described with reference to FIG.

【0115】1.本発明のデータ変換装置800(図
8)の動作の概要 本発明の実施の形態2におけるデータ変換装置800
(図8)は、輝度もしくは彩度、色相などの分布、すな
わち映像の特性の変化が時間的に所定の閾値以上になる
カットが映像中に含まれる場合、そのカットを静止画像
として用いるように間欠映像音声情報を生成する。カッ
トを静止画像として利用するのは、映像が時間的に大き
く変化するカットが存在する付近には映像上重要な情報
を含むことが多いという経験的事実に基づいている。本
実施の形態におけるデータ変換装置を利用することによ
り、たとえば、ニュース番組では、シーンが切り替わっ
た直後の、ニュースの概要を示すテロップが表示された
映像や、あるいは映画等における字幕の切り替わった直
後の映像を代表画像とすることでシーンの概要を把握す
ることができるようになる。
[0115] 1. Data conversion device 800 of the present invention (FIG.
8) Outline of operation Data conversion device 800 according to Embodiment 2 of the present invention
(FIG. 8) shows that, when a cut in which distribution of luminance, saturation, hue, or the like, that is, a change in characteristics of a video is equal to or more than a predetermined threshold in a video is included in the video, the cut is used as a still image. Generate intermittent video / audio information. The use of a cut as a still image is based on the empirical fact that the vicinity of a cut where a video changes greatly over time often contains important information on the video. By using the data conversion device according to the present embodiment, for example, in a news program, immediately after a scene is switched, a video on which a telop indicating a summary of news is displayed, or immediately after a subtitle is switched in a movie or the like, By using a video as a representative image, an outline of a scene can be grasped.

【0116】2.本発明のデータ変換装置800(図
8)の構成 図8は、映像に含まれるカット検出を行うための構成を
含むデータ変換装置800を示す。
[0116] 2. Data conversion device 800 of the present invention (FIG.
8) Configuration FIG. 8 shows a data conversion device 800 including a configuration for detecting cuts contained in video.

【0117】データ変換装置800は、映像音声情報入
力部80と、分離部81と、部分復号部82と、カット
検出部83と、ショット映像作成および結合情報修正部
84と、結合部85と、映像音声情報記録部86とを含
む。
The data conversion device 800 includes a video / audio information input unit 80, a separation unit 81, a partial decoding unit 82, a cut detection unit 83, a shot video creation and combination information correction unit 84, a combination unit 85, And a video / audio information recording unit 86.

【0118】なお、データ変換装置800を構成する各
要素のうち、映像音声情報入力部80、分離部81、結
合部85および映像音声情報記録部86の機能および動
作は、図2Aに示すデータ変換装置100の映像音声情
報入力部20、分離部22、結合部26および映像音声
情報記録部28の機能および動作とそれぞれ同一である
ので、その説明は省略する。
The functions and operations of the video / audio information input unit 80, the separation unit 81, the combining unit 85, and the video / audio information recording unit 86 among the components constituting the data conversion device 800 are the same as those shown in FIG. The functions and operations of the video / audio information input unit 20, the separation unit 22, the combining unit 26, and the video / audio information recording unit 28 of the device 100 are the same as those of the apparatus 100, and thus the description thereof is omitted.

【0119】部分符号部82は、分離部81で分離され
た符号化された映像情報を受け取り、その映像情報の一
部分であるDC成分のみを復号する。MPEGにおい
て、DC(低周波)成分はIDCT(逆離散コサイン変
換)を要せず、簡単な計算で求めることができる。求め
られた映像情報のDC成分は、低解像度映像情報として
カット検出部83へ出力される。
[0119] The partial encoding section 82 receives the encoded video information separated by the separating section 81, and decodes only the DC component that is a part of the video information. In MPEG, a DC (low frequency) component does not require IDCT (Inverse Discrete Cosine Transform) and can be obtained by a simple calculation. The obtained DC component of the video information is output to the cut detection unit 83 as low-resolution video information.

【0120】カット検出部83は、部分復号部82から
出力された低解像度映像情報を受け取り、受け取った低
解像度映像情報(映像情報のDC成分)を用いて、単位
時間当たりの映像の変化が大きい部分を検出する。映像
の変化が大きいフレームをカットフレームと呼ぶ。カッ
トフレームは、例えば輝度もしくは彩度、色相などの分
布が時間的にある閾値以上になるフレームとして認識す
ることができる。前述のように、一般にカットフレーム
付近には映像的に重要となるフレームが存在することが
多い。カット検出部83は、映像を走査し、カットの直
後に現れるGOPを検索する。そして、そのGOPの最
初のIピクチャを代表フレームとして選出する。選出さ
れた代表フレームを含むGOPおよび代表フレームのフ
レーム番号は、カット情報としてショット映像作成およ
び結合情報修正部84に出力される。
The cut detection unit 83 receives the low-resolution video information output from the partial decoding unit 82, and uses the received low-resolution video information (DC component of the video information) to greatly change the video per unit time. Find the part. A frame having a large change in video is called a cut frame. A cut frame can be recognized as a frame in which, for example, the distribution of luminance, saturation, hue, and the like becomes temporally equal to or greater than a certain threshold. As described above, in general, there are many frames that are imagewise important near the cut frame. The cut detection unit 83 scans the video and searches for a GOP that appears immediately after the cut. Then, the first I picture of the GOP is selected as a representative frame. The GOP including the selected representative frame and the frame number of the representative frame are output to the shot video creation and combination information correction unit 84 as cut information.

【0121】ここで、カットフレーム自身を代表フレー
ムとしない理由は、MPEGの場合、GOPを単位とし
て映像を改変する方が処理が容易であるからである。M
PEGデータ列を利用する場合に、カットフレーム自身
を代表フレームとして間欠映像を作成するためには、M
PEGデータ列を復号化する必要がある。復号化には多
少の計算を要する。一方、カットフレーム直後のGOP
の先頭フレームを代表フレームとすると、遅延の為に重
要性のより少ないフレームを代表フレームに選んでしま
うエラーが生じる問題もあるというトレードオフが存在
する。本実施の形態では、カットフレーム直後のGOP
の最初のフレームを代表フレームとすることとして説明
する。なお、多少計算量が増加してもMPEGデータ列
を復号化する、あるいはMPEG以外のフォーマットが
利用される場合であって、映像の改変が容易に行うこと
ができる等の場合には、カットフレーム自身を静止画像
を表すため代表フレームとして利用することができる。
Here, the reason why the cut frame itself is not used as the representative frame is that, in the case of MPEG, the processing is easier if the video is modified in GOP units. M
When using a PEG data sequence, in order to create an intermittent video with the cut frame itself as a representative frame, M
It is necessary to decode the PEG data sequence. Decoding requires some computation. On the other hand, the GOP immediately after the cut frame
There is a trade-off in that if the first frame is a representative frame, there is a problem that an error occurs in which a less important frame is selected as the representative frame due to delay. In this embodiment, the GOP immediately after the cut frame
Will be described assuming that the first frame is a representative frame. Note that even if the amount of calculation is slightly increased, the MPEG frame is decoded, or a format other than MPEG is used. It can be used as a representative frame to represent a still image.

【0122】ショット映像作成および結合情報修正部8
5は、分離部82よって分離された映像情報および結合
情報と、カット検出部84によって検出されたカット情
報から間欠映像を作成する。ショット映像作成および結
合情報修正部85は映像を走査し、カット情報に記録さ
れた代表フレームを探索する。代表画像フレ一ムが見つ
かると、代表フレームの直後のGOPから次の代表フレ
ームを含むGOPの直前までをひとつの間欠映像GOP
に変換する。映像に含まれる複数のGOPを単一の間欠
映像GOPに変換し、結合情報を修正するには、第1の
実施の形態において図6に関連して説明した手順と同一
の手順を用いることができる。この変換処理により、最
初のピクチャを継続再生する静止画映像が作成される。
この静止画映像をショット映像と呼ぶ。カット情報にし
たがって一つ一つのカットに対して上記操作を適用する
ことにより、それぞれのカットに対応するショット映像
を作成し、作成されたショット映像を結合することによ
り、複数の代表画像からなる間欠映像が作成される。
Shot image creation and combination information correction unit 8
5 generates an intermittent video from the video information and combination information separated by the separation unit 82 and the cut information detected by the cut detection unit 84. The shot video creation and combination information correction section 85 scans the video and searches for a representative frame recorded in the cut information. When a representative image frame is found, one intermittent video GOP extends from the GOP immediately after the representative frame to immediately before the GOP including the next representative frame.
Convert to In order to convert a plurality of GOPs included in a video into a single intermittent video GOP and correct the combined information, the same procedure as that described in connection with FIG. 6 in the first embodiment may be used. it can. By this conversion process, a still image video for continuously reproducing the first picture is created.
This still image image is called a shot image. By applying the above operation to each cut according to the cut information, a shot video corresponding to each cut is created, and the created shot videos are combined to form an intermittent image including a plurality of representative images. An image is created.

【0123】上記説明では、間欠映像の代表画像をカッ
ト直後のGOPの最初のIピクチャとしたが、この方法
では、カットの位置と代表画像の位置にずれがあるた
め、特に映像が時間的に激しく変化する場合には、本来
採用したかった代表画像とは異なる画像を代表画像にし
てしまうことがある。そこで、ショット映像を作成する
他の例として、カット直後のピクチャを代表画像とする
ことが考えられる。カット直後のピクチャを代表画像と
する場合は、カット直後のピクチャがIピクチャとは限
らない。カット直後のピクチャがIピクチャである場合
は、そのIピクチャを切り出して間欠映像の代表画像に
使用することができる。しかし、カット直後のピクチャ
がBピクチャやPピクチャである場合には、先行するI
ピクチャを検索し、そこからカット直後のピクチャまで
を復号化し、さらにカット直後のピクチャを符号化して
Iピクチャとして生成すればよい。これにより、カット
情報により忠実な代表画像をショット映像として間欠映
像を作成することができるため、重要度の高い画像を代
表画像とした間欠映像が作成できる。ただし、このよう
な復号化処理および符号化処理を行うと、元の映像情報
に含まれるIピクチャを置換するだけの場合に比べて計
算量が大きくなる。しかしこの計算量は、復号化するピ
クチャが全映像の一部のピクチャだけであること、およ
び符号化はカット直後のピクチャに限られることを考え
ると、映像すべてを復号化する方法に比べて小さい。
In the above description, the representative image of the intermittent video is set as the first I picture of the GOP immediately after the cut. However, in this method, since the position of the cut and the position of the representative image are shifted, the video is particularly time-sensitive. In the case of a drastic change, an image different from the representative image originally intended may be used as the representative image. Therefore, as another example of creating a shot video, a picture immediately after the cut may be used as a representative image. When the picture immediately after the cut is used as the representative image, the picture immediately after the cut is not limited to the I picture. If the picture immediately after the cut is an I picture, the I picture can be cut out and used as a representative image of the intermittent video. However, if the picture immediately after the cut is a B picture or a P picture, the preceding I picture
What is necessary is to search for a picture, decode the picture up to the picture immediately after the cut, and encode the picture immediately after the cut to generate an I picture. Accordingly, an intermittent video can be created using a representative image more faithful to the cut information as a shot video, so that an intermittent video can be created using a highly important image as a representative image. However, when such a decoding process and an encoding process are performed, the amount of calculation becomes larger than when only the I picture included in the original video information is replaced. However, the amount of calculation is small compared to the method of decoding the entire video, considering that the pictures to be decoded are only a part of the entire video and that the encoding is limited to the picture immediately after the cut. .

【0124】ショット映像を作成する他の変形例とし
て、カット直後は映像の乱れが発生しやすいため、カッ
トからさらに一定時間後のピクチャを代表画像として採
用することによって間欠映像を作成してもよい。この場
合も、先行するIピクチャから、カット直後より一定時
間後のピクチャすなわち代表ピクチャまでを復号化した
後、代表ピクチャをIピクチャに符号化すればよい。本
実施の形態で最初に説明したショット映像作成方法で
は、カット直後のGOPの先頭Iピクチャを代表ピクチ
ャとするため、カットからある程度時間が経過した後の
ピクチャを採用している。本変形例もカットから一定時
間後のピクチャを代表画像として採用しているために、
上記最初の説明の場合と同様の効果を得ることができ
る。しかし上記最初の説明の場合は、必ずしもカットか
ら一定時間が経過した後のピクチャではない。したがっ
て、カット直後のピクチャを代表画像として採用してし
まうこともある。上述のようにカット直後は映像の乱れ
が発生しやすいため、代表画像の画質が不安定になり得
る。したがって、先行するIピクチャからカットから一
定時間後のピクチャまでを復号化し、代表ピクチャを符
号化する方法を用いることで、より安定した画像を代表
画像として採用することができ、したがって安定した間
欠映像を作成することができる。
As another modified example of creating a shot video, an intermittent video may be created by adopting a picture after a certain period of time from the cut as a representative image since the video is likely to be disturbed immediately after the cut. . Also in this case, the representative picture may be coded into an I picture after decoding from a preceding I picture to a picture that is a fixed time after the cut, that is, a representative picture. In the shot video creation method first described in the present embodiment, a picture obtained after a lapse of a certain period of time from the cut is adopted because the leading I picture of the GOP immediately after the cut is used as the representative picture. Since this modified example also employs a picture a fixed time after the cut as the representative image,
The same effect as in the case of the first description can be obtained. However, in the case of the first description above, the picture is not necessarily a picture after a certain time has elapsed from the cut. Therefore, the picture immediately after the cut may be adopted as the representative image. As described above, the image is likely to be disturbed immediately after the cut, and the image quality of the representative image may be unstable. Therefore, a more stable image can be adopted as a representative image by decoding the preceding I picture to a picture a fixed time after the cut and encoding the representative picture, and thus a stable intermittent video can be adopted. Can be created.

【0125】本実施の形態では、カットすなわち輝度も
しくは彩度、色相などの分布が時間的にある閾値以上に
なる時点の映像を代表画像として採用した。しかし、映
像の時間的な区切りの情報であれば、任意の情報を代表
画像として採用することができる。一般的には、映像の
特性が大きく変化する画像を表すイベントを検出して、
代表画像として採用することができる。イベントの検出
は、カットの検出のみならずテロップの検出も含まれ
る。テロップは、映像の空間的勾配の総量が時間的に大
きく変化する時点の映像として検出される。概して、ニ
ュースなどの映像ではテロップの出現した直後の映像
に、シーンの要約が提示されることが多いため、テロッ
プの出現直後のピクチャを代表画像として間欠映像を作
成すると、利用価値の高い間欠映像を得ることができ
る。本実施の形態では、カットの検出を説明したが、こ
の説明はイベントの検出にも適用される。イベントを検
出するためには、カットを検出するためのカット検出部
83と同様の動作を行うイベント検出部を設ければよ
い。
In the present embodiment, the video at the time when the cut, that is, the distribution of luminance, saturation, hue, etc., becomes temporally equal to or more than a certain threshold value is adopted as the representative image. However, any information can be used as the representative image as long as the information is temporally separated from the video. Generally, when an event representing an image in which the characteristics of a video greatly changes is detected,
It can be adopted as a representative image. Event detection includes not only cut detection but also telop detection. The telop is detected as the video at the time when the total amount of the spatial gradient of the video changes greatly over time. In general, in video such as news, a summary of the scene is often presented in the video immediately after the appearance of the telop. Can be obtained. In the present embodiment, the detection of a cut has been described, but this description is also applied to the detection of an event. In order to detect an event, an event detection unit that performs the same operation as the cut detection unit 83 for detecting a cut may be provided.

【0126】以上、本発明の実施の形態2によるデータ
変換装置の構成および動作の説明を終わる。
The description of the configuration and operation of the data conversion device according to the second embodiment of the present invention has been completed.

【0127】上述した実施の形態1および2のデータ変
換装置は、広く利用されているMPEG規格で符号化さ
れた映像音声情報を取り扱う装置として実現されること
が望ましい。MPEG規格化された情報を扱うことによ
り、ユーザは現在までにMPEG規格に関連して確立さ
れた技術を利用することができる。
It is desirable that the data converters of the first and second embodiments be realized as a device that handles video and audio information encoded according to the widely used MPEG standard. By handling information that is MPEG-standardized, the user can utilize the technology established to date with respect to the MPEG standard.

【0128】[0128]

【発明の効果】本発明によれば、符号化されたデータ列
を復号化することなく映像情報を変換することができ
る。したがって、画質劣化のない映像情報を得ることが
できる。さらに、復号化に要する計算に必要な負荷を減
少することができる。
According to the present invention, video information can be converted without decoding an encoded data sequence. Therefore, video information without image quality degradation can be obtained. Furthermore, the load required for the calculation required for decoding can be reduced.

【0129】本発明によれば、映像のシーンチェンジな
どのイベント検出部を併用することによって、より重要
度の高い画像を代表画像とする間欠映像音声を作成する
ことができる。また、使用する携帯端末に応じた形で間
欠画像を録画することができるようになる。
According to the present invention, it is possible to create an intermittent video / audio having a more important image as a representative image by using an event detector for scene change of a video or the like. In addition, the intermittent image can be recorded in a form according to the mobile terminal used.

【図面の簡単な説明】[Brief description of the drawings]

【図1】MPEGデータ列の一般的なデータ構造(デー
タフォーマット)を示す図である。
FIG. 1 is a diagram showing a general data structure (data format) of an MPEG data string.

【図2A】本発明の第1の実施の形態における、映像変
換処理を行うための本発明のデータ変換装置100を示
す。
FIG. 2A shows a data conversion device 100 of the present invention for performing a video conversion process in the first embodiment of the present invention.

【図2B】本発明のデータ変換装置が行う映像変換処理
の手順を示すフローチャートである。
FIG. 2B is a flowchart showing a procedure of a video conversion process performed by the data conversion device of the present invention.

【図3A】分離部22(図2A)がMPEG映像音声情
報を映像情報と非映像情報に分離する手順を示すフロー
チャートである。
FIG. 3A is a flowchart showing a procedure in which a separation unit 22 (FIG. 2A) separates MPEG video / audio information into video information and non-video information.

【図3B】MPEG映像音声情報(図1)が映像情報と
非映像情報とに分離される処理を示す図である。
FIG. 3B is a diagram showing a process in which MPEG video / audio information (FIG. 1) is separated into video information and non-video information.

【図4】結合情報の例を示す図である。FIG. 4 is a diagram illustrating an example of combination information.

【図5A】映像変換部24(図2A)が連続する映像情
報を間欠映像情報に変換する処理の手順を示すフローチ
ャートである。
FIG. 5A is a flowchart showing a procedure of a process in which a video conversion unit 24 (FIG. 2A) converts continuous video information into intermittent video information.

【図5B】入力された映像情報から取り出したGOP5
0と、GOP50を変換して得られる間欠映像情報のG
OP52の対応関係を示す図である。
FIG. 5B: GOP5 extracted from the input video information
0 and G of intermittent video information obtained by converting GOP50.
It is a figure showing the correspondence of OP52.

【図6】映像情報に含まれる複数のGOP列60から間
欠映像情報の単一のGOP62を生成する場合のヘッダ
およびピクチャの対応関係を示す図である。
FIG. 6 is a diagram illustrating a correspondence relationship between a header and a picture when a single GOP 62 of intermittent video information is generated from a plurality of GOP columns 60 included in the video information.

【図7A】結合部26(図2A)が間欠映像情報と非映
像情報とを結合する処理の手順を示すフローチャートで
ある。
FIG. 7A is a flowchart illustrating a procedure of a process in which a combining unit (FIG. 2A) combines intermittent video information and non-video information.

【図7B】間欠映像情報と非映像情報とが結合され、M
PEG映像音声情報が作成される処理を示す図である。
FIG. 7B is a diagram in which intermittent video information and non-video information are combined and M
FIG. 4 is a diagram illustrating a process for creating PEG video / audio information.

【図8】本発明の第2の実施の形態における、映像に含
まれるカット検出を行うための構成を含むデータ変換装
置800を示す図である。
FIG. 8 is a diagram illustrating a data conversion device 800 including a configuration for performing cut detection included in video according to the second embodiment of the present invention.

【図9】映像を間欠的に、音声を連続的に記録し、再生
するための従来のデータ変換装置を示す図である。
FIG. 9 is a diagram showing a conventional data converter for recording and reproducing audio intermittently and audio continuously.

【符号の説明】[Explanation of symbols]

20 映像音声情報入力部 22 分離部 24 映像変換部 26 結合部 28 映像音声情報記録部 Reference Signs List 20 video / audio information input unit 22 separation unit 24 video conversion unit 26 coupling unit 28 video / audio information recording unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 赤木 宏之 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 Fターム(参考) 5C052 AA17 AB03 AB04 AC02 AC03 AC08 CC11 CC20 DD06 GA03 GA04 GA06 GA07 GB06 GB07 GB09 GC06 GD09 GE04 GE08 5C053 FA14 FA27 GB06 GB08 GB09 GB10 GB11 GB12 GB21 GB37 GB40 HA29 JA21 JA30 KA05 5C059 KK39 LB07 MA00 MA23 MC32 PP01 PP05 PP06 PP07 RB01 RC02 RC07 RC32 RC39 SS19 SS30 UA02 UA05  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Hiroyuki Akagi 22-22, Nagaikecho, Abeno-ku, Osaka-shi, Osaka F-term (reference) 5C052 AA17 AB03 AB04 AC02 AC03 AC08 CC11 CC20 DD06 GA03 GA04 GA06 GA07 GB06 GB07 GB09 GC06 GD09 GE04 GE08 5C053 FA14 FA27 GB06 GB08 GB09 GB10 GB11 GB12 GB21 GB37 GB40 HA29 JA21 JA30 KA05 5C059 KK39 LB07 MA00 MA23 MC32 PP01 PP05 PP06 PP07 RB01 RC02 RC07 RC32 RC39 SS19 SS30 UA02 UA05

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 映像を表す符号化された第1の映像情報
と映像以外の情報を表す符号化された非映像情報とを含
む第1のデータ列を入力する入力部と、 前記符号化された第1の映像情報と前記符号化された非
映像情報とを復号化することなく、前記第1のデータ列
に含まれる前記符号化された第1の映像情報と前記符号
化された非映像情報とを分離する分離部と、 分離された前記符号化された第1の映像情報を符号化さ
れた第2の映像情報に変換する映像変換部と、 前記符号化された第2の映像情報と分離された前記符号
化された非映像情報とを結合することにより、第2のデ
ータ列を生成する結合部とを有するデータ変換装置。
An input unit for inputting a first data string including coded first video information representing video and coded non-video information representing information other than video; The encoded first video information and the encoded non-video included in the first data sequence without decoding the first video information and the encoded non-video information. A separating unit that separates the coded first video information into a coded second video information; and a coded second video information. And a combining unit configured to combine the encoded non-video information with the separated non-video information to generate a second data string.
【請求項2】 前記符号化された第2の映像情報は、前
記映像を間引いた間欠映像を表す、請求項1に記載のデ
ータ変換装置。
2. The data conversion device according to claim 1, wherein the encoded second video information represents an intermittent video obtained by thinning the video.
【請求項3】 前記分離部は、分離された前記符号化さ
れた第1の映像情報と前記符号化された非映像情報との
結合に関する第1の結合情報を前記映像変換部に出力
し、 前記映像変換部は、前記符号化された第1の映像情報か
ら前記符号化された第2の映像情報への変換にしたがっ
て、前記第1の結合情報から、前記符号化された第2の
映像情報と前記符号化された非映像情報との結合に関す
る第2の結合情報を生成し、 前記結合部は、前記第2の結合情報に基づいて前記符号
化された第2の映像情報と前記符号化された非映像情報
とを結合することにより前記第2のデータ列を生成す
る、請求項1に記載のデータ変換装置。
3. The separation unit outputs, to the video conversion unit, first combined information regarding a combination of the separated coded first video information and the coded non-video information, The video converter is configured to convert the encoded second video information from the first combined information in accordance with the conversion from the encoded first video information to the encoded second video information. Generating second combination information relating to a combination of information and the encoded non-video information, wherein the coupling unit generates the encoded second video information and the code based on the second combination information; The data conversion device according to claim 1, wherein the second data string is generated by combining the non-video information converted into the second data string.
【請求項4】 前記符号化された非映像情報は、前記第
1のデータ列に含まれる前記符号化された第1の映像情
報の再生と前記符号化された非映像情報との再生を同期
させるための同期情報を含み、 前記結合部は、前記同期情報を前記符号化された第2の
データの同期情報として用いる、請求項1に記載のデー
タ変換装置。
4. The encoded non-video information synchronizes reproduction of the encoded first video information included in the first data string with reproduction of the encoded non-video information. The data conversion device according to claim 1, further comprising: synchronization information for causing the second unit to use the synchronization information as synchronization information of the encoded second data.
【請求項5】 前記第1のデータ列はMPEG圧縮符号
化された第1のMPEGデータ列であり、前記第2のデ
ータ列はMPEG圧縮符号化された第2のMPEGデー
タ列であり、 前記符号化された第1の映像情報は、所定の数の第1の
ピクチャを含み、 前記符号化された第2の映像情報は、前記所定の数の第
2のピクチャを含む、請求項1に記載のデータ変換装
置。
5. The method according to claim 1, wherein the first data string is a first MPEG data string encoded by MPEG compression, the second data string is a second MPEG data string encoded by MPEG, The coded first video information includes a predetermined number of first pictures, and the coded second video information includes the predetermined number of second pictures. Data conversion device as described.
【請求項6】 前記映像変換部は、前記所定の数の前記
第1のピクチャのうち、少なくとも1つのピクチャを除
くピクチャをダミーピクチャに変換することによって、
前記少なくとも1つのピクチャと前記ダミーピクチャと
から前記所定の数の前記第2のピクチャを生成し、 前記少なくとも1つのピクチャは前記映像の一部を表す
情報を含むピクチャであり、前記ダミーピクチャは前記
映像の一部の表示を保持させるための情報を含むピクチ
ャである、請求項5に記載のデータ変換装置。
6. The video converter, by converting a picture excluding at least one picture among the predetermined number of the first pictures into a dummy picture,
Generating the predetermined number of the second pictures from the at least one picture and the dummy picture, wherein the at least one picture is a picture including information representing a part of the video, and the dummy picture is The data conversion device according to claim 5, wherein the data conversion device is a picture including information for holding display of a part of a video.
【請求項7】 前記所定の数の第1のピクチャは、少な
くともイントラピクチャと非イントラピクチャとを含
み、前記イントラピクチャと前記非イントラピクチャは
所定の順序で配置されており、 前記少なくとも1つのピクチャは、最初に配置されたイ
ントラピクチャを含む、請求項6に記載のデータ変換装
置。
7. The predetermined number of first pictures includes at least an intra picture and a non-intra picture, wherein the intra picture and the non-intra picture are arranged in a predetermined order, and the at least one picture The data conversion apparatus according to claim 6, wherein the data conversion apparatus includes an initially arranged intra picture.
【請求項8】 前記第1のデータ列はMPEG圧縮符号
化された第1のMPEGデータ列であり、前記第2のデ
ータ列はMPEG圧縮符号化された第2のMPEGデー
タ列であり、 前記符号化された第1の映像情報は、各々が複数のピク
チャを有する複数のGOPを含み、 前記映像変換部は、複数のGOPのうち第1のGOPの
少なくとも1つのピクチャを除くピクチャと、前記第1
のGOPを除く前記複数のGOPの各々に含まれる前記
複数のピクチャをダミーピクチャに変換することによっ
て、前記第1のGOPの少なくとも1つのピクチャと前
記ダミーピクチャとから単一のGOPを生成し、 前記第1のGOPの前記少なくとも1つのピクチャは前
記映像の一部を表す情報を含むピクチャであり、前記ダ
ミーピクチャは前記映像の一部の表示を保持させるため
の情報を含むピクチャであり、 前記複数のGOPに含まれる前記複数のピクチャの総数
と、前記前記映像変換部によって生成された前記単一の
GOPに含まれるピクチャの総数は同じである、請求項
1に記載のデータ変換装置。
8. The first data stream is a first MPEG data stream that has been MPEG-compressed and encoded, and the second data stream is a second MPEG data stream that has been MPEG-compressed and encoded. The encoded first video information includes a plurality of GOPs each having a plurality of pictures, the video conversion unit includes a picture excluding at least one picture of a first GOP among the plurality of GOPs, First
Generating a single GOP from at least one picture of the first GOP and the dummy picture by converting the plurality of pictures included in each of the plurality of GOPs except the GOP of The at least one picture of the first GOP is a picture including information representing a part of the video, the dummy picture is a picture including information for holding display of a part of the video, The data conversion device according to claim 1, wherein the total number of the plurality of pictures included in the plurality of GOPs is the same as the total number of pictures included in the single GOP generated by the video conversion unit.
【請求項9】 前記複数のGOPの各々は第1の所定の
順序で配置されており、 前記複数のGOPの各々に含まれる前記複数のピクチャ
は、少なくともイントラピクチャと非イントラピクチャ
とを含み、前記イントラピクチャと前記非イントラピク
チャは、第2の所定の順序で配置されており、 前記第1のGOPは、前記第1の所定の順序で配置され
た前記複数のGOPのうち最初に配置されたGOPであ
り、 前記第1のGOPの少なくとも1つのピクチャは、前記
第2の所定の順序で配置された前記第1のGOPの前記
複数のピクチャのうち最初に配置されたイントラピクチ
ャである、請求項8に記載のデータ変換装置。
9. Each of the plurality of GOPs is arranged in a first predetermined order, wherein the plurality of pictures included in each of the plurality of GOPs include at least an intra picture and a non-intra picture; The intra picture and the non-intra picture are arranged in a second predetermined order, and the first GOP is arranged first among the plurality of GOPs arranged in the first predetermined order. At least one picture of the first GOP is an intra picture arranged first among the plurality of pictures of the first GOP arranged in the second predetermined order. The data conversion device according to claim 8.
【請求項10】 前記符号化された第1の映像情報は、
所定の順序で配置され、各々が少なくともイントラピク
チャを含む複数のGOPを含み、 前記データ変換装置は、 前記符号化された第1の映像情報の所定の部分を復号化
する部分復号部と、 前記復号された前記所定の部分に基づいて、前記映像の
特性が大きく変化する画像を表すイベントを検出するイ
ベント検出部とをさらに含み、 前記映像変換部は、前記イベントに対応するピクチャに
基づいて少なくとも1つのピクチャを選択し、前記所定
の数の前記第2のピクチャを生成する、請求項6に記載
のデータ変換装置。
10. The encoded first video information includes:
A plurality of GOPs arranged in a predetermined order, each including at least an intra picture; the data conversion device; a partial decoding unit configured to decode a predetermined portion of the encoded first video information; An event detection unit that detects an event representing an image in which the characteristics of the video change significantly based on the decoded predetermined portion, wherein the video conversion unit is configured to perform at least a video conversion based on a picture corresponding to the event. 7. The data conversion device according to claim 6, wherein one picture is selected and the predetermined number of the second pictures is generated.
【請求項11】 前記少なくとも1つのピクチャは、前
記イベントに対応するピクチャを含むGOPの次に配置
されたGOPのイントラピクチャである、請求項10に
記載のデータ変換装置。
11. The data conversion apparatus according to claim 10, wherein the at least one picture is an intra picture of a GOP arranged next to a GOP including a picture corresponding to the event.
【請求項12】 前記少なくとも1つのピクチャは、前
記イベントに対応するピクチャの次のピクチャである、
請求項10に記載のデータ変換装置。
12. The at least one picture is a picture next to a picture corresponding to the event,
The data conversion device according to claim 10.
【請求項13】 前記少なくとも1つのピクチャは、前
記イベントに対応するピクチャが再生されてから所定の
時間を経過した後に再生されるピクチャである、請求項
10に記載のデータ変換装置。
13. The data conversion apparatus according to claim 10, wherein the at least one picture is a picture that is played after a predetermined time has elapsed since the picture corresponding to the event was played.
【請求項14】 前記データ変換装置は、所定のパラメ
ータに応じて、前記所定の順序で配置されているピクチ
ャのうちの任意のピクチャを、前記少なくとも1つのピ
クチャとして利用する、請求項7に記載のデータ変換装
置。
14. The data conversion apparatus according to claim 7, wherein the data conversion device uses an arbitrary picture among the pictures arranged in the predetermined order as the at least one picture according to a predetermined parameter. Data conversion device.
【請求項15】 前記符号化された非映像情報は、前記
第1の映像情報の情報量を示す第1のパケット長データ
を含み、 前記結合部は、前記第2の映像情報の情報量にしたがっ
て前記第1のパケット長データを修正することにより、
第2のパケット長データを生成し、前記非映像情報とし
て前記第2のデータ列に含める、請求項1に記載のデー
タ変換装置。
15. The coded non-video information includes first packet length data indicating an information amount of the first video information, and the combining unit reduces the information amount of the second video information. Therefore, by modifying the first packet length data,
The data conversion device according to claim 1, wherein the second packet length data is generated and included in the second data string as the non-video information.
JP8490299A 1999-03-26 1999-03-26 Data conversion device Pending JP2000278643A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8490299A JP2000278643A (en) 1999-03-26 1999-03-26 Data conversion device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8490299A JP2000278643A (en) 1999-03-26 1999-03-26 Data conversion device

Publications (1)

Publication Number Publication Date
JP2000278643A true JP2000278643A (en) 2000-10-06

Family

ID=13843679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8490299A Pending JP2000278643A (en) 1999-03-26 1999-03-26 Data conversion device

Country Status (1)

Country Link
JP (1) JP2000278643A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003073756A1 (en) * 2002-02-27 2003-09-04 Konica Corporation Moving picture data generation system, moving picture data generation method, moving picture data generation program, and information recording medium
JP2004280994A (en) * 2003-03-18 2004-10-07 Matsushita Electric Ind Co Ltd Data creation method and data recorder
JP2005020755A (en) * 2003-06-26 2005-01-20 Given Imaging Ltd Method for reducing transmission of stream of images captured in internal body cavities, in-vivo device for transmitting image data, and system for displaying in-vivo images
JP2005507213A (en) * 2001-10-23 2005-03-10 トムソン ライセンシング ソシエテ アノニム Frame drop trick mode using interlaced dummy bi-predictive pictures
JP2006011757A (en) * 2004-06-24 2006-01-12 Sony Corp Data transfer device, data transfer method and computer program
JP2007243706A (en) * 2006-03-09 2007-09-20 Victor Co Of Japan Ltd Apparatus and method for data format conversion
JP2008538058A (en) * 2005-03-24 2008-10-02 テラヨン コミュニケーションズ システムズ, インコーポレイテッド Video keying in the compressed domain

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005507213A (en) * 2001-10-23 2005-03-10 トムソン ライセンシング ソシエテ アノニム Frame drop trick mode using interlaced dummy bi-predictive pictures
WO2003073756A1 (en) * 2002-02-27 2003-09-04 Konica Corporation Moving picture data generation system, moving picture data generation method, moving picture data generation program, and information recording medium
JP2004280994A (en) * 2003-03-18 2004-10-07 Matsushita Electric Ind Co Ltd Data creation method and data recorder
JP2005020755A (en) * 2003-06-26 2005-01-20 Given Imaging Ltd Method for reducing transmission of stream of images captured in internal body cavities, in-vivo device for transmitting image data, and system for displaying in-vivo images
JP4496019B2 (en) * 2003-06-26 2010-07-07 ギブン イメージング リミテッド Method for reducing transmission of image streams taken in vivo
JP2006011757A (en) * 2004-06-24 2006-01-12 Sony Corp Data transfer device, data transfer method and computer program
JP2008538058A (en) * 2005-03-24 2008-10-02 テラヨン コミュニケーションズ システムズ, インコーポレイテッド Video keying in the compressed domain
US8111746B2 (en) 2005-03-24 2012-02-07 Motorola Mobility, Inc. Motion graphics keying in the compressed domain
JP2007243706A (en) * 2006-03-09 2007-09-20 Victor Co Of Japan Ltd Apparatus and method for data format conversion

Similar Documents

Publication Publication Date Title
US8355439B2 (en) Transcoder and imaging apparatus for converting an encoding system of video signal
US6396874B1 (en) Decoding method and apparatus and recording method and apparatus for moving picture data
US8676038B2 (en) Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
JP3932546B2 (en) MPEG video editing apparatus and MPEG video editing method
JP2004072793A (en) Video recording method and device, video replay method and device, and recording medium
JP2008079050A (en) Reproduction method, reproduction program and reproduction apparatus
US20080199147A1 (en) Apparatus for reproducing moving image stream with speed change and method thereof
JP2004201100A (en) Additional information inserting device and its method
JP2000278643A (en) Data conversion device
JP4262139B2 (en) Signal processing device
JP2005109829A (en) Transport stream recording and editing device and recording and editing method
JP3794146B2 (en) Information reproducing apparatus and method, and providing medium
JP3039472B2 (en) Image and audio playback device
JPH11252507A (en) Video signal reproducing device, its method, video signal recording and reproducing device and its method
JP3897783B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
US20050157798A1 (en) Image processing apparatus and its control method, and computer program and computer-readable storage medium
JP2005051287A (en) Transcoder and recording/reproducing apparatus using the same
JP2006262320A (en) Video material transfer method, video material transfer sending-side apparatus and video material transfer receiving-side apparatus
JP2006101229A (en) Video reproducing apparatus
JP4829767B2 (en) Video recording / reproducing apparatus and video special reproducing method thereof
JP4120056B2 (en) Playback apparatus and playback method
JP2009010714A (en) Moving picture encoded data converter
JPH08130712A (en) Data editing method and editing device
JP2006319645A (en) Picture reproducer, method, program, and storage medium
KR20010062018A (en) Method and apparatus for editing motion picture

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20031215