JP2006197321A - Method and device for processing image, and program - Google Patents

Method and device for processing image, and program Download PDF

Info

Publication number
JP2006197321A
JP2006197321A JP2005007531A JP2005007531A JP2006197321A JP 2006197321 A JP2006197321 A JP 2006197321A JP 2005007531 A JP2005007531 A JP 2005007531A JP 2005007531 A JP2005007531 A JP 2005007531A JP 2006197321 A JP2006197321 A JP 2006197321A
Authority
JP
Japan
Prior art keywords
image
image data
data
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005007531A
Other languages
Japanese (ja)
Inventor
Katsuo Nire
勝夫 楡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005007531A priority Critical patent/JP2006197321A/en
Publication of JP2006197321A publication Critical patent/JP2006197321A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently compress image data. <P>SOLUTION: A one-frame portion is captured from image data, and captured image data are divided into high quality image data for displaying an image with a high image quality and low quality image data for displaying with a degraded quality, in accordance with a prescribed area. When captured image data have a prescribed frame, low quality image data are stored, and the low quality image data are read out, and high quality image data and the read low quality image data are synthesized, and synthesized image is compressed, whereby image data can be efficiently compressed. This invention is applicable to image processing methods. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は画像処理方法および装置、並びにプログラムに関し、特に、画像データを効率的に圧縮できるようにした画像処理方法および装置、並びにプログラムに関する。   The present invention relates to an image processing method, apparatus, and program, and more particularly, to an image processing method, apparatus, and program capable of efficiently compressing image data.

近年、テレビ電話などのように動画像を圧縮してネットワーク経由で伝送したり、HDD(Hard Disk Drive)レコーダやDVD(Digital Versatile Disk)レコーダなどのように動画像を圧縮して記録媒体に記録することができる機器が増加している。また、一般家庭内で、ネットワークに接続されたAV(Audio Visual)機器が、動画像を圧縮してネットワーク経由で伝送するといった環境が増加することも予想される。   In recent years, moving images are compressed and transmitted via a network, such as a videophone, and moving images are compressed and recorded on a recording medium, such as an HDD (Hard Disk Drive) recorder or DVD (Digital Versatile Disk) recorder. The equipment that can be increased. In addition, it is expected that an environment in which AV (Audio Visual) devices connected to a network compress a moving image and transmit the compressed image via the network in a general home is expected.

従来、動画像を伝送する場合には、伝送路の帯域の制限などから、一般的に画像データは圧縮されてから伝送される。また、同様に、動画像を記録媒体に記録する場合にも、記録媒体の容量の制限などから、一般的に画像データは圧縮されてから記録される。さらに、入力される信号がアナログ信号である場合には、A/D変換(Analog/Digital Conversion)を行って、アナログ信号をデジタル信号に変換してから、MPEG(Moving Picture Experts Group)などのコーデック(CODEC(Compression/Decompression))によりエンコード(符号化)を行ってデータを圧縮している。   Conventionally, when transmitting a moving image, the image data is generally compressed after being transmitted due to the limitation of the bandwidth of the transmission path. Similarly, when a moving image is recorded on a recording medium, the image data is generally recorded after being compressed due to the limitation of the capacity of the recording medium. Furthermore, if the input signal is an analog signal, A / D conversion (Analog / Digital Conversion) is performed to convert the analog signal to a digital signal, and then a codec such as MPEG (Moving Picture Experts Group). Data is compressed by encoding (encoding) using (CODEC (Compression / Decompression)).

また、エンコードされた画像データを受け取った側では、符号化された画像データをデコード(復号化)し、もとの画像データを得る。このように、デジタルデータである画像データにおいては、エンコードにより画像データを圧縮することで、画像データの容量を小さくしてから、所定の処理を実行させることができる。   On the other hand, the side receiving the encoded image data decodes the encoded image data to obtain the original image data. As described above, in the case of image data that is digital data, the image data is compressed by encoding, so that the predetermined processing can be executed after the capacity of the image data is reduced.

さらに、予め優先度を設定し、画像の注目する部分などの高い優先度に設定された部分を優先的に符号化することで、その部分を高画質で符号化できる動画符号化装置もある(例えば、特許文献1参照)。   In addition, there is a moving image encoding apparatus that can set a priority in advance and preferentially encode a portion set to a high priority such as a focused portion of an image, thereby encoding the portion with high image quality ( For example, see Patent Document 1).

特開平5−95540号公報Japanese Patent Laid-Open No. 5-95540

しかしながら、符号化された画像データを復号する場合に、コーデックの圧縮方式が変更されると、その方式にあったデコーダでなければ、画像データを復号することができないという問題があった。例えば、特開平5−95540号公報に公開されている動画符号化装置は、エンコードをする際のコーデックの圧縮方式にあわせて、再生側のデコーダも変更する必要があった。   However, when the encoded image data is decoded, there is a problem that if the compression method of the codec is changed, the image data cannot be decoded unless it is a decoder suitable for the method. For example, the moving picture coding apparatus disclosed in Japanese Patent Laid-Open No. 5-95540 has to change the decoder on the playback side in accordance with the compression method of the codec used for encoding.

また、コーデックの圧縮方式を高圧縮の方式に変更した場合、圧縮の処理にかかる負荷が増えるので、エンコーダにある程度の処理能力が必要となる。   In addition, when the codec compression method is changed to a high compression method, the load on the compression process increases, so that the encoder needs a certain degree of processing capability.

さらに、伝送路の帯域や記録媒体の容量の制限から、所望の圧縮レートを確保できないことがある。この場合、圧縮レートを減らさなければならないが、デコードしたときに画像全体の品質が劣化するという問題があった。また、画像を高画質にしたい場合であっても、伝送路の帯域や記録媒体の容量の制限から圧縮レートを上げることができないという問題もあった。   Furthermore, a desired compression rate may not be ensured due to limitations on the bandwidth of the transmission path and the capacity of the recording medium. In this case, although the compression rate has to be reduced, there is a problem that the quality of the entire image deteriorates when decoded. In addition, even when it is desired to improve the image quality, there has been a problem that the compression rate cannot be increased due to limitations on the bandwidth of the transmission path and the capacity of the recording medium.

本発明はこのような状況に鑑みてなされたものであり、エンコードをする前に、高画質にする領域における画像データと、高画質にしない領域における画像データとに分けることで、画像データを効率的に圧縮できるようにするものである。   The present invention has been made in view of such a situation. Before encoding, image data is divided into image data in a region where high image quality is to be obtained and image data in a region where high image quality is not high, so that the image data is efficiently processed. So that it can be compressed.

本発明の画像処理方法は、動画像を表示するためのピクチャのそれぞれを表示させる第1の画像データのそれぞれを、ピクチャ上の所定の領域に応じて、第1のデータと第2のデータとに分割する分割ステップと、所定の期間に表示される予め定められた数のピクチャのうちの予め定めたピクチャの第1の画像データから分割された第2のデータを記憶する記憶ステップと、期間の予め定められた数のピクチャの第1の画像データのそれぞれから分割された第1のデータのそれぞれと、記録されている第2のデータとから、期間の予め定められた数のピクチャのそれぞれを表示させる第2の画像データのそれぞれを生成する生成ステップと、ピクチャ間の差分を基に、圧縮符号化する符号化方式により、第2の画像データを符号化する符号化ステップとを含むことを特徴とする。   According to the image processing method of the present invention, each of the first image data for displaying each of the pictures for displaying the moving image is converted into the first data and the second data according to a predetermined area on the picture. A division step of dividing the first image data of a predetermined number of pictures displayed in a predetermined period, a storage step of storing second data divided from the first image data of the predetermined picture, and a period Each of the predetermined number of pictures of the period from each of the first data divided from each of the first image data of the predetermined number of pictures and the recorded second data. Generating the second image data for displaying the image, and encoding for encoding the second image data by the encoding method for compression encoding based on the difference between the pictures Characterized in that it comprises a step.

また、本発明の画像処理方法は、第2のデータの画素値の所定の桁数の下位ビットの値を、予め定めた値に置換するように、第2のデータを補正する補正ステップをさらに含むことを特徴とする。   The image processing method of the present invention further includes a correction step of correcting the second data so as to replace the value of the lower-order bit of the predetermined number of digits of the pixel value of the second data with a predetermined value. It is characterized by including.

さらに、本発明の画像処理方法は、ピクチャにおける被写体の画像の移動した量である動き量を検出する検出ステップと、動き量を基に、第1の画像データを第1のデータと第2のデータとに分割するための領域を決定する決定ステップとをさらに含むことを特徴とする。   Furthermore, the image processing method of the present invention includes a detection step of detecting a movement amount that is a moving amount of an image of a subject in a picture, and the first image data and the second data based on the movement amount. And a determination step for determining an area to be divided into data.

また、本発明の画像処理方法は、画像データを相手に送信するためのネットワークにおける遅延時間を計測する計測ステップと、遅延時間を基に、第1の画像データを第1のデータと第2のデータとに分割するための領域を決定する決定ステップとをさらに含むことを特徴とする。   The image processing method of the present invention also includes a measurement step for measuring a delay time in a network for transmitting image data to the other party, and the first image data and the second data based on the delay time. And a determination step for determining an area to be divided into data.

本発明の画像処理装置は、動画像を表示するためのピクチャのそれぞれを表示させる第1の画像データのそれぞれを、ピクチャ上の所定の領域に応じて、第1のデータと第2のデータとに分割する分割手段と、所定の期間に表示される予め定められた数のピクチャのうちの予め定めたピクチャの第1の画像データから分割された第2のデータを記憶する記憶手段と、期間の予め定められた数のピクチャの第1の画像データのそれぞれから分割された第1のデータのそれぞれと、記録されている第2のデータとから、期間の予め定められた数のピクチャのそれぞれを表示させる第2の画像データのそれぞれを生成する生成手段と、ピクチャ間の差分を基に、圧縮符号化する符号化方式により、第2の画像データを符号化する符号化手段とを備えることを特徴とする。   The image processing apparatus according to the present invention uses first data, second data, and first image data for displaying each of the pictures for displaying a moving image according to a predetermined area on the picture. A dividing unit that divides the first data of the predetermined number of pictures displayed in a predetermined period, a storage unit that stores the second data divided from the first image data of the predetermined picture, and a period Each of the predetermined number of pictures of the period from each of the first data divided from each of the first image data of the predetermined number of pictures and the recorded second data. Generating means for generating each of the second image data for displaying the image, and encoding means for encoding the second image data by an encoding method for compression encoding based on a difference between pictures. It is characterized in.

本発明のプログラムは、動画像を表示するためのピクチャのそれぞれを表示させる第1の画像データのそれぞれを、ピクチャ上の所定の領域に応じて、第1のデータと第2のデータとに分割する分割ステップと、所定の期間に表示される予め定められた数のピクチャのうちの予め定めたピクチャの第1の画像データから分割された第2のデータを記憶する記憶ステップと、期間の予め定められた数のピクチャの第1の画像データのそれぞれから分割された第1のデータのそれぞれと、記録されている第2のデータとから、期間の予め定められた数のピクチャのそれぞれを表示させる第2の画像データのそれぞれを生成する生成ステップと、ピクチャ間の差分を基に、圧縮符号化する符号化方式により、第2の画像データを符号化する符号化ステップと含むことを特徴とする。   The program of the present invention divides each first image data for displaying each picture for displaying a moving image into first data and second data according to a predetermined area on the picture. A dividing step, a storing step for storing second data divided from the first image data of a predetermined picture among a predetermined number of pictures displayed in a predetermined period, and a period of Each of the predetermined number of pictures of the period is displayed from each of the first data divided from each of the first image data of the predetermined number of pictures and the recorded second data. A generating step for generating each of the second image data to be encoded, and an encoding step for encoding the second image data by an encoding method for compression encoding based on a difference between pictures. Characterized in that it comprises a-up.

本発明の画像処理方法および装置、並びにプログラムにおいては、動画像を表示するためのピクチャのそれぞれを表示させる第1の画像データのそれぞれを、ピクチャ上の所定の領域に応じて、第1のデータと第2のデータとに分割し、所定の期間に表示される予め定められた数のピクチャのうちの予め定めたピクチャの第1の画像データから分割された第2のデータを記憶し、期間の予め定められた数のピクチャの第1の画像データのそれぞれから分割された第1のデータのそれぞれと、記録されている第2のデータとから、期間の予め定められた数のピクチャのそれぞれを表示させる第2の画像データのそれぞれを生成し、ピクチャ間の差分を基に、圧縮符号化する符号化方式により、第2の画像データを符号化する。   In the image processing method, apparatus, and program of the present invention, each of the first image data for displaying each of the pictures for displaying the moving image is changed to the first data according to a predetermined area on the picture. And second data divided from the first image data of a predetermined picture out of a predetermined number of pictures displayed in a predetermined period, and stored in a period Each of the predetermined number of pictures of the period from each of the first data divided from each of the first image data of the predetermined number of pictures and the recorded second data. Each of the second image data to be displayed is generated, and the second image data is encoded by an encoding method in which compression encoding is performed based on the difference between pictures.

本発明によれば、画像データを効率的に圧縮することができる。   According to the present invention, image data can be efficiently compressed.

また、本発明によれば、効率的に圧縮するための画像データをエンコーダに供給するので、既存のエンコーダとデコーダをそのまま利用することができる。   In addition, according to the present invention, image data for efficient compression is supplied to the encoder, so that the existing encoder and decoder can be used as they are.

さらに、本発明によれば、高画質であることを要求される画像の領域の画質を維持したまま、データ量を少なくすることができる。   Furthermore, according to the present invention, it is possible to reduce the amount of data while maintaining the image quality of an image area required to have high image quality.

以下に本発明の最良の形態を説明するが、開示される発明と実施の形態との対応関係を例示すると、次のようになる。本明細書中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応していないものであることを意味するものではない。   BEST MODE FOR CARRYING OUT THE INVENTION The best mode of the present invention will be described below. The correspondence relationship between the disclosed invention and the embodiments is exemplified as follows. Although there are embodiments which are described in this specification but are not described here as corresponding to the invention, the embodiments correspond to the invention. It does not mean that it is not a thing. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. It is not a thing.

さらに、この記載は、明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現し、追加される発明の存在を否定するものではない。   Further, this description does not mean all the inventions described in the specification. In other words, this description is for the invention described in the specification and not claimed in this application, i.e., for the invention that will be applied for in the future or that will appear as a result of amendment and added. It does not deny existence.

本発明によれば、画像処理方法が提供される。この画像処理方法は、動画像を表示するためのピクチャのそれぞれを表示させる第1の画像データのそれぞれを、ピクチャ上の所定の領域に応じて、第1のデータと第2のデータとに分割する分割ステップ(例えば、図4のステップS13の処理)と、所定の期間に表示される予め定められた数のピクチャのうちの予め定めたピクチャの第1の画像データから分割された第2のデータを記憶する記憶ステップ(例えば、図4のステップS15の処理)と、期間の予め定められた数のピクチャの第1の画像データのそれぞれから分割された第1のデータのそれぞれと、記録されている第2のデータとから、期間の予め定められた数のピクチャのそれぞれを表示させる第2の画像データのそれぞれを生成する生成ステップ(例えば、図4のステップS16の処理)と、ピクチャ間の差分を基に、圧縮符号化する符号化方式により、第2の画像データを符号化する符号化ステップ(例えば、図4のステップS17の処理)とを含む。   According to the present invention, an image processing method is provided. In this image processing method, each of first image data for displaying each picture for displaying a moving image is divided into first data and second data according to a predetermined area on the picture. A dividing step (for example, the process of step S13 in FIG. 4), and a second divided from the first image data of a predetermined picture out of a predetermined number of pictures displayed in a predetermined period A storage step of storing data (for example, the process of step S15 in FIG. 4), and each of the first data divided from each of the first image data of a predetermined number of pictures in the period Generating step (for example, the step of FIG. 4) for generating each of the second image data for displaying each of the predetermined number of pictures of the period from the second data. It includes the process of S16), based on the difference between pictures, the coding method for compressing and encoding, and an encoding step of encoding the second image data (for example, step S17 in FIG. 4).

また、この画像処理方法は、第2のデータの画素値の所定の桁数の下位ビットの値を、予め定めた値に置換するように、第2のデータを補正する補正ステップ(例えば、図8のステップS36の処理)をさらに含む。   In addition, this image processing method corrects the second data so as to replace the value of the lower-order bit of the predetermined number of digits of the pixel value of the second data with a predetermined value (for example, FIG. 8 (step S36).

さらに、この画像処理方法は、ピクチャにおける被写体の画像の移動した量である動き量を検出する検出ステップ(例えば、図10のステップS53の処理)と、動き量を基に、第1の画像データを第1のデータと第2のデータとに分割するための領域を決定する決定ステップ(例えば、図10のステップS54の処理)とをさらに含む。   Furthermore, this image processing method uses the detection step (for example, the process of step S53 in FIG. 10) for detecting the amount of motion that is the amount of movement of the subject image in the picture, and the first image data based on the amount of motion. And a determination step (for example, the process of step S54 in FIG. 10) for determining an area for dividing the data into the first data and the second data.

また、この画像処理方法は、画像データを相手に送信するためのネットワークにおける遅延時間を計測する計測ステップ(例えば、図15のステップS105の処理)と、遅延時間を基に、第1の画像データを第1のデータと第2のデータとに分割するための領域を決定する決定ステップ(例えば、図14のステップS74の処理)とをさらに含む。   In addition, this image processing method uses the measurement step for measuring the delay time in the network for transmitting the image data to the other party (for example, the process of step S105 in FIG. 15) and the first image data based on the delay time. Further includes a determination step (for example, the process of step S74 of FIG. 14) for determining an area for dividing the data into the first data and the second data.

本発明によれば、画像処理装置が提供される。この画像処理装置は、動画像を表示するためのピクチャのそれぞれを表示させる第1の画像データのそれぞれを、ピクチャ上の所定の領域に応じて、第1のデータと第2のデータとに分割する分割手段(例えば、図3の画像分割部51)と、所定の期間に表示される予め定められた数のピクチャのうちの予め定めたピクチャの第1の画像データから分割された第2のデータを記憶する記憶手段(例えば、図3の画像記憶部52)と、期間の予め定められた数のピクチャの第1の画像データのそれぞれから分割された第1のデータのそれぞれと、記録されている第2のデータとから、期間の予め定められた数のピクチャのそれぞれを表示させる第2の画像データのそれぞれを生成する生成手段(例えば、図3の画像合成部53)と、ピクチャ間の差分を基に、圧縮符号化する符号化方式により、第2の画像データを符号化する符号化手段(例えば、図2のエンコーダ15)とを備える。   According to the present invention, an image processing apparatus is provided. The image processing apparatus divides each first image data for displaying each picture for displaying a moving image into first data and second data according to a predetermined area on the picture. Dividing means (for example, the image dividing unit 51 in FIG. 3), and a second divided from the first image data of a predetermined picture among a predetermined number of pictures displayed in a predetermined period Storage means for storing data (for example, the image storage unit 52 in FIG. 3), and each of the first data divided from each of the first image data of a predetermined number of pictures in the period Generating means (for example, the image composition unit 53 in FIG. 3) for generating each of the second image data for displaying each of the predetermined number of pictures in the period from the second data, and between the pictures Based on the difference, the coding method for compressing and encoding comprises encoding means for encoding the second image data (e.g., the encoder 15 of FIG. 2) and.

本発明によれば、プログラムが提供される。このプログラムは、この画像処理方法は、動画像を表示するためのピクチャのそれぞれを表示させる第1の画像データのそれぞれを、ピクチャ上の所定の領域に応じて、第1のデータと第2のデータとに分割する分割ステップ(例えば、図4のステップS13の処理)と、所定の期間に表示される予め定められた数のピクチャのうちの予め定めたピクチャの第1の画像データから分割された第2のデータを記憶する記憶ステップ(例えば、図4のステップS15の処理)と、期間の予め定められた数のピクチャの第1の画像データのそれぞれから分割された第1のデータのそれぞれと、記録されている第2のデータとから、期間の予め定められた数のピクチャのそれぞれを表示させる第2の画像データのそれぞれを生成する生成ステップ(例えば、図4のステップS16の処理)と、ピクチャ間の差分を基に、圧縮符号化する符号化方式により、第2の画像データを符号化する符号化ステップ(例えば、図4のステップS17の処理)とを実行させる。   According to the present invention, a program is provided. In this image processing method, each of the first image data for displaying each of the pictures for displaying the moving image is converted into the first data and the second data according to a predetermined area on the picture. Dividing into data (for example, the process of step S13 in FIG. 4) and the first picture data of a predetermined picture out of a predetermined number of pictures displayed in a predetermined period. Storage step for storing the second data (for example, the process of step S15 in FIG. 4), and each of the first data divided from each of the first image data of a predetermined number of pictures in the period And a second generation step of generating each of the second image data for displaying each of a predetermined number of pictures in a period from the recorded second data (for example, For example, the process of step S16 in FIG. 4 and the encoding step for encoding the second image data by the encoding method for compression encoding based on the difference between pictures (for example, in step S17 in FIG. 4). Process).

このプログラムは、記憶媒体(例えば、図16の磁気ディスク321)に記憶することができる。   This program can be stored in a storage medium (for example, the magnetic disk 321 in FIG. 16).

以下、図面を参照しながら本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用したテレビ電話システムの一実施の形態の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an embodiment of a videophone system to which the present invention is applied.

テレビ電話装置1−1は、例えば、テレビ電話専用の機器、カメラを接続したパーソナルコンピュータ、IP(Internet Protocol)テレビ電話機(テレビ電話対応のIP電話機またはテレビ)、またはカメラを内蔵した携帯電話機などから構成される。   The videophone device 1-1 is, for example, a device dedicated to a videophone, a personal computer connected to a camera, an IP (Internet Protocol) videophone (IP phone or TV compatible with a videophone), or a mobile phone with a built-in camera. Composed.

テレビ電話装置1−1は、ネットワーク2を介して、画像データまたは音声データをテレビ電話装置1−2に送信するか、または、テレビ電話装置1−2から画像データまたは音声データを受信する。例えば、テレビ電話装置1−1は、ネットワーク2を介して、テレビ電話装置1−1を使用しているユーザの顔の画像の画像データや話している声の音声データをテレビ電話装置1−2に送信するか、テレビ電話装置1−2を使用している相手の顔の画像の画像データや話している声の音声データを受信する。   The videophone device 1-1 transmits image data or audio data to the videophone device 1-2 via the network 2, or receives image data or audio data from the videophone device 1-2. For example, the videophone device 1-1 transmits image data of a face image of a user who uses the videophone device 1-1 or voice data of a talking voice via the network 2 to the videophone device 1-2. Or the image data of the face image of the other party using the videophone device 1-2 or the voice data of the talking voice is received.

テレビ電話装置1−2は、テレビ電話装置1−1と同様に、テレビ電話専用の機器などから構成され、ネットワーク2を介して、画像データまたは音声データをテレビ電話装置1−1に送信するか、または、テレビ電話装置1−1から画像データまたは音声データを受信する。   Similarly to the video phone device 1-1, the video phone device 1-2 is composed of a device dedicated to the video phone, etc., and transmits image data or audio data to the video phone device 1-1 via the network 2. Alternatively, image data or audio data is received from the videophone device 1-1.

ネットワーク2は、例えば、携帯網、ISDN(Integrated Services Digital Network)などのPSTN(Public Switched Telephone Network)、インターネットなどから構成され、TCP/IP(Transmission Control Protocol/Internet Protocol)などの所定のプロトコルに従って、テレビ電話装置1−1とテレビ電話装置1−2とが相互にアクセスし得るようになされている。   The network 2 includes, for example, a mobile network, a PSTN (Public Switched Telephone Network) such as ISDN (Integrated Services Digital Network), the Internet, and the like, according to a predetermined protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol). The videophone device 1-1 and the videophone device 1-2 can access each other.

以下、テレビ電話装置1−1およびテレビ電話装置1−2を個々に区別する必要がないとき、単に、テレビ電話装置1と称する。   Hereinafter, when it is not necessary to distinguish the videophone device 1-1 and the videophone device 1-2 from each other, they are simply referred to as the videophone device 1.

図2は、本発明を適用したテレビ電話装置1の一実施の形態の構成を示すブロック図である。テレビ電話装置1は、本発明の画像処理装置の一例である。   FIG. 2 is a block diagram showing a configuration of an embodiment of a videophone device 1 to which the present invention is applied. The videophone device 1 is an example of an image processing device of the present invention.

カメラ11は、CCD(Charge Coupled Device)センサなどにより構成される。カメラ11は、被写体(図示せず)からの光を取り込み、被写体の画像に対応する画像データを、いわゆる接続インターフェースであるインプットターミナル(Input Terminal)12を介して、A/D変換部13に供給する。なお、カメラ11を構成する撮像素子は、CCDセンサに限らず、例えば、CMOS(Complementary Metal Oxide Semiconductor)センサなど、画素を単位として画像の信号を生成するものであればよい。   The camera 11 is composed of a CCD (Charge Coupled Device) sensor or the like. The camera 11 captures light from a subject (not shown) and supplies image data corresponding to the image of the subject to an A / D converter 13 via an input terminal 12 which is a so-called connection interface. To do. Note that the image sensor that constitutes the camera 11 is not limited to a CCD sensor, and may be any device that generates an image signal in units of pixels, such as a CMOS (Complementary Metal Oxide Semiconductor) sensor.

A/D変換部13は、インプットターミナル12から供給されたアナログ信号である画像データを、デジタル信号である画像データに変換する。A/D変換部13は、変換により生成されたデジタル信号である画像データを画像処理部14に供給する。   The A / D converter 13 converts the image data that is an analog signal supplied from the input terminal 12 into image data that is a digital signal. The A / D conversion unit 13 supplies image data that is a digital signal generated by the conversion to the image processing unit 14.

画像処理部14は、CPU(Central Processing Unit)16の制御の基に、A/D変換部13から供給された画像データに対して、例えば、高画質にする領域における画像データと、高画質にしない領域における画像データとに分ける処理などの所定の処理を実行し、所定の処理を施した画像データをエンコーダ15に供給する。なお、画像処理部14の詳細は後述する。   The image processing unit 14 controls the image data supplied from the A / D conversion unit 13 based on the control of a CPU (Central Processing Unit) 16, for example, the image data in a region for high image quality and the high image quality. A predetermined process such as a process of dividing the image data in the area not to be processed is executed, and the image data subjected to the predetermined process is supplied to the encoder 15. Details of the image processing unit 14 will be described later.

エンコーダ15は、CPU16の制御の基に、画像処理部14から供給された画像データを、例えば、MPEG2、MPEG4、H.263、またはH.264(MPEG4 AVC(Advanced Video Coding))などの方式に従ってエンコードを行う。エンコーダ15は、エンコードした画像データをCPU16に供給する。   Under the control of the CPU 16, the encoder 15 converts the image data supplied from the image processing unit 14 according to a scheme such as MPEG2, MPEG4, H.263, or H.264 (MPEG4 AVC (Advanced Video Coding)). Encode. The encoder 15 supplies the encoded image data to the CPU 16.

なお、エンコードの方式は、上述した例に限らず、ある静止画と、それ以外の静止画との差分の情報を用いて符号化する方式であればよい。例えば、あるフレームと、1つ前のフレームとの差分の情報を用いて符号化する方式であればよい。   The encoding method is not limited to the above-described example, and any encoding method may be used as long as the encoding is performed using information on the difference between a certain still image and other still images. For example, any method may be used as long as encoding is performed using difference information between a certain frame and the previous frame.

また、図示は省略するが、テレビ電話装置1においては、マイクロフォン(マイク)から取り込まれた音声データもオーディオエンコーダによりエンコードされ、画像データと同様に処理される。   Although not shown in the figure, in the videophone 1, the audio data captured from the microphone (microphone) is also encoded by the audio encoder and processed in the same manner as the image data.

CPU16は、テレビ電話装置1の各部を制御する。CPU16は、エンコーダ15から供給されたエンコードされている画像データを取得し、取得した画像データを通信部19に供給する。   The CPU 16 controls each part of the videophone device 1. The CPU 16 acquires the encoded image data supplied from the encoder 15 and supplies the acquired image data to the communication unit 19.

また、CPU16は、必要に応じて、ROM17に記録されているプログラムを読み込み、実行する。CPU16は、必要に応じて、データをRAM18に供給したり、RAM18が一時的に記憶しているデータを取得する。   Further, the CPU 16 reads and executes a program recorded in the ROM 17 as necessary. The CPU 16 supplies data to the RAM 18 as necessary, or acquires data temporarily stored in the RAM 18.

通信部19は、CPU16から供給されてくる画像データを、ネットワーク2を介して、他のテレビ電話装置(例えば、テレビ電話装置1−2)宛てに送信する。   The communication unit 19 transmits the image data supplied from the CPU 16 to another videophone device (for example, the videophone device 1-2) via the network 2.

図3は、画像処理部14の詳細な構成を説明するブロック図である。   FIG. 3 is a block diagram illustrating a detailed configuration of the image processing unit 14.

画像処理部14は、CPU16の制御の基に、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャする。画像処理部14は、キャプチャされた画像データに対して、例えば、高画質にする領域における画像データと、高画質にしない領域における画像データとに分ける処理などの所定の処理を実行し、所定の処理を施した画像データをエンコーダ15に供給する。   The image processing unit 14 sequentially acquires the image data supplied from the A / D conversion unit 13 under the control of the CPU 16 and captures one frame of the acquired image data. For example, the image processing unit 14 performs predetermined processing such as processing for dividing the captured image data into image data in an area where high image quality is desired and image data in an area where high image quality is not high. The processed image data is supplied to the encoder 15.

画像処理部14は、画像分割部51、画像記憶部52、および画像合成部53を含むように構成される。   The image processing unit 14 is configured to include an image dividing unit 51, an image storage unit 52, and an image composition unit 53.

画像分割部51は、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャする。画像分割部51は、CPU16の制御の基に、画像の所定の領域に応じて、キャプチャされた画像データを分割する。画像分割部51は、分割した画像データを画像記憶部52または画像合成部53に供給する。   The image dividing unit 51 sequentially acquires the image data supplied from the A / D conversion unit 13 and captures one frame of the acquired image data. The image dividing unit 51 divides the captured image data according to a predetermined area of the image under the control of the CPU 16. The image dividing unit 51 supplies the divided image data to the image storage unit 52 or the image composition unit 53.

例えば、画像分割部51は、CPU16の制御の基に、A/D変換部13から供給された画像データを順次取得して、キャプチャした画像データを、高画質にする領域(以下、高画質領域と称する)に対応する画像データ(以下、高画質画像データと称する)と高画質にしない領域(以下、低画質領域と称する)に対応する画像データ(以下、低画質画像データと称する)とに分割し、分割した画像データのうち、高画質画像データを画像合成部53に供給し、低画質画像データを画像記憶部52に供給する。   For example, the image dividing unit 51 sequentially acquires the image data supplied from the A / D conversion unit 13 under the control of the CPU 16 and makes the captured image data a high quality area (hereinafter, high quality area). Image data (hereinafter referred to as “high quality image data”) and image data (hereinafter referred to as “low quality image data”) corresponding to an area that does not have high image quality (hereinafter referred to as “low quality image area”). Of the divided image data, high-quality image data is supplied to the image composition unit 53, and low-quality image data is supplied to the image storage unit 52.

画像記憶部52は、画像分割部51から供給されてくる画像データを記憶する。画像記憶部52は、画像合成部53からの要求に応じて、記憶している画像データを画像合成部53に供給する。   The image storage unit 52 stores the image data supplied from the image dividing unit 51. The image storage unit 52 supplies the stored image data to the image composition unit 53 in response to a request from the image composition unit 53.

例えば、画像記憶部52は、画像分割部51から供給されてくる低画質画像データを記憶し、画像合成部53からの要求に応じて、記憶している低画質画像データを画像合成部53に供給する。   For example, the image storage unit 52 stores the low-quality image data supplied from the image dividing unit 51, and stores the stored low-quality image data in the image composition unit 53 in response to a request from the image composition unit 53. Supply.

画像合成部53は、画像記憶部52から画像データを読み出し、読み出した画像データおよび画像分割部51から供給された画像データを基に、それらの画像データを合成する。画像合成部53は、合成した画像データをエンコーダ15に供給する。   The image composition unit 53 reads out image data from the image storage unit 52, and combines the image data based on the read image data and the image data supplied from the image division unit 51. The image synthesis unit 53 supplies the synthesized image data to the encoder 15.

例えば、画像合成部53は、画像記憶部52から低画質画像データを読み出し、読み出した低画質画像データおよび画像分割部51から供給された高画質画像データを基に、それらの画像データを合成し、合成した画像データをエンコーダ15に供給する。   For example, the image composition unit 53 reads out low-quality image data from the image storage unit 52 and synthesizes the image data based on the read-out low-quality image data and high-quality image data supplied from the image division unit 51. Then, the synthesized image data is supplied to the encoder 15.

換言すれば、画像合成部53は、画像記憶部52から低画質画像データを読み出し、読み出した低画質画像データおよび画像分割部51から供給された高画質画像データを基に、それらの画像データを合成することで、画像データを生成しているとも言える。また、以下の説明においても同様とする。   In other words, the image composition unit 53 reads the low-quality image data from the image storage unit 52, and based on the read low-quality image data and the high-quality image data supplied from the image dividing unit 51, the image data It can be said that the image data is generated by combining the images. The same applies to the following description.

ところで、図1のテレビ電話システムであるが、例えば、あるユーザが使用するテレビ電話装置1−1と、相手が使用するテレビ電話装置1−2との間で、テレビ電話により会話を行う場合、テレビ電話装置1−1の通信部19が、カメラ11により撮像されたユーザの画像データを相手の使用するテレビ電話装置1−2宛てに送信することで、相手は、テレビ電話装置1−2に表示されたユーザの画像を見ながら会話をすることができるようになる。また、相手の使用するテレビ電話装置1−2においても同様の処理を行うことで、ユーザと相手との双方向で映像を見ながら会話をすることができるようになる。以下、このような処理を実行するテレビ電話装置1について説明する。   By the way, in the videophone system of FIG. 1, for example, when a conversation is made by videophone between the videophone device 1-1 used by a certain user and the videophone device 1-2 used by the other party, The communication unit 19 of the videophone device 1-1 transmits the image data of the user captured by the camera 11 to the videophone device 1-2 used by the other party, so that the other party sends the videophone device 1-2 to the videophone device 1-2. It becomes possible to have a conversation while looking at the displayed image of the user. In addition, by performing the same process in the videophone device 1-2 used by the other party, the user and the other party can talk while watching the video in both directions. Hereinafter, the videophone device 1 that executes such processing will be described.

図4のフローチャートを参照して、テレビ電話装置1による画像圧縮の処理について説明する。   With reference to the flowchart of FIG. 4, image compression processing by the videophone device 1 will be described.

ステップS11において、カメラ11は、被写体を撮像し、撮像した被写体のアナログ信号である画像データを、インプットターミナル12を介して、A/D変換部13に供給する。例えば、カメラ11は、テレビ電話装置1を使用しているユーザの顔付近の画像を撮像し、撮像したユーザ顔付近の画像のアナログ信号である画像データを、インプットターミナル12を介して、A/D変換部13に供給する。   In step S <b> 11, the camera 11 captures a subject and supplies image data that is an analog signal of the captured subject to the A / D conversion unit 13 via the input terminal 12. For example, the camera 11 captures an image near the face of the user who is using the videophone device 1, and receives image data that is an analog signal of the captured image near the user face via the input terminal 12. The data is supplied to the D converter 13.

ステップS12において、A/D変換部13は、インプットターミナル12を介して、カメラ11から供給されたアナログ信号である画像データを、デジタル信号である画像データに変換する。A/D変換部13は、変換により生成されたデジタル信号である画像データを画像処理部14に供給する。例えば、ステップS12において、A/D変換部13は、インプットターミナル12を介して、カメラ11から供給されたアナログ信号である、ユーザの顔付近の画像の画像データを、デジタル信号である画像データに変換し、変換した画像データを画像処理部14に供給する。   In step S <b> 12, the A / D conversion unit 13 converts image data that is an analog signal supplied from the camera 11 via the input terminal 12 into image data that is a digital signal. The A / D conversion unit 13 supplies image data that is a digital signal generated by the conversion to the image processing unit 14. For example, in step S12, the A / D converter 13 converts the image data of the image near the user's face, which is an analog signal supplied from the camera 11 via the input terminal 12, into image data that is a digital signal. The converted image data is supplied to the image processing unit 14.

ステップS13において、画像分割部51は、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャし、キャプチャされた画像データを、CPU16の制御の基に、高画質画像データと低画質画像データとに分割する。   In step S <b> 13, the image dividing unit 51 sequentially acquires the image data supplied from the A / D conversion unit 13, captures one frame of the acquired image data, and captures the captured image data as the CPU 16. Based on this control, the image data is divided into high-quality image data and low-quality image data.

なお、画像データから、1フレーム分の画像データをキャプチャする処理は、画像分割部51が実行せずに、例えば、A/D変換部13などがその処理を実行するようにしてもよい。   Note that the process of capturing image data for one frame from the image data may be executed by, for example, the A / D converter 13 without being executed by the image dividing unit 51.

ところで、一般的に、動画は、静止画(フレーム)の1枚1枚を素早く切り替えることで、動きを表現している。すなわち、動画は、所定の期間に、動きを表現できる予め定められた数のフレームによって表示される。この場合、音声は、動画と同期させられる。例えば、画像分割部51は、このフレームを利用して、画像データを高画質画像データと低画質画像データとに分割する。また、例えば、何枚かの画像データをひとまとまりにしたGOP(Group Of Pictures)などのように、1枚の静止画をピクチャ(例えば、Iピクチャ、Bピクチャ、Pピクチャなど)として扱う場合もあるが、ここでは、ピクチャの一例として、フレームについて説明する。   By the way, in general, a moving image expresses a motion by quickly switching one by one of still images (frames). That is, the moving image is displayed by a predetermined number of frames capable of expressing the movement in a predetermined period. In this case, the sound is synchronized with the moving image. For example, the image dividing unit 51 uses this frame to divide the image data into high-quality image data and low-quality image data. Also, for example, a single still image may be handled as a picture (for example, an I picture, a B picture, a P picture, etc.), such as GOP (Group Of Pictures) in which several pieces of image data are grouped. However, here, a frame will be described as an example of a picture.

以下、図5および図6を参照して、画像分割部51による各フレームにおける画像データを高画質画像データと低画質画像データとに分割する処理について説明する。   Hereinafter, with reference to FIG. 5 and FIG. 6, a process of dividing the image data in each frame by the image dividing unit 51 into high-quality image data and low-quality image data will be described.

まず、図5を参照して、フレームの詳細について説明する。   First, the details of the frame will be described with reference to FIG.

図5には、ある時刻に表示されるフレームを示す図である。また、図中の水平方向は、時間軸を表しており、図中の下側の矢印に示されるように、時間は、図中左から右に向かって経過するとして説明する。   FIG. 5 is a diagram showing a frame displayed at a certain time. Further, the horizontal direction in the figure represents the time axis, and the time will be described as passing from the left to the right in the figure as indicated by the arrow on the lower side in the figure.

ここで、今、時刻taにおいて、フレーム1−1が表示された場合、時刻tbまでの1秒間に、フレーム1−2乃至フレーム1−30が表示される。すなわち、時刻taから時刻tbの1秒間に、フレーム1−1乃至1−30(30フレーム)を連続して表示させることで、動画としての動きを表現している。また、同様に、時刻tbから時刻tcの1秒間に、フレーム2−1乃至2−30(30フレーム)を連続して表示させることで、動画としての動きを表現している。なお、フレーム3−1乃至3−30(図示せず)、フレーム4−1(図示せず)乃至4−30(図示せず)、・・・についても同様である。   Here, when the frame 1-1 is displayed at the time ta, the frames 1-2 to 1-30 are displayed in one second until the time tb. That is, the motion as a moving image is expressed by continuously displaying the frames 1-1 to 1-30 (30 frames) for one second from the time ta to the time tb. Similarly, by displaying frames 2-1 to 2-30 (30 frames) continuously for 1 second from time tb to time tc, motion as a moving image is expressed. The same applies to frames 3-1 to 3-30 (not shown), frames 4-1 (not shown) to 4-30 (not shown),.

また、1秒間にどれだけのフレームを表示させるかは、使用する機器やアプリケーションプログラムの特性などによって決定することができる。例えば、フレームレート(Frame Rate)(1秒間に表示させるフレームの数)を上げることで、表示する画像の画質をより滑らかにすることができ(高画質となり)、それに対して、フレームレートを下げると、画質が滑らかにならず、コマ落ちする可能性がでてくる(高画質とならない)。具体的には、図5で示される例においては、フレームレートは、30(FPS(Frame Per Second))となる。すなわち、フレーム1−1乃至4−30は、それぞれ、1/30秒毎に表示される。   Also, how many frames are displayed per second can be determined according to the characteristics of the device used and the application program. For example, by increasing the frame rate (the number of frames displayed per second), the image quality of the displayed image can be made smoother (higher image quality), while the frame rate is lowered. If this happens, the image quality will not be smooth and frames may be dropped (not high image quality). Specifically, in the example shown in FIG. 5, the frame rate is 30 (FPS (Frame Per Second)). That is, the frames 1-1 to 4-30 are displayed every 1/30 seconds.

さらに、1秒間にどれだけのデータ量のデータを流れるようにするかによっても、表示する画像の画質が変化する。例えば、ビットレート(Bit Rate)(1秒間に流れるデータ量)を上げることで、表示する画像の画質を高画質にすることができ、それに対して、ビットレートを下げると、画質が悪くなる(高画質とならない)可能性がでてくる。また、ビットレートと表示する画像の画質とは、トレードオフの関係にあり、ビットレートを上げるとデータ量(ファイルサイズ)が増え、ビットレートを下げるとデータ量(ファイルサイズ)が減るようになる。   Furthermore, the image quality of the displayed image also changes depending on how much data is flowed per second. For example, by increasing the bit rate (the amount of data that flows per second), the image quality of the displayed image can be improved, whereas when the bit rate is decreased, the image quality deteriorates ( (There is no possibility of high image quality). Also, there is a trade-off between the bit rate and the image quality of the image to be displayed. When the bit rate is increased, the data amount (file size) increases, and when the bit rate is decreased, the data amount (file size) decreases. .

さらに、1枚のフレームにおいても、重要な部分(注目される部分)であるので高画質にする領域と、さほど重要ではないので画質をよくしなくてもよい領域とがある。   Further, even in one frame, there are an area where the image quality is high because it is an important part (a part to be noticed), and an area where the image quality does not need to be improved because it is not so important.

図6は、カメラ11により撮像される画像を表示する表示部(図示せず)の画面の例を示す図である。   FIG. 6 is a diagram illustrating an example of a screen of a display unit (not shown) that displays an image captured by the camera 11.

画面101には、表示領域の解像度として、縦480(dots)×横640(dots)(いわゆる、VGA(Video Graphics Array))が定義されている。   The screen 101 defines 480 (dots) × 640 (dots) (so-called VGA (Video Graphics Array)) as the resolution of the display area.

例えば、画面101に表示されている画像は、カメラ11により撮像されるテレビ電話装置1−1を使用しているユーザの顔付近の画像であって、ユーザとテレビ電話装置1−2により会話をしている相手が見ている画像でもある。   For example, the image displayed on the screen 101 is an image near the face of the user who is using the videophone device 1-1 captured by the camera 11, and the user and the videophone device 1-2 have a conversation. It is also an image that the other party is watching.

A領域111は、画面101に表示されている画像のうち、さほど画質をよくしなくてもよい低画質領域の画像であり、B領域112は、画面101に表示されている画像のうち、高画質にする高画質領域の画像である。例えば、テレビ電話装置1の場合、重要となる領域(相手に注目される領域)は、ユーザの顔や体が映っている中央付近の画像であり、それ以外の背景の領域は、相手にほとんど注目されず画像は重要とならないことが多い。   The A area 111 is an image of a low quality area that does not need to improve the image quality among the images displayed on the screen 101, and the B area 112 is a high image of the images displayed on the screen 101. It is an image in a high-quality area to achieve image quality. For example, in the case of the videophone device 1, the important area (the area that is noticed by the other party) is an image near the center in which the user's face and body are reflected, and the other background areas are almost the same for the other party. Often images are not important without attention.

そこで、図6で示される例においては、背景などの低画質領域の画像として、画面101に表示された画像の周囲10%をA領域111と設定し、それ以外のユーザの顔や体が映っている中央付近の画像を、高画質領域であるB領域112として設定する。すなわち、画面101に表示された画像の周囲10%を除いた、縦384(dots)×横512(dots)である解像度の領域がB領域112となる。   Therefore, in the example shown in FIG. 6, 10% of the periphery of the image displayed on the screen 101 is set as the A area 111 as an image of the low quality area such as the background, and the other face and body of the user are reflected. An image near the center is set as a B area 112 which is a high image quality area. That is, an area having a resolution of vertical 384 (dots) × horizontal 512 (dots) excluding 10% around the image displayed on the screen 101 is the B area 112.

なお、この場合、画像の周囲10%とは、画面101における表示領域の解像度(例えば、縦480(dots)×横640(dots))の周囲10%の領域のことである。例えば、図6で示される例においては、上下の縦48(dots)と左右の横64(dots)とに囲まれた外側の領域となる。以下、同様にして説明する。   In this case, 10% around the image means a 10% area around the resolution of the display area on the screen 101 (for example, vertical 480 (dots) × horizontal 640 (dots)). For example, in the example shown in FIG. 6, the outer region is surrounded by vertical 48 (dots) and horizontal 64 (dots). Hereinafter, the description will be made in the same manner.

また、このA領域111とB領域112における領域の指定方法であるが、ユーザの設定や工場出荷時設定により、予め指定した固定の領域としてもよいし、後述するように、動きのある画像やネットワーク2の状態により、動的に変化する可変の領域としてもよい。さらに、領域の指定の方法は、画像全体に対するA領域111またはB領域112の占める割合に限らず、例えば、画素(ドット)などにより指定するようにしてもよい。   In addition, the method for specifying the areas in the A area 111 and the B area 112 may be a fixed area specified in advance by user settings or factory default settings, or as described later, It may be a variable area that dynamically changes depending on the state of the network 2. Furthermore, the method of designating the area is not limited to the ratio of the A area 111 or the B area 112 to the entire image, but may be designated by, for example, pixels (dots).

また、領域の指定方法は、図6で示される長方形(正方形)の領域で指定する方法に限らず、例えば、円形、楕円形、または三角形など、画面101上の領域を指定できる方法であればよい。また、領域の指定方法は、図6で示される画面101の中心を基点にした領域の指定方法に限らず、例えば、右隅、左隅などを基点として、画面101上の領域を指定するようにしてもよい。   Further, the method of specifying the area is not limited to the method of specifying the rectangular (square) area shown in FIG. 6, and any method can be used as long as the area on the screen 101 can be specified, such as a circle, an ellipse, or a triangle. Good. The area designation method is not limited to the area designation method with the center of the screen 101 shown in FIG. 6 as the base point. For example, the area on the screen 101 is designated based on the right corner, the left corner, or the like. May be.

以下、高画質領域(B領域112)と低画質領域(A領域111)の領域を示す情報を領域情報と称して説明する。   Hereinafter, information indicating the areas of the high image quality area (B area 112) and the low image quality area (A area 111) will be referred to as area information.

図4のフローチャートに戻り、例えば、ステップS13において、画像分割部51は、A/D変換部13から供給された画像データを順次取得して、キャプチャした1フレーム分の画像データを、CPU16の制御の基に、図6のA領域111に対応する画像データとB領域112に対応する画像データとに分割する。   Returning to the flowchart of FIG. 4, for example, in step S <b> 13, the image dividing unit 51 sequentially acquires the image data supplied from the A / D conversion unit 13, and the captured image data for one frame is controlled by the CPU 16. Is divided into image data corresponding to the A area 111 and image data corresponding to the B area 112 in FIG.

すなわち、CPU16は、例えば、ユーザに設定されたデータであって、ROM16に記録されている「画像の周囲10%をA領域111とし、それ以外の画像をB領域112とする」ことを示す領域情報を基に、画像分割部51に、A/D変換部13から供給された画像データを順次取得して、キャプチャした1フレーム分の画像データを、図6のA領域111に対応する画像データとB領域112に対応する画像データとに分割させる。なお、ステップS13の処理における領域を指定する処理は、CPU16の代わりに、画像処理部14が行うようにしてもよい。   That is, the CPU 16 is, for example, data set by the user, and is an area indicating that “10% around the image is the A area 111 and the other image is the B area 112” recorded in the ROM 16. Based on the information, the image division unit 51 sequentially acquires the image data supplied from the A / D conversion unit 13, and the captured image data for one frame is converted into image data corresponding to the A area 111 in FIG. And image data corresponding to the B area 112. Note that the processing for designating the area in the processing of step S13 may be performed by the image processing unit 14 instead of the CPU 16.

ステップS14において、画像分割部51は、自分が分割を行った画像データに対応したフレームが、所定のフレームであるか否かを判定する。例えば、ステップS14において、画像分割部51は、分割を行った画像データに対応したフレームが、1秒間に表示されるフレームの先頭(例えば、図5のフレーム1−1、フレーム2−1、フレーム3−1、・・・)であるか否かを判定する。   In step S <b> 14, the image dividing unit 51 determines whether or not the frame corresponding to the image data that has been divided is a predetermined frame. For example, in step S14, the image dividing unit 51 displays the frame corresponding to the divided image data at the head of the frame displayed for 1 second (for example, the frame 1-1, the frame 2-1, the frame of FIG. 3-1...

また、例えば、ステップS14において、画像分割部51は、分割を行った画像データに対応したフレームが、何枚かの画像データをひとまとまりにしたGOPの先頭であるか否かを判定する。さらに、例えば、ステップS14において、画像分割部51は、分割を行った画像データに対応したフレームが、GOPにおいて、Iピクチャとして符号化されるフレームであるか否かを判定する。この場合、画像分割部51は、CPU16を介して、エンコーダ15から、それぞれのフレームが、Iピクチャ、Bピクチャ、Pピクチャのいずれかとして符号化されることを示すデータを取得する。   Further, for example, in step S14, the image dividing unit 51 determines whether or not the frame corresponding to the divided image data is the head of a GOP in which several pieces of image data are collected. Further, for example, in step S14, the image dividing unit 51 determines whether or not the frame corresponding to the divided image data is a frame encoded as an I picture in the GOP. In this case, the image dividing unit 51 acquires data indicating that each frame is encoded as one of an I picture, a B picture, and a P picture from the encoder 15 via the CPU 16.

ステップS14において、所定のフレームであると判定された場合、ステップS15に進み、画像分割部51は、分割した画像データのうち、低画質画像データを画像記憶部52に供給し、高画質画像データを画像合成部53に供給する。画像記憶部52は、画像分割部51から供給されてくる低画質画像データを記憶する。   If it is determined in step S14 that the frame is a predetermined frame, the process proceeds to step S15, and the image dividing unit 51 supplies the low-quality image data among the divided image data to the image storage unit 52, and the high-quality image data. Is supplied to the image composition unit 53. The image storage unit 52 stores the low image quality image data supplied from the image dividing unit 51.

例えば、ステップS15において、画像分割部51は、分割した画像データのうち、A領域111に対応する画像データを画像記憶部52に供給し、B領域112に対応する画像データを画像合成部53に供給する。画像記憶部52は、画像分割部51から供給されてくるA領域111に対応する画像データを記憶する。すなわち、画像記憶部52が記憶するA領域111に対応する画像データは、1秒間に表示されるフレームのうち、先頭のフレーム(例えば、図5のフレーム1−1など)のA領域111に対応する画像データのみが記憶される。   For example, in step S <b> 15, the image dividing unit 51 supplies image data corresponding to the A region 111 to the image storage unit 52 among the divided image data, and the image data corresponding to the B region 112 to the image composition unit 53. Supply. The image storage unit 52 stores image data corresponding to the A area 111 supplied from the image dividing unit 51. That is, the image data corresponding to the A area 111 stored in the image storage unit 52 corresponds to the A area 111 of the first frame (for example, the frame 1-1 in FIG. 5) among the frames displayed for one second. Only the image data to be stored is stored.

一方、ステップS14において、所定のフレームでないと判定された場合、ステップS15の処理をスキップして、ステップS16に進み、画像合成部53は、画像記憶部52から低画質画像データを読み出し、読み出した低画質画像データおよび画像分割部51から供給された高画質画像データを基に、それらの画像データを合成する。画像合成部53は、合成した画像データをエンコーダ15に供給する。   On the other hand, if it is determined in step S14 that the frame is not a predetermined frame, the process of step S15 is skipped and the process proceeds to step S16. The image composition unit 53 reads the low-quality image data from the image storage unit 52 and reads it. Based on the low-quality image data and the high-quality image data supplied from the image dividing unit 51, the image data is synthesized. The image synthesis unit 53 supplies the synthesized image data to the encoder 15.

例えば、ステップS16において、画像合成部53は、画像記憶部52から先頭のフレームにおけるA領域111に対応する画像データを読み出し、読み出したA領域111に対応する画像データおよび画像分割部51から供給されたB領域112に対応する画像データを基に、A領域111に対応する画像データとB領域112に対応する画像データとを合成し、合成した画像データをエンコーダ15に供給する。   For example, in step S <b> 16, the image composition unit 53 reads image data corresponding to the A region 111 in the first frame from the image storage unit 52, and is supplied from the image data corresponding to the read A region 111 and the image dividing unit 51. Based on the image data corresponding to the B area 112, the image data corresponding to the A area 111 and the image data corresponding to the B area 112 are combined, and the combined image data is supplied to the encoder 15.

このようにすることで、例えば、フレーム1−1において、A領域111に対応する画像データは、フレーム1−1のA領域111に対応した画像データとなり、B領域112に対応する画像データは、フレーム1−1のB領域112に対応した画像データとなる。また、フレーム1−2において、A領域111に対応する画像データは、フレーム1−1のA領域111に対応した画像データとなり、B領域112に対応する画像データは、フレーム1−2のB領域112に対応した画像データとなる。さらに、フレーム1−3において、A領域111に対応する画像データは、フレーム1−1のA領域111に対応した画像データとなり、B領域112に対応する画像データは、フレーム1−3のB領域112に対応した画像データとなる。同様に、フレーム1−4乃至1−30においては、A領域111に対応する画像データは、フレーム1−1のA領域111に対応した画像データとなり、B領域112は、フレーム1−4乃至1−30のそれぞれのB領域112に対応した画像データとなる。   In this way, for example, in the frame 1-1, the image data corresponding to the A area 111 becomes image data corresponding to the A area 111 of the frame 1-1, and the image data corresponding to the B area 112 is The image data corresponds to the B area 112 of the frame 1-1. In the frame 1-2, the image data corresponding to the A area 111 is image data corresponding to the A area 111 of the frame 1-1, and the image data corresponding to the B area 112 is the B area of the frame 1-2. 112 corresponds to the image data. Further, in the frame 1-3, the image data corresponding to the A area 111 is image data corresponding to the A area 111 of the frame 1-1, and the image data corresponding to the B area 112 is the B area of the frame 1-3. 112 corresponds to the image data. Similarly, in the frames 1-4 to 1-30, the image data corresponding to the A area 111 is image data corresponding to the A area 111 of the frame 1-1, and the B area 112 is stored in the frames 1-4 to 1-1. The image data corresponds to each B region 112 of −30.

また、同様に、フレーム2−1乃至2−30においては、A領域111に対応する画像データは、フレーム2−1のA領域111に対応した画像データとなり、B領域112に対応する画像データは、フレーム2−1乃至2−30のそれぞれのB領域112に対応する画像データとなる。なお、フレーム3−1乃至3−30(図示せず)、フレーム4−1(図示せず)乃至4−30(図示せず)、・・・についても同様である。   Similarly, in the frames 2-1 to 2-30, the image data corresponding to the A area 111 is image data corresponding to the A area 111 of the frame 2-1, and the image data corresponding to the B area 112 is , Image data corresponding to each B area 112 of the frames 2-1 to 2-30. The same applies to frames 3-1 to 3-30 (not shown), frames 4-1 (not shown) to 4-30 (not shown),.

すなわち、画像合成部53が、画像記憶部52に記憶されているA領域111に対応する画像データ(先頭のフレームのA領域111に対応する画像データ)を読み込んで、B領域112に対応する画像データと合成させることで、1秒間に表示されるフレームのA領域111に対応する画像データは変化せず、B領域112に対応する画像データのみが変化することとなる。   That is, the image composition unit 53 reads the image data corresponding to the A area 111 (image data corresponding to the A area 111 of the first frame) stored in the image storage section 52, and the image corresponding to the B area 112 is read. By combining with the data, the image data corresponding to the A area 111 of the frame displayed per second does not change, and only the image data corresponding to the B area 112 changes.

ステップS17において、エンコーダ15は、画像合成部53から供給された画像データを、例えば、MPEG4の方式に従ってエンコードし、エンコードした画像データをCPU16に供給する。   In step S <b> 17, the encoder 15 encodes the image data supplied from the image composition unit 53 according to, for example, the MPEG4 method, and supplies the encoded image data to the CPU 16.

すなわち、エンコーダ15がエンコードする画像データは、画像処理部14により、1秒間に表示されるフレーム毎に、フレームの高画質にしない低画質領域の画像データを、同一の画像データが使用されるようにしているので、フレームを圧縮するときの差分のデータを低画質領域について減らすことができるので、低画質領域のデータ量を減らすことができるとともに、高画質にする高画質領域のデータ量を増やすことで、重要な領域の画質を向上させることができる。   That is, the image data encoded by the encoder 15 is such that the same image data is used for the image data of the low image quality area that does not have high image quality for each frame displayed per second by the image processing unit 14. Therefore, the difference data when compressing the frame can be reduced for the low image quality area, so the data amount of the low image quality area can be reduced and the data amount of the high image quality area for high image quality can be increased. As a result, the image quality of an important region can be improved.

例えば、ビットレートが一定である場合、1秒間に表示されるフレーム1−1乃至1−30において、それぞれのA領域111に関しては、フレーム1−1のA領域111に対応する画像データを使用するようにして、フレーム1−2乃至1−30のA領域111に対応する画像データを使用しないようにするので、フレーム1−2乃至1−30を圧縮するときの差分データにおいては、A領域111に対応する画像データがなくなるので、A領域111に対応する画像データのデータ量を減らすことができるとともに、B領域112に対応する画像データのデータ量を増やすことで、B領域112の画質を向上させることができる。   For example, when the bit rate is constant, the image data corresponding to the A area 111 of the frame 1-1 is used for each A area 111 in the frames 1-1 to 1-30 displayed per second. Thus, since the image data corresponding to the A area 111 of the frames 1-2 to 1-30 is not used, the A area 111 is included in the difference data when the frames 1-2 to 1-30 are compressed. Therefore, the image data corresponding to the A area 111 can be reduced, and the image data corresponding to the B area 112 can be increased to improve the image quality of the B area 112. Can be made.

より具体的には、図6で示される例において、画面101に表示された画像の周囲10%をA領域111と設定し、それ以外のユーザの顔や体が映っている中央付近の画像をB領域112として設定しているので、画面101に表示された画像におけるB領域112の占める割合、すなわち、画面101に表示された画像の解像度:B領域112の解像度は、縦480(dots)×横640(dots):縦384(dots)×横512(dots)となるので、その割合は、64%となる。同様に、画面101に表示された画像におけるA領域111の占める割合は、36%となる。   More specifically, in the example shown in FIG. 6, 10% of the periphery of the image displayed on the screen 101 is set as the A area 111, and other images near the center where the user's face and body are reflected are set. Since the B area 112 is set, the ratio of the B area 112 in the image displayed on the screen 101, that is, the resolution of the image displayed on the screen 101: the resolution of the B area 112 is 480 (dots) × Horizontal 640 (dots): Vertical 384 (dots) × horizontal 512 (dots), so the ratio is 64%. Similarly, the proportion of the area A 111 in the image displayed on the screen 101 is 36%.

すなわち、フレーム1−2乃至1−30においては、画面101に表示された画像の36%を占めるA領域111に対応する画像データを使用しないので、その分、画面101に表示された画像の64%を占めるB領域112に対応する画像データのデータ量を増やすことで、B領域112の画質を向上させることができる。   That is, in the frames 1-2 to 1-30, the image data corresponding to the A area 111 occupying 36% of the image displayed on the screen 101 is not used. The image quality of the B area 112 can be improved by increasing the amount of image data corresponding to the B area 112 that occupies%.

そして、図6で示される例において、フレーム1−1乃至1−30の画像データのデータ量は、本発明を適用しない場合と比較した場合、すなわち、本発明を適用しない場合のデータ量と本発明を適用した場合のデータ量との比率は、縦480(dots)×横640(dots)×30(フレーム):縦480(dots)×横640(dots)×1(フレーム) + 縦384(dots)×横512(dots)×29(フレーム)となるので、その割合は、65.2%となる。すなわち、本発明を適用することで、例えば、最大で34.8%のデータ量を減らすことができる。   In the example shown in FIG. 6, the data amount of the image data of the frames 1-1 to 1-30 is compared with the case where the present invention is not applied, that is, the amount of data when the present invention is not applied. The ratio to the amount of data when the invention is applied is 480 (dots) x 640 (dots) x 30 (frames): 480 (dots) x 640 (dots) x 1 (frame) + 384 (vertical) dots) × 512 (dots) × 29 (frames), so the ratio is 65.2%. That is, by applying the present invention, for example, the maximum data amount can be reduced by 34.8%.

ステップS18において、CPU16は、エンコーダ15から供給されたエンコードされている画像データを取得し、取得した画像データを通信部19に供給する。通信部19は、CPU16から供給された画像データを、ネットワーク2を介して、相手の使用するテレビ電話装置1−2宛てに送信して、ステップS11の処理に戻り、上述した処理を繰り返す。   In step S <b> 18, the CPU 16 acquires the encoded image data supplied from the encoder 15 and supplies the acquired image data to the communication unit 19. The communication unit 19 transmits the image data supplied from the CPU 16 to the videophone device 1-2 used by the other party via the network 2, returns to the process of step S11, and repeats the above process.

このように、1枚のフレームを高画質領域と低画質領域とに分割して、1秒間に表示されるフレームのうち、低画質領域に対応する低画質画像データを同一の画像データを使用するようにすることで、画像データをエンコードする際に、高画質領域の画質を向上させることができる。すなわち、本発明においては、動画の圧縮レートを下げても画像の品質を維持することができるとともに、動画の圧縮レートを上げなくても画像の品質を向上させることができる。   As described above, one frame is divided into a high-quality area and a low-quality area, and the same image data is used for the low-quality image data corresponding to the low-quality area among the frames displayed in one second. By doing so, the image quality of the high-quality area can be improved when encoding the image data. That is, according to the present invention, the image quality can be maintained even when the moving image compression rate is lowered, and the image quality can be improved without increasing the moving image compression rate.

また、本発明においては、エンコーダ15が画像データをエンコードする前に、画像処理部14が、高画質領域と低画質領域とに分ける処理を実行するので、画像データを符号化するテレビ電話装置1−1のエンコーダ15と、その符号化された画像データを復号化するテレビ電話装置1−2のデコーダ(図示せず)には、何ら変更を加える必要がなく、既存のエンコーダやデコーダをそのまま利用することができる。すなわち、既存のエンコーダやデコーダに対して、本発明の機能を組み込みやすい(商品化しやすい)という利点がある。さらに、低画質領域についても、多少の画質の劣化があるものの十分な画質で再生することができる。   In the present invention, since the image processing unit 14 performs a process of dividing the image data into a high image quality region and a low image quality region before the encoder 15 encodes the image data, the videophone device 1 that encodes the image data. -1 encoder 15 and the decoder (not shown) of the videophone apparatus 1-2 that decodes the encoded image data need not be changed at all, and existing encoders and decoders are used as they are. can do. That is, there is an advantage that the function of the present invention can be easily incorporated (commercialized easily) into an existing encoder or decoder. Further, the low image quality region can be reproduced with a sufficient image quality although there is some degradation in image quality.

ところで、上述した、背景などのA領域111においては、画面に表示されている画像は、静止画のように見えているが、現実には、量子化による誤差やノイズなどにより、絶えず変化をしている。そこで、本発明においては、この量子化による誤差やノイズによって発生する差分データを抑制し、A領域111のデータ量を減らして、B領域112の画質を向上させることもできる。   By the way, in the above-described A region 111 such as the background, the image displayed on the screen looks like a still image, but in reality, it constantly changes due to errors and noise due to quantization. ing. Therefore, in the present invention, it is possible to improve the image quality of the B region 112 by suppressing the difference data generated by the error and noise due to the quantization and reducing the data amount of the A region 111.

次に、図7および図8を参照して、低画質領域に対応する画像データの差分データを抑制する処理について説明する。低画質領域に対応する画像データの差分データを抑制する処理を実行する場合、図2において、画像処理部14の代わりに、画像処理部151を設けるように構成する。   Next, processing for suppressing difference data of image data corresponding to a low image quality region will be described with reference to FIGS. In the case of executing the process of suppressing the difference data of the image data corresponding to the low image quality area, the image processing unit 151 is provided instead of the image processing unit 14 in FIG.

図7は、画像処理部151の詳細な構成を説明するブロック図である。図3に示す場合と同様の部分には、同一の符号が付してあり、その説明は適宜省略する。   FIG. 7 is a block diagram illustrating a detailed configuration of the image processing unit 151. The same parts as those shown in FIG. 3 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

画像処理部151は、図2の画像処理部14の代わりに設けられる。画像処理部151は、CPU16の制御の基に、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャする。画像処理部151は、キャプチャされた画像データに対して、例えば、高画質にする領域における画像データと、高画質にしない領域における画像データとに分ける処理などの所定の処理を実行し、所定の処理を施した画像データをエンコーダ15に供給する。   The image processing unit 151 is provided instead of the image processing unit 14 of FIG. The image processing unit 151 sequentially acquires the image data supplied from the A / D conversion unit 13 under the control of the CPU 16 and captures one frame of the acquired image data. The image processing unit 151 executes predetermined processing such as processing for dividing the captured image data into image data in an area where high image quality is to be achieved and image data in an area where high image quality is not high, for example. The processed image data is supplied to the encoder 15.

画像処理部151は、画像分割部51、画像記憶部52、画像合成部53、および補正部161を含むように構成される。   The image processing unit 151 is configured to include an image dividing unit 51, an image storage unit 52, an image composition unit 53, and a correction unit 161.

画像分割部51は、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャする。画像分割部51は、CPU16の制御の基に、画像の所定の領域に応じて、キャプチャされた1フレーム分の画像データを、高画質画像データと低画質画像データとに分割する。画像分割部51は、分割した画像データのうち、高画質画像データを補正部161に供給し、低画質画像データを画像記憶部52に供給する。   The image dividing unit 51 sequentially acquires the image data supplied from the A / D conversion unit 13 and captures one frame of the acquired image data. The image dividing unit 51 divides the captured image data for one frame into high-quality image data and low-quality image data according to a predetermined area of the image under the control of the CPU 16. Of the divided image data, the image dividing unit 51 supplies high-quality image data to the correction unit 161 and supplies low-quality image data to the image storage unit 52.

画像記憶部52は、画像分割部51から供給されてくる低画質画像データを記憶する。画像記憶部52は、補正部161からの要求に応じて、低画質画像データを補正部161に供給する。   The image storage unit 52 stores the low image quality image data supplied from the image dividing unit 51. The image storage unit 52 supplies low-quality image data to the correction unit 161 in response to a request from the correction unit 161.

補正部161は、画像記憶部52から低画質画像データを読み出し、読み出した低画質画像データおよび画像分割部51から供給された高画質画像データを基に、それぞれの画像データを補正する。補正部161は、補正した高画質画像データおよび低画質画像データを画像合成部53に供給する。   The correction unit 161 reads the low-quality image data from the image storage unit 52 and corrects each image data based on the read low-quality image data and the high-quality image data supplied from the image dividing unit 51. The correction unit 161 supplies the corrected high-quality image data and low-quality image data to the image composition unit 53.

例えば、補正部161は、画像記憶部52から低画質画像データを読み出し、読み出した低画質画像データおよび画像分割部51から供給された高画質画像データを基に、低画質画像データに対応する画面に表示される画像の各画素のビット長のうち、所定の下位ビットが固定値となるように補正し、補正した高画質画像データおよび低画質画像データを画像合成部53に供給する。   For example, the correction unit 161 reads the low-quality image data from the image storage unit 52, and the screen corresponding to the low-quality image data based on the read low-quality image data and the high-quality image data supplied from the image division unit 51. Among the bit lengths of the pixels of the image displayed on the screen, the predetermined lower bits are corrected so as to have a fixed value, and the corrected high-quality image data and low-quality image data are supplied to the image composition unit 53.

画像合成部53は、補正部161から供給された補正された高画質画像データおよび低画質画像データを合成する。画像合成部53は、合成した画像データをエンコーダ15に供給する。   The image synthesis unit 53 synthesizes the corrected high-quality image data and low-quality image data supplied from the correction unit 161. The image synthesis unit 53 supplies the synthesized image data to the encoder 15.

なお、画像記憶部52を構成から外すことで、補正部161は、画像分割部51から供給された高画質画像データと低画質画像データのそれぞれを補正し、補正した画像データを画像合成部53に供給するようにしてもよい。すなわち、この場合、1秒間に表示されるフレームにおける低画質画像データは、同一の画像データとはならず、全て異なる画像データとなるが、補正部161により補正されることにより、画像データをエンコードする際に、高画質領域の画質を向上させることができる。   Note that by removing the image storage unit 52 from the configuration, the correction unit 161 corrects each of the high-quality image data and the low-quality image data supplied from the image division unit 51, and the corrected image data is converted into the image composition unit 53. You may make it supply to. That is, in this case, the low-quality image data in the frame displayed for one second is not the same image data, but is all different image data, but the image data is encoded by being corrected by the correction unit 161. In doing so, the image quality in the high-quality area can be improved.

また、画像処理部151において、補正部161を、画像分割部51と画像記憶部52との間に入れる構成とすることで、補正部161は、画像分割部51から供給された低画質画像データを補正し、補正した低画質画像データを画像記憶部52に記憶させることができる。すなわち、この場合、画像合成部53が読み出す低画質画像データは、既に補正されている画像データとなる。   Further, in the image processing unit 151, the correction unit 161 is arranged between the image division unit 51 and the image storage unit 52, so that the correction unit 161 has the low image quality image data supplied from the image division unit 51. And the corrected low image quality image data can be stored in the image storage unit 52. That is, in this case, the low-quality image data read by the image composition unit 53 is already corrected image data.

次に、図8のフローチャートを参照して、テレビ電話装置1による画像圧縮の処理について説明する。   Next, image compression processing by the videophone device 1 will be described with reference to the flowchart of FIG.

ステップS31乃至ステップS34の処理のそれぞれは、図4のステップS11乃至ステップS14の処理のそれぞれと同様であり、その説明は省略する。   Each of the processes of steps S31 to S34 is the same as each of the processes of steps S11 to S14 in FIG.

ステップS34において、所定のフレームであると判定された場合、ステップS35に進み、画像分割部51は、分割した画像データのうち、低画質画像データを画像記憶部52に供給し、高画質画像データを補正部161に供給する。画像記憶部52は、画像分割部51から供給されてくる低画質画像データを記憶する。   If it is determined in step S34 that the frame is a predetermined frame, the process proceeds to step S35, and the image dividing unit 51 supplies the low-quality image data among the divided image data to the image storage unit 52, and the high-quality image data. Is supplied to the correction unit 161. The image storage unit 52 stores the low image quality image data supplied from the image dividing unit 51.

例えば、ステップS35において、画像分割部51は、分割した画像データのうち、A領域111に対応する画像データを画像記憶部52に供給し、B領域112に対応する画像データを補正部161に供給する。画像記憶部52は、画像分割部51から供給されてくるA領域111に対応する画像データを記憶する。すなわち、画像記憶部52が記憶するA領域111に対応する画像データは、1秒間に表示されるフレームのうち、先頭のフレーム(例えば、図5のフレーム1−1など)のA領域111に対応する画像データのみが記憶される。   For example, in step S <b> 35, the image dividing unit 51 supplies the image data corresponding to the A region 111 to the image storage unit 52 among the divided image data, and supplies the image data corresponding to the B region 112 to the correcting unit 161. To do. The image storage unit 52 stores image data corresponding to the A area 111 supplied from the image dividing unit 51. That is, the image data corresponding to the A area 111 stored in the image storage unit 52 corresponds to the A area 111 of the first frame (for example, the frame 1-1 in FIG. 5) among the frames displayed for one second. Only the image data to be stored is stored.

一方、ステップS34において、所定のフレームでないと判定された場合、ステップS35の処理をスキップして、ステップS36に進み、補正部161は、画像記憶部52から低画質画像データを読み出し、読み出した低画質画像データおよび画像分割部51から供給された高画質画像データを基に、それぞれの画像データを補正する。補正部161は、補正した高画質画像データおよび低画質画像データを画像合成部53に供給する。   On the other hand, if it is determined in step S34 that the frame is not a predetermined frame, the process of step S35 is skipped and the process proceeds to step S36. The correction unit 161 reads the low-quality image data from the image storage unit 52, and Each image data is corrected based on the image quality image data and the high quality image data supplied from the image dividing unit 51. The correction unit 161 supplies the corrected high-quality image data and low-quality image data to the image composition unit 53.

例えば、ステップS36において、補正部161は、画像記憶部52からA領域111に対応した画像データを読み出し、読み出したA領域111に対応した画像データおよび画像分割部51から供給されたB領域112に対応した画像データを基に、A領域111に対応した画像データのデータ量を減らすように補正し、補正したA領域111に対応した画像データおよびB領域112に対応した画像データを画像合成部53に供給する。   For example, in step S <b> 36, the correction unit 161 reads the image data corresponding to the A region 111 from the image storage unit 52, and stores the image data corresponding to the read A region 111 and the B region 112 supplied from the image dividing unit 51. Based on the corresponding image data, correction is performed so as to reduce the data amount of the image data corresponding to the A area 111, and the image data corresponding to the corrected A area 111 and the image data corresponding to the B area 112 are converted into the image composition unit 53. To supply.

また、例えば、ステップS36において、補正部161は、画像記憶部52からA領域111に対応した画像データを読み出し、読み出したA領域111に対応した画像データおよび画像分割部51から供給されたB領域112に対応した画像データを基に、A領域111に対応した画像データのデータ量を減らすように補正をするとともに、A領域111に対応した画像データの減らしたデータ量に応じて、B領域112に対応した画像データのデータ量を増やすように補正し、補正したA領域111に対応した画像データおよびB領域112に対応した画像データを画像合成部53に供給するようにしてもよい。   For example, in step S <b> 36, the correction unit 161 reads the image data corresponding to the A region 111 from the image storage unit 52, the image data corresponding to the read A region 111, and the B region supplied from the image dividing unit 51. Based on the image data corresponding to 112, correction is performed so as to reduce the data amount of the image data corresponding to the A region 111, and the B region 112 according to the reduced data amount of the image data corresponding to the A region 111. May be corrected so as to increase the amount of image data corresponding to A, and the corrected image data corresponding to the A area 111 and image data corresponding to the B area 112 may be supplied to the image composition unit 53.

ここで、補正の方法であるが、例えば、画面に表示される画像の各画素のビット長のうち、所定のビットが固定値となるように補正する。具体的には、図6で示される例において、画面101に表示される各画素のビット長を、例えば、8ビットと仮定した場合、A領域111は、背景などであり、一見静止画のように見えているが、現実には、8ビットのうち、下位の1または2ビットは、量子化による誤差やノイズなどにより、絶えず変化をしているので、その下位の1または2ビットを固定値とすることで、量子化による誤差やノイズなどにより発生する差分データの発生を抑制し、A領域111のデータ量を減らして、B領域112の画質を向上させることもできるようになる。   Here, as a correction method, for example, correction is performed so that a predetermined bit has a fixed value out of the bit length of each pixel of the image displayed on the screen. Specifically, in the example shown in FIG. 6, assuming that the bit length of each pixel displayed on the screen 101 is, for example, 8 bits, the A region 111 is a background or the like, and looks like a still image at first glance. In reality, the lower 1 or 2 bits of the 8 bits are constantly changing due to errors or noise due to quantization, so the lower 1 or 2 bits are fixed values. By doing so, it is possible to improve the image quality of the B region 112 by suppressing the generation of difference data due to errors or noise due to quantization, reducing the data amount of the A region 111, and so on.

また、B領域112の画質を向上させるために、A領域111のデータ量を減らしているので、A領域111の画質は、色、明るさなどの解像度が劣化するおそれがあるが、A領域111は、もともと高画質にしない領域であるために、実際上問題となることはない。   Further, since the data amount of the A area 111 is reduced in order to improve the image quality of the B area 112, the image quality of the A area 111 may deteriorate in resolution such as color and brightness. Since this is an area that does not have high image quality, there is no practical problem.

なお、補正の方法は、上述した、所定のビットを固定値となるように補正する方法に限らず、低画質画像データ(A領域111)のデータ量を減らすことができる方法であればよい。   Note that the correction method is not limited to the above-described method of correcting the predetermined bits so as to be a fixed value, and may be any method that can reduce the data amount of the low-quality image data (A area 111).

ステップS38およびステップS39の処理のそれぞれは、図4のステップS17およびステップS18の処理のそれぞれと同様であり、その説明は省略する。   Each of the processing of step S38 and step S39 is the same as each of the processing of step S17 and step S18 of FIG.

このように、1枚のフレームを高画質領域と低画質領域とに分割して、1秒間に表示されるフレームのうち、低画質領域に対応する低画質画像データにおいては、同一の画像データを使用し、さらに、低画質画像データのデータ量が少なくなるように補正することで、画像データをエンコードする際に、高画質領域の画質を向上させることができる。すなわち、本発明においては、動画の圧縮レートを下げても画像の品質を維持することができるとともに、動画の圧縮レートを上げなくても画像の品質を向上させることができる。   In this way, one frame is divided into a high image quality area and a low image quality area, and among the frames displayed in one second, in the low image quality data corresponding to the low image quality area, the same image data is stored. In addition, by correcting so that the data amount of the low-quality image data is reduced, the image quality of the high-quality area can be improved when the image data is encoded. That is, according to the present invention, the image quality can be maintained even when the moving image compression rate is lowered, and the image quality can be improved without increasing the moving image compression rate.

ところで、上述した領域情報であるが、上述した、予め設定されるデータを基に指定する方法以外にも、領域情報を動的に変更させることもできる。以下、図9乃至図15を参照して、領域情報を動的に変更させる処理について説明する。   By the way, although it is area | region information mentioned above, area | region information can also be changed dynamically besides the method of specifying based on the data set previously mentioned above. Hereinafter, processing for dynamically changing the region information will be described with reference to FIGS. 9 to 15.

まず、図9乃至図12を参照して、画像のうち、動いている部分を高画質領域とし、静止している部分を低画質領域として指定することにより、高画質領域と低画質領域(領域情報)を動的に変更させる処理について説明する。   First, referring to FIG. 9 to FIG. 12, by designating a moving part of an image as a high-quality area and a stationary part as a low-quality area, a high-quality area and a low-quality area (area) are designated. A process for dynamically changing (information) will be described.

図9は、画像処理部171の詳細な構成を説明するブロック図である。図3に示す場合と同様の部分には、同一の符号が付してあり、その説明は適宜省略する。   FIG. 9 is a block diagram illustrating a detailed configuration of the image processing unit 171. The same parts as those shown in FIG. 3 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

画像処理部171は、図2の画像処理部14の代わりに設けられる。画像処理部171は、CPU16の制御の基に、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャする。画像処理部171は、キャプチャされた画像データに対して、例えば、高画質にする領域における画像データと、高画質にしない領域における画像データとに分ける処理などの所定の処理を実行し、所定の処理を施した画像データをエンコーダ15に供給する。   The image processing unit 171 is provided instead of the image processing unit 14 of FIG. The image processing unit 171 sequentially acquires the image data supplied from the A / D conversion unit 13 under the control of the CPU 16 and captures one frame of the acquired image data. The image processing unit 171 executes predetermined processing such as processing for dividing the captured image data into image data in an area where high image quality is to be achieved and image data in an area where high image quality is not high, for example. The processed image data is supplied to the encoder 15.

画像処理部171は、画像分割部51、画像記憶部52、画像合成部53、動き量検出部181、および領域決定部182を含むように構成される。   The image processing unit 171 is configured to include an image dividing unit 51, an image storage unit 52, an image composition unit 53, a motion amount detection unit 181, and a region determination unit 182.

動き量検出部181は、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャする。動き量検出部181は、キャプチャされた1フレーム分の画像データから被写体(物体)の移動量(動き量)を検出し、検出した動き量を領域決定部182に供給する。例えば、動き量検出部181は、A/D変換部13から供給された画像データから、ブロックマッチング(アルゴリズム)により、動きベクトル(動き量)を検出し、検出した動きベクトル(動き量)を領域決定部182に供給する。   The motion amount detection unit 181 sequentially acquires the image data supplied from the A / D conversion unit 13 and captures one frame of the acquired image data. The motion amount detection unit 181 detects the movement amount (motion amount) of the subject (object) from the captured image data for one frame, and supplies the detected motion amount to the region determination unit 182. For example, the motion amount detection unit 181 detects a motion vector (motion amount) from the image data supplied from the A / D conversion unit 13 by block matching (algorithm), and the detected motion vector (motion amount) is a region. It supplies to the determination part 182.

領域決定部182は、動き量検出部181から供給された動き量を基に、高画質領域と低画質領域とを設定(決定)する。領域決定部182は、決定した高画質領域と低画質領域の領域を示す情報である領域情報を画像分割部51に供給する。例えば、領域決定部182は、動き量検出部181から供給された動き量を基に、動き量が検出された領域の画像を高画質領域とし、動き量が検出されなかった領域の画像を低画質領域として決定し、決定した領域情報を画像分割部51に供給する。   The region determination unit 182 sets (determines) a high image quality region and a low image quality region based on the motion amount supplied from the motion amount detection unit 181. The region determination unit 182 supplies region information, which is information indicating the determined high-quality region and low-quality region, to the image dividing unit 51. For example, based on the motion amount supplied from the motion amount detection unit 181, the region determination unit 182 sets the image of the region where the motion amount is detected as a high-quality region, and reduces the image of the region where the motion amount is not detected. The image quality area is determined, and the determined area information is supplied to the image dividing unit 51.

画像分割部51は、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャする。画像分割部51は、領域決定部182から供給された領域情報に応じて、キャプチャされた1フレーム分の画像データを、高画質データと低画質データとに分割する。画像分割部51は、分割した画像データのうち、高画質画像データを画像合成部53に供給し、低画質画像データを画像記憶部52に供給する。   The image dividing unit 51 sequentially acquires the image data supplied from the A / D conversion unit 13 and captures one frame of the acquired image data. The image dividing unit 51 divides the captured image data for one frame into high-quality data and low-quality data in accordance with the region information supplied from the region determining unit 182. Of the divided image data, the image dividing unit 51 supplies high-quality image data to the image composition unit 53 and supplies low-quality image data to the image storage unit 52.

次に、図10のフローチャートを参照して、テレビ電話装置1による画像圧縮の処理について説明する。   Next, image compression processing by the videophone device 1 will be described with reference to the flowchart of FIG.

ステップS51およびステップS52の処理のそれぞれは、図4のステップS11およびステップS12の処理のそれぞれと同様であり、その説明は省略する。   Each of the processing of step S51 and step S52 is the same as each of the processing of step S11 and step S12 of FIG. 4, and description thereof will be omitted.

ステップS53において、動き量検出部181は、A/D変換部13から供給された画像データから動き量を検出し、検出した動き量を領域決定部182に供給する。   In step S <b> 53, the motion amount detection unit 181 detects the motion amount from the image data supplied from the A / D conversion unit 13 and supplies the detected motion amount to the region determination unit 182.

例えば、ステップS53において、動き量検出部181は、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャし、キャプチャされた1フレーム分の画像データから被写体(物体)の移動量(動き量)を検出し、検出した動き量を領域決定部182に供給する。   For example, in step S53, the motion amount detection unit 181 sequentially acquires the image data supplied from the A / D conversion unit 13, captures one frame of the acquired image data, and captures one frame. The movement amount (motion amount) of the subject (object) is detected from the image data of the minute, and the detected movement amount is supplied to the region determination unit 182.

例えば、ステップS53において、動き量検出部181は、A/D変換部13から供給された画像データから、ブロックマッチング(アルゴリズム)により、動きベクトル(動き量)を検出し、検出した動きベクトル(動き量)を領域決定部182に供給する。具体的には、動き量検出部181は、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャし、キャプチャされたフレームに、所定のサイズ(例えば、縦16(dots)×横16(dots))のマクロブロックを設定し、1つ前のフレームとの間でブロックマッチングにより、フレーム上の左上のマクロブロックを先頭に、右下のマクロブロックまで順に、差分絶対和(評価値)を順次算出し、評価値が最小となる場所の動きを、動きベクトルとして検出する。   For example, in step S53, the motion amount detection unit 181 detects a motion vector (motion amount) from the image data supplied from the A / D conversion unit 13 by block matching (algorithm), and the detected motion vector (motion Amount) is supplied to the region determination unit 182. Specifically, the motion amount detection unit 181 sequentially acquires the image data supplied from the A / D conversion unit 13 and captures one frame of the acquired image data. Set a macroblock of a predetermined size (for example, vertical 16 (dots) x horizontal 16 (dots)), and by matching the block with the previous frame, the upper left macroblock on the frame starts at the right The absolute difference sum (evaluation value) is calculated sequentially in order up to the lower macroblock, and the motion of the place where the evaluation value is minimum is detected as a motion vector.

なお、動き量検出部181がA/D変換部13から供給された画像データから動きベクトル(動き量)を検出する方法であるが、キャプチャされたフレームを複数の領域に分割し、分割した領域毎に動きベクトル(動き量)を検出するようにしてもよい。また、動きベクトル(動き量)は、ブロックマッチングに限らず、例えば、勾配法などの方法により、検出するようにしてもよい。   The motion amount detection unit 181 detects the motion vector (motion amount) from the image data supplied from the A / D conversion unit 13, but the captured frame is divided into a plurality of regions and the divided regions are used. You may make it detect a motion vector (motion amount) for every. Further, the motion vector (motion amount) is not limited to block matching, and may be detected by a method such as a gradient method, for example.

ステップS54において、領域決定部182は、動き量検出部181から供給された動き量を基に、高画質領域と低画質領域とを設定(決定)する。領域決定部182は、決定した高画質領域と低画質領域の領域を示す情報である領域情報を画像分割部51に供給する。   In step S54, the region determination unit 182 sets (determines) a high image quality region and a low image quality region based on the motion amount supplied from the motion amount detection unit 181. The region determination unit 182 supplies region information, which is information indicating the determined high-quality region and low-quality region, to the image dividing unit 51.

例えば、ステップS54において、領域決定部182は、動き量検出部181から供給された動き量を基に、動き量が検出された領域の画像を高画質領域とし、動き量が検出されなかった領域の画像を低画質領域として決定し、決定した領域情報を画像分割部51に供給する。具体的には、ステップS54において、領域決定部182は、動き量検出部181から供給された動き量を基に、動き量が検出されなかった画像の周囲5%を低画質領域と決定し、動き量が検出されたそれ以外の領域を高画質領域と決定し、決定した「画像の周囲5%を低画質領域(A領域111)とし、それ以外の画像を高画質領域(B領域112)とする」ことを示す領域情報を画像分割部51に供給する。   For example, in step S54, the region determination unit 182 uses the motion amount supplied from the motion amount detection unit 181 as an image of the region in which the motion amount is detected as a high-quality region, and the region in which the motion amount is not detected. Are determined as low-quality areas, and the determined area information is supplied to the image dividing unit 51. Specifically, in step S54, the region determination unit 182 determines, based on the motion amount supplied from the motion amount detection unit 181, 5% around the image in which no motion amount is detected as a low image quality region, The other area in which the amount of motion is detected is determined as the high image quality area, and the determined “5% around the image is set as the low image quality area (A area 111) and the other images are defined as the high image quality area (B area 112). Is supplied to the image dividing unit 51.

ここで、図11および図12を参照して、領域決定部182が決定する画質領域の詳細について説明する。   Here, with reference to FIG. 11 and FIG. 12, details of the image quality region determined by the region determination unit 182 will be described.

図11は、カメラ11により撮像される画像を表示する表示部(図示せず)の画面の例を示す図である。図6に示す場合と同様の部分には、同一の符号が付してあり、その説明は適宜省略する。   FIG. 11 is a diagram illustrating an example of a screen of a display unit (not shown) that displays an image captured by the camera 11. The same parts as those shown in FIG. 6 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

図11で示される例において、領域決定部182は、動き量が検出されなかった低画質領域の画像(例えば、背景など)として、画面101に表示された画像の周囲5%をA領域111と決定し、それ以外の動き量の検出された高画質領域の画像(例えば、ユーザの顔や体など)をB領域112として決定している。すなわち、画面101に表示された画像の周囲5%を除いた、縦432(dots)×横576(dots)である解像度の領域がB領域112となる。   In the example illustrated in FIG. 11, the region determination unit 182 determines that the 5% of the periphery of the image displayed on the screen 101 as the A region 111 as an image (for example, a background) of a low-quality region in which the amount of motion is not detected. The image of the high-quality area where the amount of motion other than that is detected (for example, the user's face or body) is determined as the B area 112. That is, an area having a resolution of vertical 432 (dots) × horizontal 576 (dots) excluding 5% around the image displayed on the screen 101 is the B area 112.

すなわち、画面101に表示された画像におけるB領域112の占める割合、すなわち、画面101に表示された画像の解像度:B領域112の解像度は、縦480(dots)×横640(dots):縦432(dots)×横576(dots)となるので、81%となる。同様に、画面101に表示された画像におけるA領域111の占める割合は、19%となる。   That is, the proportion of the B area 112 in the image displayed on the screen 101, that is, the resolution of the image displayed on the screen 101: the resolution of the B area 112 is 480 vertical (dots) × 640 horizontal (dots): 432 vertical. Since it is (dots) x horizontal 576 (dots), it is 81%. Similarly, the proportion of the area A 111 in the image displayed on the screen 101 is 19%.

この場合、例えば、ユーザが動作している場合など、動いている画像の領域が多いので、画面101のうち、動いている画像の領域が81%であり、静止している画像の領域が19%となる。従って、例えば、画面101に表示された画像の周囲40%をA領域111と設定し、それ以外をB領域112と設定した場合(例えば、後述する図12)と比較して、B領域112に割り当てられるデータ量が少なくなるが、より広い領域の画質を向上させることができる。   In this case, for example, when there are many moving image areas such as when the user is operating, the moving image area of the screen 101 is 81%, and the stationary image area is 19%. %. Therefore, for example, compared to the case where 40% of the periphery of the image displayed on the screen 101 is set as the A area 111 and the other area is set as the B area 112 (for example, FIG. 12 described later), Although the amount of allocated data is reduced, the image quality of a wider area can be improved.

また、領域決定部182が決定する画質領域は、動き量検出部181が検出する動き量と連動して変化するので、動きのある画像の場合、絶えず変化している。次に、図12を参照して、図11と比較して、ユーザの動作が少ない場合の画質領域について説明する。   In addition, the image quality region determined by the region determination unit 182 changes in conjunction with the amount of motion detected by the motion amount detection unit 181, and thus changes continuously in the case of a moving image. Next, with reference to FIG. 12, the image quality area when the number of user operations is small compared to FIG. 11 will be described.

図12は、カメラ11により撮像される画像を表示する表示部(図示せず)の画面の例を示す図である。図6に示す場合と同様の部分には、同一の符号が付してあり、その説明は適宜省略する。   FIG. 12 is a diagram illustrating an example of a screen of a display unit (not shown) that displays an image captured by the camera 11. The same parts as those shown in FIG. 6 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

図12で示される例においては、領域決定部182は、動き量が検出されなかった低画質領域の画像(例えば、背景など)として、画面101に表示された画像の周囲40%をA領域111と決定し、それ以外の動き量の検出された高画質領域の画像(例えば、ユーザの顔や体など)をB領域112として決定している。すなわち、画面101に表示された画像の周囲40%を除いた、縦288(dots)×横384(dots)である解像度の領域がB領域112となる。   In the example illustrated in FIG. 12, the area determination unit 182 uses the A area 111 to obtain 40% of the periphery of the image displayed on the screen 101 as an image (for example, a background) of a low image quality area in which the amount of motion is not detected. In other words, an image in a high-quality area (for example, a user's face or body) from which the amount of motion other than that is detected is determined as the B area 112. That is, an area having a resolution of 288 vertical (dots) × 384 horizontal (dots) excluding 40% of the periphery of the image displayed on the screen 101 is the B area 112.

すなわち、画面101に表示された画像におけるB領域112の占める割合、すなわち、画面101に表示された画像の解像度:B領域112の解像度は、縦480(dots)×横640(dots):縦288(dots)×横384(dots)となるので、36%となる。同様に、画面101に表示された画像におけるA領域111の占める割合は、64%となる。   That is, the ratio of the B area 112 in the image displayed on the screen 101, that is, the resolution of the image displayed on the screen 101: the resolution of the B area 112 is 480 vertical (dots) × 640 horizontal (dots): 288 vertical (Dots) x horizontal 384 (dots), so 36%. Similarly, the ratio of the A area 111 in the image displayed on the screen 101 is 64%.

この場合、例えば、ユーザに動きがない場合など、動いている画像の領域が少ないので、画面101のうち、動いている画像の領域が36%であり、静止している画像の領域が64%となる。従って、画面101に表示された画像の周囲5%をA領域111と設定し、それ以外をB領域112と設定した場合(例えば、図11)と比較して、B領域112に割り当てられるデータ量が多くなり、画質を向上させることができる。   In this case, for example, when there is no movement of the user, there are few moving image areas, so the moving image area of the screen 101 is 36%, and the stationary image area is 64%. It becomes. Therefore, the amount of data allocated to the B area 112 as compared to the case where 5% around the image displayed on the screen 101 is set as the A area 111 and the other area is set as the B area 112 (for example, FIG. 11). Increases, and the image quality can be improved.

このように、動き量が大きい場合、全体に対するB領域112の占める割合が大きくなり、動き量が小さい場合、全体に対するB領域112の占める割合が小さくなるので、高画質領域(注目されている部分)の画質を維持しながら、さらに、効率的に圧縮することができる。   As described above, when the amount of motion is large, the ratio of the B region 112 to the whole increases. When the amount of motion is small, the ratio of the B region 112 to the whole decreases. ) Can be further efficiently compressed while maintaining the image quality.

なお、A領域111とB領域112の指定方法は、図11および図12で示される長方形(正方形)の領域で指定する方法に限らず、例えば、画面101に表示されているユーザの輪郭など、画面101上の領域を指定できる方法であればよい。   Note that the method of specifying the A region 111 and the B region 112 is not limited to the method of specifying the rectangular (square) region shown in FIGS. 11 and 12, for example, the user's contour displayed on the screen 101, etc. Any method that can specify an area on the screen 101 may be used.

図10のフローチャートに戻り、ステップS55において、画像分割部51は、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャする。画像分割部51は、領域決定部182から供給された領域情報に応じて、キャプチャされた1フレーム分の画像データを、高画質データと低画質データとに分割する。   Returning to the flowchart of FIG. 10, in step S55, the image division unit 51 sequentially acquires the image data supplied from the A / D conversion unit 13, and captures one frame of the acquired image data. The image dividing unit 51 divides the captured image data for one frame into high-quality data and low-quality data in accordance with the region information supplied from the region determining unit 182.

例えば、ステップS55において、画像分割部51は、領域決定部182から供給された画像の周囲5%を低画質領域とする領域情報に応じて、A/D変換部13から供給された画像データからキャプチャした1フレーム分の画像データを、図11のA領域111に対応した画像データと図11のB領域112に対応した画像データとに分割する。   For example, in step S55, the image dividing unit 51 uses the image data supplied from the A / D conversion unit 13 according to the region information in which 5% around the image supplied from the region determining unit 182 is a low image quality region. The captured image data for one frame is divided into image data corresponding to area A 111 in FIG. 11 and image data corresponding to area B 112 in FIG.

また、例えば、ステップS55において、画像分割部51は、領域決定部182から供給された画像の周囲40%を低画質領域とする領域情報に応じて、A/D変換部13から供給された画像データからキャプチャした1フレーム分の画像データを、図12のA領域111に対応した画像データと図12のB領域112に対応した画像データとに分割する。   Further, for example, in step S55, the image dividing unit 51 determines the image supplied from the A / D conversion unit 13 according to the region information in which 40% of the periphery of the image supplied from the region determining unit 182 is a low image quality region. The image data for one frame captured from the data is divided into image data corresponding to area A 111 in FIG. 12 and image data corresponding to area B 112 in FIG.

ステップS56乃至ステップS60の処理のそれぞれは、図4のステップS14乃至ステップS18の処理のそれぞれと同様であり、その説明は省略する。   Each of the processes in steps S56 to S60 is the same as each of the processes in steps S14 to S18 in FIG.

このように、動きがある部分(注目されている部分)である高画質領域と、それ以外の部分である低画質領域とが画像の動きにあわせて動的に変化するので、動きのある部分(注目されている部分)が常に高画質になり、動画を見ている相手に対して、より鮮明な画像を認識させることができる。例えば、テレビ電話装置1−1においては、カメラ11により撮像されるテレビ電話をしているユーザの画像が高画質となるので、テレビ電話装置1−2を使用する相手に、より鮮明なユーザの画像を認識させることができる。   In this way, the high-quality area that is the part with movement (the part that is attracting attention) and the low-quality area that is the other part dynamically change according to the movement of the image. The (highlighted part) always has high image quality, and a clearer image can be recognized by the other party watching the video. For example, in the videophone device 1-1, since the image of the user who is making a videophone image picked up by the camera 11 has a high image quality, a clearer user's image is displayed to the other party who uses the videophone device 1-2. Images can be recognized.

なお、領域決定部182が画質領域を決定するタイミングであるが、1秒間に表示されるフレームのうち、先頭のフレーム(例えば、図5のフレーム1−1など)に決定することが望ましい。すなわち、1秒間に表示されるフレームにおいて、画質領域が同じになるようにすることで、画像合成部53が合成する、画像記憶部52から読み込んだ低画質画像データと、画像分割部51から供給された高画質画像データとの同期をとることができるようになる。   Although it is the timing when the area determining unit 182 determines the image quality area, it is desirable to determine the first frame (for example, the frame 1-1 in FIG. 5) among the frames displayed for one second. That is, low-quality image data read from the image storage unit 52 synthesized by the image synthesis unit 53 and supplied from the image division unit 51 by making the image quality regions the same in the frames displayed per second. It becomes possible to synchronize with the high-quality image data.

また、上述した例においては、領域決定部182は、動き量が検出された領域を高画質領域に決定し、動き量が検出されなかった領域を低画質領域に決定しているが、例えば、動き量が所定の閾値を超えた場合、その閾値を超えた領域を高画質領域に決定し、それに対して、動き量が所定の閾値に満たない場合、その閾値に満たない領域を低画質領域に決定するようにしてもよい。   In the above-described example, the region determination unit 182 determines the region in which the amount of motion is detected as the high-quality region, and determines the region in which the amount of motion is not detected as the low-quality region. When the amount of motion exceeds a predetermined threshold, the region that exceeds the threshold is determined as a high-quality region. On the other hand, when the amount of motion is less than the predetermined threshold, You may make it decide to.

ところで、ネットワーク2の一例であるインターネットは、ベストエフォート型のネットワークであるので、ネットワーク2がもつ処理能力以上の通信量が発生してネットワーク2が混雑し、輻輳が発生する可能性がある。また、ネットワーク2の状態は、常に変化しているので、図1のテレビ電話装置1−1とテレビ電話装置1−2との間の通信状況も絶えず変化している。従って、以下、図13乃至図15を参照して、ネットワーク2の遅延時間を検出し、検出した遅延時間に応じて、領域情報を動的に変更させる処理について説明する。   By the way, since the Internet which is an example of the network 2 is a best effort type network, there is a possibility that the network 2 is congested due to a communication amount exceeding the processing capability of the network 2 and congestion occurs. Further, since the state of the network 2 is constantly changing, the communication status between the videophone device 1-1 and the videophone device 1-2 in FIG. 1 is also constantly changing. Therefore, hereinafter, a process of detecting the delay time of the network 2 and dynamically changing the area information according to the detected delay time will be described with reference to FIGS. 13 to 15.

図13は、画像処理部201の詳細な構成を説明するブロック図である。図3に示す場合と同様の部分には、同一の符号が付してあり、その説明は適宜省略する。   FIG. 13 is a block diagram illustrating a detailed configuration of the image processing unit 201. The same parts as those shown in FIG. 3 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

画像処理部201は、図2の画像処理部14の代わりに設けられる。画像処理部201は、CPU16の制御の基に、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャする。画像処理部201は、キャプチャされた画像データに対して、例えば、高画質にする領域における画像データと、高画質にしない領域における画像データとに分ける処理などの所定の処理を実行し、所定の処理を施した画像データをエンコーダ15に供給する。   The image processing unit 201 is provided instead of the image processing unit 14 in FIG. The image processing unit 201 sequentially acquires the image data supplied from the A / D conversion unit 13 under the control of the CPU 16 and captures one frame of the acquired image data. For example, the image processing unit 201 executes predetermined processing such as processing to divide the captured image data into image data in an area where high image quality is desired and image data in an area where high image quality is not high. The processed image data is supplied to the encoder 15.

画像処理部201は、画像分割部51、画像記憶部52、画像合成部53、RTT(Round-Trip Time)計測部211、および領域決定部212を含むように構成される。   The image processing unit 201 is configured to include an image dividing unit 51, an image storage unit 52, an image composition unit 53, an RTT (Round-Trip Time) measurement unit 211, and an area determination unit 212.

RTT計測部211は、送信するパケットの遅延時間(RTT)を検出するためのRTT計測パケットを生成し、生成したRTT計測パケットを通信部19に供給する。例えば、RTT計測部211は、送信の時刻を示すデータを格納しているRTT計測パケットを生成し、生成したRTT計測パケットを通信部19に供給する。また、RTT計測部211は、通信部19に受信され、通信部19から供給されたRTT計測パケットを基に、遅延時間を計算する。RTT計測部211は、計算した遅延時間を領域決定部212に供給する。   The RTT measurement unit 211 generates an RTT measurement packet for detecting a delay time (RTT) of a packet to be transmitted, and supplies the generated RTT measurement packet to the communication unit 19. For example, the RTT measurement unit 211 generates an RTT measurement packet that stores data indicating the transmission time, and supplies the generated RTT measurement packet to the communication unit 19. The RTT measurement unit 211 calculates a delay time based on the RTT measurement packet received by the communication unit 19 and supplied from the communication unit 19. The RTT measurement unit 211 supplies the calculated delay time to the region determination unit 212.

さらに、RTT計測部211は、通信部19から供給されたRTT計測パケットのデータ部と同様のデータ部のRTT計測パケットを生成し、生成したRTT計測パケットを通信部19に供給する。例えば、RTT計測部211は、通信部19から供給されたRTT計測パケットのデータ部に格納された送信時刻と同様の時刻を格納したRTT計測パケットを生成し、生成したRTT計測パケットを通信部19に供給する。   Further, the RTT measurement unit 211 generates an RTT measurement packet having the same data part as the data part of the RTT measurement packet supplied from the communication unit 19, and supplies the generated RTT measurement packet to the communication unit 19. For example, the RTT measurement unit 211 generates an RTT measurement packet that stores the same time as the transmission time stored in the data part of the RTT measurement packet supplied from the communication unit 19, and transmits the generated RTT measurement packet to the communication unit 19. To supply.

領域決定部212は、RTT計測部211から供給された遅延時間を、例えば、領域決定部212の内部に備えるメモリに記憶する。領域決定部212は、RTT計測部211から供給された遅延時間であって、領域決定部212の内部に備えるメモリに記憶されている遅延時間を取得する。   The area determination unit 212 stores the delay time supplied from the RTT measurement unit 211 in, for example, a memory provided in the area determination unit 212. The region determination unit 212 acquires the delay time supplied from the RTT measurement unit 211 and stored in a memory provided in the region determination unit 212.

また、領域決定部212は、取得した遅延時間を基に、高画質領域と低画質領域とを設定(決定)する。領域決定部212は、決定した高画質領域と低画質領域とを示す領域情報を画像分割部51に供給する。例えば、領域決定部212は、取得した遅延時間を基に、領域情報を、高画質領域を広くして、低画質領域を狭くするように決定し、決定した領域情報を画像分割部51に供給する。   In addition, the area determination unit 212 sets (determines) a high image quality area and a low image quality area based on the acquired delay time. The region determining unit 212 supplies region information indicating the determined high image quality region and low image quality region to the image dividing unit 51. For example, the region determination unit 212 determines region information based on the acquired delay time so that the high-quality region is widened and the low-quality region is narrowed, and the determined region information is supplied to the image dividing unit 51. To do.

画像分割部51は、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャする。画像分割部51は、領域決定部212から供給された領域情報に応じて、キャプチャされた1フレーム分の画像データを、高画質データと低画質データとに分割する。画像分割部51は、分割した画像データのうち、高画質画像データを画像合成部53に供給し、低画質画像データを画像記憶部52に供給する。   The image dividing unit 51 sequentially acquires the image data supplied from the A / D conversion unit 13 and captures one frame of the acquired image data. The image division unit 51 divides the captured image data for one frame into high-quality data and low-quality data in accordance with the region information supplied from the region determination unit 212. Of the divided image data, the image dividing unit 51 supplies high-quality image data to the image composition unit 53 and supplies low-quality image data to the image storage unit 52.

次に、図14のフローチャートを参照して、テレビ電話装置1による画像圧縮の処理について説明する。   Next, image compression processing by the videophone device 1 will be described with reference to the flowchart of FIG.

ステップS71およびステップS72の処理のそれぞれは、図4のステップS11およびステップS12の処理のそれぞれと同様であり、その説明は省略する。   Each of the processing of step S71 and step S72 is the same as each of the processing of step S11 and step S12 of FIG. 4, and description thereof will be omitted.

ステップS73において、領域決定部212は、RTT計測部211から供給された遅延時間であって、自分が記憶している遅延時間を取得する。例えば、領域決定部212は、RTT計測部211から供給された遅延時間であって、領域決定部212の内部に備えるメモリに記憶されている遅延時間を取得する。   In step S73, the area determination unit 212 acquires the delay time supplied from the RTT measurement unit 211 and stored by itself. For example, the region determination unit 212 acquires the delay time supplied from the RTT measurement unit 211 and stored in a memory provided in the region determination unit 212.

詳細は後述するが、RTT計測部211から供給された遅延時間は、テレビ電話装置1−1とテレビ電話装置1−2との間で、RTT計測パケットの送受信を繰り返すことにより、RTT計測部211によって計算される。   Although details will be described later, the delay time supplied from the RTT measurement unit 211 is obtained by repeating transmission and reception of the RTT measurement packet between the videophone device 1-1 and the videophone device 1-2. Calculated by

ステップS74において、領域決定部212は、取得した遅延時間を基に、高画質領域と低画質領域とを設定(決定)する。領域決定部212は、決定した高画質領域と低画質領域とを示す領域情報を画像分割部51に供給する。   In step S74, the region determination unit 212 sets (determines) a high image quality region and a low image quality region based on the acquired delay time. The region determining unit 212 supplies region information indicating the determined high image quality region and low image quality region to the image dividing unit 51.

例えば、ステップS74において、領域決定部212は、取得した遅延時間が所定の時刻を超える場合(例えば、ネットワーク2において、輻輳が発生している場合)、ネットワーク2がもつ処理能力以上の通信量が発生してネットワーク2が混雑しているため、画像データの送信に時間がかかったり、画像データの一部が破棄されて相手に届かない可能性があるので、より重要な領域である高画質領域を狭くして確実に相手に届くようにするとともに、さほど画質をよくしなくてもよい低画質領域を広くするように領域情報を決定し、決定した領域情報を画像分割部51に供給する。   For example, when the acquired delay time exceeds a predetermined time in step S74 (for example, when congestion occurs in the network 2), the area determination unit 212 has a communication amount that exceeds the processing capability of the network 2. Since it occurs and the network 2 is congested, it may take a long time to transmit the image data, or a part of the image data may be discarded and not reach the other party. The area information is determined so that the image quality can be surely reached to the other party and the low image quality area that does not need to improve the image quality is widened, and the determined area information is supplied to the image dividing unit 51.

より具体的には、ステップS74において、領域決定部212は、取得した遅延時間を基に、画像の周囲40%を低画質領域と決定し、それ以外の領域を高画質領域と決定し(例えば、図12の画面)、決定した領域情報を画像分割部51に供給する。   More specifically, in step S74, the region determination unit 212 determines 40% of the periphery of the image as a low image quality region based on the acquired delay time, and determines other regions as high image quality regions (for example, , The determined area information is supplied to the image dividing unit 51.

すなわち、画像データのデータ量(トラフィック)を少なくすることで、例えば、ネットワーク2において、輻輳が発生していても、より確実に高画質領域の画像データを相手に送信することができる。   That is, by reducing the data amount (traffic) of the image data, for example, even when congestion occurs in the network 2, the image data in the high-quality area can be transmitted to the other party more reliably.

一方、例えば、ステップS74において、領域決定部212は、取得した遅延時間が所定の時刻以下となる場合(例えば、ネットワーク2において、輻輳が発生していない場合)、ネットワーク2に流れるトラフィックには余裕があるため、画像データを確実に相手に送信することができるので、より重要な領域である高画質領域を広くして鮮明な画像が相手に届くようにするとともに、さほど画質をよくしなくてもよい低画質領域を狭くするように領域情報を決定し、決定した領域情報を画像分割部51に供給する。   On the other hand, for example, if the acquired delay time is equal to or shorter than a predetermined time in step S74 (for example, when congestion does not occur in the network 2), the area determination unit 212 has a margin for traffic flowing through the network 2. Since the image data can be transmitted to the other party without fail, it is possible to widen the high-quality area, which is a more important area, so that a clear image can reach the other party. The region information is determined so as to narrow the good low image quality region, and the determined region information is supplied to the image dividing unit 51.

より具体的には、ステップS74において、領域決定部212は、取得した遅延時間を基に、画像の周囲5%を低画質領域と決定し、それ以外の領域を高画質領域と決定し(例えば、図11の画面)、決定した領域情報を画像分割部51に供給する。   More specifically, in step S74, the region determination unit 212 determines, based on the acquired delay time, 5% around the image as a low image quality region, and determines other regions as high image quality regions (for example, , And the determined area information is supplied to the image dividing unit 51.

すなわち、例えば、ネットワーク2において、輻輳が発生していないとき、高画質領域のデータ量を多くすることで、より鮮明な画像を相手に届けることができる。   That is, for example, when congestion does not occur in the network 2, a clearer image can be delivered to the other party by increasing the amount of data in the high-quality area.

ステップS75において、画像分割部51は、A/D変換部13から供給された画像データを順次取得して、取得した画像データのうち、1フレーム分をキャプチャする。画像分割部51は、領域決定部212から供給された領域情報に応じて、キャプチャされた1フレーム分の画像データを、高画質データと低画質データとに分割する。   In step S75, the image division unit 51 sequentially acquires the image data supplied from the A / D conversion unit 13, and captures one frame of the acquired image data. The image division unit 51 divides the captured image data for one frame into high-quality data and low-quality data in accordance with the region information supplied from the region determination unit 212.

例えば、ステップS75において、画像分割部51は、領域決定部212から供給された画像の周囲5%を低画質領域とする領域情報に応じて、A/D変換部13から供給された画像データからキャプチャした1フレーム分の画像データを、図11のA領域111に対応した画像データと図11のB領域112に対応した画像データとに分割する。   For example, in step S <b> 75, the image dividing unit 51 uses the image data supplied from the A / D conversion unit 13 according to the region information in which 5% around the image supplied from the region determining unit 212 is a low image quality region. The captured image data for one frame is divided into image data corresponding to area A 111 in FIG. 11 and image data corresponding to area B 112 in FIG.

また、例えば、ステップS75において、画像分割部51は、領域決定部212から供給された画像の周囲40%を低画質領域とする領域情報に応じて、A/D変換部13から供給された画像データからキャプチャした1フレーム分の画像データを、図12のA領域111に対応した画像データと図12のB領域112に対応した画像データとに分割する。   Further, for example, in step S75, the image dividing unit 51 determines the image supplied from the A / D conversion unit 13 according to the region information in which 40% of the periphery of the image supplied from the region determining unit 212 is a low image quality region. The image data for one frame captured from the data is divided into image data corresponding to area A 111 in FIG. 12 and image data corresponding to area B 112 in FIG.

ステップS76乃至ステップS80の処理のそれぞれは、図4のステップS14乃至ステップS18の処理のそれぞれと同様であり、その説明は省略する。   Each of the processes in steps S76 to S80 is the same as each of the processes in steps S14 to S18 in FIG. 4, and the description thereof is omitted.

このように、例えば、ネットワーク2の一例であるインターネットは、ベストエフォート型のネットワークであるので、ネットワークがもつ処理能力以上の通信量が発生してネットワークが混雑し、輻輳が発生することがあるが、本発明によれば、ネットワークの遅延時間を検出し、遅延時間に応じて、高画質領域と低画質領域を決定するので、ネットワーク2において、輻輳が発生したとしても、重要な領域の画像を、より確実に表示させることができる。   Thus, for example, the Internet, which is an example of the network 2, is a best-effort network, and therefore, a communication amount exceeding the processing capability of the network may occur, the network may be congested, and congestion may occur. According to the present invention, the delay time of the network is detected, and the high image quality region and the low image quality region are determined according to the delay time. Therefore, even if congestion occurs in the network 2, an image of an important region can be obtained. Can be displayed more reliably.

なお、領域決定部212が画質領域を決定するタイミングであるが、1秒間に表示されるフレームのうち、先頭のフレーム(例えば、図5のフレーム1−1など)に決定することが望ましい。すなわち、1秒間に表示されるフレームにおいて、画質領域が同じになるようにすることで、画像合成部53が合成する、画像記憶部52から読み込んだ低画質画像データと、画像分割部51から供給された高画質画像データとの同期をとることができるようになる。   Although it is the timing when the area determining unit 212 determines the image quality area, it is desirable to determine the first frame (for example, the frame 1-1 in FIG. 5) among the frames displayed for one second. That is, low-quality image data read from the image storage unit 52 synthesized by the image synthesis unit 53 and supplied from the image division unit 51 by making the image quality regions the same in the frames displayed per second. It becomes possible to synchronize with the high-quality image data.

次に、図15のフローチャートを参照して、テレビ電話装置1−1とテレビ電話装置1−2によるRTT計測パケットの送受信の処理について説明する。   Next, with reference to the flowchart of FIG. 15, the process of transmitting and receiving the RTT measurement packet by the videophone device 1-1 and the videophone device 1-2 will be described.

ステップS101において、テレビ電話装置1−1のRTT計測部211は、内蔵しているタイマが終了したか否かを判定することで、所定の時刻を経過したか否かを判定する。例えば、ステップS101において、RTT計測部211は、タイマの値と10(s)などの所定の値とを比較することによって、所定の時刻が経過したか否かを判定する。   In step S101, the RTT measurement unit 211 of the videophone device 1-1 determines whether or not a predetermined time has elapsed by determining whether or not the built-in timer has expired. For example, in step S101, the RTT measurement unit 211 determines whether or not a predetermined time has elapsed by comparing a timer value with a predetermined value such as 10 (s).

ステップS101において、所定の時刻が経過していないと判定された場合、ステップS101に戻り、上述した処理を繰り返す。すなわち、詳細は後述するが、テレビ電話装置1−1のRTT計測部211は、ある一定の間隔(例えば、10(s))でRTT計測パケットを生成して送信させることになる。   If it is determined in step S101 that the predetermined time has not elapsed, the process returns to step S101 and the above-described processing is repeated. That is, although details will be described later, the RTT measurement unit 211 of the videophone device 1-1 generates and transmits an RTT measurement packet at a certain interval (for example, 10 (s)).

ステップS101において、所定の経過が経過したと判定された場合、ステップS102に進み、テレビ電話装置1−1のRTT計測部211は、RTT計測パケットを生成し、生成したRTT計測パケットを、テレビ電話装置1−1の通信部19に送信する。例えば、RTT計測部211は、内蔵しているRTCから現在時刻(RTT計測パケットの送信時刻)を取得し、取得した送信時刻を格納したRTT計測パケットを生成し、生成したRTT計測パケットを通信部19に供給する。   If it is determined in step S101 that the predetermined time has passed, the process proceeds to step S102, where the RTT measurement unit 211 of the videophone device 1-1 generates an RTT measurement packet, and the generated RTT measurement packet is transmitted to the videophone. It transmits to the communication part 19 of the apparatus 1-1. For example, the RTT measurement unit 211 obtains the current time (the transmission time of the RTT measurement packet) from the built-in RTC, generates an RTT measurement packet that stores the acquired transmission time, and transmits the generated RTT measurement packet to the communication unit 19 is supplied.

ステップS103において、テレビ電話装置1−1の通信部19は、RTT計測部211から供給されたRTT計測パケットを、ネットワーク2を介して、テレビ電話装置1−2宛てに送信する。   In step S <b> 103, the communication unit 19 of the videophone device 1-1 transmits the RTT measurement packet supplied from the RTT measurement unit 211 to the videophone device 1-2 via the network 2.

ステップS111において、テレビ電話装置1−2の通信部19は、ネットワーク2を介して、テレビ電話装置1−1から送信されてくるRTT計測パケットを受信し、受信したRTT計測パケットをテレビ電話装置1−2のRTT計測部211に供給する。   In step S111, the communication unit 19 of the videophone device 1-2 receives the RTT measurement packet transmitted from the videophone device 1-1 via the network 2, and uses the received RTT measurement packet as the videophone device 1. -2 to the RTT measuring unit 211.

ステップS112において、テレビ電話装置1−2のRTT計測部211は、テレビ電話装置1−2の通信部19から供給されたRTT計測パケットのデータ部と同様のデータ部のRTT計測パケットを生成し、生成したRTT計測パケットをテレビ電話装置1−2の通信部19に供給する。例えば、ステップS112において、RTT計測部211は、通信部19から供給されたRTT計測パケットのデータ部に格納された送信時刻と同様の時刻を格納したRTT計測パケットを生成し、生成したRTT計測パケットを通信部19に供給する。   In step S112, the RTT measurement unit 211 of the videophone device 1-2 generates an RTT measurement packet having the same data portion as the data portion of the RTT measurement packet supplied from the communication unit 19 of the videophone device 1-2. The generated RTT measurement packet is supplied to the communication unit 19 of the videophone device 1-2. For example, in step S112, the RTT measurement unit 211 generates an RTT measurement packet that stores the same time as the transmission time stored in the data part of the RTT measurement packet supplied from the communication unit 19, and generates the generated RTT measurement packet. Is supplied to the communication unit 19.

ステップS113において、テレビ電話装置1−2の通信部19は、テレビ電話装置1−2のRTT計測部211から供給されたRTT計測パケットを、ネットワーク2を介して、テレビ電話装置1−2宛てに送信する。   In step S113, the communication unit 19 of the videophone device 1-2 sends the RTT measurement packet supplied from the RTT measurement unit 211 of the videophone device 1-2 to the videophone device 1-2 via the network 2. Send.

このように、テレビ電話装置1−2は、RTT計測パケットを受信すると、直ちに、テレビ電話装置1−1にRTT計測パケットを返送する。   As described above, when receiving the RTT measurement packet, the videophone device 1-2 returns the RTT measurement packet to the videophone device 1-1 immediately.

ステップS104において、テレビ電話装置1−1の通信部19は、ネットワーク2を介して、テレビ電話装置1−2から送信されてくるRTT計測パケットを受信し、受信したRTT計測パケットをテレビ電話装置1−1のRTT計測部211に供給する。   In step S104, the communication unit 19 of the videophone device 1-1 receives the RTT measurement packet transmitted from the videophone device 1-2 via the network 2, and uses the received RTT measurement packet as the videophone device 1. −1 to the RTT measuring unit 211.

ステップS105において、テレビ電話装置1−1のRTT計測部211は、テレビ電話装置1−1の通信部19に受信され、テレビ電話装置1−1の通信部19から供給されたRTT計測パケットを基に、遅延時間を計算する。テレビ電話装置1−1のRTT計測部211は、計算した遅延時間をテレビ電話装置1−1の領域決定部212に供給する。   In step S105, the RTT measurement unit 211 of the videophone device 1-1 is received based on the RTT measurement packet received by the communication unit 19 of the videophone device 1-1 and supplied from the communication unit 19 of the videophone device 1-1. Then, the delay time is calculated. The RTT measuring unit 211 of the videophone device 1-1 supplies the calculated delay time to the area determining unit 212 of the videophone device 1-1.

例えば、ステップS105において、RTT計測部211は、通信部19に受信され、通信部19から供給された、自分が生成して送信させたRTT計測パケットに応じて、テレビ電話装置1−2から送信されてくるRTT計測パケットを基に、遅延時間を計算し、計算した遅延時間を領域決定部212に供給する。   For example, in step S <b> 105, the RTT measurement unit 211 transmits from the videophone device 1-2 according to the RTT measurement packet received and received by the communication unit 19 and supplied from the communication unit 19. Based on the received RTT measurement packet, the delay time is calculated, and the calculated delay time is supplied to the region determination unit 212.

具体的には、RTT計測パケットには、自分がテレビ電話装置1−1から送信された時刻を示す送信時刻が格納されており、この送信時刻により遅延時間を計算する。すなわち、テレビ電話装置1−1のRTT計測部211は、RTT計測パケットがテレビ電話装置1−1から送信された時刻と、テレビ電話装置1−2からRTT計測パケットを受信した時刻を基に、遅延時間を計算する。例えば、ステップS105において、テレビ電話装置1−1のRTT計測部211は、式(1)により、遅延時間を計算する。   Specifically, the RTT measurement packet stores a transmission time indicating the time when the user himself / herself was transmitted from the videophone device 1-1, and the delay time is calculated based on this transmission time. That is, the RTT measurement unit 211 of the video phone device 1-1 is based on the time when the RTT measurement packet is transmitted from the video phone device 1-1 and the time when the RTT measurement packet is received from the video phone device 1-2. Calculate the delay time. For example, in step S <b> 105, the RTT measurement unit 211 of the videophone device 1-1 calculates the delay time using Expression (1).

(RTT計測パケットの受信時刻)−(RTT計測パケットの送信時刻)・・・(1)   (Reception time of RTT measurement packet) − (Transmission time of RTT measurement packet) (1)

ここで、RTT計測パケットの受信時刻は、テレビ電話装置1−1のRTT計測部211がRTT計測パケットを受信したときに、内蔵しているRTC(Real Time Clock)から取得した時刻である。また、RTT計測パケットの送信時刻は、テレビ電話装置1−2から受信されたRTT計測パケットに格納されているRTT計測パケットの送信時刻である。   Here, the reception time of the RTT measurement packet is the time acquired from the built-in RTC (Real Time Clock) when the RTT measurement unit 211 of the videophone device 1-1 receives the RTT measurement packet. The transmission time of the RTT measurement packet is the transmission time of the RTT measurement packet stored in the RTT measurement packet received from the videophone device 1-2.

ステップS106において、テレビ電話装置1−1の領域決定部212は、テレビ電話装置1−1のRTT計測部211から供給された遅延時間を、例えば、テレビ電話装置1−1の領域決定部212の内部に備えるメモリに記憶して、処理は終了する。   In step S106, the area determination unit 212 of the videophone device 1-1 uses the delay time supplied from the RTT measurement unit 211 of the videophone device 1-1, for example, the area determination unit 212 of the videophone device 1-1. The process ends after storing the data in a memory provided inside.

このように、図14のフローチャートを参照して説明した、画像圧縮の処理とは別に、テレビ電話装置1−1とテレビ電話装置1−2との間で、図15のフローチャートを参照して説明した、RTT計測パケットの送受信の処理を繰り返して実行することで、ネットワーク2の遅延時間を監視し、ネットワーク2において、輻輳が発生しているか否かを、リアルタイムで判定することができる。なお、パケットの欠落を検出して、これに応じて領域情報を変更するようにしてもよい。   As described above, in addition to the image compression processing described with reference to the flowchart of FIG. 14, the video phone apparatus 1-1 and the video phone apparatus 1-2 are described with reference to the flowchart of FIG. 15. By repeatedly executing the process of transmitting and receiving the RTT measurement packet, it is possible to monitor the delay time of the network 2 and determine in real time whether or not congestion occurs in the network 2. Note that a packet loss may be detected, and the area information may be changed accordingly.

なお、上述した例においては、テレビ電話装置1について説明したが、本発明はそれに限らず、例えば、図2のカメラ11およびインプットターミナル12の代わりに、アンテナおよびチューナを設ける構成とすることも可能である。その場合、チューナは、ユーザの操作に応じた受信する放送局の指定に従って、アンテナより受信された地上波や放送衛星からの電波などのテレビジョン放送の放送電波に対応する放送信号であって、アンテナから供給されてくる放送信号を復調し、復調して得られた画像データをA/D変換部13に供給する。   In the above-described example, the videophone device 1 has been described. However, the present invention is not limited thereto, and for example, an antenna and a tuner may be provided instead of the camera 11 and the input terminal 12 in FIG. It is. In this case, the tuner is a broadcast signal corresponding to a broadcast wave of a television broadcast such as a terrestrial wave or a radio wave from a broadcast satellite received from an antenna according to a designation of a broadcast station to be received according to a user operation, The broadcast signal supplied from the antenna is demodulated, and the image data obtained by the demodulation is supplied to the A / D converter 13.

また、例えば、図2のカメラ11およびインプットターミナル12の代わりに、記録媒体およびドライブを設ける構成とすることも可能である。その場合、ドライブは、例えば、CD(Compact Disc)、DVD、またはBlu-ray Discなどの記録媒体が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。ドライブは、取得したプログラムやデータなどをA/D変換部13に供給する。さらに、例えば、図2のカメラ11およびインプットターミナル12の代わりに、VTR(Videotape Recorder)およびインプットターミナルを設ける構成とすることも可能である。この場合、インプットターミナルは、VTRから供給されてくる画像データをA/D変換部13に供給する。   Further, for example, a configuration in which a recording medium and a drive are provided instead of the camera 11 and the input terminal 12 of FIG. 2 may be employed. In this case, for example, when a recording medium such as a CD (Compact Disc), a DVD, or a Blu-ray Disc is loaded, the drive drives them and acquires programs and data recorded there. The drive supplies the acquired program and data to the A / D converter 13. Furthermore, for example, a VTR (Videotape Recorder) and an input terminal may be provided instead of the camera 11 and the input terminal 12 of FIG. In this case, the input terminal supplies the image data supplied from the VTR to the A / D converter 13.

すなわち、本発明においては、上述した、カメラ11およびインプットターミナル12に限らず、A/D変換部13に対して、画像データを供給できる構成であればよい。また、外部から供給されてくる画像データがデジタルデータである場合、A/D変換部13を介さずに、画像処理部14に対して、画像データを供給する構成にすることもできる。   In other words, the present invention is not limited to the camera 11 and the input terminal 12 described above, and any configuration that can supply image data to the A / D converter 13 may be used. Further, when the image data supplied from the outside is digital data, the image data may be supplied to the image processing unit 14 without using the A / D conversion unit 13.

さらに、例えば、図2の通信部19の代わりに、ドライブおよび記録媒体を設ける構成とすることも可能である。その場合、ドライブは、例えば、CD、DVD、またはBlu-ray Discなどの記録媒体が装着されたとき、それらを駆動し、CPU16から供給されてくる画像データを記録媒体に記録させる。すなわち、本発明においては、上述した、通信部19に限らず、CPU16からの画像データを出力できる構成であればよい。   Furthermore, for example, a configuration in which a drive and a recording medium are provided instead of the communication unit 19 in FIG. In that case, for example, when a recording medium such as a CD, a DVD, or a Blu-ray Disc is loaded, the drive drives them to record the image data supplied from the CPU 16 on the recording medium. That is, the present invention is not limited to the communication unit 19 described above, and any configuration that can output image data from the CPU 16 may be used.

また、上述した例においては、複数の実施例を記載しているが、それぞれの実施例を単独で実施することはもちろん、複数の実施例を組み合わせるようにしてもよい。さらに、上述したフレームレートまたはビットレートは任意の値に変更することができる。   In the above-described example, a plurality of embodiments are described. However, each embodiment may be implemented alone, and a plurality of embodiments may be combined. Furthermore, the above-described frame rate or bit rate can be changed to an arbitrary value.

上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。   The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.

図16は、上述した一連の処理をプログラムにより実行するテレビ電話装置1の構成の例を示すブロック図である。CPU301は、ROM302、または記録部308に記録されているプログラムに従って各種の処理を実行する。RAM303には、CPU301が実行するプログラムやデータなどが適宜記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。   FIG. 16 is a block diagram showing an example of the configuration of the videophone device 1 that executes the above-described series of processing by a program. The CPU 301 executes various processes according to programs recorded in the ROM 302 or the recording unit 308. The RAM 303 appropriately stores programs executed by the CPU 301 and data. The CPU 301, ROM 302, and RAM 303 are connected to each other by a bus 304.

CPU301にはまた、バス304を介して入出力インターフェース305が接続されている。入出力インターフェース305には、キーボード、マウス、マイクロフォンなどよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307が接続されている。CPU301は、入力部306から入力される指令に対応して各種の処理を実行する。そして、CPU301は、処理の結果得られた画像等を出力部307に出力する。   An input / output interface 305 is also connected to the CPU 301 via the bus 304. Connected to the input / output interface 305 are an input unit 306 including a keyboard, a mouse, and a microphone, and an output unit 307 including a display and a speaker. The CPU 301 executes various processes in response to commands input from the input unit 306. Then, the CPU 301 outputs an image or the like obtained as a result of the processing to the output unit 307.

入出力インターフェース305に接続されている記録部308は、例えばハードディスクなどで構成され、CPU301が実行するプログラムや各種のデータを記録する。通信部309は、インターネット、その他のネットワークを介して外部の装置と通信する。この例の場合、通信部309は、入力画像を取得するか、または出力画像を出力する、外部とのインターフェースとして動作する。   The recording unit 308 connected to the input / output interface 305 includes, for example, a hard disk, and records programs executed by the CPU 301 and various data. A communication unit 309 communicates with an external device via the Internet or other networks. In this example, the communication unit 309 operates as an interface with the outside that acquires an input image or outputs an output image.

また、通信部309を介してプログラムを取得し、記録部308に記録してもよい。   Alternatively, the program may be acquired via the communication unit 309 and recorded in the recording unit 308.

入出力インターフェース305に接続されているドライブ310は、磁気ディスク321、光ディスク322、光磁気ディスク323、または半導体メモリ324などが装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部308に転送され、記録される。   The drive 310 connected to the input / output interface 305 drives the magnetic disk 321, the optical disk 322, the magneto-optical disk 323, the semiconductor memory 324, or the like when they are loaded, and programs and data recorded there. Get etc. The acquired program and data are transferred to the recording unit 308 and recorded as necessary.

一連の処理をさせるプログラムが格納されている記録媒体は、図16に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク321(フレキシブルディスクを含む)、光ディスク322(CD-ROM(Compact Disc-Read Only Memory)、DVDを含む)、光磁気ディスク323(MD(Mini-Disc)(商標)を含む)、若しくは半導体メモリ324などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM302や、記録部308に含まれるハードディスクなどで構成される。   As shown in FIG. 16, a recording medium storing a program for performing a series of processing is distributed to provide a program to a user separately from a computer. Disk), optical disk 322 (including CD-ROM (Compact Disc-Read Only Memory), DVD), magneto-optical disk 323 (including MD (Mini-Disc) (trademark)), or semiconductor memory 324. In addition to a package medium, the program is configured by a ROM 302 in which a program is recorded and a hard disk included in the recording unit 308, which is provided to a user in a state of being preinstalled in a computer.

なお、上述した一連の処理を実行させるプログラムは、必要に応じてルータ、モデムなどのインターフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を介してコンピュータにインストールされるようにしてもよい。   The program for executing the series of processes described above is installed in a computer via a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via an interface such as a router or a modem as necessary. You may be made to do.

また、本明細書において、記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   Further, in the present specification, the step of describing the program stored in the recording medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series. It also includes processes that are executed individually.

テレビ電話システムの一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one embodiment of a videophone system. 本発明を適用したテレビ電話装置の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the video telephone apparatus to which this invention is applied. 画像処理部の詳細な構成を説明するブロック図である。It is a block diagram explaining the detailed structure of an image process part. 画像圧縮の処理を説明するフローチャートである。It is a flowchart explaining the process of image compression. フレームの詳細について説明する図である。It is a figure explaining the detail of a frame. カメラにより撮像される画像を表示する画面の例を示す図である。It is a figure which shows the example of the screen which displays the image imaged with a camera. 画像処理部の他の詳細な構成を説明するブロック図である。It is a block diagram explaining the other detailed structure of an image process part. 画像圧縮の処理を説明するフローチャートである。It is a flowchart explaining the process of image compression. 画像処理部の他の詳細な構成を説明するブロック図である。It is a block diagram explaining the other detailed structure of an image process part. 画像圧縮の処理を説明するフローチャートである。It is a flowchart explaining the process of image compression. カメラにより撮像される画像を表示する表示部の画面の例を示す図である。It is a figure which shows the example of the screen of the display part which displays the image imaged with a camera. カメラにより撮像される画像を表示する表示部の画面の例を示す図である。It is a figure which shows the example of the screen of the display part which displays the image imaged with a camera. 画像処理部の他の詳細な構成を説明するブロック図である。It is a block diagram explaining the other detailed structure of an image process part. 画像圧縮の処理を説明するフローチャートである。It is a flowchart explaining the process of image compression. テレビ電話装置によるRTT計測パケットの送受信の処理について説明するフローチャートである。It is a flowchart explaining the transmission / reception process of the RTT measurement packet by a video telephone apparatus. テレビ電話装置の構成を説明するブロック図である。It is a block diagram explaining the structure of a video telephone apparatus.

符号の説明Explanation of symbols

1、1−1、1−2 テレビ電話装置, 2 ネットワーク, 11 カメラ, 12 インプットターミナル, 13 A/D変換部, 14 画像処理部, 15 エンコーダ, 16 CPU, 17 ROM, 18 RAM, 19 通信部, 51 画像分割部, 52 画像記憶部, 53 画像合成部, 151 画像処理部, 161 補正部, 171 画像処理部, 181 動き量検出部, 182 領域決定部, 201 画像処理部, 211 RTT計測部, 212 領域決定部, 301 CPU, 306 入力部, 307 出力部, 308 記録部, 309 通信部, 321 磁気ディスク321, 322 光ディスク, 323 光磁気ディスク, 324 半導体メモリ   1, 1-1, 1-2 videophone device, 2 network, 11 camera, 12 input terminal, 13 A / D conversion unit, 14 image processing unit, 15 encoder, 16 CPU, 17 ROM, 18 RAM, 19 communication unit , 51 Image segmentation unit, 52 Image storage unit, 53 Image composition unit, 151 Image processing unit, 161 Correction unit, 171 Image processing unit, 181 Motion amount detection unit, 182 Region determination unit, 201 Image processing unit, 211 RTT measurement unit , 212 area determination unit, 301 CPU, 306 input unit, 307 output unit, 308 recording unit, 309 communication unit, 321 magnetic disk 321, 322 optical disk, 323 magneto-optical disk, 324 semiconductor memory

Claims (6)

動画像を表示するためのピクチャのそれぞれを表示させる第1の画像データのそれぞれを、前記ピクチャ上の所定の領域に応じて、第1のデータと第2のデータとに分割する分割ステップと、
所定の期間に表示される予め定められた数のピクチャのうちの予め定めたピクチャの前記第1の画像データから分割された前記第2のデータを記憶する記憶ステップと、
前記期間の予め定められた数の前記ピクチャの前記第1の画像データのそれぞれから分割された前記第1のデータのそれぞれと、記録されている前記第2のデータとから、前記期間の予め定められた数の前記ピクチャのそれぞれを表示させる第2の画像データのそれぞれを生成する生成ステップと、
ピクチャ間の差分を基に、圧縮符号化する符号化方式により、前記第2の画像データを符号化する符号化ステップと
を含むことを特徴とする画像処理方法。
A division step of dividing each of the first image data for displaying each of the pictures for displaying the moving image into the first data and the second data according to a predetermined area on the picture;
Storing the second data divided from the first image data of a predetermined picture out of a predetermined number of pictures displayed in a predetermined period;
The predetermined period of time is determined from each of the first data divided from each of the first image data of the predetermined number of the pictures of the period and the recorded second data. Generating each of the second image data for displaying each of the given number of pictures;
An image processing method comprising: an encoding step of encoding the second image data by an encoding method for compression encoding based on a difference between pictures.
前記第2のデータの画素値の所定の桁数の下位ビットの値を、予め定めた値に置換するように、前記第2のデータを補正する補正ステップをさらに含む
ことを特徴とする請求項1に記載の画像処理方法。
The correction step of correcting the second data so as to replace a lower-order bit value of a predetermined number of digits of the pixel value of the second data with a predetermined value. 2. The image processing method according to 1.
前記ピクチャにおける被写体の画像の移動した量である動き量を検出する検出ステップと、
前記動き量を基に、前記第1の画像データを前記第1のデータと前記第2のデータとに分割するための前記領域を決定する決定ステップと
をさらに含むことを特徴とする請求項1に記載の画像処理方法。
A detection step of detecting a movement amount that is a movement amount of an image of a subject in the picture;
2. The method according to claim 1, further comprising: a determination step for determining the region for dividing the first image data into the first data and the second data based on the amount of movement. An image processing method described in 1.
前記画像データを相手に送信するためのネットワークにおける遅延時間を計測する計測ステップと、
前記遅延時間を基に、前記第1の画像データを前記第1のデータと前記第2のデータとに分割するための前記領域を決定する決定ステップと
をさらに含むことを特徴とする請求項1に記載の画像処理方法。
A measuring step for measuring a delay time in a network for transmitting the image data to the other party;
2. The method according to claim 1, further comprising: a determination step for determining the region for dividing the first image data into the first data and the second data based on the delay time. An image processing method described in 1.
動画像を表示するためのピクチャのそれぞれを表示させる第1の画像データのそれぞれを、前記ピクチャ上の所定の領域に応じて、第1のデータと第2のデータとに分割する分割手段と、
所定の期間に表示される予め定められた数のピクチャのうちの予め定めたピクチャの前記第1の画像データから分割された前記第2のデータを記憶する記憶手段と、
前記期間の予め定められた数の前記ピクチャの前記第1の画像データのそれぞれから分割された前記第1のデータのそれぞれと、記録されている前記第2のデータとから、前記期間の予め定められた数の前記ピクチャのそれぞれを表示させる第2の画像データのそれぞれを生成する生成手段と、
ピクチャ間の差分を基に、圧縮符号化する符号化方式により、前記第2の画像データを符号化する符号化手段と
を備えることを特徴とする画像処理装置。
Dividing means for dividing each of the first image data for displaying each of the pictures for displaying the moving image into first data and second data according to a predetermined area on the picture;
Storage means for storing the second data divided from the first image data of a predetermined picture out of a predetermined number of pictures displayed in a predetermined period;
The predetermined period of time is determined from each of the first data divided from each of the first image data of the predetermined number of the pictures of the period and the recorded second data. Generating means for generating each of the second image data for displaying each of the number of said pictures;
An image processing apparatus comprising: an encoding unit that encodes the second image data by an encoding method that performs compression encoding based on a difference between pictures.
動画像を表示するためのピクチャのそれぞれを表示させる第1の画像データのそれぞれを、前記ピクチャ上の所定の領域に応じて、第1のデータと第2のデータとに分割する分割ステップと、
所定の期間に表示される予め定められた数のピクチャのうちの予め定めたピクチャの前記第1の画像データから分割された前記第2のデータを記憶する記憶ステップと、
前記期間の予め定められた数の前記ピクチャの前記第1の画像データのそれぞれから分割された前記第1のデータのそれぞれと、記録されている前記第2のデータとから、前記期間の予め定められた数の前記ピクチャのそれぞれを表示させる第2の画像データのそれぞれを生成する生成ステップと、
ピクチャ間の差分を基に、圧縮符号化する符号化方式により、前記第2の画像データを符号化する符号化ステップと
をコンピュータに実行させることを特徴とするプログラム。
A division step of dividing each of the first image data for displaying each of the pictures for displaying the moving image into the first data and the second data according to a predetermined area on the picture;
Storing the second data divided from the first image data of a predetermined picture out of a predetermined number of pictures displayed in a predetermined period;
The predetermined period of time is determined from each of the first data divided from each of the first image data of the predetermined number of the pictures of the period and the recorded second data. Generating each of the second image data for displaying each of the given number of pictures;
A program for causing a computer to execute an encoding step of encoding the second image data by an encoding method for compression encoding based on a difference between pictures.
JP2005007531A 2005-01-14 2005-01-14 Method and device for processing image, and program Withdrawn JP2006197321A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005007531A JP2006197321A (en) 2005-01-14 2005-01-14 Method and device for processing image, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005007531A JP2006197321A (en) 2005-01-14 2005-01-14 Method and device for processing image, and program

Publications (1)

Publication Number Publication Date
JP2006197321A true JP2006197321A (en) 2006-07-27

Family

ID=36803020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005007531A Withdrawn JP2006197321A (en) 2005-01-14 2005-01-14 Method and device for processing image, and program

Country Status (1)

Country Link
JP (1) JP2006197321A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008125059A (en) * 2006-10-17 2008-05-29 Matsushita Electric Ind Co Ltd Device for recording/playing back moving image
JP2009159499A (en) * 2007-12-27 2009-07-16 Nec Corp Method, system and station, for measuring delay time of echo request/response in network
JP2011234065A (en) * 2010-04-27 2011-11-17 Nec Corp Moving image communication system
JP2015208021A (en) * 2015-06-10 2015-11-19 レノボ・イノベーションズ・リミテッド(香港) Moving image communication system
JP2016178520A (en) * 2015-03-20 2016-10-06 富士ゼロックス株式会社 Image compressor and image processing apparatus
WO2017043661A1 (en) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 Image display system and image display method
JP2017055355A (en) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 System and method for image display
JP2021052344A (en) * 2019-09-26 2021-04-01 池上通信機株式会社 Video processing method, video processing device, and program
JP2021128184A (en) * 2020-02-10 2021-09-02 株式会社コーエーテクモゲームス Program, information processing method and information processing device
JP2021527969A (en) * 2018-06-19 2021-10-14 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Audio and video multimedia modifications and presentations

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008125059A (en) * 2006-10-17 2008-05-29 Matsushita Electric Ind Co Ltd Device for recording/playing back moving image
JP2009159499A (en) * 2007-12-27 2009-07-16 Nec Corp Method, system and station, for measuring delay time of echo request/response in network
JP2011234065A (en) * 2010-04-27 2011-11-17 Nec Corp Moving image communication system
JP2016178520A (en) * 2015-03-20 2016-10-06 富士ゼロックス株式会社 Image compressor and image processing apparatus
JP2015208021A (en) * 2015-06-10 2015-11-19 レノボ・イノベーションズ・リミテッド(香港) Moving image communication system
JP2017055355A (en) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 System and method for image display
WO2017043661A1 (en) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 Image display system and image display method
JP2017055354A (en) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 System and method for image display
WO2017043662A1 (en) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 Image display system and image display method
JP2021527969A (en) * 2018-06-19 2021-10-14 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Audio and video multimedia modifications and presentations
JP7416718B2 (en) 2018-06-19 2024-01-17 キンドリル・インク Audio and video multimedia modification and presentation
JP2021052344A (en) * 2019-09-26 2021-04-01 池上通信機株式会社 Video processing method, video processing device, and program
JP7349863B2 (en) 2019-09-26 2023-09-25 池上通信機株式会社 Video processing method, video processing device, and program
JP2021128184A (en) * 2020-02-10 2021-09-02 株式会社コーエーテクモゲームス Program, information processing method and information processing device
JP7432386B2 (en) 2020-02-10 2024-02-16 株式会社コーエーテクモゲームス Program, information processing method, and information processing device

Similar Documents

Publication Publication Date Title
JP2006197321A (en) Method and device for processing image, and program
US8374236B2 (en) Method and apparatus for improving the average image refresh rate in a compressed video bitstream
US8559503B2 (en) Moving image coding method, moving image coding apparatus, program, and integrated circuit
JP4682914B2 (en) Information processing apparatus and method, program, and recording medium
KR100975311B1 (en) I-picture insertion on request
WO2014002896A1 (en) Encoding device, encoding method, decoding device, and decoding method
US9716888B2 (en) Video processing with static and dynamic regions and method for use therewith
WO2018131515A1 (en) Image processing device and image processing method
JP2011087195A (en) Image processor and image processing method
KR20060043051A (en) Method for encoding and decoding video signal
KR20060027779A (en) Method and apparatus for encoding/decoding video signal using temporal and spatial correlations between macro blocks
JP2010103985A (en) Image encoding device and image encoding method
JP2005354361A (en) Coding apparatus and coding method, decoding apparatus and decoding method, program and program recording medium, data recording medium and data structure, and reproducing apparatus
JP2004064300A (en) Image transmission system, image transmission apparatus, and image reception apparatus
JP2009124518A (en) Image transmission device
JP4586328B2 (en) Information processing system, information processing apparatus and method, recording medium, and program
KR101154743B1 (en) Encoder apparatus, encoding method, decoder apparatus, decoding method, recording medium, and playback apparatus
KR100747664B1 (en) Method for process multimedia data adaptive to bandwidth and host apparatus
JP4320509B2 (en) Video re-encoding apparatus and method
KR20060043050A (en) Method for encoding and decoding video signal
US9154669B2 (en) Image apparatus for determining type of image data and method for processing image applicable thereto
JP4289055B2 (en) Transcoder and recording / reproducing apparatus using the same
De Neve et al. Assessment of the compression efficiency of the MPEG-4 AVC specification
JP6558071B2 (en) Wireless communication apparatus, wireless communication program, and wireless communication method
JP4196085B2 (en) Video signal encoding apparatus and video conference system using the same

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080401