WO2004010703A1 - 移動端末 - Google Patents

移動端末 Download PDF

Info

Publication number
WO2004010703A1
WO2004010703A1 PCT/JP2002/007446 JP0207446W WO2004010703A1 WO 2004010703 A1 WO2004010703 A1 WO 2004010703A1 JP 0207446 W JP0207446 W JP 0207446W WO 2004010703 A1 WO2004010703 A1 WO 2004010703A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
moving image
mobile terminal
encoding
unit
Prior art date
Application number
PCT/JP2002/007446
Other languages
English (en)
French (fr)
Inventor
Yasuhiko Kasai
Kazuyoshi Koga
Muneaki Yamaguchi
Yutaka Funabashi
Original Assignee
Renesas Technology Corp.
Hitachi Ulsi Systems Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Technology Corp., Hitachi Ulsi Systems Co., Ltd. filed Critical Renesas Technology Corp.
Priority to JP2004522706A priority Critical patent/JPWO2004010703A1/ja
Priority to PCT/JP2002/007446 priority patent/WO2004010703A1/ja
Publication of WO2004010703A1 publication Critical patent/WO2004010703A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria

Definitions

  • the present invention relates to a mobile terminal, and more particularly to a technology that is effective when applied to high-quality communication of moving images by a mobile phone or the like.
  • an image is thinned by reducing the number of pixels in the vertical direction with a vertical reduction filter, and the material is reduced.
  • Select either the vertical reduction filter or the thinned image according to the degree of movement of the image return the number of pixels in the vertical direction to the original number of pixels with the vertical enlargement filter, and then follow the image attribute information. It is known to select one of an image output from a vertical enlargement filter and a received image and to read them alternately.
  • the present invention has a plurality of display parameters, and when a moving image cannot be compressed by the default encoding parameter, an encoding of the moving image is performed by an arbitrary one of the plurality of display mode parameters. It has an image compression means for performing the compression.
  • the image compression means may include a parameter storage unit in which a plurality of display parameters are stored, and a moving image encoded by an initial encoding parameter being over frame rate or over bit rate.
  • an image processing unit selects an arbitrary display parameter stored in the parameter storage unit and encodes a moving image with the selected display parameter.
  • the display parameters stored in the parameter storage unit include at least a frame dropping process, a color number changing process, and an area changing process.
  • the display parameters of the color number changing process stored in the parameter storage unit are for performing a monochrome image process on a moving image.
  • the present invention provides a method for receiving, when a mobile terminal on the receiving side arbitrarily selects a plurality of display mode parameters stored in the parameter storage unit and a moving image cannot be compressed by the default encoding parameters.
  • the mobile terminal on the side encodes according to the display mode parameter selected.
  • the present invention is provided with image compression means for encoding a moving image in a color number changing process when the moving image cannot be compressed by the initially set encoding parameters.
  • the color number changing process by the image compression means converts a moving image into a black and white moving image.
  • the present invention includes image compression means for encoding a moving image in an area changing process when the moving image cannot be compressed by an initially set encoding parameter.
  • FIG. 1 is an explanatory diagram of an overall configuration when transmitting and receiving a moving image using a mobile phone according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram of the mobile phone of FIG. 1
  • FIG. 4 is a block diagram of an image decompression unit provided in the mobile phone shown in FIG. 2
  • FIG. 4 is a block diagram of an image decompression unit provided in the mobile phone shown in FIG. 2
  • FIG. 7 is an explanatory diagram showing an example of a moving image displayed on the mobile phone in FIG. 2
  • FIG. FIG. 9 is a flowchart of an image compression process using the user information in FIG. 8
  • FIG. 10 is a flowchart of the image compression process following FIG. 9, and FIG. Is the receiving side in the image compression process It is a flow chart of the mobile phone.
  • the mobile phone (mobile terminal) 1 has, for example, a function as a telephone, a function of recording and playing back music, and a function of transmitting and receiving a moving image.
  • the mobile phone 1 communicates with another mobile phone 1 via a carrier CR as a relay station.
  • a carrier CR as a relay station.
  • the moving image data is transmitted to an arbitrary receiving mobile phone 1 via the carrier CR.
  • the mobile phone 1 has a camera 2, a microphone 3, and a display Unit 4, key input unit 5, speaker 6, communication processor 7, RAM 8, ROM (image compression unit, parameter storage unit) 9, application processor (image compression unit, image processing unit) 10, etc. I have.
  • the camera 2 captures moving images, and the microphone 3 inputs voices and the like.
  • the display unit 4 is composed of, for example, a liquid crystal display, and displays information received from the moving image key input unit 5 and the like.
  • the key input unit 5 inputs telephone numbers and characters, and the speaker 6 outputs voice and the like.
  • the communication processor 7 includes an RF unit 11 and a baseband 12.
  • the RF unit 11 extracts digital information from the radio, and the baseband 12 executes functions as a mobile phone, voice processing, and the like.
  • the RAM 8 records a work area of each program in the communication processor 7 and the application processor 10, and user information such as a telephone number.
  • the ROM 9 stores programs used by the communication processor 7 and the application processor 10, initial data of the programs, and display data such as icons.
  • the application processor 10 executes processing such as input of a moving image, recording / playback of music, encoding / decoding of a moving image, and the like. As shown in FIG. 2, the application processor 10 has an internal RAMI 3, a VIO 14, an image processing unit 15, a CPU 16, an AP interface 17, and an I / O interface 1 It is composed of 8 and so on.
  • the internal RAMI 3 temporarily stores frequently used programs and data.
  • the VI014 converts the luminance and color difference of the image data captured by the camera 2 into so-called RGB (RedGreenBlue), and conversely converts RGB into luminance and color difference.
  • the image processing unit 15 executes a compression Z expansion process on moving image data transmitted and received via the communication processor 7.
  • the image processing unit 15 includes an image compression unit 15a and an image expansion unit 15b.
  • the CPU 16 controls all controls in the above-described internal RAMI 3, VIO 14, the image processing unit 15, and the like.
  • AP interface 17 This is an interface used when the application processor 10 exchanges information with the communication processor 7, the RAM 8, the ROM 9, and the like.
  • the IZ interface 18 is an interface used when the application processor 10 exchanges information with the camera 2, the microphone 3, the display unit 4, the key input unit 5, the speed 6, and the like.
  • the image compression section (image processing section) 15a and the image expansion section 15b in the image processing section 15 will be described.
  • the image compression section 15a includes a color number change section 19, an area change section 20, a difference section 21, a DCT 22, a coefficient prediction section 23, a variable length coding section 24, and an inverse section. It consists of a quantization unit 25, IDCT 26, a synthesis unit 27, a motion compensation unit 28, a motion detection unit 29, a motion vector prediction unit 30, a time measurement unit 31, a data amount measurement unit 32, etc. .
  • the color number changing unit 19 changes the number of colors of the luminance and the color difference acquired by the camera 2 based on the display parameters.
  • the area changing unit 20 changes the area of the brightness and color difference acquired by the camera 2 based on the display parameters.
  • the difference unit 21 calculates a difference between the image data output from the color number changing unit 19 or the area changing unit 20 and the image data input immediately before.
  • the DCT 22 processes the input image data by DCT (DirecTeCosineTranam: discrete cosine transform) and calculates frequency components of luminance and color difference.
  • the coefficient prediction unit 23 performs coefficient prediction on the frequency components of luminance and color difference calculated by the DCT 22.
  • the variable-length coding unit 24 performs variable-length coding on the coefficient prediction based on the Huffman coding table and the motion vector prediction predicted by the motion vector prediction unit 30.
  • the inverse quantization unit 25 performs inverse quantization, and the IDCT 26 performs inverse DCT processing to restore luminance and chrominance.
  • the combining unit 27 compensates for the luminance and color difference restored by the IDCT 26, and the motion compensation unit 28 restores the first image.
  • the motion detector 29 detects the motion of the image, and the motion vector predictor 30 predicts the motion vector of the image.
  • the time measurement unit 31 is required for image compression. Measure the time taken.
  • the data amount measurement unit 32 measures the amount of data that has undergone image compression.
  • the compressed image data is stored in RAM 8 as encoded data.
  • the image decompression unit 15b includes a color number change unit 33, an area change unit 34, a variable length decoding unit 35, an inverse quantization unit 36, an IDCT 37, motion vector decoding unit 3 8, which consists from the motion compensation unit 3 9, and the combining unit 4 0.
  • the number-of-colors changing unit 33 changes the number of colors of the encoded data output via the baseband 12, and the area changing unit 34 selects the area of the encoded data output from the baseband 12. Make changes.
  • variable-length decoding unit 35 restores the variable-length-coded quantized coefficients.
  • the inverse quantization unit 36 inversely quantizes the restored quantization coefficient to restore the DCT coefficient.
  • IDCT 37 restores luminance and chrominance by inverse DCT processing.
  • the motion vector decoding unit 38 decodes the variable-length decoded motion vector, and the motion compensation unit 39 compensates the decoded motion vector.
  • the combining unit 40 combines the luminance and the color difference from the result of the motion compensation by the motion compensation unit 39.
  • the synthesized luminance and color difference are stored in RAM 8.
  • the user operates the key input unit 5 of the mobile phone 1 to select a communication partner (step S101).
  • the user sets any of the display parameters for dropping frames, changing the number of colors, or changing the area in the encoding process (step S102).
  • encoding parameters such as frame rate / bit rate are read from ROM 9 and set. Is done.
  • display parameters used when time, data amount, etc. are exceeded are also read from the ROM 9 and set.
  • step S103 a key input from the key input unit 5 is obtained (step S103).
  • the CPU 16 determines whether there is a key input for terminating the communication (step S104). In the process of step S104, if the end of communication is selected, the end process is performed, and the encoding is ended (step S105).
  • the luminance and color difference acquired by the camera 2 are acquired (step S106).
  • the obtained luminance and chrominance are compared with the difference unit 21, the DCT 22, the coefficient prediction unit 23, and the variable-length coding unit 24 to perform a normal video encoding based on the encoding parameters. (Step S107).
  • the time measuring unit 31 measures the encoding time (step S108), and then the data amount measuring unit 32 measures the encoded data amount (step S109).
  • the encoded data is transferred from the application processor 10 to the baseband 12 via the AP interface 17, converted into a radio signal by the unit 11, and transmitted to the outside (step S 1). Ten) .
  • the CPU 16 determines whether the encoding time has not exceeded the preset frame rate (step S111). If not, it is determined whether the data amount exceeds a preset data amount (step S 1 1 2).
  • CPU 16 selects the display parameter set in the processing in step S102. Is performed (step S 1 1 3). In the process of step S113, one of frame drop, color number change, and display area change is selected.
  • step S114 When the skipped frame is selected, the skipped frame processing of the moving image is executed (step S114).
  • the color number change section 19 Perform white image processing without encoding color difference information (step SI15).
  • step S115 a process other than a black-and-white image may be performed. For example, a process may be performed so that a moving image has a sepia color.
  • the area changing unit 34 performs processing by reducing the area to be encoded (step S116).
  • step S117 When any one of the steps 3114 to 3116 is completed, the change flag is set to ON (step S117), and the change information is output (step S118).
  • steps S111 and S112 if the time is not over or the data amount is not over, it is determined whether or not the change flag is ON, and the change of the number of colors and the area are changed. It is determined whether or not the processing is being performed (step S119).
  • step S103 If the change flag is not ON, the process returns to step S103. If the change flag is ON, reset the number of colors and area (step S120), and return the parameters to the original state.
  • step S1 2 an I-VOP (Intra Video Object PIane) is output and the entire screen is redrawn (step S1 2 1). After changing the change flag to OFF (step S1 2 2), The process returns to step S103.
  • I-VOP Intra Video Object PIane
  • encoded data is obtained from the baseband 12 (step S201). Then, it is determined whether or not the obtained encoded data is completed (step S202). If the decoding has been completed, the decoding process ends (step S203).
  • step S204 the moving image is decoded (step S204), and the image is displayed on the display unit 4 (step S205). Thereafter, it is determined whether or not the change information of the moving image output by the process of step S118 is received from the mobile phone 1 on the transmitting side (step S206). If no change information has been received, the process returns to step S201. '
  • the display parameter is determined (step S207).
  • the display parameter is any of the frame drop processing, the color number change processing, or the area change processing transmitted by the processing in step S118.
  • the frame dropping process of the moving image is executed (step S208).
  • the color number changing unit 19 deletes the color difference information (step S209).
  • the area changing unit 34 reduces the display area (step S210).
  • FIG. 5 An example of an output image displayed on the mobile phone 1 on the receiving side by the encoding / decoding processing shown in FIGS. 5 and 6 is shown in FIG.
  • Kip ⁇ stop can be reduced as much as possible, and stable quality video communication can be provided.
  • An area for storing user information is provided in the RAM 8 (FIG. 1) of the mobile phone 1.
  • the user information stores display parameter information desired by the user using the mobile phone 1 on the receiving side. Then, when encoding a moving image, as shown in FIG. 8, the color number changing unit 19 or the area changing unit 20 performs image processing based on the user information.
  • a communication partner is selected by the key input unit 5 of the mobile phone 1 (step S301).
  • the CPU 16 searches the RAM 8 and determines whether or not the user information of the communication partner is stored (step S302).
  • step S303 If there is user information of the communication partner, the user information is read, and display parameters of the information are set (step S303). If there is no user information of the communication partner, the default display parameters are set (step S304). Thereafter, communication is started (step S305).
  • the mobile phone 1 on the transmitting side transmits the telop information of “1. Dropped frames 2. Change in number of colors 3. Change in area” (step S306).
  • the telop information is displayed on the display unit 4 of the mobile phone 1 on the receiving side.
  • step S307 When the key input unit 5 is operated from the mobile phone 1 on the receiving side (step S307), the CPU 16 of the mobile phone 1 on the transmitting side makes a key determination (step S308), and as a result, When the mobile phone 1 on the receiving side selects a certain display parameter from the telop information, the selected display parameter is set (step S309).
  • a key input is obtained from the key input unit 5 (step S3110), and It is determined whether or not the key input by the user has ended the communication (step S311). At the end of the communication, the set user information is recorded in the RAM 8 (Step S312), and then the process of ending the encoding is performed (Step S313). If the communication is not to be ended, the key input of the mobile phone 1 on the receiving side is obtained from the communication processor 7 via the RF unit 11 and the baseband 12 (step S314).
  • step S316 the luminance and the color difference are obtained from the camera 2 (step S315), and based on the display parameters set in the processing in step S309, the difference unit 21, DCT 22, coefficient prediction unit 23 , And the variable-length coding unit 24 and the like perform the moving image encoding (step S316).
  • the encoding time of the moving image is measured by the time measuring unit 31 (step S3 17), and the encoded data amount is measured by the data amount measuring unit 32 (step S3 18).
  • the encoded data that has been encoded is transferred from the application processor 10 to the baseband 12 via the AP interface 17, converted into a radio signal by the RF unit 11, and transmitted (step S 3). 1 9) c Next, it is determined whether or not the encoding time has exceeded the frame rate set in the processing of steps S303 and S304 (step S320).
  • step S321 If the encoding time has not exceeded, it is determined whether or not the encoded data does not exceed the bit rate set by the processing in steps S303 and S304 (step S321).
  • step S320 and S321 if either the time is over or the bit rate is over, the display parameter selected by the key input of the receiving mobile phone 1 in step S312, or Select one of the display parameters set in steps S303 and S304 (step S322). At this time, the key input of the receiving mobile phone 1 has the highest priority.
  • step S323 the processing in steps S323 to S331 is performed in step S323 shown in FIG. Since the processing is the same as the processing of 114 to S122, the description is omitted.
  • step S401 upon receiving the communication in step S306 on the mobile phone 1 on the transmitting side (step S401), the display 4 of the mobile phone 1 on the receiving side displays the received telop information. (Step S402).
  • a desired display parameter is selected from the displayed telop information by key input (step S403). It is determined whether or not there is a key input (step S404). If there is a key input, it is determined whether or not the key input is key information corresponding to selection of a display parameter (step S404). 4 0 5).
  • step S405 If it is determined in step S405 that the display parameter has been selected, the input key information is transmitted to the mobile phone 1 on the transmitting side (step S406).
  • step S404 If there is no key input in the process of step S404, the time measuring unit 31 executes time measurement (step S407). If there is no key input even after the preset time has elapsed (step S408), after setting the default key (for example, skipping frames) (step S409), step S4 06 The processing of 6 is executed.
  • image compression processing such as frame drop, color number change, or area change is performed based on user information, thereby enabling moving image communication according to the user's preference on the receiving side. be able to.
  • the invention made by the inventor has been specifically described based on the embodiments.
  • the present invention is not limited to the above-described embodiments, and may be variously modified without departing from the gist of the invention. Needless to say. Industrial applicability
  • the mobile terminal according to the present invention is suitable for the technology for optimally distributing moving images by communication.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 動画像を送受信する機能を有する携帯電話には、動画像の入力、動画像のエンコード/デコードなどの処理を実行するアプリケーションプロセッサが設けられている。アプリケーションプロセッサは、カメラ2が取り込んだ輝度と色差から、差分部21、DTC22、係数予測部23、および可変長符号化部24が、エンコードパラメータに基づいて動画像エンコードを行う。時間計測部31はエンコード時間を測定し、データ量計測部32がエンコード量を計測する。そして、エンコード時間、エンコード量が予め設定したレートをオーバしていないか否かを判定し、オーバしている場合には予め任意に選択したパラメータを用いてエンコードを行う。この表示パラメータは、コマ落ち、色数変更、および表示面積の変更がある。

Description

明細書 移動端末 技術分野
本発明は、 移動端末に関し、 特に、 携帯電話などによる動画像の高品 質な通信に適用して有効な技術に関するものである。 背景技術
近年、 移動体通信の 1つとして、 携帯電話が広く普及しており、 該携 帯電話には動画像の送受信機能などの多様性が求められている。 この動 画像の送受信では、 MPEG (Mo v i n g P i c t u r e E x p e r t s G r o u p) などの圧縮規格が広く用いられている。
また、 動画データの送受信技術としては、 たとえば、 特開 20 0 1— 3 3 34 2 8号公報に示されるように、 画像を垂直縮小フィルタで垂直 方向の画素数を減らして画面を間引き、 素材の動きの多少に応じて垂直 縮小フィルタ、 および間引かれた画像のいずれかを選択し、 垂直拡大フ ィルタで垂直方向の画素数を元の画素数に戻した後、 画像属性情報に従 つて垂直拡大フィルタから出力される画像、 ならびに受信画像のいずれ かを選択し、 交互に読み出すものが知られている。
ところが、 上記のような動画データの送受信技術では、 次のような問 題点があることが本発明者により見い出された。
すなわち、 画像全体の拡大、 縮小を行うので、 データ量の削減には有 効であるが、 画像全体の拡大、 縮小のために処理量が増加してしまい、 それによつて動画像圧縮の時間オーバになる恐れがあり、 フレームスキ ップが発生してしまうという問題がある。
本発明の目的は、 画像サイズ、 ビットフレーム、 およびフレームレー トなどのパラメータを自動調整することにより、 動画像圧縮で画像の変 化が大きい場合でも画像スキップなどを防止することのできる携帯端末 を提供することにある。
本発明の前記ならぴにその他の目的と新規な特徴は、 本明細書の記述 および添付図面から明らかになるであろう。 発明の開示
本発明は、 複数の表示パラメータを有し、 動画像が初期設定のェンコ ードパラメータにより圧縮できない場合に、 複数の表示モードパラメ一 タのうち、 任意の 1つの表示パラメータにより動画像のェンコ一ドを行 う画像圧縮手段を備えたものである。
また、 本発明は、 前記画像圧縮手段が、 複数の表示パラメータが格納 されたパラメータ格納部と、 初期設定のェンコ一ドパラメータによって ェンコ一ドされた動画像がフレームレートオーバ、 またはビッ トレート オーバの場合に、 該パラメータ格納部に格納された任意の表示パラメ一 タを選択し、 選択した表示パラメータにより動画像をエンコードする画 像処理部とよりなるものである。
さらに、 本発明は、 前記パラメータ格納部に格納された表示パラメ一 タが、 少なく ともコマ落ち処理、 色数変更処理、 および面積変更処理よ りなるものである。
また、 本発明は、 前記パラメータ格納部に格納された色数変更処理の 表示パラメータは動画像を白黒画像処理するものである。
さらに、 本発明は、 前記パラメータ格納部に格納された複数の表示モ 一ドパラメータを受信側の移動端末が任意に選択し、 動画像が初期設定 のェンコ一ドパラメータにより圧縮できない場合に、 受信側の移動端末 が選択した表示モードパラメータによりェンコ一ドするものである。 また、 本発明は、 動画像が初期設定のエンコードパラメータにより圧 縮できない場合に、 動画像を色数変更処理のェンコ一ドを行う画像圧縮 手段を備えたものである。
さらに、 本発明は、 前記画像圧縮手段による色数変更処理が、 動画像 を白黒動画像に変換するものである。 また、 本発明は、 動画像が初期設定のエンコードパラメータにより圧 縮できない場合に、 動画像を面積変更処理のエンコードを行う画像圧縮 手段を備えたものである。 図面の簡単な説明
図 1は、 本発明の実施の形態 1による携帯電話を用いて動画を送受信 する際の全体構成の説明図、 図 2は、 図 1の携帯電話におけるブロック 図、 図 3は、 図 2の携帯電話に設けられた画像圧縮部のブロック図、 図 4は、 図 2の携帯電話に設けられた画像伸張部のブロック図、 図 5は、 図 2の携帯電話における画像圧縮処理のフローチャート、 図 6は、 携帯 電話における画像伸張処理のフローチャート、 図 7は、 図 2の携帯電話 に表示される動画像の一例を示す説明図、 図 8は、 本発明の実施の形態 2による携帯電話によりユーザ情報を用いて動画を送受信する際の説明 図、 図 9は、 図 8のユーザ情報を用いた画像圧縮処理のフローチャート、 図 1 0は、 図 9に続く画像圧縮処理のフローチヤ一ト、 図 1 1は、 画像 圧縮処理における受信側の携帯電話のフローチャートである。 発明を実施するための最良の形態
本発明を詳細に説明するために、 添付の図面に従ってこれを説明する。 なお、 実施例を説明するための全図において、 同一機能を有するものは 同一符号を付け、 その繰り返しの説明は省略する。
(実施の形態 1 )
本実施の形態 1において、 携帯電話 (移動端末) 1は、 たとえば、 電 話としての機能、 音楽の録音 z再生、 および動画像を送受信する機能な どを有する。 携帯電話 1は、 図 1に示すように、 中継局であるキャリア C Rを介して他の携帯電話 1 との通信が行われる。 たとえば、 ある携帯 電話 1が動画像を送信すると、 キヤリア C Rを介して任意の受信側の携 帯電話 1に動画像データが送信される。
また、 携帯電話 1は、 図 2に示すように、 カメラ 2、 マイク 3、 表示 部 4、 キー入力部 5、 スピーカ 6、 通信プロセッサ 7、 RAM 8、 RO M (画像圧縮手段、 パラメータ格納部) 9、 アプリケーションプロセッ サ (画像圧縮手段、 画像処理部) 1 0などから構成されている。
カメラ 2は動画像を撮影し、 マイク 3は音声などを入力する。 表示部 4は、 たとえば、 液晶ディスプレイなどからなり、 受信した動画像ゃキ 一入力部 5から入力された情報などを表示する。 キー入力部 5は、 電話 番号や文字などを入力し、 スピーカ 6は音声などを出力する。
通信プロセッサ 7は、 RF部1 1、 およびベースバンド 1 2からなる。 RF部 1 1は、 無線からデジタル情報を抽出し、 ベースパンド 1 2は、 携帯電話としての機能や音声処理などを実行する。
R AM8は、 通信プロセッサ 7やアプリケーションプロセッサ 1 0な どにおける各プログラムのワークエリァ、 および電話番号などのユーザ 情報を記録する。 ROM 9は、 通信プロセッサ 7、 アプリケーションプ 口セッサ 1 0が用いるプログラム、 該プログラムの初期データ、 ならび にアイコンなどの表示データなどが格納されている。
アプリケーショ ンプロセッサ 1 0は、 動画像の入力、 音楽の録音/再 生、 動画像のエンコード Zデコードなどの処理を実行する。 このアプリ ケーシヨンプロセッサ 1 0は、 図 2に示すように、 内部 RAMI 3、 V I O 1 4、 画像処理部 1 5、 C PU 1 6、 A Pインタフェース 1 7、 な らぴに I /Oィンタフェース 1 8などから構成されている。
内部 RAMI 3は、 使用頻度の高いプログラムやデータなどを一時的 に格納する。 V I 01 4は、 カメラ 2が取り込んだ画像データの輝度、 および色差などを、 いわゆる RGB (R e d G r e e n B l u e) 変換したり、 逆に RGBを輝度、 色差にそれぞれ変換する。
画像処理部 1 5は、 通信プロセッサ 7を介して送受信される動画像デ ータの圧縮 Z伸張処理を実行する。 この画像処理部 1 5は、 画像圧縮部 1 5 aと画像伸張部 1 5 bから構成されている。
C PU 1 6は、 前述した内部 RAMI 3、 V I O 1 4、 および画像処 理部 1 5などにおけるすべての制御を司る。 APインタフェース 1 7は、 アプリケーションプロセッサ 1 0が、 通信プロセッサ 7、 RAM 8、 お ょぴ ROM 9などと情報をやり取りする際のィンタフェースである。
I Z〇ィンタフェース 1 8は、 アプリケーションプロセッサ 1 0が、 カメラ 2、 マイク 3、 表示部 4、 キー入力部 5、 ならびにスピー力 6な どと情報をやり取りする際のインタフェースである。
画像処理部 1 5における画像圧縮部 (画像処理部) 1 5 a、 および画 像伸張部 1 5 bについて説明する。
画像圧縮部 1 5 aは、 図 3に示すように、 色数変更部 1 9、 面積変更 部 20、 差分部 2 1、 D C T 22、 係数予測部 2 3、 可変長符号化部 2 4、 逆量子化部 2 5、 I DCT 26、 合成部 2 7、 動き補償部 28、 動 き検出部 2 9、 動きベク トル予測部 30、 時間計測部 3 1、 およびデー タ量計測部 32などからなる。
色数変更部 1 9は、 カメラ 2が取得した輝度と色差とを表示パラメ一 タに基づいて色数変更する。 面積変更部 20は、 カメラ 2が取得した輝 度と色差とを表示パラメータに基づいて面積変更する。
差分部 2 1は、 色数変更部 1 9、 または面積変更部 20から出力され た画像データと 1つ前に入力された画像データとの差分をとる。 D CT 22は、 入力された画像データを D C T (D i s c r e t e C o s i n e T r a n s f o r m :離散コサイン変換) 処理し、 輝度と色差の 周波数成分を計算する。
係数予測部 2 3は、 DCT 2 2が計算した輝度と色差の周波数成分に おける係数予測を行う。 可変長符号化部 24は、 ハフマン符号化テープ ルに基づいて係数予測、 および動きべク トル予測部 3 0が予測した動き べク トル予測を可変長符号化する。
逆量子化部 2 5は逆量子化を行い、 I DCT 26は逆 DCT処理を行 い、 輝度と色差とを復元する。 合成部 2 7は、 I D CT 2 6が復元化し た輝度と色差とを補償し、 動き補償部 28は、 1つ目の画像を復元する。 動き検出部 2 9は画像の動きを検出し、 動きべク トル予測部 30は、 その画像の動きべク トル予測を行う。 時間計測部 3 1は、 画像圧縮に要 した時間を測定する。 データ量計測部 3 2は、 画像圧縮したデータ量を 測定する。
そして、 圧縮された画像データは、 符号化データとして R AM 8に格 納される。
また、 画像伸張部 1 5 bは、 図 4に示すように、 色数変更部 3 3、 面 積変更部 3 4、 可変長復号化部 3 5、 逆量子化部 3 6、 I D C T 3 7、 動きベク トル復号化部 3 8、 動き補償部 3 9、 および合成部 4 0から構 成されている。
色数変更部 3 3は、 ベースバンド 1 2を介して出力された符号化デー タの色数変更を行い、 面積変更部 3 4は、 ベースバンド 1 2から出力さ れた符号化データの面積変更を行う。
可変長複号化部 3 5は、 可変長符号化された量子化係数を復元する。 逆量子化部 3 6は、 復元された量子化係数の逆量子化を^い、 D C T係 数を復元する。 I D C T 3 7は逆 D C T処理により、 輝度と色差とを復 元する。
動きべク トル復号化部 3 8は、 可変長復号化された動きべク トルを復 号化し、 動き補償部 3 9は、 復号化された動きべク トルの補償を行う。 合成部 4 0は、 動き補償部 3 9の動き補償の結果から、 輝度、 ならびに 色差をそれぞれ合成する。 合成された輝度、 およぴ色差は、 R AM 8に 格納される。
次に、 本実施の形態におけるアプリケーショ ンプロセッサ 1 0の動作 について説明する。
はじめに、 送信側の携帯電話 1の画像圧縮部 1 5 aによる画像圧縮の 動作例について、 図 5のフローチヤ一トを用いて説明する。
まず、 ユーザが携帯電話 1のキー入力部 5を操作して通信相手を選択 する (ステップ S 1 0 1 ) 。 その後、 ユーザは、 エンコード処理におけ るコマ落ち、 色数変更、 あるいは面積変更のいずれかの表示パラメータ を設定する (ステップ S 1 0 2 ) 。 これにより、 フレームレートゃビッ トレートなどのェンコ一ドパラメータが R O M 9から読み出されて設定 される。 同時に、 時間やデータ量などがオーバした際に用いられる表示 パラメータも ROM 9から読み出されて設定される。
そして、 キー入力部 5からのキー入力を取得する (ステップ S 1 0 3) 。 CPU 1 6は、 通信終了のキー入力があるか否かを判定する (ステップ S 1 04) 。 このステップ S 1 04の処理において、 通信終了が選択さ れている場合には、 終了処理を行い、 エンコードを終了する (ステップ S 1 0 5) 。
また、 通信終了でない場合には、 カメラ 2が取り込んだ輝度と色差を 取得する (ステップ S 1 06) 。 取得した輝度と色差とは、 差分部 2 1、 D C T 2 2、 係数予測部 2 3、 およぴ可変長符号化部 24が、 ェンコ一 ドパラメータに基づいて通常の動画像ェンコ一ドを行う (ステップ S 1 07) 。
さらに、 時間計測部 3 1は、 エンコード時間を測定した後 (ステップ S 1 0 8) 、 データ量計測部 3 2がエンコードデータ量を計測する (ス テツプ S 1 0 9) 。 エンコードされた符号化データは、 APインタフエ ース 1 7を介してアプリケーションプロセッサ 1 0からベースバンド 1 2に転送され、 1 部1 1によって電波信号に変換されて外部に送信さ れる (ステップ S 1 10) 。
CPU 1 6は、 エンコード時間が予め設定したフレームレートをォー バしていないか否かを判定する (ステップ S 1 1 1) 。 オーバしていな い場合には、 予め設定されたデータ量をオーバしていないか否かを判定 する (ステップ S 1 1 2)
ステップ S 1 1 1, S 1 1 2の処理において、 時間オーバ、 またはデ ータ量オーバのいずれかの場合には、 C PU 1 6がステップ S 1 02の 処理において設定された表示パラメータの選択を行う (ステップ S 1 1 3) 。 このステップ S 1 1 3の処理においては、 コマ落ち、 色数変更、 あるいは表示面積の変更のいずれかが選択される。
コマ落ちが選択された場合、 動画像のコマ落ち処理が実行される (ス テツプ S 1 1 4) 。 色数変更が選択されている場合、 色数変更部 1 9が 色差情報をエンコードせずに白黑画像処理を行う (ステップ S I 1 5)。 このステップ S 1 1 5の処理では、 白黒画像以外でもよく、 たとえば、 動画像がセピア色などになるように処理してもよい。 動画像の表示面積 の変更が選択されている際には、 面積変更部 34がェンコ一ドする面積 を狭くして処理を行う (ステップ S 1 1 6) 。
ステップ31 1 4〜31 1 6のいずれかの処理が終了すると、 変更フ ラグを ONに設定し (ステップ S 1 1 7) 、 変更情報が出力される (ス テツプ S 1 1 8 ) 。
また、 ステップ S 1 1 1, S 1 1 2の処理において、 時間オーバ、 ま たはデータ量オーバでない場合には、 変更フラグが ONか否かを判定し、 色数変更や面積変更などをの処理を行っているか否かを判定する (ステ ップ S 1 1 9 ) 。
変更フラグが ONでない場合には、 ステップ S 1 0 3の処理に戻る。 変更フラグが ONの場合、 色数、 面積を再設定し (ステップ S 1 20) 、 パラメータを元の状態に戻す。
その後、 I一 VOP ( I n t r a V i d e o O b j e c t P I a n e) を出力して画面全体を再描画し (ステップ S 1 2 1) 、 変更フ ラグを OF Fにした後 (ステップ S 1 2 2) 、 ステップ S 1 0 3の処理 に戻る。
さらに、 受信側の携帯電話 1における画像伸張部 1 5 bによる画像伸 張の動作例について、 図 6のフローチヤ一トを用いて説明する。
まず、 ベースバンド 1 2から符号化データを取得する (ステップ S 2 0 1) 。 そして、 取得した符号化データが終了か否かを判定する (ステ ップ S 202)。 終了している場合には、 デコード処理が終了となる (ス テツプ S 203 ) 。
また、 符号化データが終了でない場合には、 可変長復号化部 3 5、 逆 量子化部 3 6、 I DCT 3 7、 動きベク トル復号化部 38、 動き補償部 3 9、 ならびに合成部 40によって動画像デコードを行い (ステップ S 204) 、 表示部 4に画像が表示される (ステップ S 205) 。 その後、 送信側の携帯電話 1から、 ステップ S 1 1 8の処理によって 出力された動画像の変更情報を受信したか否かを判定する (ステップ S 2 0 6 ) 。 変更情報を受信しなかった場合には、 ステップ S 2 0 1の処 理に戻る。 '
変更情報を受信した際には、 その表示パラメータの判定を行う (ステ ップ S 2 0 7 ) 。 表示パラメータは、 ステップ S 1 1 8の処理によって 送信されたコマ落ち処理、 色数変更処理、 または面積変更処理のいずれ かである。
コマ落ち処理の際には、 動画像のコマ落ち処理を実行する (ステップ S 2 0 8 ) 。 色数変更処理の場合、 色数変更部 1 9が色差情報を消去す る (ステップ S 2 0 9 ) 。 動画像の表示面積の変更では、 面積変更部 3 4が表示面積を縮小する (ステップ S 2 1 0 ) 。
そして、 これらステップ S 2 0 4〜S 2 1 0の処理によってデコード 処理を繰り返すことにより、 表示部 4に動画像が表示される。
ここで、 図 5、 および図 6に示したエンコード/デコード処理により 受信側の携帯電話 1に表示される出力画像の一例を図 7に示す。
図 7の上方から下方にかけて、 元画像 G 1〜G 3、 色数変更を行った 画像 G 4〜G 6、 ならびに面積変更を行った画像 G 7〜G 9における時 間経過の画像処理の移り変わりをそれぞれ示している。
図 7の中段に示す画像において、 左側の画像 G 4に時間オーバかデー タ量オーバが発生した場合、 画像 G 5、 および画像 G 6によって色数変 更が行われ、 色差情報を削除してエンコードを行う。 それによつて、 画 像はモノク口となる。
さらに、 画像の面積変更を行った際、 図 7の下段に示す画像において、 画像 G 7に時間オーバかデータ量オーバが発生すると、 画像 G 8, G 9 により面積変更が行われ、 該画像 G 8, G 9の中心部領域のみェンコ一 ドされる。 その結果、 表示される画像が縮小される。
それにより、 本実施の形態 1によれば、 ビットレートやフレームレー トの制限が大きい携帯電話 1による動画像の通信であっても、 画像のス キップゃ停止などを極力低減することができ、 安定した品質の動画像通 信を提供することができる。
(実施の形態 2)
本実施の形態 2では、 受信側のユーザ情報を考慮した場合の画像圧縮 を行う携帯電話 1について説明する。 携帯電話 1の RAM8 (図 1) に は、 ユーザ情報を格納する領域が設けられている。
このユーザ情報は、 受信側の携帯電話 1を使用するユーザが所望する 表示パラメータの情報が格納されている。 そして、 動画像をエンコード する際には、 図 8に示すように、 ユーザ情報に基づいて色数変更部 1 9、 または面積変更部 20が画像処理を行う。
また、 RAM 8に格納されたユーザ情報を用いた画像圧縮について、 図 9、 ならびに図 1 0のフローチャートを用いて説明する。
まず、 携帯電話 1のキー入力部 5によって通信相手を選択する (ステ ップ S 3 0 1) 。 C PU 1 6は RAM8を検索し、 通信相手のユーザ情 報が格納されているか否かを判定する (ステップ S 3 02) 。
通信相手のユーザ情報がある場合には、 該ユーザ情報を読み取り、 そ の情報の表示パラメータが設定される (ステップ S 3 0 3) 。 また、 通 信相手のユーザ情報がない場合には、 デフォルトに設定されている表示 パラメータを設定する (ステップ S 3 04) 。 その後、 通信が開始され る (ステップ S 30 5) 。
そして、 送信側の携帯電話 1は、 「1. コマ落ち 2. 色数変更 3. 面積変更」 のテロップ情報を送信する (ステップ S 3 06) 。 受信側の 携帯電話 1における表示部 4に該テロップ情報が表示される。
受信側の携帯電話 1からキー入力部 5の操作があると (ステップ S 3 0 7) 、 送信側の携帯電話 1の C PU 1 6がキー判定を行い (ステップ S 30 8) 、 その結果、 受信側の携帯電話 1がテロップ情報からある表 示パラメータを選択した場合には選択された表示パラメータを設定する (ステップ S 3 0 9) 。
その後、 キー入力部 5からキー入力を取得し (ステップ S 3 1 0) 、 ユーザのキー入力が通信終了か否かを判定する (ステップ S 3 1 1) 。 通信終了の際には、 設定されたユーザ情報を RAM 8に記録した後 (ス テツプ S 3 1 2) 、 ェンコ一ド終了の処理を行う (ステップ S 3 1 3) 。 また、 通信終了でない場合には、 通信プロセッサ 7から、 RF部 1 1、 およびベースパンド 1 2を介して受信側の携帯電話 1のキー入力を取得 する (ステップ S 3 14) 。
そして、 カメラ 2から輝度、 ならびに色差を取得し (ステップ S 3 1 5) 、 ステップ S 3 0 9の処理において設定された表示パラメータに基 づいて、 差分部 2 1、 DCT 22、 係数予測部 23、 ならびに可変長符 号化部 24などが動画像ェンコードを行う (ステップ S 3 1 6 ) 。
動画像のエンコード時間が時間計測部 3 1によって計測され (ステツ プ S 3 1 7) 、 エンコードしたデータ量がデータ量計測部 3 2によって 計測される.(ステップ S 3 1 8) 。
ェンコ一ドされた符号化データは、 A Pィンタフェース 1 7を介して アプリケーショ ンプロセッサ 1 0からベースバンド 1 2に転送され、 R F部 1 1によって電波信号に変換されて送信される (ステップ S 3 1 9) c 次に、 エンコード時間は、 ステップ S 3 0 3, S 3 04の処理におい て設定されたフレームレートをオーバしていないか否かを判定する (ス テツプ S 3 20 ) 。
エンコード時間がオーバしていない場合には、 エンコードしたデータ がステップ S 3 03, S 3 04の処理により設定したビッ トレートをォ ーバしていないか否かを判定する (ステップ S 32 1) 。
ステップ S 3 20, S 3 2 1の処理において、 時間オーバ、 またはビ ッ トレートオーバのいずれかの場合、 ステップ S 3 1 2の受信側携帯電 話 1のキー入力によって選択された表示パラメータ、 あるいはステップ S 30 3, S 3 04の処理で設定した表示パラメータのいずれかを選択 する (ステップ S 3 22) 。 このとき、 受信側携帯電話 1のキー入力が 最優先となる。
以下、 ステップ S 323〜S 3 3 1の処理は、 図 5に示すステップ S 1 1 4〜S 1 2 2の処理と同じであるので説明は省略する。
さらに、 前述した図 9、 およぴ図 1 0の画像圧縮処理における受信側 の携帯電話 1の動作について図 1 1のフローチャートを用いて説明する。 まず、 送信側の携帯電話 1におけるステップ S 3 0 6の通信を受信す ると (ステップ S 4 0 1 ) 、 受信側の携帯電話 1の表示部 4には、 受け 取ったテロップ情報が表示される (ステップ S 4 0 2 ) 。
キー入力により、 表示されたテロップ情報から好みの表示パラメータ を選択する (ステップ S 4 0 3 ) 。 キー入力があるか否かの判定を行い (ステップ S 4 0 4 ) 、 キー入力があつた場合には、 キー入力が表示パ ラメータの選択に対応したキー情報か否かを判定する (ステップ S 4 0 5 ) 。
そして、 ステップ S 4 0 5の処理において、 表示パラメータの選択が 行われたと判定した際には、 送信側の携帯電話 1に入力したキー情報を 送信する (ステップ S 4 0 6 ) 。
また、 ステップ S 4 0 4の処理においてキー入力がない場合、 時間計 測部 3 1が時間計測を実行する (ステップ S 4 0 7 ) 。 予め設定されて いる時間が経過してもキー入力がない場合には (ステップ S 4 0 8 ) 、 デフォルトキー (たとえば、 コマ落ちなど) を設定した後 (ステップ S 4 0 9 ) 、 ステップ S 4 0 6の処理を実行する。
それにより、 本実施の形態 2においては、 ユーザ情報に基づいてコマ 落ち、 色数変更あるいは面積変更などの画像圧縮処理を行うので、 受信 側のユーザの好みに合わせた動画像通信を可能とすることができる。 以上、 本発明者によってなされた発明を実施例に基づき具体的に説明 したが、 本発明は前記実施例に限定されるものではなく、 その要旨を逸 脱しない範囲で種々変更可能であることはいうまでもない。 産業上の利用可能性
以上のように、 本発明にかかる移動端末は、 通信による動画像の最適 な配信技術に適している。

Claims

請求の範囲
1 . 複数の表示パラメータを有し、 動画像が設定のエンコードパラメ一 タにより圧縮できない場合に、 前記複数の表示パラメータのうち、 任意 の 1つの表示パラメータにより前記動画像のェンコ一ドを行う画像圧縮 手段を備えたことを特徴とする移動端末。
2 . 請求項 1記載の移動端末において、
前記画像圧縮手段が、
前記複数の表示パラメータが格納されたパラメータ格納部と、 前記初期設定のェンコ一ドパラメータによってェンコ一ドされた動画 像が、 フレームレートオーバ、 またはビットレートオーバの場合に、 前 記パラメータ格納部に格納された任意の表示パラメータを選択し、 前記 選択した表示パラメータにより動画像をェンコ一ドする画像処理部とよ りなることを特徴とする移動端末。
3 . 請求項 1または 2記載の移動端末において、
前記パラメータ格納部に格納された表示パラメータが、 少なく ともコ マ落ち処理、 色数変更処理、 および面積変更処理であることを特徴とす る移動端末。
4 . 請求項 3記載の移動端末において、
前記パラメータ格納部に格納された色数変更処理の表示パラメータは、 前記動画像を白黒画像処理することを特徴とする移動端末。
5 . 請求項 1〜 4のいずれか 1項に記載の移動端末において、
前記パラメータ格納部に格納された複数の表示パラメータを受信側の 移動端末が任意に選択し、 前記動画像が前記設定のェンコードパラメ一 タにより圧縮できない場合に、 前記受信側の移動端末が選択した表示パ ラメータによりェンコ一ドすることを特徴とする移動端末。
6 . 動画像が設定のェンコ一ドパラメータにより圧縮できない場合に、 前記動画像を色数変更処理のェンコ一ドを行う画像圧縮手段を備えたこ とを特徴とする移動端末。
7 . 請求項 6記載の移動端末において、 前記画像圧縮手段による色数変 更処理が、 前記動画像を白黒動画像に変換することを特徴とする移動端 末。
8 . 動画像が設定のェンコ一ドパラメータにより圧縮できない場合に、 前記動画像を面積変更処理のェンコードを行う画像圧縮手段を備えたこ とを特徴とする移動端末。
9 . 複数の表示パラメータを有し、 動画像が設定のエンコードパラメ一 タにより圧縮できない場合に、 前記複数の表示パラメータとは異なる表 示パラメータにより前記動画像のェンコ一ドを行う画像圧縮手段を備え たことを特徴とする移動端末。
1 0 . 動画像を受信すべき端末からの指示に従って、 送信すべき動画像 をェンコ一ドする際の表示パラメータが設定されることを特徴とする移 動 末。
PCT/JP2002/007446 2002-07-23 2002-07-23 移動端末 WO2004010703A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004522706A JPWO2004010703A1 (ja) 2002-07-23 2002-07-23 移動端末
PCT/JP2002/007446 WO2004010703A1 (ja) 2002-07-23 2002-07-23 移動端末

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2002/007446 WO2004010703A1 (ja) 2002-07-23 2002-07-23 移動端末

Publications (1)

Publication Number Publication Date
WO2004010703A1 true WO2004010703A1 (ja) 2004-01-29

Family

ID=30490770

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/007446 WO2004010703A1 (ja) 2002-07-23 2002-07-23 移動端末

Country Status (2)

Country Link
JP (1) JPWO2004010703A1 (ja)
WO (1) WO2004010703A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006319643A (ja) * 2005-05-12 2006-11-24 Fuji Photo Film Co Ltd 動画通信システム
JP2006333254A (ja) * 2005-05-27 2006-12-07 Fujifilm Holdings Corp 動画像リアルタイム通信端末、動画像リアルタイム通信端末の制御方法及び動画像リアルタイム通信端末の制御プログラム
WO2014017622A1 (ja) * 2012-07-26 2014-01-30 株式会社ニコン・トリンブル 測量制御装置、測量装置、測量装置の制御方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000165864A (ja) * 1998-09-09 2000-06-16 Nippon Telegr & Teleph Corp <Ntt> 画質調整方法及びその方法を使用した映像通信装置及びその方法を記録した記録媒体
JP2001204002A (ja) * 2000-01-20 2001-07-27 Nec Eng Ltd 画像伝送方式
JP2001313937A (ja) * 2000-05-01 2001-11-09 Kddi Research & Development Laboratories Inc 動画像変換を制御するシステム、そのサーバ、そのゲートウェイ及びその制御プログラムを記録した記録媒体
JP2001333428A (ja) * 2000-05-19 2001-11-30 Oki Electric Ind Co Ltd 動画送受信システム
JP2002073467A (ja) * 2000-09-05 2002-03-12 Kddi Research & Development Laboratories Inc 画像変換システムの制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000165864A (ja) * 1998-09-09 2000-06-16 Nippon Telegr & Teleph Corp <Ntt> 画質調整方法及びその方法を使用した映像通信装置及びその方法を記録した記録媒体
JP2001204002A (ja) * 2000-01-20 2001-07-27 Nec Eng Ltd 画像伝送方式
JP2001313937A (ja) * 2000-05-01 2001-11-09 Kddi Research & Development Laboratories Inc 動画像変換を制御するシステム、そのサーバ、そのゲートウェイ及びその制御プログラムを記録した記録媒体
JP2001333428A (ja) * 2000-05-19 2001-11-30 Oki Electric Ind Co Ltd 動画送受信システム
JP2002073467A (ja) * 2000-09-05 2002-03-12 Kddi Research & Development Laboratories Inc 画像変換システムの制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006319643A (ja) * 2005-05-12 2006-11-24 Fuji Photo Film Co Ltd 動画通信システム
JP2006333254A (ja) * 2005-05-27 2006-12-07 Fujifilm Holdings Corp 動画像リアルタイム通信端末、動画像リアルタイム通信端末の制御方法及び動画像リアルタイム通信端末の制御プログラム
US7852948B2 (en) 2005-05-27 2010-12-14 Fujifilm Corporation Moving picture real-time communications terminal, control method for moving picture real-time communications terminal, and control program for moving picture real-time communications terminal
WO2014017622A1 (ja) * 2012-07-26 2014-01-30 株式会社ニコン・トリンブル 測量制御装置、測量装置、測量装置の制御方法、及びプログラム

Also Published As

Publication number Publication date
JPWO2004010703A1 (ja) 2005-11-17

Similar Documents

Publication Publication Date Title
CN101232622B (zh) 用于子像素值内插的方法
US8675978B2 (en) Image processing device and method
JP3086396B2 (ja) 画像符号化装置及び画像復号装置
US5784572A (en) Method and apparatus for compressing video and voice signals according to different standards
US20070030894A1 (en) Method, device, and module for improved encoding mode control in video encoding
US7756349B2 (en) Image processing apparatus and computer-readable storage medium
US20080008250A1 (en) Video encoder
MXPA04010318A (es) Metodo y dispositivo para indicar parametros del cuantificador en un sistema de codificacion de video.
US7652692B2 (en) Apparatus and method for photographing a moving picture
KR100954303B1 (ko) 영상의 공간 해상도 제어 시스템 및 이를 이용한 영상 전송제어 방법
US20130028321A1 (en) Apparatus and method for image processing
JP3651706B2 (ja) 動画像符号化装置
US20050025234A1 (en) Motion picture receiving device, motion picture transmitting device, motion picture decoding method, and motion picture encoding method
US20120044993A1 (en) Image Processing Device and Method
US7606432B2 (en) Apparatus and method for providing thumbnail image data on a mobile terminal
US6798915B2 (en) Apparatus having lower data transmission rate and less degradation of image quality and method therefor
WO2004010703A1 (ja) 移動端末
JPH10229558A (ja) 動画像情報の符号化装置
US20070031050A1 (en) Method and apparatus for bit rate control for image encoding
JP2002044668A (ja) 画像情報変換装置及び方法
JP2001346207A (ja) 画像情報変換装置及び方法
JP3115866B2 (ja) 画像符号化装置及び画像復号装置
CN102739921A (zh) 显示控制设备、显示控制方法、程序和显示控制系统
JP2002051345A (ja) 画像情報変換装置及び方法
JP3805748B2 (ja) 画像転送装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR IE IT LU MC NL PT SE SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004522706

Country of ref document: JP

122 Ep: pct application non-entry in european phase