JP4854486B2 - Image display device, image display method, and image display program - Google Patents

Image display device, image display method, and image display program Download PDF

Info

Publication number
JP4854486B2
JP4854486B2 JP2006328441A JP2006328441A JP4854486B2 JP 4854486 B2 JP4854486 B2 JP 4854486B2 JP 2006328441 A JP2006328441 A JP 2006328441A JP 2006328441 A JP2006328441 A JP 2006328441A JP 4854486 B2 JP4854486 B2 JP 4854486B2
Authority
JP
Japan
Prior art keywords
image data
effect
storage unit
unit
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006328441A
Other languages
Japanese (ja)
Other versions
JP2008140328A (en
Inventor
裕二 井手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Ericsson Mobile Communications Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications Japan Inc filed Critical Sony Ericsson Mobile Communications Japan Inc
Priority to JP2006328441A priority Critical patent/JP4854486B2/en
Publication of JP2008140328A publication Critical patent/JP2008140328A/en
Application granted granted Critical
Publication of JP4854486B2 publication Critical patent/JP4854486B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、エフェクト処理が施された複数の静止画像を切り替えて表示する画像表示装置、画像表示方法及び画像表示プログラムに関する。   The present invention relates to an image display device, an image display method, and an image display program for switching and displaying a plurality of still images subjected to effect processing.

近年、デジタルスチルカメラや携帯電話端末等の静止画の撮像及び記録を行うことのできる機器において、記録された複数の静止画を所定の時間毎に自動的に切り替えて順次表示できる、スライドショー機能を備えたものが増えてきている。この場合、単に複数の静止画を次々と表示するだけでなく、静止画に装飾画像等を合成して視覚的な効果を追加したり、静止画像が表示画面上で動いているように見せる処理等が施されることもある。静止画像に動きを持たせる手法としては、一枚の静止画を素材としてその一部の領域を切り出して、その領域を右から左、上から下等に移動させて次々に異なるフレームとして表示部等に表示させる等の手法が知られている。このような処理を行うことで、相対的に、基の静止画像が表示画面上で動いているように見せることができる。画像に加えるこのような視覚的効果は、エフェクトと呼ばれている。   In recent years, a slide show function that can automatically switch and display a plurality of recorded still images at predetermined time intervals in devices capable of capturing and recording still images such as digital still cameras and mobile phone terminals. The things we have are increasing. In this case, you can not only simply display multiple still images one after another, but also add a visual effect by synthesizing decorative images etc. to the still images, or make the still images appear to move on the display screen Etc. may be given. As a method for giving motion to a still image, a part of a region is cut out using a single still image as a material, and the region is moved from right to left, top to bottom, etc. A method of displaying on a screen is known. By performing such processing, it is possible to make the base still image relatively appear to move on the display screen. Such a visual effect added to an image is called an effect.

エフェクトには、上述したような一枚の静止画に動きを持たせるエフェクトの他にも、異なる静止画像の表示の切り換え時に用いるエフェクトもある。このようなエフェクトとしては、現在表示されている画像を徐々に他の画像に変化させていくフェードエフェクトや、現在表示されている画像の表示をほかの画像へワイプしながら切り替えるワイプエフェクト等が知られている。これらのエフェクト処理を、異なる静止画像の表示の切り換え時に用いることで、記憶媒体等に記録された様々な種類の静止画像が、違和感無く連続して表示されるようになる。   In addition to the above-described effect that moves a single still image, there is an effect that is used when switching the display of different still images. Examples of such effects include the fade effect that gradually changes the currently displayed image to another image, and the wipe effect that switches the currently displayed image while wiping to another image. It has been. By using these effect processes when switching the display of different still images, various types of still images recorded on a storage medium or the like can be continuously displayed without a sense of incongruity.

特許文献1には、デジタルカメラ等により記録された静止画を、動きのあるフォトムービーとして観賞できるようにする技術が開示されている。
特開2006−229467号公報
Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique that allows a still image recorded by a digital camera or the like to be viewed as a moving photo movie.
JP 2006-229467 A

ところで、スライドショー機能を用いて表示されるそれぞれの静止画に対して、エフェクト処理を行う場合は、表示された画像が静止した状態、つまりエフェクトがかけられていない状態で、静止画表示切り替え用のエフェクトをかけることが行われていた。このため、異なる静止画に切り替わるタイミングにおいては、切り換え前の画像に動きを持たせていたエフェクトは停止していることになり、切り換えの時間の間だけ、表示される画像の動きが止まったように見えてしまうという問題があった。   By the way, when effect processing is performed on each still image displayed using the slide show function, the still image display switching can be performed when the displayed image is still, that is, when no effect is applied. Applying effects was done. For this reason, at the timing of switching to a different still image, the effect that caused movement to the image before switching is stopped, and the displayed image stops moving only during the switching time. There was a problem of being visible.

また、エフェクトがかかっており画像が変化している状態において、新たなエフェクトを用いて新しい静止画に切り替えるには、切り換え前の画像が元の画像に対してどの位置まで移動しているかを把握しておく必要がある。例えば、図7に例示されているように、一枚の静止画を素材として、その一部の領域をフレームf1(細かい破線)として切り出し、その位置をフレームf2(少し荒い破線)、フレームf3(1点鎖線)と移動させて表示部等に表示させることで、表示部に表示される画面上で顔のマークが左から右へ移動しているように見せるエフェクトがかかっている場合を想定する。太線で示されたフレームf3の画像が画面に表示されている状態で、次の静止画へ切り替えるためには、現在表示されているフレームf3の画像と、新しい静止画から生成された1フレームとを合成して新たなエフェクトを生成すればよい。このときに、フレームf3の画サイズと基準とする画素の位置(例えばフレームの4隅のいずれかの座標)が必要とされる。   In addition, when an effect is applied and the image is changing, to switch to a new still image using a new effect, it is necessary to know where the previous image has moved relative to the original image. It is necessary to keep it. For example, as illustrated in FIG. 7, a still image is used as a material, a part of the area is cut out as a frame f1 (fine broken line), and the position is frame f2 (a slightly rough broken line), frame f3 ( It is assumed that there is an effect that the face mark appears to move from the left to the right on the screen displayed on the display unit by moving it as an alternate long and short dash line). . In order to switch to the next still image while the image of the frame f3 indicated by the bold line is displayed on the screen, the image of the currently displayed frame f3, one frame generated from the new still image, To create a new effect. At this time, the image size of the frame f3 and the position of the reference pixel (for example, any one of the coordinates of the four corners of the frame) are required.

ところが、一般には現在表示されている画像から、次の静止画を基に生成された画像に表示を切り替えるタイミングを、次の静止画のデコード処理が完了したタイミングとすることが多いため、デコード処理の処理時間の長さは、静止画像のデータ量やそのときの画像処理の処理状況によって変わってきてしまう。そのため、現在表示中のフレームが、元の素材である静止画中のどこに位置するかは、次の画像のデコード処理の長さによってその都度変化するものであり、予測は非常に難しいといえる。   However, in general, the display switching timing from the currently displayed image to the image generated based on the next still image is often the timing at which the decoding processing of the next still image is completed. The length of the processing time varies depending on the data amount of the still image and the processing status of the image processing at that time. Therefore, the position of the currently displayed frame in the still image that is the original material changes each time depending on the length of the decoding process of the next image, and it can be said that the prediction is very difficult.

次の静止画像のデコード処理が完了したタイミングで、現在表示中のフレームの元の静止画像中での座標位置をリアルタイムに把握できれば、その座標情報を用いて次の画像への切り換えを行うことが可能となる。ところが、それを実現するとなると、処理が複雑化してしまうという問題があった。   If the coordinate position in the original still image of the currently displayed frame can be grasped in real time at the timing when the decoding process of the next still image is completed, switching to the next image can be performed using the coordinate information. It becomes possible. However, if this is realized, there is a problem that the processing becomes complicated.

本発明はかかる点に鑑みてなされたものであり、エフェクトがかけられた画像同士を、簡単な処理により、動きを止めることなくスムーズに切り替えることを目的とする。   The present invention has been made in view of such a point, and an object of the present invention is to smoothly switch images to which an effect has been applied without stopping movement by simple processing.

本発明は、符号化された複数の画像データを順次読み出して復号し、復号された画像データを表示する画像表示する場合に、復号された複数の画像データを復号された順に第1の記憶部に記憶するようにした。そして、第1の記憶部に記憶された画像データを読み出して読み出した画像データに所定のエフェクト処理を行い、複数のフレームで構成されるエフェクト画像データを生成するようにした。また、エフェクト画像データを、エフェクト処理に基づいた順に第2の記憶部に記憶し、復号された画像データが第1の記憶部に入力された時に、第2の記憶部に記憶されたエフェクト画像データのうちの最後の1フレームを第3の記憶部に記憶するようにした。さらに、第1の記憶部に新たに記憶された画像データから生成したエフェクト画像データと第3の記憶部に記憶された最後の1フレームの画像データとを用いて新たなエフェクト画像データを生成して表示するようにした。 In the present invention, when a plurality of encoded image data are sequentially read out and decoded, and the decoded image data is displayed as an image, the first storage unit stores the decoded image data in the order of decoding. To remember. Then, the image data stored in the first storage unit is read out, and predetermined effect processing is performed on the read-out image data to generate effect image data composed of a plurality of frames. Also, the effect image data is stored in the second storage unit in the order based on the effect processing, and the effect image stored in the second storage unit when the decoded image data is input to the first storage unit. The last frame of the data is stored in the third storage unit. Further, new effect image data is generated using the effect image data generated from the image data newly stored in the first storage unit and the last one frame of image data stored in the third storage unit. To be displayed.

このように構成したことで、復号処理部で復号された画像データが第1の記憶部に出力されたタイミング、つまり、次の画像データの復号処理が完了した時点で、第3の記憶部に記憶されたエフェクト画像データの1フレームと、新たな画像データから生成されたエフェクト画像データとを用いて新たにエフェクト画像データが生成され、表示部に表示されるようになる。 With this configuration, when the image data decoded by the decoding processing unit is output to the first storage unit, that is, when the decoding processing of the next image data is completed, the third storage unit The effect image data is newly generated using one frame of the stored effect image data and the effect image data generated from the new image data, and is displayed on the display unit.

この場合、第3の記憶部に記憶された1フレームはエフェクト画像データであり、既にエフェクト効果が追加されたものであるため、新たに生成されるエフェクト画像データにおいては、複数のエフェクトがかけられているような視覚的効果が生み出される。
また、新しい画像データにエフェクト処理を施した上で第3の記憶部に記憶された1フレームと合成し、新たなエフェクト画像データを生成するようにしたため、異なる静止画像同士が切り替わる段階においても、表示される画像での動きが止まることがなくなり、スムーズな切り換えを実現することができるようになる。
In this case, since one frame stored in the third storage unit is effect image data and an effect effect has already been added, a plurality of effects are applied to newly generated effect image data. A visual effect is created.
In addition, since the new image data is subjected to the effect processing and synthesized with one frame stored in the third storage unit to generate new effect image data, even in a stage where different still images are switched, The movement in the displayed image is not stopped and smooth switching can be realized.

本発明によると、エフェクトがかけられた画像同士が、簡単な処理により、その動きが止められることなくスムーズに切り替えられる。   According to the present invention, images to which an effect has been applied can be switched smoothly by simple processing without stopping the movement.

以下、本発明の一実施の形態を、図1〜図6を参照して説明する。本実施の形態においては、本発明の画像表示装置を、静止画の撮像及び記録を行うことができる携帯電話端末に適用してある。   Hereinafter, an embodiment of the present invention will be described with reference to FIGS. In the present embodiment, the image display device of the present invention is applied to a mobile phone terminal capable of capturing and recording a still image.

まず、携帯電話端末1の内部構成例について、図1を参照して説明する。携帯端末装置1は、アンテナ11と接続した通信部13を備え、制御部12の制御により、アンテナ11を介して携帯電話基地局(図示略)との間で送信信号及び受信信号の送信及び受信を行う。通信部13は、携帯電話基地局とやり取りする電波の変調及び復調を行う。通信部13で受信及び送信を行う無線通信方式としては、例えばW−CDMA(Wideband Code Division Multiple Access:符合分割多重接続)方式などが用いられるが、これに限定されるものではない。   First, an internal configuration example of the mobile phone terminal 1 will be described with reference to FIG. The mobile terminal device 1 includes a communication unit 13 connected to an antenna 11, and transmits and receives a transmission signal and a reception signal with a mobile phone base station (not shown) via the antenna 11 under the control of the control unit 12. I do. The communication unit 13 modulates and demodulates radio waves exchanged with the mobile phone base station. For example, a W-CDMA (Wideband Code Division Multiple Access) method or the like is used as a wireless communication method for reception and transmission by the communication unit 13, but is not limited thereto.

また、携帯電話端末1は、液晶ディスプレイ(LCD;Liquid Crystal Display)などで構成された表示部14、ジョグダイアルやキーパッドなどで構成された操作部15を備える。操作部15は、電話番号やメール文などの入力操作、各種モードの設定操作などの入力操作信号を入力することができる。   The mobile phone terminal 1 includes a display unit 14 configured with a liquid crystal display (LCD) and an operation unit 15 configured with a jog dial, a keypad, and the like. The operation unit 15 can input an input operation signal such as an input operation such as a telephone number or an e-mail message, or a setting operation of various modes.

また、携帯電話端末1は、図示せぬレンズ及び撮像素子等で構成される撮像部16を備える。撮像素子では、レンズを通して得た光学像を光電変換して撮像信号とし、撮像信号を撮像部16内の図示せぬアナログ・デジタル変換部に供給する。アナログ・デジタル変換部でデジタル信号に変換された撮像信号は、同じく図示せぬ画像信号処理部に供給され、画像信号処理部で画像処理及びエンコード処理が施された上で、後述する記憶部17や、外部記憶媒体I/F部18を介して接続された外部記憶媒体等に記録される。   In addition, the mobile phone terminal 1 includes an imaging unit 16 including a lens, an imaging element, and the like (not shown). In the imaging device, an optical image obtained through the lens is photoelectrically converted into an imaging signal, and the imaging signal is supplied to an analog / digital conversion unit (not shown) in the imaging unit 16. The imaging signal converted into a digital signal by the analog / digital conversion unit is supplied to an image signal processing unit (not shown), subjected to image processing and encoding processing by the image signal processing unit, and then a storage unit 17 to be described later. Or recorded on an external storage medium connected via the external storage medium I / F unit 18.

制御部12は、例えばCPU(Central Processing Unit)等の演算制御装置(プロセッサ)からなり、図示しないROM(Read Only Memory)に記録されている各コンピュータ・プログラムに従い、図示しないRAM(Random Access Memory)を各種処理のための作業領域として使用しながら所定の処理を実行する。   The control unit 12 includes an arithmetic control device (processor) such as a CPU (Central Processing Unit), for example, and in accordance with each computer program recorded in a ROM (Read Only Memory) (not shown), a RAM (Random Access Memory) (not shown). Is used as a work area for various processes, and a predetermined process is executed.

また、携帯電話装置1は記憶部17を備える。記憶部17は、フラッシュメモリ(半導体メモリ)等の不揮発性メモリからなり、電話帳やスケージュール、メールメッセージ、画像、音楽、アプリケーションソフトウェア、ブックマーク、ウェブページ等、様々なデータ及びコンピュータ・プログラムが記憶される記憶装置である。   In addition, the mobile phone device 1 includes a storage unit 17. The storage unit 17 includes a non-volatile memory such as a flash memory (semiconductor memory), and stores various data and computer programs such as a phone book, schedule, mail message, image, music, application software, bookmark, and web page. Storage device.

さらに携帯電話装置1は、USB(Universal Serial Bus)メモリやメモリスティック等のメモリカード等の外部記憶媒体が接続されるインターフェース部として、外部記憶媒体I/F部18を備える。そして、外部記憶媒体I/F部18に接続された外部記憶媒体や、記憶部17に記憶された符号化されたデータを読み出して復号(デコード)する復号処理部22と、復号処理部22で復号された画像データに対してエフェクト処理を行うエフェクト処理部23も備える。   Further, the cellular phone device 1 includes an external storage medium I / F unit 18 as an interface unit to which an external storage medium such as a USB (Universal Serial Bus) memory or a memory card such as a memory stick is connected. Then, an external storage medium connected to the external storage medium I / F unit 18, a decoding processing unit 22 that reads and decodes (decodes) encoded data stored in the storage unit 17, and a decoding processing unit 22 An effect processing unit 23 that performs effect processing on the decoded image data is also provided.

エフェクト処理部23は、一枚の静止画像を基に複数フレームで構成されるエフェクト画像データを生成し、後述する表示用バッファ部25に伝送する。生成されたエフェクト画像データがnフレームで構成される場合には、フレーム1からフレームnまでが順に表示用バッファ部25を経て表示部14に出力され、表示部14で表示されるようになる。また、静止画像にエフェクトをかけるタイミングや、異なる静止画像間を切り替えるタイミングを制御可能とするために、画像データを一時的に保存しておくエフェクト用バッファ部24(第1の記憶部)と表示用バッファ部25(第2の記憶部)を設けてある。エフェクト用バッファ部24は、エフェクトをかけるタイミングを制御するために用いられるバッファであり、表示用バッファ部25は、エフェクト処理後のエフェクト画像データの表示のタイミングを制御するために用いられるバッファである。   The effect processing unit 23 generates effect image data composed of a plurality of frames based on one still image, and transmits the effect image data to the display buffer unit 25 described later. When the generated effect image data is composed of n frames, frames 1 to n are sequentially output to the display unit 14 via the display buffer unit 25 and displayed on the display unit 14. In addition, in order to be able to control the timing of applying an effect to a still image and the timing of switching between different still images, an effect buffer unit 24 (first storage unit) for temporarily storing image data is displayed. A buffer unit 25 (second storage unit) is provided. The effect buffer unit 24 is a buffer used for controlling the timing of applying the effect, and the display buffer unit 25 is a buffer used for controlling the display timing of the effect image data after effect processing. .

また、本発明では、異なるエフェクトがかけられた異なる画像同士をスムーズに切り換えて表示できるように、切り替えられる側のエフェクト画像データの最後のフレームを流用するようにしており、その最後のフレームを記憶するラストフレームバッファ部26(第3の記憶部)を備える。エフェクト処理部23と各バッファ部の処理の詳細については後述する。   In the present invention, the last frame of the effect image data to be switched is used so that different images with different effects can be smoothly switched and displayed, and the last frame is stored. The last frame buffer unit 26 (third storage unit) is provided. Details of the processing of the effect processing unit 23 and each buffer unit will be described later.

上述した各部を制御する信号は、信号線である制御ライン31上を伝送される。また、各部の間でやり取りされるデータは、データライン32上を伝送される。なお、電源については、図示せぬ電源部から各部に供給されているものとする。   A signal for controlling each unit described above is transmitted on the control line 31 which is a signal line. Data exchanged between the respective units is transmitted on the data line 32. In addition, about a power supply, it shall be supplied to each part from the power supply part which is not shown in figure.

ここで、音声通話時の受信系について説明する。制御部12は、通信部13で受信し、復調した受信信号からパケットを抽出して、そのパケットから音声データ、制御データ等を取り出し、取り出した音声データを音声処理部21に供給する。音声処理部21は、デジタル音声データからアナログ音声信号への変換、増幅など所定の音声処理を行い、スピーカ19により電気信号から音声に変換して出力する。   Here, a reception system at the time of a voice call will be described. The control unit 12 extracts a packet from the reception signal received and demodulated by the communication unit 13, extracts voice data, control data, and the like from the packet, and supplies the extracted voice data to the voice processing unit 21. The audio processing unit 21 performs predetermined audio processing such as conversion from digital audio data to an analog audio signal, amplification, and the like, and converts the electrical signal into audio by the speaker 19 and outputs it.

一方、音声通話時の送信系について説明する。音声処理部21は、マイクロフォン20で音声を集音し、電気信号に変換してアナログ音声信号を得る。そして、取り込んだアナログ音声信号をデジタル音声データに変換し、通信部13に供給する。通信部13は、音声データを送信先のアドレスなどの制御情報を付加してパケットを生成し、生成したパケットに所定の変調処理を行うとともに所定の送信周波数の送信信号に周波数変換し、その周波数変換した送信信号をアンテナ11から無線送信する。   On the other hand, a transmission system during a voice call will be described. The sound processing unit 21 collects sound with the microphone 20 and converts it into an electric signal to obtain an analog sound signal. Then, the captured analog audio signal is converted into digital audio data and supplied to the communication unit 13. The communication unit 13 generates a packet by adding control information such as a transmission destination address to the voice data, performs predetermined modulation processing on the generated packet, converts the frequency into a transmission signal of a predetermined transmission frequency, The converted transmission signal is wirelessly transmitted from the antenna 11.

なお、エフェクトがかけられた画像を表示部14に表示させる際にBGM等を流すようにしてもよく、この場合は、記憶部17等に記憶された音声データを読み出して音声処理部21に供給し、スピーカ19を通して放音させるようすればよい。   Note that BGM or the like may be played when an image to which an effect is applied is displayed on the display unit 14. In this case, audio data stored in the storage unit 17 or the like is read and supplied to the audio processing unit 21. The sound may be emitted through the speaker 19.

次に、図2を参照して、エフェクト処理部23及びエフェクト用バッファ部24、表示用バッファ部25、ラストフレームバッファ部26における処理の詳細について説明する。まず復号処理部22は、記憶部17又は外部記憶媒体I/F部18を介して接続された外部記憶媒体に記録された画像データを読み出してデコード処理を行い、デコード処理が完了した画像データをエフェクト用バッファ部24に出力する。   Next, details of processing in the effect processing unit 23, the effect buffer unit 24, the display buffer unit 25, and the last frame buffer unit 26 will be described with reference to FIG. First, the decoding processing unit 22 reads out image data recorded on an external storage medium connected via the storage unit 17 or the external storage medium I / F unit 18 and performs decoding processing. The data is output to the effect buffer unit 24.

エフェクト用バッファ部24は、複数のバッファを備えたFIFO(First In First Out)メモリで構成され、復号処理部22から入力された画像データを、入力された順番に記憶する。エフェクト用バッファ部24に記憶された画像データは、次の画像データが入力される度に押し出されるようにしてバッファEbnからバッファEb1まで移動し、バッファEb1に記憶された最古の画像データから順に、エフェクト処理部23に読み出される。   The effect buffer unit 24 is configured by a FIFO (First In First Out) memory including a plurality of buffers, and stores the image data input from the decoding processing unit 22 in the input order. The image data stored in the effect buffer unit 24 is moved from the buffer Ebn to the buffer Eb1 so as to be pushed out every time the next image data is input, and sequentially from the oldest image data stored in the buffer Eb1. , Read to the effect processing unit 23.

エフェクト処理部23では、エフェクト用バッファ部24から読み出した画像データに対して、その一部の領域を切り出して、その領域を右から左、上から下等に移動させる等のエフェクト処理を行い、複数のフレームで構成されるエフェクト画像データを生成する。図3及び図4に、エフェクト処理部23でエフェクト処理が付与されたエフェクト画像データの例を示してある。図3の例では、猫が画面の右側(a)から中央(b)、左側(c)へ移動するエフェクト処理が施されており、図4の例では、飛行機が下方向から上方向に、(a)、(b)、(c)の順に徐々に移動するエフェクト処理が施されている。   The effect processing unit 23 cuts out a part of the image data read from the effect buffer unit 24 and performs effect processing such as moving the region from right to left, top to bottom, etc. Effect image data composed of a plurality of frames is generated. 3 and 4 show examples of effect image data to which the effect processing unit 23 has applied the effect processing. In the example of FIG. 3, an effect process is performed in which the cat moves from the right side (a) of the screen to the center (b) and the left side (c). In the example of FIG. Effect processing that gradually moves in the order of (a), (b), and (c) is performed.

表示部14への表示を、図3に示した猫の静止画像、図4に示した飛行機の静止画像の順に行うとすると、エフェクト処理部23で図3の猫の静止画像を基に行うエフェクト画像データ生成処理は、図4の飛行機の静止画像が復号処理部22で復号されてエフェクト用バッファ部24に出力されるまでの間、継続して行われる。よって、1つの静止画像を基に生成されるエフェクト画像データのフレーム数は、次の静止画像が復号処理部22で復号処理される時間に応じて多くなったり少なくなったりする。   If the display on the display unit 14 is performed in the order of the still image of the cat shown in FIG. 3 and the still image of the airplane shown in FIG. 4, the effect processing unit 23 performs an effect based on the still image of the cat shown in FIG. The image data generation process is continuously performed until the still image of the airplane in FIG. 4 is decoded by the decoding processing unit 22 and output to the effect buffer unit 24. Therefore, the number of frames of effect image data generated based on one still image increases or decreases depending on the time during which the next still image is decoded by the decoding processing unit 22.

再び図2に戻って説明を続けると、エフェクト処理部23で生成されたエフェクト画像データは、生成された順に表示用バッファ部25に記憶される。表示用バッファ部25も、FIFOメモリで構成されており、表示用バッファ部25に記憶されるエフェクト画像データは、バッファDbnからバッファDb1まで順次移動する。そして、バッファDb1に記憶されたフレームが、表示部14に読み出されて表示される。   Returning to FIG. 2 again, the description is continued. The effect image data generated by the effect processing unit 23 is stored in the display buffer unit 25 in the order of generation. The display buffer unit 25 is also composed of a FIFO memory, and the effect image data stored in the display buffer unit 25 sequentially moves from the buffer Dbn to the buffer Db1. Then, the frame stored in the buffer Db1 is read out and displayed on the display unit 14.

ただし、復号処理部22で復号された新しい画像データが、エフェクト用バッファ部24に出力されたことをエフェクト処理部23が検知すると、エフェクト処理部23の制御に基づいて、表示用バッファ部25のバッファDb1に記憶された最古のフレームが、ラストフレームバッファ部26に記憶される。   However, when the effect processing unit 23 detects that the new image data decoded by the decoding processing unit 22 is output to the effect buffer unit 24, the display buffer unit 25 controls the effect processing unit 23. The oldest frame stored in the buffer Db1 is stored in the last frame buffer unit 26.

そして、エフェクト処理部23は、エフェクト用バッファ部24に新たに記憶された画像データから生成した1フレームと、ラストフレームバッファ部26に記憶された1フレームとを用いて、新たにエフェクト画像データを生成する。異なる画像データ同士を合成して生成されたエフェクト画像データも、生成された順に表示用バッファ部25に出力され、バッファDb1に記憶されたフレームから順に、表示部14に表示される。   Then, the effect processing unit 23 newly generates the effect image data using one frame generated from the image data newly stored in the effect buffer unit 24 and one frame stored in the last frame buffer unit 26. Generate. The effect image data generated by combining different image data is also output to the display buffer unit 25 in the order of generation, and is displayed on the display unit 14 in order from the frame stored in the buffer Db1.

次に、図5及び図6を参照して、復号処理部22による復号処理と、エフェクト用バッファ部24への画像データ記憶処理と、エフェクト処理部23から表示部14へのエフェクト画像データ出力処理との、時間的な関連について説明する。   Next, referring to FIG. 5 and FIG. 6, the decoding processing by the decoding processing unit 22, the image data storage processing to the effect buffer unit 24, and the effect image data output processing from the effect processing unit 23 to the display unit 14. The temporal relationship with will be explained.

図5においては、記憶部17又は外部記憶媒体I/F部18(図1参照)を介して接続された外部記憶媒体等に記録された複数枚の静止画像のうち、3つの静止画像を切り替えて表示する例を示してあり、3つの静止画に対してそれぞれA,B,Cと符号を振ってある。そして、各部での処理はA,B,Cの順に行われるものとする。まず、復号処理部22で画像データAのデコードが完了すると、デコードされたデータはエフェクト用バッファ部24に入力され、エフェクト処理部23でエフェクト処理が追加されてから、表示用バッファ部25(図1参照)に出力される。表示用バッファ部25からの表示部14への出力は、エフェクト画像データが記憶された順に1フレームずつ行われる。図5においては、表示部14に出力されるエフェクト画像データの各フレームに対して、出力される順にA1、A2、A3と符号を振ってある。A1のAは静止画像Aを意味し、1はフレームの番号を示す。そして、表示用バッファ部25からの表示部14へ出力される複数枚のフレームに対して、f1〜fnの符号を振ってある。   In FIG. 5, three still images are switched among a plurality of still images recorded on an external storage medium connected via the storage unit 17 or the external storage medium I / F unit 18 (see FIG. 1). In this example, A, B, and C are assigned to three still images. And processing in each part shall be performed in order of A, B, and C. First, when the decoding of the image data A is completed by the decoding processing unit 22, the decoded data is input to the effect buffer unit 24, and after the effect processing is added by the effect processing unit 23, the display buffer unit 25 (FIG. 1). The output from the display buffer unit 25 to the display unit 14 is performed frame by frame in the order in which the effect image data is stored. In FIG. 5, the reference numerals A1, A2, and A3 are assigned to the frames of the effect image data output to the display unit 14 in the order of output. A in A1 means a still image A, and 1 indicates a frame number. The symbols f1 to fn are assigned to a plurality of frames output from the display buffer unit 25 to the display unit 14.

図5における画像データAを、図3で示した猫の画像データとし、画像データBを図4で示した飛行機の画像データとすると、符号処理部22でB(飛行機)の画像データがデコードされている間は、画像データA(猫)を基に、エフェクト処理部23でエフェクト画像データが生成され続ける。つまり、図5で「Bのデコード完了」と表示されたタイミングまでは、画像データAの猫が画面の右側から左側へ移動しながら繰り返し表示されるエフェクト処理が行われる。   If the image data A in FIG. 5 is the cat image data shown in FIG. 3 and the image data B is the airplane image data shown in FIG. 4, the code processing unit 22 decodes the image data B (airplane). During this period, the effect image data is continuously generated by the effect processing unit 23 based on the image data A (cat). That is, until the timing when “B decoding complete” is displayed in FIG. 5, effect processing is performed in which the cat of the image data A is repeatedly displayed while moving from the right side to the left side of the screen.

例えば、画像データAの猫が、図3(a)に表示されるような 右側の位置から、図3(b)に示されたような真ん中の位置、図3(c)に示されたような左側の位置に移動するまでをエフェクトの一単位とする場合を想定する。この場合、次に表示させる画像データである画像Bのデコード処理が完了するまでの間は、エフェクト処理部23によって、図3(a)→(b)→(c)→(a)→(b)…の順にエフェクト画像データが生成され続け、生成された順番に表示用バッファ部25に記憶される。   For example, the cat of the image data A is moved from the right position as shown in FIG. 3A to the middle position as shown in FIG. 3B, as shown in FIG. 3C. Assume that the unit is a unit of effect until it moves to the left position. In this case, until the decoding process of the image B, which is image data to be displayed next, is completed, the effect processing unit 23 causes the effect processing unit 23 to display (a) → (b) → (c) → (a) → (b The effect image data continues to be generated in the order of), and is stored in the display buffer unit 25 in the order of generation.

表示用バッファ部に入力されたフレームは、後から入力されるフレームに押されるようにしてその記憶の位置をバッファDbn、バッファDbn−1、バッファDb1と変え、バッファDb1に記憶されたフレームから順に、図3(a)がフレームA1として、図3(b)がフレームA2として、以降、図3(c)(フレームA3)→図3(a)(フレームA4)→図3(b)(フレームA5)…の順に表示される。   The frame input to the display buffer unit is pushed by a frame input later, and the storage position is changed to buffer Dbn, buffer Dbn-1, and buffer Db1, and the frames stored in buffer Db1 are sequentially started. 3 (a) is a frame A1, FIG. 3 (b) is a frame A2, and FIG. 3 (c) (frame A3) → FIG. 3 (a) (frame A4) → FIG. 3 (b) (frame). A5) are displayed in this order.

図5において、フレームA15まで表示したところでBのデコードが完了し、エフェクト用バッファ部24にBの画像データが記憶されたため、フレームA15が、画像データAのラストフレームとして、ラストフレームバッファ部26(図1参照)に出力される。つまり、フレームA15が、次に表示させる画像データBのデコード処理が完了した時点で既にエフェクト処理が施されていた画像データAの最後(最新)のフレームとなる。本発明では、このフレームを次に行うエフェクト処理用の素材として利用する目的で、ラストフレームバッファ部26に記憶するようにしてある。そして、エフェクト処理部23は、ラストフレームバッファ部26に記憶されたフレームと、次に表示させる画像データから生成された1フレームとを合成して、新たにエフェクト画像データを生成する。   In FIG. 5, since the decoding of B is completed when the frame A15 is displayed and the B image data is stored in the effect buffer unit 24, the frame A15 is used as the last frame of the image data A as the last frame buffer unit 26 ( (See FIG. 1). That is, the frame A15 is the last (latest) frame of the image data A that has already been subjected to the effect processing when the decoding processing of the image data B to be displayed next is completed. In the present invention, this frame is stored in the last frame buffer unit 26 for the purpose of using it as a material for effect processing to be performed next. Then, the effect processing unit 23 synthesizes the frame stored in the last frame buffer unit 26 and one frame generated from the image data to be displayed next, and newly generates effect image data.

図6に、画像Aと画像Bとが合成される各段階における、表示部14での表示画像の例を示してある。図6においては、台形の窓枠が画面の下から上に移動するエフェクトを用いてある。このエフェクトは、窓枠に表示された画像とそれ以外の領域に表示された画像とが、その配合の比率を徐々に変えながら入れ替わるエフェクトである。このエフェクトを用いて画像Aと画像Bとを合成することにより、古い画像Aが新しい画像Bに徐々に切り替わる。また、図6(c)〜(d)において、切り換え前の画像データAは、ラストフレームA15の画像を流用したものであるが、画像データBにおいては、図4に例示されているような、飛行機が下から上へ移動するように見せるエフェクト処理が施されたフレームを用いてある。図6(a)は、画像データA単体にエフェクト処理が施されている様子を示したものであり、この次のフレームである図6(b)が表示された段階で、次の画像データであるBのデコードが完了したものとする。図5の例に当てはめると、図6(a)がフレームA14(f14)で、図6(b)がフレームA15(f15)となる。なお、図6において、図5に示したフレームと対応するものには同一符号を付している。   FIG. 6 shows an example of a display image on the display unit 14 at each stage where the image A and the image B are combined. In FIG. 6, an effect is used in which a trapezoidal window frame moves from the bottom of the screen to the top. This effect is an effect in which the image displayed in the window frame and the image displayed in the other area are interchanged while gradually changing the blend ratio. By combining the image A and the image B using this effect, the old image A is gradually switched to the new image B. Further, in FIGS. 6C to 6D, the image data A before switching is obtained by diverting the image of the last frame A15. However, in the image data B, as illustrated in FIG. It uses frames with effect processing that make the plane appear to move from bottom to top. FIG. 6A shows a state in which the effect processing is performed on the image data A alone. When the next frame, FIG. 6B, is displayed, the next image data is displayed. Assume that decoding of a certain B is completed. When applied to the example of FIG. 5, FIG. 6A is a frame A14 (f14), and FIG. 6B is a frame A15 (f15). In FIG. 6, the same reference numerals are assigned to the elements corresponding to the frame shown in FIG.

図5において、ラストフレームであるフレームA15は、ラストフレームバッファ部26に出力され、エフェクト処理部23によって読み出される。そして、エフェクト処理部23によって新たにデコードが完了した画像データBの最初のフレームであるB1と合成されて、新しいエフェクト画像データ(フレームf16)とされる。このときの表示画像は、図6(c)に示したものになる。図6(c)において、新しい画像データBから生成されたフレームB1が、図6(b)に示したフレームA15の画面の下側に台形の窓枠として表示された部分に、当該フレームA15を分割する形で表示されている。   In FIG. 5, the frame A15 which is the last frame is output to the last frame buffer unit 26 and read by the effect processing unit 23. Then, it is combined with B1 that is the first frame of the image data B that has been newly decoded by the effect processing unit 23 to obtain new effect image data (frame f16). The display image at this time is as shown in FIG. In FIG. 6C, the frame A15 generated from the new image data B is displayed on the lower part of the screen of the frame A15 shown in FIG. 6B as a trapezoidal window frame. It is displayed in the form of dividing.

次の図6(d)は、図6(b)に示された時点より時間的に後の時点でのエフェクトの例を示した図である。図6(d)においては、画面中に表示される割合として、画像データA(猫)に比べて画像データB(飛行機)の割合が増えていることがわかる。図6(d)の時点で表示されている猫の画像は、フレームA15の画像であり、飛行機の画像は、フレームB5のものである。図6(e)では、完全に新しい画像データBに表示が切り替わっていることがわかる。   FIG. 6D is a diagram showing an example of the effect at a time point later in time than the time point shown in FIG. In FIG. 6D, it can be seen that the ratio of the image data B (airplane) is increased as compared with the image data A (cat) as the ratio displayed on the screen. The cat image displayed at the time of FIG. 6D is an image of the frame A15, and the image of the airplane is that of the frame B5. In FIG. 6E, it can be seen that the display is switched to completely new image data B.

このように、異なる画像同士の表示を切り替えるエフェクトを用いて、切り換え前の画像Aが表示される割合を徐々に減らし、新しい画像Bが表示される割合を増やすことで、新旧の異なる画像データ同士が、視覚的にスムーズに切り替わるようになる。   In this way, by using the effect of switching the display of different images, the rate at which the image A before switching is displayed is gradually reduced, and the rate at which the new image B is displayed is increased, thereby allowing the new and old different image data to be displayed. However, it will switch smoothly visually.

つまり、図6(c)〜(e)に示されたそれぞれのフレームにおいて、画像データBでの飛行機の位置は下から上に徐々に移動しており、古い画像から新しい画像に切り替える段階(図6(c)、(d))においても、表示される画像の動きが止まらずに、動きを持って表現されるようになる。   That is, in each frame shown in FIGS. 6C to 6E, the position of the airplane in the image data B is gradually moving from the bottom to the top, and the stage of switching from the old image to the new image (FIG. 6). 6 (c) and (d)), the displayed image does not stop moving and is expressed with movement.

再び図5に戻って説明を続けると、「表示用バッファ部からの出力」として表示された部分において、新しい画像データBにエフェクト処理が施されて生成されたフレームB1〜フレームB5と、切り換え前の画像データAのラストフレームであるA15を用いて、フレームf16〜f20が構成されている。そしてフレームが進むにつれて、徐々にラストフレームA15が表示される割合が低くなり、新しい画像データBを基に生成されたフレームが表示される割合が高くなるように制御されていることがわかる。   Returning to FIG. 5 again, the description will be continued. In the portion displayed as “output from the display buffer unit”, frames B1 to B5 generated by effect processing on the new image data B, and before switching Frames f16 to f20 are configured using A15 which is the last frame of the image data A. It can be seen that the rate at which the last frame A15 is displayed gradually decreases as the frame advances, and the rate at which the frame generated based on the new image data B is displayed is increased.

異なる静止画像間を切り替えるために要する時間(図5の例においては、フレームf16〜f20又はフレームf41〜f45が表示される時間)は、エフェクトの種類によって変わるものとする。   It is assumed that the time required for switching between different still images (in the example of FIG. 5, the time during which frames f16 to f20 or frames f41 to f45 are displayed) varies depending on the type of effect.

フレームf21において、画像データBへの表示に完全に切り替わった後は、次の画像データであるCのデコード処理が完了するまでの間、エフェクト処理部23によって継続的に画像データBへのエフェクト処理が行われる。画像データBから生成したフレームであるフレームB25が表示部14に出力された時点で、復号処理部22での復号処理が完了したため、今度はフレームB25がラストフレームバッファ26に出力される。そして、ラストフレームB25と、新しい画像データCから生成されたフレームC1とを用いて、新たなエフェクト画像データであるフレームf41が生成され、表示部14に出力される。以降は、画像データAと画像データBとの切り換え処理として説明したものと同様の処理が行われる。   In the frame f21, after the display is completely switched to the image data B, the effect processing unit 23 continuously effects the image data B until the next image data C is decoded. Is done. When the frame B25, which is a frame generated from the image data B, is output to the display unit 14, the decoding process in the decoding processing unit 22 is completed, and thus the frame B25 is output to the last frame buffer 26 this time. Then, using the last frame B25 and the frame C1 generated from the new image data C, a frame f41 that is new effect image data is generated and output to the display unit 14. Thereafter, processing similar to that described as switching processing between the image data A and the image data B is performed.

このように、現在表示されている画像データの次に表示させる画像データのデコード処理が完了したタイミングで、表示用バッファ部25に記憶されている最古のフレームをラストフレームバッファ部26に記憶する。この最古のフレームは、現在表示されている画像データの最後のフレームである。そして、ラストフレームバッファ部26に記憶された元の画像のフレームと、新たにデコード処理が行われた次の画像から生成されたエフェクト画像データ(フレーム)とを用いて新しいエフェクト画像データを生成するようにしたため、現在表示中のフレームの、元の静止画像中での座標位置を気にすることなく、異なる静止画像間の表示を容易に切り替えることができるようになる。   In this manner, the oldest frame stored in the display buffer unit 25 is stored in the last frame buffer unit 26 at the timing when the decoding processing of the image data to be displayed next to the currently displayed image data is completed. . This oldest frame is the last frame of the currently displayed image data. Then, new effect image data is generated using the frame of the original image stored in the last frame buffer unit 26 and the effect image data (frame) generated from the newly decoded next image. Thus, the display between different still images can be easily switched without worrying about the coordinate position in the original still image of the currently displayed frame.

また、ラストフレームバッファ部26に記憶されるフレームは、エフェクト処理部23によってエフェクト処理が施されたフレームとなるため、ラストフレームバッファ部26に記憶されたラストフレームと、新しい画像データから生成されたフレームとで生成されるエフェクト画像データにおいては、複数のエフェクトが同時にかけられているような視覚効果を与えることが可能となる。   Further, since the frame stored in the last frame buffer unit 26 is a frame subjected to the effect processing by the effect processing unit 23, the frame generated from the last frame stored in the last frame buffer unit 26 and new image data. In the effect image data generated by the frame, it is possible to give a visual effect that a plurality of effects are applied simultaneously.

また、新しい画像データにエフェクト処理を施した上でラストフレームと合成し、新たなエフェクト画像データを生成するようにしたため、異なる静止画像同士が切り替わる段階においても、表示される画像での動きが止まることがなくなり、スムーズな切り換えを実現することができるようになる。   In addition, new image data is subjected to effect processing and then combined with the last frame to generate new effect image data, so that the movement in the displayed image stops even when different still images are switched. This eliminates the possibility of smooth switching.

なお、ここまで説明した実施の形態では、静止画像に動きを持たせるエフェクトとして、画面の右から左、下から上に画像が移動する効果を与えるエフェクトを例に挙げ、異なる画像間を切り替えるエフェクトとしては、台形の窓枠が下から上に移動するエフェクトを例に挙げたが、これらに限定されるものではなく、画像の一部をゆがめて表示するエフェクトや、画面におけるグラデーションを徐々に変化させるエフェクト、画像全体をズームイン又はズームアウトしたり、スクロールするエフェクト等、他の様々なエフェクトに適用が可能である。   In the embodiment described so far, as an effect that gives a motion to a still image, an effect that gives an effect of moving an image from the right to the left and the bottom to the top of the screen is taken as an example, and an effect that switches between different images As an example, the effect of moving the trapezoidal window frame from the bottom to the top was taken as an example, but it is not limited to these effects, and the effect of distorting and displaying a part of the image or gradually changing the gradation on the screen The present invention can be applied to various other effects such as an effect to be performed, an effect of zooming in or out of the entire image, and an effect of scrolling.

また、上述した実施形態例における一連の処理は、ハードウェアにより実行することができるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムを、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで各種の機能を実行することが可能な例えば汎用のパーソナルコンピュータなどに所望のソフトウェアを構成するプログラムをインストールして実行させる。   Further, the series of processes in the above-described embodiment can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, it is possible to execute various functions by installing programs that make up the software into a computer built into dedicated hardware, or by installing various programs. For example, a general-purpose personal computer or the like installs and executes a program constituting desired software.

また、上述した実施形態例の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPU等の制御装置)が記録媒体に記憶されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。   In addition, a recording medium in which a program code of software that realizes the functions of the above-described exemplary embodiments is supplied to a system or apparatus, and a computer (or a control device such as a CPU) of the system or apparatus is stored in the recording medium. Needless to say, this can also be achieved by reading and executing the program code.

また、コンピュータが読み出したプログラムコードを実行することにより、上述した実施形態例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部又は全部を行い、その処理によって上述した実施形態例の機能が実現される場合も含まれる。   Further, by executing the program code read by the computer, not only the functions of the above-described exemplary embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs actual processing. In some cases, the functions of the above-described exemplary embodiments are realized by performing part or all of the above.

さらに、上述した実施の形態では、携帯電話端末に適用した例を挙げたが、エンコードされた画像データをデコードする復号処理部と、画像データを表示する表示部とを備えた装置であれば、他の様々な装置に適用可能である。   Furthermore, in the above-described embodiment, an example applied to a mobile phone terminal is given. However, if the device includes a decoding processing unit that decodes encoded image data and a display unit that displays image data, It can be applied to various other devices.

本発明の一実施の形態による携帯電話端末の構成例を示すブロック図である。It is a block diagram which shows the structural example of the mobile telephone terminal by one embodiment of this invention. 本発明の一実施の形態による画像のデコードから表示までに係わる各部の構成例を示す説明図である。It is explanatory drawing which shows the structural example of each part concerning the decoding to display of an image by one embodiment of this invention. 本発明の一実施の形態によるエフェクト処理例を示す説明図である。It is explanatory drawing which shows the example of an effect process by one embodiment of this invention. 本発明の一実施の形態によるエフェクト処理例を示す説明図である。It is explanatory drawing which shows the example of an effect process by one embodiment of this invention. 本発明の一実施の形態によるデコードから表示までの処理例を示す説明図である。It is explanatory drawing which shows the process example from the decoding to display by one embodiment of this invention. 本発明の一実施の形態によるエフェクト処理例を示す説明図である。It is explanatory drawing which shows the example of an effect process by one embodiment of this invention. 従来のエフェクト処理例を示す説明図である。It is explanatory drawing which shows the example of the conventional effect process.

符号の説明Explanation of symbols

1…携帯電話端末、11…アンテナ、12…制御部、13…通信部、14…表示部、15…操作部、16…撮像部、17…記憶部、18…外部記憶媒体I/F部、19…スピーカ、20…マイクロフォン、21…音声処理部、22…復号処理部、23…エフェクト処理部、24…エフェクト用バッファ部、25…表示用バッファ部、26…ラストフレームバッファ部、31…制御ライン、32…データライン   DESCRIPTION OF SYMBOLS 1 ... Mobile phone terminal, 11 ... Antenna, 12 ... Control part, 13 ... Communication part, 14 ... Display part, 15 ... Operation part, 16 ... Imaging part, 17 ... Memory | storage part, 18 ... External storage medium I / F part, DESCRIPTION OF SYMBOLS 19 ... Speaker, 20 ... Microphone, 21 ... Audio processing part, 22 ... Decoding processing part, 23 ... Effect processing part, 24 ... Effect buffer part, 25 ... Display buffer part, 26 ... Last frame buffer part, 31 ... Control Line, 32 ... Data line

Claims (6)

符号化された複数の画像データを順次読み出して復号する復号処理部を有し、該復号処理部で復号された画像データを表示部に表示させる画像表示装置において、
前記復号処理部で復号された複数の画像データを復号された順に記憶する第1の記憶部と、
前記第1の記憶部に記憶された画像データを読み出して、読み出した画像データに所定のエフェクト処理を行い、複数のフレームで構成されるエフェクト画像データを生成するエフェクト処理部と、
前記エフェクト処理部で生成されたエフェクト画像データを、前記エフェクト処理に基づいた順に記憶するとともに、前記表示部に出力する第2の記憶部と、
前記第2の記憶部に記憶されたエフェクト画像データのうちの、最後の1フレームを記憶する第3の記憶部とを備え、
前記エフェクト処理部は、前記第1の記憶部に新たに記憶された画像データから生成した前記エフェクト画像データと前記第3の記憶部に記憶されている前記エフェクト画像データの最後の1フレームとを用いて新たなエフェクト画像データを生成し、前記第2の記憶部に出力す
画像表示装置。
In an image display device that includes a decoding processing unit that sequentially reads and decodes a plurality of encoded image data, and displays the image data decoded by the decoding processing unit on a display unit,
A first storage unit that stores a plurality of pieces of image data decoded by the decoding processing unit in the order of decoding;
An effect processing unit that reads out the image data stored in the first storage unit, performs predetermined effect processing on the read image data, and generates effect image data composed of a plurality of frames;
The effect image data generated by the effect processing unit is stored in order based on the effect processing, and a second storage unit that outputs to the display unit;
A third storage unit for storing the last frame of the effect image data stored in the second storage unit;
The effect processing unit includes the effect image data generated from the image data newly stored in the first storage unit and the last one frame of the effect image data stored in the third storage unit. used to generate a new effect image data, the image display device you output to the second storage unit.
前記第3の記憶部は、前記復号処理部で復号された画像データが前記第1の記憶部に入力された時に、前記第2の記憶部に記憶されたエフェクト画像データのうちの、最後の1フレームを記憶す
請求項1に記載の画像表示装置。
The third storage unit is the last of the effect image data stored in the second storage unit when the image data decoded by the decoding processing unit is input to the first storage unit. the image display apparatus according to claim 1 you storing one frame.
請求項1記載の画像表示装置において、
前記エフェクト処理部は、前記復号された複数の画像データのそれぞれに対して、異なるエフェクト処理を行
画像表示装置。
The image display device according to claim 1,
The effect processing unit, for each of a plurality of image data said decoding, different effect processing line cormorants image display device.
請求項1記載の画像表示装置において、
前記第1の記憶部及び前記第2の記憶部には、ファーストイン・ファーストアウト方式で画像データが入出力され
画像表示装置。
The image display device according to claim 1,
Wherein the first storage unit and the second storage unit, the image display device image data in first-in first-out scheme Ru is input.
符号化された複数の画像データを順次読み出して復号し、前記復号された画像データを表示する画像表示方法において、
前記復号された複数の画像データを復号された順に第1の記憶部に記憶し、
前記第1の記憶部に記憶された画像データを読み出して、読み出した画像データに所定のエフェクト処理を行い、複数のフレームで構成されるエフェクト画像データを生成し、
前記エフェクト画像データを、エフェクト処理に基づいた順に第2の記憶部に記憶し、
前記復号された画像データが前記第1の記憶部に入力された時に、前記第2の記憶部に記憶されたエフェクト画像データのうちの最後の1フレームを第3の記憶部に記憶し、
前記第1の記憶部に新たに記憶された画像データから生成した前記エフェクト画像データと前記第3の記憶部に記憶された最後の1フレームの画像データとを用いて新たなエフェクト画像データを生成して表示す
画像表示方法。
In an image display method for sequentially reading and decoding a plurality of encoded image data and displaying the decoded image data,
Storing the plurality of decoded image data in the first storage unit in the order of decoding;
Read the image data stored in the first storage unit, perform predetermined effect processing on the read image data, generate effect image data composed of a plurality of frames,
Storing the effect image data in the second storage unit in the order based on the effect processing;
When the decoded image data is input to the first storage unit, the last frame of the effect image data stored in the second storage unit is stored in a third storage unit,
New effect image data is generated using the effect image data generated from the image data newly stored in the first storage unit and the last one frame of image data stored in the third storage unit. image display how to display in.
符号化された複数の画像データを順次読み出して復号し、前記復号された画像データを表示する手順をコンピュータに実行させるための画像表示プログラムにおいて、
前記復号された複数の画像データを復号された順に第1の記憶部に記憶する手順と、
前記第1の記憶部に記憶された画像データを読み出して、読み出した画像データに所定のエフェクト処理を行い、複数のフレームで構成されるエフェクト画像データを生成する手順と、
前記エフェクト画像データを、エフェクト処理に基づいた順に第2の記憶部に記憶する手順と、
前記復号された画像データが前記第1の記憶部に入力された時に、前記第2の記憶部に記憶されたエフェクト画像データのうちの最後の1フレームを第3の記憶部に記憶する手順と、
前記第1の記憶部に新たに記憶された画像データから生成した前記エフェクト画像データと前記第3の記憶部に記憶された最後の1フレームの画像データとを用いて新たなエフェクト画像データを生成して表示する手順とを有す
画像表示プログラム。
In an image display program for sequentially reading and decoding a plurality of encoded image data and causing a computer to execute a procedure for displaying the decoded image data,
Storing the plurality of decoded image data in the first storage unit in the order of decoding;
A procedure of reading image data stored in the first storage unit, performing predetermined effect processing on the read image data, and generating effect image data composed of a plurality of frames;
Storing the effect image data in the second storage unit in the order based on the effect processing;
A procedure for storing the last frame of the effect image data stored in the second storage unit in the third storage unit when the decoded image data is input to the first storage unit; ,
New effect image data is generated using the effect image data generated from the image data newly stored in the first storage unit and the last one frame of image data stored in the third storage unit. image display program that have a procedure and that to display.
JP2006328441A 2006-12-05 2006-12-05 Image display device, image display method, and image display program Expired - Fee Related JP4854486B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006328441A JP4854486B2 (en) 2006-12-05 2006-12-05 Image display device, image display method, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006328441A JP4854486B2 (en) 2006-12-05 2006-12-05 Image display device, image display method, and image display program

Publications (2)

Publication Number Publication Date
JP2008140328A JP2008140328A (en) 2008-06-19
JP4854486B2 true JP4854486B2 (en) 2012-01-18

Family

ID=39601676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006328441A Expired - Fee Related JP4854486B2 (en) 2006-12-05 2006-12-05 Image display device, image display method, and image display program

Country Status (1)

Country Link
JP (1) JP4854486B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9542720B2 (en) 2012-10-12 2017-01-10 Sony Corporation Terminal device, image display method, and storage medium
JP6287071B2 (en) * 2013-10-31 2018-03-07 コニカミノルタ株式会社 Image processing device
JP6432141B2 (en) * 2014-03-19 2018-12-05 カシオ計算機株式会社 Image processing apparatus and image processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000032338A (en) * 1998-07-10 2000-01-28 Nec Corp Moving image switching device
JP2995703B1 (en) * 1998-10-08 1999-12-27 コナミ株式会社 Image creation device, display scene switching method in image creation device, readable recording medium storing display scene switching program in image creation device, and video game device

Also Published As

Publication number Publication date
JP2008140328A (en) 2008-06-19

Similar Documents

Publication Publication Date Title
AU2021204255A1 (en) Adaptive transfer function for video encoding and decoding
KR101917650B1 (en) Method and apparatus for processing a image in camera device
US11579758B2 (en) Apparatus and method for performing multi-tasking in portable terminal
US20060197849A1 (en) Methods, electronic devices, and computer program products for processing images using multiple image buffers
US20090096927A1 (en) System and method for video coding using variable compression and object motion tracking
US20130235081A1 (en) Image processing apparatus, image processing method and recording medium
CN112995727A (en) Multi-screen coordination method and system and electronic equipment
JP2007088965A (en) Image output device and program
JP2010136292A (en) Image processing apparatus
JP4854486B2 (en) Image display device, image display method, and image display program
JP4082352B2 (en) Mobile phone, display control method for mobile phone, and program thereof
JP2010011334A (en) Communication terminal device
JP2005316558A (en) Screen zooming method
JP4381434B2 (en) Mobile phone
CN104219481A (en) Information processing method and electronic device
KR20130101823A (en) Digital device and video call performing method
JP2009135769A (en) Image processing device
KR100716841B1 (en) Portable terminal and method for real time processing for displaying wall-paper by dividing frame
JP2015184952A (en) Image processing device, image processing method, and program
JP5149925B2 (en) Display control apparatus and control method thereof
WO2010100695A1 (en) Standby image creation device
JP2005110157A (en) Mobile telephone with camera and power supply control method
KR20050082789A (en) Apparatus and method for enlarge a display image of molile phone
JP2005303397A (en) Communication terminal device, terminal device, operation control method and program
KR20140041645A (en) Digital device and video call performing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111025

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees