KR20060042048A - Device and method for displaying data using overlay technique in terminal equipment - Google Patents

Device and method for displaying data using overlay technique in terminal equipment Download PDF

Info

Publication number
KR20060042048A
KR20060042048A KR1020050013132A KR20050013132A KR20060042048A KR 20060042048 A KR20060042048 A KR 20060042048A KR 1020050013132 A KR1020050013132 A KR 1020050013132A KR 20050013132 A KR20050013132 A KR 20050013132A KR 20060042048 A KR20060042048 A KR 20060042048A
Authority
KR
South Korea
Prior art keywords
image
overlay
buffer
display
screen
Prior art date
Application number
KR1020050013132A
Other languages
Korean (ko)
Other versions
KR100617797B1 (en
Inventor
서정욱
김재호
박외진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20060042048A publication Critical patent/KR20060042048A/en
Application granted granted Critical
Publication of KR100617797B1 publication Critical patent/KR100617797B1/en

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02BHYDRAULIC ENGINEERING
    • E02B3/00Engineering works in connection with control or use of streams, rivers, coasts, or other marine sites; Sealings or joints for engineering works in general
    • E02B3/04Structures or apparatus for, or methods of, protecting banks, coasts, or harbours
    • E02B3/06Moles; Piers; Quays; Quay walls; Groynes; Breakwaters ; Wave dissipating walls; Quay equipment
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02BHYDRAULIC ENGINEERING
    • E02B3/00Engineering works in connection with control or use of streams, rivers, coasts, or other marine sites; Sealings or joints for engineering works in general
    • E02B3/04Structures or apparatus for, or methods of, protecting banks, coasts, or harbours
    • E02B3/12Revetment of banks, dams, watercourses, or the like, e.g. the sea-floor
    • E02B3/129Polyhedrons, tetrapods or similar bodies, whether or not threaded on strings

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Environmental & Geological Engineering (AREA)
  • Ocean & Marine Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Inorganic Chemistry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

휴대단말기의 멀티미디어 이미지를 표시하는 장치가, 바탕화면 및 오버레이 이미지들을 저장하는 멀티미디어 메모리와, 상기 바탕화면 이미지를 저장하는 백버퍼와, 상기 오버레이 표시할 이미지들을 오버레이버퍼와, 스크린버퍼와, 상기 백버퍼의 이미지에 상기 오버레이버퍼의 이미지를 오버레이시켜 상기 스크린버퍼에 저장하며, 상기 저장된 스크린버퍼의 이미지를 표시화면으로 출력하는 제어부와, 상기 제어부에서 출력되는 표시화면을 표시하는 표시부로 구성된다.A device for displaying a multimedia image of a mobile terminal includes a multimedia memory for storing desktop and overlay images, a back buffer for storing the desktop image, an overlay buffer for displaying the overlay images, a screen buffer, and the back. And a control unit for overlaying the image of the overlay buffer on the image of the buffer and storing the overlay buffer image in the screen buffer, outputting the stored screen buffer image to the display screen, and a display unit for displaying the display screen output from the control unit.

오버레이, 멀티미디어, 캐릭터 표시 Overlay, multimedia, character display

Description

휴대단말기에서 멀티미디어 데이터를 오버레이 표시하는 장치 및 방법{DEVICE AND METHOD FOR DISPLAYING DATA USING OVERLAY TECHNIQUE IN TERMINAL EQUIPMENT}Device and method for overlaying multimedia data on mobile terminal {DEVICE AND METHOD FOR DISPLAYING DATA USING OVERLAY TECHNIQUE IN TERMINAL EQUIPMENT}

도 1은 본 발명의 실시예에 따른 휴대단말기의 구성을 도시하는 도면1 is a diagram showing the configuration of a portable terminal according to an embodiment of the present invention.

도 2a - 도 2d는 본 발명의 실시예에 따른 캐릭터 메모리의 구조를 도시하는 도면2A-2D illustrate the structure of a character memory in accordance with an embodiment of the invention.

도 3a - 도 3d는 본 발명의 실시예에 따른 캐릭터들의 이미지 예를 표시하는 도면3A-3D show examples of images of characters according to embodiments of the present invention.

도 4는 본 발명의 제1실시예에 따라 휴대단말기의 표시부에 표시데이타를 표시하기 위한 버퍼의 구조를 설명하기 위한 도면4 is a view for explaining the structure of a buffer for displaying display data on a display unit of a mobile terminal according to a first embodiment of the present invention;

도 5는 본 발명의 제1실시예에 따라 멀티미디어 데이터를 표시하는 절차를 도시하는 도면5 is a diagram illustrating a procedure for displaying multimedia data according to the first embodiment of the present invention.

도 6은 본 발명의 제1실시예에 따라 멀티미디어 데이터를 표시하는 절차를 도시하는 도면6 is a diagram illustrating a procedure for displaying multimedia data according to the first embodiment of the present invention.

도 7은 도 6에서 멀티미디어 데이터를 표시하는 상세한 절차를 도시하는 도면FIG. 7 is a diagram showing a detailed procedure of displaying multimedia data in FIG.

도 8은 도 6에서 아바타 이미지의 표시 위치를 변경하는 절차를 도시하는 도면FIG. 8 is a diagram illustrating a procedure of changing a display position of an avatar image in FIG. 6.

도 9는 도 6에서 아바타 이미지의 크기를 변경하는 절차를 도시하는 도면9 is a diagram illustrating a procedure of changing a size of an avatar image in FIG. 6.

도 10은 본 발명의 제2실시예에 따라 멀티미디어 데이터를 표시하는 절차를 도시하는 흐름도10 is a flowchart illustrating a procedure for displaying multimedia data according to a second embodiment of the present invention.

도 11은 도 10에서 사용자에 의해 발생되는 입력을 처리하는 절차를 도시하는 흐름도FIG. 11 is a flow chart illustrating a procedure for processing an input generated by a user in FIG. 10.

도 12는 도 10에서 오버레이 데이터 리스트에 포함된 데이터들을 처리하는 절차를 도시하는 흐름도FIG. 12 is a flowchart illustrating a procedure of processing data included in an overlay data list in FIG. 10.

도 13은 도 12에서 선택되는 데이터 화소들을 오버레이 처리하는 절차를 도시하는 흐름도FIG. 13 is a flowchart illustrating a procedure of overlay processing data pixels selected in FIG. 12.

도 14는 도 12에서 선택되는 데이터 화소들을 오버레이 처리하는 다른 절차를 도시하는 흐름도FIG. 14 is a flowchart illustrating another procedure of overlaying data pixels selected in FIG. 12.

도 15는 본 발명의 제1실시예에 따라 캐릭터 이미지가 표시화면에 표시되는 동작을 설명하기 위한 도면15 is a view for explaining an operation of displaying a character image on a display screen according to the first embodiment of the present invention;

본 발명은 휴대단말기의 데이터 표시 장치 및 방법에 관한 것으로, 특히 데 이터를 오버레이시켜 표시할 수 있는 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data display device and method of a mobile terminal, and more particularly, to an apparatus and method capable of overlaying and displaying data.

일반적으로 휴대단말기라 함은 사용자가 휴대할 수 있는 장치를 의미하는 것으로, 이에 따른 대표적인 장치가 휴대 전화기이다. 상기 휴대전화기는 고유의 전화기 기능 이외에 다양한 부가 기능들을 서비스할 수 있다. 상기 부가 기능을 가지는 휴대전화기들은 카메라를 구비하는 캠코더폰, TV 시청이 가능한 TV폰, MP3 음악화일 청취가 가능한 MP3폰 등이 될 수 있다. 즉, 현재의 휴대전화기는 멀티미디어 데이터를 처리할 수 있는 부가 기능을 가지는 제품들이 증가하고 있는 추세이다. In general, a mobile terminal refers to a device that a user can carry, and a typical device is a mobile phone. The mobile phone can service various additional functions in addition to the native phone function. The mobile phones having the above additional functions may be camcorder phones having cameras, TV phones capable of watching TV, MP3 phones capable of listening to MP3 music files, and the like. In other words, current mobile phones are increasing in number of products having additional functions for processing multimedia data.

그리고 상기 멀티미디어 데이터를 처리하는 기능을 가지는 휴대단말기는 일반적으로 LCD 표시부를 구비하며, 상기 멀티미디어 데이터를 표시하기 위한 다양한 표시 방법들이 개발되고 있는 추세이다. 상기 휴대단말기는 다양한 종류의 데이터들을 표시할 수 있어야 한다. 즉, 휴대단말기는 단말기 고유의 기능을 수행하기 위한 데이터를 표시하면서 동시에 멀티미디어 데이터를 표시할 수 있는 기능이 필요하다. 상기 멀티미디어 데이터들 중에서 표시부 상에서 표시 위치를 이동하면서 표시하여야 하는 데이터들이 있다. 즉, 상기 휴대단말기에서 아바타 동작을 표현하는 경우, 상기 아바타의 동작에 따라 표시부 영역의 위치를 바꿔가면서 표시할 수 있어야 한다. 이런 경우, 상기 표시부 상에 위치되고 있는 휴대단말기의 표시 데이터를 유지하면서 상기 아바타의 동작을 표시하는 것이 바람직하다. 즉, 상기 멀티미디어 데이터를 표시하는 경우, 휴대단말기에서 현재 표시되고 있는 화면에 오버레이시켜 멀티미디어 데이터를 표시하는 것이 바람직하다.In addition, a portable terminal having a function of processing the multimedia data generally includes an LCD display unit, and various display methods for displaying the multimedia data are being developed. The portable terminal should be able to display various kinds of data. That is, the portable terminal needs a function capable of displaying multimedia data while simultaneously displaying data for performing a terminal-specific function. Among the multimedia data, there are data to be displayed while moving the display position on the display unit. That is, when an avatar operation is expressed in the mobile terminal, it should be displayed while changing the position of the display unit region according to the operation of the avatar. In such a case, it is preferable to display the operation of the avatar while maintaining display data of the mobile terminal located on the display unit. That is, when displaying the multimedia data, it is preferable to display the multimedia data by overlaying the screen currently displayed on the mobile terminal.

따라서 본 발명의 목적은 휴대단말기에서 현재 표시되고 있는 화면 위에 멀티미디어 데이터를 오버레이시켜 표시할 수 있는 장치 및 방법을 제공함에 있다.Accordingly, an object of the present invention is to provide an apparatus and method capable of overlaying multimedia data on a screen currently being displayed on a mobile terminal.

본 발명의 다른 목적은 휴대단말기에서 움직임을 가지는 멀티미디어 데이터를 표시부의 화면 상에 오버레이시켜 표시할 수 있는 장치 및 방법을 제공함에 있다.Another object of the present invention is to provide an apparatus and a method for displaying multimedia data having a movement in a mobile terminal by overlaying it on a screen of a display unit.

본 발명의 또 다른 목적은 휴대단말기가 표시화면의 영상에 다른 멀티미디어 데이터 이미지를 블랜딩하여 표시할 수 있는 장치 및 방법을 제공함에 있다.Still another object of the present invention is to provide an apparatus and method for allowing a mobile terminal to blend and display different multimedia data images on an image of a display screen.

본 발명의 또 다른 목적은 휴대단말기가 오버레이 표시 모드시 표시화면의 오버레이 표시 영역에 오버레이 표시할 멀티미디어 데이터들을 삽입한 후 표시화면 데이터로 출력할 수 있는 장치 및 방법을 제공함에 있다.It is still another object of the present invention to provide an apparatus and method for inserting multimedia data to be overlaid on an overlay display area of a display screen in an overlay display mode and outputting the display screen data.

본 발명의 또 다른 목적은 휴대단말기가 오버레이 표시모드시 표시화면의 오버레이 표시 영역에 오버레이할 멀티미디어 데이터를 설정된 비율로 표시화면 데이터와 블랜딩하여 출력할 수 있는 장치 및 방법을 제공함에 있다.Another object of the present invention is to provide an apparatus and a method for a mobile terminal to blend and output multimedia data to be overlayed on an overlay display area of a display screen at a predetermined ratio in the overlay display mode.

본 발명의 또 다른 목적은 휴대단말기가 화면에 표시할 표시데이타를 저장하는 화면버퍼와 멀티미디어 데이터를 저장하기 위한 오버레이 버퍼를 구비하여 표시부의 화면에 멀티미디어 데이터를 오버레이시켜 표시할 수 있는 장치 및 방법을 제공함에 있다.It is still another object of the present invention to provide an apparatus and method for overlaying and displaying multimedia data on a screen of a display unit having a screen buffer for storing display data to be displayed on a screen and an overlay buffer for storing multimedia data. In providing.

본 발명의 또 다른 목적은 휴대단말기가 화면에 표시할 표시데이타를 저장하는 화면버퍼와 멀티미디어 데이터를 저장하기 위한 오버레이 버퍼를 구비하여 표시 부의 화면에 멀티미디어 데이터를 오버레이시켜 표시하며, 상기 오버레이 버퍼의 위치를 이동시켜 상기 멀티미디어 데이터의 표시 위치를 가변할 수 있는 장치 및 방법을 제공함에 있다.Another object of the present invention includes a screen buffer for storing display data to be displayed on the screen and an overlay buffer for storing multimedia data, and overlays and displays multimedia data on the screen of the display unit, and the position of the overlay buffer. The present invention provides an apparatus and method for changing the display position of the multimedia data by moving.

본 발명의 또 다른 목적은 캐릭터 에이전트 기능을 가지는 휴대단말기가 배경화면의 설정된 표시위치에 캐릭터데이타를 오버레이시켜 표시할 수 있는 장치 및 방법을 제공함에 있다.Still another object of the present invention is to provide an apparatus and method for allowing a mobile terminal having a character agent function to display character data by overlaying it on a set display position of a background screen.

본 발명의 또 다른 목적은 캐릭터 에이전트 기능을 가지는 휴대단말기가 배경화면의 설정된 표시위치에 캐릭터데이타를 오버레이시켜 표시하며, 상기 오버레이 표시시 설정된 비율로 상기 배경화면데이타와 상기 캐릭터데이타를 블랜딩하여 표시할 수 있는 장치 및 방법을 제공함에 있다.Still another object of the present invention is to display a character data by overlaying the character data on the display position of the mobile terminal having a character agent function, and blends the background data and the character data at a set ratio when displaying the overlay. It is to provide an apparatus and method that can be.

이하 본 발명의 바람직한 실시예들의 상세한 설명이 첨부된 도면들을 참조하여 설명될 것이다. 도면들 중 동일한 구성들은 가능한 한 어느 곳에서든지 동일한 부호들을 나타내고 있음을 유의하여야 한다.DETAILED DESCRIPTION A detailed description of preferred embodiments of the present invention will now be described with reference to the accompanying drawings. It should be noted that the same components in the figures represent the same numerals wherever possible.

본 발명의 실시예는 휴대단말기에서 멀티미디어 데이터를 표시할 때, 현재 표시되고 있는 있는 화면 위에 멀티미디어 데이터를 오버레이시켜 표시한다. 여기서 상기 멀티미디어 데이터 오버레이(overlay) 기능은 휴대단말기의 운영체제 상에 지원하지 않는 오버레이 기능을 지원하도록 한다. 상기 오버fp이 기능을 수행하기 위한 멀티미디어 이미지 데이터를 처리하는 과정을 추가하며, 상기 멀티미디어 이 미지 데이터의 위치, 방향 및 크기 변화에 따라 가변적으로 표시 기능을 제어할 수 있도록 한다. 또한 본 발명의 실시예에서 상기 멀티미디어 데이터는 캐릭터 데이터들이라고 가정한다. 또한 본 발명의 실시예에서는 상기 캐릭터 데이터가 아바타, 아바타하우스, 아이템 및 배경화면 데이터로 구성된다고 가정한다. 여기서 상기 아바타는 휴대단말기의 사용 상태에 따라 감정을 표현하는 기능을 가질 수 있는 캐릭터이며, 아바타하우스는 휴대단말기의 대기상태에서 표시되는 데이터로 사용될 수 있는 캐릭터이고, 상기 아이템 및 배경화면은 상기 아바타하우스를 구성할 수 있는 캐릭터들이 될 수 있다.In an embodiment of the present invention, when multimedia data is displayed on a mobile terminal, the multimedia data is overlaid and displayed on a screen that is currently displayed. In this case, the multimedia data overlay function supports an overlay function not supported on an operating system of the portable terminal. The process of processing the multimedia image data for performing the overfp function is added, and the display function can be variably controlled according to the position, direction, and size change of the multimedia image data. In addition, in the embodiment of the present invention, it is assumed that the multimedia data is character data. In addition, in the embodiment of the present invention, it is assumed that the character data is composed of avatar, avatar house, item, and background data. Here, the avatar is a character that can have a function of expressing emotion according to the use state of the mobile terminal, the avatar house is a character that can be used as data displayed in the standby state of the mobile terminal, and the item and the background screen are the avatar. It can be the characters that make up the house.

도 1은 본 발명의 실시예에 따른 휴대단말기의 구성을 도시하는 도면이다.1 is a view showing the configuration of a mobile terminal according to an embodiment of the present invention.

상기 도 1을 참조하면, 무선통신부123은 휴대용 전화기의 무선 통신 기능을 수행한다. 상기 무선통신부123은 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강변환하는 RF수신기등을 포함한다. 데이터처리부120은 상기 송신되는 신호를 부호화 및 변조하는 송신기 및 상기 수신되는 신호를 복조 및 복호화하는 수신기 등을 구비한다. 즉, 상기 데이터 처리부120은 모뎀(MODEM) 및 코덱(CODEC)으로 구성될 수 있다.Referring to FIG. 1, the wireless communication unit 123 performs a wireless communication function of a portable telephone. The wireless communication unit 123 includes an RF transmitter for upconverting and amplifying a frequency of a transmitted signal, and an RF receiver for low noise amplifying and downconverting a received signal. The data processor 120 includes a transmitter for encoding and modulating the transmitted signal and a receiver for demodulating and decoding the received signal. That is, the data processor 120 may include a modem and a codec.

키입력부121은 숫자 및 문자 정보를 입력하기 위한 키들 및 각종 기능들을 설정하기 위한 기능키들을 구비한다. 또한 상기 키입력부127은 본 발명의 실시예에 따라 외부의 데이터 단말장치와 근거리 통신을 수행하기 위한 명령어를 발생할 수 있는 키를 구비할 수 있다. 메모리130은 프로그램 메모리, 데이터 메모리들로 구성될 수 있다. 상기 프로그램 메모리는 휴대용 전화기의 일반적인 동작을 제어하기 위한 프로그램들 및 본 발명의 실시예에 따라 캐릭터 데이터들을 오버레이 표시하는 프로그램들을 저장할 수 있다. 또한 상기 데이터메모리는 본 발명의 실시예에 따른 캐릭터 데이터들을 저장하는 캐릭터메모리를 구비한다.The key input unit 121 includes keys for inputting numeric and character information and function keys for setting various functions. In addition, the key input unit 127 may include a key for generating a command for performing short-range communication with an external data terminal device according to an exemplary embodiment of the present invention. The memory 130 may include program memory and data memories. The program memory may store programs for controlling the general operation of the portable telephone and programs displaying overlay of character data according to an embodiment of the present invention. The data memory also includes a character memory for storing character data according to an embodiment of the present invention.

상기 캐릭터메모리는 캐릭터 구조를 저장하는 메모리(이하 캐릭터구조메모리라 칭한다) 및 이에 대응되는 캐릭터이미지데이타들을 저장하는 메모리(이하 캐릭터이미지메모리라 칭한다)들을 구비한다. 여기서 상기 캐릭터구조메모리는 캐릭터의 타입, 애니메이션 및 프레임의 구조들을 저장하며, 캐릭터이미지메모리는 캐릭터의 이미지들을 저장하고 있는 메모리이다. The character memory includes a memory for storing a character structure (hereinafter referred to as a character structure memory) and a memory for storing character image data corresponding thereto (hereinafter referred to as a character image memory). Here, the character structure memory stores types of characters, animations, and structures of frames, and the character image memory is a memory storing images of characters.

제어부110은 휴대단말기의 전반적인 동작을 제어하는 기능을 수행한다. 또한 상기 제어부110은 상기 데이터처리부120을 포함할 수도 있다. 따라서 음성 및 오디오신호를 처리하는 마이크 및 스피커는 상기 제어부110에 연결될 수 있으며, 또한 상기 데이터처리부120에 연결될 수도 있다. 상기 제어부110은 본 발명의 실시예에 따라 휴대단말기의 동작에 따라 설정된 캐릭터를 표시하며, 상기 캐릭터의 표시에 따른 아바타의 파라미터들을 갱신하는 동작을 수행한다. The controller 110 controls a general operation of the mobile terminal. In addition, the controller 110 may include the data processor 120. Therefore, a microphone and a speaker for processing voice and audio signals may be connected to the controller 110 or may be connected to the data processor 120. The controller 110 displays a character set according to the operation of the mobile terminal according to an embodiment of the present invention, and updates the parameters of the avatar according to the display of the character.

표시부140은 상기 제어부110의 제어하에 상기 휴대단말기의 동작에 따른 정보들을 표시하며, 필요시 상기 캐릭터를 연동시켜 표시한다. 여기서 상기 표시부140은 LCD를 사용할 수 있으며, 이런 경우 상기 표시부140은 LCD제어부(LCD controller), 영상데이타를 저장할 수 있는 메모리 및 LCD표시소자 등을 구비할 수 있다. 여기서 상기 LCD를 터치스크린(touch screen) 방식으로 구현하는 경우, 입력부로 동작할 수도 있다.The display unit 140 displays information according to the operation of the mobile terminal under the control of the controller 110, and displays the character in association with the character if necessary. In this case, the display unit 140 may use an LCD. In this case, the display unit 140 may include an LCD controller, a memory capable of storing image data, and an LCD display device. In this case, when the LCD is implemented using a touch screen method, the LCD may operate as an input unit.

상기와 같은 구성을 가지는 휴대단말기는 캐릭터 파일을 구비하며, 상기 캐릭터 파일은 상기 메모리113에 저장된다. 상기 캐릭터 파일의 구조는 도 2a와 같은 구성을 가진다. The portable terminal having the above configuration includes a character file, and the character file is stored in the memory 113. The structure of the character file has a configuration as shown in FIG. 2A.

상기 도 2a를 참조하면, 상기 캐릭터 파일은 헤더와 이미지들로 구성된다. 즉, 상기 헤더는 캐릭터헤더(character header)210, m개의 애니메이션헤더(animation header)231-23m, 상기 각 에니메이션 헤더 231-23m들에 대응되는 n개의 프레임헤더(frame header)251-25n들로 구성된다. 상기 캐릭터헤더210은 캐릭터의 타입 및 애니메이션 개수를 정의하는 정보 헤더로써, 애니메이션개수는 해당하는 캐릭터 타입에서 표현할 수 있는 캐릭터들의 수가 된다. 상기 애니메이션헤더231-23m은 애니메이션 종류 및 프레임 이미지 수를 정의하는 정보헤더로써, 프레임 이미지의 수가 1이면 단일 이미지(single image)이며 상기 프레임 이미지의 수가 적어도 두개이면 애니메이션으로 표현된다. 상기 프레임헤더251-25m은 애니메이션을 구성하는 프레임 정보와 프레임 이미지 수를 정의하는 정보헤더로써, 상기 대응되는 애니메이션헤더의 프레임 이미지수에 대응되는 수로 구성된다. 즉, 상기 애니메이션헤더의 수(m)는 상기 캐릭터헤더210의 애니메이션 수만큼 구비되며, 상기 프레임 헤더의 수(n)는 대응되는 애니메이션헤더의 수만큼 구비된다. 그리고 상기 캐릭터 이미지271-27m은 는 상기 애니메이션헤더의 수만큼 구비되면, 각각의 애니메이션헤더에 대응되는 캐릭터이미지는 대응되는 프레임헤더의 수에 대응된다.Referring to FIG. 2A, the character file is composed of a header and images. That is, the header is composed of a character header 210, m animation headers 231-23m, and n frame headers 251-25n corresponding to each of the animation headers 231-23m. do. The character header 210 is an information header that defines the type of the character and the number of animations. The number of animations is the number of characters that can be represented by the corresponding character type. The animation headers 231 to 23m are information headers that define the type of animation and the number of frame images. If the number of frame images is 1, the single header is a single image. The frame header 251-25m is an information header defining frame information constituting the animation and the number of frame images, and is composed of a number corresponding to the number of frame images of the corresponding animation header. That is, the number m of animation headers is provided as the number of animations of the character header 210, and the number n of the frame headers is provided as the number of corresponding animation headers. When the character images 271-27m are provided as many as the number of animation headers, the character image corresponding to each animation header corresponds to the number of corresponding frame headers.

도 2b는 상기 도 2a의 캐릭터헤더210의 구조를 도시하는 도면이며, 도 2c는 상기 도 2a의 애니메이션헤더231-23m의 구조를 도시하는 도면이고, 도 2d는 상기 도 2a의 프레임헤더251-25m의 구조를 도시하는 도면이다.FIG. 2B is a diagram showing the structure of the character header 210 of FIG. 2A, FIG. 2C is a diagram showing the structure of the animation header 231-23m of FIG. 2A, and FIG. 2D is a frame header 251-25m of FIG. 2A. It is a figure which shows the structure of.

상기 도 2b를 참조하면, 캐릭터헤더는 해당하는 캐릭터파일의 타입(type)211, 캐릭터타입211에 대한 정보(detailed information), 그리고 캐릭터타입211에 대한 애니메이션의 수215 등에 정보헤더(information header)이다. 상기 캐릭터헤더210은 캐릭터 타입211, 캐릭터 설명213 및 애니메이션카운터(animation counter)215로 이루어진다. 본 발명의 실시예에서는 상기한 바와 같이 상기 캐릭터타입211은 아바타타입(avatar type), 아바타하우스타입(avatar-house type), 아이템타입(item type), 배경화면타입(back-scenery type)으로 이루어진다고 가정한다. 상기 아바타타입(avatar type)은 아바타에 관한 메모리 영역임을 나타내며, 상기 아바타하우스타입(avatar-house type)은 아바타하우스에 관한 메모리영역임을 나타낸다. 여기서 상기 아바타하우스는 대기상태에서 표시되는 휴대단말기의 화면으로써, 배경화면 및 아이템들의 조합으로 이루어진다. 상기 아이템타입(item type)은 상기 아바타하우스에 사용될 수 있는 아이템에 대한 메모리영역임을 나타내며, 여기서 상기 아이템은 상기 아바타하우스에 포함된 아이템 및 포함되지 않은 아이템들을 모두 포함할 수 있다. 상기 배경화면타입(back-scenery type)은 아바타 하우스에 사용할 수 있는 배경화면에 관한 메모리 영역임을 나타내며, 상기 배경화면도 상기 아바타하우수스에 포함된 배경화면 및 포함되지 않은 배경화면들을 포함할 수 있다. Referring to FIG. 2B, the character header is an information header such as type 211 of the corresponding character file, detailed information about the character type 211, and the number of animations 215 for the character type 211. . The character header 210 includes a character type 211, a character description 213, and an animation counter 215. In the embodiment of the present invention, as described above, the character type 211 includes an avatar type, an avatar-house type, an item type, and a back-scenery type. Assume that The avatar type indicates a memory area for an avatar, and the avatar-house type indicates a memory area for an avatar house. Here, the avatar house is a screen of a mobile terminal displayed in a standby state, and is composed of a combination of a background screen and items. The item type represents a memory area for an item that can be used in the avatar house, and the item may include all items included in the avatar house and items not included in the avatar house. The back-scenery type indicates a memory area related to a background screen that can be used for the avatar house, and the background screen may include a background screen included in the avatar house and a background screen not included. .

상기 도 2c를 참조하면, 상기 애니메이션헤더231-23m은 애니메이션식별자(animation identifier, aniID)241, 시작인덱스(start index)243, 메시지정보 (message)245, 프레임카운터(frame counter, framecnt)247 등으로 이루어진다. 상기 애니메이션식별자(animation identifier, aniID)241에는 애니메이션으로 표시되는 이미지블록의 식별자가 저장될 수 있다. 상기 시작인덱스(start index)243은 프레임 이미지의 시작부분을 찾기 위한 주소가 저장될 수 있으며, 이미지 압축을 사용하지 않는 경우에는 상기 시작인덱스(start index)243은 사용되지 않을 수 있다. 상기 메시지정보(message)245 영역에는 애니니메이션 동작에 포함될 수 있는 텍스트 정보들이 저장될 수 있다. 상기 프레임카운터(frame counter, framecnt)247 영역에는 해당 애니메이션으로 표시될 수 있는 이미지 블록의 프레임 이미지 수(상기 프레임 헤더의 수)가 저장될 수 있다. 이때 여기서 상기 애니메이션으로 표시되는 이미지블록의 크기는 적어도 두개 이상의 프레임 이미지들로 구성될 수 있으며, 애니메이션으로 표시되지 않는 단일 이미지(프레임 이미지가 하나로 구성된 경우: non-aniation: just one-cut image)에는 상기 프레임카운터247에는 "1(즉, n=1)"이 저장된다.Referring to FIG. 2C, the animation headers 231 to 23m are animation identifiers (anini) 241, start indexes 243, message information 245, frame counters, framecnts 247, and the like. Is done. The animation identifier (aniID) 241 may store an identifier of an image block displayed as an animation. The start index 243 may store an address for finding the start of the frame image, and when the image compression is not used, the start index 243 may not be used. Text information that may be included in an animation operation may be stored in the message 245 area. The frame counter (framecnt) 247 region may store the number of frame images (the number of the frame headers) of the image blocks that can be displayed by the corresponding animation. In this case, the size of the image block displayed as the animation may be composed of at least two frame images, and a single image (frame image composed of one: non-aniation: just one-cut image) is not displayed as an animation. The frame counter 247 stores "1 (that is, n = 1)".

상기 도 2d를 참조하면, 상기 프레임헤더251-25m은 프레임 이미지가 표시되는 상기 휴대단말기의 표시부140의 위치 정보 및 표시간격(frame interval)의 정보들을 구비한다. 여기서 상기 PosX 261 및 PosY 263은 해당 이미지가 상기 표시부140에 표시될 시작위치(상대좌표) 정보이며, 폭(width) 265 및 높이(height) 267은 프레임 이미지의 크기를 나타내는 정보이다. 따라서 상기 PosX 261, PosY 263, 폭(width) 265 및 높이(height) 267에 의해 해당하는 프레임 이미지의 표시 위치가 결정된다. 또한 상기 표시간격269는 상기 프레임이미지가 두개 이상으로 구성되는 애니메이션 이미지인 경우에 다음 프레임 표시까지의 시간 간격을 나타내며, 마지막 프레임이미지의 프레임헤더인 경우에는 "0"이 저장된다. 또한 상기 이미지가 단일이미지인 경우에도 상기 표시간격269에는"0"이 저장된다. Referring to FIG. 2D, the frame header 251-25m includes position information and display interval information of the display unit 140 of the mobile terminal in which the frame image is displayed. In this case, the PosX 261 and PosY 263 are starting position (relative coordinate) information for displaying the corresponding image on the display unit 140, and width 265 and height 267 are information indicating the size of the frame image. Accordingly, the display position of the corresponding frame image is determined by the PosX 261, PosY 263, width 265, and height 267. In addition, the display interval 269 represents a time interval until the next frame display when the frame image is an animation image composed of two or more, and "0" is stored in the case of the frame header of the last frame image. In addition, even when the image is a single image, "0" is stored in the display interval 269.

상기 도 2d와 같은 구조를 가지는 상기 프레임헤더의 수는 상기한 바와 같이 각 애니메이션헤더231-23m의 프레임카운터247의 수에 의해 결정된다. 즉, 예를들면 애니메이션헤더231에 이미지블록을 구성하는 프레임이미지들의 수가 10이면 상기 프레임헤더251의 프레임헤더의 수는 10이 되며, 애니메이션헤더232의 이미지 블록을 구성하는 프레임이미지들의 수가 15이면 상기 프레임헤더252의 수는 15가 된다. 따라서 상기 프레임헤더251-25m의 수(n)은 해당하는 애니메이션헤더231-23m에 저장된 프레임카운터247의 값에 의해 결정된다.The number of the frame headers having the structure as shown in FIG. 2D is determined by the number of frame counters 247 of each of the animation headers 231 to 23m as described above. That is, for example, if the number of frame images constituting the image block is 10 in the animation header 231, the number of frame headers of the frame header 251 is 10, and if the number of frame images constituting the image block of the animation header 232 is 15 The number of frame headers 252 is 15. Accordingly, the number n of the frame headers 251-25m is determined by the value of the frame counter 247 stored in the corresponding animation header 231-23m.

본 발명의 실시예에서는 상기한 바와 같이 프레임헤더들이 각 애니메이션을 수행하는 이미지블록의 각 프레임이미지들에 대응되는 수로 구성되는 예로 설명되고 있다. 이런 프레임헤더들을 사용하는 경우 상기 표시부140에 이미지를 표시할 때 각 프레임이미지들의 위치를 변경하므로 애니메이션 동작을 표시한다. 그러나 상기 프레임이미지를 구성할 때 이미지의 위치를 미리 변경시켜 프레임이미지를 구성할 수 있다. 이런 방법으로 구성되는 프레임이미지는 상기 표시부140의 고정된 위치에 표시되지만, 상기 프레임이미지를 표시하는 영역내에서 이미지들의 표시위치가 가변되므로 역시 애니메이션 동작으로 표시할 수 있다. 따라서 캐릭터 이미지를 표시할 때 상기 프레임이미지의 구성은 상기 전자 및 후자의 방법을 모두 사용할 수 있다.In the embodiment of the present invention, as described above, the frame headers are described as an example in which the number of frame headers corresponding to the respective frame images of the image block that performs each animation. In the case of using such frame headers, when the image is displayed on the display unit 140, the position of each frame image is changed to display an animation operation. However, when composing the frame image, the frame image may be configured by changing the position of the image in advance. The frame image configured in this manner is displayed at a fixed position of the display unit 140, but since the display position of the images in the area displaying the frame image is variable, it can also be displayed by an animation operation. Therefore, when displaying the character image, the structure of the frame image may use both the former and latter methods.

도 3a -도 3d는 상기 도 2a - 도 2d와 같은 캐릭터 구조 파일에 대응되는 캐릭터 이미지의 예를 도시하고 있다. 도 3a는 아바타 이미지의 예로써, 하나의 애니메이션이며, 프레임 카운터 값은 7이 된다. 도 3b는 아이템 이미지의 예로써, 7개의 아이템 이미지들을 도시하고 있으며, 이때의 프레임 카운터 값은 1이 된다. 도 3c는 배경화면 이미지의 예로써, 프레임 카운터 값은 1이 된다. 도 3d는 아바타하우스 이미지의 일예로써, 구성은 아바타, 1개의 아이템 및 배경화면 이미지들로 구성된 예를 도시하고 있다.3A to 3D show examples of character images corresponding to character structure files as shown in FIGS. 2A to 2D. 3A is an example of an avatar image, which is one animation, and the frame counter value is seven. 3B illustrates seven item images as an example of an item image, and the frame counter value is 1 at this time. 3C is an example of a background image, and the frame counter value is one. 3D illustrates an example of an avatar house image. The configuration shows an example of an avatar, an item, and a background image.

이때 상기 도 3d와 같은 아바타하우스 이미지를 표시하는 경우, 배경화면 이미지에 상기 아바타 및 아이템 이미지들을 오버레이시켜 표시할 수 있다. 이런 경우 상기 배경화면이미지를 표시하는 영역에 표시되는 상기 아바타 및 아이템의 오버레이 표시영역은 상기 캐릭터파일의 헤더(여기서는 프레임헤더)에 의해 결정될 수 있다. 이때 상기 오버레이영역에 상기 아바타 및(또는) 아이템 이미지를 오버레이시키는 경우, 상기 아바타 및(또는) 아이템 이미지를 그대로 표시할 수 있으며, 또한 상기 배경화면의 이미지에 상기 아바타 및(또는) 아이템 이미지를 설정된 비율로 블랜딩(blending)시켜 표시할 수도 있다. 여기서 상기 배경화면 이미지와 같이 표시부140의 바탕화면이 되는 이미지를 바탕이미지라 칭하고, 상기 바탕이미지에 삽입되어 오버레이되는 이미지를 오버레이 이미지라 칭하기로 한다. In this case, when the avatar house image as shown in FIG. 3D is displayed, the avatar and item images may be overlaid on the background image. In this case, the overlay display area of the avatar and the item displayed in the area displaying the background screen image may be determined by a header (here, a frame header) of the character file. In this case, when the avatar and / or item images are overlaid on the overlay area, the avatar and / or item images may be displayed as they are, and the avatar and / or item images may be set on the background image. It may be displayed by blending in proportion. Here, the image that becomes the background of the display unit 140 as the background image is referred to as a background image, and the image inserted and overlaid on the background image is referred to as an overlay image.

또한 본 발명의 실시예에서는 상기 바탕이미지를 저장하는 버퍼(백버퍼)와 오버레이 이미지를 저장하는 버퍼(오버레이버퍼)를 구비하는 실시예 및 상기 아바타이미지를 저장하는 백버퍼에서 사이 오버레이 이미지를 오버레이시키는 실시예를 살펴보기로 한다.In addition, the embodiment of the present invention includes a buffer (back buffer) for storing the background image and a buffer (overlay buffer) for storing the overlay image, and overlaying the overlay image between the avatar buffer in the back buffer for storing the image. An embodiment will be described.

먼저 상기 백버퍼 및 오버레이버퍼를 사용하는 제1실시 예를 살펴본다.First, a first embodiment using the back buffer and the overlay buffer will be described.

상기 제1실시예에서 상기 제어부110은 상기 아바타 이미지를 표시하기 위하여 도 4와 같은 표시용 버퍼들을 구비한다.In the first embodiment, the control unit 110 includes display buffers as shown in FIG. 4 to display the avatar image.

상기 도 4를 참조하면, 상기 표시부140에 표시되는 표시데이타를 저장하기 위한 버퍼들은 백버퍼(back buffer)151, 오버레이버퍼(overlay buffer)153 및 표시버퍼(screen buffer)155로 구성된다. 여기서 상기 백버퍼151은 상기 표시부140에 표시되는 화면 표시용 데이터(바탕이미지)들을 저장하는 버퍼이며, 오버레이버퍼153은 상기 화면 표시용 데이터들과 오버레이되어 표시되는 이미지(오버레이 이미지)들을 저장하는 버퍼로써, 상기 표시부140에 설정되는 특정 영역에 표시위치가 설정된다. 표시버퍼155는 상기 백버퍼151의 데이터와 상기 오버레이버퍼153의 데이터를 오버레이시켜 상기 표시부140에 표시한다. 이하의 설명에서는 상기 오버레이 이미지가 아바타 이미지라고 가정한다. 여기서 상기 아바타 이미지는 상기 도 5a와 같이 이루어질 수 있으며, 각각의 아바타 이미지들은 각각 표시 위치(프레임헤더의 Pos X, Pos Y, Width, Height)가 결정되어 있으며, 따라서 상기 바탕이미지가 표시되는 화면 영역에서 오버레이되는 영역을 설정할 수 있다.Referring to FIG. 4, buffers for storing display data displayed on the display unit 140 include a back buffer 151, an overlay buffer 153, and a display buffer 155. Here, the back buffer 151 is a buffer for storing the screen display data (desktop image) displayed on the display unit 140, and the overlay buffer 153 is a buffer for storing the image (overlay image) that is overlaid with the screen display data As a result, a display position is set in a specific area set in the display unit 140. The display buffer 155 overlays the data of the back buffer 151 and the data of the overlay buffer 153 on the display unit 140. In the following description, it is assumed that the overlay image is an avatar image. Here, the avatar image may be formed as shown in FIG. 5A, and each avatar image has a display position (Pos X, Pos Y, Width, Height of the frame header) determined, and thus, a screen area in which the background image is displayed. You can set the overlaid area in.

상기 버퍼151, 153 및 155는 상기 제어부110의 내부메모리, 상기 메모리130의 데이터 메모리 영역, 또는 상기 표시부140의 표시메모리 영역에 위치될 수 있다. 본 발명의 제1실시예에서는 상기 버퍼151, 153, 155는 제어부110의 내부메모리에 위치되는 것으로 가정하여 설명한다.The buffers 151, 153, and 155 may be located in an internal memory of the controller 110, a data memory area of the memory 130, or a display memory area of the display unit 140. In the first embodiment of the present invention, it is assumed that the buffers 151, 153, and 155 are located in the internal memory of the controller 110.

상기 도 2에서 오버레이버퍼153은 아바타 이미지가 저장되는 표시영역 및 아바타 이미지가 존재하지 않는 투명영역으로 구성된다. 이때 상기 표시영역의 아바타 이미지는 상기 백버퍼151에 저장된 표시데이타와 오버레이되어 표시되며, 투명영역은 상기 백버퍼151에 저장된 표시데이타가 오버레이없이 그대로 표시된다. 또한 상기 오버레이버퍼153의 크기 및 위치는 사용자에 의해 가변될 수 있다. 이때 상기 오버레이버퍼153의 크기 및 위치는 메뉴를 이용하여 설정할 수 있으며, 또한 커서를 이용하여 설정할 수 있다. In FIG. 2, the overlay buffer 153 includes a display area in which the avatar image is stored and a transparent area in which the avatar image does not exist. In this case, the avatar image of the display area is overlaid with the display data stored in the back buffer 151, and the display area stored in the back buffer 151 is displayed as it is without overlay. In addition, the size and position of the overlay buffer 153 may be changed by the user. In this case, the size and position of the overlay buffer 153 may be set using a menu, and may be set using a cursor.

상기 제어부110은 상기 표시부140의 화면에 표시하기 위한 바탕화면 데이터를 상기 백버퍼151에 저장하며, 상기 화면 데이터에 오버레이 표시하기 위한 아바타 이미지는 상기 오버레이버퍼153에 저장한다. 그러면 상기 백버퍼151 및 오버레이버퍼153에 저장된 표시데이타는 상기 도 4에 도시된 바와 같이 스크린버퍼155에서 오버레이되어 표시부140에 표시된다. The controller 110 stores the background data for displaying on the screen of the display unit 140 in the back buffer 151, and stores the avatar image for overlay display on the screen data in the overlay buffer 153. Then, the display data stored in the back buffer 151 and the overlay buffer 153 are overlaid on the screen buffer 155 and displayed on the display unit 140 as shown in FIG. 4.

이때 상기 오버레이버퍼153의 크기 및 위치는 사용자의 지정에 따라 가변할 수 있다. 즉, 사용자가 오버레이버퍼153의 위치 변경을 요구하면, 상기 제어부110은 사용자의 지정에 따라 상기 오버레이버퍼153의 위치를 상하좌우로 이동시킨다. 또한 상기 사용자가 오버레이버퍼153의 크기 변경을 요구하면, 상기 제어부110으 사용자의 지정에 따라 상기 오버레이버퍼153의 크기를 확대 또는 축소할 수 있다. 따라서 상기 표시부140의 화면에 표시되는 아바타이미지는 사용자의 위치 지정에 따라 화면의 특정 영역으로 이동할 수 있으며, 또한 상기 사용자의 크기 변경에 따라 상기 표시부140의 화면에 표시되는 아바타 이미지의 크기를 가변시킬 수 있다.In this case, the size and position of the overlay buffer 153 may vary according to a user's designation. That is, when the user requests the position change of the overlay buffer 153, the controller 110 moves the position of the overlay buffer 153 up, down, left, and right according to a user's designation. In addition, when the user requests to change the size of the overlay buffer 153, the controller 110 can enlarge or reduce the size of the overlay buffer 153 according to the user's designation. Accordingly, the avatar image displayed on the screen of the display unit 140 may move to a specific area of the screen according to the user's position designation, and the size of the avatar image displayed on the screen of the display unit 140 may be changed according to the user's size change. Can be.

도 5는 본 발명의 실시에에 따라 휴대단말기에서 표시 화면에 아바타 이미지를 오버레이시켜 표시하는 절차를 도시하는 도면이다.5 is a diagram illustrating a procedure of overlaying and displaying an avatar image on a display screen in a mobile terminal according to an embodiment of the present invention.

상기 도 5를 참조하면, 먼저 사용자가 휴대단말기를 동작시키면, 상기 제어부110은 311단계에서 표시모드를 수행한다. 이때 상기 표시모드에서 사용자가 아바타 표시모드를 선택하면, 상기 제어부110은 313단계에서 아바타 표시모드임을 감지하고, 상기 표시부140의 바탕화면 데이터를 상기 백버퍼151에 버퍼링하고 표시하고자 하는 아바타 이미지를 오버레이버퍼153에 저장한다. 이때 상기 휴대단말기는 복수의 아바타들을 구비할 수 있으며, 각 아바타의 구조는 상기 도 2a - 도 2d와 같은 구조를 가진다. 그리고 상기 아바타는 사용자에 의해 선택될 수 있으며, 아바타 표시모드의 경우에 휴대단말기의 상태 또는 사용자의 선택에 의해 상기 도 2c와 같은 구조를 가지는 특정 애니메이션 헤더의 아바타 이미지가 표시될 수 있다. 그리고 특정 애니메이션 헤더에 대응되는 아바타이미지들은 도 2a와 같은 구조로 메모리130의 캐릭터이미지 저장 영역에 저장되어 있으며, 이때 아바타 이미지의 프레임수는 상기 아바타 애니메이션헤더의 프레임카운터(Frame] Cnt)에 의해 알 수 있으며, 각 프레임 이미지들의 위치는 대응되는 상기 도 2d와 같은 프레임헤더들에 의해 알 수 있다. 즉, 하나의 애니메이션 헤더에 대응되는 아바타이미지의 프레임수는 다수개로 이루어져 연속되는 동작으로 아바타의 프레임 이미지들이 표시된다. Referring to FIG. 5, when the user operates the portable terminal, the controller 110 performs a display mode in step 311. If the user selects the avatar display mode in the display mode, the controller 110 detects the avatar display mode in step 313, buffers the background data of the display unit 140 in the back buffer 151 and overlays the avatar image to be displayed. Store in buffer 153. In this case, the mobile terminal may include a plurality of avatars, and each avatar has a structure as shown in FIGS. 2A to 2D. The avatar may be selected by the user, and in the avatar display mode, the avatar image of the specific animation header having the structure as shown in FIG. 2C may be displayed by the state of the mobile terminal or the user's selection. The avatar images corresponding to the specific animation header are stored in the character image storage area of the memory 130 as shown in FIG. 2A, and the number of frames of the avatar images is determined by the frame counter of the avatar animation header. The position of each frame image may be known by corresponding frame headers of FIG. 2D. That is, the number of frames of the avatar image corresponding to one animation header is plural, and the frame images of the avatars are displayed in a continuous operation.

따라서 상기 제어부110은 상기 표시 데이터를 프레임 단위로 처리한다. 본 발명의 제1실시예에서는 상기한 바와 같이 상기 백버퍼151, 오버레이버퍼153 및 스크린버퍼155가 제어부110의 내부메모리에 위치된다고 가정한다. 이런 경우 상기 제 어부110은 프레임 크기단위로 화면표시데이타 및 아바타이미지 데이터들을 버퍼링하며, 상기 버퍼링된 데이터들을 픽셀 단위로 오버레이시켜 상기 스크린버퍼153에 출력하여 표시하게 된다. 한다. 여기서는 픽셀단위로 버퍼링된 데이터들을 오버레이시키는 것으로 설명되지만, 라인단위 또는 프레임 단위로 오버레이시킬 수 있다. 또한 상기 백버퍼151의 크기는 상기 스크린버퍼155의 크기와 동일하게 도는 더 크게 설정할 수 있으며, 상기 스크린버퍼155의 크기는 상기 표시부140의 화면크기와 동일할 수 있다. Therefore, the controller 110 processes the display data in units of frames. In the first embodiment of the present invention, it is assumed that the back buffer 151, the overlay buffer 153 and the screen buffer 155 are located in the internal memory of the controller 110 as described above. In this case, the control unit 110 buffers the screen display data and the avatar image data in frame size units, and overlays the buffered data in pixel units and outputs them to the screen buffer 153 for display. do. Although it is described here as overlaying the buffered data in pixel units, it may be overlayed in line units or frame units. In addition, the size of the back buffer 151 may be set to be the same as or larger than the size of the screen buffer 155, the size of the screen buffer 155 may be the same as the screen size of the display unit 140.

이때 상기 313단계에서 아바타 표시모드임을 감지하면, 상기 제어부110은 315단계에서 백버퍼151에 상기 표시부140의 화면에 표시할 화면표시 정보들을 버퍼링하고, 오버레이버퍼153에 상기 첫 번째 프레임의 아바타 이미지를 버퍼링한다. 그리고 상기 제어부110은 317단계에서 첫 번째 화소를 선택한 후 319단계에서 상기 오버레이버퍼 영역의 화소인가 검사한다. 이때 오버레이버퍼153의 화소가 아니면 상기 제어부110은 325단계에서 상기 백버퍼151의 화소 데이터를 선택하여 스크린버퍼155에 저장한다. In this case, if it detects the avatar display mode in step 313, the controller 110 buffers the screen display information to be displayed on the screen of the display unit 140 in the back buffer 151 in step 315, and displays the avatar image of the first frame in the overlay buffer 153. Buffer The controller 110 selects the first pixel in step 317 and checks whether the pixel is in the overlay buffer region in step 319. In this case, if it is not the pixel of the overlay buffer 153, the controller 110 selects the pixel data of the back buffer 151 and stores it in the screen buffer 155 in step 325.

그러나 상기 화소가 오버레이표시영역에 위치된 경우, 상기 제어부110은 319단계에서 이를 감지하고 321단계에서 오버레이 영역의 투명영역에 위치되는 화소인가를 검사한다. 이때 상기 오버레이 영역의 투명영역은 상기 오버레이버퍼153의 해당 화소위치에 아바타 이미지가 없는 경우이다. 이런 경우 상기 제어부110은 325단계로 진행하여 상기 백버퍼151에 저장된 화소를 상기 스크린버퍼155에 저장한다. 즉, 오버레이 영역이지만 표시할 실제 데이터가 없으므로 화면 표시 데이터를 표시 한다. 또한 상기 제어부110은 상기 아바타 이미지의 표시를 선명하게 하기 위하여 상기 투명영역인 경우에는 상기 표시부140에 투명 영역으로 표시할 수도 있다. 즉, 아바타 이미지가 표시되는 윤곽을 명확하게 하여 상기 아바타의 동작을 선명하게 표시할 수도 있다.However, when the pixel is located in the overlay display area, the controller 110 detects it in step 319 and checks whether the pixel is located in the transparent area of the overlay area in step 321. In this case, the transparent area of the overlay area is when there is no avatar image at the corresponding pixel position of the overlay buffer 153. In this case, the controller 110 proceeds to step 325 and stores the pixels stored in the back buffer 151 in the screen buffer 155. That is, the screen display data is displayed because there is no overlay data but actual data to display. In addition, the controller 110 may display the transparent area on the display unit 140 in order to sharpen the display of the avatar image. In other words, the outline of the avatar image is clearly displayed to clearly display the operation of the avatar.

또한 상기 화소 위치가 오버레이 표시영역이고, 상기 오버레이 표시영역 내의 투명영역이 아닌 경우, 이는 실제 아바타 이미지가 있는 오버레이 표시영역이다. 이런 경우 상기 제어부110은 319단계 및 321단계를 통해 이를 감지하고, 323단계에서 상기 스크린버퍼155에 상기 오버레이버퍼153의 화소데이타를 저장하여 오버레이 기능을 수행한다. 이때 상기 오버레이 방법은 상기 백버퍼151에 저장된 화면표시 화소 대신에 상기 오버레이버퍼153의 아바타이미지를 저장할 수 있다. 이런 경우 아바타 이미지의 색상 자체가 표시된다. 그러나 상기 백버퍼151의 화면 표시 화소 데이터와 상기 오버레이버퍼153의 아바타 이미지 화소 데이터의 평균값 또는 상기 아바타 이미지 화소에 가중치를 둔 평균값을 취하여 상기 스크린버퍼155에 저장할 수도 있다. 이런 경우 상기 화면 표시 데이터에 상기 아바타 이미지가 오버레이되어 표시된다.Also, when the pixel position is an overlay display area and is not a transparent area in the overlay display area, this is an overlay display area in which an actual avatar image is located. In this case, the controller 110 detects this through steps 319 and 321, and stores the pixel data of the overlay buffer 153 in the screen buffer 155 to perform an overlay function in step 323. In this case, the overlay method may store the avatar image of the overlay buffer 153 instead of the screen display pixels stored in the back buffer 151. In this case, the color of the avatar image itself is displayed. However, the average value of the screen display pixel data of the back buffer 151 and the avatar image pixel data of the overlay buffer 153 or the weighted average value of the avatar image pixel may be taken and stored in the screen buffer 155. In this case, the avatar image is overlaid on the screen display data.

이후 다음 화소를 선택한 후, 화소 위치가 상기 표시부140의 화면 표시범위 내의 화소인가 검사한다. 즉, 상기 제어부110에서 처리되는 표시데이타가 상기 표시부140의 크기를 벗어날 수 있다. 따라서 상기 제어부110은 상기 표시부140의 화면의 범위 내의 화소인가를 검사하여 벗어나면 한 프레임의 표시가 종료된 것으로 인지한다. 따라서 화면 범위 내의 화소이면 상기 제어부110은 329단계에서 이를 감 지하고 상기 319단계로 진행하여 상기와 같은 동작을 반복한다. 상기 319단계 - 327단계를 반복 수행하면 상기 스크린버퍼155에는 상기 백버퍼151의 화소들과 상기 오버레이버퍼153의1 프레임에 대한 화소들이 오버레이되어 저장된다. 그리고 상기 스크린버퍼155에 저장된 화소들은 라인단위로 상기 표시부140에 전달되어 표시된다.Then, after selecting the next pixel, it is checked whether the pixel position is a pixel within the screen display range of the display unit 140. That is, the display data processed by the controller 110 may be out of the size of the display unit 140. Accordingly, the controller 110 determines whether the display of one frame is finished when the controller 110 checks whether the pixel is within the range of the screen of the display unit 140. Therefore, if the pixel is within the screen range, the controller 110 detects it in step 329 and proceeds to step 319 to repeat the above operation. When the steps 319 to 327 are repeated, the screen buffer 155 is overlaid with the pixels of the back buffer 151 and the pixels of one frame of the overlay buffer 153. The pixels stored in the screen buffer 155 are transferred to and displayed on the display unit 140 in line units.

상기한 바와 같이, 상기 제어부110은 먼저 현재의 화소 위치가 아바타 표시영역 내의 화소인가를 판별하하고, 표시 영역의 범위이면 해당 화소에 대한 아바타의 표시 정보가 투명 영역 내의 화소인가를 판단한다. 이때 상기 아바타 표시영역은 상기 제어부110이 아바타 이미지를 표시하는 표시영역의 시작점을 가지고 있음으로서 처리를 한다. 이때 상기 아바타 표시영역의 투명영역이 아닐 경우 즉 비트맵 정보를 가지고 있을 경우에는 두 가지 방법으로 아바타 이미지를 표현할 수 있다. 그 한 가지 방법은 아바타 이미지의 화소를 그대로 출력하는 방법이며, 다른 한 가지 방법은 두 영역의 화소의 평균값을 구하여 출력하는 방법이다. 이때 상기 후자의 평균값은 출력의 한 방법으로 인식될 수 있으며, 흐리기 효과 (Blur) 등 다른 형태의 이미지 처리 과정을 거칠 수도 있다. 한편, 아바타 표시영역이 아니거나 투명 영역인 경우에는 상기와 마찬가지로 화면 표시데이타(즉, 배경 이미지)를 출력한다.As described above, the controller 110 first determines whether the current pixel position is a pixel in the avatar display area, and if the display area is in the range of the display area, determines whether the display information of the avatar for the pixel is a pixel in the transparent area. In this case, the avatar display area is processed by having the start point of the display area in which the controller 110 displays the avatar image. In this case, when the avatar display area is not the transparent area, that is, when the bitmap information is included, the avatar image may be expressed in two ways. One method is to output the pixels of the avatar image as it is. The other method is to calculate and output the average value of the pixels of the two regions. In this case, the latter average value may be recognized as a method of output, and may be subjected to other forms of image processing such as a blur effect. On the other hand, if it is not the avatar display area or the transparent area, the screen display data (ie, the background image) is output as described above.

그리고 상기 1프레임의 화면 및 아바타 이미지들의 오버레이 동작이 종료되면, 상기 제어부110은 상기 329단계에서 이를 감지하고, 231단계에서 현재 처리한 프레임이 마지막 아바타 이미지 프레임인가 검사하며, 아니면 333단계로 진행하여 다음 프레임의 화면 및 아바타 이미지를 선택한 후, 315단계에서 상기 백버퍼151 및 오버레이버퍼153에 버퍼링하면서 상기와 같은 동작을 반복 수행한다. 그리고 상기와 같은 동작은 상기 애니메이션 구별자의 마지막 프레임의 아바타 이미지까지 처리된 후 종료한다. When the overlay operation of the screen and avatar images of the first frame is finished, the controller 110 detects this in step 329, checks whether the currently processed frame is the last avatar image frame in step 231, or proceeds to step 333. After the screen and the avatar image of the next frame are selected, the above operation is repeated while buffering the back buffer 151 and the overlay buffer 153 in step 315. The above operation is terminated after processing up to the avatar image of the last frame of the animation discriminator.

상기한 바와 같이 오버레이 표시모드이면 상기 제어부110은 상기 백버퍼151의 바탕 화면 이미지 및 오버레이버퍼153의 오버레이 이미지를 스크린버퍼155에 오버레이시켜 저장하며, 상기 제어부110은 상기 스크린버퍼155에 저장된 오버레이 이미지를 표시부140에 표시한다. 오버레이 표시모드시 상기 백버퍼151 및 오버레이버퍼153에 버퍼링되는 이미지들은 프레임 단위로 처리된다. 그리고 처리하여야 할 이미지가 이전에 처리된 프레임 이미지와 동일한 경우에는 해당 버퍼의 내용을 그대로 유지한다. 즉, 상기 오버레이 이미지를 저장하는 오버레이버퍼153은 프레임단위로 오버레이 이미지가 변경될 수 있으므로 (즉, 오버레이되는 이미지가 아바타 이미지와 같은 애니메이션 이미지인 경우 프레임 단위로 오버레이 이미지가 변경되며, 하나의 프레임 이미지로 구성되는 아이템과 같은 경우에는 오버레이 이미지가 고정되어 프레임 간격으로 변경되지 않는다.) 상기 도 5의 317단계에서 버퍼링 동작을 수행하지만, 백버퍼151의 경우에는 프레임 단위로 바탕화면 이미지가 바뀌지 않을 수 있으며, 이런 경우 상기 제어부110은 315단계에서 이전에 백버퍼151에 버퍼링하고 있는 바탕화면 이미지를 그대로 유지시킨다.In the overlay display mode as described above, the controller 110 overlays and stores the desktop image of the back buffer 151 and the overlay image of the overlay buffer 153 on the screen buffer 155, and the controller 110 stores the overlay image stored in the screen buffer 155. Displayed on the display unit 140. In the overlay display mode, the images buffered in the back buffer 151 and the overlay buffer 153 are processed in units of frames. If the image to be processed is the same as the previously processed frame image, the contents of the buffer are maintained as it is. That is, in the overlay buffer 153 storing the overlay image, the overlay image may be changed in units of frames (that is, when the overlay image is an animated image such as an avatar image, the overlay image is changed in units of frames, and one frame image is changed. In the case of an item consisting of an overlay image, the overlay image is fixed and does not change at the frame interval. In step 317 of FIG. 5, the buffering operation is performed. However, in the case of the back buffer 151, the desktop image may not be changed in units of frames. In this case, the controller 110 maintains the background image previously buffered in the back buffer 151 in step 315.

또한 상기 백버퍼151은 스크린버퍼155에 동일한 크기를 가질 수 있으며, 따라서 상기 백버퍼151에 저장되는 이미지는 상기 표시부140에 표시되는 가로 및 세 로 방향의 바탕화면범위가 될 수 있다. 그리고 상기 오버레이버퍼153에 버퍼링되는 오버레이 이미지는 상기 백버퍼151의 이미지와 오버레이되어 스크린버퍼155에 저장된다. 이때 상기 스크린버퍼155의 시작점은 상기 백버퍼151의 바탕화면이미지의 시작점이 되며, 미리 설정된 특정 위치에서 오버레이 표시영역의 시작점이 된다. 그리고 상기 오버레이 표시영역의 시작점에서 종료 점 사이의 특정 위치에서 오버레이 영역이 설정된다. In addition, the back buffer 151 may have the same size as the screen buffer 155, so that the image stored in the back buffer 151 may be the background range of the horizontal and vertical directions displayed on the display unit 140. The overlay image buffered in the overlay buffer 153 is overlaid with the image of the back buffer 151 and stored in the screen buffer 155. At this time, the start point of the screen buffer 155 is the start point of the background image of the back buffer 151, and the start point of the overlay display area at a predetermined position. An overlay area is set at a specific position between a start point and an end point of the overlay display area.

이때 상기 바탕화면 이미지에 상기 오버레이 이미지를 오버레이시켜 표시부140에 표시하기 위하여, 먼저 상기한 바와 같이 상기 백버퍼151에 바탕화면 이미지를 버퍼링하고 상기 오버레이버퍼153에 오버레이 이미지를 버퍼링한다. 이후 상기 제어부110은 표시부140의 바탕화면범위의 시작점에서 시작하여 마지막 점 까지 상기 백버퍼151 및 오버레이버퍼153의 이미지 화소들을 오버레이시켜 스크린버퍼155에 버퍼링시킨다. 이때 상기 바탕화면 이미지의 시작점에서 상기 오버레이 표시영역의 시작점까지는 오버레이 표시영역이 아니므로 상기 백버퍼151에 저장된 바탕화면 이미지 화소들이 버퍼링되며, 오버레이 표시영역 외의 표시영역에서도 상기 바탕화면이미지 화소들이 버퍼링된다. 그리고 상기 오버레이 표시영역 내에서도 투명영역(즉, 오버레이 영역 내에서 오버레이 표시할 실제 이미지가 존재하지 않는 영역)에는 상기 바탕화면이미지들의 화소들이 버퍼링되며, 상기 오버레이 표시영역 내에서만 오버레이 이미지 화소들이 버퍼링된다. 이때 상기 오버레이 표시영역에 버퍼링되는 화소는 상기 오버레이 이미지 화소들이 될 수 있으며, 또한 상기 바탕화면이미지 및 오버레이 이미지 화소의 평균값이 될 수 있다. 또한 상기 오버레이 영역의 투명영역은 상기한 바와 같이 바탕화면이미지 화소들 대신에서 오버레이 이미지의 투명영역의 화소들로 버퍼링할 수도 있다.In this case, in order to overlay the overlay image on the desktop image and display it on the display unit 140, as described above, the desktop image is buffered in the back buffer 151 and the overlay image is buffered in the overlay buffer 153. Thereafter, the controller 110 overlays the image pixels of the back buffer 151 and the overlay buffer 153 and buffers the screen buffers 155 starting from the start point of the background screen range of the display unit 140 to the last point. In this case, the desktop image pixels stored in the back buffer 151 are buffered since the starting point of the desktop image is not an overlay display area, and the desktop image pixels are buffered in the display area other than the overlay display area. . The pixels of the background images are buffered in the transparent area (that is, the area in which no actual image to be displayed in the overlay area exists) in the overlay display area, and the overlay image pixels are buffered only in the overlay display area. In this case, the pixels buffered in the overlay display area may be the overlay image pixels, and may be an average value of the background image and the overlay image pixels. In addition, the transparent area of the overlay area may be buffered with pixels of the transparent area of the overlay image instead of the background image pixels as described above.

상기와 같이 백버퍼151의 바탕화면이미지 및 상기 오버레이버퍼153의 오버레이 이미지들의 화소들을 상기 스크린버퍼155에 저장하면서 상기 화면표시범위 내의 화소들을 모두 버퍼링하면, 상기 제어부110은 1프레임의 화면 및 아바타이미지의 오버레이 동작을 종료하게 된다. 그리고 상기와 같은 두 이미지들의 오버레이 동작을 프레임 단위로 반복 수행하게 되며, 상기와 같이 오버레이 처리된 스크린버퍼155의 이미지들을 표시부140에 표시하게 된다. As described above, when all the pixels of the background image of the back buffer 151 and the overlay images of the overlay buffer 153 are stored in the screen buffer 155 and all the pixels within the screen display range are buffered, the controller 110 displays the screen and avatar images of one frame. This will terminate the overlay operation. In addition, the overlay operation of the two images as described above is repeatedly performed in units of frames, and the images of the screen buffer 155 overlaid as described above are displayed on the display unit 140.

상기 도 5와 같은 절차로 아바타 이미지를 오버레이 표시할 수 있다. 이때 상기 도 5는 상기 오버레이 이미지인 아바타 이미지가 상기 표시부140 내의 특정 위치에 고정되어 표시된다. 그러나 휴대단말기에서 상기 표시부140에 표시되는 아바타 이미지는 그 표시 위치를 가변할 수 있으며, 또한 상기 표시되는 아바타 이미지의 크기를 가변시킬 수도 있다. 도 6은 휴대단말기에서 표시부140에 표시되는 아바타 이미지의 크기 및 이미지를 가변시켜 표시하는 절차를 도시하는 흐름도이다.The avatar image may be overlaid by the procedure as shown in FIG. 5. 5 illustrates that the avatar image, which is the overlay image, is fixed at a specific position in the display unit 140. However, the avatar image displayed on the display unit 140 of the mobile terminal may change its display position and may also change the size of the displayed avatar image. 6 is a flowchart illustrating a procedure of varying and displaying the size and image of an avatar image displayed on the display unit 140 in the mobile terminal.

상기 도 6을 참조하면, 휴대단말기에서 표시모드가 수행되면, 상기 제어부110은 411단계에서 이를 감지하고, 413단계에서 오버레이 표시모드인가를 검사한다. 이때 오버레이 표시모드가 아니면 상기 제어부110은 421단계에서 이를 감지하고 일반 표시모드를 수행한다. 여기서 상기 일반표시모드는 휴대단말기가 휴대단말기의 동작 중에 발생되는 표시 정보를 상기 표시부140에 표시하는 동작을 의미한다.Referring to FIG. 6, when the display mode is performed in the portable terminal, the controller 110 detects this in step 411 and checks whether the display mode is in the overlay display mode in step 413. If it is not the overlay display mode, the controller 110 detects this in step 421 and performs the normal display mode. The general display mode refers to an operation of displaying, by the portable terminal, display information generated during the operation of the portable terminal on the display unit 140.

이때 상기 오버레이표시모드를 수행하는 상태에서 아바타 표시위치의 변경 요구가 발생되면, 상기 제어부110은 417단계에서 이를 감지하고, 419단계에서 상기 아바타 이미지의 표시 위치를 변경하는 절차를 수행한다. 도 8은 상기 도 6의 419단계에서 아바타 이미지의 표시 위치를 변경하는 절차를 도시하는 흐름도이다. In this case, when a change request of the avatar display position is generated while the overlay display mode is performed, the controller 110 detects this in step 417 and performs a procedure of changing the display position of the avatar image in step 419. FIG. 8 is a flowchart illustrating a procedure of changing a display position of an avatar image in step 419 of FIG. 6.

상기 도 8을 참조하면, 상기 제어부110은 아바타 이미지의 표시 위치 변경이 요구되면, 이를 감지하고 표시부140 상의 변경 위치정보의 수신을 대기한다. 이때 상기 아바타 이미지의 표시 위치를 변경하기 위한 정보는 스타일러스 펜(stylus pen)이나 방향키 등을 이용하여 입력할 수 있다. 상기 위치정보가 입력되면, 상기 제어부110은 511단계에서 이를 인지하고, 513단계에서 입력되는 위치정보를 획득한 후, 515단계에서 기본 출력 위치에서 상기 입력된 위치정보의 오프셋 값을 구한 후, 상기 기본출력 위치에 상기 오프셋 정보를 추가한다. 여기서 기본 출력위치라 함은 위치변경을 하지 않은 경우에 아바타 이미지가 표시되는 상기 표시부140의 위치를 의미한다. 이후 상기 제어부110은 517단계에서 상기 오프셋 정보가 추가된 상기 아바타의 표시 변경 위치를 상기 표시부140 상에 표시하며, 사용자의 설정을 대기한다. 이때 사용자가 상기 설정키를 입력하면, 상기 제어부110은 519단계에서 이를 감지하고 상기 오프셋 정보가 추가된 상기 아바타 이미지의 표시위치를 저장한 후 리턴한다. Referring to FIG. 8, when a display position change of the avatar image is requested, the controller 110 senses this and waits for reception of the change position information on the display unit 140. In this case, information for changing the display position of the avatar image may be input using a stylus pen or a direction key. When the location information is input, the controller 110 recognizes it in step 511, obtains the location information input in step 513, obtains an offset value of the input location information at a basic output location in step 515, and then Add the offset information to the default output position. Here, the default output position means the position of the display unit 140 on which the avatar image is displayed when the position is not changed. In step 517, the controller 110 displays a display change position of the avatar to which the offset information is added, on the display unit 140, and waits for a user's setting. In this case, when the user inputs the setting key, the control unit 110 detects this in step 519 and stores and returns the display position of the avatar image to which the offset information is added.

상기와 같이 아바타 이미지의 표시위치 변경은 상기 제어부110이 가지고 있는 기본출력위치에 그대로 출력하게 되는지, 아니면 사용자가 표시위치를 변경하는지에 대한 판단을 한 후, 기본 출력 위치가 아닌 경우에는 사용자가 이동한 값을 읽어와서 위치 변환 정보를 획득한다. 그리고 상기 아바타 이미지의 기본 출력 위치에 상기 획득된 위치 변환정보에 따른 오프셋 정보를 추가하고, 이에 변환된 데이터를 오버레이 화면 출력에 사용한다.As described above, the change of the display position of the avatar image is outputted as it is to the basic output position of the controller 110 or after the user determines whether the display position is changed. Read a value to get position conversion information. The offset information according to the acquired position conversion information is added to the basic output position of the avatar image, and the converted data is used for outputting the overlay screen.

또한 상기 표시모드를 수행하는 상태에서 사용자가 아바타 이미지의 크기 변경을 요구하면, 상기 제어부110은 도 6의 421단계에서 이를 인지하고, 423단계에서 상기 아바타 이미지의 표시 크기를 변경하는 절차를 수행한다. 도 9는 상기 도 6의 423단계에서 상기 아바타 이미지의 표시 크기를 변경하는 절차를 도시하는 흐름도이다. In addition, when the user requests to change the size of the avatar image in the display mode, the controller 110 recognizes this in step 421 of FIG. 6 and performs a procedure of changing the display size of the avatar image in step 423. . FIG. 9 is a flowchart illustrating a procedure of changing the display size of the avatar image in step 423 of FIG. 6.

상기 도 9를 참조하면, 상기 아바타 크기 변경이 요구되면 상기 제어부110은 551단계에서 기본으로 설정된 아바타 이미지를 억세스하여 상기 표시부140에 표시하며, 사용자의 크기 조정을 위한 입력을 대기한다. 이때 상기 아바타 이미지의 크기 변경 요구도 사용자가 상기 스타일러스 펜 이나 방향키 또는 숫자키를 이용하여 입력할 수 있다. 이때 상기 아바타 이미지의 크기 조절은 확대 또는 축소가 될 수 있다. 이때 확대 요구이면 상기 제어부110은 553단계에서 이를 감지하고 상기 표시되는 아바타 이미지를 요구된 크기로 확대하며, 축소 요구이면 상기 제어부110은 557단계에서 이를 감지하고 559단계에서 상기 표시되는 아바타 이미지를 요구된 크기로 축소한다. 이후 사용자가 설정키를 입력하면, 상기 제어부110은 561단계에서 이를 감지하고 563단계에서 상기 크기가 조정된 아바타 이미지의 사이즈를 저장한다.Referring to FIG. 9, when the avatar size change is requested, the controller 110 accesses the avatar image set as a default in step 551 and displays the avatar image on the display unit 140, and waits for an input for adjusting the size of the user. In this case, the size change request of the avatar image may be input by the user using the stylus pen, a direction key, or a numeric key. In this case, the size adjustment of the avatar image may be enlarged or reduced. In this case, the controller 110 detects this in step 553 and magnifies the displayed avatar image to the required size. If the user requests to zoom out, the controller 110 detects it in step 557 and requests the displayed avatar image in step 559. To the size it was created. When the user inputs a setting key, the controller 110 detects this in step 561 and stores the size of the avatar image whose size is adjusted in step 563.

상기한 바와 같이 상기 아바타 이미지(즉, 오버레이 이미지)의 크기 변경과 관련한 명령이 발생되면, 상기 제어부110은 아바타의 이미지를 로드하여 표시한 후 크기 조절값을 수신한다. 이때 상기 아바타 이미지의 크기 조절값은 실제 사용자가 숫자로서 지정을 할 수도 있으며 스타일러스 펜등을 이용한 입력으로서 인식이 될 수도 있다. 이 때의 크기 조절 값이 확대일 경우에는 확대 이미지 변환 과정을 수행하며, 축소일 경우에는 축소 이미지 변환 과정을 수행한다. 상기 두 과정은 기본적으로 평균값을 이용한 픽셀의 비트맵의 변환 및 좌표의 확장이라는 구조를 가지고 있으나, 수학적 모델로서 확대의 경우에는 외분점을 가지고 계산을 하게 되며 축소 이미지의 경우에는 내분점을 가지고 계산한다는 차이가 있을 수 있다. 이렇게 변환된 아바타 이미지의 크기 정보는 제어부110에서 아바타 이미지를 출력할 때의 면 크기 값으로 사용한다.As described above, when a command related to the size change of the avatar image (ie, the overlay image) is generated, the controller 110 loads and displays an image of the avatar and receives a size adjustment value. In this case, the size adjustment value of the avatar image may be designated by the actual user as a number or may be recognized as an input using a stylus pen. In this case, when the scaling value is enlarged, the enlarged image conversion process is performed, and when the scaled value is reduced, the reduced image conversion process is performed. The two processes basically have the structure of transforming the bitmap of the pixel using the average value and extending the coordinates, but as a mathematical model, the calculation is performed with an external point in the case of magnification and the end point in the case of a reduced image. There can be. The converted avatar image size information is used as a plane size value when the controller 110 outputs the avatar image.

또한 상기 표시모드에서 오버레이 표시모드가 선택되면, 상기 제어부110은 413단계에서 이를 감지하고 415단계에서 상기 오버레이 표시모드를 수행한다. 도 7은 상기 415단계에서 수행하는 오버레이 표시모드의 절차를 도시하는 흐름도이다.In addition, when the overlay display mode is selected in the display mode, the controller 110 detects it in step 413 and performs the overlay display mode in step 415. 7 is a flowchart illustrating a procedure of an overlay display mode performed in step 415.

상기 도 7을 참조하면, 상기 제어부110은 451단계 - 465단계에서 상기 도 5의 317단계 - 329단계에서와 같이 1프레임의 화면 이미지 화소들과 아바타 이미지 화소들을 오버레이하여 표시한다. 그리고 상기와 같이 바탕화면 이미지와 아바타 이미지들을 오버레이 표시하는 중에 사용자는 상기 아바타 이미지의 표시 위치 및(또는) 크기를 변경할 수 있다. 이때 상기 아바타 이미지의 표시위치 변경이 요구되면, 상기 제어부110은 469단계에서 이를 감지하고 471단계에서 상기 도 8에 도시된 절차를 수행하면서 상기 아바타 이미지의 표시위치를 변경한다. 그리고 상기 표시 위치가 변경되면, 상기 제어부110은 다음 프레임의 아바타 이미지를 표시할 때 상기 455단계에서 상기 위치가 변경된 오버레이 영역에 아바타 이미지를 표시하게 된다. 또한 상기 아바타 이미지의 크기 변경이 요구되면, 상기 제어부110은 473단계에서 이를 인지하고, 475단계에서 상기 도 9에 도시된 절차를 수행하면서 상기 아바타 이미지의 크기를 변경한다. 그리고 상기 아바타 이미지의 크기가 변경되면, 상기 제어부100은 다음 프레임의 아바타 이미지를 표시할 때 상기 455단계에서 상기 크기가 변경된 상기 오버레이 영역에 아바타 이미지를 표시하게 된다. Referring to FIG. 7, in steps 451 to 465, the controller 110 overlays and displays screen image pixels and avatar image pixels of one frame as in steps 317 to 329 of FIG. 5. The user may change the display position and / or size of the avatar image while overlaying the desktop image and the avatar images as described above. In this case, when the display position of the avatar image is changed, the controller 110 detects this in step 469 and performs the procedure shown in FIG. 8 in step 471 to change the display position of the avatar image. When the display position is changed, when displaying the avatar image of the next frame, the controller 110 displays the avatar image in the overlay area where the position is changed in step 455. In addition, if the size of the avatar image is required to be changed, the controller 110 recognizes this in step 473, and changes the size of the avatar image while performing the procedure illustrated in FIG. 9 in step 475. When the size of the avatar image is changed, when displaying the avatar image of the next frame, the controller 100 displays the avatar image in the overlay area where the size is changed in step 455.

그리고 상기와 같은 아바타 이미지의 오버레이 표시동작은 아바타 이미지의 마지막 프레임 까지 반복 수행되며, 마지막 아바타 이미지 프레임이면, 상기 제어부110은 467단계에서 이를 감지하고 상기 오버레이 표시모드를 종료한다.The overlay display operation of the avatar image is repeatedly performed until the last frame of the avatar image. If the avatar image frame is the last avatar image frame, the controller 110 detects this in step 467 and ends the overlay display mode.

도 10은 본 발명의 제2실시예에 따른 오버레이 표시 절차를 도시하는 흐름도이다. 본 발명의 제2실시예에서는 오버레이버퍼를 사용하지 않고 백버퍼만을 이용하여 오버레이 기능을 구현한다. 즉, 상기 제2실시예에서는 백버퍼의 바탕화면 데이터에 오버레이 데이터를 삽입하여 오버레이 기능을 구현한다. 10 is a flowchart illustrating an overlay display procedure according to a second embodiment of the present invention. In the second embodiment of the present invention, the overlay function is implemented using only the back buffer without using the overlay buffer. That is, in the second embodiment, the overlay function is implemented by inserting overlay data into the background data of the back buffer.

상기 도 10을 참조하면, 오버레이 표시 기능이 시작되면 상기 제어부110은 611단계에서 오버레이 데이터 리스트를 빈상태로 초기화하고, 오버레이 데이터의 출력여부를 표시하는 플래그를 초기화한다. 여기서 오버레이 이미지는 압축되지 않은 이미지 데이터를 사용하게 되며, 본 발명의 실시예에서는 비트맵(bitmap) 데이터라고 가정한다. 따라서 상기 오버레이 데이터 리스트는 오버레이비트맵 리스트(overlay bitmap list: 이하 OBL이라 칭한다)가 될 수 있다. Referring to FIG. 10, when an overlay display function is started, the controller 110 initializes the overlay data list to an empty state in step 611 and initializes a flag indicating whether overlay data is output. Here, the overlay image uses uncompressed image data, and in the embodiment of the present invention, it is assumed that the overlay image is bitmap data. Therefore, the overlay data list may be an overlay bitmap list (hereinafter referred to as OBL).

이후 상기 제어부110은 613단계에서 사용자의 입력에 따라 상기 오버레이 기능을 수행하기 위한 기능들을 처리한다. 도 11은 상기 도 10의 613단계에서 수행되는 입력 처리 과정의 절차를 도시하는 흐름도이다. 상기 도 11에서 상기 제어부110은 사용자의 입력에 따라 상기 OBL의 출력여부, 상기 OBL에 오버레이할 이미지의 추가 및 삭제, 그리고 변경들을 설정한다.In step 613, the controller 110 processes functions for performing the overlay function according to the user's input. FIG. 11 is a flowchart illustrating a procedure of an input processing performed in step 613 of FIG. 10. In FIG. 11, the controller 110 sets whether to output the OBL, add or delete an image to be overlaid on the OBL, and change changes according to a user input.

상기 도 11을 참조하면, 상기 제어부110은 711단계에서 상기 OBL의 출력여부를 결정하기 위한 위한 입력이 발생되는가 검사하며, OBL 출력여부를 변경하는 입력이 발생되면 713단계에서 사용자의 설정값으로 상기 OBL의 출력여부를 변경한다. 즉, 상기 제어부110은 711단계 및 713단계에서 사용자가 상기 오버레이 표시 기능의 설정을 요구하면 상기 OBL 플래그를 세트하고, 상기 오버레이 표시 기능의 설정을 해제하면 상기 OBL 플래그를 리세트시킨다. 두 번째로 상기 제어부110은 715단계에서 상기 OBL에 비트맵을 추가하는 입력이 발생되는가 검사하며, 비트맵 추가 요구가 발생되면 717단계에서 사용자가 추가를 요구한 비트맵, 표시부140 상의 출력위치, 블랜딩에 사용할 변수 α값을 설정하여 상기 OBL에 추가한다. 세 번째로 상기 제어부110은 719단계에서 상기 OBL에서 포함된 비트맵을 삭제하는 입력이 발생되는가 검사하며, 비트맵 삭제 요구가 발생되면 721단계에서 사용자가 선택한 비트맵을 상기 OBL에서 삭제한다. 네 번째로 상기 제어부110은 723단계에서 비트맵의 출력여부, 위치 및 블랜딩변수 α값의 변경 요구의 발생을 감지하면, 725단계에서 사용자가 변경한 비트맵(출력여부, 위치 및 블랜딩변수 α값)의 변경값을 상기 OBL 내의 해당하는 비트맵에 적용한다. Referring to FIG. 11, the controller 110 checks whether an input for determining the output of the OBL is generated in step 711. If an input for changing the output of the OBL is generated, the controller 110 returns the user's setting value to the user's set value in step 713. Changes the output of the OBL. That is, the controller 110 sets the OBL flag when the user requests setting of the overlay display function in steps 711 and 713, and resets the OBL flag when the setting of the overlay display function is released. Secondly, the controller 110 checks whether an input for adding a bitmap to the OBL is generated in step 715, and if a bitmap addition request is generated, the bitmap requested by the user in step 717, an output position on the display 140, A variable α value to be used for blending is set and added to the OBL. Third, the controller 110 checks whether an input for deleting the bitmap included in the OBL is generated in step 719. If a bitmap deletion request is generated, the controller 110 deletes the bitmap selected by the user from the OBL in step 721. Fourth, when the control unit 110 detects the occurrence of the request to change the output, position, and blending variable α value of the bitmap in step 723, the user changes the bitmap (output, position, and blending variable α value in step 725). ) Is applied to the corresponding bitmap in the OBL.

상기한 바와 같이, 상기 제어부110은 오버레이 표시 기능을 수행하는 경우, 사용자의 설정에 의해 OBL의 출력여부, OBL에 비트맵을 추가하거나 삭제, 그리고 상기 OBL에 등록된 비트맵에 대한 설정값들을 변경할 수 있다.As described above, when the overlay display function is performed, the controller 110 outputs an OBL, adds or deletes a bitmap to the OBL, and changes setting values of the bitmap registered in the OBL, according to a user's setting. Can be.

상기 613단계에서 사용자의 설정에 의해 OBL의 출력여부, 비트맵 추가 및 삭제, 그리고 비트맵의 설정값들을 변경한 후 상기 제어부110은 상기 OBL에 의해 오버레이 표시 기능을 수행하게 된다. 이때 상기 OBL 플래그가 리세트상태이면, 상기 제어부110은 615단계에서 이를 감지하고 617단계에서 상기 바탕화면 데이터를 백버퍼151에 복사하며, 623단계에서 상기 백버퍼151에 복사된 바탕화면 데이터를 상기 스크린버퍼155에 복사한다. 이후 상기 제어부110은 625단게에서 상기 스크린버퍼155에 저장된 바탕화면 데이터를 표시부140에 출력하여 화면으로 표시한다. 상기와 같은 표시 방법은 일반적인 화면 표시방법이 된다.In step 613, the controller 110 performs an overlay display function by the OBL after outputting the OBL, adding and deleting the bitmap, and changing the setting values of the bitmap. If the OBL flag is in the reset state, the controller 110 detects it in step 615 and copies the desktop data to the back buffer 151 in step 617, and copies the desktop data copied to the back buffer 151 in step 623. Copy it to the screen buffer 155. Thereafter, the controller 110 outputs the desktop data stored in the screen buffer 155 to the display unit 140 at step 625 to display the screen. The display method as described above is a general screen display method.

그러나 상기 615단계에서 OBL 플래그가 세트된 상태이면, 상기 제어부110은 619단계 및 621단계를 수행하면서 상기 백버퍼151에 바탕화면 데이터를 복사한 후 오버레이할 데이터를 복사하여 블랜딩한다. 즉, 상기 제어부110은 619단계에서 상기 표시할 바탕화면 데이터를 상기 백버퍼151에 복사하며, 621단계에서 상기 OBL에 포함된 비트맵 데이터를 백버퍼151의 오버레이 표시영역에 복사한다. 도 12는 상기 621단계에서 상기 OBL의 비트맵 데이터를 상기 백버퍼에 적용하는 절차를 도시하는 흐름도이다.However, if the OBL flag is set in step 615, the controller 110 copies the background data to the back buffer 151 and then blends and overlays the data to be overlaid, in steps 619 and 621. That is, the controller 110 copies the desktop data to be displayed to the back buffer 151 in step 619, and copies the bitmap data included in the OBL to the overlay display area of the back buffer 151 in step 621. 12 is a flowchart illustrating a procedure of applying bitmap data of the OBL to the back buffer in step 621.

상기 도 12를 참조하면, 상기 제어부110은 751단계에서 OBL에 오버레이 표시할 비트맵이 포함되어있는가 검사한다. 이때 상기 OBL에 오버레이할 비트맵 데이터 가 포함되어 있지 않으면 상기 백버퍼에 비트맵 데이터를 복사하는 절차를 종료하고 상기 도 10의 623단계로 진행한다. 즉, 상기 OBL 플래그가 세트된 상태이지만 실제 OBL에 포함된 비트맵 데이터가 없으면 바탕화면 데이터만을 출력하게 된다. 그러나 상기 751단계에서 OBL에 비트맵 데이터가 포함되어 있으면, 상기 제어부110은 753단계에서 상기 OBL에 등록된 첫 번째 비트맵 데이터를 선택한 후, 755단계에서 선택된 비트맵 데이터가 출력플래그가 온 상태인가를 검사한다. 이때 상기 출력플래그 온상태가 아니면 상기 선택된 비트맵 데이터를 상기 바탕화면에 복사하는 동작을 수행하지 않는다. 즉, 상기 OBL에 포함된 비트맵 데이터를 상기 백버퍼151에 적용할 때, 해당 비트맵 데이터의 출력 플래그가 오프상태이면 해당 비트맵 데이터의 백버퍼151에 복사하지 않는다. Referring to FIG. 12, in step 751, the controller 110 checks whether a bitmap for overlay display is included in the OBL. If the bitmap data to be overlaid is not included in the OBL, the procedure of copying bitmap data to the back buffer is terminated and the process proceeds to step 623 of FIG. 10. That is, when the OBL flag is set but no bitmap data is actually included in the OBL, only the background data is output. However, if bitmap data is included in the OBL in step 751, the controller 110 selects the first bitmap data registered in the OBL in step 753, and then in step 755, is the output flag turned on? Check it. If the output flag is not in the on state, the operation of copying the selected bitmap data to the background screen is not performed. That is, when bitmap data included in the OBL is applied to the back buffer 151, if the output flag of the bitmap data is off, the bitmap data included in the OBL is not copied to the back buffer 151 of the bitmap data.

그러나 상기 선택된 비트맵 데이터의 출력플래그가 온 상태이면, 상기 제어부110은 755단계에서 이를 감지하고 757단계에서 해당 비트맵 데이터의 설정값을 분석하면서 설정된 표시 위치에 상기 비트맵 데이터를 상기 백버퍼151에 복사한다. 이런 경우 상기 백버퍼151에는 상기 바탕화면 데이터가 복사되어 있는 상태이며, 상기 바탕화면에 상기 비트맵 데이터를 오버레이하면서 복사하게 된다. 도 13 및 도 14는 상기 도 12의 757단계에서 상기 비트맵 데이터를 상기 백버퍼151에 복사된 바탕화면 데이터에 오버레이시키는 절차를 도시하는 흐름도이다. 여기서 상기 도 13은 상기 선택된 비트맵 데이터의 블랜딩 변수 α를 동일한 값으로 적용한 경우의 동작 절차를 도시하는 흐름도이고, 상기 도 14는 선택된 비트맵 데이터의 블랜딩 변수 α를 각각 다르게 설정한 경우의 동작 절차를 도시하는 흐름도이다.However, when the output flag of the selected bitmap data is turned on, the controller 110 detects it in step 755 and analyzes the setting value of the corresponding bitmap data in step 757. Copy to In this case, the background data is copied to the back buffer 151, and the background data is copied while overlaying the bitmap data on the background screen. 13 and 14 are flowcharts illustrating a procedure of overlaying the bitmap data on the background data copied to the back buffer 151 in step 757 of FIG. 12. 13 is a flowchart illustrating an operation procedure when the blending variable α of the selected bitmap data is applied to the same value, and FIG. 14 is an operation procedure when the blending variable α of the selected bitmap data is set differently. It is a flowchart showing the.

먼저 상기 도 1을 참조하면, 먼저 상기 제어부110은 811단계에서 상기 비트맵 데이터의 블랜딩 변수 α를 검사한다. 여기서 상기 블랜딩 변수 α는 상기 비트맵 데이터를 바탕화면 데이터에 오버레이시킬때 두 화소 데이터들을 혼합하는 변수 값을 의미한다. 이때 상기 블랜딩 변수 α가 0이면 상기 비트맵 데이터가 표시되는 오버레이 표시영역에 바탕화면 데이터를 그대로 출력하게 되며, 상기 블랜딩 변수α가 1이면 상기 상기 비트맵 데이터가 표시되는 오버레이 표시영역에 비트맵 데이터를 그대로 출력하게 되고, 상기 블랜딩 변수 α가 0<α<1의 값을 가지면 상기 블랜딩 변수 α의 설정된 값에 따라 상기 오버레이 표시영역에서 상기 바탕화면 데이터와 상기 비트맵 데이터가 블랜딩되어 출력된다. First, referring to FIG. 1, in step 811, the controller 110 checks a blending variable α of the bitmap data. Herein, the blending variable α refers to a variable value in which two pixel data are mixed when the bitmap data is overlaid on the background data. In this case, when the blending variable α is 0, the desktop data is output as it is to the overlay display area where the bitmap data is displayed. When the blending variable α is 1, bitmap data is displayed on the overlay display area where the bitmap data is displayed. When the blending variable α has a value of 0 <α <1, the background data and the bitmap data are blended and output in the overlay display area according to the set value of the blending variable α.

따라서 상기 811단계에서 상기 블랜딩 변수 α가 0이면 상기 제어부110은 이를 감지하고 비트맵 데이터의 블랜딩 동작을 수행하지 않고 리턴한다. 그러나 상기 블랜딩 변수 α가 0<α<1의 값을 가지면, 상기 제어부110은 811단계에서 이를 감지하고 813단계에서 상기 비트맵 데이터의 첫 번째 화소의 좌표를 위치좌표변수(x,y)에 입력한다. 이후 상기 제어부110은 815단계에서 상기 화소의 좌표를 상기 비트맵이 표시부140 상에 위치할 비트맵 좌표변수(sx+x, sy+y)에 적용한 후, 해당 좌표가 표시부140의 표시영역에 속하는가 검사한다. 즉, 비트맵 데이터가 아바타 또는 아이템일 경우, 상기 도 2d와 같은 프레임 이미지의 프레임 카운터에는 해당하는 이미지가 표시될 시작좌표 및 프레임 이미지의 크기가 미리 결정되어 있다. 따라서 상기 제어부110은 상기 813단계에서 비트맵 데이터을 구성하는 화소의 위치(x,y)를 확인한 후, 상기 화소 위치를 표시부140 상에 표시할 비트맵의 좌표(sx, sy)에 적용하여 해당화소를 상기 표시부140 상에 표시할 위치(sx+x, sy+y)를 결정한 후, 이 위치가 표시부140에 표시할 수 있는 영역 내에 있는가를 검사한다. 이때 상기 표시부140의 영역 내에 속하면, 상기 제어부110으 817단계에서 해당 화소가 투명영역 내의 화소인가를 검사한다. 여기서 상기 투명영역이라 함은 오버레이 표시 영역에서 비트맵 데이터의 화소가 없는 영역을 의미한다. 따라서 상기 화소가 스크린 표시 영역에 포함되고 화소가 투명영역의 화소가 아니면, 상기 제어부110은 819단계에서 상기 오버레이 표시영역에서 상기 바탕화면의 화소와 상기 비트맵의 화소를 상기 블랜딩 변수α(0<α<1) 값으로 블랜딩한다. 이때 블랜딩 방법은 상기 백버퍼151의 표시위치인 (sx+x,sy+y) 좌표에 존재하는 바탕화면의 화소의 RGB 값을 각각 R1,G1,B1이라하고, 상기 비트맵 데이터에서 상기 위치에 해당하는 좌표(x,y) 화소의 RGB 값을 R2,G2,B2라고 하면, 상기 해당 위치의 백버퍼151에서 블랜딩되는 화소를 다음과 같이 α블랜딩하여 설정한다. Therefore, if the blending variable α is 0 in step 811, the controller 110 detects this and returns without performing the blending operation of the bitmap data. However, if the blending variable α has a value of 0 <α <1, the controller 110 detects it in step 811 and inputs the coordinates of the first pixel of the bitmap data to the position coordinate variables (x, y) in step 813. do. In step 815, the controller 110 applies the coordinates of the pixel to the bitmap coordinate variables sx + x and sy + y where the bitmap is to be positioned on the display unit 140. Then, does the corresponding coordinate belong to the display area of the display unit 140? Check it. That is, when the bitmap data is an avatar or an item, the start coordinate and the size of the frame image in which the corresponding image is displayed are predetermined in the frame counter of the frame image as shown in FIG. 2D. Therefore, after determining the position (x, y) of the pixels constituting the bitmap data in step 813, the controller 110 applies the pixel position to the coordinates (sx, sy) of the bitmap to be displayed on the display unit 140. After determining the position (sx + x, sy + y) to be displayed on the display unit 140, it is checked whether the position is within an area that can be displayed on the display unit 140. In this case, if it is within the area of the display unit 140, the controller 110 checks whether the corresponding pixel is a pixel in the transparent area. Here, the transparent area means an area in which no pixel of bitmap data exists in the overlay display area. Therefore, when the pixel is included in the screen display area and the pixel is not a pixel in the transparent area, the controller 110 determines that the blending variable α (0 <) is the pixel of the background screen and the pixel of the bitmap in the overlay display area in step 819. Blending to α <1) value. In this case, in the blending method, R1, G1, and B1 RGB values of pixels of the background screen existing at (sx + x, sy + y) coordinates of the back buffer 151 are referred to as R1, G1, and B1, respectively. When the RGB values of the corresponding coordinate (x, y) pixels are R2, G2, and B2, the pixels blended in the back buffer 151 at the corresponding position are alpha-blended as follows.

R1 = αR2 + (1-α)R1R1 = αR2 + (1-α) R1

G1 = αG2 + (1-α)G1G1 = αG2 + (1-α) G1

B1 = αB2 + (1-α)B1B1 = αB2 + (1-α) B1

그리고 상기 815단계에서 해당 화소가 스크린 표시영역을 벗어나거나 또는 투명영역의 화소이면 상기 블랜딩 동작을 수행하지 않는다. 이런 경우 상기 비트맵 데이터의 해당 화소 위치에는 바탕화면의 화소가 표시될 수 있다. 상기와 같이 비트맵 데이터의 한 화소에 대하여 블랜딩 동작을 수행한 후, 상기 제어부110은 821단계에서 상기 비트맵 데이터의 다음 화소의 좌표를 위치좌표변수(x,y)에 입력한 후, 상기 815단계로 되돌아가 상기와 같은 동작을 반복 수행한다.In operation 815, if the pixel is outside the screen display area or the pixel is in the transparent area, the blending operation is not performed. In this case, a pixel of the background screen may be displayed at a corresponding pixel position of the bitmap data. After performing the blending operation on one pixel of the bitmap data as described above, the controller 110 inputs the coordinates of the next pixel of the bitmap data into the position coordinate variables (x, y) in step 821. Returning to the step, the above operation is repeated.

따라서 상기 블랜딩 변수α(0<α<1) 값을 가지면, 상기 제어부110은 813단계 - 823단계를 수행하면서 오버레이 표시영역의 비트맵 데이터의 각 화소들을 해당하는 대응되는 바탕화면 데이터의 화소들과 상기와 같이 블랜딩하여 백버퍼151에 다시 저장한다. 따라서 상기 비트맵 데이터들이 상기 바탕화면 데이터들과 상기 상기 블랜딩 변수α(0<α<1) 값으로 혼합되어 표시될 수 있다. 상기와 같은 동작을 반복하여 상기 비트맵 데이터가 표시될 오버레이 표시영역의 화소들에 대한 블랜딩을 모두 종료하면, 상기 제어부110은 823단계에서 이를 감지하고 상기 도 12로 리턴한다.Therefore, when the blending variable α (0 <α <1) has a value, the control unit 110 performs steps 813 to 823 and the pixels of the corresponding background data corresponding to the pixels of the bitmap data of the overlay display area. Blended as above and stored again in the back buffer 151. Accordingly, the bitmap data may be mixed with the background data and the blending variable α (0 <α <1). When the blending of the pixels of the overlay display area where the bitmap data is to be displayed is repeated by repeating the above operation, the controller 110 detects this in step 823 and returns to FIG. 12.

또한 상기 811단계에서 상기 블랜딩 변수 α가 1(α=1)이면, 상기 제어부110은 831단계-841단계를 수행하면서 상기 오버레이 표시영역에 상기 비트맵 데이터를 그대로 삽입한다. 상기 블랜딩 변수 α가 1(α=1)인 경우, 837단계에서 상기 비트맵 데이터의 화소를 오버레이 표시영역에 블랜딩 없이 삽입하는 동작을 제외하면, 상기 831단계 - 841단계의 동작은 상기 813단계 - 823단계와 유사하게 수행된다. 이때 상기 837단계에서 오버레이 표시영역의 비트맵 데이터들은 블랜딩없이 그대로 삽입되므로, 상기 백버퍼151은 상기 바탕화면 데이터의 오버레이 표시영역에 상기 비트맵 데이터를 포함하는 구조를 가지게 된다. 이때 상기 비트맵 데이터의 투명영역의 화소들 위치인 경우, 상기 도 13에서는 상기 바탕화면의 화소들이 그대로 유지되게 되지만, 상기 835단계의 동작을 수행하지 않으면 상기 오버레이 표시영역은 상기 비트맵 데이터의 구성 그대로 삽입할 수 있음을 알 수 있다.If the blending variable α is 1 (α = 1) in step 811, the controller 110 inserts the bitmap data into the overlay display area as it is, in steps 831-841. When the blending variable α is 1 (α = 1), except for inserting the pixel of the bitmap data into the overlay display area without blending in step 837, the operations of steps 831 through 841 are performed in step 813. It is performed similarly to step 823. In this case, since bitmap data of the overlay display area is inserted without blending in step 837, the back buffer 151 has a structure including the bitmap data in the overlay display area of the background data. In this case, when the pixels of the transparent area of the bitmap data are positioned, the pixels of the background screen remain in FIG. 13, but if the operation of step 835 is not performed, the overlay display area includes the bitmap data. It can be seen that it can be inserted as it is.

도 14는 상기 비트맵 데이터들의 각 화소들에 다른 블랜딩 변수 α를 설정하여 오버레이 표시영역에서 바탕화면 데이터와 비트맵 데이터를 블랜딩할 수 있는 방법을 도시하는 흐름도이다.FIG. 14 is a flowchart illustrating a method of blending background data and bitmap data in an overlay display area by setting another blending variable α in each pixel of the bitmap data.

상기 도 14를 참조하면, 상기 제어부110은 851단계에서 먼저 첫 번째 화소 위치를 확인한 후, 853단계에서 해당 화소의 상기 블랜딩 변수 α값을 분석한다. 이때 상기 블랜딩 변수 α값이 0이면 비트맵 데이터의 해당 화소의 오버레이 표시를 하지 않는다. 두 번째로 상기 블랜딩 변수 α값이 0과 1 사이의 값을 가지면 855단계 - 861단계를 수행하면서 상기한 바와 같이 상기 블랜딩 변수 α값에 따라 바탕화면 데이터의 화소와 비트맵 데이터의 화소를 블랜딩하여 백버퍼151에 저장한다. 세 번째로 상기 블랜딩 변수 α값이 1이면 상기 비트맵의 화소를 상기 백버퍼151의 해당하는 위치에 삽입한다. 따라서 상기와 같이 오버레이 표시영역에 표시될 비트맵 데이터의 각 화소들을 각각 설정된 상기 블랜딩 변수 α값에 의해 처리하여 상기 백버퍼151의 오버레이 표시영역 위치에 저장한다. 상기 도 14와 같은 방법은 오버레이 표시영역에 표시될 비트맵 데이터의 일부 화소 데이터들을 각각 다른 블랜딩 변수 α값으로 처리하여 오버레이 표시 기능을 수행할 수 있게 한다.Referring to FIG. 14, the controller 110 checks the first pixel position in step 851, and then analyzes the blending variable α of the corresponding pixel in step 853. In this case, when the blending variable α is 0, overlay display of the corresponding pixel of the bitmap data is not performed. Second, if the blending variable α has a value between 0 and 1, steps 855 to 861 are performed to blend pixels of the background data and pixels of the bitmap data according to the blending variable α as described above. Store in back buffer 151. Third, when the blending variable α value is 1, the pixel of the bitmap is inserted at the corresponding position of the back buffer 151. Accordingly, as described above, the pixels of the bitmap data to be displayed in the overlay display area are processed according to the blending variable α value, respectively, and are stored in the overlay display area position of the back buffer 151. The method as illustrated in FIG. 14 may process some pixel data of bitmap data to be displayed in the overlay display area with different blending variable α values to perform an overlay display function.

상기와 같이 비트맵 데이터를 상기 도 13 또는 도 14와 같이 처리하여 상기 백버퍼151에 저장한 후, 상기 제어부110은 도 12의 761단계로 리턴하여 OBL에 포함된 다음 비트맵 데이터가 존재하는지 검사한다. 즉, 상기 OBL에 등록된 비트맵 데이터가 두개 이상인 경우, 상기 제어부110은 761단계에서 이를 감지하고 759단계에서 다음 비트맵 데이터를 선택한 후, 상기 755단계로 되돌아가 상기 도 13 또는 도 14와 같은 동작을 수행하면서 상기 백버퍼151에 처리되는 비트맵 데이터를 삽입한다. 이후 상기 OBL에 등록된 모든 비트맵 데이터들을 처리하여 상기 백버퍼151에 저장을 완료하면, 상기 제어부110은 761단계에서 이를 감지하고, 상기 도 10의 623단계로 리턴한다. After processing bitmap data as described above with reference to FIG. 13 or FIG. 14 and storing the bitmap data in the back buffer 151, the controller 110 returns to step 761 of FIG. 12 to check whether the next bitmap data included in the OBL exists. do. That is, when there are two or more bitmap data registered in the OBL, the controller 110 detects this in step 761, selects the next bitmap data in step 759, and returns to step 755 as shown in FIG. 13 or 14. While performing the operation, the bitmap data processed in the back buffer 151 is inserted. Thereafter, when all bitmap data registered in the OBL is processed and stored in the back buffer 151, the controller 110 detects this in step 761 and returns to step 623 of FIG. 10.

그러면 상기 제어부110은 상기 도 10의 623단계에서 상기 백버퍼151에 저장된 데이터를 상기 스크린버퍼155에 저장하며, 625단계에서 상기 스크린버퍼155에 저장된 표시데이타들을 상기 표시부140에 출력하도록 제어한다. 그러면 상기 표시부140은 상기 스크린버퍼155에서 출력되는 표시 데이터를 표시한다. 이때 상기 표시되는 데이터는 바탕화면 데이터 및 상기 바탕화면의 설정된 오버레이 표시영역에 비트맵 데이터를 표시하게 된다. 상기와 같은 동작은 오버레이 표시 기능을 해제할 때 까지 수행되며, 상기 오버레이 표시 기능을 종료시키면, 상기 제어부110은 627단계에서 이를 감지하고 629단계에서 상기 OBL에 등록된 비트맵 데이터들의 등록을 해제하고 종료한다.Then, the controller 110 stores the data stored in the back buffer 151 in the screen buffer 155 in step 623, and outputs the display data stored in the screen buffer 155 to the display unit 140 in step 625. The display unit 140 then displays the display data output from the screen buffer 155. In this case, the displayed data displays the background data and the bitmap data in the set overlay display area of the background screen. The above operation is performed until the overlay display function is released. When the overlay display function is terminated, the controller 110 detects this in step 627 and releases the registration of the bitmap data registered in the OBL in step 629. Quit.

상기와 같은 오버레이 표시 동작을 상기 도 3d와 같은 아바타하우스 화면을 참조하여 살펴본다. 상기 도 3d와 같은 구성을 가지는 아바타 하우스 화면은 상기 도 3c와 같은 배경화면 이미지에 상기 도 3a 및 도 3b와 같은 아바타 이미지 및 아이템 이미지들이 오버레이되어 표시되는 것임을 알 수 있다. 따라서 상기 도 3c와 같은 대기화면 이미지는 바탕화면 이미지가 될 수 있으며, 도 3a 및 도 3b와 같은 아바타 및 아이템 이미지는 오버레이 이미지들이 됨을 알 수 있다.The overlay display operation as described above will be described with reference to the avatar house screen as shown in FIG. 3D. It can be seen that the avatar house screen having the configuration as shown in FIG. 3D is displayed by overlaying the avatar image and the item images as shown in FIGS. 3A and 3B on the background screen image as shown in FIG. 3C. Accordingly, it can be seen that the standby screen image as shown in FIG. 3C may be a background image, and the avatar and item images as shown in FIGS. 3A and 3B are overlay images.

상기 제어부110은 도 10의 611단계에서 OBL 및 OBL 플래그들을 초기화하며, 613단계에서 사용자에 의해 입력되는 OBL 정보들을 처리한다. 이때 상기 사용자에 의해 상기 도 5a와 같은 아바타 비트맵 데이터 및 도 5b와 같은 아이템 비트맵 데이터들이 선택되고, 블랜딩 변수 α값이 선택되면, 상기 제어부110은 613단계에서 상기 도 11과 같은 절차를 수행하면서 상기 OBL에 상기 아바타 비트맵 데이터 및 아이템 비트맵 데이터들을 등록하고, 각 비트맵의 블랜딩 변수 값을 설정하며, OBL 출력 플래그를 세트시켜 이후의 오버레이 표시 기능을 수행할 수 있도록 한다. 그러면 상기 OBL 플래그가 온 상태이므로, 상기 제어부110은 도 10의 615단계에서 이를 감지하고, 도 10의 619단계에서 도 3c와 같은 배경화면 이미지를 상기 백버퍼151에 바탕화면 데이터로 복사한다. 이후 상기 제어부110은 621단계에서 상기 OBL에 등록된 비트맵 데이터들을 오버레이 이미지로 상기 백버퍼151에 복사 또는 블랜딩하여 복사한다. 여기서는 상기 오버레이 이미지를 상기 바탕화면 이미지에 블랜딩하지 않고 원래의 오버레이 이미지를 그대로 삽입하는 경우를 예로들어 설명하기로 한다. The controller 110 initializes the OBL and OBL flags in step 611 of FIG. 10, and processes OBL information input by the user in step 613. In this case, when the avatar bitmap data as shown in FIG. 5A and the item bitmap data as shown in FIG. 5B are selected by the user and the blending variable α value is selected, the controller 110 performs the procedure as shown in FIG. 11 in step 613. The avatar bitmap data and the item bitmap data are registered to the OBL, the blending variable value of each bitmap is set, and the OBL output flag is set to perform the overlay display function. Then, since the OBL flag is turned on, the controller 110 detects this in step 615 of FIG. 10, and copies the background screen image of FIG. 3C to the back buffer 151 as background data in step 619 of FIG. 10. In step 621, the controller 110 copies or blends the bitmap data registered in the OBL to the back buffer 151 as an overlay image. In the following description, the original overlay image is inserted as it is without blending the overlay image on the background image.

이런 경우, 상기 제어부110은 도 12와 같은 절차를 수행하면서 도 3b와 같은 아이템 이미지를 먼저 선택하게 되며, 도 13의 831단계 - 841단계를 수행하면서 상기 아이템 이미지를 상기 백버퍼151에 삽입한다. 즉, 도 3b와 같은 아이템 이미지의 프레임헤더에 존재하는 상기 아이템 이미지의 시작위치 및 크기를 분석한 후, 상기 아이템 이미지들을 표시 위치에 따라 상기 아이템 이미지들을 상기 백버퍼151에 복사한다. 이후 상기 제어부110은 두 번째로 상기 도 3a와 같은 아바타 이미지를 선택한 후, 상기 도 13의 831단계 - 841단계를 수행하면서 상기 아바타 이미지 를 상기 백버퍼151에 삽입한다. 이런 경우 상기 백버퍼151에는 상기 도 3c와 같은 배경화면(바탕화면)에 도 3a 및 도 3b와 같은 아바타 및 아이템 이미지(오버레이 이미지)들이 삽입되어 도 3d와 같은 이미지로 재구성된다. 그러면 상기 제어부110은 도 10의 623단계에서 상기와 같이 배경화면 이미지에 아바타 및 아이템 이미지가 오버레이되어 재구성된 표시화면 데이터를 스크린버퍼155에 복사하며, 625단계에서 상기 스크린버퍼155의 표시 데이터를 표시부140에 출력하여 상기 도 3d와 같이 표시한다.In this case, the controller 110 first selects the item image as shown in FIG. 3B while performing the procedure of FIG. 12, and inserts the item image into the back buffer 151 while performing steps 831 to 841 of FIG. 13. That is, after analyzing the start position and size of the item image present in the frame header of the item image as shown in FIG. 3B, the item images are copied to the back buffer 151 according to the display position. Thereafter, the controller 110 secondly selects the avatar image as shown in FIG. 3A and inserts the avatar image into the back buffer 151 while performing steps 831 to 841 of FIG. 13. In this case, the avatar and item images (overlay images) of FIGS. 3A and 3B are inserted into the background screen (desktop) of FIG. 3C and reconstructed into the image of FIG. 3D. Then, the controller 110 copies the display screen data reconstructed by overlaying the avatar and item images on the background screen image as described above in step 623 of FIG. 10 to the screen buffer 155, and displays the display data of the screen buffer 155 in step 625. Output to 140 and display as shown in FIG. 3d.

이때 상기와 같은 동작 절차를 프레임 이미지 단위로 수행되는데, 상기 도 3a와 같은 아바타 이미지들은 애니메이션으로 표시되는 다수의 프레임 이미지들로 구성되고, 상기 배경화면 및 아이템 이미지들은 하나의 이미지(just one-cut image)이므로 변화가 매 프레임마다 동일한 형태로 표시된다. 따라서 상기 애니메이션으로 구성되는 아바타 이미지들은 매 프레임 단위로 상기 백버퍼151에 삽입되어 움직이는 형태의 애니메이션으로 표현된다. 여기서는 상기 배경화면 및 아이템 이미지들이 하나의 프레임 이미지로 예를 들고 있지만, 상기 이미지들도 애니메이션 형태의 복수 프레임 이미지들로 구성되는 경우에는 매 프레임마다 상기 아바타와 같이 백버퍼151에 해당하는 프레임의 이미지들을 복사하면 애니메이션 형태로 표시할 수 있다.At this time, the above operation procedure is performed in units of frame images, wherein the avatar images as shown in FIG. 3A are composed of a plurality of frame images that are displayed as animations, and the background screen and item images are just one-cut. image, so the change is displayed in the same form every frame. Therefore, the avatar images composed of the animation are inserted into the back buffer 151 on a frame-by-frame basis. Here, the background image and the item images are taken as an example of one frame image. However, when the images are also composed of a plurality of frame images in the form of animation, an image of a frame corresponding to the back buffer 151 like the avatar in every frame. If you copy them, you can display them in the form of animation.

도 15는 본 발명의 제2실시예에 따라 캐릭터 이미지를 표시부140에 오버레이 표시하는 동작을 설명하기 위한 도면이다.15 is a view for explaining an operation of overlaying a character image on the display unit 140 according to the second embodiment of the present invention.

상기 도 15를 참조하면, 상기 오버레이 표시모드이면 상기 제어부110은 상기 백버퍼151에 바탕 화면 이미지에 오버레이 이미지를 오버레이시켜 저장하며, 이후 상기 백버퍼151에 저장된 이미지를 스크린버퍼155에 저장하여 상기 표시부140에 표시하도록 제어한다. 상기 오버레이 표시모드시 상기 바탕화면 이미지 및 오버레이 이미지들은 프레임 단위로 처리된다. Referring to FIG. 15, in the overlay display mode, the controller 110 overlays and stores an overlay image on a desktop image in the back buffer 151, and then stores the image stored in the back buffer 151 in the screen buffer 155 to display the display unit. Control to display at 140. In the overlay display mode, the background image and the overlay images are processed in units of frames.

상기 백버퍼151은 스크린버퍼155에 동일한 크기를 가질 수 있으며, 상기 버퍼151 및 155의 크기는 표시부140에 표시되는 화면범위 내의 이미지들을 버퍼링할 수 있는 크기를 가질 수 있다. 따라서 상기 백버퍼151에 저장되는 이미지는 상기 표시부140에 표시되는 가로 및 세로 방향의 바탕화면범위가 될 수 있다. 그리고 상기 오버레이 표시영역의 오버레이 이미지는 상기 백버퍼151에서 바탕화면의 이미지에 오버레이되어 저장되며, 상기 오버레이 표시영역은 상기 도 15에 도시된 바와 같이 화면 표시 범위 내의 임의 위치가 될 수 있다. 상기 도 15에서는 상기 도 3a - 도 3d에 도시된 바와 같은 바탕화면 이미지 및 오버레이 이미지(여기서는 아바타 및 아이템인 경우를 예로들고 있음) 표시하는 경우를 가정하고 있으며, 상기 아바타 및 아이템의 표시 위치는 상기 도 2a - 도 2d와 같은 캐릭터 구조의 프레임 헤더 정보에 의해 결정될 수 있다. 이때 휴대단말기의 사용자가 커서 등을 이용하여 상기 오버레이 이미지의 위치를 변경하면, 상기 제어부110은 상기 이동된 오버레이 이미지의 표시 위치를 확인한 후, 상기 프레임 구조에 해당하는 이미지의 표시위치를 변경하여 설정할 수 있다.The back buffer 151 may have the same size as the screen buffer 155, and the sizes of the buffers 151 and 155 may have a size capable of buffering images within the screen range displayed on the display unit 140. Therefore, the image stored in the back buffer 151 may be a background screen range in the horizontal and vertical directions displayed on the display unit 140. The overlay image of the overlay display area is overlaid and stored on the image of the background screen in the back buffer 151, and the overlay display area may be an arbitrary position within the screen display range as illustrated in FIG. 15. In FIG. 15, it is assumed that a desktop image and an overlay image (in this case, avatars and items are shown) are displayed as shown in FIGS. 3A to 3D. It may be determined by the frame header information of the character structure as shown in Figs. 2a to 2d. In this case, when the user of the mobile terminal changes the position of the overlay image by using a cursor or the like, the controller 110 checks the display position of the moved overlay image and then changes the display position of the image corresponding to the frame structure. Can be.

여기서 상기 표시화면의 이미지 시작점은 상기 백버퍼151의 바탕화면이미지의 시작점(또는 오버레이 이미지의 시작점이 상기 표시화면의 시작점인 경우에는 오버레이 이미지의 시작점이 될 수도 있음)이 되며, 미리 설정된 오버레이 표시영역의 시작점에서부터는 상기 오버레이 이미지들이 상기 바탕화면 이미지에 오버레이어 저장된다. 그리고 상기 오버레이 표시영역의 시작점에서 종료 점 사이의 특정 위치에서 오버레이 영역이 설정된다. Here, the image start point of the display screen is a start point of the background image of the back buffer 151 (or, if the start point of the overlay image is the start point of the display screen, it may be the start point of the overlay image), and the preset overlay display area From the beginning of the overlay images are stored overlayed on the desktop image. An overlay area is set at a specific position between a start point and an end point of the overlay display area.

상기 도 15를 참조하여 상기 바탕화면 이미지에 상기 오버레이 이미지를 오버레이시켜 표시부140에 표시하는 동작을 살펴보면, 먼저 상기 제어부110은 도 3c와 같은 바탕화면 이미지를 상기 백버퍼151에 버퍼링한다. 이후 상기 제어부110은 표시부140의 바탕화면범위의 시작점에서 시작하여 마지막 점 까지 검사하면서 오버레이 표시영역에 표시할 오버레이 이미지 화소들을 바탕화면 이미지에 오버레이시켜 상기 백버퍼151에 버퍼링한다. 이때 상기 표시화면의 시작점에서 상기 오버레이 표시영역의 시작점까지는 오버레이 표시영역이 아니므로 상기 백버퍼151에는 상기 바탕화면 이미지 화소들이 버퍼링되며, 상기 오버레이 표시영역 영역 외의 화면표시영역에서도 상기 바탕화면이미지 화소들이 버퍼링된다. 그리고 상기 오버레이 표시영역에서는 설정된 오버레이 이미지들이 버퍼링된다. 이때 상기 오버레이 표시영역 내에서 실제 표시되는 이미지 화소들이 없는 투명영역에는 상기 바탕화면이미지들의 화소들을 버퍼링할 수 있으며, 또한 실제 투명영역으로 버퍼링할 수도 있다. 또한 상기 오버레이 표시영역 내에서 오버레이 이미지를 버퍼링할 때, 상기 오버레이 이미지 화소들을 그대로 버퍼링할 수 있으며, 또한 오버레이 이미지 화소에 적절한 가중치를 주어 바탕화면 이미지에 블랜딩할 수도 있다. Referring to FIG. 15, an operation of overlaying the overlay image on the desktop image and displaying the overlay image on the display unit 140 will be described. First, the controller 110 buffers the desktop image as shown in FIG. 3C to the back buffer 151. Thereafter, the control unit 110 overlays the overlay image pixels to be displayed in the overlay display area on the background image while buffering the back buffer 151 while starting from the start point of the background range of the display unit 140 to the last point. In this case, the desktop image pixels are buffered in the back buffer 151 because the back buffer 151 is not an overlay display area from the start point of the display screen to the start point of the overlay display area. The desktop image pixels are also displayed in the screen display area other than the overlay display area. Is buffered. In the overlay display area, the set overlay images are buffered. In this case, the pixels of the background images may be buffered in the transparent area in which no image pixels are actually displayed in the overlay display area, and may be buffered into the actual transparent area. In addition, when the overlay image is buffered in the overlay display area, the overlay image pixels may be buffered as they are, and the overlay image pixels may be blended with the background image by giving an appropriate weight to the overlay image pixels.

상기와 같이 백버퍼151에서 바탕화면이미지 및 오버레이 이미지들의 화소들 을 모두 버퍼링하면, 상기 제어부110은 상기 백버퍼151의 화면 이미지 데이터들을 상기 스크린버퍼155에 버퍼링하여 1프레임의 화면 및 아바타이미지의 오버레이 동작을 종료하게 된다. 그리고 상기와 같은 두 이미지들의 오버레이 동작을 프레임 단위로 반복 수행하게 되며, 상기와 같이 오버레이 처리된 스크린버퍼155의 이미지들이 표시부140에 표시된다. As described above, when all the pixels of the background image and the overlay image are buffered in the back buffer 151, the controller 110 buffers the screen image data of the back buffer 151 in the screen buffer 155 to overlay the screen and avatar images of one frame. The operation ends. The overlay operation of the two images as described above is repeatedly performed in units of frames, and the images of the screen buffer 155 overlaid as described above are displayed on the display unit 140.

또한 상기 예는 백버퍼151 및 스크린버퍼155로 구성된 예를들어 설명하고 있지만, 상기 제1실시예에서와 같이 백버퍼151, 오버레이버퍼153 및 스크린버퍼155로 구성된 경우에도 동일하게 적용될 수 있다. 즉, 상기와 같이 3개의 버퍼들을 사용하는 경우, 상기 배경화면 이미지는 백버퍼151에 복사하고, 아이템 이미지들 및 아바타 이미지들은 상기 오버레이버퍼153에 복사한 후, 상기 백버퍼151의 출력에 상기 오버레이버퍼153의 출력을 삽입(또는 블랜딩)하여 상기 스크린버퍼155에 복사하면 동일한 효과를 가지게 된다.In addition, although the above example has been described with an example consisting of the back buffer 151 and the screen buffer 155, the same applies to the case of the back buffer 151, the overlay buffer 153 and the screen buffer 155 as in the first embodiment. That is, when using three buffers as described above, the background image is copied to the back buffer 151, item images and avatar images are copied to the overlay buffer 153, and then the overlay is output to the output of the back buffer 151. If the output of the buffer 153 is inserted (or blended) and copied to the screen buffer 155, the same effect is obtained.

또한 상기 아바타 표시시 아바타 이미지의 방향을 조절할 수도 있다. 즉, 최근의 휴대단말기는 표시되는 이미지의 방향을 회전시킬 수 있다. 이때의 표시되는 이미지의 회전은 90도, 180도 및 270도가 될 수 있다. 따라서 본 발명의 실시예에 따른 아바타 오버레이 표시 기능에서도 역시 상기와 같은 이미지의 방향 조절 기능을 사용할 수 있도록 한다. In addition, the direction of the avatar image may be adjusted when displaying the avatar. That is, the recent portable terminal can rotate the direction of the displayed image. Rotation of the displayed image at this time may be 90 degrees, 180 degrees, and 270 degrees. Therefore, in the avatar overlay display function according to an embodiment of the present invention, the direction control function of the image can be used.

[X][Y]→[X1][Y1][X] [Y] → [X1] [Y1]

[X`][Y`]=[X1][Y1][X`] [Y`] = [X1] [Y1]

상기 <수학식 1>은 일반적인 경우의 출력값을 나타내며, 상기 <수학식2>는 바탕화면이 회전되었을 경우의 출력값을 나타낸다. 즉, 초기의 [X][Y]에 출력되는 값으로서 [X1][Y1]의 값이 출력이 된다면, 방향이 바뀌어 원래의 [X][Y] 출력이 상하와 좌우가 바뀐 형태가 될 때, [X'][Y'] = [Y1][X1] 이 되는 것이다. 본 발명의 실시예에서 이미지의 방향 전환 방법은 바탕화면 이미지의 방향은 그대로 유지하는 상태에서 오버레이 이미지의 방향만을 회전시켜 표시할 수도 있다. Equation 1 represents an output value in a general case, and Equation 2 represents an output value when the background screen is rotated. That is, if the value of [X1] [Y1] is output as the value output to the initial [X] [Y], when the direction is changed and the original [X] [Y] output is in the form of upside down and left and right , [X '] [Y'] = [Y1] [X1]. In the embodiment of the present invention, the method of changing the direction of the image may be displayed by rotating only the direction of the overlay image while maintaining the direction of the background image.

또한 상기 바탕화면 이미지의 방향이 이미 조절되어 상기 백버퍼151에 버퍼링된 경우에는 상기 스크린버퍼155에 상기 바탕화면이미지의 방향을 역변환하거나 오버레이 이미지를 변환하여 [X][Y]의 변환에 대하여 처리를 할 수 있다. In addition, when the orientation of the desktop image is already adjusted and buffered in the back buffer 151, the screen buffer 155 is inverted in the orientation of the desktop image or the overlay image is converted to process the conversion of [X] [Y]. You can do

상술한 바와 같이 멀티미디어 데이터를 표시하는 휴대단말기에서 표시부에 표시되는 화면 이미지에 멀티미디어 이미지를 오버레이시켜 표시할 수 있다. 특히 상기 멀티미디어 이미지가 아바타 이미지인 경우, 상기 표시되는 화면 이미지에 아바타 이미지를 오버레이시켜 표시할 수 있는 이점이 있다. 또한 상기 표시되는 아바타 이미지가 휴대단말기의 상태에 관련된 이미지인 경우에는 휴대단말기의 상태를 시각적으로 표현할 수 있는 이점이 있다.As described above, the mobile terminal displaying the multimedia data may display the multimedia image by overlaying the multimedia image on the screen image displayed on the display unit. In particular, when the multimedia image is an avatar image, there is an advantage in that the avatar image is overlaid on the displayed screen image. In addition, when the displayed avatar image is an image related to the state of the portable terminal, there is an advantage that the state of the portable terminal can be visually represented.

Claims (16)

휴대단말기의 멀티미디어 이미지를 표시하는 장치에 있어서,In the device for displaying a multimedia image of a mobile terminal, 바탕화면 및 오버레이 이미지들을 저장하는 멀티미디어 메모리와,Multimedia memory for storing desktop and overlay images, 상기 바탕화면 이미지를 저장하는 백버퍼와,A back buffer for storing the desktop image, 상기 오버레이 표시할 이미지들을 오버레이버퍼와,An overlay buffer for displaying the overlay images; 스크린버퍼와,Screen buffer, 상기 백버퍼의 이미지에 상기 오버레이버퍼의 이미지를 오버레이시켜 상기 스크린버퍼에 저장하며, 상기 저장된 스크린버퍼의 이미지를 표시화면으로 출력하는 제어부와,A controller which overlays the image of the overlay buffer on the image of the back buffer and stores the image in the screen buffer, and outputs the image of the stored screen buffer to a display screen; 상기 제어부에서 출력되는 표시화면을 표시하는 표시부로 구성된 것을 특징으로 하는 상기 장치.And the display unit for displaying a display screen output from the controller. 제1항에 있어서, 상기 멀티미디어 메모리의 오버레이 이미지를 저장하는 메모리가 캐릭터 메모리이며, The method of claim 1, wherein the memory for storing the overlay image of the multimedia memory is a character memory, 상기 캐릭터메모리는, The character memory, 오버레이 이미지의 위치 및 크기 정보를 저장하는 헤더메모리와,Header memory for storing the position and size information of the overlay image, 상기 오버레이 이미지를 저장하는 이미지메모리로 구성된 것을 특징으로 하는 상기 장치.And an image memory for storing the overlay image. 제2항에 있어서, The method of claim 2, 상기 오버레이버퍼가 상기 헤더메모리에 해당하는 위치 및 크기를 가지고, 상기 오버레이 이미지는 이미지 영역과 이미지를 가지지 않는 투명영역으로 구성되며,The overlay buffer has a position and a size corresponding to the header memory, and the overlay image includes an image region and a transparent region having no image. 상기 스크린버퍼가 상기 백버퍼의 바탕화면 이미지와, 상기 바탕화면 이미지의 오버레이 표시 영역에 상기 오버레이 이미지를 오버레이 저장하는 것을 특징으로 하는 상기 장치.And the screen buffer overlays the background image of the back buffer and the overlay image on the overlay display area of the background image. 제3항에 있어서, 상기 스크린버퍼에 저장되는 오버레이 이미지는 상기 바탕화면 이미지와의 평균값으로 저장됨을 특징으로 하는 상기 장치.The device of claim 3, wherein the overlay image stored in the screen buffer is stored as an average value with respect to the background image. 휴대단말기의 오버레이 표시방법에 있어서,In the overlay display method of the mobile terminal, 바탕화면 이미지를 버퍼링하는 과정과,Buffering the desktop image, 상기 바탕화면의 표시영역에서 오버레이 표시영역을 결정하는 과정과,Determining an overlay display area in the display area of the background screen; 상기 오버레이 표시영역에 오버레이 이미지를 삽입하는 과정과,Inserting an overlay image into the overlay display area; 상기 오버레이 이미지가 삽입된 바탕화면 이미지를 표시하는 과정으로 이루어짐을 특징으로 하는 상기 방법.And displaying a desktop image into which the overlay image is inserted. 제5항에 있어서, 상기 오버레이 이미지를 삽입하는 과정이,The method of claim 5, wherein the inserting the overlay image comprises: 상기 오버레이 이미지가 없는 투명 영역이면 상기 바탕화면 이미지를 유지하는 과정과,Maintaining the desktop image if the overlay image is not transparent; 상기 오버레이 이미지가 있으면 상기 오버레이 표시영역에 상기 오버레이 이미지를 삽입하는 과정으로 이루어짐을 특징으로 하는 상기 방법.And if the overlay image exists, inserting the overlay image into the overlay display area. 제6항에 있어서, 상기 오버레이이미지를 삽입하는 과정이,The method of claim 6, wherein the step of inserting the overlay image, 오버레이 이미지의 블랜딩 변수α(0≤α≤1)에 의해 상기 바탕화면 이미지와 블랜딩되어 삽입됨을 특징으로 하는 상기 방법.And blending with the background image by the blending variable α (0 ≦ α ≦ 1) of an overlay image. 제6항에 있어서, 상기 오버레이 이미지를 표시하는 과정이,The method of claim 6, wherein the displaying of the overlay image comprises: 상기 바탕화면이미지와 상기 오버레이 이미지의 평균값으로 표시함을 특징으로 하는 상기 방법.And displaying the average value of the background image and the overlay image. 휴대단말기에서 이미지를 오버레이 표시하는 장치에 있어서,An apparatus for overlaying an image on a mobile terminal, 바탕화면 및 오버레이 이미지들을 저장하는 캐릭터 메모리와,Character memory for storing desktop and overlay images, 백버퍼 및 스크린버퍼와,Back buffer and screen buffer, 상기 백버퍼에 바탕화면 이미지 및 오버레이 이미지를 오버레이하여 저장하며, 저장완료시 상기 백버퍼의 이미지를 상기 스크린버퍼에 저장하는 제어부와,A controller which overlays and stores a desktop image and an overlay image on the back buffer, and stores the image of the back buffer in the screen buffer when the storage is completed; 상기 스크린버퍼에서 출력되는 표시화면을 표시하는 표시부로 구성된 것을 특징으로 하는 상기 장치.And the display unit for displaying a display screen output from the screen buffer. 캐릭터 타입 및 캐릭터 종류에 대한 애니메이션 수에 대한 정보를 포함하는 캐릭터헤더와,A character header including information about the character type and the number of animations for the character type, 상기 애니메이션 종류와 해당 애니메이션을 표현하기 위한 프레임 이미지의 수에 대한 정보를 포함하며, 상기 캐릭터헤더의 애니메이션 수 만큼 구비되는 애니메이션헤더들과,Animation headers including information about the animation type and the number of frame images for representing the animation, and provided as many as the animation header of the character header; 상기 애니메이션을 구성하는 프레임이미지의 크기 및 표시위치 정보들을 포함하며, 상기 각 애니메이션헤더의 프레임이미지 수 만큼 각각 구비되는 프레임헤더들과,Frame headers including size and display position information of the frame image constituting the animation, each frame header number of the animation header, 상기 애니메이션헤더의 애니메이션 종류에 대응되는 프레임헤더의 프레임 이미지 수 만큼 구비되는 프레임 이미지들로 구성된 것을 특징으로 하는 상기 장치.The apparatus as claimed in claim 1, wherein the frame image comprises frame images corresponding to the number of frame images of the frame header corresponding to the animation header of the animation header. 제10항에 있어서, 상기 캐릭터헤더가, The method of claim 10, wherein the character header, 배경화면인 바탕화면이미지 및 오버레이 이미지인 아바타 및 아이템 이미지 등의 식별자 정보를 나타내는 캐릭터의 타입과,A character type representing identifier information such as a wallpaper image, which is a wallpaper, and an avatar and item image, which are overlay images; 상기 캐릭터타입에서 표현할 수 있는 애니메이션 종류의 수를 나타내는 애니메이션 수로 구성된 것을 특징으로 하는 상기 장치.The apparatus as claimed in claim 1, wherein the apparatus comprises an animation number representing the number of animation types that can be expressed in the character type. 제11항에 있어서, 상기 애니메이션헤더가,The method of claim 11, wherein the animation header, 상기 캐릭터의 정의된 동작 애니메이션 또는 동작이미지를 구분하기 위한 식별자와,An identifier for distinguishing a defined motion animation or motion image of the character, 상기 애니메이션을 표현하기 위한 프레임 이미지의 수로 구성된 것을 특징으로 하는 상기 장치.And the frame image is configured to represent the animation. 제12항에 있어서, 상기 프레임헤더가,The method of claim 12, wherein the frame header, 상기 프레임이미지의 시작위치데이타와,Starting position data of the frame image, 상기 프레임이미지의 크기데이타와,The size data of the frame image, 상기 프레임간의 표시시간 간격 데이터들로 구성된 것을 특징으로 하는 상기 장치.And the display time interval data between the frames. 제13항에 있어서, 제어부가, 선택되는 배경화면을 바탕화면 이미지로 상기 백버퍼에 저장하며, 선택되는 아바타 및(또는) 아이템들을 상기 바탕화면 이미지에 오버레이시켜 저장하는 것을 특징으로 하는 상기 장치.The apparatus of claim 13, wherein the controller stores the selected wallpaper as a wallpaper image in the back buffer and overlays the selected avatar and / or items on the wallpaper image. 제14항에 있어서, 상기 스크린버퍼에 저장되는 오버레이 이미지는 상기 바탕화면 이미지와의 평균값으로 저장됨을 특징으로 하는 상기 장치.The apparatus of claim 14, wherein the overlay image stored in the screen buffer is stored as an average value with respect to the wallpaper image. 제15항에 있어서, 상기 제어부가, 오버레이 이미지의 크기 변경 요구시 지정되는 이미지크기에 대응되는 크기로 상기 오버레이 이미지의 크기를 변경하는 것을 특징으로 하는 상기 장치.The apparatus of claim 15, wherein the controller changes the size of the overlay image to a size corresponding to an image size designated when the size of the overlay image is requested to be changed.
KR1020050013132A 2004-02-17 2005-02-17 Device and method for displaying data using overlay technique in terminal equipment KR100617797B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020040010381 2004-02-17
KR20040010381 2004-02-17

Publications (2)

Publication Number Publication Date
KR20060042048A true KR20060042048A (en) 2006-05-12
KR100617797B1 KR100617797B1 (en) 2006-08-28

Family

ID=37148166

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050013132A KR100617797B1 (en) 2004-02-17 2005-02-17 Device and method for displaying data using overlay technique in terminal equipment

Country Status (1)

Country Link
KR (1) KR100617797B1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003008694A (en) 2001-06-22 2003-01-10 Hitachi Kokusai Electric Inc Portable telephone
KR100819243B1 (en) * 2002-06-27 2008-04-03 삼성전자주식회사 Method of taking and storing a picture image on digital-camera-enabled phone
KR20040017054A (en) * 2002-08-20 2004-02-26 주식회사 팬택 Animation Display Apparatus And Method In Mobile Communication Terminal
KR100517979B1 (en) * 2002-12-10 2005-10-04 엘지전자 주식회사 Video overlay apparatus for mobile communication device
KR100557154B1 (en) * 2003-07-29 2006-03-03 삼성전자주식회사 Method for displaying of picture in wireless terminal
KR100618816B1 (en) * 2003-12-10 2006-08-31 삼성전자주식회사 Display device of mobile phone having sub memory

Also Published As

Publication number Publication date
KR100617797B1 (en) 2006-08-28

Similar Documents

Publication Publication Date Title
CN110766777B (en) Method and device for generating virtual image, electronic equipment and storage medium
CN110377264B (en) Layer synthesis method, device, electronic equipment and storage medium
US20090002368A1 (en) Method, apparatus and a computer program product for utilizing a graphical processing unit to provide depth information for autostereoscopic display
JP2009518103A (en) Method and system for enabling a user to play a large screen game with a mobile device
KR20100056049A (en) Method and apparatus for composing images
CN111552530A (en) Terminal screen adapting method, device and equipment for user interface
KR100855611B1 (en) Method, apparatus and system for showing and editing multiple video streams on a small screen with a minimal input device
WO2010136969A1 (en) Zooming of displayed image data
JP2004172671A (en) Moving picture processing method and apparatus
CN111615682B (en) Method and apparatus for selecting a presentation mode based on a viewing angle
KR20090092035A (en) Method for generating mosaic image and apparatus for the same
US20130235081A1 (en) Image processing apparatus, image processing method and recording medium
CN107870703B (en) Method, system and terminal equipment for full-screen display of picture
CN111338743B (en) Interface processing method and device and storage medium
JP2003316490A (en) Remote control system and method thereof
JP4973908B2 (en) Communication terminal and display method thereof
US20080163076A1 (en) Replacing web browser images with view finder or gallery pictures
KR100617797B1 (en) Device and method for displaying data using overlay technique in terminal equipment
US20110193873A1 (en) Device and method for generating mosaic image including text
EP2346262A2 (en) Method and apparatus for setting stereoscopic effect in a portable terminal
CN115205164A (en) Training method of image processing model, video processing method, device and equipment
CN110941413B (en) Display screen generation method and related device
CN113888673A (en) Map editing method, system, device, computing equipment and storage medium
CN114257755A (en) Image processing method, device, equipment and storage medium
JP2014153747A (en) Program, information equipment and method for controlling character display on basis of image complexity

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120730

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130730

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140730

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150730

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160728

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee